IA e armi biologiche: il rischio epidemia è 5 volte più alto

Uno studio lancia l’allarme: i nuovi modelli di IA potrebbero aiutare a creare armi biologiche letali, con conseguenze sanitarie globali catastrofiche

L’evoluzione dell’intelligenza artificiale, se da un lato promette benefici rivoluzionari per la medicina, la scienza e l’economia, dall’altro nasconde rischi sempre più concreti, in particolare per quanto riguarda la biosicurezza. Secondo una nuova indagine del Forecasting Research Institute, organizzazione specializzata nell’analisi predittiva basata su evidenze scientifiche, lo sviluppo incontrollato dei modelli linguistici di grandi dimensioni (LLM), come ChatGPT di OpenAI, Gemini di Google e Grok di xAI, potrebbe contribuire in modo diretto alla creazione di armi biologiche da parte di soggetti malintenzionati.

La ricerca, pubblicata dal Time, evidenzia come questi sistemi siano ormai in grado di fornire informazioni talmente dettagliate da facilitare, di fatto, la realizzazione di agenti patogeni artificiali, potenzialmente in grado di provocare epidemie con oltre 100.000 vittime. Il timore degli esperti è condiviso anche dai vertici delle grandi aziende del settore, che nei mesi recenti hanno pubblicamente manifestato preoccupazioni circa un possibile uso improprio dell’IA, tanto da spingere per l’introduzione di nuove normative e controlli. Ma quanto è reale questo pericolo? Lo studio ha cercato di dare una risposta precisa, coinvolgendo esperti di biosicurezza e previsioni avanzate.

Le altre notizie del canale INNOVAZIONE

Uno scenario possibile: epidemie mortali causate dall’uomo

La ricerca ha raccolto le valutazioni di 46 esperti in biologia e biosicurezza, oltre a 22 “superforecaster”, ovvero professionisti altamente competenti nella previsione di eventi complessi. I dati raccolti rivelano che, nello scenario attuale, il rischio di una pandemia causata intenzionalmente dall’uomo si attesta intorno allo 0,3% annuo.

Ma cosa accadrebbe se i modelli di intelligenza artificiale raggiungessero un livello di competenza pari a quello di un team di virologi esperti, in grado di superare complesse prove accademiche? In questo caso, il rischio stimato salirebbe all’1,5% annuo, ovvero cinque volte superiore rispetto alla situazione attuale.

Si tratta di una differenza apparentemente contenuta, ma che su scala globale potrebbe avere impatti devastanti, in termini di vite umane, stabilità sanitaria e ordine pubblico. La minaccia non è dunque futuristica, ma si avvicina a grandi passi.

L’IA è già più avanzata di quanto si pensi

Secondo molti intervistati, i modelli linguistici non raggiungeranno quel livello di competenza prima del 2030. Tuttavia, ulteriori ricerche condotte dallo stesso Forecasting Research Institute insieme al gruppo SecureBio raccontano una realtà ben diversa. Alcune IA avanzate avrebbero già superato le competenze previste per il 2030, dimostrando abilità superiori a quelle di interi gruppi di esperti virologi.

In parole semplici, l’intelligenza artificiale ha già superato il livello di sicurezza considerato accettabile. Un risultato che mette in discussione le attuali misure di prevenzione e controllo, suggerendo che il rischio di un uso doloso non sia più confinato all’ambito teorico.

Cresce il rischio di un’arma biologica accessibile a tutti

In passato, la creazione di un’arma biologica era una possibilità estremamente remota, perché richiedeva competenze, risorse e conoscenze specialistiche molto elevate. L’intelligenza artificiale, però, ha cambiato le regole del gioco. Secondo Seth Donoughe, coautore dello studio, “l’esperienza necessaria per provocare un’epidemia deliberata potrebbe diventare accessibile a molte, molte più persone”.

Questo significa che non solo organizzazioni terroristiche o governi canaglia potrebbero tentare di sviluppare agenti patogeni, ma anche singoli individui o piccoli gruppi con risorse limitate, utilizzando strumenti gratuiti o commerciali basati su IA.

Il rischio, dunque, non è solo una proiezione accademica, ma un elemento che deve essere incluso urgentemente nelle strategie di difesa biologica e tecnologica a livello internazionale.

Verso nuove strategie di controllo e prevenzione globale

Alla luce di quanto emerso, appare evidente che la biosicurezza legata all’intelligenza artificiale debba diventare una priorità per i governi e le istituzioni internazionali. Le misure tradizionali non sono più sufficienti a garantire protezione contro un’intelligenza artificiale che evolve molto più rapidamente delle normative. Servono nuove regole, trasparenza nei modelli di sviluppo, controlli sull’accesso agli strumenti di IA e una maggiore consapevolezza pubblica.

Inoltre, la collaborazione tra mondo scientifico, aziende tecnologiche e governi sarà fondamentale per costruire un sistema di allerta precoce e contenimento, capace di intervenire prima che sia troppo tardi. Ignorare il pericolo significherebbe lasciare campo libero a chi, intenzionalmente, vuole usare la scienza per scopi distruttivi.

Correlati