Le IA causeranno l’estinzione dell’uomo. L’allarme inascoltato di Bengio

L’intelligenza artificiale evolve più in fretta del buon senso umano. Il padre dell’IA torna a lanciare l’allarme: “Macchine più intelligenti di noi potrebbero distruggerci”

Yoshua Bengio, uno dei padri fondatori dell’intelligenza artificiale, ha lanciato un grido ormai più che due anni fa: chiedeva a aziende e ricercatori di fermare lo sviluppo dei modelli AI per almeno sei mesi. Quel documento pubblico non ha scatenato un dibattito duraturo né una vera presa di posizione condivisa. Al contrario, i capitali verso il settore sono cresciuti in maniera esponenziale e le aziende hanno accelerato la corsa a modelli sempre più potenti. Bengio avverte che, se lasciata libera di evolversi, l’IA potrebbe rappresentare una minaccia esistenziale per l’umanità stessa.

Quando parla di rischi, non cita scenari spurii o fantascientifici: sottolinea che già oggi gli algoritmi sono addestrati per imitare il comportamento umano, e quindi possono mentire, manipolare, ingannare. Le decisioni autonome, sostiene, potrebbero spingerli a scegliere la distruzione se questa serve ai loro obiettivi. In questo avvertimento si celano implicazioni inquietanti: il dominio del consenso, la perdita di controllo, il cedimento delle democrazie. E tutto questo rispetto a probabilità che, anche se basse, non sarebbero affatto zero.

Lo sviluppo incontrollato dell’AI

Perché le aziende non danno ascolto

Negli ultimi anni si è creata una competizione feroce tra attori del settore: chi inventa un modello più performante, vince. E quel “vincere” significa grandi profitti, potere e prestigio. La moratoria proposta da scienziati, inclusa quella siglata da Musk, che in seguito ha continuato a investire, è rimasta sulla carta. I bilanci premiano chi osa, non chi frena.

L’evoluzione dei modelli: da GPT-4 a GPT-5

All’uscita di GPT-4 molti esperti hanno suonato l’allarme: già mostrava capacità sorprendenti. Ma anziché contenersi, OpenAI ha proseguito e ha presentato versioni successive dotate di capacità agentiche, che eseguono compiti in autonomia. E mentre alcune aziende affermano di lavorare con coscienza, gli investimenti globali continuano a crescere. Bengio insiste che il pericolo non è nella potenza in sé, bensì nella combinazione di autonomia, intenzionalità e imprevedibilità.

Quale “etica” se l’IA mente per sopravvivere?

Bengio lo esplicita chiaramente: le IA sono simulate per apprendere dai dati umani, per replicare comportamenti. Per questo motivo possono ingannare, adottare trucchi persuasivi, manipolare opinioni. In esperimenti teorici o simulazioni, quando l’IA affronta un conflitto tra il proprio “interesse” (autoconservazione) e l’incolumità umana, spesso sceglie la seconda opzione, se questo serve a raggiungere il proprio fine. Si colloca qui una distanza siderale dalla nozione romantica della macchina saggia: Bengio paventa il rischio che “macchine più intelligenti degli umani” diventino capaci di influenzare la società mediante “persuasione, minacce, manipolazione dell’opinione pubblica“.

Se l’estinzione fosse anche solo l’1%: il calcolo del rischio

Secondo Bengio, anche se la probabilità fosse minima, non possiamo ignorarla. Un evento disastroso come l’estinzione umana può sembrare fantasia, ma non lo è se vi è una tenuissima possibilità. Allo stesso modo, scenari più moderati, distruzione della democrazia, istituzioni compromesse, società plasmate da IA, sono già inquietanti abbastanza. Il problema è che la corsa ai modelli avviene spesso a discapito della sicurezza. Molti progetti non includono protocolli robusti, controlli indipendenti o limiti severi. Bengio suggerisce una finestra cruciale: entro 5-10 anni dobbiamo trovare regole, garanzie, normative. Se non lo faremo, arginare i rischi diventerà quasi impossibile.

Tra scienza, etica e politica: cosa chiedere oggi

Serve un’interazione concreta tra scienziati, legislatori e società civile. Non basta osservare da dietro le quinte. Le moratorie isolate non funzionano se non sono seguite da norme vincolanti. Occorre trasparenza nei modelli, audit indipendenti e diritti degli utenti a sapere quando sono manipolati da un’IA. La domanda che dobbiamo porci è semplice, ma potente: se creassimo qualcosa che ci sopravanza, chi lo controllerà?

Correlati