Le menti più brillanti del mondo contro le IA: serve subito una moratoria

I firmatari, oltre 800, riconoscono benefici come progressi in medicina o prosperità globale, ma di mettere un freno temporaneo per salvare l’economia mondiale e la stessa umanità

Il dibattito attorno all’Future of Life Institute (FLI) esplode: un appello firmato da oltre 800 personalità del mondo della tecnologia, della politica, della scienza, dei media, della religione – e persino della monarchia – chiede una moratoria immediata sullo sviluppo della superintelligenza artificiale. Tra i firmatari si contano nomi come Geoffrey Hinton e Yoshua Bengio, considerati due dei “padri” dell’IA, insieme a Steve Wozniak (co-fondatore di Apple) e Richard Branson (fondatore di Virgin). Ma non solo: figurano anche nomi a sorpresa come Steve Bannon, ex stratega di Donald Trump; Mike Mullen, ex Capo di Stato Maggiore degli Stati Uniti; l’attore Joseph Gordon‑Levitt; i musicisti Will.I.am e Grimes; e persino i duchi di Sussex, Harry, Duke of Sussex e Meghan Markle. È una mappa sorprendente: dal deep-learning accademico alla pop culture, tutti insieme a dire «alto lì». L’obiettivo? Fermare la corsa delle aziende tecnologiche verso la superintelligenza finché non ci siano garanzie di sicurezza e supporto pubblico: un consenso scientifico e un sostegno informato del pubblico sono al centro dell’appello. Non si tratta di demonizzare l’AI, i firmatari riconoscono benefici come progressi in medicina o prosperità globale, ma di mettere un freno temporaneo alla rincorsa verso un’intelligenza che potrebbe superare quella umana.

Le altre notizie del canale NEWS

Cosa chiedono i firmatari: la “lista della spesa” della moratoria

L’iniziativa, promossa dal Future of Life Institute, chiede un divieto temporaneo – una moratoria – allo sviluppo di sistemi di superintelligenza artificiale finché non saranno soddisfatti due obiettivi fondamentali: 1) un ampio consenso scientifico che dimostri che tali sistemi possono essere sviluppati e gestiti in modo sicuro, e 2) un forte sostegno pubblico, ben informato, che impedisca che le leve della superintelligenza restino solo nelle mani delle grandi multinazionali tecnologiche. I firmatari non negano i benefici potenziali dell’AI, come applicazioni nella salute o miglioramento della prosperità globale, ma mettono in guardia: la ricerca spasmodica verso la superintelligenza, prevista da alcune aziende già nel prossimo decennio, comporta rischi che vanno ben al di là delle solite preoccupazioni.

Tra questi rischi compaiono la perdita di posti di lavoro e l’obsolescenza economica umana, la riduzione della libertà e della dignità personale, minacce alla sicurezza nazionale, e nella visione più pessimistica l’estinzione dell’umanità. Il documento segnala anche che il sistema di supervisione e governance non è ancora all’altezza della sfida: ad esempio il Future of Life Institute accusa OpenAI di aver risposto alle critiche con azioni legali contro l’organizzazione stessa e il suo presidente, un comportamento che secondo i firmatari mina la fiducia nel settore.

Superintelligenza: cos’è e perché ci fa paura

Il termine “superintelligenza” non è solo un titolo di film: nella comunità scientifica viene distinto chiaramente da altre forme di intelligenza artificiale. Oggi esistono sistemi di AI ristretta (narrow AI) in grado di eccellere in compiti specifici, ad esempio i chatbot o i sistemi di visione artificiale, ma non possiedono comprensione generale o autonomia nel contesto. Poi c’è l’idea di una AI generale (AGI, Artificial General Intelligence): un sistema capace di apprendere e ragionare su qualunque compito cognitivo, come un cervello umano (ma macchina). E infine la superintelligenza (ASI, Artificial Superintelligence): quell’ipotetica macchina che supera le capacità umane in tutti i campi cognitivi — analisi, creatività, strategia, intuizione, adattamento. È proprio qui che iniziano le vere domande etiche e di sicurezza: se macchine diventano così potenti, chi le controlla? E con quali garanzie?

Ma le aziende vogliono le IA

Quando le aziende parlano di superintelligenza, non intendono semplicemente un modello linguistico più grande o un algoritmo più veloce. Vogliono un sistema che possa autogestire il proprio ciclo di apprendimento, migliorare i propri modelli e obiettivi senza intervento umano diretto, formulare nuovi obiettivi e nuove strategie in modo indipendente. Una macchina capace di meta-apprendimento (imparare a imparare) e di trasferire conoscenze da un dominio all’altro, senza essere addestrata esplicitamente per quei contesti.

Nel concreto, ciò significa poter analizzare dati e variabili in quantità inarrivabili per l’uomo, adattarsi quasi istantaneamente e migliorarsi da sola (recursive self-improvement). È proprio questa capacità di auto-migliorarsi che spaventa: se un ciclo non controllato di auto-miglioramento dovesse partire, la crescita dell’intelligenza potrebbe diventare esponenziale, e l’umanità potrebbe perdere la supervisione. Ecco perché molti chiedono una “pausa” prima che la corsa diventi ingestibile.

I percorsi tecnici e gli ostacoli: realistici ma complicati

Le strade verso un’AGI/ASI concreta sono tracciate, e ce ne sono almeno cinque principali.

1) Modelli di base sempre più grandi (ad esempio evoluzioni dei trasformatori), che mostrano nuove capacità aumentando parametri, dati e potenza di calcolo.

2) Meta-learning e auto-miglioramento controllato, tecniche che permettono al sistema di migliorare come apprende, utili ma rischiose se il sistema sviluppa obiettivi propri non allineati.

3) Apprendimento tramite interazione e “world models”, simulazioni ad alta fedeltà necessarie per pianificare a lungo termine e trasferire capacità dalla simulazione al mondo reale.

4) Integrazione neuro-simbolica e ragionamento causale, che servono per fare inferenze robuste e spiegabili, non solo correlazioni.

5) Progresso hardware e infrastrutturale (acceleratori, memoria a banda larga, infrastrutture distribuite, e forse in futuro sistemi neuromorfici o quantistici) che rendano praticabile addestramento e inferenza su scala enorme.

Tuttavia gli ostacoli pratici sono tutt’altro che banali: definire esattamente cosa deve ottimizzare un sistema, garantire “robustezza fuori distribuzione” (cioè performance affidabile quando il mondo cambia), avere metodi efficaci di verifica e interpretabilità per agenti che imparano continuamente, e contenere al contempo costi energetici e infrastrutturali. In breve: i percorsi tecnici verso AGI/ASI sono plausibili e delineabili, ma la loro realizzazione sicura richiede ancora soluzioni pratiche per allineamento, verifica, efficienza e governance.

E adesso? Pochi segnali ma poche speranze di un freno concreto

Malgrado la risonanza mediatica dell’appello, è improbabile che l’iniziativa abbia un effetto concreto immediato: un progetto simile nel 2023, firmato anche da Elon Musk, non è riuscito a frenare l’ambizione dei colossi tecnologici. La differenza oggi è che la consapevolezza del pubblico sui rischi dell’IA è cresciuta. Ma consapevolezza non significa automaticamente azione efficace. Le grandi aziende mantengono i loro piani, la corsa continua, e la moratoria che viene richiesta potrebbe non bastare se non accompagnata da regolamentazioni globali, strutture di controllo e un sostegno governativo serio.

Correlati