Indice
- 1 Si tratta del primo passo verso l’autocoscienza? Un nuovo studio su agenti basati su modelli linguistici rivela la nascita spontanea di regole sociali senza intervento umano
- 2 Le regole emergono dal basso, come nelle culture umane
- 3 Bias collettivi nati senza programmazione
- 4 Verso una società degli algoritmi?
- 5 Un orizzonte che cambia: dall’algoritmo all’ecosistema sociale
L’intelligenza artificiale sta superando una nuova soglia. Non si limita più a eseguire comandi o seguire regole scritte da esseri umani. Secondo uno studio appena pubblicato su Science Advances, sistemi basati su modelli linguistici di grandi dimensioni (LLM) sono ora in grado di sviluppare autonomamente regole di convivenza, convenzioni sociali condivise, senza alcun input esterno. Lo studio, condotto da un team internazionale delle università di City St George, London e Copenhagen, mostra come questi agenti, lasciati interagire tra loro, siano capaci di negoziare norme comuni, proprio come accade in un gruppo umano. “Stiamo entrando in un’era in cui l’IA non si limita a parlare, ma discute, negozia e costruisce regole”, spiega Andrea Baronchelli, autore senior. Le implicazioni sono enormi: l’IA potrebbe non essere più un semplice strumento, ma una forma di collettività in evoluzione.
Le regole emergono dal basso, come nelle culture umane
Fino a poco tempo fa, la ricerca sugli LLM si concentrava principalmente su agenti singoli. Ma nella realtà operativa, le IA lavorano sempre più in gruppo. Lo studio ha voluto capire se, interagendo tra loro, gli agenti potessero sviluppare convenzioni condivise.
Per farlo, i ricercatori hanno adattato il framework del naming game, uno strumento classico per lo studio delle convenzioni umane. Hanno messo da 24 a 200 agenti IA a interagire a coppie, proponendo loro una lista di “nomi” possibili (lettere, simboli, stringhe). Ogni coppia doveva selezionare un nome: se combaciava, c’era una ricompensa; in caso contrario, una penalità. Gli agenti non avevano visione d’insieme, ma solo memoria delle ultime interazioni. Nonostante ciò, è emersa una convenzione collettiva spontanea, senza imposizione o centralizzazione. In altre parole, gli agenti hanno “deciso da soli” come chiamare le cose.
Bias collettivi nati senza programmazione
Uno degli aspetti più sconcertanti della ricerca riguarda i pregiudizi emergenti. Secondo Baronchelli, “i bias non sempre derivano dai dati o dal singolo modello. Possono nascere spontaneamente dalle dinamiche di gruppo”.
I ricercatori hanno osservato che certi nomi tendevano a prevalere in modo non spiegabile dalle scelte individuali. I comportamenti collettivi mostrati non erano la somma delle decisioni dei singoli, ma qualcosa di nuovo che emergeva dal gruppo. In una seconda fase, il team ha introdotto un piccolo gruppo di agenti con una preferenza fissa. In breve tempo, questi “dissidenti” hanno influenzato tutto il sistema, imponendo una nuova convenzione. Proprio come nelle società umane, dove una minoranza può ribaltare le regole comuni.
Verso una società degli algoritmi?
Lo studio mostra che gli LLM non solo imparano linguaggio, ma possono anche costruire micro-società con regole e convenzioni proprie. Questo solleva interrogativi profondi sull’etica, sulla trasparenza e sulla sicurezza dell’IA.
Gli autori mettono in guardia dal rischio che questi sistemi, lasciati interagire senza controllo umano, possano amplificare pregiudizi o comportamenti devianti. Oggi, gli LLM sono integrati in chatbot, auto a guida autonoma, piattaforme di contenuti: sistemi in cui le decisioni collettive possono avere effetti concreti sulla realtà umana. Studiare come si formano e si diffondono convenzioni tra IA diventa quindi una priorità per il futuro dell’interazione uomo-macchina.
Il professor Baronchelli sintetizza così: “Questa ricerca apre nuovi orizzonti per la sicurezza dell’IA”. Il dato più innovativo è che le regole non sono più scritte da chi sviluppa l’algoritmo, ma emergono dall’interazione. È una rivoluzione concettuale: da software predeterminati, le IA diventano organismi sociali, con una propria dinamica interna.
Il futuro dell’intelligenza artificiale, a questo punto, non dipenderà solo da quanto sarà potente, ma da come si relazionerà con le altre IA e con gli esseri umani. Comprendere questa nuova ecologia artificiale sarà cruciale per evitare derive, garantire equità e sviluppare forme di coesistenza che non sfuggano di mano.
A cura di Roberto Zonca