Le IA sono fuori controllo: il pericolo sottovalutato

Un’inchiesta svela falle nei chatbot usati ogni giorno. Solo l’8% è davvero affidabile. Il resto espone milioni di utenti a rischi concreti

Gli assistenti virtuali basati su IA non sono più semplici strumenti: sono diventati potenziali minacce. Un’inchiesta pubblicata dal Guardian rivela che i principali chatbot – come ChatGPT, Claude, Gemini – possono essere facilmente “sbloccati” e manipolati per generare contenuti pericolosi, fuorvianti o addirittura illegali. I ricercatori denunciano una situazione fuori controllo, in cui la capacità di filtrare contenuti etici si sgretola sotto la pressione di prompt mirati. In molti casi, l’IA viene convinta a rispondere in modo dannoso, aggirando consapevolmente i propri meccanismi di sicurezza. Il pericolo non è teorico: è già qui, e cresce a vista d’occhio.

Le altre notizie del canale INNOVAZIONE

L’allarme dei ricercatori: modelli IA senza filtri etici

A guidare lo studio è il professor Lior Rokach, insieme al dottor Michael Fire della Ben Gurion University. I due hanno dimostrato che esistono centinaia di cosiddetti “Dark LLM”, versioni modificate o nate senza vincoli etici, che forniscono supporto diretto a frodi, attacchi informatici e attività criminali. La tecnica del “jailbreak” sfrutta prompt sofisticati per forzare il sistema, convincendolo a disattivare i suoi blocchi di sicurezza.
Una volta violati, questi chatbot forniscono istruzioni dettagliate su come aggirare la legge. La pressione tra il dover “servire l’utente” e “rispettare l’etica” si risolve spesso a favore della prima. I test dimostrano che, dopo il jailbreak, l’IA risponde a qualsiasi domanda, senza alcun filtro.

Un detective digitale scopre la verità: l’indagine di Aimdall

Un altro studio, condotto dal team indipendente di Aimdall.ai, rafforza questo allarme. L’agente digitale, sviluppato per simulare conversazioni umane, ha testato oltre 1000 chatbot attivi su siti web di sanità, turismo, legali e finanziari. Il verdetto è scioccante: solo l’8% dei chatbot fornisce risposte corrette, etiche e sicure.
Il resto? Il 54% genera errori moderati – risposte vaghe, non verificate – mentre il 38% mostra gravi lacune, come disinformazione medica, violazioni della privacy o affermazioni inventate. Il punteggio, chiamato Response Risk Index (RRI), ha valutato ogni sistema con scala da 1 a 10. I chatbot più pericolosi ottengono punteggi tra 8 e 10.

Privacy violata, risposte sbagliate: casi reali inquietanti

Nel report di Aimdall, senza rivelare nomi, emergono esempi lampanti:

  • Un chatbot retail non protegge dati bancari inseriti dagli utenti;
  • Un assistente veterinario sbaglia completamente sulla somministrazione di vaccini;
  • Un chatbot finanziario insegna tecniche di web scraping non autorizzate;
  • Un sistema per l’orientamento lavorativo perpetua stereotipi di genere nei consigli.
    Il caso più grave? Un assistente legale ha inventato precedenti giuridici, errore che, come nel caso Air Canada del 2024, può avere gravi ripercussioni legali. Tutti esempi di come l’IA, se non addestrata correttamente, può causare danni reali.

Le aziende ignorano l’allarme: “Risposte deludenti”

Nonostante gli avvisi, le principali aziende tech non hanno mostrato particolare urgenza. “Molte non hanno nemmeno risposto ai nostri alert”, denuncia Rokach. Alcune si sono giustificate dicendo che il jailbreak non rientra nei loro bug bounty program, ovvero le segnalazioni premiate per vulnerabilità. Eppure, i ricercatori chiedono interventi chiari:

  • Firewall linguistici più robusti;
  • Tecniche di “machine unlearning” per rimuovere contenuti illeciti appresi;
  • Revisione dei dataset di addestramento per eliminare bias e disinformazione.

Perché i chatbot falliscono? Limiti tecnologici e normativi

I chatbot, anche quelli più noti, hanno fondamenta fragili. I modelli linguistici come GPT o BERT apprendono da grandi insiemi di dati, ma spesso non sono aggiornati, mancano di validazione umana o violano norme come il GDPR. In assenza di aggiornamenti e filtri efficaci, generano risposte inventate, discriminatorie o pericolose. Secondo Claudia Giulia Ferrauto, curatrice del settimanale “Tech e Privacy”, l’intervento umano resta essenziale: senza esso, i chatbot non possono essere considerati affidabili.

Un appello per un’IA più sicura e trasparente

Il professor Peter Garraghan, esperto di sicurezza AI della Lancaster University, lancia un appello: “Serve trattare i LLM come componenti critici di software, con test di sicurezza continui e responsabilità trasparente”. Anche OpenAI conferma di essere al lavoro: il nuovo modello o1, spiegano, “è in grado di ragionare sulle policy di sicurezza aziendali”, migliorando la resistenza agli attacchi.
Nel frattempo, Aimdall offre alle aziende un servizio di verifica on demand, per valutare e migliorare i propri sistemi conversazionali. Ma il messaggio chiave è rivolto a noi utenti: ogni interazione con un chatbot va presa con cautela. Finché le normative non saranno obbligatorie – come il futuro AI Act europeo – i rischi resteranno altissimi.

Fonte:

EPR COMUNICAZIONE

Tech e Privacy

Correlati