Indice
- 1 Il colosso non aderirà al codice volontario sull’intelligenza artificiale generativa: “Così l’Europa si allontana dalla leadership tecnologica”
- 2 Le critiche delle imprese europee e la richiesta di uno “stop”
- 3 A chi si rivolge il Codice volontario europeo
- 4 Meta teme ripercussioni sull’innovazione e l’economia digitale
- 5 Le conseguenze della scelta: tra libertà e isolamento
Il colosso non aderirà al codice volontario sull’intelligenza artificiale generativa: “Così l’Europa si allontana dalla leadership tecnologica”
Meta ha annunciato che non sottoscriverà il Codice di buone pratiche dell’Unione Europea rivolto ai modelli di intelligenza artificiale a finalità generali (GpAI), recentemente presentato a Bruxelles. Pur essendo un’iniziativa volontaria, il documento mira a offrire linee guida per l’implementazione dell’AI Act, la nuova legge europea sull’intelligenza artificiale. La reazione dell’azienda di Mark Zuckerberg è stata netta. “Questo Codice introduce una serie di incertezze giuridiche per gli sviluppatori” ha dichiarato Joel Kaplan, Chief Global Affairs Officer di Meta, aggiungendo che le misure previste “vanno ben oltre l’ambito della legge stessa”. Secondo l’azienda, l’approccio normativo europeo rischia di ostacolare lo sviluppo e l’adozione di tecnologie IA avanzate, spingendo innovazione e capitali fuori dal continente. “L’Europa sta imboccando la strada sbagliata”, ha avvertito Kaplan, alimentando un acceso dibattito tra istituzioni e Big Tech.
Le critiche delle imprese europee e la richiesta di uno “stop”
La posizione di Meta non è isolata. Anche numerose imprese europee di primo piano hanno manifestato dubbi sul percorso normativo intrapreso da Bruxelles. Kaplan ha ricordato la lettera inviata alla Commissione da 44 grandi aziende, tra cui Bosch, Siemens, SAP, Airbus e BNP Paribas, per chiedere un congelamento dell’AI Act, definito “stop the clock”. L’iniziativa ha sottolineato le preoccupazioni legate all’impatto delle nuove regole sul mercato e sulla capacità delle imprese europee di competere a livello globale.
Secondo Meta, aderire al Codice significherebbe accettare un impianto regolatorio eccessivo, che finirebbe per frenare i modelli di IA di frontiera e limitare la competitività del continente. “Condividiamo le preoccupazioni espresse da queste aziende”, ha ribadito Kaplan, spiegando che la normativa europea, nella sua forma attuale, rischia di penalizzare chi costruisce imprese basate sull’IA generativa.
A chi si rivolge il Codice volontario europeo
Il Codice di buone pratiche, sebbene non vincolante, è destinato a fornire linee guida dettagliate per l’attuazione di alcune disposizioni dell’AI Act. Sarà applicabile a partire dal 2 agosto 2025 e interesserà in particolare i fornitori di modelli GpAI ad alto impatto sistemico, come GPT-4 di OpenAI, Gemini di Google e Grok, sviluppato da xAI, la startup fondata da Elon Musk. L’adesione rappresenta un modo per le aziende di dimostrare proattività e responsabilità normativa, facilitando la futura transizione ai vincoli obbligatori dell’AI Act.
Il documento è frutto di un processo consultivo durato mesi, condotto da 13 esperti indipendenti con il supporto di oltre mille stakeholder tra imprese, accademici e rappresentanti della società civile. Tuttavia, la stesura è stata accompagnata da numerose tensioni. Alcuni operatori hanno denunciato pressioni da parte delle Big Tech per ammorbidire i passaggi più vincolanti del testo, soprattutto quelli riguardanti la trasparenza dei dati, la tracciabilità e la documentazione dei modelli di IA.
Meta teme ripercussioni sull’innovazione e l’economia digitale
Secondo Meta, l’applicazione anticipata del Codice potrebbe compromettere la capacità di innovazione del sistema tecnologico europeo, che già si trova a inseguire le leadership globali degli Stati Uniti e della Cina. L’azienda teme che un eccesso di regole, peraltro formulate in modo poco chiaro, generi incertezze legali per gli sviluppatori e crei uno svantaggio competitivo per chi opera nel rispetto della normativa Ue. Per questo, ha preferito chiamarsi fuori.
La bozza finale del Codice, attesa inizialmente per maggio ma pubblicata solo a luglio, ha raccolto reazioni contrastanti anche da parte di esperti e aziende che operano nel settore. L’obbligo di pubblicare informazioni tecniche sull’addestramento dei modelli e sulle fonti dati utilizzate è stato indicato come un potenziale rischio per la riservatezza industriale e il vantaggio competitivo. Una preoccupazione che ha trovato sponda proprio nella posizione assunta da Meta.
Le conseguenze della scelta: tra libertà e isolamento
Il rifiuto di firmare il Codice non comporta multe immediate, poiché si tratta di un documento non vincolante. Tuttavia, la decisione potrebbe costare caro a Meta sul piano strategico e reputazionale. Non aderendo, l’azienda perde la possibilità di contribuire attivamente alla definizione delle regole tecniche e potrebbe ritrovarsi esposta a un controllo più rigido da parte delle autorità europee. Inoltre, la scelta potrebbe isolare Meta rispetto ad altri operatori che decideranno di collaborare, generando diffidenza da parte di governi, partner e stakeholder.
Anche sul piano dell’immagine pubblica, la posizione di Meta rischia di alimentare l’idea che l’azienda voglia evitare ogni tipo di supervisione normativa, proprio mentre l’IA è sotto i riflettori globali per implicazioni etiche, sociali ed economiche. In prospettiva, quando l’AI Act diventerà pienamente operativo, il mancato allineamento potrebbe rendere più difficile per Meta dimostrare la propria conformità, con il rischio di sanzioni fino al 7% del fatturato annuo globale, come previsto per le violazioni più gravi.
