Indice
Da 10 ottobre 2025 è entrata in vigore in Italia la legge n. 132/2025. I)l reato è punibile a querela della persona offesa
Da 10 ottobre 2025 è entrata in vigore in Italia la legge n. 132/2025, la prima normativa nazionale organica sull’intelligenza artificiale. Con essa viene introdotto un reato inedito nel Codice penale: l’“illecita diffusione di contenuti generati o manipolati con sistemi di IA”, noto come articolo 612-quater c.p.. Secondo il testo ufficiale, «Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni».
La legge precisa che il reato è punibile a querela della persona offesa, fatta salva la procedibilità d’ufficio qualora il fatto sia connesso ad altri reati per i quali si procede d’ufficio, oppure nel caso in cui la vittima sia incapace per età o infermità, o se il reato è a danno di una pubblica autorità per le sue funzioni. In altri termini, anche un video deepfake apparentemente innocuo può diventare pericoloso se condiviso senza permesso e con effetti dannosi.
Questo testo recepisce un vuoto legislativo: pur non usando espressamente il termine “deepfake”, la formulazione è chiarissima nell’abbracciare contenuti alterati o generati con IA. Il perimetro è largo: immagini, video, audio, voci. Non conta che la falsificazione sia totale o parziale: basta la capacità di trarre in inganno. Inoltre la legge si inserisce in un contesto più ampio: il disegno di legge sull’IA (DDL n. 1146/2024), approvato al Senato nel marzo 2025, prevede una serie di interventi dalla tutela del diritto d’autore alle obbligazioni delle piattaforme digitali. Insomma: l’era dell’“io questo lo condivido tanto per gioco” potrebbe finire in tribunale.
Perché serve una legge anti-deepfake
Il rischio reale dietro le immagini generate
Negli ultimi anni l’intelligenza artificiale generativa, la stessa che crea volti, ambienti e voci realistici, ha raggiunto livelli tali da mettere in pericolo la dignità, l’identità e la reputazione delle persone. I deepfake (video e audio falsi) sono stati usati per scopi sessuali, ricatti, campagne diffamatorie, manipolazioni politiche. Senza regole chiare, chiunque può diventare vittima di un contenuto che appare autentico ma non lo è.
Ne è un esempio recente l’app Clothoff sospesa dal Garante della privacy: consentiva la creazione di nudi deepfake partendo da fotografie di persone reali, anche minorenni, senza verificare alcun consenso. Un’operazione che ha sfiorato il limite della legalità con estrema leggerezza.
Il vuoto normativo fino a ieri
Prima della legge 132/2025, non esisteva in Italia una norma specifica per i deepfake. Le condotte lesive potevano rientrare in vari articoli – diffamazione, sostituzione di persona, interferenze nella vita privata – ma senza una disciplina chiara e specializzata.
Critici del disegno di legge hanno lamentato che la norma 612-quater rischia di essere troppo aperta, lasciando ampio margine di interpretazione al giudice: cosa si intende per “danno ingiusto”? Quanto deve essere convincente il contenuto? Tali ambiguità potrebbero generare contenziosi interpretativi.
Eppure gli strumenti finora adottati non bastano: le vittime restavano spesso senza tutela efficace e la diffusione di contenuti manipolati restava in larga parte impunita.
I cardini dell’articolo 612-quater c.p.
L’articolo 612-quater si snoda su alcuni elementi essenziali che definiscono il nuovo reato:
- Soggetto attivo: chiunque invii, pubblica o diffonda contenuti alterati o generati da IA, anche solo in parte falsi.
- Oggetto materiale: immagini, video, voci o suoni con falsificazioni, totali o parziali, realizzate mediante sistemi di intelligenza artificiale.
- Fattore ingannevolezza: i contenuti devono essere idonei a far credere al pubblico che siano genuini, cioè non manipulati.
- Danno ingiusto: deve esserci un pregiudizio verso la vittima, che può essere reputazionale, morale, psicologico o materiale.
- Consenso assente: la diffusione avviene senza il permesso della persona rappresentata.
- Procedibilità: in generale su querela, salvo casi speciali (vittima incapace, autorità pubbliche, connessione con reati d’ufficio).
- Pena prevista: reclusione da 1 a 5 anni.
Importante: il fatto può essere punito anche se la falsificazione riguarda solo una parte del contenuto. E la legge può intervenire anche se il deepfake appare “leggero” ma è determinante per creare danno.
Criticità, sfide e scenari futuri
Alcuni giuristi hanno sollevato perplessità: la norma 612-quater potrebbe rimanere troppo generica e lasciare spazio a interpretazioni divergenti. Le aree grigie riguardano l’effettiva ingannevolezza del materiale e l’entità del danno. Key4biz+2Agenda Digitale+2
Inoltre, resta da vedere come si interfaccerà con altre norme già esistenti: la legge sul diritto d’autore (artt. 96-97 della L. 633/1941) già vieta la pubblicazione di ritratti altrui senza consenso.
Le piattaforme digitali dovranno adeguarsi: ci si aspetta che sviluppino sistemi di rilevamento, meccanismi “notice & takedown” rapidi, bollini o avvertenze per segnalare contenuti generati da IA. In caso di inadempienza, potranno essere sanzionate dall’AGCOM.
Un altro nodo è l’evoluzione tecnologica: l’IA corre molto più veloce delle leggi. C’è il rischio che norme ben concepite diventino obsolete in pochi anni. Per questo, è probabile che servano aggiornamenti continui, adattamenti europei e collaborazione internazionale.
Sostenere che si tratta di satira non basterà
La legge 132/2025 segna un cambio di paradigma: non è più sufficiente dire “era solo uno scherzo” o “era satira” se l’opera manipolata arreca un danno reale. Con l’articolo 612-quater, l’Italia tenta di fermare il caos generato dalle immagini artificiali. Chi diffonde un’immagine deepfake senza consenso non solo viola la dignità altrui, ma ora rischia il carcere fino a 5 anni. Attenzione: la norma non è retroattiva, e restano da vedere i casi pratici che ne testeranno i confini. Ma il messaggio è già forte e chiaro: l’IA non è un’area franca. Anche nei contenuti più “digitali”, valgono le regole del mondo reale.
