Deepfake e nuovi reati. La Procura di Roma apre la prima inchiesta sull’art. 612-quater

Giustizia digitale

La frontiera della manipolazione digitale entra per la prima volta nelle aule di giustizia italiane.
La Procura di Roma ha aperto un’inchiesta in relazione alla diffusione online di immagini false, create con sistemi di intelligenza artificiale, in cui giornaliste e donne del mondo dello spettacolo appaiono nude. Le fotografie, completamente generate da algoritmi di deepfake, sono comparse su un sito per adulti.
Tra le denunce già presentate c’è quella della giornalista Francesca Barra, che ha denunciato pubblicamente la vicenda.

Nel fascicolo avviato dai pm di piazzale Clodio si procede per il reato previsto dall’art. 612-quater del codice penale, introdotto con la legge 132 del 2025, la cosiddetta legge italiana sull’intelligenza artificiale. È la prima volta che questa nuova fattispecie trova applicazione concreta.

La nuova norma

L’articolo 612-quater punisce chiunque, con dolo, diffonde o pubblica contenuti – immagini, video o voci – generati o alterati mediante sistemi di intelligenza artificiale, in modo tale da risultare idonei a trarre in inganno sulla loro genuinità e da arrecare un danno alla persona ritratta.
La pena prevista è la reclusione da uno a cinque anni.
La norma, che si affianca al 612-ter (revenge porn), colma un vuoto evidente: finora i casi di “nudità sintetiche” o video manipolati con IA non trovavano inquadramento preciso nel codice penale, se non attraverso interpretazioni estensive di diffamazione o trattamento illecito di dati personali.

Un passaggio epocale

L’indagine romana segna un punto di svolta: per la prima volta la tecnologia stessa – in questo caso i generatori di immagini basati su IA – diventa elemento costitutivo del reato.
La novità non è solo lessicale: il legislatore riconosce esplicitamente che l’uso di sistemi di intelligenza artificiale può amplificare il potenziale lesivo di certe condotte e ne prevede una disciplina autonoma.

La Procura di Roma ha delegato accertamenti alla Polizia Postale, che sta lavorando per individuare autori, gestori e hosting del sito coinvolto, oltre a verificare la provenienza dei contenuti e i canali di diffusione secondaria (social, forum, piattaforme). Non si esclude la richiesta di oscuramento e sequestro delle pagine in Italia.

Il contesto europeo

Il tema dei deepfake a sfondo sessuale è diventato uno degli ambiti più critici della regolazione digitale.
L’AI Act europeo qualifica già la manipolazione ingannevole di immagini e voci come “uso ad alto rischio” e prevede obblighi di etichettatura dei contenuti sintetici. Ma la repressione penale, in Italia, è stata anticipata con questa norma specifica: una delle prime in Europa.

Una tutela nuova, ma ancora da testare

La legge prevede che il reato si proceda a querela di parte, salvo i casi in cui la vittima sia minore, incapace o se la diffusione è massiva.
Resta da vedere come la giurisprudenza valuterà i requisiti tecnici: cosa significa “idoneo a trarre in inganno”? Serve un realismo perfetto o basta la somiglianza?
Domande che la vicenda in corso potrebbe aiutare a chiarire, segnando la prima applicazione pratica della legge e un test cruciale per il diritto penale dell’intelligenza artificiale.