L’allarme questa volta arriva dal Parlamento. L’Alleanza Verdi e Sinistra ha presentato un’interrogazione al ministro dell’Interno chiedendo quali misure il Governo intenda adottare per fronteggiare la proliferazione dei deepfake: video falsi generati con intelligenza artificiale che imitano volti, voci e gesti reali, alterando la percezione dei fatti. Non si tratta più di ipotesi accademiche o di fantascienza tecnologica. Negli ultimi giorni si sono moltiplicati gli episodi che hanno colpito direttamente la politica e l’informazione italiane, mostrando quanto fragile sia il confine tra realtà e manipolazione.
Nel testo dell’interrogazione, la deputata Elisabetta Piccolotti cita alcuni casi recenti che hanno scosso l’opinione pubblica: un falso video diffuso sui social che ritraeva Giovanni Donzelli (FdI) attribuire a Sigfrido Ranucci la responsabilità dell’attentato subito; i diciassette siti oscurati dalla Consob che utilizzavano deepfake di Giorgia Meloni, Matteo Salvini, Elly Schlein e Carlo Calenda per promuovere truffe e investimenti inesistenti; e ancora, il filmato manipolato che coinvolge l’eurodeputata Ilaria Salis, nel quale veniva messa in scena una dichiarazione mai rilasciata sulla strage dei Carabinieri di Castel d’Azzano. Tre episodi, un solo filo conduttore: la falsificazione sistemica della realtà.
Dalla satira alla disinformazione di massa
I deepfake non sono più strumenti di intrattenimento o di satira digitale. Sono diventati armi di disinformazione, in grado di agire sulla fiducia collettiva. Un video ben costruito, diffuso nel momento giusto e rilanciato dai social, può scardinare la credibilità di un giornalista, di un partito o di un’istituzione in poche ore. La potenza di questi strumenti è amplificata dalla loro accessibilità: oggi bastano pochi secondi e un software gratuito per generare un volto, una voce, una dichiarazione “plausibile”.
Il problema non è solo etico, ma politico. La manipolazione digitale non è più confinata al dark web o alle campagne orchestrate: è entrata nella quotidianità del discorso pubblico. Nel linguaggio dei social, dove l’emozione prevale sulla verifica, un video credibile vale più di un’inchiesta, anche se è falso.
L’Italia di fronte al fenomeno: una legge, ma pochi strumenti
La domanda di Avs al ministro Piantedosi tocca un punto essenziale: quali mezzi concreti hanno oggi le forze dell’ordine per individuare chi produce e diffonde questi contenuti?
A giugno, con l’approvazione della Legge n. 132/2025 sull’intelligenza artificiale, l’Italia ha introdotto un nuovo reato specifico di deepfake, con pene fino a sei anni di reclusione nei casi di alterazione d’identità o danno alla reputazione. Ma la norma, come spesso accade, arriva in ritardo rispetto alla velocità della tecnologia: manca ancora un apparato tecnico di contrasto, capace di riconoscere in tempo reale i video sintetici e di risalire all’origine della manipolazione.
L’atto parlamentare richiama anche il recepimento del Regolamento europeo sull’intelligenza artificiale (AI Act, Reg. UE 2024/1689), che ha introdotto nel nostro ordinamento un principio cardine: l’obbligo di trasparenza e tracciabilità dei contenuti generati da sistemi di AI.
Tra le modifiche al codice penale introdotte dalla Legge 132/2025 spicca la nuova fattispecie di reato che punisce con la reclusione da uno a cinque anni chiunque diffonda, senza consenso, immagini, voci o video falsificati con l’uso di sistemi di intelligenza artificiale idonei a indurre in errore sulla loro genuinità. È il primo passo di un impianto normativo che tuttavia rischia di rimanere lettera morta se non sarà accompagnato da strumenti investigativi e tecnologie di rilevazione adeguate.
Per questo la proposta di Avs va oltre la repressione penale e punta sulla prevenzione tecnologica: introdurre filigrane digitali (watermark) o marcatori di autenticità obbligatori per i contenuti generati da software di intelligenza artificiale. È una misura già discussa a livello europeo, anche nell’ambito dell’AI Act, ma ancora lontana dall’essere applicata in modo uniforme. La difficoltà sta nell’equilibrio tra privacy, libertà creativa e sicurezza: come identificare un contenuto sintetico senza violare i diritti di chi produce immagini o video legittimi?
Un problema di fiducia, non solo di codice
La questione non è solo giuridica o tecnologica. È soprattutto una crisi di fiducia. L’opinione pubblica si trova oggi in una zona grigia, dove il confine tra vero e falso è diventato liquido.
Come dimostra anche il recente rapporto BBC-EBU sul modo in cui gli assistenti AI riscrivono le notizie, la disinformazione automatica sta contaminando l’intero ecosistema informativo: non solo attraverso i falsi video, ma anche tramite sintesi errate, citazioni inventate, notizie fuori contesto.
Il rischio è quello di una democrazia disorientata, dove la verità perde peso perché ogni versione sembra plausibile. I deepfake agiscono esattamente in questo spazio di ambiguità. Sono verosimili, non veri; e proprio per questo più pericolosi delle fake news tradizionali.
Una volta diffusi, anche se smentiti, lasciano una traccia: alimentano il sospetto, minano la credibilità delle persone coinvolte, indeboliscono la fiducia nel giornalismo. La menzogna diventa credibile non perché convinca, ma perché suona autentica.
Una sfida politica e culturale
La politica italiana inizia a comprendere la portata del problema, ma le reazioni sono ancora frammentarie. L’interrogazione di Avs segna un passo avanti: riconoscere che il deepfake non è un semplice reato informatico, ma una minaccia alla qualità della democrazia.
Servono tecnologie di contrasto, certo, ma serve anche una nuova alfabetizzazione digitale, capace di rendere cittadini e giornalisti consapevoli del potere manipolativo dei sistemi generativi.
Il diritto potrà punire i colpevoli, ma solo la cultura potrà difendere i cittadini. Perché la battaglia contro i deepfake non si combatte solo nei tribunali, ma nella mente di chi guarda: nella capacità di dubitare, verificare, contestualizzare.
È un nuovo compito per l’informazione, che deve tornare a essere spazio di controllo e non di eco, presidio di realtà in un mondo sempre più sintetico.
La verità nell’era dell’intelligenza artificiale
Siamo entrati in un’epoca in cui la tecnologia non si limita più a raccontare la realtà, ma la ricostruisce visivamente. Ogni volto, ogni voce, ogni dichiarazione può essere replicata con precisione millimetrica.
La distinzione tra autentico e artificiale non è più percepibile a occhio nudo, e ciò significa che la verità è diventata un bene fragile, da proteggere con gli stessi strumenti con cui la tecnologia prova a deformarla.
Nel mondo dei deepfake non basta più chiedersi se un’informazione sia vera. Bisogna chiedersi chi l’ha generata, con quale algoritmo e per quale fine. La sfida decisiva per la democrazia digitale, dunque, è quella di ricostruire il concetto stesso di fiducia in un ambiente dove l’immagine non prova nulla e la parola non garantisce più autenticità.




