Spagna, 17enne indagato per aver creato foto intime false delle compagne di scuola con l’AI: un fenomeno diventato globale

La diffusione non consensuale di immagini intime false generate dall’Intelligenza artificiale continua a rappresentare una delle aree più critiche e preoccupanti del fenomeno deepfake. L’ultimo caso arriva dalla regione di Ribera Alta, a Valencia, dove un ragazzo di 17 anni è stato indagato dalla Guardia Civil con l’accusa di aver manipolato foto delle proprie compagne di scuola per trasformarle in immagini di nudo da vendere online. Un episodio che richiama da vicino quello accaduto pochi mesi fa in Calabria, ad Acri, segno che il problema è ormai globale e colpisce anche i contesti più piccoli e periferici.

Il caso di Valencia: foto rubate, manipolate e messe in vendita

Secondo le ricostruzioni degli inquirenti, l’adolescente avrebbe scaricato foto reali delle coetanee da social e chat private, modificandole tramite un software di intelligenza artificiale capace di ricreare corpi nudi verosimili partendo da immagini originali innocue. I contenuti così generati, detti “deepnude”, venivano poi pubblicati su un account social – creato con identità false – e pubblicizzati su un sito web, con l’obiettivo di venderli.

L’inchiesta è partita a dicembre 2024, quando una ragazza ha denunciato la creazione di un profilo a suo nome su una piattaforma molto nota. Sul profilo era stato caricato un video che la ritraeva nuda, interamente generato dall’AI. Gli agenti hanno scoperto che non era un caso isolato: altre 15 studentesse, tutte minorenni, hanno denunciato la presenza di foto e video simili, riconducibili a loro, circolati online senza consenso.
Attraverso l’analisi degli accessi e degli indirizzi IP associati agli account sospetti, gli investigatori sono risaliti all’abitazione del 17enne, compagno di classe di diverse vittime.

Il precedente di Acri: deepfake e abusi digitali in Italia

Solo qualche mese prima, un episodio analogo aveva sconvolto la comunità di Acri, in provincia di Cosenza. In quel caso, un gruppo di almeno cinque minorenni aveva utilizzato software di intelligenza artificiale per sovrapporre i volti di coetanee a immagini sessualmente esplicite, diffondendo poi i contenuti manipolati su Telegram.

La vicenda è emersa quando un genitore ha riconosciuto il volto della propria figlia in una delle immagini falsificate e ha sporto denuncia. Le indagini hanno portato a perquisizioni e al sequestro di dispositivi elettronici dei presunti responsabili. “Non è una bravata, è una violenza digitale con conseguenze devastanti sulla vita delle vittime”, avevano denunciato i familiari, mentre la comunità locale si mobilitava con l’hashtag #NonSieteSole per sostenere le ragazze coinvolte.

Questi episodi, uno in Italia e uno in Spagna, dimostrano quanto il fenomeno del deepfake pornografico riguardi ormai minori e persone comuni, non solo figure pubbliche, aggravando il problema del cyberbullismo e della violenza online.

Un fenomeno in crescita e ancora poco regolamentato

Quello di Valencia non è un caso isolato nemmeno in Spagna: già nel 2023, in Estremadura, 15 minorenni erano stati sanzionati per aver prodotto false immagini di nudo di compagne di scuola. Il vuoto normativo ha finora reso complessa la risposta legale a questi episodi, anche se un disegno di legge per introdurre uno specifico reato è oggi in discussione in Parlamento.

In Italia, il legislatore ha mosso passi più decisi. Il disegno di legge n. 1146/24 sull’intelligenza artificiale, attualmente alla seconda lettura in Senato, introduce l’articolo 612-quater nel Codice Penale, rubricato “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”. La norma prevede pene da 1 a 5 anni di reclusione per chi diffonde immagini, video o voci falsificate, idonee a trarre in inganno, senza il consenso della persona ritratta. Il reato è perseguibile a querela della vittima, ma diventa procedibile d’ufficio quando coinvolge minori, incapaci o pubbliche autorità.

Una sfida globale: serve educazione digitale e cooperazione internazionale

I casi di Acri e Valencia confermano l’urgenza di affrontare il fenomeno dei deepfake non solo sul piano giudiziario, ma anche attraverso prevenzione, educazione digitale e strumenti di rilevamento tecnologico. La facilità di accesso a software di manipolazione, spesso gratuiti e anonimi, rende difficile arginare il problema solo con leggi nazionali.

Il Parlamento europeo, con l’AI Act, ha già fissato linee guida per l’uso responsabile dell’intelligenza artificiale, ma l’applicazione pratica richiederà collaborazione tra governi, piattaforme online e società civile. Senza una risposta integrata, il rischio è quello di trovarsi di fronte a una “nuova frontiera della violenza digitale”, dove vittime sempre più giovani subiscono danni psicologici e sociali difficili da riparare.