UE contro le app che “spogliano” con l’AI. Ma slittano le regole più complesse sui sistemi ad alto rischio

L’Unione Europea torna a intervenire sull’intelligenza artificiale con una revisione dell’AI Act che segna un passaggio importante. Da un lato introduce un divieto chiaro per alcune applicazioni considerate particolarmente pericolose, dall’altro concede più tempo alle aziende per adeguarsi alle regole più complesse.

Le commissioni del Parlamento europeo hanno infatti approvato modifiche che puntano a vietare le cosiddette nudifier app, strumenti capaci di generare immagini intime o sessualmente esplicite senza il consenso delle persone coinvolte. Allo stesso tempo, viene rinviata l’entrata in vigore delle norme sui sistemi di intelligenza artificiale ad alto rischio, spostando le scadenze al 2027 e al 2028.

Il voto decisivo è atteso il 26 marzo.

Stop alle nudifier app: cosa cambia davvero

Le nudifier app sono software che utilizzano l’intelligenza artificiale per “spogliare” virtualmente le persone partendo da una semplice fotografia. Negli ultimi mesi il fenomeno è esploso, anche a causa della diffusione di strumenti sempre più accessibili e facili da usare.

Il Parlamento europeo ha deciso di intervenire in modo diretto, puntando a vietarne la vendita. La logica è semplice: alcune tecnologie, per come sono progettate e utilizzate, vengono considerate incompatibili con i diritti fondamentali, in particolare con la tutela della dignità e della privacy.

A spingere in questa direzione hanno contribuito anche casi recenti che hanno mostrato l’impatto reale di questi strumenti, con la creazione massiva di immagini non consensuali e situazioni particolarmente gravi che hanno coinvolto anche minori.

Regole sull’AI ad alto rischio: più tempo per adeguarsi

Se da un lato l’Europa accelera sui divieti, dall’altro decide di rallentare sulle regole più complesse. Le norme relative ai sistemi di intelligenza artificiale ad alto rischio — come quelli utilizzati in sanità, infrastrutture o biometria — non entreranno più in vigore nei tempi inizialmente previsti.

Le nuove scadenze proposte sono il 2 dicembre 2027 per i sistemi indicati direttamente nell’AI Act e il 2 agosto 2028 per quelli già regolati da altre normative europee.

La scelta nasce da una valutazione concreta: gli standard tecnici e le procedure necessarie per applicare queste regole non sono ancora del tutto pronti. Senza un rinvio, il rischio sarebbe stato quello di creare obblighi difficili da rispettare sia per le aziende sia per le autorità di controllo.

Regole più semplici per le imprese

Le modifiche puntano anche a rendere l’AI Act più gestibile per le aziende. Tra le novità c’è l’estensione delle misure di supporto anche alle imprese di dimensioni intermedie e un alleggerimento degli obblighi per prodotti già regolati da altre normative europee, come dispositivi medici o apparecchiature radio.

Un altro tema riguarda i cosiddetti bias, cioè le distorsioni nei sistemi di intelligenza artificiale. Le aziende potranno utilizzare, in casi limitati e con adeguate garanzie, dati personali per individuare e correggere questi problemi, con l’obiettivo di rendere gli algoritmi più equi.

Il prossimo passaggio

Dopo il voto in commissione, la partita si sposta in plenaria. Il 26 marzo il Parlamento europeo sarà chiamato a esprimersi sul testo, che costituirà la base per il confronto con gli Stati membri.

La direzione, però, è già chiara: l’Europa vuole intervenire con decisione sui rischi più evidenti dell’intelligenza artificiale, senza però bloccare lo sviluppo tecnologico. Un equilibrio complesso, che continuerà a essere al centro del dibattito nei prossimi mesi.