Italia prima in Europa con una legge sull’intelligenza artificiale: ambizione normativa e nuove tutele penali

Con 77 voti favorevoli, 55 contrari e 2 astenuti, il Senato ha dato il via libera definitivo alla prima legge nazionale sull’intelligenza artificiale. Si tratta di un provvedimento collegato alla manovra di finanza pubblica, ma con un significato politico che va ben oltre la contabilità: l’Italia diventa il primo Paese europeo a dotarsi di una legge-quadro autonoma in materia di IA, anticipando in parte l’attuazione dell’AI Act approvato a Bruxelles nel 2024.

Un quadro di principi e governance

La legge è costruita come cornice di principi e deleghe al Governo. Al centro c’è l’affermazione dell’antropocentrismo, cioè la priorità dei diritti e della dignità della persona nell’uso delle nuove tecnologie. Viene introdotta una governance nazionale: l’Agenzia per la cybersicurezza nazionale (ACN) e l’Agenzia per l’Italia digitale (AgID) saranno le autorità responsabili dell’applicazione, con compiti rispettivamente ispettivi e di promozione dei casi d’uso. Un assetto che mira a integrare sicurezza e innovazione, anche se non mancano dubbi sul coordinamento con il Garante Privacy e sulle effettive risorse a disposizione.

Minori, trasparenza e deepfake

Tra le novità più immediate:

  • Tutela dei minori: sotto i 14 anni l’uso di sistemi di IA che comportino trattamento di dati personali richiederà il consenso dei genitori.
  • Trasparenza: obblighi di tracciabilità e supervisione umana nei settori sensibili come sanità, lavoro, PA e giustizia.
  • Deepfake: introdotto un divieto specifico, con pene detentive fino a cinque anni per chi diffonde contenuti manipolati idonei a trarre in inganno.

Sul fronte economico, è previsto uno stanziamento fino a un miliardo di euro per sostenere ricerca, innovazione e cybersecurity.

L’allineamento europeo

Il provvedimento non vive in isolamento. L’AI Act europeo è già entrato in vigore nell’agosto 2024 e si applicherà gradualmente tra il 2025 e il 2027: dai divieti per le pratiche inaccettabili, agli obblighi per i modelli di intelligenza artificiale di uso generale (GPAI), fino ai requisiti completi per i sistemi ad alto rischio. La legge italiana, dunque, anticipa e accompagna questo percorso, cercando di declinare in chiave nazionale temi come la protezione dei minori, la responsabilità penale e la gestione dei dati sanitari. Il nodo sarà l’attuazione: senza decreti rapidi e senza investimenti sulle competenze, il rischio è di un primato formale più che sostanziale.

Le nuove norme penali

Un aspetto spesso trascurato ma centrale del provvedimento riguarda la modifica del codice penale, con l’introduzione di aggravanti e nuove fattispecie. Come spiega l’avvocata Lilla Laperuta, esperta di diritto del lavoro e contratti pubblici, “la rivoluzione informatica deve rispondere alla domanda di tutela dei diritti e delle libertà delle persone”.

Il Capo V del ddl (“Disposizioni penali”) interviene su più fronti:

  • Art. 61 c.p. (circostanze aggravanti comuni): si prevede un’aggravante se il reato è commesso mediante sistemi di IA che costituiscano mezzo insidioso, ostacolino la difesa o aggravino le conseguenze del reato.
  • Art. 294 c.p. (attentati contro i diritti politici del cittadino): introdotta un’aggravante speciale con pene da due a sei anni se l’inganno è realizzato tramite sistemi di IA, in particolare deepfake o manipolazioni informative.
  • Nuovo art. 612-quater c.p.: nasce il reato di “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”. È punito con la reclusione da uno a cinque anni chi, senza consenso, diffonde immagini, video o voci falsificate idonee a ledere la libertà morale e l’autodeterminazione della persona.

Si tratta di un passaggio rilevante: la collocazione del nuovo reato tra i “delitti contro la libertà individuale” segnala la volontà del legislatore di rafforzare la tutela della persona nell’ecosistema digitale.

Le voci dal dibattito

Le prime reazioni confermano la doppia anima del provvedimento. Stefano Epifani, presidente della Fondazione per la sostenibilità digitale, parla di un “passaggio importante, ma non privo di ombre”: bene il principio antropocentrico, la tutela dei minori e le risorse per ricerca e sicurezza, ma restano criticità nei meccanismi di controllo, nella definizione dei sistemi ad alto rischio e nel rischio di limitazioni eccessive alla satira e alla critica.

Più ottimista Daniele Panfilo, ceo della società Aindo, che legge nel ddl “un punto di svolta per la sanità digitale”: il riconoscimento del riuso dei dati sanitari a fini di addestramento come di interesse pubblico, con basi giuridiche autonome per la sintesi e l’anonimizzazione, può accelerare ricerca e innovazione.

Un laboratorio normativo

In definitiva, la legge italiana è insieme un messaggio politico e un banco di prova giuridico. Politico, perché l’Italia sceglie di non restare in attesa dell’Europa, ma di muoversi in anticipo. Giuridico, perché mette alla prova l’integrazione tra norme nazionali e regolamento europeo, la capacità di governance delle autorità, la sostenibilità delle nuove fattispecie penali.

Il vero banco di prova sarà però culturale: senza un’adeguata alfabetizzazione digitale di cittadini, professionisti e imprese, nessuna legge potrà davvero incidere. L’intelligenza artificiale non è solo un tema tecnico, ma una questione sociale e democratica. L’Italia, con questa legge, si candida a fare da apripista: ma solo l’attuazione concreta dirà se avrà saputo trasformare l’ambizione in realtà.