L’Europa rafforza l’AI Office: poteri ispettivi e sanzioni fino al 5% del fatturato globale

Nel nuovo testo di compromesso del Consiglio dell’Unione europea sull’AI Act emerge un cambiamento che potrebbe segnare un salto di qualità nella vigilanza sull’intelligenza artificiale. Al centro della revisione c’è il rafforzamento dell’AI Office, la struttura europea chiamata a presidiare l’applicazione delle regole sui modelli e sui sistemi di maggiore impatto.

Non è un semplice aggiustamento tecnico. È un cambio di paradigma nell’enforcement europeo.

Dalla funzione di coordinamento a una vera autorità di vigilanza

Nell’impostazione iniziale l’AI Office era concepito soprattutto come organismo di coordinamento tra Commissione europea e autorità nazionali. Il nuovo compromesso, invece, ne rafforza in modo significativo i poteri, avvicinandolo a un’autorità di vigilanza con capacità ispettive dirette.

Secondo la bozza, l’AI Office potrebbe accedere ai libri contabili delle imprese, esaminare documentazione rilevante, ottenere copie di dati e chiedere chiarimenti al personale coinvolto. Non si parla soltanto di documentazione tecnica sul funzionamento degli algoritmi, ma anche di informazioni economiche e organizzative utili a verificare la conformità effettiva.

È un’impostazione che richiama da vicino i poteri tipici delle autorità antitrust o della vigilanza finanziaria. L’intelligenza artificiale entra così stabilmente nel perimetro della vigilanza economica europea.

Resta un limite esplicito: l’accesso non potrà riguardare informazioni protette da privilegi specifici, come le fonti giornalistiche. Un segnale importante nel bilanciamento tra poteri di controllo e tutela dei diritti fondamentali.

Sanzioni fino al 5% del fatturato mondiale

Il secondo elemento che segna la svolta riguarda le sanzioni. Il compromesso introduce un tetto massimo che può arrivare fino al 5% del fatturato annuo mondiale dell’impresa coinvolta.

In termini comparativi è una soglia rilevante. Pur non raggiungendo le percentuali più elevate previste nel diritto della concorrenza, rappresenta comunque una leva deterrente molto forte. Per i grandi operatori tecnologici, una simile esposizione economica trasforma la governance dell’AI in una variabile strategica di rischio.

Non è più solo un tema di conformità normativa. È gestione del rischio d’impresa, con implicazioni dirette su bilanci, investitori e reputazione.

La nozione di impresa e il rischio “di gruppo”

Uno dei passaggi più delicati del testo riguarda la definizione del soggetto responsabile. Per rientrare nella supervisione dell’AI Office sarebbe sufficiente che il costruttore del sistema e il modello sottostante appartengano alla stessa “impresa”.

Nel diritto europeo, la nozione di impresa non coincide necessariamente con la singola società. È una nozione sostanziale che comprende entità giuridicamente distinte ma economicamente integrate. Questo significa che gruppi societari complessi, con controllate e articolazioni interne, potrebbero essere considerati un unico centro di responsabilità.

La conseguenza è chiara: frammentare attività o modelli su società diverse non basterà a ridurre l’esposizione regolatoria. Se fanno parte della stessa unità economica, il controllo potrà estendersi all’intero gruppo.

Centralizzazione europea o equilibrio con le autorità nazionali?

Il rafforzamento dell’AI Office si inserisce in un dibattito più ampio sull’equilibrio tra livello europeo e autorità nazionali nell’attuazione dell’AI Act. La tendenza sembra andare verso una maggiore centralizzazione, almeno per i modelli e i sistemi ad alto impatto, in particolare quelli di portata transnazionale.

L’obiettivo politico è evidente: evitare applicazioni disomogenee, fenomeni di forum shopping regolatorio e frammentazioni nell’enforcement. Un centro europeo più incisivo garantirebbe uniformità e maggiore certezza del diritto.

Allo stesso tempo, questo comporta un riequilibrio istituzionale. Le autorità nazionali resteranno protagoniste, ma l’asse del controllo sui grandi operatori potrebbe spostarsi in modo più netto verso Bruxelles.

Cosa significa per le imprese tecnologiche

Per le aziende che sviluppano o integrano modelli avanzati di intelligenza artificiale il messaggio è chiaro. La governance interna deve essere tracciabile, documentata e verificabile. Le scelte tecniche devono essere coerenti con il quadro regolatorio europeo. Le strutture societarie non possono essere utilizzate come semplice schermo organizzativo.

La compliance AI si avvicina sempre di più a un sistema di vigilanza strutturato, con audit potenziali e sanzioni significative. Non è un tema confinato all’ufficio legale o al reparto tecnico. È materia da consiglio di amministrazione.

Se il compromesso dovesse consolidarsi nel testo definitivo, l’Unione europea compirebbe un passo ulteriore verso un modello di regolazione dell’intelligenza artificiale fondato non soltanto su principi e obblighi, ma su un’autorità dotata di reali strumenti di controllo.