AGCM apre istruttoria su Nova AI: omissione di informativa sulle “allucinazioni” del chatbot

L’Autorità Garante della Concorrenza e del Mercato (AGCM) ha avviato un procedimento istruttorio nei confronti della società ScaleUp Yazılım Hizmetleri Anonim Şirketi, sviluppatrice dell’applicazione Nova AI, uno dei chatbot più diffusi sugli store digitali. Al centro dell’indagine, formalizzata nel Bollettino settimanale n. 38/2025 con il numero di procedimento PS12973, vi è la presunta omissione di un’informazione essenziale agli utenti: la possibilità che il chatbot generi contenuti falsi, imprecisi o del tutto inventati, le cosiddette hallucinations dell’intelligenza artificiale.

Le contestazioni dell’Autorità

Secondo l’AGCM, l’app Nova AI non avrebbe fornito agli utenti avvisi sufficientemente chiari, immediati e intelligibili circa il rischio che le risposte prodotte dal chatbot possano risultare non veritiere. Un’informazione di questo tipo è ritenuta essenziale per consentire al consumatore di compiere scelte consapevoli nell’utilizzo del servizio e, in mancanza, potrebbe configurarsi come pratica commerciale scorretta ai sensi del Codice del Consumo.

L’Autorità ha sottolineato come la trasparenza sulle capacità e sui limiti di un sistema di intelligenza artificiale non sia un aspetto secondario, ma costituisca parte integrante del rapporto di fiducia con l’utente. In particolare, la mancata evidenziazione del rischio di hallucinations rischia di attribuire all’IA un livello di affidabilità e autorevolezza superiore a quello effettivo.

Il contesto normativo

L’intervento si colloca in un quadro in rapida evoluzione, in cui più autorità – dal Garante Privacy al legislatore nazionale con il DDL IA – stanno cercando di imporre obblighi di trasparenza e responsabilità per i fornitori di sistemi generativi. Già nei mesi scorsi l’AGCM era intervenuta su casi analoghi, avviando istruttorie contro altri operatori per mancanza di informazione sui limiti tecnologici o per l’integrazione forzata di chatbot all’interno di servizi digitali.

Con l’avvio del procedimento PS12973, l’AGCM ribadisce che l’omessa informazione su rischi prevedibili dell’IA non è una mera lacuna comunicativa, ma un possibile comportamento lesivo dei diritti dei consumatori, equiparabile a pubblicità ingannevole o a pratiche omissive.

Prospettive e implicazioni

Se le contestazioni dovessero essere confermate, ScaleUp potrebbe incorrere in sanzioni pecuniarie significative, oltre all’obbligo di modificare le informative rivolte agli utenti. Ma l’impatto va oltre il singolo caso: l’istruttoria segnala chiaramente al mercato che la trasparenza sugli errori dell’IA è un requisito giuridico e non solo etico.

Per le aziende che sviluppano o commercializzano chatbot generativi, questo significa rivedere con attenzione le modalità di presentazione del servizio, le informative e le avvertenze, pena l’intervento delle autorità.