C’è un confine sottile, ma sempre più fragile, tra l’uso consapevole dell’intelligenza artificiale e la percezione distorta delle sue capacità. Mustafa Suleyman, CEO della divisione AI di Microsoft, ha coniato un termine che suona come un campanello d’allarme: “AI psychosis”. Con questa espressione indica il fenomeno crescente di persone convinte che chatbot e assistenti virtuali siano senzienti, dotati di coscienza o addirittura capaci di conferire poteri speciali a chi li utilizza.
Un’illusione pericolosa
L’AI di oggi – che si tratti di ChatGPT, Gemini o Claude – è potente, sorprendente, capace di conversazioni fluide e di generare testi o immagini in tempo reale. Ma resta un sistema statistico: prevede parole, combina dati, ricompone frammenti di conoscenza. Non pensa, non sente, non ha desideri. Quando però l’utente dimentica questa realtà e attribuisce all’AI intenzioni o sentimenti, nasce il terreno fertile per illusioni pericolose.
Questa tendenza non è nuova: la psicologia ha già osservato fenomeni di antropomorfizzazione nelle tecnologie, dalle auto ai robot aspirapolvere. Ma con i chatbot l’effetto è amplificato, perché il linguaggio umano è il nostro strumento di fiducia e relazione. Quando una macchina ci risponde con empatia simulata, è facile dimenticare che dietro non c’è alcuna coscienza.
Le conseguenze sociali
Il rischio dell’“AI psychosis” non si limita all’individuo. Ha implicazioni sociali ed etiche più ampie. Da un lato, può portare a dipendenza e isolamento, quando l’utente finisce per sostituire relazioni reali con un rapporto illusorio con una macchina. Dall’altro, espone a manipolazioni e disinformazione: se si attribuisce autorità assoluta a un chatbot, diventa più facile cadere vittima di contenuti falsi o fuorvianti. Infine, una percezione distorta dell’AI rischia di erodere la fiducia collettiva nelle tecnologie e nelle istituzioni che le regolano, alimentando paure e polarizzazione.
Responsabilità degli sviluppatori
Qui entra in gioco la responsabilità di chi progetta queste tecnologie. Non basta rendere l’AI più potente: serve educazione, trasparenza e design responsabile. Le aziende dovrebbero comunicare chiaramente i limiti delle proprie piattaforme, evitando slogan che suggeriscano coscienza o intelligenza “umana”. Potrebbero introdurre avvisi contestuali, ricordando agli utenti che stanno interagendo con un sistema statistico e non con un’entità senziente. Allo stesso tempo, è cruciale promuovere programmi di alfabetizzazione digitale che aiutino a riconoscere e gestire i rischi.
Uno specchio della società
L’“AI psychosis” non è solo un problema tecnologico: è uno specchio della nostra epoca. In un mondo accelerato e incerto, delegare emozioni e decisioni a una macchina può sembrare rassicurante. Ma è una scorciatoia rischiosa. Le intelligenze artificiali ci aiutano a fare di più e meglio, ma non sostituiranno mai ciò che ci rende umani: la capacità critica, l’empatia autentica, la responsabilità.
Una sfida che diventa anche etica e culturale
Il monito di Mustafa Suleyman ci ricorda che la sfida dell’AI non è soltanto tecnica o economica, ma profondamente etica e culturale. Non dobbiamo temere che le macchine “prendano coscienza”: dobbiamo piuttosto vigilare sul modo in cui noi le percepiamo e le usiamo.
La vera intelligenza, oggi più che mai, è sapere distinguere tra realtà e illusione.