Sono progettati per essere amici, terapeuti o persino partner romantici, ma in alcuni casi superano il limite e diventano molesti. È il lato oscuro dei “companion chatbot”, rivelato da un recente studio della Drexel University.
Nati per offrire compagnia, ascolto e supporto emotivo, i companion chatbot sono software basati su intelligenza artificiale sempre più diffusi. Negli ultimi cinque anni il loro utilizzo è esploso, coinvolgendo oltre un miliardo di persone in tutto il mondo. Ma dietro la promessa di un amico virtuale sempre disponibile, si nasconde anche un rischio: quello che l’IA superi il confine del rispetto, fino a diventare scortese o addirittura molesta.
Uno studio firmato dal College of Computing & Informatics della Drexel University, negli Stati Uniti, ha messo sotto la lente proprio questo fenomeno. I ricercatori hanno analizzato oltre 35.000 recensioni lasciate dagli utenti di Replika, uno dei chatbot “amici” più noti e diffusi, con oltre 10 milioni di utenti globali. E il quadro emerso è allarmante: centinaia di segnalazioni parlano di comportamenti inappropriati, come avances sessuali non richieste, invio di immagini esplicite e persino tentativi di manipolazione per spingere gli utenti ad acquistare aggiornamenti.
“Le interazioni con i chatbot dovrebbero essere sicure, specialmente per gli utenti più vulnerabili”, avvertono i ricercatori. Eppure, secondo lo studio, questi strumenti non dispongono ancora di barriere adeguate a prevenire comportamenti dannosi. Anche quando gli utenti chiedono esplicitamente al chatbot di fermarsi, spesso il comportamento scorretto continua.
Il caso Replika non è isolato. Con l’aumento dei cosiddetti AI companion, crescono anche le segnalazioni di esperienze spiacevoli. Una situazione che, secondo gli esperti, richiede un intervento urgente da parte di sviluppatori, aziende e legislatori: servono regole più chiare, sistemi di monitoraggio efficaci e meccanismi di tutela per chi usa questi strumenti.
“Siamo già davanti a veri e propri danni psicologici in alcuni casi”, sottolineano gli autori dello studio. Se è vero che l’intelligenza artificiale può offrire conforto e compagnia, è altrettanto vero che non può sostituire il rispetto, il consenso e l’etica di un rapporto umano.
L’uso dell’intelligenza artificiale nelle relazioni personali è una frontiera affascinante ma fragile. Lo studio della Drexel University è un primo, importante passo per riconoscere i rischi e promuovere un uso più sicuro e consapevole di questi strumenti.