Prosegue e si consolida il percorso avviato dall’Associazione TGWEBAI, presieduta dall’Avv. Riccardo Tripepi, insieme al Liceo Classico “Tommaso Campanella”, all’interno del progetto Generazione AI. Un’iniziativa che non si esaurisce nell’incontro in aula, ma che trova il suo senso più profondo proprio nella capacità di generare pensiero, confronto e produzione culturale autonoma da parte degli studenti.
Anzi, è proprio in questo spazio che il progetto rivela la sua natura che punta ad andare oltre la semplice divulgazione, provando a costruire consapevolezza critica sui temi dell’intelligenza artificiale e del diritto digitale. I contributi che nascono da questo percorso rappresentano i primi semi di una riflessione più ampia, capace di intrecciare tecnologia, etica e dimensione umana.
Il lavoro della classe IVG, coordinato dalla Professoressa Maria Caterina Lo Giudice, che oggi si concretizza nell’interessante contributo delle studentesse Miryam Fatima Pontillo, Chiara Pellegrino e Irene Maria Amodeo, si inserisce pienamente in questa prospettiva, affrontando con profondità un nodo centrale del nostro tempo legato al rapporto tra intelligenza artificiale e sfera emotiva, tra supporto tecnologico e limite umano.
Human-centric vision dell’AI nell’ambito clinico e psicologico: la macchina può sostituire il supporto umano?
di Miryam Fatima Pontillo, Chiara Pellegrino e Irene Maria Amodeo – Classe IVG – Liceo Classico “Tommaso Campanella”
L’intreccio di emozioni e sentimenti costituisce la trama più profonda dell’animo umano: è in questo movimento incessante che l’uomo si riconosce e si misura con se stesso. Il complesso vissuto interiore, nella letteratura greca, viene designato con il termine pathos (πάθος). Esso indica anzitutto ciò che si subisce, affondando le sue radici nella forma aoristica del verbo πάσχειν, che esprime l’idea del “patire”, del trovarsi in una condizione di sopportazione o dell’essere investiti da qualcosa di esterno. Secondo questa interpretazione, il termine abbraccia una vasta gamma di significati: dalla sofferenza al dolore, fino alla passione e all’emozione. Queste esperienze, in quanto forme di coinvolgimento emotivo, appartengono propriamente alla condizione umana: sono il segno della vulnerabilità dell’uomo, della sua esposizione al mondo e della sua capacità di esserne toccato e trasformato.
L’antropomorfizzazione dell’intelligenza artificiale
In un’epoca in cui le barriere tra mondo reale e mondo virtuale appaiono sempre più sfumate, si assiste a una progressiva tendenza a proiettare tali caratteristiche anche sulle macchine, sebbene sia acclarato che esse siano esclusivamente oggetti privi di intelligenza emotiva. I sistemi animati da intelligenza artificiale vengono così descritti (non solo metaforicamente) come capaci di “provare” emozioni e, ancor di più, di “comprendere” stati d’animo tipicamente umani, “diagnosticare” disturbi e fornire soluzioni, quasi fossero anch’essi partecipi di un pathos che, nella realtà dei fatti, resta radicato nella natura dell’uomo. Questa tendenza conduce a una forma di antropomorfizzazione dell’AI che, in alcuni casi, finisce per sostituire sia le relazioni interpersonali sia il ruolo di figure professionali deputate al sostegno, in particolare sul piano psicologico.
La human-centric AI tra promessa e realtà
In termini tecnici si parla di human-centric vision dell’AI, un tentativo di porre la persona al centro dello sviluppo tecnologico. Questa prospettiva insiste sulla necessità che i sistemi di intelligenza artificiale siano progettati nel rispetto dei valori umani, della dignità, dell’autonomia e del benessere psicologico. In ambito clinico e psicologico ciò si traduce nell’idea che l’AI debba configurarsi come mezzo capace di ampliare l’accesso ai servizi, facilitare la prevenzione, migliorare la raccolta e l’analisi dei dati e alleggerire il carico dei professionisti. Nel campo quotidiano, questa visione si concretizza? Questa “sfumatura” dell’AI riesce realmente a supportare l’uomo nei momenti di difficoltà al pari di un esperto?
Adolescenti, chatbot e fiducia emotiva
In particolare, i cosiddetti “nativi digitali” si dimostrano maggiormente propensi a instaurare con i chatbot relazioni improntate alla fiducia: essi diventano interlocutori privilegiati nei momenti di difficoltà, talvolta preferiti agli esseri umani, perché percepiti come spazi più sicuri e meno esposti al giudizio. A conferma di questa tendenza, un’indagine recente contenuta nella XVI edizione dell’Atlante dell’Infanzia (a rischio) in Italia, dal titolo “Senza filtri”, pubblicato da Save the Children, evidenzia come il 41,8% degli adolescenti abbia dichiarato di essersi rivolto all’intelligenza artificiale in situazioni di fragilità emotiva. L’Atlante, inoltre, dimostra che una percentuale analoga, superiore al 42%, ha consultato l’AI per decisioni rilevanti riguardanti affetti, relazioni, percorso scolastico o prospettive lavorative.
Il caso concreto e le implicazioni reali
Da questi risultati emerge il quadro di una tecnologia ormai profondamente inserita nella dimensione emotiva e decisionale quotidiana: non è tanto una condizione generalizzata di isolamento a determinare questo fenomeno, dal momento che la maggioranza degli adolescenti si dichiara soddisfatta dei propri legami familiari, quanto piuttosto la presenza di criticità specifiche tipiche degli adolescenti, come difficoltà significative nel rapporto con i genitori o con un partner.
Il caso di Aurora Tila, la tredicenne morta a Piacenza nel 2024 dopo essere stata gettata dal balcone dal fidanzato, mostra in modo particolarmente significativo le implicazioni concrete di questo fenomeno. Dalle chat acquisite agli atti dell’inchiesta emerge che la ragazza si confidava con l’AI chiedendo consiglio su come distinguere un amore autentico da una relazione tossica e se fosse opportuno lasciare il partner che la tormentava. Secondo la sentenza del Tribunale per i minorenni, tali conversazioni contribuiscono a dimostrare lo stalking subito dalla vittima: la giovane scriveva “con estrema franchezza” per comprendere come comportarsi in una situazione percepita come soffocante e pericolosa. Le chat, oltre a confermare la condanna, delineano il quadro di una ragazza che cercava uno spazio di ascolto e orientamento anche nell’interazione con un sistema artificiale. Se Aurora avesse rivolto i suoi dubbi a un esperto “umano” in grado di comprendere le sue difficoltà e di aiutarla pragmaticamente, si sarebbe potuta evitare una tragedia?
Il limite ontologico della macchina
Alla luce di queste constatazioni, la human-centric AI rappresenta senza dubbio un orientamento necessario, ma non sufficiente a colmare la distanza ontologica che separa la macchina dall’esperienza umana del pathos. L’intelligenza artificiale rimane uno strumento sofisticato, utile e prezioso, ma pur sempre privo della capacità di partecipare emotivamente alla sofferenza dell’altro. In ambito psicologico, dove la relazione terapeutica si fonda sulla reciprocità affettiva, sulla responsabilità e sulla condivisione empatica dell’esperienza, nessuna simulazione potrà sostituire l’incontro tra due soggettività capaci di provare e riconoscere emozioni reali.
Tecnologia e centralità dell’uomo
Il progresso tecnologico, dunque, impone di riaffermare con forza un principio fondamentale: l’innovazione deve rimanere sotto il controllo dell’uomo e non sostituirsi alla sua dimensione relazionale. L’AI può ampliare le possibilità di cura, migliorare l’accesso ai servizi e supportare il lavoro dei professionisti, ma non può eguagliare la presenza umana che ascolta, comprende e condivide il dolore.




