TikTok e la tana del coniglio: quando l’algoritmo diventa un rischio per i giovani

tana del coniglio

In Francia, Amnesty International ha messo alla prova TikTok creando una serie di profili fittizi di adolescenti. Il risultato è inquietante: dopo pochi minuti di navigazione, gli account sono stati trascinati in una spirale di video sulla tristezza, la depressione e persino il suicidio.
La ricerca “Dragged into the Rabbit Hole” mostra come il cuore del problema non siano i singoli contenuti, ma il design stesso della piattaforma, costruito per catturare l’attenzione e moltiplicare le interazioni.

Gli algoritmi che alimentano il feed “Per Te” apprendono rapidamente ciò che trattiene l’utente sullo schermo e lo ripropongono all’infinito. Nel caso dei minori, questo meccanismo può trasformarsi in una trappola: un “tunnel” di contenuti che amplifica le emozioni negative invece di stemperarle.

Il lato oscuro della personalizzazione

TikTok è una delle applicazioni più amate dai giovanissimi, ma anche una delle più invasive.
Ogni gesto come una pausa, un like, un commento, persino lo sguardo sullo schermo alimenta un sistema di raccomandazione basato sull’intelligenza artificiale. È la logica della personalizzazione algoritmica, che premia ciò che fa restare online più a lungo, non ciò che fa stare meglio. Quando l’attenzione diventa la principale valuta economica, il confine tra intrattenimento e manipolazione si assottiglia pericolosamente.

Amnesty parla apertamente di “funzionalità di design che creano dipendenza” e accusa la piattaforma di non tutelare in modo adeguato la salute mentale dei più giovani.
In molti casi, bastano quindici minuti per passare da un video leggero a una sequenza ossessiva di messaggi autolesivi.

L’Europa osserva

Il caso francese arriva in un momento delicato: la Commissione europea ha già avviato un procedimento nei confronti di TikTok per possibili violazioni del Digital Services Act, la norma che impone alle grandi piattaforme di analizzare e ridurre i “rischi sistemici” legati ai propri algoritmi. Fra questi rischi ci sono anche gli effetti sulla salute mentale dei minori.

Se le accuse fossero confermate, la società cinese potrebbe trovarsi di fronte a una delle prime applicazioni concrete del DSA in materia di tutela dei giovani utenti. Un banco di prova cruciale per capire se le regole europee sul digitale riescano davvero a limitare la logica della dipendenza algoritmica.

Oltre la piattaforma

La vicenda TikTok solleva una domanda più ampia: quanto controllo abbiamo davvero sulle raccomandazioni dell’intelligenza artificiale?
I sistemi che decidono cosa vediamo, leggiamo o ascoltiamo non sono neutri: rispondono a metriche di coinvolgimento, non a criteri di equilibrio o sicurezza psicologica. Rendere trasparenti questi meccanismi non è solo un dovere legale, ma una questione di salute pubblica digitale.

Una responsabilità che cresce

TikTok ha dichiarato di aver introdotto limiti di tempo, funzioni di “benessere digitale” e controlli parentali. Amnesty riconosce questi strumenti, ma li giudica insufficienti. I rischi derivano dal cuore stesso dell’algoritmo, non dalle sue funzioni accessorie.

Occorre trasformare la personalizzazione in un processo consapevole, capace di proteggere e non di intrappolare. Perché la nuova frontiera dell’intelligenza artificiale non sarà solo tecnologica, ma etica.