Le famiglie italiane sfidano Meta e TikTok: parte la class action per la tutela dei minori

Un cambiamento epocale nel panorama digitale italiano: un gruppo di famiglie italiane, supportate dal Movimento Italiano Genitori e dallo studio legale Ambrosio & Commodo, ha depositato una class action contro Meta (Facebook e Instagram) e TikTok, contestando il ruolo delle piattaforme nella protezione dei ragazzi e nella prevenzione dei danni legati all’uso eccessivo.

L’udienza preliminare è fissata a Milano per febbraio 2026.

Cosa chiedono i ricorrenti

L’azione legale punta a ottenere un intervento immediato su tre fronti principali.

La prima richiesta riguarda la verifica reale dell’età: le famiglie denunciano che il sistema attuale, basato sull’autodichiarazione, è facilmente aggirabile. Si chiede l’adozione di strumenti vincolanti per impedire l’accesso alle piattaforme a chi ha meno di 14 anni.

La seconda istanza mira alla rimozione o alla revisione di quei meccanismi digitali che inducono dipendenza, come lo scroll infinito o le notifiche pensate per incentivare l’uso compulsivo. L’obiettivo è proteggere il cervello in sviluppo degli adolescenti da stimoli costanti e difficili da gestire.

Infine, le famiglie pretendono più trasparenza. Le piattaforme dovrebbero informare in modo chiaro utenti e genitori sui rischi concreti legati all’uso eccessivo, dai disturbi del sonno alla depressione, fino al calo nel rendimento scolastico.

Il quadro scientifico e psicologico dietro la battaglia

Alla base della class action ci sono studi neuropsichiatrici che confermano quanto gli adolescenti siano vulnerabili. La corteccia prefrontale, responsabile dell’autocontrollo, non è completamente sviluppata fino ai 25 anni: ciò li rende particolarmente esposti agli stimoli continui generati dagli algoritmi.

Diversi studi collegano l’uso eccessivo dei social a sintomi di insonnia, ansia, disturbi alimentari e depressione. Inoltre, le cosiddette “bolle algoritmiche” tendono ad amplificare contenuti estremi, aumentando il rischio di esposizione a video dannosi o disinformativi.

Un’ulteriore evidenza emerge dal confronto tra contenuti suggeriti a genitori e figli su piattaforme come YouTube e TikTok: i secondi ricevono spesso consigli meno sicuri o addirittura rischiosi, segno che i sistemi di filtraggio non funzionano sempre in modo efficace.

Le risposte delle piattaforme e gli scenari possibili

Meta ha risposto sottolineando l’esistenza di account “teen” con funzionalità pensate per la sicurezza dei minori, e ha affermato di avere sistemi per scoraggiare la falsa dichiarazione dell’età. TikTok, invece, non ha ancora commentato ufficialmente l’iniziativa.

Se il tribunale dovesse accogliere le richieste dei ricorrenti, le conseguenze sarebbero significative. Le piattaforme potrebbero essere obbligate ad attuare sistemi di verifica dell’età più efficaci, modificare profondamente i propri algoritmi e comunicare con maggiore trasparenza i rischi ai minori e alle famiglie.

Inoltre, la causa potrebbe aprire la strada ad azioni legali simili in altri paesi europei, creando un precedente importante nella regolamentazione dei big tech.

Perché questa battaglia è centrale anche per TGWebAI

Per chi si occupa di etica digitale e intelligenza artificiale, questa causa è un campanello d’allarme. Riguarda la responsabilità degli algoritmi, il diritto alla protezione dell’infanzia, il ruolo della trasparenza nell’era delle piattaforme. Ma riguarda anche ogni genitore, educatore o cittadino consapevole che si interroga sull’impatto delle tecnologie sui più giovani.

È il momento di alzare il livello del dibattito. E anche quello delle regole.