Algoritmi, dipendenza e minori, il Senato prova a riscrivere le regole del digitale

Al Senato della Repubblica Italiana sono arrivate due proposte diverse, ma profondamente connesse. La prima, firmata dai senatori del Pd Antonio Nicita e Lorenzo Basso, interviene su quella che viene definita “dipendenza algoritmica”. La seconda, promossa dalla senatrice di Italia Viva Elena Sbrollini, affronta il tema della tutela dei minori nello spazio digitale.

Letti separatamente, i due testi sembrano muoversi su piani distinti. In realtà raccontano la stessa trasformazione. Non si tratta più di regolare i contenuti, ma di intervenire sull’architettura stessa delle piattaforme.

È un passaggio decisivo. Per anni il diritto ha inseguito ciò che veniva pubblicato online. Oggi prova a interrogarsi su come e perché quei contenuti vengono mostrati.

Il cuore del problema: il design delle piattaforme

Il Ddl sulla dipendenza algoritmica parte da un presupposto esplicito. Gli algoritmi non sono neutrali. Sono progettati per massimizzare l’attenzione, prolungare il tempo di permanenza e incentivare comportamenti ripetitivi. Non è una scoperta, ma è la prima volta che questo principio entra in modo così diretto nel dibattito legislativo italiano.

Se l’attenzione diventa la risorsa economica centrale, allora il design delle piattaforme non è più una questione tecnica. Diventa una questione giuridica.

In questo senso, la proposta introduce un’idea forte: la responsabilità non può fermarsi al contenuto, ma deve estendersi al meccanismo che lo rende virale, persistente, coinvolgente.

Minori e vulnerabilità, il secondo asse della regolazione

Il secondo disegno di legge, quello sulla tutela dei minori, si muove in parallelo ma con un focus più specifico. Qui il punto non è solo la dipendenza, ma la vulnerabilità. I minori non sono utenti come gli altri. Sono soggetti esposti a un ambiente progettato per influenzare comportamenti, emozioni e percezioni.

La regolazione, quindi, non può limitarsi a vietare o consentire. Deve costruire un perimetro di sicurezza attorno all’esperienza digitale. Questo significa interrogarsi su notifiche, raccomandazioni, autoplay, meccanismi di reward. Tutto ciò che trasforma l’interazione in abitudine.

Dalla moderazione dei contenuti alla responsabilità algoritmica

Se si guarda al quadro più ampio, queste iniziative si inseriscono in una traiettoria già avviata a livello europeo. Con il Digital Services Act, l’Unione ha iniziato a spostare il baricentro dalla semplice rimozione dei contenuti alla gestione sistemica dei rischi. Ma il passaggio che si sta tentando ora è ancora più radicale.

Non si tratta più solo di chiedere alle piattaforme di intervenire ex post. Si tratta di intervenire ex ante, sul modo in cui l’ambiente digitale viene costruito. In altre parole, la questione non è più “cosa circola online”, ma “come viene reso inevitabile ciò che circola”.