Mediaset porta in tribunale Perplexity AI. La prima causa italiana contro un modello generativo è un segnale per tutta l’industria dei contenuti

La prima causa italiana contro un modello di intelligenza artificiale generativa arriva dal cuore del sistema televisivo e cinematografico nazionale. Reti Televisive Italiane (Rti) e Medusa Film, entrambe parte del Gruppo Mediaset, hanno avviato un’azione legale presso il Tribunale civile di Roma contro Perplexity AI Inc., una delle società statunitensi più discusse del nuovo ecosistema AI. L’accusa è chiara: utilizzo su larga scala di contenuti audiovisivi protetti da copyright senza alcuna autorizzazione, allo scopo di alimentare l’addestramento dei modelli dell’azienda.

La notizia è significativa per almeno due ragioni. È il primo caso di questo tipo in Italia e si inserisce in una battaglia mondiale già accesa, che vede contrapposte testate giornalistiche, major cinematografiche, piattaforme streaming e creatori di contenuti ai colossi dell’AI generativa. Una battaglia destinata a ridisegnare il modo in cui i modelli vengono sviluppati, i dataset costruiti e il valore creativo tutelato.

AI e contenuti: cosa c’è davvero in gioco

Per capire la portata della vicenda, bisogna allargare lo sguardo. Le AI generative, dai chatbot ai sistemi che producono testi, immagini, musica e ora anche video, si basano su una fase iniziale cruciale: l’addestramento, durante il quale ingenti quantità di dati vengono elaborate per “insegnare” al modello a riconoscere pattern, contesti, linguaggi e stili.

Negli ultimi due anni, proprio questa fase di training è finita sotto accusa in molti Paesi. Il motivo è semplice: la maggior parte dei dataset utilizzati per allenare i modelli più noti contiene materiale protetto dal diritto d’autore, spesso acquisito tramite scraping di siti web, raccolte massive da piattaforme online, archivi aperti o database non sempre trasparenti nelle licenze di utilizzo.

La causa intentata da Rti e Medusa rientra esattamente in questo scenario. Secondo le due società italiane, Perplexity avrebbe assorbito nei propri sistemi numerosi contenuti audiovisivi di loro proprietà senza permesso, violando il copyright e altri diritti connessi. L’azienda statunitense non ha ancora diffuso una posizione ufficiale, ma negli Stati Uniti e in Europa cresce una pressione generalizzata verso maggiore trasparenza sui dataset.

Come si dimostra cosa è entrato nei dataset?

Uno dei punti che più preoccupa studiosi, giuristi e regolatori è la scarsa trasparenza sull’origine dei dati usati per addestrare i modelli. Le aziende del settore spesso non rivelano quali dataset siano stati utilizzati, come siano stati acquisiti i contenuti, se vi fossero protezioni anti-scraping o quali materiali siano stati scartati o rielaborati.

È un problema che tocca anche la causa italiana. Le note diffuse non indicano quali contenuti specifici del catalogo Rti e Medusa siano stati utilizzati: si parla genericamente di “contenuti audiovisivi”. Non è un dettaglio marginale. Se confermato, potrebbe significare che il modello è stato esposto a opere complete o a segmenti delle librerie televisive e cinematografiche del gruppo.

La mancanza di trasparenza è oggi uno dei motivi per cui il dibattito pubblico è così acceso: i modelli di AI sono sempre più presenti negli strumenti creativi, nelle piattaforme streaming, nei software di editing video, ma non sappiamo quali contenuti li abbiano alimentati.

Un caso che arriva nel momento di massima tensione globale

Il contenzioso italiano non nasce in un vuoto. Negli Stati Uniti, il New York Times ha avviato un’azione contro OpenAI e Microsoft; gli autori di Hollywood hanno promosso una serie di class action contro piattaforme AI che avrebbero utilizzato sceneggiature, dialoghi e storyboard; Getty Images ha fatto causa a Stability AI per l’uso di immagini protette nei processi di training.

In Europa, il tema è ancora più sensibile. L’entrata in vigore dell’AI Act, insieme alla discussione sul Digital Omnibus, rende la trasparenza nell’addestramento dei modelli un tema politico oltre che giuridico. Bruxelles teme uno squilibrio crescente tra Big Tech statunitensi e industria creativa europea, mentre i modelli diventano sempre più potenti e autonomi.

L’Italia, finora prudente nel contenzioso diretto contro le AI, con questa iniziativa si inserisce ufficialmente nel fronte dei Paesi che non intendono lasciare la fase di training come una zona grigia non regolata.

Cosa chiedono Rti e Medusa

Il ricorso presentato a Roma contiene richieste pesanti: dichiarazione dell’illiceità della condotta, inibitoria immediata sull’uso dei contenuti, rimozione dei materiali eventualmente già utilizzati nei dataset, risarcimento dei danni e applicazione di una penale giornaliera per ogni futura violazione.

In pratica, le due società chiedono al Tribunale di bloccare l’accesso ai loro cataloghi, impedire qualsiasi ulteriore forma di sfruttamento e costringere Perplexity a ripensare almeno parte dei propri processi di addestramento, qualora emergesse un utilizzo illecito.

Si tratta di richieste che potrebbero aprire un precedente. Se accolte, broadcaster, editori, piattaforme streaming e altri soggetti del mercato italiano potrebbero valutare la stessa strada in caso di sospetti utilizzi non autorizzati.

Cosa significa per chi usa l’AI ogni giorno

I sistemi generativi sono sempre più integrati negli strumenti creativi e professionali, dalle app che sintetizzano contenuti ai software che generano video, trailer o storyboard. La domanda, allora, è semplice: cosa succede se questi modelli si sono formati anche su opere coperte da copyright?

Il caso italiano aiuta a chiarire alcuni punti fondamentali. L’addestramento non è automaticamente libero, neppure se finalizzato all’innovazione. I titolari dei contenuti possono reagire e chiedere tutela giurisdizionale. Il futuro dell’AI passerà inevitabilmente da licenze, sistemi di opt-out efficaci e maggiore responsabilità nella costruzione dei dataset. Indipendentemente dall’esito, la causa Rti–Medusa segna un passaggio storico. Perché porta il dibattito dal piano astratto a quello concreto. Perché chiama in causa un grande gruppo italiano dell’audiovisivo. E perché obbliga i nuovi protagonisti dell’AI a confrontarsi con un tema che non può più essere rimandato: i modelli generativi non cresceranno all’infinito senza un chiarimento definitivo sulla provenienza dei dati che li alimentano.