La scrittura è sempre stata un atto umano. Pensiero, esperienza, creatività e responsabilità. Questi gli ingredienti che, fin qui, hanno fatto nascere articoli, inchieste e commenti. Almeno fino all’avvento dell’intelligenza artificiale. Da qualche tempo e sempre più spesso, chi scrive non è più una persona in carne e ossa, ma un algoritmo.
L’intelligenza artificiale generativa è diventata ormai parte integrante del nostro sistema di comunicazione, sempre più capillare, social e asfissiante. Produce articoli, riassunti, tweet, email promozionali, sottotitoli per i video e caption per Instagram. Sui social e nei contenuti digitali, i confini tra testo umano e testo artificiale si sono fatti del tutto evanescenti. È una trasformazione che riguarda non solo la tecnica, ma la percezione stessa dell’informazione. E se non fossimo più in grado di distinguere chi parla – o cosa ci parla – come possiamo fidarci?
Indice
- Il Foglio AI e il caso editoriale che ha acceso il dibattito
- AI e comunicazione: potenzialità straordinarie, rischi sistemici
- Il diritto d’autore al tempo dell’intelligenza artificiale
- Non basta l’algoritmo. Serve coscienza.
Il Foglio AI e il caso editoriale che ha acceso il dibattito
In questo clima, in Italia è stato lanciato un esperimento editoriale che ha fatto discutere e di cui TGWEBAI si è già occupato. Il Foglio ha pubblicato un’intera edizione del quotidiano generata da intelligenza artificiale. Nessun articolo scritto da giornalisti. Solo domande umane, tutto il resto – titoli, testi, immagini, perfino le citazioni – è stato prodotto da una macchina.
L’operazione è stata presentata come una “prima mondiale” e ha avuto un carattere dichiaratamente provocatorio. Più che un esercizio di stile, è stata una sfida culturale: fino a che punto possiamo delegare l’informazione all’automazione? Cosa accade se a raccontarci il mondo non è più chi lo vive, ma un software?
La scelta del Foglio ha spinto l’opinione pubblica e gli operatori del settore a porsi domande essenziali: che cos’è il giornalismo nell’era dell’intelligenza artificiale? Dove finisce il lavoro dell’uomo e dove comincia (o degenera) quello della macchina?
AI e comunicazione: potenzialità straordinarie, rischi sistemici
Oggi, l’AI è perfettamente in grado di produrre testi leggibili, coerenti, accattivanti. Lo fa nei siti di news, nelle app aziendali, negli e-commerce, nelle campagne di marketing. I modelli linguistici generativi vengono addestrati su milioni di documenti prelevati dal web, e possono sintetizzare, parafrasare, inventare, tradurre. Ma questo stesso potere comporta rischi enormi: informazioni false, bias sistemici, assenza di etica e discernimento.
Secondo l’AI Act (Regolamento UE 2024/1689), l’uso di AI generativa in ambiti ad alto impatto sociale – come il giornalismo – non è in sé vietato, ma dev’essere sottoposto a obblighi stringenti di trasparenza. In particolare, l’articolo 50 impone che il lettore venga informato ogni volta che un contenuto è generato artificialmente. L’obbligo decade solo se il testo è stato sottoposto a revisione umana sostanziale, ma su cosa si intenda per “sostanziale” il legislatore tace. Un’approvazione è sufficiente? Serve una riscrittura critica? Senza indicazioni precise, ogni editore si trova a navigare a vista.
La questione si fa ancora più delicata se si guarda alla responsabilità editoriale. Le leggi italiane – in particolare la Legge sulla Stampa del 1948 – attribuiscono al direttore responsabile la piena responsabilità di ciò che viene pubblicato. Ma come si applica questo principio se i contenuti non sono redatti da persone? Il giornalismo automatizzato apre un vuoto giuridico che richiede con urgenza una revisione delle norme in chiave contemporanea.
Il diritto d’autore al tempo dell’intelligenza artificiale
Uno dei nodi più intricati riguarda il diritto d’autore. Secondo la legge sul diritto d’autore, solo le opere frutto dell’ingegno umano sono protette. Il nuovo DDL 1146/2024, attualmente in discussione, conferma questo principio, proponendo che i contenuti generati esclusivamente da AI non siano soggetti a tutela. È prevista invece la protezione di opere realizzate con l’ausilio di AI solo se vi è un effettivo apporto creativo umano.
Ma anche qui manca una definizione operativa: quale quantità e qualità di intervento umano è necessaria per ottenere tutela? L’attuale formulazione normativa parla di “controllo creativo”, ma non chiarisce in che cosa debba consistere. Il rischio è di lasciare tutto alla discrezionalità giurisprudenziale, con effetti imprevedibili per autori, editori e sviluppatori.
Ancora più complessa è la questione dell’addestramento dei modelli linguistici. Gli algoritmi imparano leggendo milioni di articoli, saggi, romanzi, post, spesso protetti da copyright. La legge sul diritto d’autore, in attuazione della Direttiva Copyright UE 2019/790, ha introdotto due articoli fondamentali: il 70-ter, che consente il text and data mining (TDM) per fini scientifici, e il 70-quater, che estende questa possibilità anche agli utenti generici a condizione che abbiano legittimo accesso ai dati. Gli autori, tuttavia, possono esercitare un opt-out, cioè vietare l’uso delle loro opere per addestrare IA.
Il problema è che non esistono strumenti tecnici standardizzati per esercitare efficacemente questo diritto. In assenza di protocolli chiari, il diritto diventa di difficile applicazione e le violazioni diventano quasi inevitabili. Il DDL 1146/2024 cerca di rispondere introducendo l’art. 70-septies, che ribadisce i limiti già esistenti e prevede persino sanzioni penali per chi viola le norme sul TDM. Ma finché non verranno fissati meccanismi concreti per esercitare le riserve e controllare l’uso dei dati, queste misure rischiano di rimanere inefficaci.
Inoltre, l’assenza di una definizione giuridicamente condivisa di “creatività artificiale” apre un conflitto interpretativo che può minare la certezza del diritto, e con essa la possibilità di proteggere realmente gli investimenti degli autori e degli editori.
Non basta l’algoritmo. Serve coscienza.
L’intelligenza artificiale sta riscrivendo il modo in cui comunichiamo. Ma in questa rivoluzione serve un principio saldo: non può esserci vera informazione senza responsabilità umana. Le macchine possono elaborare, generare, replicare, ma non possono scegliere. Non possono distinguere cosa sia giusto raccontare e cosa no. Non hanno morale, non hanno sensibilità, non hanno etica.
Il giornalismo del futuro non potrà fare a meno dell’AI – e sarebbe sciocco volerlo – ma dovrà imparare a conviverci in modo etico, responsabile e soprattutto umano. Occorre immaginare un’informazione aumentata, non sostituita, in cui la tecnologia amplifica la voce dei giornalisti ma non ne silenzia la coscienza critica.
È per questo che il futuro del giornalismo non sarà affidato agli algoritmi, ma alla capacità dell’uomo di usarli con consapevolezza. Di guidarli, correggerli, limitarli. Di decidere quando delegare e quando no. Serve un’informazione aumentata, non automatizzata. Un’informazione che sappia usare la tecnologia per essere più veloce e accessibile, ma mai meno attenta o meno libera.
In gioco non c’è solo il futuro dell’editoria. C’è la qualità del nostro dibattito pubblico, il livello della consapevolezza di ciascuno e la solidità stessa della nostra democrazia.