Un avvocato australiano ha presentato documenti giudiziari con citazioni legali completamente inventate da strumenti di intelligenza artificiale. Il tribunale lo ha multato e deferito all’ordine professionale. Il caso riaccende il dibattito su come “non” usare l’AI nelle professioni legali, dove la precisione non è un’opzione, ma un dovere.
Il caso: citazioni inventate da Copilot e Claude
Succede in Australia, nello Stato dell’Australia Occidentale. Un avvocato, per redigere atti da presentare davanti al tribunale federale, si affida a Microsoft Copilot e Claude AI, due tra gli strumenti più avanzati di intelligenza artificiale generativa. Ma qualcosa va storto: le citazioni di precedenti giuridici inserite nel testo risultano completamente inventate. Nessuna delle sentenze citate esiste davvero.
Il giudice, accortosi dell’anomalia, ha indagato. L’avvocato ha ammesso di non aver verificato quanto prodotto dalle AI. Risultato: oltre 8.300 dollari australiani in spese legali e segnalazione all’organo di vigilanza della professione. Ma soprattutto: l’imbarazzo pubblico e un danno alla credibilità dell’intero sistema legale.
Quando l’AI allucina (e crea problemi)
Il fenomeno è noto nel mondo dell’intelligenza artificiale: si chiama “hallucination”. Le AI generative, pur basandosi su enormi quantità di dati, possono creare contenuti che sembrano credibili ma sono del tutto falsi. Nel diritto, dove ogni parola conta, queste allucinazioni possono avere conseguenze devastanti.
Il caso australiano non è isolato. Nel 2023, due avvocati di New York furono sanzionati per aver presentato un documento contenente citazioni inesistenti prodotte da ChatGPT. Anche in quell’occasione, la fiducia cieca nella tecnologia ha portato a un cortocircuito tra innovazione e responsabilità.
La responsabilità è ancora umana
L’intelligenza artificiale non sostituisce la verifica umana. E non è una scusa valida in aula. Gli avvocati restano pienamente responsabili di quanto presentano in tribunale, indipendentemente dallo strumento utilizzato.
Utilizzare AI per velocizzare le ricerche o redigere bozze può essere utile, ma non esonera dal controllo finale. L’etica professionale e la deontologia impongono prudenza. La tecnologia può assistere, ma non può sostituire il giudizio critico.
Un vuoto normativo da colmare?
Il caso solleva una questione centrale: è necessario regolamentare l’uso dell’AI nelle professioni legali? Alcuni ordini si stanno muovendo per introdurre linee guida che vietino o limitino l’uso di AI generativa non controllata.
In Europa, l’AI Act prevede specifici obblighi per i cosiddetti “sistemi ad alto rischio”, tra cui rientrano anche quelli impiegati nel settore giuridico. Ma finché non esistono standard condivisi a livello globale, i rischi di abusi o errori restano altissimi.
Cos’è una “hallucination AI”?
Le hallucination sono risposte generate dall’AI che appaiono credibili ma sono inventate. Possono includere dati, citazioni, sentenze, riferimenti bibliografici inesistenti. Il fenomeno è più frequente in ambiti tecnici o specialistici, dove l’AI tende a colmare le lacune inventando.
Non solo legge: il problema è sistemico
Il caso australiano è solo un sintomo. Lo stesso rischio riguarda anche altri ambiti come la medicina, la consulenza aziendale, il giornalismo. In tutti questi settori, un uso scorretto dell’AI può generare errori gravi, disinformazione o addirittura danni a persone reali.
L’AI non è infallibile. E spesso non è nemmeno trasparente. Per questo è fondamentale promuovere una cultura della consapevolezza digitale: chi usa strumenti di AI deve sapere cosa chiedere, come interpretare le risposte, e quando è il caso di fermarsi e verificare.
Conclusione: la fiducia si costruisce, non si automatizza
Il caso australiano è un campanello d’allarme per tutti. Non basta usare uno strumento innovativo per dichiararsi “digitali”. Serve competenza, senso critico e responsabilità.
In un mondo dove l’IA sarà sempre più presente nei tribunali, negli studi professionali e nei luoghi di lavoro, la vera sfida non è tecnologica, ma culturale. Sapremo educarci a un uso consapevole e sicuro dell’intelligenza artificiale?