Anthropic porta il Pentagono in tribunale: lo scontro sull’intelligenza artificiale tra guerra, sicurezza e libertà civili

Lo scontro tra industria tecnologica e apparato militare statunitense entra in una fase completamente nuova. Anthropic, una delle aziende più avanzate nello sviluppo di modelli di intelligenza artificiale, ha avviato una causa federale contro il Dipartimento della Difesa degli Stati Uniti dopo essere stata inserita dall’amministrazione Trump nella lista dei fornitori considerati un rischio per la sicurezza nazionale.

La decisione della Casa Bianca impone alle agenzie federali di interrompere progressivamente l’utilizzo della tecnologia sviluppata dall’azienda. Anthropic sostiene però che la scelta non sia motivata da reali ragioni di sicurezza ma rappresenti una ritorsione politica legata alle posizioni pubbliche espresse dall’azienda sull’uso dell’intelligenza artificiale in ambito militare.

Il ricorso è stato depositato presso un tribunale federale della California e punta a ottenere l’annullamento delle misure adottate dal governo.

Il punto di rottura: armi autonome e sorveglianza di massa

Il conflitto nasce da una richiesta avanzata dal Dipartimento della Difesa durante le trattative con l’azienda. Il Pentagono avrebbe chiesto ad Anthropic di eliminare alcune restrizioni presenti nei termini d’uso dei modelli Claude, consentendo all’intelligenza artificiale di essere utilizzata per qualsiasi impiego considerato legale dal governo.

L’azienda ha accettato di collaborare con le autorità militari ma ha rifiutato di rimuovere due limiti fondamentali: il divieto di impiego dell’IA per sistemi d’arma autonomi letali e quello relativo ai programmi di sorveglianza di massa sui cittadini statunitensi.

Secondo Anthropic questi vincoli non derivano soltanto da considerazioni etiche ma anche da limiti tecnici. I modelli Claude non sarebbero stati progettati né testati per operare in contesti militari autonomi e un errore in scenari operativi potrebbe avere conseguenze drammatiche. Analogamente, l’analisi automatizzata di grandi quantità di dati personali potrebbe amplificare errori e bias con effetti rilevanti sulle libertà civili.

L’IA è già dentro l’infrastruttura militare americana

Il ricorso giudiziario rivela anche quanto l’intelligenza artificiale sia ormai integrata nelle infrastrutture governative. Secondo Anthropic, Claude rappresenterebbe uno dei modelli più avanzati utilizzati dal Dipartimento della Difesa e sarebbe già presente all’interno di sistemi classificati del Pentagono.

L’azienda ha sviluppato anche versioni dedicate al settore pubblico chiamate Claude Gov, progettate per operare in contesti di sicurezza nazionale. Questi sistemi possono essere utilizzati per analisi di intelligence, gestione di dati operativi complessi, supporto alle operazioni militari e sviluppo di software per attività di cybersicurezza.

In altre parole l’intelligenza artificiale non è più soltanto uno strumento sperimentale ma un elemento sempre più strutturale nella gestione delle operazioni militari.

Il paradosso dell’uso operativo in guerra

Uno degli elementi più delicati citati nella causa riguarda l’impiego operativo della tecnologia durante una missione militare statunitense in Medio Oriente. Anthropic sostiene che strumenti basati sui propri modelli sarebbero stati utilizzati poche ore dopo l’annuncio del provvedimento governativo che definiva l’azienda un rischio per la sicurezza nazionale.

L’episodio viene citato per evidenziare una contraddizione evidente: la tecnologia viene definita pericolosa ma allo stesso tempo continua a essere utilizzata dalle forze armate.

Il Pentagono ha infatti previsto un periodo di transizione di sei mesi durante il quale i sistemi continueranno a essere operativi mentre il Dipartimento della Difesa sta firmando nuovi accordi con altri fornitori di intelligenza artificiale, tra cui OpenAI e xAI.

Una battaglia che ridefinisce il rapporto tra IA e guerra

La causa solleva anche una questione costituzionale. Anthropic sostiene che la decisione del governo violi la libertà di espressione garantita dal Primo Emendamento e l’Administrative Procedure Act, la legge che obbliga le agenzie federali a motivare le proprie decisioni ed evitare misure arbitrarie.

Il tribunale dovrà stabilire se la classificazione dell’azienda come rischio per la sicurezza nazionale rappresenti una scelta legittima di difesa oppure una forma di pressione politica contro una società tecnologica.

Il caso potrebbe diventare uno dei precedenti più importanti nel rapporto tra intelligenza artificiale e sicurezza globale. Per la prima volta una società che sviluppa modelli di frontiera sfida apertamente il potere militare americano su un tema cruciale: fino a che punto l’intelligenza artificiale può essere utilizzata nei sistemi di guerra e nelle infrastrutture di sorveglianza.