L’accordo era praticamente chiuso. Restavano poche parole da definire, una clausola sensibile, una telefonata mancata. Poi, nel giro di pochi minuti, tutto è saltato.
Il Dipartimento della Difesa degli Stati Uniti ha interrotto le trattative con Anthropic per un contratto da 200 milioni di dollari legato all’impiego di sistemi di intelligenza artificiale in ambito militare. Subito dopo ha annunciato un’intesa alternativa con OpenAI. Una sequenza rapida, politicamente potente, che racconta molto più di uno scontro tra manager.
La clausola che ha fatto saltare tutto
Secondo le ricostruzioni pubblicate dalla stampa americana, il nodo centrale riguardava i limiti d’uso delle tecnologie. Anthropic avrebbe insistito per inserire restrizioni chiare sull’utilizzo dei propri sistemi per la sorveglianza degli americani e per applicazioni d’arma senza controllo umano significativo.
Il Pentagono, invece, avrebbe chiesto maggiore libertà operativa, in linea con una strategia che punta a integrare in modo esteso l’intelligenza artificiale nei programmi di difesa.
A pochi minuti dalla scadenza fissata per chiudere l’accordo, l’intesa è saltata. Poco dopo, l’azienda è stata qualificata come rischio per la sicurezza della catena di approvvigionamento, una formula che normalmente richiama scenari ben più gravi.
L’ingresso di OpenAI e il messaggio di Altman
Nel frattempo OpenAI ha annunciato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire sistemi destinati anche a contesti classificati.
Negli ultimi mesi il CEO Sam Altman ha assunto una posizione sempre più chiara: l’intelligenza artificiale è una tecnologia strategica e gli Stati Uniti devono guidarne lo sviluppo anche in ambito di sicurezza nazionale. OpenAI ha aggiornato le proprie policy, chiarendo di non sostenere sistemi offensivi completamente autonomi ma di essere disponibile a collaborare con le istituzioni su progetti di difesa, cyber sicurezza e analisi avanzata.
Il segnale è evidente: meglio lavorare dall’interno del sistema, influenzandone l’evoluzione, piuttosto che restarne fuori.
Big Tech e difesa, una nuova fase
Questa vicenda segna un passaggio delicato. L’intelligenza artificiale non è più solo uno strumento per chatbot o automazione industriale. È un’infrastruttura strategica che tocca intelligence, analisi predittiva, sicurezza, operazioni militari.
Quando un’azienda privata prova a imporre limiti etici contrattuali all’uso statale delle proprie tecnologie, entra in un terreno in cui diritto, politica e potere militare si intrecciano.
La rottura tra Pentagono e Anthropic e l’accordo con OpenAI mostrano che la partita sull’AI militare è già aperta. E che il confine tra autonomia delle imprese e priorità della sicurezza nazionale è destinato a diventare uno dei grandi temi geopolitici dei prossimi anni.




