Mentre le immagini degli attacchi contro l’Iran scorrono sui notiziari internazionali, un altro fronte – meno visibile ma altrettanto decisivo – si muove dietro le quinte: quello dell’intelligenza artificiale applicata alla guerra. L’operazione condotta da Stati Uniti e Israele contro Teheran, culminata nell’uccisione della Guida suprema Ali Khamenei e in una rapida escalation regionale, non è stata solo un’azione militare convenzionale. È stata anche una dimostrazione concreta di come i sistemi di AI siano ormai integrati nei processi di intelligence, nella selezione dei target e nella simulazione di scenari operativi.
Secondo ricostruzioni pubblicate dal Wall Street Journal, il Dipartimento della Difesa statunitense avrebbe utilizzato il modello Claude sviluppato da Anthropic per supportare valutazioni di intelligence e identificazione di obiettivi nell’ambito dell’operazione contro Teheran, ne avevamo parlato in questo articolo. Un dettaglio che, di per sé, segna un passaggio storico: l’AI non è più un supporto marginale, ma un’infrastruttura strategica nei teatri di guerra contemporanei.
La guerra algoritmica non sostituisce ancora i generali, ma ne amplifica la capacità decisionale. E questo cambia tutto.
Il paradosso americano: vietare e usare la stessa tecnologia
La vicenda assume contorni ancora più complessi se si considera il contesto politico. Poche ore prima dell’offensiva, l’amministrazione guidata da Donald Trump aveva annunciato l’interruzione dei contratti federali con Anthropic, accusata di rappresentare un rischio per la supply chain della difesa. Una rottura maturata dopo che l’azienda, fondata e guidata da Dario Amodei, si era rifiutata di rimuovere alcune restrizioni etiche: niente sorveglianza di massa, niente armi completamente autonome senza supervisione umana significativa.
Eppure, nel pieno della crisi con Teheran, lo stesso sistema sarebbe stato impiegato per supportare le operazioni militari. Un paradosso che racconta meglio di qualsiasi dichiarazione ufficiale quanto l’intelligenza artificiale sia diventata imprescindibile. Quando la posta in gioco è la sicurezza nazionale, le tensioni politiche e le dispute contrattuali sembrano passare in secondo piano.
Questo episodio mette a nudo una realtà scomoda: gli Stati non possono più permettersi di rinunciare ai sistemi di AI avanzata, nemmeno quando entrano in conflitto con i principi dichiarati dai loro sviluppatori.
Big Tech e difesa: la nuova alleanza strategica
La rottura con Anthropic è stata seguita quasi immediatamente da un accordo con OpenAI, la società guidata da Sam Altman. L’intesa prevede l’uso di sistemi di intelligenza artificiale in contesti anche classificati, pur con alcune “linee rosse”: nessun controllo diretto di armi autonome, nessuna sorveglianza interna su larga scala, nessuna automatizzazione totale di decisioni ad alto rischio.

È un passaggio emblematico. Le aziende che sviluppano modelli linguistici e sistemi di AI generativa non sono più semplici fornitori tecnologici: sono attori geopolitici. La loro posizione rispetto all’uso militare dell’AI incide sugli equilibri di potere globali.
Il messaggio che arriva da Washington è chiaro: l’intelligenza artificiale è una tecnologia dual use, con applicazioni civili e militari, e gli Stati Uniti intendono mantenerne la leadership anche sul piano strategico. In questa prospettiva, la collaborazione tra Big Tech e Pentagono non è un’eccezione, ma l’inizio di una nuova normalità.
Dalla sorveglianza alla guerra autonoma: le linee rosse che si assottigliano
Il nodo centrale della disputa tra governo e aziende tecnologiche riguarda le limitazioni d’uso. Fino a che punto un’impresa privata può imporre vincoli etici a uno Stato sovrano? E cosa accade quando l’interesse alla sicurezza nazionale entra in conflitto con i principi dichiarati nei termini di servizio?
La questione non è teorica. I sistemi di AI militare possono essere utilizzati per:
- analisi predittiva su grandi moli di dati di intelligence
- riconoscimento facciale e sorveglianza avanzata
- simulazioni di scenari di battaglia
- ottimizzazione logistica e pianificazione operativa
Oggi parliamo ancora di “human in the loop”, cioè di supervisione umana. Ma la pressione operativa spinge verso una crescente automazione. In contesti di conflitto ad alta intensità, dove la velocità decisionale è cruciale, l’idea di delegare sempre più potere agli algoritmi diventa una tentazione concreta.
Il rischio non è solo tecnico. È politico ed etico. Chi risponde di un errore commesso da un sistema di AI in un’operazione militare? Il comandante? Il programmatore? L’azienda fornitrice? O nessuno?
L’AI come infrastruttura di potere globale
Il caso iraniano dimostra che l’intelligenza artificiale è ormai parte integrante della dottrina militare contemporanea. Non si tratta di droni autonomi fantascientifici, ma di sistemi di supporto decisionale capaci di analizzare informazioni in tempo reale e suggerire opzioni operative.
In questo scenario, il controllo delle infrastrutture digitali diventa un elemento di sovranità. Le nazioni che dominano lo sviluppo di modelli avanzati di AI – Stati Uniti in primis, ma anche Cina e altre potenze emergenti – acquisiscono un vantaggio strategico che va oltre il campo di battaglia.
L’AI militare è destinata a influenzare:
- la deterrenza strategica
- la cyber sicurezza
- la gestione delle crisi internazionali
- l’equilibrio tra potenze regionali
La guerra in Iran, con la sua escalation rapida e le ritorsioni contro Israele e altri Paesi del Golfo, è un laboratorio tragico di questa trasformazione. L’algoritmo diventa parte del ciclo OODA (Observe, Orient, Decide, Act), comprimendo i tempi e aumentando la complessità delle decisioni.
Una democrazia può delegare la guerra agli algoritmi?
Il punto cruciale, però, non è solo tecnologico. È democratico. In una società aperta, l’uso dell’intelligenza artificiale in ambito militare dovrebbe essere oggetto di dibattito pubblico, trasparenza e controllo parlamentare. Eppure, per definizione, molte di queste applicazioni sono coperte da segreto.
Il rischio è una progressiva opacizzazione del potere. Se le decisioni strategiche vengono sempre più mediate da sistemi proprietari sviluppati da aziende private, il confine tra responsabilità pubblica e governance aziendale si fa sfumato.
Il conflitto tra Pentagono e Anthropic, e il successivo accordo con OpenAI, non è solo una disputa commerciale. È il sintomo di una tensione più profonda: chi stabilisce le regole dell’AI militare? Il mercato? Lo Stato? Le aziende? O una combinazione instabile di tutti e tre?
Il futuro della guerra nell’era dell’intelligenza artificiale
L’episodio iraniano potrebbe essere ricordato come uno dei momenti in cui l’intelligenza artificiale ha varcato definitivamente la soglia del campo di battaglia. Non come protagonista visibile, ma come architettura invisibile della decisione.
Nei prossimi anni assisteremo con ogni probabilità a:
- una crescente integrazione tra AI e sistemi d’arma
- investimenti miliardari in ricerca e sviluppo militare
- una competizione geopolitica sempre più centrata sul dominio algoritmico
- un dibattito internazionale – ancora fragile – sulla regolamentazione delle armi autonome
La domanda che resta aperta non è se l’AI verrà utilizzata in guerra. Questo sta già accadendo. La vera questione è quale livello di autonomia siamo disposti ad accettare e quale quadro normativo riusciremo a costruire prima che l’innovazione superi la politica.
Perché se l’intelligenza artificiale diventa il cervello invisibile dei conflitti, la posta in gioco non è solo la superiorità militare. È il futuro stesso del controllo umano sulla forza.




