La campagna #quitGPT ha davvero costretto OpenAI a fare un passo indietro sull’accordo con il Pentagono? La risposta non è semplice, ma una cosa è certa: per la prima volta un’ondata di pressione pubblica online ha inciso in modo visibile sul rapporto tra una big tech dell’intelligenza artificiale e il Dipartimento della Difesa degli Stati Uniti.
Sam Altman ha ammesso di aver agito con troppa fretta nell’annunciare l’intesa con il Pentagono per l’utilizzo militare dei sistemi di OpenAI. Un mea culpa pubblico che arriva dopo giorni di polemiche e dopo la nascita della campagna #quitGPT, che ha invitato milioni di utenti ad abbandonare ChatGPT in favore di Claude, il modello sviluppato da Anthropic.
L’accordo con il Pentagono e il passo indietro di Sam Altman
Il punto di partenza è lo scontro tra OpenAI e il Dipartimento della Difesa statunitense, noto come Pentagono, sul possibile impiego dell’intelligenza artificiale in ambito militare.
OpenAI aveva annunciato la chiusura di un accordo che, di fatto, la poneva in una posizione centrale nella fornitura di sistemi avanzati di AI per scopi legati alla difesa. Una mossa arrivata mentre Anthropic era in pieno braccio di ferro con l’amministrazione americana, in un contesto politico già teso sotto la presidenza di Donald Trump.
Dopo la reazione negativa di una parte consistente dell’opinione pubblica e della comunità tech, Altman ha pubblicato su X una nota interna rivista, spiegando che l’azienda ha collaborato con il Dipartimento per chiarire meglio i principi che guideranno l’accordo.
In particolare, OpenAI ha sottolineato che i propri sistemi non dovranno essere utilizzati per la sorveglianza interna dei cittadini statunitensi, né per il tracciamento o il monitoraggio deliberato di persone attraverso dati personali acquisiti commercialmente. È stato inoltre ribadito che i servizi non saranno messi a disposizione delle agenzie di intelligence del Dipartimento della Difesa, come la NSA.
Un chiarimento importante, ma non definitivo.
Il nodo delle armi autonome
C’è un’assenza che pesa. Nelle precisazioni pubblicate da Altman non compare un riferimento esplicito allo sviluppo di armi completamente automatizzate.
È questo il punto più delicato del dibattito globale sull’AI militare: sistemi capaci di selezionare e colpire obiettivi senza un intervento umano diretto. L’assenza di una presa di posizione chiara su questo aspetto ha riacceso i sospetti di chi teme una progressiva normalizzazione dell’impiego bellico dell’intelligenza artificiale.
Il fatto che OpenAI abbia sentito il bisogno di correggere la comunicazione iniziale dimostra quanto il tema sia esplosivo. Non si tratta solo di un contratto pubblico, ma di una scelta che incide sull’identità stessa di un’azienda nata con la missione dichiarata di sviluppare un’intelligenza artificiale “a beneficio dell’umanità”.
Ha davvero vinto la campagna #quitGPT?
La campagna #quitGPT ha superato in pochi giorni 1,5 milioni di adesioni online. È difficile stabilire quanti utenti abbiano davvero abbandonato ChatGPT per passare a Claude, ma è significativo che il CEO di OpenAI abbia risposto pubblicamente alle critiche.
In parallelo, si sono registrati disservizi tecnici sui sistemi di Anthropic, probabilmente legati a un aumento improvviso del traffico. Un segnale, almeno simbolico, di quanto il dibattito abbia mobilitato una parte attiva della comunità digitale.
Non è la prima volta che le big tech si trovano sotto pressione per collaborazioni con la difesa, ma raramente la reazione è stata così immediata e coordinata.
Cosa ci dice questa vicenda sul futuro dell’AI
Il caso OpenAI-Pentagono mette in luce una tensione sempre più evidente: l’intelligenza artificiale è una tecnologia dual use, utilizzabile sia per applicazioni civili sia per scopi militari.
Per aziende private che operano su scala globale, il confine tra collaborazione istituzionale e coinvolgimento in strategie militari è sempre più sottile. E la legittimazione pubblica diventa un fattore strategico quanto il contratto economico.
Altman ha dichiarato di voler collaborare con il governo “attraverso processi democratici” e nel rispetto di principi di legalità ed equità, aggiungendo che anche Anthropic dovrebbe avere accesso alle stesse condizioni negoziali. Una presa di posizione che, al di là delle rivalità industriali, segnala la volontà di evitare una guerra interna al settore sotto l’ombrello della sicurezza nazionale.
Per chi osserva dall’Europa, la vicenda è un promemoria importante. Le regole sull’intelligenza artificiale non riguardano solo la protezione dei dati o la trasparenza degli algoritmi, ma anche il ruolo geopolitico delle piattaforme e il loro rapporto con gli apparati militari.
L’AI non è più soltanto uno strumento di produttività o di innovazione. È diventata un asset strategico, al centro di equilibri politici, economici e militari. E l’opinione pubblica, come dimostra il caso #quitGPT, può ancora influenzare il corso delle decisioni.




