Google ha recentemente affermato che una singola richiesta testuale al suo assistente IA, Gemini, consuma in media 0,24 wattora (Wh) di energia: meno, insomma, di nove secondi passati davanti a una TV moderna, che ne assorbirebbe circa 100 Wh all’ora. Un paragone d’impatto, pensato per rassicurare un pubblico sempre più attento agli effetti ambientali della tecnologia.
Quanta energia consuma davvero l’intelligenza artificiale?
Secondo i ricercatori di Google, il dato di consumo include le fasi di elaborazione del modello, l’energia utilizzata dai chip, dai server e dai data center. Ma c’è un dettaglio importante: non viene specificato cosa si intende per “prompt”. Una singola parola? Un’intera conversazione? Il confine resta vago, e con esso la reale portata dell’impatto energetico.
Inoltre, Google non ha rivelato quante richieste riceve ogni giorno Gemini. Un’informazione che, se condivisa, permetterebbe di comprendere il consumo complessivo del modello, ben più significativo della singola interazione.
Un altro dato sorprendente: il consumo d’acqua
Non si tratta solo di elettricità. Google ha stimato che ogni prompt richiede anche circa 0,26 millilitri d’acqua – l’equivalente di cinque gocce – utilizzate per raffreddare i server nei data center. Un dettaglio spesso trascurato nei dibattiti pubblici, ma che contribuisce all’impatto ambientale dell’IA.
Emissioni in crescita: il rovescio della medaglia
Nonostante gli sforzi comunicativi per presentare Gemini come “eco-friendly”, i numeri globali raccontano un’altra storia. Nel suo rapporto ambientale 2024, Google dichiara di aver emesso 15,2 milioni di tonnellate di CO₂, un aumento del 50% rispetto al 2019. Il motivo? La crescita esplosiva dei data center, fondamentali per alimentare applicazioni come Gemini, ma altamente energivori.
E gli altri? Il confronto con OpenAI
Anche OpenAI, creatore di ChatGPT, ha cercato di rassicurare il pubblico. A giugno ha stimato che un prompt su ChatGPT consuma in media 0,34 Wh – poco più di quello stimato da Google – equivalente a un secondo di utilizzo di un forno domestico. Numeri apparentemente contenuti, ma che diventano rilevanti quando moltiplicati per milioni (o miliardi) di utenti giornalieri.
Addestramento vs utilizzo: la parte nascosta dell’iceberg
C’è poi un altro aspetto spesso ignorato: il consumo energetico per l’addestramento dei modelli di IA, che richiede enormi quantità di energia e non viene incluso nei conteggi sui singoli prompt. È un po’ come valutare il costo ambientale di un’auto solo guardando i chilometri percorsi, senza considerare l’energia per produrla.
Più trasparenza, meno slogan
Confrontare un prompt di IA con pochi secondi di TV è efficace dal punto di vista comunicativo, ma rischia di banalizzare un tema complesso. Il vero problema non è il singolo prompt, ma la scala d’uso globale e la mancanza di trasparenza su dati chiave. Serve una maggiore chiarezza da parte delle Big Tech – non solo per rassicurare, ma per responsabilizzare davvero l’industria.
👉 Vuoi capire di più sull’impatto ambientale dell’IA? Seguici su TGWEB AI e iscriviti alla nostra newsletter per non perderti gli approfondimenti.