Quando le persone scoprono che sono un giornalista che si occupa di intelligenza artificiale, spesso mi chiedono del drastico consumo energetico dei information middle AI. Questi centri stanno consumando tutta la nostra acqua potabile? In che modo questa tecnologia influisce sull’ambiente? L’intelligenza artificiale ci ucciderà tutti? Le domande vanno dal curioso al decisamente distopico.
Sam Altman, CEO di OpenAI, ha recentemente affrontato critiche dopo aver definito alcune di queste preoccupazioni, in particolare quelle relative all’acqua, “totalmente false”. Tutto nasce da una sessione di domande e risposte ospitato da L’Indian Express giornale. Intorno ai 26 minuti dell’intervista, advert Altman è stato chiesto di difendere alcune critiche all’intelligenza artificiale, inclusa la quantità di risorse naturali necessarie per alimentare modelli linguistici di grandi dimensioni come ChatGPT.
Altman ha risposto: “(la critica all’intelligenza artificiale per l’uso eccessivo dell’acqua) è totalmente falsa”, affermando che mentre l’uso estremo dell’acqua “period vero”, OpenAI non effettua più il raffreddamento evaporativo. Ha detto che le stime secondo cui vengono utilizzati 17 litri d’acqua per ogni question di chatbot non sono più correct.
“Questo è completamente falso e totalmente folle, [and has] nessun collegamento con la realtà”, ha affermato. Poi prosegue affrontando il consumo di energia dell’intelligenza artificiale, definendo le preoccupazioni “giuste” ma sostenendo che dovrebbe essere valutato nel suo insieme, non per question, poiché alcune question, come i videosono più impegnativi da generare rispetto alle conversazioni di testo. (Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
Tuttavia, cube Altman, “dobbiamo muoverci verso il nucleare o l’energia eolica e solare molto rapidamente”.
Le questioni che coinvolgono information middle e acqua sono complicate.
I information middle AI mettono a dura prova i sistemi terrestri ed energetici?
Le osservazioni di Altman arrivano nel mezzo di dibattiti tempestivi e in corso sui information middle e sul loro utilizzo energetico.
Corin Cesaric di CNET si è tuffato nella questione dell’uso energetico dell’intelligenza artificiale l’anno scorso e ho trovato “sconcertanti” i costi di formazione e gestione di ChatGPT, Gemini, Claude e altri strumenti di intelligenza artificiale generativa. Secondo il rapporto, nel 2024 gli Stati Uniti hanno rappresentato la quota maggiore (45%) del consumo energetico globale dei information middle nel 2024. Agenzia internazionale per l’energia.
Per quanto riguarda l’acqua: due information middle di Google a Council Bluffs, Iowa, da soli hanno utilizzato 1,4 miliardi di litri d’acqua nel 2024, sufficienti a riempire circa 28 milioni di vasche da bagno customary. Google ha 29 data center in tutto il mondo. Anche i information middle di Meta hanno rappresentato circa 1,39 miliardi litri d’acqua utilizzati nel 2023.
Anche se al momento non disponiamo di statistiche di OpenAI, Meta o Google sul consumo di risorse naturali nel 2025, è lecito scommettere che il consumo di energia e acqua nei information middle aumenterà man mano che sempre più persone utilizzeranno l’intelligenza artificiale generativa.
In che modo i information middle AI utilizzano l’acqua?
Considerando che ChatGPT ora è vicino 1 miliardo di utenti settimanalie OpenAI ha stimato che gestisca quasi 2,5 miliardi di richieste ogni giornosi tratta di una quantità astronomica di dati da gestire. E a causa di questa domanda, i potenti pc che addestrano i modelli di intelligenza artificiale ed elaborano i loro suggerimenti diventano estremamente caldi. Pensa a come il tuo telefono e il tuo laptop computer si surriscaldano quando svolgi attività impegnative. Se i server si surriscaldano, possono rallentare o danneggiarsi. È qui che entra l’acqua.
Tradizionalmente, l’acqua nei information middle AI viene utilizzata in due modi: raffreddamento evaporativo (consumo di acqua) e sistemi a circuito chiuso (acqua di ricircolo).
Il raffreddamento evaporativo è una tecnica di ventilazione che utilizza il naturale processo di evaporazione per convertire l’acqua liquida in vapore acqueo, che assorbe calore durante il processo. Il raffreddamento a circuito chiuso è un processo più efficiente in termini di risorse che riutilizza l’acqua per dissipare il calore senza evaporazione o consumo.
OpenAI ha detto in a Annuncio di gennaio che sta “dando la priorità ai sistemi di raffreddamento a circuito chiuso o a basso consumo di acqua” per ridurre al minimo l’uso dell’acqua. Ciò dà credito alle recenti affermazioni di Altman secondo cui il consumo di acqua di OpenAI non è elevato quanto la stima di 17 galloni per question, ma non disponiamo ancora di cifre esatte per il consumo di acqua di OpenAI nel 2025.
OpenAI afferma che si sta allontanando dai più costosi sistemi di raffreddamento evaporativo. Tuttavia, il 56% dei information middle utilizza ancora questo metodo in qualche modo su sistemi a circuito chiuso, secondo un rapporto del gennaio 2026 dalla società globale di tecnologia dell’acqua Xilema e la società di ricerche di mercato World Water Intelligence. La ricerca prevede che il consumo di acqua tramite l’intelligenza artificiale aumenterà di quasi il 130% entro il 2050.
Queste osservazioni di Altman arrivano nel mezzo di dibattiti tempestivi e in corso sui information middle e sul loro utilizzo energetico.
Quanta energia consuma l’intelligenza artificiale?
Alimentare l’intelligenza artificiale e questi enormi information middle è impegnativo.
I chatbot con intelligenza artificiale generativa consumano più energia rispetto ai motori di ricerca tradizionali come Google o Bing. Una stima ha calcolato che una singola question di chatbot richiede 10 volte più elettricità di una ricerca su Google. In media, una singola question di testo richiede da 0,24 a 3 wattora, ma i video e le immagini generati dall’intelligenza artificiale richiedono molta più elettricità.
Un rapporto di agosto 2025 di Google dettagli sull’utilizzo energetico dei Gemelli. Il rapporto afferma che “il messaggio testuale medio di Gemini Apps utilizza 0,24 wattora (Wh) di energia, emette 0,03 grammi di anidride carbonica equivalente (gCO2e) e consuma 0,26 millilitri (o circa cinque gocce) di acqua”. Google equipara questo consumo di energia all’alimentazione di un forno a microonde per 9 secondi.
Il solare è una valida alternativa?
Anche se i modelli di intelligenza artificiale richiedono energia 24 ore su 24, 7 giorni su 7, l’energia solare è un’opzione praticabile e scalabile per alimentare i information middle AI.
Annunciato OpenAI un’impresa multimiliardaria nell’ottobre 2025 per esplorare una nuova generazione di energia con l’accumulo di energia solare e batterie. Meta, Microsoft, Google e Amazon hanno ampliato il loro utilizzo di energia solare negli Stati Uniti nel 2025.
Anche se le soluzioni rinnovabili potrebbero essere la strada da seguire, l’energia solare (o eolica) è ancora solo una parte del combine di generazione di energia utilizzato dai information middle. Generalmente fanno affidamento sulla rete stessa, che lo è ancora in gran parte alimentato dalla combustione di combustibili fossili come il fuel naturale.
Dove ci troviamo
Il dibattito sull’intelligenza artificiale e sull’uso dell’acqua si sta spostando da affermazioni non confermate a un esame accurato. Le comunità e i politici stanno ora spingendo per la trasparenza e pratiche sostenibili, con l’obiettivo di garantire che la rapida crescita dell’intelligenza artificiale non avvenga a scapito delle risorse idriche locali o della rete elettrica locale. Man mano che l’intelligenza artificiale continua a crescere, crescerà anche il dibattito su come bilanciare al meglio l’innovazione tecnologica con la responsabilità ambientale.













