Il CEO di OpenAI, Sam Altman, minimizza l’impatto energetico dell’intelligenza artificiale e paragona l’addestramento umano a quello dei modelli AI. Le dichiarazioni riaccendono il dibattito su consumi, acqua e trasparenza dei data center.
Durante un evento organizzato da The Indian Express, il CEO di OpenAI, Sam Altman, ha definito “ingiusto” confrontare i costi energetici dell’addestramento di un modello di intelligenza artificiale con quelli necessari a un essere umano per rispondere a una domanda. “Anche addestrare un essere umano richiede molta energia”, ha affermato, sostenendo che vent’anni di vita, alimentazione e l’intera evoluzione umana rappresentano un investimento energetico ben superiore.
Altman ha inoltre respinto le accuse sul consumo idrico dell’AI, definendo “completamente false” alcune stime circolate online, come quella secondo cui una singola query a ChatGPT richiederebbe decine di litri d’acqua. Secondo il manager, l’uso del raffreddamento evaporativo nei data center sarebbe ormai superato.
Tuttavia, il dibattito scientifico resta aperto. Uno studio pubblicato nel 2023 da ricercatori dell’Università della California Riverside e dell’Università del Texas ha stimato che l’addestramento di modelli linguistici di grandi dimensioni può comportare un consumo significativo di acqua dolce indiretta per il raffreddamento dei server (Li et al., 2023). Anche l’International Energy Agency (IEA) ha evidenziato nel report Electricity 2024 che i data center rappresentano una quota crescente della domanda globale di elettricità, con prospettive di ulteriore aumento legate all’AI.
Il nodo centrale rimane la trasparenza. Aziende come Microsoft e Amazon pubblicano report di sostenibilità, ma raramente distinguono in modo dettagliato i consumi attribuibili specificamente ai carichi AI. La mancanza di dati disaggregati rende difficile valutare l’effettiva efficienza energetica rispetto ad altre attività digitali.
Sul piano etico, il confronto tra energia “umana” e “artificiale” solleva interrogativi: l’AI può giustificare il proprio impatto ambientale in nome dell’innovazione? O è necessario un quadro regolatorio più stringente, in linea con gli obiettivi climatici europei e globali?
Approfondimento: cronologia e fonti
- 2023 – Studio su consumo idrico dei modelli AI, University of California Riverside & University of Texas:
https://arxiv.org/abs/2304.03271 - 2024 – Electricity 2024, International Energy Agency (IEA):
https://www.iea.org/reports/electricity-2024 - Report di sostenibilità 2024 di Microsoft:
https://www.microsoft.com/en-us/corporate-responsibility/sustainability/report - Report di sostenibilità 2024 di Amazon:
https://sustainability.aboutamazon.com/
Consigli di approfondimento
- IEA, Data Centres and Data Transmission Networks: https://www.iea.org/reports/data-centres-and-data-transmission-networks
- UNEP, Emissions Gap Report: https://www.unep.org/resources/emissions-gap-report
Abstract: pro e rischi
Pro: l’intelligenza artificiale può ottimizzare reti energetiche, logistica e ricerca scientifica, contribuendo alla decarbonizzazione.
Rischi etici e sociali: opacità nei consumi, concentrazione di potere tecnologico, impatti ambientali non pienamente contabilizzati. Senza standard di trasparenza e metriche condivise, l’espansione dell’AI potrebbe accentuare disuguaglianze energetiche e pressioni sulle risorse idriche.







