L’uso di chatbot alimentati dall’intelligenza artificiale, come ChatGPT, è diventato sempre più diffuso, ma pochi si rendono conto del costo ambientale associato a ogni singola interazione. Secondo una recente ricerca dell’Università della California, Riverside, un’email di 100 parole generata da un chatbot basato su GPT-4 può consumare 519 millilitri di acqua, l’equivalente di una bottiglia, solo per raffreddare i server che gestiscono i calcoli necessari per formulare una risposta.
Il problema non si ferma all’acqua. I data center che ospitano questi server richiedono enormi quantità di energia elettrica per mantenere il funzionamento continuo e garantire che le apparecchiature non si surriscaldino. Si stima che un’email di 100 parole utilizzi circa 0,14 kilowattora di energia elettrica, sufficiente per alimentare 14 lampadine LED per un’ora. Con l’aumento dell’uso di chatbot, questi costi energetici si accumulano rapidamente, esercitando una pressione considerevole sulle risorse naturali.
In regioni come la Virginia settentrionale, dove si concentra il maggior numero di data center al mondo, i residenti hanno iniziato a protestare contro la costruzione di queste strutture. Le comunità locali si preoccupano per l’elevato consumo di acqua e di energia, soprattutto in aree soggette a siccità o dove l’energia è già una risorsa costosa. Inoltre, questi enormi edifici, spesso percepiti come poco attraenti, possono ridurre il valore delle proprietà circostanti.
Mentre l’intelligenza artificiale continua a crescere in popolarità, diventa sempre più evidente che il suo impatto ambientale dovrà essere affrontato. Le tecnologie di raffreddamento più efficienti e l’uso di energie rinnovabili sono già in fase di sperimentazione, ma rimane ancora molta strada da fare per bilanciare l’innovazione con la sostenibilità.