L’intelligenza artificiale ha sete, ora i server consumano sempre più acqua
Per entrare in un data center, serve innanzitutto una felpa. E qui sta il problema. L’intelligenza artificiale (IA) generativa, come ChatGPT o Bard, per essere addestrata ha bisogno di temperature basse, e riesce a mantenerle solo consumando energia e acqua. Una nuova ricerca dell'Università del Colorado, Riverside e dell'Università del Texas, Arlington, ha mostrato che per GPT-3 sono stati consumati 700.000 litri di acqua. Come spiegano i ricercatori “l’acqua dolce limpida necessaria per addestrare GPT-3 è equivalente alla quantità necessaria per riempire la torre di raffreddamento di un reattore nucleare.”
L’IA ha tantissima sete in un periodo dove la siccità sta costringendo a razionare l’acqua, i ricercatori temono quindi che lo sviluppo della nuova tecnologia avrà un impatto problematico sulle forniture idriche. "L'impronta idrica deve essere affrontata come una priorità come parte degli sforzi collettivi per combattere le sfide idriche globali".
Come l'intelligenza artificiale consuma acqua
Le sale server sono sempre mantenute fresche, in genere tra i 10 e i 26 gradi per evitare malfunzionamenti delle apparecchiature. Mantenere la temperatura è una sfida, dato che i server convertono l’energia in calore. Per contrastare l’innalzamento della temperatura vengono utilizzate torri di raffreddamento che, per svolgere correttamente il loro lavoro, hanno bisogno di enormi quantità d'acqua. Secondo gli esperti serve un litro per ogni chilowattora in un data center. Non solo, per evitare la corrosione della macchine o l'infiltrazione dei batteri è necessario utilizzare solo acqua dolce e pulita, che serve anche per controllare il livello di umidità nelle stanze.
In realtà non è un problema nuovo o legato solo all’intelligenza artificiale. Come spiega la testata tech Gizmodo, “Google ha richiesto più di 2,3 miliardi di litri d'acqua per i data center in soli tre Stati. L'azienda dispone attualmente di 14 data center distribuiti in tutto il Nord America che utilizza per potenziare Ricerca Google, la sua suite di prodotti per il posto di lavoro e, più recentemente, i suoi modelli di linguaggi di grandi dimensioni LaMDa e Bard”. Secondo lo studio di ricerca LaMDA potrebbe richiedere ancora più acqua perché i data center di Google si trovano in siti più caldi, per esempio in Texas.
Un rapporto sull'intelligenza artificiale di Stanford invece ha esaminato che c’è anche un problema relativo al consumo di energia, agli impianti per addestrare GPT3 servono 502 tonnellate di carbonio. Lo studio ha spiegato che l’energia necessaria potrebbe alimentare la casa di una persona per centinaia di anni. "La corsa ai data center per stare al passo con tutto è piuttosto frenetica", ha dichiarato Kevin Kent, CEO di Critical Facilities Efficiency Solution, in un'intervista al Time. E poi ha proseguito: "Non si possono sempre fare le scelte migliori dal punto di vista ambientale".
La siccità e i cambiamenti climatici
Il rapporto di Sintesi (Syntesis Report – SYR) pubblicato il 20 marzo 2023 dall'IPCC, un lavoro immenso che ha richiesto otto anni e l'impegno di centinaia di scienziati di varie discipline, ha spiegato che c’è ancora un margine di tempo limitato per evitare impatti catastrofici. Poi, negli Stati Uniti, il World Economic Forum ha stimato che 2,2 milioni di residenti non hanno impianti idraulici interni di base e altri 44 milioni vivono con sistemi idrici inadeguati. Entro il 2071, Stanford stima che quasi la metà dei 204 bacini di acqua dolce del Paese non sarà in grado di soddisfare la domanda mensile di acqua. Le forniture idriche potrebbero ridursi di un terzo nei prossimi 50 anni.
La sete dell’intelligenza artificiale diventa ancora più problematica in uno scenario dove invece di consumare bisognerebbe trovare soluzioni per risparmiare acqua. Come spiegano i ricercatori, per prima cosa è necessario usare alcune accortezze. Per esempio scegliere siti per i data center in luoghi freddi, o addestrare i modelli durante la notte, la temperatura influisce infatti sulla quantità di acqua necessaria per il raffreddamento. Non solo, gli utenti potrebbero infatti interagire con il chatbot durante le ore di efficienza idrica, un po’ come già succede per utilizzare lavatrici o lavastoviglie.
"Raccomandiamo agli sviluppatori di modelli di intelligenza artificiale e agli operatori di data center di essere più trasparenti", hanno spiegato i ricercatori. “Quando e dove vengono addestrati i modelli di intelligenza artificiale? E i modelli di intelligenza artificiale addestrati e/o distribuiti in data center di colocation di terze parti o cloud pubblici? Tali informazioni saranno di grande valore per la comunità di ricerca e il pubblico in generale”.