Il consumo dei server dell'AI

Nicolò
Scritto da Nicolò -
Il consumo dei server dell'AI

In un’età in cui ci sembra di essere distaccati più che mai dalla natura (e dalla realtà in generale), non abbiamo mai finito di avere bisogno delle risorse del pianeta e anzi, non ne abbiamo mai avuto bisogno come ora.

Dalla rivoluzionaria nascita dell’internet negli anni ‘2000 e poi la conseguente creazione dei motori di ricerca come Google, gli esperti si sono posti il problema del raffreddamento delle macchine che rendevano possibile la presenza dei motori di ricerca, per garantire il loro funzionamento. Purtroppo, per molto tempo l’unica soluzione attuabile è stata l’utilizzo dell’acqua come refrigerante; anche oggi è la prima scelta delle aziende che si occupano di server hosting nonostante la nascita di diversi metodi alternativi di raffreddamento dei circuiti. Nell’era pre-intelligenza artificiale le spese ambientali ed economiche sono state contenute non senza difficoltà, ma dall’inizio della nuova era I.A. i costi sono catapultati a causa della maggiore energia richiesta dai server dedicati, che funzionano grazie a un componente diverso dai server classici, ovvero la GPU. Questo elemento innovativo è capace di risolvere una quantità straordinaria di calcoli in tempi minimi però ciò comporta ad un fabbisogno energetico maggiore ai suoi componenti predecessori.

La più importante azienda che ha introdotto al mondo l’intelligenza artificiale è OpenAI, fondata da Elon Musk e Sam Altman. Dopo l’enorme successo del software intorno al 2020, l’azienda ha dovuto presenziare in tribunale per diversi casi d’accusa sulla condivisione di dati dei consumatori con terze parti , nonostante l’enorme consenso popolare ricevuto. Riguardo alla questione dei consumi, OpenAI non rende pubblici i dati ufficiali sui propri consumi di energia e acqua, ma alcune analisi indipendenti offrono stime indicative. Poiché l’azienda utilizza l’infrastruttura cloud di Microsoft Azure, i suoi server si trovano nei centri dati di Microsoft, principalmente negli Stati Uniti. Secondo ricerche riportate da Tom’s Hardware (che è una testata giornalistica), i modelli linguistici più avanzati, come GPT-5, possono consumare tra 18 e 40 watt-ora per ogni risposta generata.

Immaginando un volume di 2,5 miliardi di query al giorno, il consumo complessivo annuo raggiungerebbe decine di terawatt-ora, considerando un’efficienza media dei data center. A titolo di confronto, il Lawrence Berkeley National Laboratory (LBNL) stima che tutti i data center statunitensi abbiano consumato circa 176 TWh nel 2023, con un’impronta idrica media di 4,52 litri d’acqua per kWh e un’intensità emissiva di 0,34 kg di CO₂ per kWh. Applicando questi fattori, l’impronta di un’infrastruttura come quella di OpenAI potrebbe voler dire miliardi di litri d’acqua e centinaia di migliaia di tonnellate di CO₂ ogni anno.

Sul piano economico, i costi operativi legati a energia e acqua ammontano a decine di milioni di dollari l’anno, parzialmente compensati da incentivi locali e agevolazioni fiscali. Tuttavia, la mancanza di dati pubblici precisi rende complesso stimare con esattezza l’impatto economico diretto dei server OpenAI.

Parliamo invece dell’impatto economico e ambientale dei centri dati nel mondo.

A livello globale, il consumo energetico dei data center è in costante crescita. L’International Energy Agency (IEA) stima che nel 2024 essi rappresentassero circa l’1,5% del consumo elettrico mondiale, pari a 415 TWh, con una crescita annua superiore al 10%. Le proiezioni al 2030 parlano di oltre 900 TWh nello scenario medio e fino a 1,3 petawatt-ora (cioè 10 alla quindicesima watt!) secondo altre analisi. In pratica, nel giro di pochi anni, i data center potrebbero arrivare a consumare tanta energia quanto interi paesi industrializzati.

L’impatto idrico è altrettanto significativo: nel solo 2023 i data center statunitensi hanno utilizzato circa 64 miliardi di litri d’acqua per il raffreddamento, un dato preoccupante soprattutto nelle regioni soggette a siccità. A ciò si aggiungono la pressione sulle reti elettriche locali, l’aumento dei prezzi energetici e la difficoltà di valutare con precisione le emissioni di CO₂, legate al mix energetico di ogni nazione.

Nonostante questi problemi, il settore genera anche effetti economici positivi, come nuovi posti di lavoro, infrastrutture digitali e investimenti in innovazione. Tuttavia, tali benefici vengono spesso compensati dai costi ambientali e dagli incentivi fiscali che riducono l’impatto economico reale sulle comunità. Possiamo trovare anche casi analoghi in Europa e in Italia: Anche in Europa cresce il dibattito sull’impatto dei data center. La Commissione Europea sta introducendo norme che impongono ai gestori l’obbligo di condividere il conteggio dei consumi energetici e idrici e di rispettare standard minimi di efficienza.

In Spagna, progetti di grandi operatori come Amazon e Microsoft in zone aride, come l’Aragona, hanno suscitato proteste per l’elevato uso d’acqua. Al contrario, i Paesi nordici rappresentano un modello virtuoso: in Finlandia e Svezia, il calore residuo dei server viene riutilizzato per alimentare le reti di teleriscaldamento, riducendo così l’impatto ambientale.

Nicolò

Nicolò

Commenti

comments powered by Disqus