Per scrivere cento parole ChatGPT ha bisogno di mezzo litro d'acqua per raffreddarsi. E gli algoritmi dell'IA consumano quantità enormi di energia, al punto da minacciare decenni di progressi nella riduzione delle emissioni carboniche
di Beniamino Sani - articolo pubblicato su ilfederalista.ch
L’intelligenza artificiale (IA) può sembrare magica, ma è l’evoluzione e il frutto di anni di progressi tecnologici: dai primi computer che rispondevano a un numero limitato di comandi siamo arrivati a sistemi capaci di analizzare dati e imparare da essi. Come ci spiegava il professor Luca Botturi nella rubrica Nautilus (nel Sabato del Federalista): “L’IA, in realtà, è già con noi da decenni. Ogni volta che chiedevamo a Google Maps di guidarci, a DeepL di tradurre, o seguivamo le raccomandazioni di YouTube, non pensavamo (o non ci avevano mai detto) che dietro a questi servizi si nascondessero applicazioni di IA”.
Cosa è cambiato? Parafrasando sempre il prof. Botturi, questi sistemi, basati su calcoli complessi e sull’elaborazione di enormi quantità di informazioni, hanno raggiunto un punto di maturità tale da emergere ora davanti agli occhi di tutti, soprattutto grazie alle IA generative. Se prima un motore di ricerca forniva link pertinenti a una domanda su “come funziona una tale regola grammaticale?”, oggi un’IA dialogica, come ChatGPT, può spiegare la regola in modo dettagliato con tanto di esempi, trasformandosi in una sorta di insegnante digitale. Questo è possibile perché non si limita a seguire regole fisse, ma “impara” da grandi quantità di dati.
Le tecnologie tradizionali utilizzavano algoritmi deterministici, mentre l’IA si basa su modelli probabilistici e “reti neurali” che imitano, in parte, il funzionamento del cervello umano. Ad esempio, per addestrare l’IA a riconoscere un gatto in un’immagine, non si programmano regole dettagliate (“il gatto ha orecchie triangolari”), ma si mostrano migliaia di immagini di gatti e non-gatti, permettendo al sistema di imparare autonomamente.
L’evoluzione dell’IA è strettamente legata alla disponibilità di dati su larga scala. Google Maps, ad esempio, è passato da semplice mappa digitale a un sistema complesso che integra dati di traffico in tempo reale, immagini satellitari e input degli utenti per offrire percorsi ottimali.
Tuttavia, questa “intelligenza” ha un costo. Se già i motori di ricerca consumano energia per raccogliere e organizzare dati, l’IA dialogica richiede molta più potenza. Deve infatti elaborare calcoli complessi per comprendere domande, generare risposte personalizzate e inviarle in tempo reale. Inoltre, l’addestramento iniziale di questi sistemi utilizza migliaia di computer per giorni o settimane, comportando un enorme consumo di energia.
La corsa ai centri dati
I data center o centri di elaborazione dati (anche CED) sono strutture centralizzate che ospitano sistemi informatici, potenza di calcolo e archiviazione, uniti a infrastrutture di rete per elaborare e distribuire i dati. Gli investimenti in questi centri, a livello mondiale, sono praticamente raddoppiati negli ultimi due anni rispetto al ritmo degli anni precedenti, sulla spinta dell’hype dell’IA.
Gli algoritmi di IA richiedono sistemi ad alte prestazioni per elaborare enormi quantità di dati. Questi componenti hanno un elevato consumo energetico rispetto ai server tradizionali. Oltre a ciò i centri dati richiedono sistemi di raffreddamento avanzati per mantenere la temperatura ottimale dei calcolatori, aggiungendo ulteriori carichi energetici, quelli consumati da imponenti condizionatori. Secondo alcune stime, i data center consumano oggi circa il 1-2% dell'energia elettrica globale. Tuttavia, i data center dedicati all'IA tendono ad avere un impatto maggiore rispetto ai tradizionali.
Un rapporto di OpenAI (creatrice di ChatGPT) ha stimato che la potenza di calcolo necessaria per addestrare modelli di IA è cresciuta esponenzialmente, raddoppiando ogni 3-4 mesi negli ultimi anni.
Un mare di elettricità
Il fenomeno è, come prevedibile, localizzato prevalentemente negli USA: “L'esplosione dello sviluppo dei centri di calcolo negli Stati Uniti, al servizio del settore dell'intelligenza artificiale sta minacciando decenni di progressi nella riduzione delle emissioni carboniche”, scrive il Washington Post. “Anche se i progetti eolici e solari stanno rapidamente entrando in funzione in tutto il mondo, gli esperti affermano che la domanda di energia necessaria per l'intelligenza artificiale sta crescendo molto più rapidamente”.
Altrove, come in Irlanda, nei Paesi Bassi e a Singapore, si è addirittura smesso di consentire allacciamenti alla rete elettrica per grandi nuovi data center. Tuttavia “in Irlanda, le aziende tecnologiche stanno aggirando il divieto installando i propri generatori di gas”, scrive il quotidiano della capitale USA.
Negli USA vi sono 220 centrali a gas previste o in costruzione: causa trainante in diversi Stati americani sono i centri di calcolo, che potrebbero arrivare a rappresentare, secondo Bloomberg, fino al 30% nel consumo di gas nel settore elettrico entro la fine del decennio. Anche perché con la nuova amministrazione USA dovrebbero allentarsi le regole sul ricorso alle energie “pulite”. Anzi la promessa pre-elettorale di Trump è quella di un rilassamento sulle norme che limitano le nuove centrali a combustibili fossili.
Il gestore di rete del Texas, uno Stato che negli ultimi anni ha attirato parecchie imprese High tech, ha per esempio rivisto verso l’alto le proiezioni sul consumo di corrente, prevedendo un raddoppio da qui al 2030. Leader indiscusso, con quasi il 15% della capacità di calcolo mondiale installata, rimane tuttavia il nord della Virginia.
Anche al di qua dall’Atlantico
A guidare la domanda di nuova elettricità, come si può immaginare, sono le quattro “sorelle”, Microsoft (alleata di Open AI), Google, Meta e Amazon. Non per nulla c’è uno Stato europeo che, a causa dei consumi in ascesa, si sta avvicinando a livelli di crisi nelle forniture elettriche: la Repubblica d’Irlanda, che ospita alcuni grandi centri dei citati colossi. La domanda di elettricità starebbe crescendo troppo in fretta, la nuova offerta fatica a rincorrere, tanto che l’Isola è divenuta quest’anno il Paese coi prezzi in bolletta più alti di tutta l’Europa.
In Irlanda la domanda dei centri dati ha raggiunto l’anno scorso il 21% del consumo elettrico. In paragone, secondo SvizzeraEnergia, i centri di calcolo in Svizzera consumano circa il 3,6% dell'elettricità a livello nazionale; anche se – ci avverte il programma dell’Ufficio federale dell’Energia– questa percentuale è destinata a crescere. Di quanto?, non è chiaro.
A livello continentale la domanda di corrente da data center dovrebbe triplicare, secondo alcune proiezioni, da qui al 2030. La rete Svizzera però rimane relativamente poco attrattiva a causa dell’incertezza sulla possibilità che il nostro sistema energetico sappia fornire elettricità abbondante e a costi contenuti.
Più interessanti in questo senso paiono essere la Francia, dotata di abbondante energia atomica, e i Paesi nordici che, oltre alla corrente necessaria, dispongono di un altro bene ricercato dai grandi calcolatori: acqua a bassa temperatura. Un vantaggio condiviso anche da Virginia e Irlanda (che dalla loro hanno anche la vicinanza con i cavi transatlantici euro-americani sui quali passano le connessioni internet).
Un dato impressionante: secondo una stima dell’Università della California, Riverside, affinché ChatGPT produca una mail di 100 parole occorre, per il raffreddamento dei server, una media di 500 ml, ovvero una bottiglietta d’acqua. Un valore che sale a quasi un litro se i computer che fanno il lavoro si trovano in Arizona (a causa delle più alte temperature ambientali).
Genialità elvetica (e senso pratico)
Ma tranquilli, ci sarebbe spazio di manovra. A gettare… acqua sul fuoco, ecco uno studio del 2021 commissionato dall'Ufficio federale svizzero dell'energia, che ha rilevato come i data center elvetici consumassero significativamente più del necessario, e come vi fosse quindi fosse un potenziale di risparmio energetico di quasi il 50% attraverso alcuni adattamenti tecnici.
Inoltre il calore prodotto dai cervelloni durante le loro rimuginazioni può essere riutilizzato all’interno di centrali di riscaldamento di quartiere. Alcuni grandi CED potrebbero riscaldare fino a 4000 abitazioni.
Succede per esempio a Lugano dove l’acqua del lago viene utilizzata dal supercalcolatore dello Swiss National Super- computing Centre per raffreddarsi. Acqua che, intiepidita, viene poi indirizzata verso il Campus Est di USI-SUPSI dove è utilizzata per soddisfare buona parte della domanda di acqua calda.
Per gli esperti più ottimisti, sarà la stessa IA in futuro a permetterci di risparmiare risorse ed energia. I suoi processi applicati alla produttività ci aiuteranno ad accelerare lo sviluppo e l’efficienza di tecnologie e processi industriali. Anche in ambito elettrico programmi di Intelligenza artificiale ci aiuteranno a ottimizzare l’incontro tra domanda e offerta, riducendo gli sprechi di energia e di risorse.