Circuit board and AI micro processor, Artificial intelligence of digital human. 3d render
costo energetico IA

L’energia necessaria per alimentare l’Intelligenza Artificiale (IA) è diventata una preoccupazione sempre più rilevante, con il suo impatto sul consumo globale di elettricità che desta crescente preoccupazione. Secondo Sasha Luccioni, ricercatrice presso la società franco-americana di IA di Hugging Face, “La rivoluzione dell’IA generativa ha un costo planetario che ci è completamente sconosciuto” ma, quantomeno, aggiunge, “c’è una crescente consapevolezza che tutto questo non arriva gratis”.

Il complesso scenario delle stime sull’energia consumata

Le stime sull’energia consumata da modelli di IA variano notevolmente, complicando la valutazione del vero costo. Ad esempio, l’allenamento di un grande modello linguistico come il GPT-3 (che ricordiamo essere stato ormai superato) è stimato consumare circa 1.300 megawattora, pari al consumo annuale di 130 case negli Stati Uniti. Inoltre, le organizzazioni che potrebbero indicare i costi di questo consumo energetico, come Meta, Microsoft e OpenAI, non lo fanno.

La sfida nel fare stime aggiornate, sostiene Sasha Luccioni, è che le aziende sono diventate più segrete man mano che l’IA è diventata redditizia. OpenAI, ad esempio, fino a pochi anni fa pubblicava tutti i dettagli sui regimi di allenamento mentre ora ha smesso: “Con ChatGPT non sappiamo quanto sia grande, non sappiamo quanti parametri abbia il modello sottostante, non sappiamo dove sia in esecuzione…Potrebbero essere tre procioni in un cappotto perché semplicemente non sai cosa c’è sotto il cappuccio”. Secondo Luccioni, questo segreto è in parte dovuto alla concorrenza tra le aziende e in parte al tentativo di evitare le critiche.

Il consumo energetico dell’IA nella fase di inferenza

Il problema non si limita all’allenamento dei modelli. L’elaborazione delle richieste degli utenti, chiamata “inferenza”, comporta anche un consumo significativo. Lo scorso dicembre, Luccioni e colleghi di Hugging Face e della Carnegie Mellon University hanno pubblicato un articolo che conteneva le prime stime dell’uso energetico dell’inferenza di vari modelli di IA. Sono stati eseguiti test su 88 modelli diversi che coprivano una gamma di casi d’uso, dalle risposte alle domande all’identificazione di oggetti e alla generazione di immagini. La maggior parte dei compiti testati usa una piccola quantità di energia, mentre per i modelli di generazione di immagini le cifre crescono vertiginosamente: generare un’immagine con l’IA può consumare quasi tanta energia quanto caricare uno smartphone.

Il ruolo cruciale della valutazione globale

E se invece di concentrarsi sull’inferenza del modello, ci allargassimo? Questo è l’approccio di Alex de Vries, dottorando presso la VU Amsterdam che ha iniziato a calcolare la spesa energetica di Bitcoin per il suo blog Digiconomist e che ha utilizzato le GPU Nvidia – lo standard aureo dell’hardware dell’IA – per stimare il consumo energetico globale del settore. Nvidia rappresenta circa il 95% delle vendite nel mercato dell’IA. L’azienda rilascia anche specifiche energetiche per il suo hardware e proiezioni di vendita. Combinando questi dati, de Vries calcola che entro il 2027 il settore dell’IA potrebbe consumare tra 85 e 134 terawattora all’anno, equivalente alla domanda annuale di energia dei Paesi Bassi.

Soluzioni possibili e riflessioni finali

Alcune aziende coinvolte nell’IA sostengono che la tecnologia stessa potrebbe aiutare con questi problemi. Priest, parlando per Microsoft, ha detto che l’IA “sarà uno strumento potente per avanzare nelle soluzioni di sostenibilità” e ha sottolineato che Microsoft sta lavorando per raggiungere “gli obiettivi di sostenibilità di essere carbon negative, water positive e zero waste entro il 2030”.

Una soluzione possibile è introdurre una sorta di “etichetta energetica” per i modelli di IA, consentendo ai consumatori di valutarne l’efficienza energetica. “Dobbiamo iniziare da qualche parte”, afferma Luccioni, sottolineando la mancanza di dati dettagliati disponibili a causa della crescente segretezza delle aziende nell’era redditizia dell’IA. Diversa l’opinione di de Vries, il quale si chiede se sia davvero necessario utilizzare l’IA per compiti specifici, sottolineandone lo spreco di tempo e risorse.

Il dibattito sul costo energetico dell’IA si sta intensificando, spingendo a una riflessione più approfondita su come bilanciare l’innovazione tecnologica con la sostenibilità globale.