Il carico crescente dell’AI sulla rete elettrica americana

L’espansione dell’intelligenza artificiale generativa sta mettendo a dura prova la già fatiscente rete elettrica degli Stati Uniti. Le aziende che sviluppano tecnologie AI stanno affrontando una crescente crisi infrastrutturale, poiché la domanda di energia per alimentare i modelli avanzati di AI è in costante aumento. Gli esperti avvertono che l’attuale rete elettrica, composta da trasformatori in media con 38 anni di vita, non è in grado di gestire il carico energetico richiesto. Questa obsolescenza infrastrutturale è diventata una delle principali cause di interruzioni di corrente, aggravando ulteriormente i problemi di approvvigionamento energetico.

La difficoltà non si limita solo alla rete elettrica, ma si estende anche alla costruzione di nuove linee di trasmissione. I costi elevati di queste infrastrutture spesso ricadono sui residenti locali, i quali si trovano ad affrontare bollette elettriche più alte. La costruzione di nuovi impianti di trasmissione è diventata impopolare, frenando la capacità di espandere e modernizzare la rete per soddisfare le crescenti esigenze dell’industria AI.

Problemi di raffreddamento nel carico dei data center

Oltre al consumo energetico, i data center che ospitano le infrastrutture per l’intelligenza artificiale necessitano di grandi quantità di acqua per il raffreddamento. Le stime di Boston Consulting Group prevedono che la domanda di data center rappresenterà il 16% del consumo energetico totale degli Stati Uniti entro il 2030. Tuttavia, l’infrastruttura obsoleta del paese potrebbe non essere in grado di sostenere un carico così massiccio, contribuendo ulteriormente alla crisi energetica.

Per affrontare la crisi energetica, le aziende di intelligenza artificiale stanno cercando soluzioni alternative. Jeff Tench, dirigente della società di data center Vantage, ha osservato un rallentamento nella California settentrionale a causa della scarsità di energia elettrica. Le aziende sono quindi alla ricerca di accesso immediato a fonti di energia rinnovabili, come eolico e solare, e valutano anche il potenziale di convertire le centrali a carbone in impianti a gas naturale o aumentare l’uso dell’energia nucleare.

Nel tentativo di risolvere il problema, alcuni leader tecnologici hanno proposto soluzioni esotiche. Sam Altman, CEO di OpenAI, ha discusso della necessità di una “svolta” tecnologica nell’energia, spingendolo a investire nell’energia da fusione, sebbene questa rimanga una tecnologia ancora in fase sperimentale. Microsoft, invece, sta considerando lo sviluppo di “piccoli reattori modulari”, centrali nucleari in scala ridotta progettate per soddisfare le esigenze energetiche dei data center locali.

I produttori di chip stanno lavorando per ridurre il consumo energetico attraverso il miglioramento dell’efficienza dei chip AI. Tuttavia, non è certo che questi sforzi siano sufficienti per soddisfare la domanda energetica sempre crescente. La sfida di garantire un approvvigionamento energetico adeguato per sostenere l’espansione dell’IA generativa rimane complessa e irrisolta, richiedendo innovazioni infrastrutturali e tecnologiche significative.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *