Skip to content
intelligenza artificiale

IA, la fame di energia: ecco i piani di Big Tech per alimentare il futuro tra nucleare, gas e nuove alleanze

Il t𝗼𝘁𝗮𝗹𝗲 𝗱𝗲𝗴𝗹𝗶 𝗶𝗻𝘃𝗲𝘀𝘁𝗶𝗺𝗲𝗻𝘁𝗶 capex in intelligenza artificiale previsto (complessivo per hyperscaler) è di 𝟯𝟮𝟮 𝗺𝗶𝗹𝗶𝗮𝗿𝗱𝗶 di dollari per il 2025, in forte crescita rispetto ai 125 miliardi del 2021 e con un aumento registato di +197 miliardi in soli 4 anni.

Di fronte a una crisi energetica auto-inflitta e sempre più grave, i giganti della tecnologia stanno mettendo in campo strategie creative e talvolta disperate per alimentare il vorace appetito di potere dell’intelligenza artificiale. Le loro ambizioni si scontrano con i limiti del mondo fisico, spingendoli a costruire centrali elettriche in loco, siglare accordi per fonti energetiche alternative come il nucleare e l’idroelettrico, espandersi in aree geografiche tutt’altro che ideali e persino collaborare con i rivali per non rimanere a corto di elettricità.

La situazione è tale da essere diventata una questione di sicurezza nazionale, come evidenziato da un’analisi de The Economist che svela come le grandi aziende tecnologiche stanno affrontando il problema. Il 24 luglio, persino il presidente Donald Trump ha pubblicato un “piano d’azione per l’IA”, descrivendo la stagnazione della capacità energetica come una minaccia al “dominio dell’IA” americano.

UNA DOMANDA DI ENERGIA CHE ESPLODE

La radice del problema risiede nei piani sempre più ambiziosi degli hyperscaler – Alphabet, Amazon, Microsoft e Meta – che si affidano a data center sempre più grandi e energivori. Il 23 luglio, Alphabet (proprietaria di Google) ha annunciato un aumento della spesa in conto capitale per il 2025 di 10 miliardi di dollari, portandola a 85 miliardi. Questo porta il totale probabile per gli hyperscaler a 322 miliardi di dollari quest’anno, un balzo enorme rispetto ai 125 miliardi del 2021. Un esempio della scala di questi progetti è il “Progetto Prometheus” di Mark Zuckerberg, capo di Meta: un cluster di data center in Louisiana che coprirà un’area grande quasi quanto Manhattan.

Queste nuove strutture consumano una quantità di elettricità senza precedenti. Un singolo rack di server equipaggiato con chip per l’IA richiede circa dieci volte più energia rispetto a una versione non-AI di pochi anni fa. Uno studio del Lawrence Berkeley National Laboratory ha rilevato che nel 2023 i data center americani hanno consumato 176 terawattora (TWh) di elettricità. Si prevede che questa cifra salirà a 580 TWh entro il 2028, rappresentando il 12% del consumo totale americano, di cui circa la metà attribuibile agli hyperscaler.

LE SFIDE DELL’INFERENZA E LA CORSA ALLE LOCATION

A complicare ulteriormente la situazione sono le mutevoli esigenze dell’IA. Mentre oggi la maggior parte della potenza di calcolo è dedicata all’addestramento dei modelli, in futuro una quota crescente sarà utilizzata per l’ “inferenza”, ovvero quando il sistema risponde a una richiesta. Per accelerare le risposte, i data center per l’inferenza devono essere situati vicino agli utenti, ma trovare terreni e risorse energetiche vicino alle città è ancora più difficile.

Di fronte a questa carenza, i giganti della tecnologia si stanno spostando verso sedi meno adatte. Luoghi storicamente privilegiati come la Virginia settentrionale, con i suoi regimi fiscali favorevoli e la vicinanza ai cavi in fibra ottica, sono ormai saturi. Le aziende si stanno rivolgendo a “luoghi tutt’altro che ideali”, come afferma un ex dirigente. Tuttavia, anche nuove località come Hillsboro (Oregon) e Columbus (Ohio) stanno raggiungendo il “limite massimo”, spiega Pat Lynch di CBRE, una società immobiliare. I posti liberi sono ai minimi storici e i centri previsti per il 2028 sono già stati prenotati.

NUOVE ALLEANZE E LA RICERCA DISPERATA DI ENERGIA

Un’altra strategia è quella di collaborare con rivali più piccoli. A giugno, Google ha annunciato un accordo per affittare capacità di data center da CoreWeave, un fornitore di cloud per l’IA che ha già un accordo simile da 10 miliardi di dollari con Microsoft. Parte della capacità di questi “neocloud” deriva dal riutilizzo di strutture un tempo usate per il mining di criptovalute.

Le aziende tecnologiche stanno anche setacciando il territorio alla ricerca di nuove fonti di energia. Amazon Web Services aveva pianificato di acquistare un data center alimentato a energia nucleare da Talen Energy, ma l’accordo è stato bloccato dalle autorità di regolamentazione. Il 15 luglio, Google ha annunciato un accordo da 3 miliardi di dollari per l’energia idroelettrica da una diga in Pennsylvania. Gli hyperscaler stanno anche costruendo capacità di generazione direttamente presso i data center per ridurre la dipendenza dalla rete. Un sondaggio di Bloom Energy rivela che i manager dei data center prevedono che il 27% delle strutture avrà energia prodotta in loco entro il 2030, rispetto a solo l’1% dello scorso anno. A dicembre, Google ha firmato un accordo da 20 miliardi di dollari con Intersect Power per costruire un data center affiancato da un parco solare con accumulo. Parte dell’energia per il Progetto Prometheus di Meta proverrà da gas estratto in loco.

SCOMMESSE SUL FUTURO: NUCLEARE, GEOTERMICO E IDROGENO

La disperazione degli hyperscaler sta contribuendo a coltivare nuove fonti di generazione. Google ha un accordo con Kairos Power, una startup che sviluppa piccoli reattori modulari (SMR), per fornire energia nucleare dal 2030. Amazon ha investito in X-energy, un’altra startup di SMR. Google e Meta hanno firmato accordi per l’energia geotermica, mentre Microsoft sta sperimentando celle a combustibile a idrogeno come alimentazione di riserva.

RENDERE LA RETE PIÙ FLESSIBILE E L’ESPANSIONE ALL’ESTERO

Un altro approccio è rendere la rete più flessibile. Tyler Norris della Duke University spiega che se i data center accettano di non utilizzare l’energia della rete nelle ore di punta, attingendo a batterie o generatori in loco, si può aggiungere capacità alla rete senza sovraccaricarla. Gli operatori che adottano questa strategia potrebbero ottenere la priorità per l’allacciamento. xAI di Elon Musk, ad esempio, ha partecipato a un programma di flessibilità per il suo data center di Memphis, ottenendo un accesso più rapido all’elettricità. Google sta anche collaborando con CTC Global per aiutare le utility ad aggiornare le linee di trasmissione.

L’ultima strategia è rivolgersi all’estero. La capacità dei data center è destinata a crescere vertiginosamente nei Paesi del Golfo, in Spagna (grazie all’abbondante energia solare) e in Malesia, sebbene un recente sovrapprezzo potrebbe scoraggiare gli investimenti in quest’ultima.

UN FUTURO INCERTO E PIENO DI RISCHI

Fare la scelta giusta è fondamentale. Costruire enormi data center può rivelarsi problematico. Si dice che il “Project Stargate”, guidato da OpenAI e SoftBank, abbia subito battute d’arresto a causa di disaccordi sui fornitori di energia. Peter Freed, ex dipendente di Meta, avverte sul “rischio di immobilizzazioni materiali”, sottolineando che costruire data center altamente personalizzati in mezzo al nulla potrebbe rivelarsi una cattiva idea. Poiché nessuno sa quale sarà la reale domanda di IA nei prossimi due anni, anche il modello di intelligenza artificiale più avanzato avrebbe difficoltà a fornire un consiglio definitivo.

ISCRIVITI ALLA NOSTRA NEWSLETTER

Rispettiamo la tua privacy, non ti invieremo SPAM e non passiamo la tua email a Terzi

Torna su