Nell’intervista pubblicata sull’ultimo numero del quadrimestrale Start Magazine, il professor Alec Ross spiega cosa ci insegna il caso californiano sui data center e perché rappresenta un monito per il nostro domani
La corsa mondiale ai data center è appena iniziata, ma a quale prezzo per l’ambiente? Un data center tradizionale raffreddato con sistemi evaporativi consuma circa 1–2 litri di acqua per ogni kWh di elettricità utilizzata, a seconda della dimensione, secondo uno studio dell’US Department of Energy. Un singolo data center di grandi dimensioni può arrivare a consumare tanta acqua quanta una città di decine di migliaia di abitanti. Basti pensare che solo negli Stati Uniti di data center ce ne sono 34601. Nel solo 2023, per raffreddare i data center sono stati necessari 287 miliardi di litri d’acqua. Durante gli incendi che hanno colpito la California si è fatta fatica a trovare l’acqua per domare le fiamme, ma non è mai mancata per i 287 data center. Rischiamo di trovarci sempre più spesso di fronte al dilemma se spegnere gli incendi o raffreddare i data center? È una delle tante domande poste nell’intervista pubblicata sull’ultimo numero del quadrimestrale Start Magazine ad Alec Ross, professore alla Business School dell’Università di Bologna, esperto di tecnologia e membro del consiglio di amministrazione di aziende attive in diversi settori. Ross ha anche ricoperto la carica di consigliere del dipartimento di Stato per l’Innovazione con Hillary Clinton e ha guidato la politica tecnologica per la campagna presidenziale di Barack Obama nel 2008.
Il consumo di acqua dei data center sarà un tema sempre più centrale nei prossimi anni?
I data center che vengono costruiti oggi, almeno in teoria, vengono realizzati tenendo conto della disponibilità abbondante di energia e acqua nelle vicinanze. Per questo motivo, quando si verifica un incendio in un luogo come Malibu, dove l’accesso all’acqua per domare le fiamme è insufficiente, in teoria non si dovrebbe costruire un data center in quella zona. Detto questo, il problema più grande non è tanto l’accesso all’acqua in situazioni come quella degli incendi. Accanto alle aree colpite c’è infatti un piccolo dettaglio chiamato Oceano Pacifico, che dispone di un’enorme quantità d’acqua. In realtà, l’acqua salata bolle a una temperatura leggermente più alta rispetto a quella dolce a causa dei sali disciolti, quindi assorbe più calore prima di trasformarsi in vapore, il che significa che è più efficace nell’assorbire calore rispetto all’acqua dolce in caso di incendio. Uno dei problemi nella risposta agli incendi è stato non sapere come utilizzare al meglio la più grande massa d’acqua del Pianeta che confinava proprio con le zone in fiamme. Dunque, la questione è meno legata all’accesso all’acqua e più alla mancanza di infrastrutture adeguate per impiegarla in modo efficace.
Trump ricevendo i magnati del Tech per lanciare il progetto Stargate (100 miliardi di dollari) ha ripetuto l’ormai virale slogan “drill baby drill”. C’è il rischio che la fonte principale di energia per le infrastrutture per l’IA proverrà da combustibili fossili? Quali alternative potrebbero sostituirli in futuro?
Sicuramente esiste il rischio che l’espansione delle infrastrutture per l’IA venga alimentata in larga parte da fonti fossili, soprattutto se la crescita della domanda energetica sarà così rapida da superare la capacità delle rinnovabili. Tuttavia, ci sono soluzioni concrete che possono ridurre questa dipendenza. Una delle più promettenti è rappresentata dai reattori nucleari modulari di piccola scala, i cosiddetti mini-nuclear, che garantiscono produzione costante di energia pulita con maggiore flessibilità rispetto alle centrali tradizionali. Allo stesso tempo, il solare di nuova generazione e le tecnologie di accumulo energetico avanzato possono integrare il mix. Non va trascurato nemmeno il potenziale dell’idrogeno verde, che potrebbe diventare un vettore energetico fondamentale per i data center e i supercomputer del futuro. La sfida sarà coordinare politiche industriali e investimenti tecnologici, per assicurare che l’IA non acceleri la dipendenza dai combustibili fossili, ma diventi invece un volano per la transizione energetica.
Tracciando un bilancio, l’Intelligenza Artificiale oggi è una tecnologia sostenibile dal punto di vista ambientale? L’Ue e l’Italia in che posizione si collocano nella corsa ai data center? Il progetto Stargate permetterà agli Usa di superare lo storico concorrente cinese, oppure si tratta di un bluff perché i principali finanziatori “non hanno davvero i soldi” come afferma Musk?
La questione della sostenibilità rimanda a un nodo centrale: quale sarà il mix energetico che fornirà le soluzioni necessarie. L’Unione Europea e l’Italia stanno compiendo alcuni progressi, ma si muovono in ambiti molto diversi rispetto a quelli degli Stati Uniti e della Cina, dove si stanno facendo impegni di dimensioni enormi. Per quanto riguarda nello specifico Stargate, vedremo se decollerà davvero, ma al di là di quel progetto in particolare, ciò che è inevitabile è l’enorme espansione delle infrastrutture per l’Intelligenza Artificiale. La vera leva strategica in questo contesto è la mentalità. Si tratta di una mentalità di abbondanza o di scarsità? La mentalità americana è una mentalità di abbondanza. È orientata a produrre di più. E nella misura in cui esistono limiti legati alle risorse, l’approccio è quello di risolvere il problema per generare abbondanza e abilitare l’innovazione. In altre parti del mondo, invece, l’approccio è radicato nella scarsità: l’idea che disponiamo di una quantità finita di beni, servizi o risorse e che dobbiamo gestirli all’interno dei limiti esistenti. La mentalità americana è quella che cerca di espandere i limiti, piuttosto che operare entro quelli già dati.
L’AI cinese DeepSeek sarebbe arrivata ad eguagliare ChatGPT, un risultato che sarebbe stato raggiunto usando meno schede grafiche (che sono sottoposte a sanzioni), data center e quindi acqua. È un risultato credibile, secondo lei, o è una strategia per mostrare che la Repubblica Popolare è più avanzata tecnologicamente? Se fosse vero, invece, quanto sarebbe grande il vantaggio competitivo per l’industria cinese?
Non credo a nulla di tutto questo. I cinesi hanno costantemente travisato il modo in cui è stato prodotto DeepSeek. È stato realizzato utilizzando semiconduttori americani, anche se hanno affermato il contrario. I suoi modelli sono stati basati su dati di addestramento provenienti da OpenAI. E quando si guardano i dati, oggi le sue prestazioni sono inferiori alla maggior parte dei modelli linguistici di grandi dimensioni americani. Dato che si sono dimostrati inesatti nella maggior parte delle loro affermazioni, metto in dubbio qualsiasi informazione forniscano su temi come i data center e l’acqua. Se stai addestrando i tuoi dati interamente su OpenAI, allora è ovvio che è l’America a fare la maggior parte dell’elaborazione. Come ho espresso in passato, l’America innova, la Cina imita, l’Europa regola. Questo è solo un altro caso della Cina che imita.
Mistral, la prima grande app generativa sviluppata in Europa, può competere con questi colossi? Cosa può fare l’Ue per uscire dal tunnel della regolamentazione e favorire lo sviluppo di grandi aziende per contrastare il predominio di USA e Cina?
Il successo o il fallimento di Mistral è una questione ancora aperta. Quello che posso dire è che dispone di risorse sostanzialmente inferiori rispetto ai suoi concorrenti americani e cinesi. A questo punto sono molto scettico sul grado in cui le aziende europee possano competere con quelle americane e cinesi con l’intelligenza artificiale generativa. Negli ultimi due anni, il continente è stato in gran parte paralizzato da regolamentazioni e avversione al rischio, mentre americani e cinesi correvano avanti. Penso che gli europei possano continuare a guidare in aree come l’intelligenza artificiale agentica e l’intelligenza artificiale fisica, ma affinché possano avere una qualche rilevanza nell’IA generativa, credo che debbano rescindere e revocare l’AI Act dell’Unione Europea, che non fa assolutamente nulla per proteggere i valori europei e crea soltanto burocrazia, scartoffie e posti di lavoro per avvocati e consulenti impegnati nella compliance. Finché l’Europa continuerà ad agire principalmente come regolatore piuttosto che come investitore e innovatore, resterà in serie B.
Cosa dovrebbe preoccuparci di più riguardo i futuri sviluppi dell’intelligenza artificiale? Ad esempio, il rischio di consegnare la produzione intellettuale nelle mani delle macchine, oppure di delegare la conoscenza in forma di dati alle Big Tech
L’intelligenza Artificiale può funzionare in due modi: come delle gambe bioniche oppure come una sedia a rotelle. Nel caso in cui l’AI agisca come delle gambe bioniche, ciò che fa è aumentare la nostra capacità esistente, permettendoci di correre più a lungo, più velocemente e più lontano. Ci rende più forti. È così che io personalmente utilizzo l’AI. In altri casi, può agire come una sedia a rotelle. Se permettiamo all’AI di fare tutto il pensiero per noi, invece di usarla per potenziare le nostre capacità, essa ci porta dove vogliamo andare, come una sedia a rotelle, ma i nostri muscoli si atrofizzano e diventiamo dipendenti. La mia previsione è che in futuro l’AI funzionerà come gambe bioniche per alcune persone e come sedia a rotelle per altre. Alla fine, è una decisione umana stabilire come debba funzionare.


