L’impatto ambientale dell’addestramento di un modello di IA dipende da molti fattori, tra cui il numero di parametri nel modello, il numero totale di ore di addestramento e il tipo e l’efficienza del consumo energetico
A tre anni dall’inizio della rivoluzione dell’Intelligenza Artificiale generativa, il suo impatto ambientale resta un enigma, a causa della segretezza dei produttori di IA e della difficoltà di misurazioni accurate su larga scala. Gli utenti di chatbot dicono di essere preoccupati per l’impatto climatico dell’IA ma, con troppe variabili complesse e dati insufficienti, attualmente possiamo solo fare delle ipotesi.
IL CONSUMO DI ENERGIA DELL’INTELLIGENZA ARTIFICIALE
Come ricorda Axios, l’Intelligenza Artificiale consuma enormi quantità di energia e acqua sia durante l’addestramento dei modelli che quando questi rispondono agli utenti (una fase nota come “inferenza”). Queste “quantità enormi”, però, sono difficili da visualizzare o da confrontare con l’energia che usiamo per giocare a un videogioco, per archiviare messaggi di testo nel cloud o guardare un programma in streaming.
“Dicono che, se usi ChatGPT, Perplexity o qualsiasi altra cosa, stai uccidendo l’ambiente. Io dico di no, non è vero. In realtà, non è peggio che scaricare e giocare a Roblox”, ha dichiarato recentemente Chris Mattmann, responsabile dati e IA alla UCLA. OpenAI, Anthropic, xAI e Google non hanno condiviso dati interni sull’energia necessaria per addestrare ed eseguire i loro modelli di IA generativa.
MODELLI DI IA MIGLIORI, CONSUMI ENERGETICI MAGGIORI
Una regola empirica spesso citata suggeriva che interrogare ChatGPT consumasse circa 10 volte più energia di una ricerca su Google: 0,3 wattora per una ricerca Google tradizionale rispetto a 2,9 wattora per una query su ChatGPT. Epoch AI, un gruppo di ricerca che pubblica stime di terze parti sul consumo energetico dell’IA, a febbraio ha affermato che il calcolo di 2,9 wattora probabilmente è una sovrastima, poiché sia i modelli di IA che l’hardware che li esegue ora sono più efficienti.
L’ascesa di modelli più grandi – in particolare modelli di ricerca approfondita e modelli di ragionamento – potrebbe però anche spingere questa cifra nella direzione opposta. L’impatto ambientale dell’addestramento di un modello dipende da molti fattori, tra cui il numero di parametri nel modello, il numero totale di ore di addestramento e il tipo e l’efficienza del consumo energetico.
LE EMISSIONI DI CARBONIO PRODOTTE DALL’IA
Secondo l’ottava edizione dell’Indice di Intelligenza Artificiale di Stanford, pubblicato nei giorni scorsi, le emissioni di carbonio derivanti dall’addestramento all’IA sono in costante aumento. L’addestramento di AlexNet, uno dei primi modelli di IA, nel 2012 ha emesso 0,01 tonnellate di carbonio. Secondo il rapporto, l’addestramento di GPT-4 nel 2023 ha prodotto circa 5.184 tonnellate, mentre quello di Llama 3.1 405B nel 2024 ne ha prodotte 8.930.
“Per dare un’idea, un americano medio emette 18 tonnellate di carbonio all’anno”, afferma il rapporto di Stanford. Meta condivide le informazioni sull’addestramento nelle sue schede modello e dichiara inoltre un impatto di carbonio praticamente nullo grazie alle politiche e alle pratiche aziendali a zero emissioni nette.
L’UBICAZIONE DEI DATA CENTER
Oltre alle emissioni di carbonio e al consumo di acqua, i data center attualmente traggono energia da poche sedi concentrate, spesso in comunità emarginate. “L’addestramento di un modello di intelligenza artificiale avviene in genere in un unico luogo e il consumo energetico di questo sistema raddoppia ogni anno”, ha dichiarato ad Axios Thomas Wilson, responsabile tecnico dell’istituto no-profit di ricerca energetica EPRI.
Secondo l’Harvard Business Review, le discussioni sull’impatto ambientale dell’intelligenza artificiale “non prestano sufficiente attenzione all’equità ambientale, ovvero all’imperativo che i costi ambientali dell’intelligenza artificiale siano equamente distribuiti tra diverse regioni e comunità”.
L’ENERGIA PER L’ADDESTRAMENTO E PER L’INFERENZA DELLE IA
In precedenza, la quantità di energia utilizzata per addestrare un modello superava di gran lunga quella utilizzata per l’inferenza ma, con l’aumento dell’utilizzo, alcuni esperti affermano che ciò non è più vero. Secondo il Massachusetts Institute of Technology, “consentire a milioni di persone di utilizzare l’IA generativa nella loro vita quotidiana e poi perfezionare i modelli per migliorarne le prestazioni consuma grandi quantità di energia molto tempo dopo lo sviluppo del modello”.
In assenza di numeri chiari, su questo argomento si fa molta matematica superficiale. “Rispondere alla domanda sull’impatto ambientale – ha spiegato Wilson – è quasi indipendente dalla quantità di energia richiesta. Indipendentemente dal consumo di energia, l’impatto ambientale dipende da come si genera tale energia”.
L’IA POTREBBE RIDURRE IL SUO IMPATTO CLIMATICO
L’intelligenza artificiale stessa ha il potenziale per sviluppare nuovi approcci per ridurre il proprio impatto climatico. Un nuovo rapporto dell’Agenzia Internazionale per l’Energia stima che “un’ampia applicazione di soluzioni basate sull’intelligenza artificiale” potrebbe ridurre le emissioni legate all’energia di circa il 5%, incluso l’8% nella produzione di elettronica. Lo scorso anno il World Economic Forum ha citato rapporti secondo cui l’intelligenza artificiale potrebbe potenzialmente mitigare il 5-10% delle emissioni globali di gas serra.
L’attenzione esclusiva della nuova amministrazione Trump a vincere la corsa dell’intelligenza artificiale contro la Cina sta mettendo in secondo piano le preoccupazioni ambientali, portando ad un nuovo “pragmatismo” o “realismo” energetico. Secondo quanto riportato dall’agenzia Reuters, le aziende di data center avrebbero contattato quasi la metà delle 13 principali aziende elettriche statunitensi per richiedere “volumi di energia che supererebbero la loro domanda di picco o la capacità di generazione esistente”. Anche se alcuni utenti benintenzionati smettessero di utilizzare ChatGPT, il settore dell’IA continuerebbe a richiedere quantità incalcolabili di energia. “Abbiamo bisogno di energia in tutte le sue forme: rinnovabile, non rinnovabile, qualsiasi essa sia. Deve esserci, e deve esserci rapidamente”, ha dichiarato mercoledì scorso l’ex CEO di Google, Eric Schmidt, alla Commissione Energia e Commercio della Camera USA.