L’intelligenza artificiale contro il pianeta. L’obiettivo dei colossi tech di ridurre l’impronta climatica è a rischio ora che la Silicon Valley sta puntando tutto su data center IA sempre più assetati di energia. Lo fa sapere il Guardian, che sottolinea come le emissioni di CO2 di Google siano aumentate del 50% in cinque anni proprio a causa dell’enorme domanda di energia richiesta per sviluppare e operare con l’intelligenza artificiale. Solo lo scorso anno, Big G ha prodotto 14,3 milioni di tonnellate di inquinamento da anidride carbonica, un aumento del 13% rispetto all’anno precedente e più o meno l’equivalente di CO2 che 38 centrali elettriche a gas rilasciano ogni anno. Il colosso di Mountain View ha ammesso che il suo obiettivo «estremamente ambizioso» di raggiungere emissioni nette pari a zero entro il 2030 «non sarà facile» adesso che c’è «incertezza sul futuro impatto ambientale dell’intelligenza artificiale».
LE STIME
L’Agenzia internazionale per l’Energia intanto ha stimato che il consumo totale di elettricità dei data center potrebbe raggiungere i 1000 TWh (terawattora) entro il 2026. Cioè il doppio rispetto al 2022 e approssimativamente il livello di domanda di elettricità del Giappone. Secondo i calcoli della società di ricerca SemiAnalysis, entro il 2030 l’intelligenza artificiale spingerà i data center ad utilizzare il 4,5% della produzione globale di energia. Per capire le dimensioni del fenomeno basta un semplice esperimento alla portata di tutti: chiedere qualcosa a ChatGPT, secondo le stime di Goldman Sachs, consuma circa 10 volte più elettricità di una semplice ricerca su Google. Per addestrare quei modelli, le richieste energetiche aumentano fino a raggiungere livelli vertiginosi. Ma l’IA dovrebbe, almeno stando ai colossi tech che ci hanno investito finora, portare anche a una riduzione delle emissioni, migliorando ad esempio le proiezioni dei modelli climatici, rendendoli più snelli e riducendo così l’impronta di carbonio derivante dalla loro esecuzione sui supercomputer. Sempre l’IA potrebbe aiutarci a ottimizzare le infrastrutture esistenti, come le reti elettriche, riducendone i consumi. Ma la riduzione portata da un uso virtuoso dell’IA riuscirà ad azzerare l’impronta del parallelo, incessante aumento delle sue richieste energetiche? Sul punto, il co-fondatore di Microsoft Bill Gates non ha dubbi: la domanda aggiuntiva di energia verrà «sicuramente» soddisfatta da nuovi investimenti nel settore perché le aziende tech oggi sono «seriamente intenzionate» a utilizzare nuove fonti di energia pulita. L’IMPEGNO Breakthrough Energy Coalition — un gruppo mondiale di 28 investitori coinvolti nel settore della green energy, oltre a Gates ne fanno parte anche George Soros e Jeff Bezos — ha già investito in più di 100 aziende coinvolte nella transizione energetica. Tramite il Gates Foundation Trust, il papà di Microsoft però sta parallelamente investendo un terzo dei suoi 77 miliardi di dollari nel settore IA. La stessa Microsoft è a sua volta il più grande investitore esterno dell’azienda che ha creato ChatGPT, OpenAI, e ha anche integrato una suite di strumenti IA nel suo sistema operativo Windows con il marchio Copilot. Insomma, con investimenti di questa portata in ballo, il rischio che la trasparenza possa venir meno sul tema dell’impatto ambientale è alto. Più interessanti in questo senso perciò i malumori in seno alla stessa azienda: il presidente di Microsoft Brad Smith ha ammesso come l’aumento delle richieste energetiche dovuto all’IA stia mettendo a rischio l’obiettivo del colosso di Redmond di essere “carbon negative” (cioè con emissioni di CO2 negative) entro il 2030. La produzione di gas serra dell’azienda intanto è aumentata del 30% negli ultimi tre anni. Il nodo principale sono i data center utilizzati per addestrare l’IA, che oggi consumano circa l’1% dell’elettricità mondiale. Un numero che è destinato ad aumentare esponenzialmente, specie negli Stati Uniti, il Paese con il maggior numero di data center al mondo.
I PERICOLI
Ciò ha sollevato dubbi e timori da parte degli esperti americani, convinti che un aumento di questa portata finirà per mettere in ginocchio le reti elettriche e costringerà a mantenere in funzione le centrali a carbone e a gas più a lungo del previsto. Fino ad ora, la Silicon Valley nel suo approccio al nuovo paradigma IA si è concentrata soprattutto sullo sviluppo di modelli linguistici e processori dedicati sempre più grandi e potenti, lasciando in secondo piano efficienza e consumo energetico. La creazione di modelli più leggeri eseguibili anche su dispositivi mobile – come sta facendo la stessa Google, seguita di recente anche da Apple — potrebbe essere la chiave di volta in questo senso, portando a ripensare lo sviluppo dell’IA anche in chiave green.
© RIPRODUZIONE RISERVATA
Leave feedback about this