Il lato oscuro dell’AI: così il consumo energetico fuori controllo sta prosciugando le nostre risorse

L'AI sta trasformando il nostro mondo, ma a quale costo? Come i data center e le tecnologie innovative possono influenzare il nostro futuro e quali soluzioni sostenibili possono essere adottate per ridurre l'impatto ambientale

Avete mai pensato a cosa si cela dietro i risultati di ricerca istantanei su Google o i consigli personalizzati di Facebook? L’intelligenza artificiale è ormai onnipresente nelle nostre vite, ma quanto ne sappiamo davvero? Quali sono i costi nascosti di questa tecnologia che promette di rivoluzionare il nostro mondo? L’AI sta davvero migliorando le nostre vite?

L’AI ha iniziato a diffondersi massicciamente con il lancio di ChatGPT da parte di OpenAI alla fine del 2022. Da allora, la tecnologia ha permeato ogni aspetto della nostra esperienza online, diventando una componente essenziale delle interazioni digitali. Gli strumenti di AI generativa basati su modelli linguistici di grandi dimensioni (LLM) come GPT-3 stanno rivoluzionando il modo in cui utilizziamo internet, ma a quale prezzo?

La proliferazione dell’intelligenza artificiale ha un impatto notevole sul consumo energetico. Uno studio di Alex de Vries pubblicato su Joule stima che l’addestramento di modelli di AI come GPT-3 consumi una quantità di energia pari a quella utilizzata da 120 famiglie americane in un anno​. Questo dato ci offre una chiara immagine dell’enorme fabbisogno energetico richiesto per sostenere l’AI.

Secondo un report di Schneider Electric del 2023, entro il 2028 i carichi di lavoro AI potrebbero rappresentare il 15-20% del consumo totale di elettricità dei data center, rispetto all’8% attuale​​. Questo incremento è dovuto alla necessità di elaborare quantità crescenti di dati e di addestrare modelli sempre più complessi.

Nonostante il consumo energetico dei data center rappresenti una piccola percentuale dell’energia complessiva utilizzata, settori come le raffinerie di petrolio, gli edifici e i trasporti hanno ancora un impatto maggiore. Tuttavia, l’impronta energetica del settore potrebbe continuare a crescere con l’adozione sempre più ampia degli strumenti di AI generativa.

Consumo di acqua nei data center

L’enorme fabbisogno energetico per l’addestramento e l’implementazione della tecnologia AI è ormai di dominio pubblico. Già nel 2022, esperti prevedevano un aumento della domanda di energia da parte dei data center. Google, che fino a poco tempo fa si considerava neutrale dal punto di vista delle emissioni di anidride carbonica, e Microsoft, che potrebbe abbandonare i suoi obiettivi di sostenibilità per creare strumenti sempre più potenti, sono due esempi lampanti.

Junchen Jiang, ricercatore dell’Università di Chicago, ha sottolineato come l’impronta di CO2 e il consumo di energia aumentino di pari passo con la potenza di calcolo. Più un modello di AI è grande, più richiede potenza di calcolo, e i nuovi modelli stanno diventando sempre più enormi.

Oltre al consumo energetico, i data center che gestiscono modelli di AI utilizzano enormi quantità di acqua. Shaolei Ren, ricercatore della UC Riverside, spiega che l’acqua usata dai data center evapora nell’atmosfera e può impiegare fino a un anno per tornare sulla superficie terrestre​. Questo processo è molto diverso dall’uso domestico dell’acqua, dove il consumo è immediato e rientra rapidamente nel ciclo idrico.

Nonostante le previsioni di un aumento del consumo energetico, ci sono sforzi significativi per migliorare l’efficienza dei modelli di AI. Un rapporto della Harvard Magazine discute come nuovi modelli possono essere progettati per essere più efficienti utilizzando tecniche come la “mixture of experts”, che riduce il numero di parametri attivati per ciascun input, migliorando così l’efficienza complessiva​​.

Un altro esempio di miglioramento dell’efficienza è fornito da Google e Boston Consulting Group, che notano che l’ottimizzazione software e algoritmica potrebbe migliorare l’efficienza energetica dei modelli di AI, riducendo le risorse computazionali necessarie.

Sfide future e innovazioni

Un’analisi di Physics Today evidenzia che, nonostante i miglioramenti, la rapida crescita dell’AI potrebbe superare i benefici ottenuti​. La ricerca continua a esplorare metodi per ridurre l’impatto energetico attraverso l’ottimizzazione dei modelli e l’uso di tecnologie più efficienti. Ad esempio, Google ha sviluppato un modello AI chiamato GLaM che, nonostante sia sette volte più grande di GPT-3, richiede un terzo dell’energia per essere addestrato​​.

L’intelligenza artificiale continuerà a crescere e ad integrarsi sempre di più nella nostra vita quotidiana. Tuttavia, è fondamentale trovare un equilibrio tra innovazione tecnologica e sostenibilità ambientale. La ricerca e lo sviluppo di modelli più efficienti e sostenibili saranno cruciali per minimizzare l’impatto ambientale della crescita esponenziale dell’AI.

Oltre a migliorare l’efficienza dei modelli, è importante adottare politiche e pratiche sostenibili a livello globale. Ad esempio, l’adozione di energie rinnovabili per alimentare i data center e la promozione di tecniche di risparmio energetico possono contribuire a ridurre l’impatto ambientale dell’AI.

La collaborazione internazionale e la condivisione delle migliori pratiche saranno fondamentali per affrontare le sfide ambientali legate all’intelligenza artificiale. Solo attraverso uno sforzo collettivo e coordinato potremo garantire un futuro sostenibile per la nostra tecnologia e il nostro pianeta.

Non vuoi perdere le nostre notizie?

Fonte: NatureHarvard Magazine  – Physics Today

Ti potrebbe interessare anche: 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook