AI

Il consumo energetico dell’intelligenza artificiale (AI) è una questione sempre più rilevante. Con l’ascesa di ChatGPT di OpenAI, Large Language Models come Nvidia, e l’intelligenza artificiale generativa, i data center necessari richiedono enormi quantità di energia elettrica. Questo impatto sull’ambiente ha suscitato preoccupazioni su sostenibilità e carbon footprint.

I dati evidenziano la tendenza allarmante. L’addestramento e l’utilizzo dei modelli AI potrebbero consumare tra 85 e 134 terawattora all’anno entro il 2027, equivalenti al consumo di nazioni come l’Olanda o l’Argentina.

Leader del settore come Sam Altman stanno affrontando questa sfida, esplorando soluzioni per l’efficienza energetica e le fonti rinnovabili nel contesto della transizione energetica.

L’AI è qui per restare

L’intelligenza artificiale è ormai una presenza consolidata nelle nostre vite e sta cambiando il mondo in modo radicale. Non si tratta più di capire se e quando influenzerà il nostro modo di vivere, ma quanto e con che progressione lo farà.

L’intelligenza artificiale è una rivoluzione pari a quella di internet

Ciò che è chiaro è che l’AI lascerà un’impronta indelebile sul mondo intero. Sarà questa la vera quarta rivoluzione industriale, termine che in passato è stato accostato ad altre trasformazioni come quella del digitale.

L’avvento dell’intelligenza artificiale è paragonabile all’esplosione dell’informazione avvenuta negli ultimi 24 anni grazie alla commercializzazione di internet.

Una caratteristica chiave di questa rivoluzione è la velocità di interazione e di raggiungimento dei singoli utenti, in base all’evoluzione tecnologica. Mentre Google Translate ci mise 78 mesi per ottenere 100 milioni di utenti, ChatGPT, primo esempio di IA generativa entrata sul mercato nel 2023, ha impiegato solo 2 mesi.

In futuro ci si chiederà “ma sul serio esisteva un mondo senza AI?”

L’era dell’IA apre infinite possibilità di cambiamento che spaziano dalla medicina alla robotica, dalla mobilità alle comunicazioni, fino al modo in cui concepiamo il nostro ruolo nella società. Sarà l’intelligenza artificiale a ridefinire strategie di marketing, processi produttivi e modelli di business.

Tra qualche anno, ci domanderemo come fosse possibile vivere in un mondo senza l’ausilio dell’AI. Questa tecnologia trasformerà radicalmente il nostro quotidiano, rivoluzionando numerosi settori e migliorando la qualità di vita delle persone in tutto il mondo.

Il consumo energetico dell’addestramento dei modelli AI

Le energie richieste per i grandi modelli di linguaggio (LLM)

L’addestramento dei grandi modelli di linguaggio come GPT-3 richiede enormi quantità di energia elettrica. Si stima che per addestrare GPT-3 siano necessari circa 1.300 megawattora (MWh) di elettricità, pari al consumo annuale di 130 case americane.

Per contestualizzare, lo streaming di un’ora di Netflix richiede solo 0,8 kWh (0,0008 MWh). Ciò significa che dovresti guardare 1.625.000 ore di Netflix per consumare la stessa energia necessaria ad addestrare GPT-3.

Esempi: GPT-3 e i consumi energetici

Uno studio pubblicato a dicembre dalla ricercatrice Sasha Luccioni di Hugging Face, in collaborazione con la Carnegie Mellon University, ha rilevato che il consumo energetico è molto più alto per la generazione di immagini rispetto al testo.

Eseguendo test su 88 modelli diversi e ripetendo i prompt mille volte, è stato stimato il costo energetico. Per il testo servono 0,002 kWh per la classificazione e 0,047 kWh per la generazione. Paragonato a un’ora di streaming Netflix, equivale rispettivamente a 9 secondi o 3,5 minuti di visione.

I modelli di generazione di immagini, invece, consumavano in media 2,907 kWh per 1.000 inferenze, cifre notevolmente superiori. Questo dimostra come l’addestramento di sistemi di intelligenza artificiale, specialmente quelli per l’elaborazione di immagini, richieda ingenti quantità di energia elettrica, con conseguenti impatti ambientali da non sottovalutare.

Il consumo energetico nell’uso dei sistemi AI

Processo di inferenza e consumi energetici

L’addestramento dei modelli di intelligenza artificiale richiede enormi quantità di energia, ma l’utilizzo di questi sistemi, noto come “inferenza”, rappresenta la maggior parte dei consumi energetici. Amazon Web Services stima che il 90% del costo energetico di un modello di AI derivi dall’inferenza, e le altre big tech suggeriscono percentuali simili.

La ripartizione esatta tra addestramento e inferenza varia a seconda dei casi d’uso, quindi generalizzare rischia di essere fuorviante. Inoltre, l’energia richiesta da un modello durante l’utilizzo dipende da molti fattori, come il compito specifico. Classificare un testo è meno intensivo rispetto alla generazione di immagini. Allo stesso modo, modelli con meno parametri necessitano di meno energia per l’inferenza.

Soluzioni per ridurre l’impatto energetico dell’AI

Efficienza degli algoritmi

L’ottimizzazione degli algoritmi di intelligenza artificiale rappresenta una soluzione cruciale per ridurre l’impatto energetico di questa tecnologia.

Gli algoritmi più efficienti richiedono meno potenza di calcolo e meno energia per svolgere le stesse operazioni. Aziende e ricercatori stanno lavorando per sviluppare algoritmi che massimizzino l’efficienza computazionale, riducendo al minimo gli sprechi energetici.

Un approccio promettente è l’apprendimento efficiente, che mira a sviluppare algoritmi di apprendimento automatico in grado di raggiungere prestazioni simili utilizzando meno dati e meno risorse computazionali. Questo potrebbe portare a significativi risparmi energetici nell’addestramento dei modelli di intelligenza artificiale.

Inoltre, la compressione dei modelli è un’altra tecnica che può contribuire a ridurre il consumo energetico. Questo processo riduce le dimensioni dei modelli di intelligenza artificiale, rendendoli più leggeri e meno esigenti in termini di risorse computazionali durante l’utilizzo.

Incentivi per l’uso delle rinnovabili

Un’altra soluzione fondamentale per mitigare l’impatto energetico dell’intelligenza artificiale è incentivare l’uso di energie rinnovabili per alimentare i data center e i sistemi di calcolo necessari.

Le grandi aziende tecnologiche stanno già investendo in parchi eolici, impianti solari e altre fonti di energia pulita per alimentare le loro operazioni legate all’IA.

Questo approccio non solo riduce le emissioni di gas serra, ma anche contribuisce a rendere l’intelligenza artificiale più sostenibile a lungo termine. Inoltre, gli incentivi governativi e le politiche favorevoli possono incoraggiare ulteriormente l’adozione di energie rinnovabili nel settore dell’IA.

È importante notare che la transizione verso fonti energetiche pulite richiede investimenti significativi e un impegno a lungo termine. È una strada necessaria per garantire che l’intelligenza artificiale, con il suo enorme potenziale, possa continuare a svilupparsi in modo sostenibile senza compromettere l’ambiente.

Conclusione

Il consumo energetico dell’intelligenza artificiale rappresenta una sfida significativa per la sostenibilità ambientale. Mentre i modelli di AI continuano a evolversi e a diventare più potenti, è fondamentale affrontare il loro impatto energetico attraverso soluzioni innovative.

Ottimizzare l’efficienza degli algoritmi, incentivare l’uso di energie rinnovabili e promuovere pratiche sostenibili nell’addestramento e nell’utilizzo dei sistemi di AI sono passi cruciali. Con un approccio proattivo e una consapevolezza diffusa, possiamo sfruttare i benefici trasformativi dell’intelligenza artificiale pur minimizzandone l’impronta ambientale.

Leave a comment

Cosa ne pensi?