Intelligenza Artificiale: sempre più fame, sempre più sete
- di Tomasz Konicz -
Quanta energia consumano effettivamente i diversi sistemi di intelligenza artificiale (IA)? Quelli che oggi sono in forte espansione - in particolare quei modelli linguistici di grandi dimensioni come "Chat GPT" o "Gemini" (ex Bard) - e hanno già centinaia di milioni di utenti. Sebbene sia ormai ben noto che il fabbisogno di risorse da parte dell'industria IT stia aumentando enormemente, sempre più a causa del boom dell'intelligenza artificiale, e malgrado Chat GPT & Co. abbiano già un’«oscena» fame di energia - come ha scritto la rivista statunitense "New Yorker" - al momento rimane tuttavia piuttosto difficile poterlo determinare con maggiore precisione, dal momento che le aziende che stanno dietro le reti neurali artificiali, semplicemente non forniscono alcuna informazione sull’entità del loro consumo di elettricità e di acqua. Su questo, "Google", "Meta", "Microsoft" e "Open AI" continuano a mantenere un basso profilo.
Lo scorso febbraio, alla richiesta fatta loro, dalla rivista "The Verge", di commentare questa situazione, ha risposto solo Microsoft, affermando di stare sviluppando delle «metodologie per riuscire a quantificare il consumo energetico», e di star lavorando in modo da migliorare l'efficienza dei grandi sistemi. Open AI e Meta, invece, non hanno reagito per niente. Così come non hanno reagito neanche gli altri titani dell'era di Internet, impegnati in questa nuova corsa all'oro. Dal punto di vista giuridico, l'industria opera ancora in una quella che appare come una zona grigia, simile a quella in cui - in assenza di normative legali - tutta l'intera Internet è già stata effettivamente scansionata, al fine di porre in atto un accumulo di dati per poter così addestrare i loro sistemi di IA su tutto quello che è il materiale protetto da copyright. Nell'Unione Europea, i requisiti legali per determinare il consumo di risorse entreranno in vigore solo all'inizio del 2026, nell'ambito della cosiddetta "Legge sull'IA" europea. Mentre negli Stati Uniti, un disegno di legge assai simile - in cui si richiede alle aziende di Intelligenza Artificiale di rendere noto e divulgare a quanto corrisponderebbe il «consumo di energia, il consumo di risorse e quello degli altri impatti» che le loro reti neurali hanno durante il «ciclo di vita del sistema» - è stato presentato al Congresso solo nel gennaio di quest'anno. Ma da momento che l'industria rimane in silenzio, ecco che ci si affida a stime e ricerche esterne.
Secondo gli studi svolti nel 2022, le tecnologie dell'informazione e della comunicazione sono state responsabili dal 2,1% al 3,9% delle emissioni globali di gas serra; cosa che equivale all'incirca alle emissioni di tutti i viaggi aerei. A questo si aggiunge la domanda di elettricità dei sistemi di intelligenza artificiale, che entro il 2027 dovrebbe salire fino a 134 terawatt l'ora; il che equivale all'incirca al consumo dei Paesi Bassi. All'inizio di quest'anno, l'Agenzia Internazionale dell'Energia (IEA) ha pubblicato le sue stime sul consumo energetico delle industrie delle cripto-valute e dell'intelligenza artificiale, che nel 2022, tutte insieme, hanno rappresentato circa il 2% del consumo energetico globale; una quota, questa, che entro il 2026 dovrebbe raddoppiare. Inoltre, anche per raffreddare i data center si rende necessario un elevato consumo di acqua. Si prevede pertanto che entro il 2027 il consumo annuale di acqua delle reti neurali aumenterà fino a 6,6 miliardi di metri cubi, eguagliando il prelievo di acqua della Danimarca. Per esempio, nel corso di una "conversazione" con GPT-3, nella quale viene risposto a 10-50 domande, evapora circa mezzo litro d'acqua. Va detto, come promemoria, che ci sono circa due miliardi di persone, in tutto il mondo, che non hanno accesso regolare all'acqua potabile pulita, e che 771 milioni di persone sulla Terra non riescono a soddisfare in modo affidabile nemmeno i loro bisogni di base. Per addestrare il GPT-3 di Microsoft - con i suoi 175 miliardi di neuroni artificiali, per ogni nuovo compito, e utilizzando enormi quantità di dati - per il raffreddamento, devono evaporare fino a 700.000 litri di acqua . A ogni singola "sessione di formazione" di questo tipo, il consumo di elettricità equivale a quello che è il consumo annuale di 130 famiglie statunitensi.
La fase di apprendimento dei modelli linguistici di grandi dimensioni, dev'essere considerata particolarmente dispendiosa dal punto di vista energetico, ma lo sono anche le operazioni quotidiane, come ad esempio quelle per le query [N.d.t.:un insieme di parole chiave (keywords) con cui un utente esprime un'intenzione di ricerca sul Web (chiamata tecnicamente search intent) attraverso l'uso di un motore di ricerca] che sono caratterizzate da un elevato dispendio computazionale ed energetico. Una semplice query di ricerca, che corrisponde a un modello linguistico di grandi dimensioni, consuma circa 30 volte più energia di una normale ricerca su Google. Tanto nel suo motore di ricerca "Bing", così come in "Co-Pilot". Microsoft ha già integrato il suo sistema di intelligenza artificiale. Se Google dovesse qualcosa di simile per quanto riguardo il suo motore di ricerca, con i suoi nove miliardi di query di ricerche giornaliere, verrebbe superato il consumo energetico dell'Irlanda. Gli è che, in molti compiti, i modelli linguistici di grandi dimensioni sono semplicemente inefficienti. E ciò vale non solo per le query di ricerca, ma anche per il riconoscimento vocale, il quale, per anni, era stato gestito bene anche sui computer meno potenti, facendo uso di programmi come "Dragon Naturally Speaking". Mentre invece i modelli linguistici di grandi dimensioni come il "Whisper" di Open AI - disponibile gratuitamente - non sono utilizzabili sul PC di casa, anche con CPU potenti, a causa dei lunghi tempi di calcolo di circa un minuto. È solo grazie al supporto della scheda grafica che si ottengono buoni risultati, come quelli ottenuti con il riconoscimento vocale, il quale però facilmente aumenta, fino a dieci volte, il consumo energetico del computer.
L'industria dell'IA, per mezzo di innovazioni tecniche e miglioramenti dell'efficienza, conta di riuscire a essere in grado di compensare gran parte del rapido aumento del consumo energetico. I processori e le schede grafiche di "Nvidia" - un produttore in forte espansione - che attualmente vengono utilizzate principalmente per i calcoli dell'Intelligenza Artificiale, in realtà non sono destinati a questo compito e vengono utilizzati, per cos'ì dire, in modo improprio. Le aziende come Nvidia ora stanno lavorando per adattare sempre più il loro "silicio" alle esigenze di quei modelli linguistici di grandi dimensioni che però non richiedono calcoli precisi dal momento che operano a partire dalle probabilità; ma, tuttavia, i concetti corrispondenti si trovano ancora nella fase della ricerca di base. Inoltre, è proprio l'industria IT in generale che sta lentamente raggiungendo quelli che sono i suoi limiti fisici, dal momento che le dimensioni strutturali dei suoi chip di silicio, misurate in nanometri, non possono essere ridotte all'infinito. Minore è la larghezza della struttura, più efficiente è l'unità di calcolo. Così, mentre le larghezze delle strutture si sono ridotte su base annua, il produttore taiwanese "TSMC" ora spera di poter costruire, entro il 2030, grazie a degli investimenti giganteschi, una fabbrica per chip da un nanometro. Un vero e proprio salto tecnologico verrebbe reso possibile solo dai computer quantistici, a cui sia Google che IBM stanno lavorando febbrilmente, ma non è ancora chiaro quando potranno essere realizzati, e nemmeno se addirittura raggiungeranno mai la maturità del mercato. A causa di questo, la possibilità fisica per il raggiungimento di un guadagno di efficienza si trova pertanto a essere limitata; cosa che porterà a fare esplodere il consumo energetico da parte dell'industria dell'IA, e ciò accadrà proprio nel bel mezzo della crisi climatica che si trova ora in pieno svolgimento.
A marzo, un'alleanza di organizzazioni ambientaliste e non governative, non solo ha messo in guardia contro il rapido aumento della fame di energia che hanno oggi le reti neurali. Non solo l'Intelligenza Artificiale non salverà il pianeta, ma brucerà invece enormi quantità di energia e genererà inoltre un'ondata di «disinformazione sul cambiamento climatico»; così ha dichiarato, al quotidiano britannico "The Guardian", un portavoce dell'ONG "Friends of the Earth", la quale fa parte della coalizione "Climate Action Against Disinformation". Ben presto, in termini di efficienza, la crescita del settore IT supererà di gran lunga i suoi guadagni. I tempi di funzionamento, finalizzati al mantenimento delle centrali elettriche a carbone negli Stati Uniti, sono già stati prolungati a causa della crescente domanda di elettricità da parte dei data center; ha affermato il Guardian. I gruppi ambientalisti hanno inoltre critica anche le assicurazioni che sono state fornite dall'industria dell'IA, secondo cui l'utilizzo dei suoi prodotti porterebbe invece a una riduzione delle emissioni di gas serra. In un rapporto pubblicato nel 2023, Google ha affermato che l'utilizzo dell'Intelligenza Artificiale potrebbe addirittura a ridurre, entro il 2030, le emissioni di gas serra fino al 10%. Non bisogna «credere a questa panzana», hanno avvertito gli Amici della Terra. Ciononostante, l'espansione dell'industria dell'IA probabilmente continuerà, a causa della coazione a valorizzare che, anche nella crisi climatica manifesta, il capitale continua ad avere; a meno che non gli vengano imposti dei limiti dall'esterno, attraverso degli interventi, o dalla forza della natura.
- Tomasz Konicz - Pubblicato il 19/4/2024 su https://www.woxx.lu/ -
Nessun commento:
Posta un commento