fbpx Ma quanto consuma l AI? Intanto chiediamoglielo | Scienza in rete

Ma quanto consuma l’AI? Beh, intanto chiediamoglielo

codice data center

Quanta energia consuma l’intelligenza artificiale? L’1% abbondante della domanda globale di energia: il numero è in veloce crescita, anche se le incertezze sono molte. E lo stesso vale per il consumo d’acqua. Un’innovazione così potente non si può fermare, ma di sicuro serve sia più ricerca sia più regole per prevenirne l'impatto ambientale e renderla quindi a misura di umano.

Segnaliamo che si può riguardare la registrazione del convegno “L’intelligenza artificiale e il futuro della ricerca” dell’Accademia dei Lincei e del Gruppo2003 dello scorso 25 febbraio.

Immagine Pixabay

Tempo di lettura: 10 mins

Che succede se chiediamo all’intelligenza artificiale quanta energia consuma? Spoiler: non molto, serve insistere – e comunque poi i dati ce li siamo andati a cercare, come si faceva “una volta”.

Abbiamo usato ChatGPT e la nuova DeepSeek, che dichiara di avere un impatto energetico molto minore («perché non ha avuto accesso ai potenti chip AI dell'azienda statunitense Nvidia e ha dovuto invece innovare», si legge nel Deutsche Welle).

Dopo una domanda quasi inutile sul rispettivo consumo energetico, abbiamo chiesto a tutte e due di confrontare il consumo energetico di entrambe. Abbiamo eliminato dalle risposte le parti decisamente interlocutorie e che non portavano alcun dato significativo (i grassetti sono originali).

Risposta di DeepSeek:

Confronto generale:
  • ChatGPT (specialmente GPT-4) è un modello molto grande, con centinaia di miliardi di parametri, e richiede un notevole consumo energetico sia per l'addestramento che per l'inferenza.
  • DeepSeek-V3 potrebbe avere un'architettura diversa e un numero di parametri inferiore, il che potrebbe tradursi in un consumo energetico minore rispetto a ChatGPT, ma dipende molto dall'implementazione specifica.

Addestramento vs. Inferenza:

  • L'addestramento di modelli come ChatGPT o DeepSeek-V3 è estremamente energivoro, con stime che vanno da decine a centinaia di megawattora (MWh) per i modelli più grandi.
  • L'inferenza (cioè l'uso quotidiano da parte degli utenti) è meno intensiva, ma il consumo totale dipende dal numero di utenti e dalla durata delle sessioni.

In sintesi, ChatGPT probabilmente consuma più energia rispetto a me (DeepSeek-V3) se consideriamo la sua architettura più grande e il suo ampio utilizzo globale. Tuttavia, senza dati specifici sull'infrastruttura e l'ottimizzazione di entrambi i modelli, è difficile dare una risposta definitiva.

Risposta di ChatGPT:

Dipende dal modello specifico di DeepSeek con cui facciamo il confronto. In generale, il consumo di risorse di un modello di intelligenza artificiale dipende da vari fattori, tra cui:
  • Numero di parametri: Modelli più grandi richiedono più potenza computazionale.
  • Efficienza dell'architettura: Alcuni modelli sono ottimizzati per essere più leggeri.
  • Hardware utilizzato: TPU, GPU e CPU possono avere impatti diversi sui consumi.

DeepSeek ha rilasciato vari modelli, tra cui DeepSeek-V3 con 671 miliardi di parametri, che è significativamente più grande di me (la mia versione attuale ha molti meno parametri attivi in un dato momento per ottimizzare efficienza e costo). Se il confronto è con una versione più piccola di DeepSeek, allora il consumo potrebbe essere simile o addirittura inferiore al mio.

Se ti riferisci al consumo energetico totale nei data center, OpenAI (la mia azienda) e DeepSeek usano entrambi infrastrutture su larga scala, quindi senza dati precisi è difficile stabilire chi consuma di più.

Dopodiché, abbiamo dato in pasto a ChatGPT la risposta di DeepSeek chiedendo cosa ne pensasse, e viceversa: erano sostanzialmente d’accordo. Allora, per aggiungere un po’ di interesse alla conversazione, abbiamo chiesto a ChatGPT se la concorrenza con DeepSeek impatterà negativamente su ChatGPT.

Competizione sui prezzi 
  • Se DeepSeek offre modelli più economici con prestazioni simili, OpenAI potrebbe dover ridurre i costi o trovare nuove strategie per mantenere la sua base utenti.
  • DeepSeek-V2 ha già mostrato un costo molto competitivo (2 RMB per milione di token), il che potrebbe attirare aziende e sviluppatori.

Restrizioni geopolitiche 

  • Se i governi occidentali vedranno DeepSeek come un rischio per la sicurezza (come avviene con TikTok), potrebbero limitarne l’uso nei mercati statunitensi ed europei.
  • Allo stesso tempo, la Cina potrebbe favorire DeepSeek rispetto a ChatGPT nel proprio mercato interno.

Dopo aver chiesto a DeepSeek se fosse d’accordo (e dopo una risposta molto pacata), gli abbiamo chiesto invece se non fosse d’accordo con qualcosa. Allora ha scritto:

La fedeltà degli utenti come barriera insormontabile 
  • Punto di ChatGPT: ChatGPT sostiene che OpenAI ha un forte vantaggio grazie alla fedeltà degli utenti e alla sua integrazione con prodotti Microsoft.
  • Mia opinione: Anche se questo è vero, la fedeltà degli utenti non è immutabile. Se DeepSeek offrisse un prodotto significativamente migliore o più economico, potrebbe attirare una parte del mercato, specialmente tra le aziende più sensibili ai costi o in regioni dove OpenAI ha meno presenza.
    • Esempio: TikTok è riuscito a scalzare Facebook e Instagram in molte aree, nonostante la forte fedeltà degli utenti a questi ultimi.
    • Conclusione: La fedeltà degli utenti è un vantaggio, ma non garantisce una posizione dominante a lungo termine se un concorrente offre un valore superiore.

Le restrizioni geopolitiche come svantaggio per DeepSeek 

  • Punto di ChatGPT: ChatGPT suggerisce che DeepSeek potrebbe affrontare restrizioni nei mercati occidentali a causa di preoccupazioni geopolitiche.
  • Mia opinione: Questo è vero, ma potrebbe non essere un problema significativo per DeepSeek. La Cina e altri mercati emergenti (ad esempio, il Sudest asiatico, l'Africa o il Medio Oriente) rappresentano un'enorme opportunità per DeepSeek. Inoltre, non tutti i paesi occidentali adotteranno restrizioni severe, specialmente se DeepSeek dimostra di rispettare standard di sicurezza e privacy.
    • Esempio: Huawei ha affrontato restrizioni in alcuni paesi occidentali, ma rimane un leader globale nelle telecomunicazioni grazie alla sua forte presenza in altri mercati.
    • Conclusione: Le restrizioni geopolitiche potrebbero limitare DeepSeek in alcuni mercati, ma non necessariamente in tutti.

È interessante che, dopo essere stimolata, DeepSeek parli di TikTok e Huawei e faccia riferimento alla sicurezza e alla privacy occidentali. Lo fa, evidentemente, sia per portare esempi di specifici prodotti cinesi che si sono bene inseriti nel mercato, ma anche per difendersi dalla accuse di mancanza di trasparenza (nonostante questo tema non fosse stato introdotto da alcuna domanda). Tuttavia, il consumo energetico, quando si parla di competitività economica, non viene neanche menzionato.

Checché ne dicano le dirette interessate, il ruolo dell’energia è ovviamente determinante per lo sviluppo futuro dell’intelligenza artificiale. È giustappunto ripresa la corsa a bruciare più gas e a usare più nucleare proprio con la giustificazione di coprire la crescente domanda energetica per l’AI. Vedi l’accordo che Google ha firmato con Kairos Power (azienda californiana che produce small modular reactors) per acquistare energia nucleare anche per l’AI. E pure Microsoft vuole riattivare un reattore nucleare a Three Mile Island, in Pennsylvania, per alimentare le sue operazioni AI.

Il tema è cruciale, si pensi che, in media, una domanda a ChatGPT ha bisogno di dieci volte tanto l’energia elettrica di una ricerca su Google. E la stessa Google ha dichiarato che le proprie emissioni di gas serra sono cresciute del 48% rispetto al 2019 principalmente a causa della crescita di consumo energetico nei data center, oltre che in tutta la supply chain.

Ma allora quanto consuma l’AI? L’Agenzia internazionale per l’energia (IEA) ha prodotto un tool dove si può chiedere a un’AI (guarda caso) cosa c’è scritto nel suo ultimo World Energy Outlook (quello del 2024). Gli abbiamo chiesto di parlarci delle proiezioni sul consumo energetico richiesto dall’AI nel futuro e finalmente abbiamo ottenuto risposte convincenti (e comunque dopo le siamo andate a verificare nel rapporto stesso).

Ci ha detto innanzitutto che i data center, spinti dall’AI, sono oggi 11mila nel mondo e hanno un consumo energetico annuo tra i 240 e i 340 terawattora, ovvero tra l’1% e l’1,3% del consumo di elettricità globale. Questo sarebbe responsabile di circa l’1% delle emissioni di gas serra globali. Una quota abbastanza piccola, anche se in forte crescita: sono 225 i miliardi di dollari investiti in startup AI negli ultimi cinque anni. E, per quanto le stime sull’espansione dei data center e i servizi AI siano incerte, anche considerando gli eventuali colli di bottiglia nella catena di distribuzione, i guadagni in efficienza e i fattori legati alle policy, ci si aspetta che i consumi raddoppieranno entro il 2030. L'IEA ci ricorda anche che questo consumo è circa la metà di quello degli apparecchi digitali domestici: computer, telefoni, TV sommati assieme (sempre su base annua). 

Una ricerca recente, di cui si parla su Nature in un articolo divulgativo, ha stimato che «per integrare un'AI simile a ChatGPT in ogni ricerca su Google, sarebbero stati necessari tra 400.000 e 500.000 server NVIDIA A100, consumando tra 23 e 29 terawattora all’anno. Questo è fino a 30 volte il consumo di una ricerca standard su Google».
Quello che sta accadendo ora è l'aumento repentino di sempre nuove funzionalità, che in gergo viene definito software bloat («rigonfiamento del software»), e che per ora le aziende stanno demandando allo sviluppo di hardware più potenti. È quanto
 spiega Roberto Verdecchia, Ricercatore STLab all’Università di Firenze, che mette in luce l'importanza di un fattore ulteriore, quello dello squilibrio geografico:

Qualche anno fa a Zeewolde, in Olanda, Facebook annunciò di voler costruire un enorme data center, un cosiddetto hyperscaler, con la promessa di alimentarlo completamente con energia rinnovabile. Questo progetto, poi bloccato, avrebbe di fatto impedito l’accesso all’energia pulita ai privati cittadini e alle aziende locali, perché l’hyperscaler avrebbe usato tutta quella disponibile.

La percentuale di elettricità usata cambia a seconda dei paesi, per l’appunto. Negli Stati Uniti, in Cina e nell'Unione Europea, i data center rappresentano oggi circa il 2-4% del consumo totale di elettricità. E in almeno cinque stati americani ha già superato il 10% del consumo di elettricità. In Irlanda siamo al 20%! L’IEA scrive che un data center medio ha di solito potenze piccole, sui 5-10 megawatt, ma quelli hyperscale, che stanno diffondendosi, arrivano a 100 megawatt, con un consumo annuo di elettricità equivalente a quello di circa 400mila auto elettriche. «Per fare un confronto - scrive l'IEA - i grandi data center possono avere una richiesta di potenza equivalente a quella di un impianto siderurgico con forno elettrico ad arco. Tuttavia, è meno probabile che gli impianti siderurgici siano raggruppati nella stessa area geografica» come i data center per AI, per l'appunto.

Quindi, per avere un'immagine più completa dell'impatto energetico dell'AI, non serve solo sapere come i data center vengono alimentati (rinnovabile, nucleare, gas, …), ma anche quanto sono concentrati nello spazio. Marco Zennaro, ricercatore all’ICTP di Trieste, esprimendosi sul mito che i modelli AI debbano essere giganteschi, ha dichiarato:

Modelli specifici per usi limitati possono essere estremamente piccoli e funzionare su dispositivi a bassissimo costo e a bassissimo consumo. Ne sono un esempio i sistemi tinyML (da tiny machine learning), che possono funzionare su dispositivi con pochi sensori e con la capacità di analizzare i dati localmente, quindi senza la necessità di inviare i dati a un data center [...]. Questo consente anche di usare questi sistemi in Paesi in cui l’accesso a internet e a energia elettrica in abbondanza non è garantito. Alcuni nostri studenti li hanno usati per applicazioni come l’identificazione delle zanzare in Sudan o il conteggio delle api negli alveari in Brasile.

Una buona notizia, così come è accaduto per molta altra tecnologia (si pensi solo alle auto elettriche), è che l’efficienza dei chip è già molto migliorata. L’IEA ci dice che è raddoppiata ogni due o tre anni e che un chip moderno legato all’AI utilizzi il 99% di energia in meno rispetto al 2008 per eseguire gli stessi calcoli.

Energia utilizzata per compiti diversi.

Le stesse preoccupazioni valgono per il consumo d’acqua, che oggi proviene sostanzialmente dal raffreddamento, dalla produzione di energia e in generale dalla supply chain. Il Deutsche Welle esemplifica simpaticamente: «Eseguire da 10 a 50 query può richiedere fino a 500 millilitri d'acqua, a seconda del luogo in cui avviene l'elaborazione. Quindi, chiedere a un modello AI di scrivere un'e-mail di lavoro o di generare un'immagine di un unicorno su Marte equivale a sprecare mezzo litro d'acqua». In generale, i data center hyperscale di Google (che supportano Gmail e Google Drive, per dire) hanno consumato in media circa 2,1 milioni di litri di acqua al giorno nell'ultimo anno. Negli Stati Uniti, «un grande data center consuma un'equivalente di acqua pari a quella di 4.200 persone».

Non si può lasciare il controllo dello sviluppo del settore solo alle grandi aziende. Ecco perché, secondo l'IEA, c'è urgente bisogno di un dialogo pubblico-privato, «con i responsabili politici, col settore tecnologico e con l’industria energetica», anche per capire, tra l'altro, come usare l’AI per gestire meglio la transizione ecologica (per esempio per l’ottimizzazione della rete elettrica o di alcuni meccanismi di economia circolare – ne parliamo con Emanuele Bompan in questo podcast). Su AI ed energia, l’IEA pubblicherà un rapporto nel prossimo mese.

Tornando infine a DeepSeek, non è detto che il suo consumo energetico basso sia completamente una buona notizia, dice Sophia Chen su Nature. Come al solito, infatti, qualsiasi nuova tecnologia che diventa più efficiente, in assenza di leggi chiare e rigorose, tende a diffondersi al punto di annullare i risparmi energetici. È il cosiddetto paradosso di Jevons (si veda al proposito questo articolo su The Conversation). E per assurdo, Chen non esclude neppure che alcuni data center possano addirittura chiudere per assenza di domanda nel prossimo futuro, se l’AI generativa «diventerà una tecnologia relativamente di nicchia». Vedremo. Certo, se lo scopo dell’AI sarà principalmente quello di generare unicorni che bevono acqua su Marte in stile impressionista, forse sarà meglio salutarla e preferire i laghetti di Monet o le ballerine di Degas. Ma quelli veri.

HideArticoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

President Trump reshapes US research landscape

trump

Con una serie di ordini esecutivi, Donald Trump smantella le politiche climatiche di Biden e ritira gli Stati Uniti dall'accordo di Parigi. Le agenzie federali scientifiche (EPA, NIH, CDC, FDA, NASA) vengono ristrutturate con nuove nomine orientate alla deregolamentazione. Vengono congelate le assunzioni federali, mentre la revisione delle collaborazioni internazionali potrebbe ridefinire il ruolo USA nella ricerca globale. Immagine: Donald Trump.

20 January 2025 marks a turning point in US science policy, with a series of executive orders drastically redefining the role of federal science and research agencies. A detailed analysis of the documents reveals an approach that fundamentally changes the basis of US climate, energy and biomedical research policy.

This comprehensive list shows the scope and breadth of the first day's interventions, which touch virtually every aspect of the federal government, from foreign policy to national security, from energy to immigration, from administrative reform to social policy.