Ad

ChatGPT: quanta acqua ed energia servono per il funzionamento?

Sam Altman ha introdotto un'interessante metrica per valutare i consumi diretti di ChatGPT. Ecco i dettagli.

2 Minuti lettura
ChatGPT

L’intelligenza artificiale continua la sua scalata nel mondo della tecnologia. A tal proposito, Sam Altman ha condiviso una riflessione approfondita e articolata sul futuro dell’AI. Il CEO di OpenAI ha toccando temi che spaziano dall’impatto ambientale fino alle potenzialità rivoluzionarie delle superintelligenze digitali. Un aspetto originale emerso nella sua analisi, pubblicata sul suo blog personale, riguarda il consumo d’acqua associato a ogni singola richiesta fatta a ChatGPT. Secondo Altman, ogni query richiederebbe circa 0,32 millilitri d’acqua. Una quantità che corrisponde a un quindicesimo di cucchiaino. Anche se tale cifra non è supportata da riferimenti tecnici ufficiali, alimenta il dibattito sul costo ambientale legato alle infrastrutture necessarie per il funzionamento dei modelli di intelligenza artificiale generativa.

Nuova riflessione sul consumo di ChatGPT e dell’AI

Altman sottolinea che il consumo energetico medio di una singola richiesta è di circa 0,34 wattora. Un valore paragonabile all’energia consumata da un forno elettrico in poco più di un secondo o da una lampadina ad alta efficienza accesa per alcuni minuti. In tale prospettiva, Altman afferma che il costo dell’intelligenza artificiale tenderà a stabilizzarsi sui livelli di quello dell’energia elettrica. Incarnando la visione di OpenAI di un’intelligenza diffusa e sostenibile.

Guardando al futuro prossimo, il CEO di OpenAI prevede che nel corso del 2025 vedremo agenti cognitivi capaci di svolgere attività complesse come la scrittura di codice. Mentre nel 2026 è atteso il debutto di sistemi in grado di generare nuove scoperte scientifiche. Il 2027 potrebbe invece segnare l’ingresso dei primi robot autonomi operanti nel mondo fisico.

Un’immagine suggestiva proposta da Altman è quella di un circuito virtuoso in cui robot costruiscono altri robot. I quali a loro volta creano data center, miniere, impianti di raffinazione e fabbriche di chip. Tale sistema autoalimentato potrebbe espandersi globalmente, abbattendo i costi dell’intelligenza fino a farli avvicinare a quelli dell’energia elettrica. Non mancano, tuttavia, le preoccupazioni. Altman riconosce che tale cambiamento potrebbe cancellare intere categorie di lavoro e porre questioni cruciali legate alla redistribuzione della ricchezza, alla governance e all’accesso equo alla tecnologia. Per lui, la risposta più efficace consisterebbe nel risolvere il problema dell’allineamento delle super-intelligenze, rendendole economicamente accessibili e non concentrate nelle mani di pochi attori.

Google News Rimani aggiornato seguendoci su Google News!