Parlare con un’intelligenza artificiale come se fosse una persona è diventato quasi automatico. Non è una scelta consapevole, più un riflesso. Scriviamo “per favore”, ringraziamo, magari ci scusiamo se la richiesta è lunga o complicata. Succede perché il linguaggio che riceviamo in risposta è umano, familiare, e il cervello fa quello che fa sempre: colma i vuoti e attribuisce intenzioni, carattere, persino una forma di presenza. Tale naturalezza, però, ha una conseguenza meno visibile. Ogni messaggio che inviamo non resta confinato nello schermo davanti a noi, ma finisce in enormi data center sparsi per il mondo. Luoghi pieni di server che macinano dati senza sosta. Ogni parola viene scomposta, analizzata, confrontata con milioni di altre possibilità. Dunque, anche un semplice “grazie” diventa parte del carico di lavoro che il sistema deve gestire. Il tema è balzato all’attenzione di molti quando Sam Altman, CEO di OpenAI, ha commentato con ironia quanto le formule di cortesia rivolte ai modelli AI abbiano inciso sui costi energetici dell’azienda. Decine di milioni di dollari, ha detto.
Essere gentili con l’AI comporta un elevato consumo di energia
Capire quanto consumi davvero l’AI generativa non è immediato. I dati sono pochi, spesso approssimativi, e cambiano rapidamente con l’evoluzione dei modelli. Eppure, basta provare a usare un sistema di intelligenza artificiale in locale, sul proprio computer, per rendersi conto di quanto sia esigente. Secondo le stime dell’International Energy Agency, una singola risposta testuale può richiedere in media circa 0,3 wattora. Detto così sembra poco, ma il quadro cambia quando si pensa alle immagini, ai video, o semplicemente alla quantità di richieste che vengono fatte ogni giorno.
Poi c’è il calore, che è forse l’aspetto più sottovalutato. I server scaldano, e molto. Per evitare che si surriscaldino, i data center devono essere raffreddati in modo continuo. Spesso utilizzando enormi quantità d’acqua. Uno studio dell’Università della California ha stimato che la generazione di un testo di un centinaio di parole con modelli avanzati possa comportare il consumo di oltre mezzo litro d’acqua. Un dato che, preso singolarmente, può sembrare astratto, ma che diventa pesante se moltiplicato per l’enorme volume di contenuti prodotti.
Considerando tale scenario, è facile ipotizzare che la soluzione sia diventare freddi, asciutti, quasi meccanici. Niente cortesie, niente parole in più. In realtà non funziona così. Prompt scritti male, aggressivi o vaghi aumentano la probabilità di ricevere risposte inutili o bloccate da parte dell’AI. Il punto, quindi, non è smettere di essere educati, ma smettere di essere imprecisi. Meno scambi, meno sprechi, più efficienza.
