Parliamo un attimo di quello che succede dietro alle quinte di tutto quello che facciamo con l’intelligenza artificiale, perché spesso ci concentriamo solo sui modelli che usiamo tutti i giorni, dalle chat agli strumenti di generazione immagini, ma raramente pensiamo a quello che serve davvero per farli funzionare. E non parlo di qualche server sparso in un angolo del mondo: parlo di giganti di acciaio, cavi e climatizzatori che consumano una quantità di energia che fa girare la testa.
Nvidia investe 100 miliardi per sostenere i nuovi hub AI negli USA
OpenAI, insieme a Oracle e SoftBank, ha appena annunciato un piano enorme: cinque nuovi data center negli Stati Uniti. Cinque colossi capaci di arrivare a 7 gigawatt di potenza complessiva, più o meno l’equivalente dell’energia necessaria per alimentare cinque milioni di abitazioni. Solo pensarlo mette in prospettiva quanto l’AI sia diventata vorace di energia. Tre di questi centri nasceranno in Texas e New Mexico con Oracle, mentre gli altri due saranno realizzati con SoftBank in Ohio e Texas. Scelte strategiche, perché il Midwest e il Sud degli Stati Uniti offrono elettricità più economica e spazi enormi, perfetti per infrastrutture così mastodontiche.
E non è finita qui: Nvidia ha deciso di investire 100 miliardi di dollari per fornire processori e sostenere questi nuovi hub. È una cifra impressionante, ma necessaria se pensiamo che GPT-5, il nuovo modello multimodale di OpenAI, richiede una potenza di calcolo da capogiro. Solo per addestrare GPT-4 sono state usate circa 25.000 GPU, con un consumo energetico paragonabile a quello di centinaia di migliaia di case. E qui entra in gioco la vera sfida: non è tanto l’uso quotidiano da parte nostra, ma l’addestramento dei modelli a consumare una quantità di elettricità davvero enorme.
Il lato nascosto dell’AI: server, GPU e consumi da milioni di case
Secondo l’Agenzia Internazionale dell’Energia, nel 2024 i data center hanno assorbito già l’1,5% dell’elettricità mondiale, e entro il 2030 questo valore potrebbe più che triplicare, arrivando a superare i 945 terawattora. Non è solo un problema tecnico, è anche una questione di sostenibilità. Per questo alcune aziende stanno cercando soluzioni alternative: energie rinnovabili più efficienti, o addirittura piccoli reattori nucleari modulari. L’idea è chiara: se vogliamo continuare a spingere l’AI ai livelli successivi, dobbiamo capire come alimentarla senza far esplodere il consumo globale.
Alla fine, guardando tutto insieme, ci si rende conto che quando interagiamo con una chat o generiamo un’immagine, dietro c’è un mondo enorme di ingegneria, decisioni strategiche e calcoli energetici. È impressionante pensare che ogni richiesta che facciamo viaggia attraverso macchine gigantesche che lavorano instancabili per restituirci una risposta in pochi secondi. E forse è questo il vero lato nascosto, affascinante e un po’ folle, dell’AI moderna: non è solo codice e algoritmi, ma una gigantesca rete di energia e infrastrutture che rende possibile tutto quello che oggi diamo per scontato.
