Samsung mette il turbo nella corsa all’intelligenza artificiale e si prepara ad avviare, già da febbraio 2026, la produzione di massa dei nuovi chip di memoria HBM4, fondamentali per alimentare la prossima generazione di acceleratori AI firmati Nvidia Rubin. Una mossa strategica che punta a consolidare la leadership del gruppo coreano nel settore dei semiconduttori avanzati, dopo le difficoltà di fornitura riscontrate con i precedenti HBM3E.
HBM4: la chiave per la nuova era del calcolo AI
Le memorie HBM (High Bandwidth Memory) rappresentano oggi uno degli elementi più critici nelle infrastrutture di calcolo dedicate all’intelligenza artificiale. Si tratta di chip progettati per elaborare enormi quantità di dati a velocità elevatissime, riducendo al minimo la distanza tra CPU, GPU e memoria — il cosiddetto “collo di bottiglia” che spesso limita le prestazioni nei carichi di lavoro più pesanti.
Secondo quanto riportato da fonti sudcoreane, i chip HBM4 di Samsung avrebbero superato senza criticità i test di qualità condotti da Nvidia, ottenendo così il via libera per l’integrazione nella piattaforma Rubin, la futura generazione di GPU AI che prenderà il posto delle attuali soluzioni “Blackwell”.
Prestazioni e processo produttivo: Samsung gioca d’anticipo
La produzione sarà centralizzata nel mega-campus di Pyeongtaek, già hub strategico per i semiconduttori di fascia alta del gruppo. Samsung adotterà per l’HBM4 un processo produttivo di classe 10 nanometri per il base die, contro i 12 nm utilizzati dal principale rivale SK Hynix. Il vantaggio tecnico si traduce in maggior efficienza energetica e prestazioni superiori, con velocità che nei test interni avrebbero già raggiunto 11,7 Gbps, un record nel segmento.
Questi numeri rendono l’HBM4 una soluzione ideale per le nuove architetture di calcolo destinate all’AI generativa e ai data center di ultima generazione, dove il bilancio tra throughput, consumo e affidabilità diventa sempre più cruciale.
Nvidia Rubin e Google TPU: i primi clienti del futuro
Il principale cliente per questa nuova generazione di memorie sarà Nvidia, che integrerà i moduli HBM4 nei Rubin AI Accelerators, la piattaforma destinata a succedere alle GPU H200 e Blackwell, con debutto previsto nella seconda metà del 2026. Rubin rappresenterà un punto di svolta per il colosso americano, introducendo efficienze di calcolo per watt più elevate e un’integrazione ancora più stretta tra GPU e memoria, grazie proprio alle nuove tecnologie di Samsung.
Una parte della produzione, tuttavia, sarà destinata anche a Google, che utilizzerà i chip HBM4 per la settima generazione delle Tensor Processing Unit (TPU), i processori interni con cui l’azienda addestra e gestisce i propri modelli di intelligenza artificiale — tra cui Gemini e DeepMind.
