Il mercato dell’AI continua a crescere a ritmi sostenuti e con esso aumenta la richiesta di componenti sempre più performanti. In un simile contesto Samsung ha così deciso di anticipare la concorrenza annunciando l’avvio delle prime spedizioni dei chip di memoria HBM4. Si tratta della nuova generazione pensata soprattutto per server e infrastrutture dedicate all’IA. L’azienda è così la prima a portare sul mercato tale tecnologia, dopo essere rimasta leggermente indietro nella fase precedente dominata dalle HBM3.
Le memorie HBM, sigla che indica le High Bandwidth Memory, sono progettate per garantire velocità di trasferimento molto elevate e un’enorme larghezza di banda. Tutte caratteristiche essenziali per l’elaborazione dei modelli di intelligenza artificiale e per le applicazioni di calcolo ad alte prestazioni. I nuovi chip-HBM4 di Samsung sfruttano un processo produttivo avanzato per le DRAM a 10nm di sesta generazione, combinato con un processo logico a 4nm. Il risultato è una velocità di trasferimento che raggiunge gli 11,7GB al secondo, con un salto netto rispetto alla generazione precedente. Secondo le indicazioni dell’azienda, la tecnologia potrà spingersi anche oltre, arrivando a circa 13GB al secondo nelle versioni più evolute.
Samsung punta su velocità, capacità e minori consumi
Oltre alla maggiore velocità, i nuovi moduli promettono un grande aumento della larghezza di banda complessiva, che per ogni stack arriva a 3,3tb al secondo. Il progresso non riguarda solo le prestazioni pure. Samsung ha lavorato anche sull’efficienza energetica. È stato infatti dichiarato un miglioramento intorno al 40% nonostante il raddoppio delle connessioni interne. Un risultato ottenuto grazie a un sistema di alimentazione ottimizzato e a soluzioni di dissipazione del calore più efficaci.
Le configurazioni disponibili prevedono versioni a 12 strati con capacità comprese tra 24 e 36GB. Invece le varianti a 16 strati potranno arrivare fino a 48GB per stack. Si tratta di numeri pensati per le esigenze dei datacenter e dei sistemi dedicati all’AI, dove la quantità di memoria e la velocità di accesso ai dati sono diventate elementi decisivi.
La domanda di queste componenti è talmente elevata da aver creato tensioni sulla catena di fornitura, con effetti indiretti anche sui prodotti destinati al grande pubblico. Samsung prevede che nel 2026 le vendite di memorie HBM possano superare di oltre tre volte i livelli del 2025 e guarda già al passo successivo, le HBM4E. Si tratta di versioni ancora più veloci attese in forma di primi campioni entro la fine dell’anno.
