La tecnologia di packaging avanzato CoWoS di TSMC si prepara a compiere un balzo che ha pochi precedenti nella storia dei semiconduttori. Il colosso taiwanese ha svelato i dettagli della propria roadmap per le prossime generazioni di questa architettura, e i numeri sono di quelli che fanno girare la testa: entro il 2029, i processori AI costruiti con la nuova evoluzione di CoWoS dovrebbero offrire fino a 48 volte più potenza di calcolo e 34 volte più banda di memoria rispetto alle soluzioni attuali. Parliamo di un incremento che non è semplicemente evolutivo, ma che ridefinisce le proporzioni di ciò che un singolo package può fare.
Package enormi e memoria HBM5E a profusione
Uno degli elementi più impressionanti della nuova roadmap TSMC riguarda le dimensioni fisiche dei futuri package. La prossima generazione di CoWoS supererà i 14 reticle, il che significa strutture di dimensioni enormi per gli standard attuali. Più grande è il package, più componenti ci stanno dentro, ed è proprio questa la strategia: far convivere sullo stesso substrato un numero elevatissimo di die logici e stack di memoria HBM5E. Fino a 24 stack di HBM5E, per la precisione. E ogni stack contribuisce ad ampliare la banda di memoria complessiva, quel parametro che nei carichi di lavoro legati all’intelligenza artificiale fa tutta la differenza del mondo.
Il concetto alla base è semplice, anche se la realizzazione tecnica non lo è affatto. . È ciò che rende possibili le GPU più potenti al mondo, quelle usate nei datacenter per addestrare modelli di intelligenza artificiale sempre più grandi. Ogni nuova generazione di CoWoS ha permesso di ospitare più componenti, più vicini tra loro, con connessioni più veloci. Quella prevista per il 2029 porta questo principio alle sue conseguenze più estreme.
Cosa significano questi numeri per il settore AI
Quando TSMC parla di un incremento di 48 volte nella capacità di calcolo e di 34 volte nella banda di memoria, sta descrivendo un cambio di scala che avrà effetti a catena su tutta l’industria dell’intelligenza artificiale. Più potenza di calcolo e più banda di memoria significano modelli AI più grandi addestrati in meno tempo, oppure la possibilità di far girare modelli che oggi richiedono interi cluster di server su un numero molto inferiore di chip. Il tutto concentrato in package singoli, il che semplifica anche l’architettura dei sistemi e potenzialmente riduce i consumi energetici per unità di lavoro svolto.
I 24 stack di memoria HBM5E rappresentano poi un’evoluzione notevole rispetto alle configurazioni attuali, dove i processori AI di fascia alta montano numeri decisamente più contenuti di stack HBM. La tecnologia CoWoS è già oggi la spina dorsale dei chip più avanzati destinati al mercato AI, e il fatto che TSMC stia pianificando con anni di anticipo queste evoluzioni conferma quanto il settore del packaging avanzato sia diventato strategico tanto quanto i nodi di processo litografici.
