A quanto pare la nota società Qualcomm, dopo essersi dedicata in modo totalizzante e completo al segmento mobile, sembra aver messo gli occhi anche sul segmento data center, non a caso recentemente l’azienda ha presentato i due nuovi AI200 e AI250, due chip pensati specificatamente per l’intelligenza artificiale e ancora più nel dettaglio per l’inferenza, che serviranno a competere con le soluzioni sviluppate da Nvidia e AMD.
Caratteristiche di primo livello
I chip in questione garantiscono dei livelli di potenza davvero interessanti abbinati ad un’efficienza energetica davvero ottimizzata, nello specifico il chip AI200 offre un sistema di inferenza AI a livello di rack ottimizzato per i modelli linguistici e multimodali di grandi dimensioni (LLM e LMM), con supporto fino a 768 GB di memoria LPDDR per scheda, questa struttura consente una gestione ottimizzata dei dati che allo stesso tempo permette di abbassare i costi di gestione e garantire una migliore scalabilità dei sistemi.
Per quanto riguarda invece il chip AI250 che arriverà sui mercati nel 2027, quest’ultimo adotterà una particolare architettura, definita come Near Memory, ciò permetterà un incremento della larghezza di banda superiore a 10 volte pur mantenendo l’efficienza energetica al massimo possibile, tutto ciò consentirà di gestire inferenze AI disaggregate dal momento che le risorse hardware verranno gestite in modo assolutamente ottimizzato, questi sistemi saranno dotati di raffreddamento al liquido, porte PCI express per i collegamenti e collegamenti Ethernet per la scalabilità di sistema.
Le schede basate su questi chip saranno disponibili nel 2026 e nel 2027, tutto ciò è conforme ad un piano della società su scala annuale che punta l’introduzione di un nuovo chip ogni anno, non a caso il primo modello tra i due arriverà nel 2026 e sarà seguito poi dal modello successivo nel 2027, di conseguenza nel corso degli anni assisteremo ad una generazione dopo l’altra che punta ovviamente a scuotere il mercato dominato attualmente da Nvidia seguita poi da AMD.