Google starebbe collaborando con Marvell Technology allo sviluppo di due nuovi chip pensati per migliorare in modo significativo le prestazioni nell’ambito dell’inferenza AI. La notizia, che arriva da fonti a conoscenza diretta delle trattative, delinea uno scenario piuttosto interessante per il futuro dell’ecosistema TPU di Google e, più in generale, per il mercato dei chip ASIC dedicati all’intelligenza artificiale.
Le discussioni tra Google e Marvell riguardano nello specifico due componenti distinti. Il primo è una memory processing unit, un’unità di elaborazione progettata per ottimizzare le TPU già esistenti. Il secondo, invece, rappresenta un progetto più ambizioso: si tratta di un design TPU di nuova generazione, costruito da zero per gestire i modelli di intelligenza artificiale con maggiore efficienza. Due approcci diversi, dunque, ma complementari, che puntano entrambi a far girare i modelli AI in modo più rapido e meno dispendioso dal punto di vista energetico.
Perché questa partnership potrebbe cambiare le carte in tavola
Va detto che Google non è certo nuova al mondo dei chip custom. Le sue TPU sono da anni un pilastro dell’infrastruttura AI interna, utilizzate sia per l’addestramento che per l’inferenza dei modelli. Però coinvolgere un partner come Marvell, che ha una lunga esperienza nella progettazione di semiconduttori personalizzati e soluzioni per data center, aggiunge un livello di competenza hardware che potrebbe accelerare parecchio lo sviluppo.
Il fatto che Google stia esplorando una strategia a due chip è significativo. Significa che l’azienda non si accontenta di evolvere incrementalmente le proprie TPU, ma sta cercando di affrontare il problema dell’efficienza nell’inferenza AI su più fronti contemporaneamente. La memory processing unit, per esempio, potrebbe risolvere uno dei colli di bottiglia più noti nell’elaborazione AI: il trasferimento dei dati tra memoria e processore, che spesso rallenta tutto il sistema più di quanto faccia la capacità di calcolo pura.
Dall’altra parte, un design TPU completamente nuovo sviluppato in collaborazione con Marvell potrebbe portare a un salto generazionale nelle prestazioni, qualcosa che va oltre il semplice aggiornamento architetturale. Se il progetto dovesse concretizzarsi, Google potrebbe ridefinire il panorama dei chip ASIC dedicati all’intelligenza artificiale, mettendo pressione anche su altri attori del settore che stanno investendo massicciamente in soluzioni hardware personalizzate.
Due chip, una sola direzione: efficienza nell’AI
Quello che emerge dalle trattative tra Google e Marvell è una visione chiara: l’inferenza AI è il campo di battaglia su cui si giocherà la prossima fase della competizione tecnologica. Addestrare i modelli è importante, certo, ma farli funzionare in modo efficiente su larga scala è la vera sfida quotidiana. Ed è proprio lì che i due chip in fase di sviluppo potrebbero fare la differenza.
Le trattative sono ancora in corso, secondo le fonti, e non ci sono al momento conferme ufficiali da parte di nessuna delle due aziende. Resta il fatto che una collaborazione di questo tipo tra Google e Marvell, se portata a termine, potrebbe avere ripercussioni importanti sull’intero ecosistema dei chip per l’intelligenza artificiale, ridisegnando gli equilibri in un mercato dove ogni punto percentuale di efficienza in più si traduce in risparmi enormi a livello di infrastruttura cloud.
