Apple ha pubblicato una nuova analisi dedicata al confronto diretto tra il chip Apple M5 e la generazione precedente M4, concentrandosi sulle prestazioni nell’esecuzione locale dei modelli linguistici. I test sono stati fatti usando MLX. Si tratta della piattaforma open source sviluppata da Apple per permettere agli utenti di eseguire modelli di machine learning in modo nativo sui Mac con Apple Silicon. Uno degli aspetti centrali di MLX è la sua capacità di sfruttare la memoria dei Mac. Essa consente ai calcoli di passare tra CPU e GPU senza spostare i dati, una caratteristica che incide direttamente sui tempi di risposta. Per queste prove Apple ha utilizzato MLX LM, il modulo dedicato ai modelli linguistici che permette anche l’uso di versioni quantizzate, utili a ridurre l’occupazione di memoria.
Per la comparazione sono stati scelti modelli di dimensioni molto diverse. Si và dalle versioni BF16 a quelle più leggere a 4 bit, fino alle architetture Mixture of Experts, che attivano solo una parte dei parametri a ogni generazione di testo.
Apple M5 e la grafica generativa: la distanza dal M4 cresce ancora
L’obiettivo? Misurare sia la rapidità con cui viene generato il primo token, sia la velocità di produzione delle parole successive. Apple spiega che il primo passaggio dipende quasi esclusivamente dalla potenza di calcolo, mentre la generazione continuativa è rallentata soprattutto dai limiti della memoria. Ed è proprio in questo secondo ambito che la differenza tra i due chip diventa evidente. Infatti la larghezza di banda del M5 sale a 153GB/s, contro i 120GB/s del M4, migliorando la velocità nei test fino a quasi il 30%.
Oltre ai modelli linguistici, Apple ha messo alla prova Apple M5 anche con i modelli dedicati alla generazione di immagini. Nei test pubblicati il M5 risulta più di tre volte più rapido del M4 nell’elaborare immagini. Tale risultato è in parte dovuto ai nuovi acceleratori AI integrati nella GPU e alla gestione più efficiente dei carichi grafici pesanti.
Apple presenta questi dati come una conferma della direzione intrapresa con la famiglia Silicon, eseguire modelli complessi direttamente sul dispositivo, senza ricorrere al cloud. Il blog ufficiale del team Machine Learning Research, dove sono pubblicati i risultati completi insieme alla documentazione di MLX, sottolinea così come l’obiettivo sia permettere agli utenti di lavorare con modelli sempre più grandi mantenendo un consumo energetico contenuto e un ambiente di esecuzione controllato. Insomma, con Apple M5, il passo in avanti è evidente.
