La nota azienda che da tempo si occupa dello sviluppo di piattaforme software e hardware ha annunciato l’arrivo di un nuovo linguaggio di grandi dimensioni dal nome Phi 4 Reasoning, un particolare modello pensato per il ragionamento e l’analisi di dati caratterizzato da dimensioni decisamente ristrette dal momento che mosso da appena 14 miliardi di parametri, un valore decisamente ridotto rispetto agli altri modelli che ne sfruttano molti di più.
Meno parametri ma prestazioni alte
La capacità di ottenere prestazioni decisamente rilevanti è frutto di un particolare processo di addestramento definito come processo di affinamento supervisionato, il quale è costituito da un lavoro assolutamente meticoloso da parte degli ingegneri che hanno fornito dei prompt didattici al modello pensati specificatamente per il suo addestramento in modo da massimizzare i risultati, pur utilizzando il minor numero di risorse possibili.
I risultati sono stati a dir poco stupefacenti, il modello in questione infatti risulta offrire prestazioni paragonabili a modelli più grandi e completi che invece sfruttano molti più parametri come DeepSeek-R1-Distill-Llama-70B, ma addirittura eguagliano le prestazioni del modello completo DeepSeek-R1 su specifici benchmark, ma non è finita qui dal momento che è questo modello, sembrerebbe dimostrarsi più performante, addirittura mostri sacri come Claude 3.7 Sonnet di Anthropic e Gemini 2 Flash Thinking di Google.
Si tratta di un esempio decisamente evidente di come un addestramento dell’intelligenza artificiale fatto in modo accurato, meticoloso e preciso sia in grado di offrire dei cambiamenti in termini di prestazioni decisamente evidenti e papabili, andando ovviamente ad offrire modelli che impattano di meno sulla potenza hardware, consentendo un margine di manovra decisamente migliore, tutto ciò ovviamente assume diversi significati sia da un punto di vista energetico sia da un punto di vista delle potenzialità di questi modelli, soprattutto quelli con ancora più parametri, senza tener conto che ovviamente queste possibilità si rivelerebbero utili in quei contesti in cui la potenza computazionale risulta limitata o scarsa.