
OpenAI
OpenAI ha annunciato gpt-oss-120B e gpt-oss-20B, due nuovi modelli di machine learning descritti come i più avanzati nel campo del ragionamento open-weight. Il debutto amplia la disponibilità di sistemi potenti che gli sviluppatori possono eseguire e personalizzare direttamente sulla propria infrastruttura, senza dipendere da soluzioni cloud.
Due modelli, requisiti diversi
Il modello gpt-oss-120B raggiunge capacità di ragionamento paragonabili a quelle di o4-Mini, sempre di OpenAI, nei principali benchmark di settore. Per funzionare, richiede una singola GPU dotata di 80 GB di RAM, una configurazione impegnativa ma più accessibile rispetto a soluzioni multi-server. Il secondo modello, gpt-oss-20B, è pensato per scenari di edge computing, come PC o sistemi client, e necessita di soli 16 GB di memoria. Le sue prestazioni di ragionamento sono comparabili a quelle di o3-mini, rendendolo adatto a contesti con risorse hardware limitate ma esigenze di calcolo avanzate.
OpenAI non ha fornito dati di benchmark dettagliati oltre alle comparazioni con i propri modelli esistenti. Entrambe le soluzioni puntano a superare le prestazioni di software di dimensioni simili già presenti sul mercato, con un’attenzione particolare all’ottimizzazione per ambienti con risorse ridotte.
Questa strategia mira a estendere le capacità di intelligenza artificiale a sviluppatori, startup e organizzazioni nei mercati emergenti o in contesti con elevati requisiti di sicurezza.
I modelli sono distribuiti con licenza Apache 2.0, che consente ampia libertà d’uso e modifica. OpenAI afferma che questa scelta riduce le barriere di accesso e permette a un numero maggiore di soggetti di sperimentare, integrare e personalizzare l’AI in base alle proprie necessità operative.
Gli sviluppatori potranno eseguire i modelli localmente, evitando vincoli legati alla connettività o alla gestione remota dei dati.
Oltre ai controlli standard, OpenAI ha annunciato la pubblicazione di documenti di sicurezza e schede di sistema che descriveranno il protocollo di worst-case fine-tuning. Questo processo simula tentativi di utilizzo pericoloso in ambiti come la sicurezza informatica e il settore biologico, per prevenire abusi.
I modelli sono stati testati da organizzazioni esterne, con l’obiettivo di garantire che non possano essere sfruttati in modo dannoso una volta rilasciati nel settore consumer.
