
Samsung
Nel panorama dell’intelligenza artificiale dominato da modelli mastodontici e miliardari in termini di parametri e costi, Samsung sceglie la via opposta: un sistema minuscolo, economico e radicalmente diverso, ma potenzialmente in grado di tenere testa ai giganti come Gemini 2.5 Pro di Google e GPT o3-mini di OpenAI. Si chiama Tiny Recursion Model (TRM) ed è il risultato del lavoro di Alexia Jolicoeur-Martineau, ricercatrice senior presso il Samsung Advanced Institute of Technology (SAIT) di Montreal.
Un’intelligenza artificiale “minimalista”
Secondo la ricercatrice, TRM è una rete neurale da appena 7 milioni di parametri — oltre 10.000 volte più piccola dei modelli di punta oggi in circolazione. Eppure, in specifici test, riesce a raggiungere o persino superare le performance di AI molto più grandi e costose. La filosofia alla base del progetto è tanto provocatoria quanto pragmatica: “Non serve un modello da miliardi di parametri per risolvere problemi complessi”, spiega Jolicoeur-Martineau nel paper pubblicato nei giorni scorsi. “C’è troppa enfasi sullo sfruttamento dei Large Language Model, e troppo poca sull’esplorazione di nuove direzioni di ricerca”.
TRM di Samsung nasce quindi per dimostrare che la complessità non è l’unica via verso l’intelligenza artificiale avanzata, e che sistemi piccoli ma ottimizzati possono essere una risposta concreta al problema dei costi e dell’impatto ambientale degli attuali LLM.
Come funziona il Tiny Recursion Model
A differenza dei grandi modelli di linguaggio, TRM non si basa sulla memorizzazione massiva dei dati, ma su un meccanismo di ragionamento ricorsivo. In pratica, il modello elabora un primo risultato, poi “ripensa” a quanto prodotto, correggendosi in modo iterativo. Ogni ciclo serve a raffinare la risposta, in una sorta di ragionamento auto-migliorante che non richiede livelli gerarchici complessi o una quantità enorme di calcoli.
Il principio si ispira al cosiddetto Hierarchical Reasoning Model (HRM), ma ne semplifica drasticamente la struttura: invece di due reti a frequenze diverse (una veloce e una lenta), TRM utilizza una sola rete a due strati, in cui il secondo “rivede” continuamente il lavoro del primo. Grazie a questo meccanismo, il modello riesce a ottenere ottimi risultati anche con dataset estremamente ridotti, mantenendo un consumo computazionale minimo.
I risultati: piccoli numeri, grandi prestazioni
Nei test condotti, Jolicoeur-Martineau ha dimostrato che TRM può eguagliare o superare le performance di modelli come DeepSeek R1, Gemini 2.5 Pro e GPT o3-mini in compiti specifici di ragionamento logico, come i puzzle a griglia o i Sudoku di livello estremo.
