Anche durante la GDC 2026, dove il focus dovrebbe essere tutto sui videogiochi, NVIDIA non resiste alla tentazione di parlare di intelligenza artificiale. E stavolta la novità è tutt’altro che marginale: la società guidata da Jensen Huang ha presentato Nemotron 3 Super, un nuovo modello linguistico della famiglia Nemotron costruito appositamente per il mondo dell’AI agentica. Parliamo di agenti autonomi, sistemi capaci di ragionare su più compiti in parallelo e di mantenere il filo del discorso anche su conversazioni molto lunghe e articolate.
Nemotron 3 Super arriva con miglioramenti concreti sia sul fronte dell’efficienza computazionale sia sulla capacità di gestire contesti estesi. Non è un semplice aggiornamento incrementale: il modello introduce una nuova architettura ibrida che cambia parecchio le carte in tavola rispetto alle versioni precedenti. E, dettaglio non secondario, resta completamente open source, esattamente come i suoi predecessori. Una scelta che NVIDIA porta avanti con coerenza e che permette a sviluppatori e ricercatori di mettere le mani sul codice senza vincoli particolari.
L’architettura Mamba MoE per NVIDIA: cosa cambia
Il cuore tecnico di Nemotron 3 Super è la cosiddetta architettura Mamba MoE. Per chi non mastica questi acronimi quotidianamente, MoE sta per Mixture of Experts, ed è un concetto che vale la pena conoscere perché sta diventando sempre più centrale nel settore dei modelli linguistici di grandi dimensioni. In pratica, invece di attivare l’intero modello per ogni singola richiesta, il sistema seleziona solo i “blocchi esperti” più adatti al compito specifico. Il risultato è un uso molto più intelligente delle risorse, con prestazioni elevate senza far esplodere i costi computazionali.
La componente Mamba, invece, è un’architettura alternativa ai classici Transformer che gestisce le sequenze in modo più efficiente, soprattutto quando si tratta di contesti molto lunghi. Combinando questi due approcci, NVIDIA punta a creare un modello che sappia muoversi con agilità tra compiti diversi, mantenendo coerenza e precisione anche quando il carico di lavoro diventa pesante. Per chi sviluppa agenti AI destinati a operare in scenari complessi, questa combinazione rappresenta un passo avanti significativo.
A cosa serve concretamente Nemotron 3 Super
Il campo di applicazione principale di Nemotron 3 Super è quello dei sistemi multi task basati su agenti autonomi. Scenari in cui un’intelligenza artificiale deve coordinare più attività contemporaneamente, prendere decisioni in sequenza e ricordare cosa è successo nelle fasi precedenti senza perdere il filo. Fino a oggi, molti modelli linguistici faticavano proprio su questo aspetto: la conservazione del contesto su conversazioni o processi molto estesi.
NVIDIA con Nemotron 3 Super prova a risolvere esattamente questo problema, proponendo un modello che non solo ragiona meglio su lunghe catene di informazioni, ma lo fa consumando meno risorse rispetto ad architetture tradizionali. Il fatto che sia open source, poi, apre le porte a personalizzazioni e integrazioni da parte della comunità di sviluppatori, che potranno adattarlo alle proprie esigenze specifiche senza dover ripartire da zero.
Il lancio durante la GDC 2026 conferma quanto NVIDIA consideri l’AI agentica una priorità strategica, al punto da portarla anche in contesti tradizionalmente dedicati al gaming.

