La nuova famiglia di modelli DeepSeek V4 è ufficialmente disponibile in versione Preview, e i numeri sono di quelli che fanno girare la testa. Si parla di 1.600 miliardi di parametri complessivi e una finestra di contesto da 1 milione di token, il tutto costruito su un’architettura inedita che sfrutta meccanismi di attenzione compressa. Due le varianti rilasciate: DeepSeek V4 Pro e DeepSeek V4 Flash, entrambe open source e pensate per chi ha bisogno di lavorare con quantità di testo davvero importanti all’interno della stessa sessione.
Tradotto in termini pratici, una finestra di contesto così ampia apre scenari piuttosto interessanti. Analizzare documenti molto lunghi, operare su basi di codice estese, gestire conversazioni articolate oppure orchestrare attività complesse attraverso agenti AI: sono tutti casi d’uso in cui DeepSeek V4 potrebbe fare la differenza rispetto a soluzioni con finestre più ridotte. E il fatto che entrambi i modelli siano rilasciati come open source non è un dettaglio secondario, anzi.
Come accedere ai nuovi modelli e cosa cambia per gli sviluppatori
Sia DeepSeek V4 Pro che DeepSeek V4 Flash sono già accessibili dal sito ufficiale di DeepSeek tramite due modalità: Instant Mode ed Expert Mode. Anche l’API è stata aggiornata e risulta disponibile da subito. Per chi sviluppa, l’integrazione sembra piuttosto lineare: l’azienda ha specificato che basta mantenere lo stesso base_url e modificare esclusivamente il nome del modello, inserendo deepseek-v4-pro oppure deepseek-v4-flash. Entrambe le varianti supportano le API OpenAI ChatCompletions e Anthropic, oltre alle modalità Thinking e Non-Thinking. Un approccio che punta chiaramente a ridurre al minimo le barriere di adozione per chi già utilizza l’ecosistema DeepSeek o piattaforme compatibili.
Le specifiche tecniche: Pro contro Flash
Guardando alle specifiche, la differenza tra le due varianti è sostanziale. DeepSeek V4 Pro rappresenta la versione più potente dell’intera famiglia. Porta con sé quei famosi 1.600 miliardi di parametri complessivi, con 49 miliardi di parametri attivi per ogni token elaborato. È il modello pensato per chi ha bisogno della massima capacità di elaborazione e non vuole scendere a compromessi.
DeepSeek V4 Flash è invece la versione più snella, con 284 miliardi di parametri totali e 13 miliardi attivi. Numeri comunque ragguardevoli, ma decisamente più contenuti rispetto al fratello maggiore. La cosa interessante è che la finestra di contesto resta identica per entrambi i modelli: 1 milione di token, senza distinzioni. Questo significa che anche chi opta per la variante più leggera non deve rinunciare alla capacità di gestire sessioni molto estese, un vantaggio non scontato quando si parla di modelli con dimensioni così diverse tra loro.
