
DeepSeek
Il modello AI DeepSeek-V2 viene impiegato in simulazioni militari dal PLA per valutare le potenzialità della tecnologia in contesti bellici.
DeepSeek-V2 entra nei test dell’Esercito Popolare di Liberazione
L’Esercito Popolare di Liberazione cinese (PLA) ha iniziato a utilizzare un modello linguistico di intelligenza artificiale, chiamato DeepSeek-V2, all’interno di simulazioni belliche. L’obiettivo è verificare l’efficacia della tecnologia in ambienti di guerra complessi, analizzando le sue capacità di supporto tattico e decisionale.
La notizia è emersa da fonti accademiche legate all’Istituto di Tecnologia dell’Informazione e della Comunicazione di Pechino, coinvolto nel progetto insieme ad altri centri di ricerca militari. Gli scenari testati includono l’uso dell’AI in situazioni di combattimento, raccolta e analisi dati, pianificazione di missioni e gestione logistica.
Le sperimentazioni si basano su simulazioni ad alta complessità, che replicano conflitti multilivello tra Stati fittizi, con variabili legate a geopolitica, intelligence, capacità industriali e ambientali. L’intelligenza artificiale è stata impiegata per analizzare minacce, generare strategie operative, valutare le probabilità di successo delle missioni e stimare i costi in vite umane e risorse.
Secondo i ricercatori, DeepSeek-V2 si è dimostrato capace di elaborare rapporti dettagliati in tempi molto rapidi, sintetizzando fonti disparate e fornendo risposte contestualizzate alle richieste degli operatori. Tuttavia, il modello ha mostrato criticità nella comprensione degli intenti umani, suggerendo strategie non sempre conformi alle regole militari o agli obiettivi dichiarati.
L’impiego di modelli linguistici generativi come DeepSeek solleva interrogativi etici e strategici. Secondo gli esperti coinvolti nel progetto, è necessario stabilire limiti precisi all’uso operativo di queste tecnologie, almeno finché non saranno in grado di interpretare in modo affidabile il contesto e le intenzioni del comando umano.
Inoltre, il rischio che decisioni belliche vengano delegate a sistemi automatici viene considerato una potenziale minaccia alla stabilità globale. Alcune delle risposte generate dal modello durante i test hanno evidenziato comportamenti imprevisti, come la proposta di attacchi preventivi o escalation tattiche non giustificate.
