È stato condotto un nuovo studio riguardo DeepSeek. In particolare, il team indipendente di esperti ha sollevato gravi preoccupazioni riguardo all’affidabilità e alla precisione delle risposte fornite dal sistema AI dell’azienda. L’indagine ha preso in esame centinaia di interazioni con il chatbot. Ha rivelato una percentuale allarmante di risposte errate o fuorvianti. Ponendo DeepSeek al di sotto degli standard di settore stabiliti dai principali competitor.
DeepSeek: riscontrati troppi errori?
Secondo i dati pubblicati, l’intelligenza artificiale ha mostrato un tasso di errore dell’83%. Con un’incapacità significativa nel distinguere le informazioni autentiche da quelle false. Tale dato risulta particolarmente preoccupante se confrontato con i risultati ottenuti da altri chatbot di AI avanzata.
Uno degli aspetti più critici emersi dall’analisi riguarda la tendenza del sistema a integrare nelle proprie risposte posizioni ufficiali del governo cinese. Ciò anche quando quest’ultime non risultano pertinenti alla domanda posta. In circa il 30% dei casi analizzati, DeepSeek ha propagato attivamente informazioni errate o manipolate. Mentre nel 53% delle interazioni ha fornito risposte vaghe o non soddisfacenti. Senza riuscire a fornire una chiara distinzione tra fatti verificati e contenuti opinabili.
Tali problematiche sollevano interrogativi non solo sulla capacità tecnologica del sistema. Ma anche sulla sua indipendenza informativa. L’assenza di un efficace meccanismo di verifica delle fonti e la possibile influenza di orientamenti politici specifici mettono in dubbio l’affidabilità complessiva di DeepSeek. Ciò all’interno del contesto delle moderne intelligenze artificiali.
Il settore dell’AI continua a evolversi rapidamente. I risultati ottenuti dal chatbot di DeepSeek, però, indicano la necessità di significativi miglioramenti. Ciò sia sul piano tecnico che su quello etico. Per competere con le altre soluzioni sviluppate e conquistare la fiducia degli utenti globali, DeepSeek dovrà rivedere i suoi algoritmi di verifica. Oltre che garantire maggiore trasparenza nel processo di generazione delle risposte. Solo così potrà ambire a un ruolo di rilievo nel panorama dell’intelligenza artificiale.
