Tre nomi che negli ultimi mesi hanno fatto parecchio parlare nel mondo dell’intelligenza artificiale generativa ora si trovano a dover rivedere il modo in cui comunicano con chi usa i loro servizi. DeepSeek, Mistral e NOVA AI dovranno informare gli utenti in maniera più chiara e diretta sui limiti delle proprie piattaforme, e soprattutto sul rischio delle cosiddette allucinazioni, ovvero quei casi in cui i sistemi di AI producono contenuti inesatti, inventati o fuorvianti. La questione nasce da tre istruttorie avviate dall’AGCM, l’Autorità Garante della Concorrenza e del Mercato, che si sono chiuse con l’accoglimento degli impegni presentati dalle società coinvolte. Nessuna infrazione accertata, quindi, ma una serie di interventi concreti da mettere in campo.
Le società interessate dai procedimenti sono Hangzhou DeepSeek Artificial Intelligence Co. Ltd e Beijing DeepSeek Artificial Intelligence Co. Ltd (indicate collettivamente come DeepSeek), Mistral AI SAS (cioè Mistral) e Scaleup Yazilim Hizmetleri Anonim Şirketi, la società dietro NOVA AI. Quest’ultima, per chi non la conoscesse, è un servizio che funziona come punto di accesso unico a più chatbot attraverso un’unica interfaccia.
Cosa cambia per gli utenti e quali impegni sono stati presi
Il nodo centrale di tutta la vicenda è la trasparenza. L’AGCM ha chiesto che vengano modificati i canali di accesso ai servizi, dai siti internet alle app, specialmente nelle fasi che precedono la registrazione o l’eventuale acquisto. In pratica, chi si avvicina a questi strumenti dovrà sapere, già prima di iniziare a usarli e non solo durante l’utilizzo, che le risposte generate dai sistemi di intelligenza artificiale possono contenere errori, imprecisioni o informazioni fuorvianti.
Gli impegni toccano anche l’informativa precontrattuale. Dovrà essere integrata con avvertenze esplicite sui limiti di affidabilità dei contenuti generati e sulla fatto che è sempre necessario verificarli. Non si tratta più solo di un disclaimer nascosto da qualche parte durante la conversazione con il chatbot: l’avviso dovrà comparire anche nella fase decisionale, quando l’utente sta ancora valutando se registrarsi o meno.
Per quanto riguarda DeepSeek nello specifico, la società ha previsto anche un investimento di natura tecnologica mirato a ridurre il fenomeno delle allucinazioni. Va detto, però, che nella documentazione presentata viene riconosciuto un limite tecnico oggettivo: allo stato attuale della tecnologia, eliminare completamente le allucinazioni non è possibile. Si può lavorare per ridurle, ma azzerarle resta fuori portata.
NOVA AI dovrà spiegare meglio cosa fa davvero
Su NOVA AI il discorso si allarga un po’. Oltre alle avvertenze sulle allucinazioni, gli impegni includono un chiarimento sulla natura stessa del servizio offerto. La piattaforma dovrà spiegare chiaramente che consente l’accesso, tramite un’unica interfaccia, ad alcuni chatbot disponibili, ma non offre un servizio di aggregazione o di elaborazione delle risposte. Questo è un punto importante: NOVA AI va descritta come un punto di accesso unico a servizi distinti, e non come un sistema che rielabora o combina autonomamente le risposte dei vari chatbot.
La differenza sembra sottile, ma non lo è affatto. Un conto è pensare di avere davanti un’intelligenza artificiale che mette insieme e filtra le risposte di più modelli, un altro è sapere che si sta semplicemente usando una porta d’ingresso per accedere separatamente a strumenti diversi. Senza questa distinzione, l’utente rischia di attribuire al servizio capacità che in realtà non possiede.
