Le allucinazioni IA sono tornate al centro del dibattito pubblico, e stavolta non si tratta solo di curiosità tecnologiche o errori bizzarri: l’Antitrust italiana ha deciso di intervenire concretamente, prendendo di mira alcuni dei chatbot più noti sul mercato, tra cui DeepSeek e Mistral AI. Il tema è serio, perché riguarda la capacità di questi strumenti di generare informazioni completamente false spacciandole per vere, senza che l’utente medio abbia modo di accorgersene facilmente.
Quando l’intelligenza artificiale inventa di sana pianta
Il caso che ha fatto più rumore è quello di un avvocato che ha citato in tribunale sentenze inesistenti, create interamente da un sistema di intelligenza artificiale. Non sentenze imprecise o mal interpretate: proprio inventate, senza alcun fondamento nella realtà giuridica. Un episodio del genere fa capire quanto possano essere pericolose le allucinazioni IA quando chi usa questi strumenti si fida ciecamente dei risultati ottenuti. Ed è proprio questo tipo di scenario che ha spinto l’Autorità garante della concorrenza e del mercato a muoversi.
L’Antitrust ha chiuso le proprie istruttorie su tre chatbot basati sull’intelligenza artificiale, contestando la mancanza di avvisi adeguati sui rischi di errori nelle risposte generate. Il punto centrale della questione non è tanto che questi sistemi sbaglino, perché quello, in una certa misura, è inevitabile con la tecnologia attuale. Il problema è che nessuno avvertiva gli utenti in modo chiaro e trasparente del fatto che le risposte potessero contenere informazioni false o fuorvianti.
DeepSeek e Mistral AI ora devono cambiare rotta
Le aziende coinvolte, tra cui appunto DeepSeek e Mistral AI, sono state obbligate a introdurre disclaimer chiari all’interno dei propri servizi. Questo significa che chi utilizza questi chatbot dovrà trovare avvisi ben visibili che segnalino la possibilità di allucinazioni IA e di risposte non accurate. Non basta più un generico “le risposte potrebbero non essere precise” nascosto da qualche parte nelle condizioni d’uso: servono indicazioni esplicite, facilmente comprensibili anche da chi non ha competenze tecniche particolari.
La decisione dell’Antitrust segna un passaggio importante nel rapporto tra regolamentazione e intelligenza artificiale nel nostro Paese. Fino a poco tempo fa, il mercato dei chatbot cresceva in modo piuttosto libero, con pochi vincoli reali sulla comunicazione dei limiti di questi strumenti. Ora le cose stanno cambiando, e l’obbligo di trasparenza imposto a DeepSeek e Mistral AI potrebbe diventare un precedente significativo anche per altri operatori del settore.
Un problema che riguarda tutti gli utenti
Le allucinazioni IA non sono un difetto marginale o un’eccezione rara. Tutti i modelli linguistici attualmente disponibili possono generare contenuti falsi con un tono assolutamente convincente, e questo rappresenta un rischio concreto per chiunque li utilizzi come fonte di informazione, che si tratti di professionisti, studenti o semplici curiosi. Il caso dell’avvocato è solo l’esempio più eclatante, ma situazioni simili possono verificarsi in qualsiasi ambito.
L’intervento dell’Antitrust su DeepSeek e Mistral AI stabilisce che le aziende che offrono servizi basati sull’intelligenza artificiale hanno la responsabilità di informare correttamente i propri utenti. Le istruttorie si sono chiuse con l’obbligo per queste realtà di adeguarsi, introducendo meccanismi di avviso che rendano immediatamente evidente il rischio di ricevere risposte non veritiere dai chatbot.
