È stata aperta ufficialmente una nuova istruttoria contro DeepSeek. Il colosso legato al mondo dei sistemi di intelligenza artificiale avrebbe commesso infatti delle violazioni del cosiddetto Codice di Consumo. A tal proposito sarebbero partiti le indagini da parte dell’Autorità Garante della Concorrenza e del Mercato. DeepSeek sarebbe colpevole della mancata comunicazione esplicita del rischio di allucinazioni nei contenuti generati dall’AI, in pratica tutte quelle risposte che non sono esatte o addirittura inventate.
Secondo quanto rilevato dall’AGCM, DeepSeek non informerebbe in modo adeguato gli utenti italiani sui limiti del proprio sistema. Nelle interfacce di utilizzo, l’unico riferimento è la dicitura “AI-generated, for reference only”, scritta in inglese e non tradotta, anche quando l’interazione avviene in italiano. Una scelta che, secondo l’Autorità, compromette la comprensibilità e l’efficacia del messaggio.
Informazioni nascoste e accessibili con difficoltà
Le criticità evidenziate non si limitano alla mancata traduzione. L’AGCM segnala che nessuna informazione preventivasul fenomeno delle allucinazioni è presente nelle pagine principali del servizio, come la homepage, la registrazione o il login. Soltanto nei Termini d’uso, collocati in una sezione secondaria e disponibile solo in inglese, si trova un riferimento a questi rischi.
Tale mancanza di trasparenza potrebbe avere ripercussioni dirette sul comportamento degli utenti, portando a una fiducia eccessiva nei risultati forniti dal modello. Questo aspetto è ritenuto particolarmente delicato nei contesti più sensibili, come salute, finanza e ambiti giuridici, dove errori o ambiguità possono causare danni concreti.
Avviato un procedimento per pratiche commerciali scorrette
L’AGCM ipotizza una violazione degli articoli 20, 21 e 22 del Codice del Consumo, configurando la condotta di DeepSeek come una pratica commerciale scorretta. La volontà è sicuramente quella di promuovere una trasparenza nettamente maggiore rispetto a quella vista fino ad oggi quando si utilizza l’AI. L’obiettivo è quindi quello di evitare che gli utenti si ritrovino a fronteggiare situazioni non reali e fuorvianti.
