Nell’epoca dell’intelligenza artificiale uno dei temi più dibattuti è quello della privacy degli utenti. A tal proposito, un recente episodio ha sollevato nuovi dubbi riguardo la protezione dei dati personali nell’uso dell’AI. Protagonista della vicenda è Barry Smethurst, un cittadino britannico che si è rivolto a Meta AI attraverso l’app di messaggistica WhatsApp. L’utente aveva chiesto il numero della compagnia ferroviaria TransPennine Express. Eppure, la risposta ricevuta ha scatenato un’ondata di dubbi sulla gestione delle informazioni sensibili da parte dell’AI sviluppata da Meta. Smethurst ha notato subito che il numero fornito non sembrava quello di un’azienda. Insospettito, ha deciso di indagare e ha scoperto che si trattava del recapito di un manager del settore immobiliare, i cui dati erano reperibili online sul sito della sua impresa e su WhatsApp.
Meta AI: falla nella protezione dei dati personali?
Smethurst ha chiesto chiarimenti alla stessa intelligenza artificiale. Quest’ultima ha inizialmente cercato di deviare la conversazione. Il chatbot poi ha fornito spiegazioni confuse e contraddittorie. In un primo momento ha negato che il contatto corrispondesse ad una persona reale. Affermando di aver generato il numero basandosi su schemi tipici dei numeri britannici. Alla fine, ha riconosciuto che si era trattato di un errore dovuto al recupero di informazioni da un database interno.
Ma il caso Smethurst non è isolato. Un altro fronte critico riguarda l’applicazione Meta AI Discover Prompt, negli Stati Uniti. Tale nuova piattaforma, pensata per offrire un’esperienza pubblica e interattiva con l’intelligenza artificiale, ha mostrato gravi carenze nella comunicazione delle sue funzionalità agli utenti. Il servizio, infatti, consente la visualizzazione pubblica dei prompt inseriti dagli utilizzatori, accompagnati dalle relative risposte dell’AI.
Dopo aver ricevuto numerose critiche, Meta ha introdotto un avviso esplicito prima della pubblicazione di un prompt. Una notifica che informa chiaramente gli utenti del carattere pubblico dei contenuti condivisi. Anche se l’azienda ha cercato di correre ai ripari, resta aperta la questione sulla sicurezza dei dati che vengono condivisi con l’intelligenza artificiale.
