Meta AI, il chatbot lanciato da Meta (ex Facebook), ha portato una ventata di innovazione nel legame che lega il mondo digitale e la nostra privacy. Il feed “Discover” del chatbot mostra conversazioni generate dagli utenti. Molte delle quali rivelano informazioni personali come orientamento sessuale, problemi medici o opinioni politiche – tutto raccolto su una bacheca pubblica. Non sempre l’utente è consapevole che i propri contenuti sono visibili a tutti.
Inizialmente l’app attivava una pubblicazione automatica tramite un pulsante condividi poco chiaro, ma dopo numerose segnalazioni, Meta ha implementato popup di conferma che chiedono all’utente di accettare la pubblicazione. Nonostante questo, i ricercatori pensano che la sicurezza degli utenti sia a rischio: molti presumono che le chat rimangano private, ma la modalità ingannevole in cui sono fatte le impostazioni può portare ad esposizioni involontarie.
Meta AI raccoglie i dati personali degli utenti, privacy e sicurezza a forte rischio
Non è solo un problema di consapevolezza: secondo Surfshark, Meta AI raccoglie dati sensibili più di qualsiasi altro chatbot, tracciando 32 categorie su 35 studiate, tra cui orientamento sessuale, credo religioso e salute mentale. A differenza della concorrenza, come nel caso di ChatGPT, Meta non offre un’opzione facilmente visibile e accessibile per impedire l’uso di questi dati ai fini dell’addestramento dei modelli. La privacy degli utenti è minata da una logica spesso basata sul “consenso implicito”.
In Europa, la situazione è ancor più critica: istituzioni come la Data Protection Commission (DPC) in Irlanda e NOYB hanno espresso una serie di riserve sull’uso dei dati pubblici per addestrare l’AI. Meta ha avviato una procedura di opt-out per gli utenti e un’autorità europea ha imposto dei controlli rigorosi per garantire trasparenza. Ma il processo è complesso e ci vorrà ancora del tempo per sapere altro in merito. La vicenda che sta colpendo Meta AI rappresenta un bivio per l’ecosistema digitale. Se da una parte la tecnologia vede opportunità nell’introspezione utente, dall’altra cresce il rischio di un uso disinvolto dei dati personali. La trasparenza può garantire protezione, ma finché rimane tutto confuso e ostacolato, la privacy resta in bilico.
