ChatGPT ti conosce tramite i tuoi testi

L’intelligenza artificiale non smette di sorprendere e inquietare allo stesso tempo. Lo sviluppo tecnologico, si sa, è sempre un incognita, ma quest’IA proprio non convince la maggior parte degli utenti che la temono e la utilizzano contemporaneamente.

L’attenzione adesso è tutta su ChatGPT, bot di Open AI, che ha creato molto scandalo in Italia, tanto da essere bloccato, per un certo periodo, dal Garante della Privacy che lo riteneva pericoloso.

Un recente studio potrebbe proprio confermare questi timori e dimostrare che ChatGPT, e gli algoritmi sui quali si basa, potrebbero effettivamente invadere la privacy di tutti gli utenti che lo utilizzano.

ChatGPT, uno studio rivela che conosce troppe informazioni personali

Uno studio condotto al Politecnico di Zurigo potrebbe confermare che ChatGPT può essere capace di invadere la privacy degli utenti. In che modo?

I modelli linguistici sui quali si basa il chatbot sono in grado, attraverso le domande e i testi scritti dagli utenti, captare diverse informazioni personali come il sesso, etnia, lavoro, posizione e molto altro.

E questo in che modo può essere pericoloso? Lo può essere in tanti modi. Innanzitutto i truffatori potrebbero essere in grado di servirsi di questi software per estorcere le informazioni personali degli utenti elaborando nuove truffe.

Inoltre questo potrebbe essere un nuovo metodo per le aziende di fare pubblicità, sfruttando le informazioni raccolte dai sistemi per influenzare gli utenti.

Il professore a capo dello studio ha portato il problema all’attenzione di tutte le aziende coinvolte che fanno sapere che loro lavorano per eliminare i dati personali dai set di addestramento utilizzati per sviluppare i propri modelli.

 

 

 

 

 

 

Articolo precedenteVivo svela il nuovo Vivo T2 4G, specifiche e prezzi
Articolo successivo1Mobile: offerta SUPER a meno di 3 euro al mese