I ricercatori dell’Università di Cardiff e del MIT hanno scoperto che i programmi di intelligenza artificiale possono essere in grado di sviluppare pregiudizi completamente autonomi basati su interazioni con il mondo reale.

Secondo i dati ottenuti dall’esecuzione di un gran numero di simulazioni, i ricercatori hanno imparato che l’IA può formare pregiudizi concreti. Ciò avviene semplicemente copiando qualunque partecipante della simulazione che ottiene il risultato più interessante o il massimo profitto in breve termine. Questo porta allo sviluppo del pregiudizio organico che porta a creare comunità isolate. Il gioco simulato per questi test è piuttosto semplice.

L’Intelligenza Artificiale è incline a sviluppare pregiudizi esattamente come noi esseri umani

Partecipanti con I.A. decidono se donare a qualcuno all’interno o all’esterno del proprio gruppo a seconda delle strategie di donazione e dei punti di reputazione visualizzati da altri. Questo semplice gioco, eseguito su molti, rivela che i robot tendono ad aggrapparsi e imitare altri robot che condividono la loro logica e i risultati, e il gruppo nel suo insieme gravita verso chi sta ottenendo risultati migliori. Se i pregiudizi non si sviluppano così, i gruppi e le comunità nella simulazione possono formarsi sulla base di altri criteri. Questo può effettivamente causare gruppi più grandi o specializzati nel formare diversi pregiudizi. Il risultato finale è che, in questo esempio, la macchina finisce sempre con qualche sorta di pregiudizio o assunzione profondamente radicati. Quest’ultime si manifestano come una tendenza verso i pari e lontano dal soggetto del pregiudizio.

Secondo gli scienziati alla base dello studio, le implicazioni nel mondo reale di questo studio potrebbero portare a un’analisi approfondita sul campo. Per ora, il fattore più importante è se l’IA possa riconoscere i pregiudizi esistenti nella società, i suoi punti di origine e i suoi obiettivi, e quali linee d’azione o conseguenze siano associate a tali pregiudizi. In questo modo, il sistema descritto potrebbe portare ad I.A. che imita gli umani in un certo senso. Infatti le persone che sono più benestanti o che ottengono punteggi più alti in altri parametri saranno quelle più emulate. Un sistema come questo significherebbe ignorare e discriminare i più svantaggiati.

Articolo precedenteHuawei Band 3 sarà così: la certificazione FCC
Articolo successivoGboard trasformerà la tua tastiera, quasi 500 lingue aggiunte