blank

Una delle basi fondanti di Facebook, elemento che gli consente di funzionare a dovere, è senza ombra di dubbio il suo algoritmo di Intelligenza Artificiale, utile a svolgere compiti normalmente demandati ad esseri umani, in modo da smaltire velocemente i carichi di lavoro e rendere la piattaforma sempre più automatizzata.

Alle volte però, anche questi algoritmi di IA fanno degli errori in quanto privi di una vera e propria intelligenza autonoma e in grado di capire ciò che hanno davanti agli occhi, emblematico è il recente caso dell’IA di Facebook che ha scambiato delle persone di colore per dei primati, un errore inaccettabile seppur indubbiamente involontario.

 

I fatti accaduti

Il filo conduttore alla base dell’errore dell’IA è un errore nell’analisi dei contenuti che causa problemi su temi molto delicati come la discriminazione e i pregiudizi razziali.

blank

La vicenda nasce sostanzialmente a causa di un video pubblicato il 27 giugno 2020 su Facebook dalla testata britannica Daily Mail: il filmato si intitola White man calls cops on black men at marina, all’interno del quale vengono mostrati degli uomini di colore discutere con dei pari bianchi e degli agenti di polizia, nulla a che vedere dunque con scimmie o altri primati, eppure per l’algoritmo sviluppato da Facebook per suggerire contenuti in tema non era proprio così, egli ha infatti consigliato agli utenti che visualizzavano “Continua a guardare video su primati“.

Dani Lever, portavoce del colosso social ha ammesso l’errore del software: “Si è trattato chiaramente di un errore inaccettabile […] anche se abbiamo apportato miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e che abbiamo ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto questi consigli offensivi.”