Un gruppo di utenti ha recentemente scoperto che l’algoritmo dedicato alle immagini del social network Twitter non funziona, almeno non lo fa come dovrebbe.

Per la precisione, le anteprime delle foto favoriscono sempre i volti non di colore. Probabilmente stiamo parlando solo dell’ultima tappa di una lunga storia di pregiudizi fra social network e sistemi di riconoscimenti. Scopriamo insieme nel dettaglio la vicenda.

 

Twitter ha un problema con l’algoritmo dedicato alle foto

Ormai lo sappiamo che gli algoritmi dei social network svelino periodicamente alcune profonde storture di fondo, legate a pregiudizi nei confronti di minoranze, soggetti con alcune caratteristiche fisiche o semplicemente che prediligano certi contenuti su altri. Alcuni utenti sulla piattaforma hanno scoperto che caricando sul social un’immagine raffigurante rispettivamente un soggetto bianco e uno nero, l’anteprima che si ottiene favorisce quasi sempre il soggetto bianco. Insomma, è il bianco che finisce “in vetrina”.

Questi utenti hanno successivamente iniziato a postare delle immagini uniche contenenti però due soggetti: puntualmente, l’anteprima del tweet poneva in evidenza il bianco, focalizzando il ritaglio dell’immagine su di lui, perfino quando meno rilevante dal punto di vista della rilevanza pubblica, infatti anche l’ex Presidente Barack Obama è stato fatto fuori dall’algoritmo. Molti altri utenti si sono poi cimentati in simili esperimenti e, a quanto pare, il meccanismo scatta anche con le illustrazioni, i cartoon e perfino con i cani, favorendo il mantello bianco o chiaro su un quadrupede con pelo scuro.

La rete neurale di Twitter, che ritaglia automaticamente le immagini che alleghiamo ai nostri tweet, aveva mostrato altri problemi fin dalla fase del suo sviluppo iniziale. Nella discussione è intervenuto anche Dantley Davis, chief design officer di Twitter, che ha invece portato un esempio in cui quel pregiudizio non si verificava, ammettendo tuttavia che si trattava di una prova non verificata.