News

TikTok: contenuti erroneamente ritenuti inappropriati a causa dell’algoritmo

TikTok ha impedito ad alcuni creator di utilizzare la parola “nero” e frasi come “Black Lives Matter”, poiché l’algoritmo li ha contrassegnati come “contenuti inappropriati”.

Ziggi Tyler ha scoperto il problema tentando di aggiornare la sua biografia; le parole “Black”, “Black Lives Matter”, “Black people”, “Black success”, “Pro-Black” e “I am a Black man” non sono state accettate. Mentre “Pro-white” e “supporting white supremacy” sono stati accettati dagli algoritmi di TikTok senza problemi. Tyler fa parte di un gruppo di creator che mira a connettere i creatori già esistenti con i marchi per accordi di sponsorizzazione.

TikTok ha affermato che l’app ha erroneamente contrassegnato delle frasi perché il suo rilevatore di incitamento all’odio ha associato le parole “nero” e altre simili a contenuti in cui questi termini sono affiancati dalla parola “muori“. “Le nostre protezioni per il Creator Marketplace contrassegnano le frasi tipicamente associate all’incitamento all’odio in modo automatico. Può capitare che l’ordine delle parole sia rilevato in modo erroneo”.

TikTok: parole ritenuti inappropriate per un errore dell’algoritmo

“Riconosciamo l’errore e ci scusiamo per quanto accaduto. Il nostro team ha corretto questo errore quanto prima. Per essere chiari, il movimento Black Lives Matter non viola le nostre politiche e attualmente ha oltre 27 miliardi di visualizzazioni sulla nostra piattaforma”. Questo problema riscontrato su TikTok è l’ultimo di una serie di esempi di sistemi automatizzati che lavorano contro le minoranze. Il CEO di Instagram Adam Mosseri ha dichiarato nel 2020 che la piattaforma dovrebbe supportare la comunità nera più di quanto faccia al momento. La società sta esaminando meticolosamente l’algoritmo utilizzato.

La censura algoritmica ha anche causato la censura dei post di palestinesi riguardanti la violenza a Gaza su Facebook, Instagram e Twitter. Al di fuori dei social media, altri algoritmi, inclusi quelli di riconoscimento facciale usati dalla polizia, non riescono a identificare correttamente i volti delle persone di colore. “Indipendentemente dagli errori commessi in automatico, qualcuno ha programmato questi algoritmi”, dichiara Tyler a Recode.

Condividi
Pubblicato da
Rosalba Varegliano