È stato scoperto che lo Strumento utilizzato da Google per individuare le parole chiave da associare alle pubblicità ha raccomandato pubblicità a sfondo pornografico relative ai termini “Ragazze nere”, “Ragazze latine” e “Ragazze asiatiche”.

Google è accusata di razzismo poiché cercando “ragazze bianche” e parole chiave simili non si notano le stesse tipologie di pubblicità con contenuti pornografici come avviene con le ricerche sulle minoranze citate prima. Pare che l’azienda fosse già a conoscenza di questo meccanismo piuttosto controverso. Oltre che una chiara oggettivazione, tale oggettivazione avviene solo con gruppi specifici – le minoranze. Dunque due errori in uno.

I risultati ad esempio cercando “ragazze nere” includono spesso donne di colore che praticano sesso orale, così come alcune attrici del settore. “I risultati emersi sono offensivi. Utilizziamo dei filtri per bloccare questo tipo di contenuti, non ha funzionato come previsto in questo caso“, ha dichiarato un portavoce di Google in risposta al rapporto.

Nuove accuse di razzismo per Google, l’azienda ha permesso la divulgazione di alcuni contenuti oggettivando le minoranze

“Stiamo cercando di capire in che modo impedire che ciò accada di nuovo”. “Filtriamo sempre i termini che non sono coerenti con le nostre normative sugli annunci. Per impostazione predefinita, filtriamo i suggerimenti dei cosiddetti contenuti per adulti di qualsiasi genere. Quel filtro ovviamente non ha funzionato come previsto in questo caso. Stiamo lavorando per aggiornare i nostri sistemi. Quelle parole chiave suggerite saranno rimosse”.

Purtroppo i prodotti di Google possono riflettere pregiudizi e stereotipi nei propri algoritmi a causa del modo in cui incorpora i dati da Internet, basato proprio sulle azioni degli utenti. Questo non è il primo caso in cui l’algoritmo di Google ha mostrato risultati discriminatori. Nel 2017, è stato scoperto che Google ha consentito agli inserzionisti di postare i propri contenuti avvalendosi dell’uso di parole denigratorie.