Il gigante dei social media Facebook ha lanciato un concorso con un montepremi di 100.000 dollari per sviluppare un algoritmo con il supporto dell’IA in grado di rilevare meme che incitano all’odio.

La società fornirà ai candidati un set di dati utilizzabili per il nuovo algoritmo. Gli utenti sono in grado di capire le parole e le immagini in un meme e riescono a contestualizzarli. Facebook afferma che i meme sono difficili da analizzare per i computer perché non possono semplicemente analizzare il testo e l’immagine. Invece, devono “combinare queste diverse modalità e capire come cambia il significato se presentate insieme“. Non è dunque così semplice individuare meme da rimuovere.

Al fine di creare un set di dati appropriato, Facebook ha creato nuovi meme basati su quelli condivisi sui siti di social media. La società ha però sostituito le immagini originali con immagini concesse da Getty Images che conservavano il messaggio originale. “Se il meme originale presenta la foto di un deserto, scegliamo una foto del deserto da Getty. Se non c’è alcuna immagine sostitutiva adatta, il meme è scartato“. Facebook ha fornito anche un documento con le regole ufficiali del concorso, che si terrà in collaborazione con DrivenData.

Facebook si adopera per rimuovere i meme che incitano all’odio promuovendo un concorso con in palio 100.000 dollari

La definizione di meme che incitano all’odio della società è: “Un attacco diretto o indiretto a persone basato su caratteristiche, tra cui etnia, razza, nazionalità, stato di immigrazione, religione, casta, sesso, identità di genere, orientamento sessuale e disabilità o malattia. L’attacco è violento o disumanizzante (paragonando le persone a cose non umane, ad esempio animali) se presenti ad esempio dichiarazioni di inferiorità e richieste di esclusione o segregazione. Anche prendere in giro l’incitamento all’odio è sbagliato“.

Già nel 2018 la compagnia ha tentato di sviluppare un sistema simile. E se l’algoritmo si rivelasse effettivamente utile, sarebbe utilizzato anche su Instagram o WhatsApp. Entrambe le piattaforme sono spesso criticate per la loro scarsa utilità contro il cyberbullismo o contro la disinformazione. Riuscire a promuovere una corretta rimozione di contenuti offensivi è un problema che molti social media devono affrontare. Ad esempio, Twitter sta sperimentando un sistema contro i contenuti dannosi, tuttavia ancora in fase di test.

Articolo precedenteAfter Life, Sex Education e Peaky Blinders: le nuove puntate su Netflix
Articolo successivoGoogle rinuncia al progetto ‘Smart City’ a causa del COVID-19