Google ha sempre consentito alle persone di accedere ugualmente a determinati contenuti, come un sito Web dannoso o copie delle informazioni di contatto. Però permette anche di rimuovere tali risultati di ricerca.

La società ha già adottato da tempo una politica per rimuovere immagini o video privati, spesso usati anche per falsa pornografia. Oppure per vario materiale esplicito o spammato ovunque sotto forma di banner pubblicitari. Dunque, adesso Google non vuole più gestire con cautela la situazione. Urge un intervento più drastico che riesca a contenere questi accaduti prima che diventino più ingestibili di quanto siano attualmente.

I siti e le immagini dannose si potranno rimuovere grazie a Google

L’azienda ora ha una pagina di supporto dedicata alla rimozione di “pornografia falsa involontaria” (se qualcuno usa il nostro volto o altro per creare contenuti pornografici). In tale pagina ci sono tutte le istruzioni che le persone possono seguire per segnalare questo genere di contenuti. Affinché una richiesta venga accettata, la persona che segnala il contenuto deve essere la persona raffigurata nelle immagini falsate. La società rileva che questo processo rimuove solo il contenuto richiesto dai risultati di ricerca di Google, purtroppo. Quindi non è possibile attuare la rimozione dai siti che ospitano effettivamente il contenuto coinvolto. Però, resta comunque una funzionalità utile e necessaria.

Leggi anche:  Facebook e le fake news: la parola "gratula" sta spopolando sul social

Questa politica aggiornata è probabilmente in risposta alla crescente popolarità dei “deepfakes“. Sono chiamati così i video e le immagini sessuali in cui il volto di qualcuno è sostituito da quello di un’altra persona (avviene soprattutto con le celebrità). Come suggerisce il nome, i deepfakes vengono generati utilizzando un software di deep learning, come il TensorFlow di Google. Tra l’altro, molti siti popolari vietano già questi video e immagini, come ha fatto Reddit all’inizio di quest’anno.