Instagram, l'applicazione rivale di Twitter è in arrivo Meta ha avviato un’indagine dopo alcune segnalazioni. Pare che Instagram stia promuovendo materiale pedopornografico attraverso il suo algoritmo.

La società madre di Facebook ha dato il via ad una task force per indagare sulle affermazioni che accusano Instagram di promuovere l’abuso sui minori. Lo Stanford Internet Observatory (SIO) ha affermato di aver trovato “comunità di persone su larga scala” che condividono contenuti di pedofilia sulla piattaforma. Il SIO ha affermato di aver scoperto il materiale pedopornografico (CSAM) a seguito di un suggerimento del Wall Street Journal, il cui rapporto di mercoledì ha spiegato in che modo l’algoritmo di Instagram ha contribuito a collegare una “vasta rete di pedofili” tra loro.

La funzione “suggerito per te” di Instagram collegava anche gli utenti a siti di contenuti fuori piattaforma, secondo il rapporto, con il SIO che descriveva il sito come “attualmente la piattaforma più importante” per queste reti. “Instagram è risultata la piattaforma principale per tali comunità, fornendo funzionalità che facilitano le connessioni tra acquirenti e venditori”, scrive il Cyber Policy Center di Stanford in un post. “La popolarità di Instagram e l’interfaccia user-friendly lo rendono un’opzione perfetta per queste attività.”

Accuse di abuso sui minori promosso su Instagram nella sezione “per te”, Meta risponde aprendo le indagini

Gli utenti di Instagram sono stati in grado di trovare contenuti di abusi sui minori attraverso hashtag espliciti come #pedowhore, che ora sono stati bloccati da Instagram. “Lo sfruttamento minorile è un crimine orribile”, ha detto un portavoce di Meta cercando di discolparsi. “Stiamo studiando modi per difenderci attivamente da questo comportamento e abbiamo istituito una task force interna per indagare su queste accuse e affrontarle immediatamente”. Meta ha affermato di aver già distrutto 27 reti di pedofili negli ultimi due anni su Instagram, oltre ad aver rimosso 490.000 account che violavano le politiche sulla sicurezza dei minori solo a gennaio.

Anche altre piattaforme di social media che ospitano questo tipo di contenuti sono state identificate dal SIO, sebbene in misura molto minore. Il SIO ha chiesto un’iniziativa a livello di settore per limitare la produzione, la scoperta e la distribuzione di materiale pedopornografico. Esortando al tempo stesso le aziende a dedicare maggiori risorse all’identificazione di questi utenti. “Data la natura multipiattaforma del problema, affrontarlo richiederà una migliore condivisione delle informazioni sulle reti di produzione, contromisure e metodi per identificare gli acquirenti”. “Si spera che questa ricerca aiuti l’industria e le organizzazioni non profit nei loro sforzi per rimuovere materiale pedopornografico da Internet”.

Articolo precedenteRealme 11 Pro Series arriverà il 20 Giugno con fotocamera da 200MP e OIS SuperZoom
Articolo successivoNothing Phone (2), ufficiale l’evento di presentazione l’11 Luglio