di
TikTok, Reddit e Imgur sono finiti sotto la lente dell’autorità britannica per la protezione dei dati personali, che ha deciso di indagare su come queste piattaforme gestiscono la privacy dei minori. Il tema è particolarmente delicato perché coinvolge sia i meccanismi con cui i social propongono contenuti, sia il modo in cui verificano l’età degli utenti.
L’indagine che scuote TikTok, Reddit e Imgur
Gli algoritmi di raccomandazione sono il cuore pulsante di qualsiasi piattaforma social: servono per personalizzare l’esperienza e far sì che ogni utente trovi sempre qualcosa di interessante da guardare o leggere. Ma quando si parla di minori, la questione diventa più complessa. Il rischio è che i ragazzi vengano esposti a contenuti inappropriati o che, attraverso questi stessi algoritmi, finiscano in una sorta di bolla in cui vedono solo certi tipi di contenuti in modo ripetitivo.
TikTok, in particolare, è sotto osservazione per il modo in cui utilizza i dati personali degli utenti tra i 13 e i 17 anni per suggerire video nei loro feed. Già in passato la piattaforma aveva avuto problemi con le autorità britanniche, ricevendo una multa di oltre 12 milioni di sterline per aver raccolto dati di bambini sotto i 13 anni senza il consenso dei genitori.
Reddit e Imgur, invece, sono al centro dell’indagine per un altro motivo: i loro sistemi di verifica dell’età. L’ICO vuole capire quanto siano realmente efficaci nel bloccare l’accesso ai più giovani e se le misure adottate siano sufficienti per proteggere i minori da contenuti potenzialmente dannosi.
Social media e privacy dei minori
Le piattaforme, dal canto loro, assicurano di essere al lavoro per adeguarsi alle normative. Reddit, ad esempio, ha già annunciato che apporterà modifiche per allinearsi alle nuove regole del Regno Unito. Nel frattempo, il governo britannico sta introducendo leggi più rigide per costringere i social a fare di più in termini di tutela dei minori, imponendo limiti di età più stringenti e metodi di verifica più affidabili.
L’indagine dell’ICO è solo un tassello di un dibattito molto più ampio su quanto le piattaforme debbano essere responsabili per ciò che viene mostrato agli utenti più giovani. E mentre le aziende tech si muovono per trovare un equilibrio tra privacy, sicurezza e business, resta da vedere se le misure adottate saranno davvero efficaci o se serviranno interventi ancora più severi.
