La piattaforma Roblox sta per cambiare radicalmente il modo in cui gestisce la presenza dei minori al suo interno. L’annuncio riguarda una serie di interventi strutturali che puntano a ridisegnare l’intera esperienza di gioco partendo da un elemento fondamentale: l’età degli utenti. Le novità, che dovrebbero debuttare a giugno, arrivano in un momento particolarmente caldo per la piattaforma, da tempo al centro di critiche e pressioni legali legate alla sicurezza dei minori.
Il fulcro di tutto è la creazione di due nuovi profili pensati specificamente per i più giovani. Il primo si chiama Roblox Kids ed è rivolto ai bambini tra i cinque e gli otto anni. Il secondo, Roblox Select, copre invece la fascia dai nove ai quindici anni. Non si tratta di semplici etichette: questi account integrano in un unico sistema i controlli d’accesso ai contenuti, le impostazioni di comunicazione e gli strumenti dedicati ai genitori, il tutto calibrato sull’età di chi sta giocando. L’azienda ha precisato che la grande maggioranza dei giochi già frequentati dai bambini resterà comunque accessibile, quindi niente stravolgimenti improvvisi nell’esperienza quotidiana.
Moderazione rafforzata e un nuovo livello di verifica per i contenuti
Sul fronte della moderazione dei contenuti, Roblox ha spiegato che ogni elemento caricato sulla piattaforma passa già attraverso sistemi che includono la scansione automatica tramite intelligenza artificiale, la revisione delle segnalazioni degli utenti e una moderazione multimodale capace di valutare le scene in tempo reale. Per i contenuti destinati ai minori di sedici anni, però, verrà aggiunto un ulteriore livello di verifica. Questo comprende la certificazione degli sviluppatori, una valutazione più approfondita dei contenuti pubblicati e limitazioni più stringenti per i materiali pensati per un pubblico adulto.
Chi ha già completato la verifica dell’età e ha almeno sedici anni non noterà alcuna differenza. Gli account dei minori, invece, si aggiorneranno in automatico quando l’utente raggiunge l’età prevista per passare alla categoria successiva. Chi non ha ancora effettuato la verifica verrà inserito nell’account corrispondente alla propria fascia d’età.
Più potere ai genitori e pressioni legali sullo sfondo
I nuovi strumenti per i genitori ampliano parecchio le possibilità di supervisione. Sarà possibile gestire le valutazioni dei contenuti accessibili ai figli, le impostazioni di comunicazione, i tempi di utilizzo dello schermo e i limiti di spesa. Tra le funzioni più interessanti: la possibilità di bloccare singoli giochi specifici fino ai quindici anni del figlio, la gestione delle chat dirette fino alla stessa soglia d’età e una nuova funzione di approvazione granulare che consente di autorizzare l’accesso a giochi non disponibili di default per quel tipo di account. I genitori potranno anche ottenere informazioni trasparenti sui giochi frequentati dai propri figli e sui compagni di gioco.
“Questi aggiornamenti fanno parte del nostro impegno continuo per costruire esperienze adeguate all’età di tutti gli utenti, applicare protezioni predefinite per i più giovani e dare ai genitori maggiore visibilità su come i loro figli usano Roblox”, ha dichiarato la società.
Tutto questo arriva in un contesto tutt’altro che sereno. Il mese scorso, le autorità di Los Angeles hanno depositato una denuncia contro Roblox, accusando la piattaforma di non proteggere adeguatamente i minori da comportamenti predatori. Una vicenda simile si era verificata in Australia, dove il governo aveva già chiesto conto all’azienda dei rischi di sfruttamento dei bambini. Roblox ha contestato con forza le accuse, ribadendo il proprio impegno nella tutela della comunità. Nella stessa giornata in cui sono stati resi noti questi aggiornamenti sulla sicurezza, la società ha anche presentato Roblox Plus, un nuovo servizio in abbonamento mensile.
