Londra diventa il fulcro di un’importante riorganizzazione per TikTok. Si tratta di una decisione che potrebbe comportare centinaia di licenziamenti. Tagli che riguardano direttamente il reparto Trust and Safety dell’azienda. Secondo quanto riportato dal Financial Times, l’informazione è trapelata da un’email interna dell’azienda. La quale ha anticipato che le attività di moderazione e controllo qualità fino a oggi svolte nella capitale britannica non saranno più gestite localmente. Il cambiamento riguarda anche altri team situati in Sud e Sud-Est asiatico, in un quadro di concentrazione delle funzioni in pochi hub a livello regionale.
TikTok riorganizza il lavoro con l’AI e licenzia i suoi moderatori?
Le ragioni alla base della decisione sono molteplici. Da un lato, l’entrata in vigore nel Regno Unito dell’Online Safety Act, che impone alle piattaforme social una maggiore responsabilità. Soprattutto riguardo la gestione dei contenuti nocivi. Dall’altro, il crescente ricorso alle tecnologie avanzate. TikTok punta a sfruttare i progressi dei grandi modelli linguistici e di altre soluzioni di intelligenza artificiale per trasformare il modo in cui vengono monitorati i contenuti. L’azienda sottolinea che la riorganizzazione, iniziata già nel 2024, ha l’obiettivo di ottimizzare l’efficacia del lavoro.
Non tutti però vedono la scelta come un semplice passo verso l’innovazione. Il sindacato Communication Workers Union ha espresso preoccupazione per il futuro di una parte significativa dei circa 300 dipendenti londinesi. John Chadfield, coordinatore nazionale, ha accusato TikTok di mascherare sotto la bandiera dell’intelligenza artificiale un’operazione che somiglia molto a un trasferimento di lavoro verso Paesi con costi più bassi.
Il caso di TikTok si inserisce in un contesto globale di ristrutturazioni. Le quali sono tutte guidate dall’intelligenza artificiale. Rimane però aperta la domanda delicata: fino a che punto si può affidare completamente all’AI la gestione di contenuti sensibili? Molti esperti avvertono che gli algoritmi non riescono sempre a cogliere le sfumature linguistiche e culturali. Rischiando così sia di lasciare online materiale dannoso sia di censurare in maniera eccessiva contenuti legittimi.
