Um moderador do TikTok recentemente processou a empresa por trauma mental causado por vídeos gráficos. A moderadora Candie Frazier diz que teve que assistir a violência, tiroteios em escolas, quedas fatais e até vídeos de canibalismo como parte de seu trabalho. Como resultado de assistir a esses vídeos, Frazier afirma que agora está sofrendo de um trauma mental.
De acordo com Engadget (através da Bloomberg), O TikTok tem 10.000 moderadores de conteúdo, e o processo afirma que essas pessoas estão expostas a muito conteúdo desagradável, como pornografia infantil e mutilação de animais.
“A demandante tem problemas para dormir e, quando dorme, tem pesadelos horríveis”, de acordo com o processo. Frazier está agora buscando indenização por danos psicológicos e uma ordem judicial para forçar a TikTok e a ByteDance a fornecer o apoio necessário aos moderadores.
TikTok sob fogo para as condições de trabalho dos moderadores de conteúdo
A reclamação de quinta-feira no tribunal federal de Los Angeles revela algumas informações perceptíveis sobre as condições de trabalho de um moderador da TikTok. De acordo com a denúncia, os moderadores têm que trabalhar em turnos de 12 horas, sendo que têm apenas uma hora para o lançamento e dois intervalos de 15 minutos.
“Devido ao grande volume de conteúdo, os moderadores de conteúdo não têm mais do que 25 segundos por vídeo e assistem simultaneamente de três a dez vídeos ao mesmo tempo”, disseram os advogados de Frazier na denúncia.
Em resposta, TikTok disse que está trabalhando “para promover um ambiente de trabalho atencioso para nossos funcionários e contratados”. “Nossa equipe de segurança tem parceria com empresas terceirizadas no trabalho crítico de ajudar a proteger a plataforma e a comunidade da TikTok, e continuamos a expandir uma gama de serviços de bem-estar para que os moderadores se sintam apoiados mental e emocionalmente”, disse um porta-voz da empresa em um declaração.
A TikTok, junto com o Facebook e o YouTube, tentou desenvolver diretrizes para moderadores de conteúdo sobre como lidar com casos de abuso infantil. As diretrizes prometidas fornecem suporte psicológico e limitam os turnos a quatro horas. No entanto, o processo afirma que a TikTok nada fez para implementar essas diretrizes.
Um moderador do TikTok deve assistir a muitos conteúdos estranhos e desagradáveis todos os dias que podem até causar transtorno de estresse pós-traumático (PTSD). Eles precisam assistir a esses conteúdos, para que os usuários não os vejam em seus feeds.
Claro, existem muitos processos semelhantes contra outras redes de mídia social. Em 2018, um moderador de conteúdo entrou com um processo semelhante contra o Facebook. Ele afirmou que o Facebook não forneceu o suporte necessário aos moderadores para protegê-los de conteúdo desagradável. Outro caso contra o Facebook acaba de ser apresentado alguns meses atrás na Europa.