A Digital Trends pode ganhar uma comissão quando você compra através de links em nosso site.
O Departamento de Segurança Interna dos EUA lançou uma investigação sobre o TikTok sobre como a plataforma lida com conteúdo que retrata abuso sexual infantil e os controles de moderação implementados. A agência está investigando a suposta exploração de um recurso chamado “Only Me” no TikTok que supostamente foi abusado para compartilhar conteúdo problemático, algo Financial Times afirma ter verificado em parceria com grupos de segurança infantil e autoridades policiais.
O recurso Only Me permite que os usuários salvem seus vídeos do TikTok sem publicá-los online. Depois que o status de um vídeo for designado como Somente eu, ele só poderá ser visto pelo proprietário da conta. No caso do TikTok, credenciais de contas que compartilharam conteúdo que retratava imagens de abuso sexual infantil (CSAM) foram repassadas entre os maus atores. Ao fazer isso, os vídeos abusivos nunca chegaram ao domínio público e evitaram a detecção pelo sistema de moderação do TikTok.
O TikTok não é estranho ao problema
Esta não é a primeira instância de uma investigação tão séria sobre o TikTok. O número de investigações do Departamento de Segurança Interna cobrindo a disseminação de conteúdo de exploração infantil no TikTok disparou sete vezes entre 2019 e 2021. parece que os maus atores ainda estão prosperando na plataforma.
“O TikTok fala constantemente sobre o sucesso de sua inteligência artificial, mas uma criança claramente nua está escapando dela”, disse a ativista de segurança infantil Seara Adair. Curiosamente, a agência federal banido TikTok em todos os sistemas, incluindo telefones e computadores pertencentes aos sistemas de tecnologia da informação do departamento, em março deste ano por questões de segurança de dados.
Esta também não é a primeira instância do TikTok monopolizando a atenção pelos motivos errados. No mês passado, alguns ex-moderadores de conteúdo do TikTok registraram uma ação judicial contra a empresa, acusando-a de não fornecer suporte adequado enquanto lidava com conteúdo extremo retratando “abuso sexual infantil, estupro, tortura, bestialidade, decapitações, suicídio e assassinato”.
UMA BCC A investigação de 2019 revelou predadores visando crianças de até nove anos de idade com comentários e propostas desprezíveis. Elizabeth Denham, comissária de informação do Reino Unido, lançou um sondar no TikTok no mesmo ano sobre o manuseio da plataforma de dados pessoais pertencentes a usuários menores de idade. E dada sua imensa popularidade entre os usuários jovens, a opção de excluí-lo não é tão simples quanto a do Facebook.
Os riscos são cada vez mais altos, com regulador de mídia Ofcom alegando que 16% das crianças na faixa etária de três a quatro anos consomem conteúdo do TikTok. De acordo com a National Society for the Prevention of Cruelty to Children (NSPCC) do Reino Unido, crimes de aliciamento online alcançado um recorde em 2021, com crianças em risco particularmente alto. Embora o Instagram e o Snapchat sejam as plataformas preferidas dos predadores, relatórios de horrível a preparação de crianças no TikTok surgiram on-line em várias ocasiões nos últimos anos.
Recentemente, o TikTok impôs medidas para manter sua base de usuários jovens segura. No ano passado, o TikTok anunciado que estranhos não poderão mais entrar em contato com contas do TikTok pertencentes a crianças menores de 16 anos, e suas contas serão privadas por padrão. A plataforma de transmissão de vídeos curtos até reforçou as restrições ao download de vídeos postados por usuários menores de 18 anos. O TikTok também adicionado recursos para sua plataforma para ajudar sobreviventes de agressão sexual no ano passado, trazendo especialistas da Rede Nacional de Estupro, Abuso e Incesto (CHUVA) e fornecendo acesso rápido ao Linha Direta Nacional de Agressão Sexual.
Recomendações dos editores