Neste dia e idade de conteúdo de vídeo de formato curto, o algoritmo de recomendação do YouTube tornou a plataforma para entretenimento, educação e tudo mais. No entanto, um relatório recente do Tech Transparency Project (TTP), um grupo de vigilância sem fins lucrativos, sugere que o algoritmo do YouTube agora está levando meninos interessados em videogames a vídeos centrados em tiroteios em escolas e violência armada.
O incidente veio à tona quando pesquisadores do Tech Transparency Project criaram novas contas no YouTube e fingiram ser dois meninos de 9 anos e dois meninos de 14 anos. Depois que as contas foram ativadas, eles assistiram a horas de conteúdo de videogame, incluindo Roblox, Halo e Grand Theft Auto, e registraram suas recomendações ao longo de 30 dias.
Depois de analisar os dados, os pesquisadores descobriram que o algoritmo do YouTube estava promovendo conteúdo relacionado à violência armada e armas para todas as contas de jogadores. No entanto, o volume desse conteúdo foi significativamente maior para os usuários que clicaram nos vídeos recomendados. Esses vídeos incluíam demonstrações gráficas do poder destrutivo das armas, cenas retratando tiroteios em escolas e outros eventos de tiroteio em massa e guias sobre como converter uma pistola em uma arma totalmente automática. Além disso, a plataforma chegou a monetizar alguns desses vídeos, violando assim suas próprias políticas.
“Crianças que não têm idade suficiente para comprar uma arma não devem poder acessar o YouTube para aprender a construir uma arma de fogo, modificá-la para torná-la mais letal ou cometer atrocidades”, disse Justin Wagner, diretor de investigações da Everytown. para segurança de armas.
resposta do YouTube
Em resposta ao relatório, um porta-voz do YouTube enfatizou a existência do aplicativo YouTube Kids e declarou: “Congratulamo-nos com pesquisas sobre nossas recomendações e estamos explorando mais maneiras de trazer pesquisadores acadêmicos para estudar nossos sistemas. Mas, ao revisar a metodologia deste relatório, é difícil para nós tirar conclusões sólidas. Por exemplo, o estudo não fornece o contexto de quantos vídeos gerais foram recomendados para as contas de teste e também não fornece informações sobre como as contas de teste foram configuradas, incluindo se as ferramentas de experiências supervisionadas do YouTube foram aplicadas.”