O aplicativo de rede social de propriedade da Meta, o Facebook, quase dobrou a remoção de conteúdo violento na plataforma desde o último trimestre. A empresa disse que removeu 21,7 milhões de postagens do Facebook que retratavam ou incitavam a violência nos primeiros três meses de 2022. Em comparação, o Facebook removeu apenas 12,4 milhões de postagens sob os mesmos critérios no quarto trimestre de 2021.
Meta compartilhou os dados sobre a remoção de conteúdo violento como parte de seu relatório trimestral de aplicação de padrões da comunidade
A Meta disse que seus algoritmos removeram mais de 98% do conteúdo violador sem intervenção humana. A remoção de conteúdo também ocorreu no Instagram, embora marginalmente. A plataforma derrubou 2,7 milhões de postagens no primeiro trimestre de 2022, enquanto o número ficou em 2,6 milhões no quarto trimestre de 2021.
A empresa compartilhou os dados sobre remoção de conteúdo como parte de sua relatório trimestral de transparênciatambém conhecido como relatório de aplicação de padrões da comunidade (via Engadget). Meta disse que o aumento acentuado na remoção de conteúdo violento no Facebook ocorreu devido a uma expansão de sua “tecnologia de detecção proativa”.
O relatório de transparência da Meta vem dias depois que o Facebook foi criticado por agir lentamente na remoção de conteúdo relacionado ao tiroteio racista em massa em um supermercado em Buffalo, NY. Várias cópias do tiroteio continuaram no Facebook por algumas horas. Uma postagem foi compartilhada com mais de 46.000 antes da remoção, relata o Washington Post.
Os sites de mídia social têm a enorme responsabilidade de restringir a disseminação de conteúdo violento antes que ele atinja muitas pessoas. Mas eventos recentes indicam que as plataformas da Meta têm muito trabalho a fazer nesse sentido.
Meta reconheceu alguns dos desafios na remoção de conteúdo violento antes que seja tarde demais
O vice-presidente de integridade da Meta, Guy Rosen, reconheceu algumas das limitações da empresa em uma ligação com os repórteres. “Um dos desafios que vemos em eventos como esse é que as pessoas criam novos conteúdos, novas versões, novos links externos para tentar burlar nossas políticas [and] escapar de nossa aplicação”, disse Rosen.
“Como em qualquer incidente, continuaremos a aprender a refinar nossos processos, refinar nossos sistemas para garantir que possamos detectar que podemos remover conteúdo violador mais rapidamente no futuro.”
O relatório da Meta também fornece informações sobre as postagens retiradas por acidente. A empresa disse que reverteu a remoção de 756.000 postagens do Facebook inicialmente marcadas como violentas. A Meta disse ainda que está “trabalhando no desenvolvimento de medições robustas em torno de erros”, embora não tenha fornecido detalhes.