O GPT-4 — o grande modelo de linguagem (LLM) que alimenta o ChatGPT Plus — pode em breve assumir um novo papel como moderador online, policiando fóruns e redes sociais em busca de conteúdo nefasto que não deveria ver a luz do dia. Isso é de acordo com um nova postagem no blog do desenvolvedor do ChatGPT, OpenAI, que diz que isso pode oferecer “uma visão mais positiva do futuro das plataformas digitais”.
Ao recrutar inteligência artificial (IA) em vez de moderadores humanos, a OpenAI diz que o GPT-4 pode promover “uma iteração muito mais rápida nas mudanças de política, reduzindo o ciclo de meses para horas”. Além disso, “o GPT-4 também é capaz de interpretar regras e nuances em documentação de política de conteúdo longa e se adaptar instantaneamente a atualizações de política, resultando em rotulagem mais consistente”, afirma OpenAI.
Por exemplo, a postagem do blog explica que as equipes de moderação podem atribuir rótulos ao conteúdo para explicar se ele está dentro ou fora das regras de uma determinada plataforma. O GPT-4 poderia então pegar o mesmo conjunto de dados e atribuir seus próprios rótulos, sem saber as respostas de antemão.
Os moderadores poderiam então comparar os dois conjuntos de rótulos e usar quaisquer discrepâncias para reduzir a confusão e adicionar esclarecimentos às suas regras. Em outras palavras, o GPT-4 poderia atuar como um usuário comum e avaliar se as regras fazem sentido.
O pedágio humano
No momento, a moderação de conteúdo em vários sites é realizada por humanos, o que os expõe regularmente a conteúdo potencialmente ilegal, violento ou prejudicial. Vimos repetidamente o preço terrível que a moderação de conteúdo pode cobrar das pessoas, com o Facebook pagando US$ 52 milhões a moderadores que sofriam de PTSD devido aos traumas de seu trabalho.
Reduzir a carga dos moderadores humanos pode ajudar a melhorar suas condições de trabalho e, como IAs como o GPT-4 são imunes ao tipo de estresse mental que os humanos sentem ao lidar com conteúdo problemático, eles podem ser implantados sem se preocupar com esgotamento e TEPT.
No entanto, levanta a questão de saber se o uso da IA dessa maneira resultaria em perda de empregos. A moderação de conteúdo nem sempre é um trabalho divertido, mas é um trabalho, no entanto, e se o GPT-4 substituir os humanos nessa área, provavelmente haverá preocupação de que os ex-moderadores de conteúdo sejam simplesmente redundantes em vez de reatribuídos a outras funções.
A OpenAI não menciona essa possibilidade em sua postagem no blog, e isso realmente é algo para as plataformas de conteúdo decidirem. Mas pode não ajudar muito a afastar os temores de que a IA seja implantada por grandes empresas simplesmente como uma medida de economia de custos, com pouca preocupação com as consequências.
Ainda assim, se a IA puder reduzir ou eliminar a devastação mental enfrentada pelas equipes sobrecarregadas e subestimadas que moderam o conteúdo nos sites usados por bilhões de pessoas todos os dias, pode haver algo de bom nisso tudo. Resta saber se isso será temperado por redundâncias igualmente devastadoras.
Recomendações dos editores