Neste dia e idade da mídia social, não é segredo que a moderação de conteúdo para gigantes da tecnologia como a Meta se tornou uma das questões mais prementes. No entanto, como parte da revolução contínua da IA, parece que a OpenAI pode ter uma solução, já que a empresa recentemente anunciado que eles estão trabalhando na construção de um novo sistema de moderação de conteúdo com GPT-4.
Como é que o sistema funciona?
Em uma postagem recente no blog, a OpenAI destacou seu novo desenvolvimento e afirmou que o processo começa primeiro inserindo as diretrizes de moderação no GPT-4, que posteriormente passa por testes rigorosos usando um pequeno corpus de conteúdo problemático. Uma vez que os resultados iniciais estão prontos, colaboradores humanos entram em cena para analisar tanto os sucessos quanto as deficiências da IA, melhorando assim sua curva de aprendizado. Nos casos em que o sistema encontra dificuldades, os avaliadores têm o privilégio de se aprofundar no GPT-4 para obter explicações sobre suas decisões.
Lilian Weng, diretora de sistema de segurança da OpenAI, destacou o potencial transformador da nova tecnologia e afirmou: “Acreditamos que isso oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego online de acordo com a política específica da plataforma e aliviar o fardo mental de um grande número de moderadores humanos.”
Além disso, a OpenAI enfatizou que esta nova ferramenta de moderação de conteúdo orientada por IA abrangerá mais do que apenas conteúdo textual, pois planeja estender seus recursos para abranger imagens e vídeos.
Necessidade da nova tecnologia
Embora alguns possam argumentar que as IAs nunca serão capazes de igualar a consistência dos moderadores humanos, é importante reconhecer o preço que a revisão manual de conteúdo gráfico e angustiante exige do bem-estar mental dos moderadores humanos. Portanto, tal sistema que tira o fardo dos moderadores humanos pode marcar um ponto de virada significativo na moderação de conteúdo.
Além disso, para corporações como a Meta, tal sistema poderia render economias financeiras substanciais. De acordo com um estudo realizado pela Universidade de Zurique, a utilização de IA para regulação de conteúdo provou ser até 20 vezes mais econômica do que a moderação humana tradicional.
Embora as vantagens de um sistema de IA sejam evidentes, é importante observar que o envolvimento humano continuará sendo crucial. Isso ocorre porque os moderadores humanos, por enquanto, ainda manteriam o controle sobre o resultado final, já que os sistemas de IA ainda não são totalmente infalíveis. “Não podemos construir um sistema 100% à prova de balas desde o início… Mas tenho certeza de que será bom”, disse Weng.