A OpenAI, criadora do popular chatbot de inteligência artificial (IA) ChatGPT, desligou a ferramenta que desenvolveu para detectar conteúdo criado por IA em vez de humanos. A ferramenta, apelidada de AI Classifier, foi fechada apenas seis meses após o lançamento devido à sua “baixa taxa de precisão”, disse a OpenAI.
Desde que o ChatGPT e os serviços rivais dispararam em popularidade, houve uma reação conjunta de vários grupos preocupados com as consequências do uso descontrolado de IA. Por um lado, os educadores têm ficado particularmente preocupados com a possibilidade de os alunos usarem o ChatGPT para escrever seus ensaios e tarefas e, em seguida, passá-los como se fossem seus.
O AI Classifier da OpenAI foi uma tentativa de acalmar os medos desses e de outros grupos. A ideia era determinar se um texto foi escrito por um humano ou um chatbot de IA, dando às pessoas uma ferramenta para avaliar os alunos de maneira justa e combater a desinformação.
No entanto, mesmo desde o início, a OpenAI não parecia ter muita confiança em sua própria ferramenta. Em uma postagem no blog anunciando a ferramenta, a OpenAI declarou que “nosso classificador não é totalmente confiável”, observando que identificou corretamente textos escritos por IA de um “conjunto de desafios” apenas 26% das vezes.
A decisão de abandonar a ferramenta não foi muito alardeada, e a OpenAI não postou uma postagem dedicada em seu site. Em vez disso, a empresa atualizou a postagem em que revelou o classificador de IA, afirmando que “o classificador de IA não está mais disponível devido à sua baixa taxa de precisão”.
A atualização continuou: “Estamos trabalhando para incorporar feedback e atualmente pesquisando técnicas de proveniência mais eficazes para texto e assumimos o compromisso de desenvolver e implantar mecanismos que permitam aos usuários entender se o conteúdo de áudio ou visual é gerado por IA”.
Ferramentas melhores são necessárias
O classificador de IA não é a única ferramenta desenvolvida para detectar conteúdo criado por IA, pois existem rivais como o GPTZero e continuarão a operar, apesar da decisão da OpenAI.
Tentativas anteriores de identificar a escrita de IA saíram pela culatra de maneira espetacular. Por exemplo, em maio de 2023, um professor reprovou por engano toda a turma depois de convocar o ChatGPT para detectar plágio nos trabalhos de seus alunos. Desnecessário dizer que o ChatGPT errou muito, e o professor também.
É motivo de preocupação quando até o OpenAI admite que não consegue perceber corretamente o plágio criado por seu próprio chatbot. Chega em um momento de crescente ansiedade sobre o potencial destrutivo dos chatbots de IA e pede uma suspensão temporária do desenvolvimento nesse campo. Se a IA tiver tanto impacto quanto algumas pessoas estão prevendo, o mundo precisará de ferramentas mais fortes do que o classificador de IA fracassado da OpenAI.
Recomendações dos editores