O uso desajeitado do ChatGPT levou um escritório de advocacia da cidade de Nova York a ser multado em US$ 5.000.
Depois de ouvir tanto sobre o impressionante chatbot com inteligência artificial da OpenAI, o advogado Steven Schwartz decidiu usá-lo para pesquisa, acrescentando citações de casos geradas pelo ChatGPT a um documento legal entregue a um juiz no início deste ano. Mas logo descobriu-se que os casos haviam sido totalmente inventados pelo chatbot.
O juiz distrital dos EUA, P. Kevin Castel, condenou na quinta-feira os advogados Steven Schwartz e Peter LoDuca, que assumiram o caso de seu colega de trabalho, e seu escritório de advocacia Levidow, Levidow & Oberman, a pagar uma multa de $ 5.000.
O juiz disse que os advogados fizeram “atos de evitação consciente e declarações falsas e enganosas ao tribunal”, acrescentando que “abandonaram suas responsabilidades” ao enviar o resumo escrito por IA antes de apoiar “as opiniões falsas após ordens judiciais chamarem seus existência em questão”.
Castel continuou: “Muitos danos decorrem da apresentação de opiniões falsas. A parte contrária desperdiça tempo e dinheiro em expor o engano. O tempo do tribunal é retirado de outros empreendimentos importantes.”
O juiz acrescentou que a ação dos advogados “promove o cinismo sobre a profissão jurídica e o sistema judicial americano”.
O escritório de advocacia de Manhattan disse que discordava “respeitosamente” da opinião do tribunal, descrevendo-a como um “erro de boa fé”.
Em uma audiência relacionada no tribunal no início deste mês, Schwartz disse que queria “desculpar-se sinceramente” pelo que havia acontecido, explicando que achava que estava usando um mecanismo de busca e não tinha ideia de que a ferramenta de IA poderia produzir inverdades. Ele disse que “lamentava profundamente” suas ações”, acrescentando: “Eu sofri tanto profissional quanto pessoalmente [because of] a ampla publicidade que esta questão gerou. Estou envergonhado, humilhado e extremamente arrependido”.
O incidente estava ligado a um caso assumido pelo escritório de advocacia envolvendo um passageiro que processou a companhia aérea colombiana Avianca após alegar que sofreu uma lesão em um voo para a cidade de Nova York.
A Avianca pediu ao juiz para arquivar o caso, então a equipe jurídica do passageiro compilou uma petição citando seis casos semelhantes em uma tentativa de persuadir o juiz a deixar o caso de seu cliente prosseguir. Schwartz encontrou esses casos perguntando ao ChatGPT, mas não conseguiu verificar a autenticidade dos resultados. A equipe jurídica da Avianca deu o alarme ao dizer que não conseguia localizar os processos contidos no auto.
Em uma ordem separada na quinta-feira, o juiz concedeu a moção da Avianca para rejeitar o processo contra ela, encerrando todo o lamentável episódio.
O ChatGPT e outros chatbots como ele ganharam muita atenção nos últimos meses devido à sua capacidade de conversar de maneira humana e executar habilmente uma gama crescente de tarefas baseadas em texto. Mas eles também são conhecidos por inventar coisas e apresentá-las como se fossem reais. É tão prevalente que existe até um termo para isso: “alucinação”.
Aqueles que trabalham nas ferramentas de IA generativa estão explorando maneiras de reduzir as alucinações, mas até então os usuários são aconselhados a verificar cuidadosamente quaisquer “fatos” que os chatbots cuspam.
Recomendações dos editores