O chatbot supostamente senciente do Google é um dos projetos mais controversos da empresa que levantou muitas preocupações sobre inteligência artificial. Apesar de toda polêmica, o Google agora está cadastrando usuários interessados para conversar com seu chatbot e fornecer feedback à empresa.
Na cúpula I/O 2022 em maio, o CEO do Google, Sundar Pichai, relatou sobre o modelo experimental de IA conversacional LaMDA 2 da empresa. Ele disse que o projeto estará aberto a testadores beta nos próximos meses, e agora os usuários podem fazer reservas para estar entre os primeiros usuários a testar esse chatbot supostamente senciente.
O LaMDA – Language Model for Dialogue Applications – é considerado um modelo de processamento de linguagem natural (NLP) senciente. A PNL é uma espécie de interface entre humanos e computadores. Assistentes de voz como Siri ou Alexa são exemplos proeminentes de PNLs que podem traduzir a fala humana em comandos. Os PNL também são usados para aplicativos de tradução e legendas em tempo real.
O chatbot supostamente senciente do Google demitiu um engenheiro de software sênior
Em julho, o Google teria demitido um de seus engenheiros de software sênior, Blake Lemoine, que alegou que o chatbot LaMDA é senciente e age como uma pessoa autoconsciente. Para justificar a demissão, o Google disse que o funcionário violou as políticas de emprego e segurança de dados. Além disso, dois membros do grupo de pesquisa de IA ética do Google deixaram a empresa em fevereiro, dizendo que não conseguiam lidar com demissões.
Os usuários que se cadastram no programa beta do LaMDA podem interagir com este PNL em um ambiente controlado e monitorado. Os usuários de Android nos EUA são os primeiros usuários a se registrarem, e o programa será expandido para usuários de iOS nas próximas semanas. Este programa experimental oferece algumas demonstrações para usuários beta para demonstrar as capacidades do LaMDA.
De acordo com os engenheiros do Google, a primeira demo se chama ‘Imagine It’, que permite aos usuários nomear um lugar e oferecer caminhos para explorar sua imaginação. A segunda demonstração é chamada de ‘List It’, na qual os usuários podem compartilhar um objetivo ou tópico e, em seguida, dividi-lo em uma lista de subtarefas úteis. Finalmente, a última demonstração é ‘Talk About It (Dogs Edition)’, que permite conversas abertas sobre cães entre usuários e chatbots.
A equipe de engenheiros do Google diz que “executou rodadas dedicadas de testes adversários para encontrar falhas adicionais no modelo”. Além disso, eles não afirmam que seu sistema é infalível. “O modelo pode interpretar mal a intenção por trás dos termos de identidade e às vezes não consegue produzir uma resposta quando eles são usados porque tem dificuldade em diferenciar entre prompts benignos e adversários. Também pode produzir respostas nocivas ou tóxicas com base em preconceitos em seus dados de treinamento, gerando respostas que estereotipam e deturpam as pessoas com base em seu gênero ou origem cultural”.