O Google lançou o Bard, seu rival do ChatGPT, apesar das preocupações internas de que era um “mentiroso patológico” e produziu resultados “digno de vergonha”, afirmou um novo relatório. Essas preocupações foram aparentemente ignoradas em uma tentativa frenética de alcançar o ChatGPT e evitar a ameaça que ele poderia representar para o negócio de busca do Google.
As revelações vêm de um relatório da Bloomberg que mergulhou fundo no Google Bard e nas questões levantadas pelos funcionários que trabalharam no projeto. É um relato revelador de como o chatbot aparentemente saiu dos trilhos e as dúvidas que esses incidentes levantaram entre os trabalhadores preocupados.
Por exemplo, Bloomberg cita um funcionário anônimo que pediu a Bard instruções sobre como pousar um avião e ficou horrorizado ao ver que a descrição de Bard levaria a um acidente. Um trabalhador diferente disse que as dicas de mergulho de Bard “provavelmente resultariam em ferimentos graves ou morte”.
Essas questões foram aparentemente levantadas pouco antes do lançamento do Bard, mas o Google avançou com a data de lançamento, tal era o desejo de acompanhar o caminho aberto pelo ChatGPT. Mas o fez desconsiderando seus próprios compromissos éticos, resultando não apenas em conselhos perigosos, mas também na possível disseminação de desinformação.
Correndo para o lançamento
Em 2021, o Google prometeu dobrar sua equipe de funcionários que estudam as consequências éticas da inteligência artificial (IA) e investir mais fortemente na determinação de possíveis danos. No entanto, essa equipe agora está “desempoderada e desmoralizada”, afirma Bloomberg. Pior ainda, os membros da equipe foram instruídos a “não atrapalhar ou tentar matar nenhuma das ferramentas generativas de IA em desenvolvimento”, questionando o compromisso do Google com a ética da IA.
Isso foi visto em ação pouco antes do lançamento de Bard. Em fevereiro, um funcionário do Google enviou uma mensagem a um grupo interno para dizer “Bard é pior do que inútil: por favor, não lance”, com dezenas de outros funcionários concordando. No mês seguinte, Jen Gennai, líder de governança de IA do Google, rejeitou uma avaliação de risco que dizia que Bard poderia causar danos e não estava pronto para o lançamento, avançando com o primeiro lançamento público do chatbot.
O relatório da Bloomberg mostra uma empresa desconfiada de questões éticas que ela sente que podem atrapalhar a lucratividade de seus próprios produtos. Por exemplo, um trabalhador pediu para trabalhar com justiça no aprendizado de máquina, mas foi repetidamente desencorajado, a ponto de afetar sua avaliação de desempenho. Os gerentes reclamaram que as preocupações éticas estavam obstruindo seu “trabalho real”, afirmou o funcionário.
É uma postura preocupante, principalmente porque já vimos muitos exemplos de má conduta de chatbots de IA que produziram informações ofensivas, enganosas ou totalmente falsas. Se Bloomberg estiver correto sobre a abordagem aparentemente hostil do Google em questões éticas, isso pode ser apenas o começo quando se trata de problemas causados pela IA.
Recomendações dos editores