A chefe da Pesquisa do Google, Liz Reid, abordou recentemente em um post no blog as respostas absurdas e imprecisas que algumas visões gerais de IA estão fornecendo aos usuários. Ela explicou que, na maioria dos casos, os problemas encontrados estão mais relacionados às consultas dos usuários e às páginas da web que são fonte de informações para as visões gerais, do que ao Google em si. No entanto, ela reconheceu que o Google está trabalhando ativamente para melhorar a precisão e relevância dessas visões gerais.
As visões gerais de IA do Google são diferentes de outros chatbots e modelos de linguagem, pois são desenvolvidas com base nos modelos de linguagem da empresa, mas não produzem resultados a partir de seus próprios dados de treinamento. Em vez disso, elas extraem informações relevantes e de qualidade do índice de pesquisa do Google para fornecer resumos de texto das páginas da web associadas às consultas dos usuários.
Reid garantiu que as visões gerais de IA mostram informações apenas dos principais resultados da web e não inventam conteúdos. Quando algo vai errado, as causas podem ser desde interpretações incorretas de consultas até falta de informações disponíveis. Em alguns casos, os usuários estão recebendo resultados absurdos devido às consultas igualmente absurdas que estão fazendo.
Além disso, Reid destacou que algumas capturas de tela compartilhadas nas redes sociais são fabricadas e não refletem a realidade das visões gerais de IA do Google. Os exemplos incluem consultas como “Estou me sentindo deprimido” resultando em sugestões perigosas. O Google está ciente dessas situações e está tomando medidas para corrigir esses problemas.
A postagem no blog também mencionou que as visões gerais de IA foram extensivamente testadas antes do lançamento, mas desde então, o Google tem se deparado com consultas incomuns que levam a respostas errôneas. Um exemplo disso é a consulta “Quantas pedras devo comer?”, que resultou em uma sugestão absurda por parte da visão geral. O Google reconheceu que houve erros e está trabalhando para melhorar a precisão das visões gerais.
A empresa também admitiu que houve casos em que as visões gerais de IA obtiveram dados de conteúdo sarcástico ou troll de fóruns de discussão e não conseguiram reconhecer esse tipo de linguagem. Para lidar com essas questões, o Google está implementando melhorias em seus algoritmos e mecanismos de detecção, para garantir que apenas informações precisas e relevantes sejam exibidas nas visões gerais.
Além disso, o Google está limitando a inclusão de conteúdo satírico, humorístico e gerado pelo usuário nas visões gerais, a fim de evitar a propagação de conselhos enganosos. Para tópicos de saúde, foram adicionados refinamentos de desencadeamento, e para notícias, a empresa garante a atualidade e a factualidade do conteúdo. O Google também está monitorando o feedback dos usuários e relatórios externos para garantir que as visões gerais de IA estejam em conformidade com as políticas de conteúdo e não incluam informações prejudiciais.
Em suma, o Google reconheceu os problemas enfrentados com suas visões gerais de IA e está trabalhando para corrigir as questões de precisão e relevância. A empresa está implementando melhorias em seus algoritmos e mecanismos de detecção para garantir que as visões gerais forneçam informações precisas e confiáveis aos usuários. A transparência e a responsabilidade são fundamentais para o Google, e medidas estão sendo tomadas para garantir a qualidade das visões gerais de IA oferecidas aos usuários.