A Alphabet disse a seus funcionários para não inserir informações confidenciais no Bard, o chatbot de IA generativa criado e operado pelo Google, de propriedade da Alphabet.
O alerta da empresa também se estende a outros chatbots, como o ChatGPT da OpenAI, apoiado pela Microsoft, informou a Reuters na quinta-feira.
Os chatbots com inteligência artificial geraram grande interesse nos últimos meses devido à sua impressionante capacidade de conversar de maneira humana, escrever ensaios e relatórios e até ter sucesso em testes acadêmicos.
Mas a Alphabet teme que seus funcionários vazem inadvertidamente dados internos por meio das ferramentas.
No trabalho contínuo para refinar e melhorar a tecnologia avançada de IA, revisores humanos podem ler as conversas que os usuários têm com os chatbots, representando um risco à privacidade pessoal e também à possível exposição de segredos comerciais, o último dos quais a Alphabet parece estar particularmente preocupada. sobre.
Além disso, os chatbots são parcialmente treinados usando trocas de texto dos usuários, portanto, com determinados prompts, a ferramenta pode repetir informações confidenciais que recebe nessas conversas para membros do público.
Como o ChatGPT, o Bard agora está disponível gratuitamente para qualquer um experimentar. Em sua página na web, ele adverte os usuários: “Por favor, não inclua informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”.
Ele acrescenta que o Google coleta “conversas do Bard, informações relacionadas ao uso do produto, informações sobre sua localização e seu feedback” e usa os dados para melhorar os produtos e serviços do Google que incluem o Bard.
O Google diz que armazena a atividade do Bard por até 18 meses, embora um usuário possa alterar isso para 3 ou 36 meses em sua conta do Google.
Acrescenta que, como medida de privacidade, as conversas do Bard são desconectadas de uma conta do Google antes que um revisor humano as veja.
A Reuters disse que, embora o aviso da Alphabet esteja em vigor há algum tempo, ela o expandiu recentemente, dizendo a seus funcionários para evitar o uso de códigos de computador precisos gerados por chatbots. A empresa disse à agência de notícias que Bard às vezes pode fazer “sugestões de código indesejadas”, embora a iteração atual da ferramenta ainda seja considerada uma ajuda de programação viável.
A Alphabet não é a única empresa a alertar seus funcionários sobre os riscos de privacidade e segurança associados ao uso de chatbots. A Samsung emitiu recentemente uma instrução semelhante a seus funcionários, depois que vários deles forneceram dados confidenciais relacionados a semicondutores no ChatGPT, e a Apple e a Amazon, entre outras, também adotaram uma política interna semelhante.
Recomendações dos editores