O que você precisa saber
- O Google está começando a alertar seus funcionários contra o envio de código de informações confidenciais da empresa em seu próprio software de IA Bard.
- A empresa está cada vez mais preocupada com o potencial de vazamento de dados, pois as informações contidas no bot podem se tornar de conhecimento público.
- Medidas semelhantes para colocar mais foco na privacidade e segurança com software de IA surgiram na UE e na Samsung.
Apesar do Google correr para colocar seu próprio chatbot de IA em seu mecanismo de busca, a empresa agora está tentando afastar os funcionários de usá-lo. De acordo com a Reuters, a empresa com sede em Mountain View tem aconselhado os funcionários a se absterem de inserir material confidencial no chatbot de IA. A Alphabet também estendeu esse aviso ao código de computador.
O Google Bard pode ajudar os programadores com sua codificação, mas, como afirma a empresa, a empresa disse à Reuters que às vezes pode fornecer sugestões “indesejadas”. Além disso, devido ao funcionamento de chatbots como o Bard, existe a possibilidade de vazamento de dados. Não apenas um ser humano pode ler seu bate-papo (por qualquer motivo), mas outra IA pode levar essas informações como parte de seu processo de aprendizado e depois dispersá-las em troca de outra consulta, explicou a Reuters. Por sua vez, isso permitiria que dados altamente confidenciais se tornassem públicos.
A empresa tem uma declaração em sua página de perguntas frequentes sobre o Bard que diz aos usuários para não “incluir informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”. No entanto, no final das contas, o chatbot não consegue entender como são as informações ou códigos confidenciais da empresa.
O Google também informou à Reuters sobre seu atual engarrafamento na UE, enquanto aborda questões com a Comissão de Proteção de Dados da Irlanda. Eles estão preocupados com o impacto da Bard na privacidade do usuário, que ecoa outras preocupações da Comissão Europeia.
A Comissão Europeia e o Google estão em negociações desde maio sobre a elaboração de novas diretrizes para software de IA, consideradas o “Pacto de IA”. Esse pacto voluntário afetaria países europeus e não europeus, pois a Comissão procura controlar o software de IA e seus possíveis riscos à privacidade.
Isso também inclui os Estados Unidos, que também está trabalhando com a UE para criar um novo “padrão mínimo” para IA, pois as preocupações continuam a aumentar sobre os perigos potenciais para a segurança de uma pessoa que está utilizando o chatbot.
Além disso, o fato de o Google impedir que seus funcionários enviem informações confidenciais da empresa e dados confidenciais para seu chatbot de IA ecoa o que a Samsung fez com seus funcionários em maio. O OEM coreano realmente proibiu seus funcionários de usar chatbots de IA, como Bard e ChatGPT, após um acidente com um engenheiro da Samsung. Eles enviaram o código confidencial da empresa para um chatbot de IA que levou ao corte rápido e repentino do software.
Durante o Google I/O 2023, a empresa afirmou que procurará se concentrar em ser “responsável” com seu software de IA. A empresa disse à Reuters que pretende ser transparente sobre as limitações da tecnologia.