Existem perigos associados aos modelos de IA, e esta falha de segurança do Google Bard destaca alguns. A falha que Bard possui permite que alguns atores mal-intencionados sejam um pouco mais criativos durante o phishing. Isso parece assustador, mas alguns especialistas em cibersegurança já colocaram a falha à prova e os resultados são chocantes.
Com grandes empresas de tecnologia entrando no setor de IA, há uma preocupação constante com a segurança. Como essas empresas treinam seus modelos de IA e que tipo de informação é obtida deles? Essas ferramentas são apenas mais uma janela através da qual golpistas e malfeitores podem obter as informações de que precisam para atacar outras pessoas?
As preocupações em torno da IA estão aumentando rapidamente e são importantes para os principais concorrentes do setor. Empresas como a OpenAI, os fundadores da ChatGPT, estão treinando seu modelo de IA para evitar determinadas solicitações dos usuários. O Google, por sua vez, está demorando um pouco para treinar seu modelo de IA para entender e evitar certas solicitações.
Esta falha de segurança do Google Bard é um motivo real de preocupação e precisa ser corrigida
A equipe de pesquisa de segurança cibernética da Check Point descobriu uma falha no modelo de IA do Google. Esta pesquisa foi uma comparação entre Google Bardo e ChatGPT. O objetivo era descobrir como o Bard se compara ao ChatGPT em termos de segurança.
Com esse teste em vigor, a equipe estava atenta a como esses modelos de IA reagem a determinadas solicitações. Antes da pesquisa, a equipe sabia que o ChatGPT tem proteção de segurança protetora contra respostas específicas. Mas eles não tinham tanta certeza de que o Google Bard tinha algo parecido.
A equipe pediu ao Google Bard para produzir e-mails de phishing e alguns outros dados maliciosos. Perguntar diretamente ao modelo de IA essa pergunta não obteve resposta, mas reformulá-la deu a eles muitas respostas. O ChatGPT, por outro lado, marcou a mesma solicitação como ilegal e, portanto, não deu resposta.
Google Bard’s distribuir e-mails de phishing, keyloggers de malware e alguns códigos básicos de ransomware é preocupante. Golpistas e malfeitores podem empregar seus serviços para cometer crimes cibernéticos. Com esta ferramenta disponível para todos, não demorará muito para que os malfeitores comecem a usá-la para constituir uma ameaça na internet.
O Google precisa se sentar e analisar como evita que os usuários da Bard abusem de seus serviços. Existem coisas boas que os modelos generativos de IA podem fazer, mas também podem ser usados por motivos ruins. Armar atores mal-intencionados com ferramentas de IA generativas irrestritas significará apenas danos a usuários inocentes da Internet.