O Federal Bureau of Investigation (FBI) diz que os hackers usam IA para escrever malware. A agência declarou que as ferramentas de IA tornaram muito mais fácil para os malfeitores escrever e espalhar programas maliciosos ou e-mails de phishing.
Cada ferramenta útil pode se tornar uma arma perigosa se cair nas mãos das pessoas erradas, incluindo a IA. A inteligência artificial pode ser usada em vários campos e para diferentes fins, como saúde ou aumento da produtividade. No entanto, o FBI agora está reclamando sobre modelos de IA gratuitos e personalizáveis de código aberto que estão escrevendo códigos maliciosos para hackers.
Os hackers geralmente precisam de um alto nível de conhecimento de programação para criar malware forte e difícil de detectar. Por outro lado, as ferramentas de IA atualmente disponíveis permitem que quase todos criem um programa (ou malware) sem ter nenhum conhecimento de programação. A IA generativa colocada no centro dessas ferramentas pode escrever ou depurar os códigos como um programador experiente.
FBI diz que IA está criando malware para hackers
O alerta da agência ocorre quando o cibercrime continua a aumentar e os hackers se tornam cada vez mais sofisticados em seus métodos. O malware criado pela IA geralmente é difícil de detectar e mais difícil de excluir depois de infectar um sistema. A IA também torna mais fácil para os hackers lançar ataques em uma escala maior, visando vários sistemas simultaneamente.
Deepfakes são outra ferramenta que os fraudadores usam a seu favor. Deepfakes são filmes ou fotos que foram aprimorados artificialmente para torná-los realistas. Eles podem ser usados para imitar outras pessoas online ou espalhar informações enganosas como propaganda ou notícias falsas. Dessa forma, uma vítima pode ser persuadida a realizar ações específicas, como fazer um pagamento ou enviar informações privadas.
Como a IA está crescendo rapidamente, muitos governos ainda estão lutando para projetar e implementar medidas de proteção contra possíveis danos. A Casa Branca pediu recentemente um programa de “compromisso voluntário” para mitigar os riscos da IA com a ajuda de grandes empresas de tecnologia como Google, Amazon, Meta, etc.