O ChatGPT tem sido uma invenção polarizadora, com respostas ao chatbot de inteligência artificial (IA) oscilando entre excitação e medo. Agora, uma nova pesquisa mostra que a desilusão com o ChatGPT pode estar atingindo novos recordes.
De acordo com uma pesquisa da empresa de segurança Malwarebytes, 81% dos entrevistados estão preocupados com os riscos de segurança apresentados pelo ChatGPT. É uma descoberta notável e sugere que as pessoas estão ficando cada vez mais preocupadas com os atos nefastos que o chatbot da OpenAI é aparentemente capaz de realizar.
A Malwarebytes pediu aos assinantes de seu boletim informativo que respondessem à frase “Estou preocupado com os possíveis riscos de segurança e/ou segurança apresentados pelo ChatGPT”, um sentimento com o qual 81% concordaram. Além disso, 51% discordaram da afirmação “ChatGPT e outras ferramentas de IA melhorarão a segurança na Internet”, enquanto apenas 7% concordaram, sugerindo que há uma preocupação generalizada sobre o impacto que o ChatGPT terá na segurança online.
O descontentamento com os chatbots de IA não se limitou a questões de segurança. Apenas 12% dos entrevistados concordaram com a frase “As informações produzidas pelo ChatGPT são precisas”, enquanto 55% das pessoas discordaram. Até 63% das pessoas não confiaram nas respostas do ChatGPT, com apenas 10% achando-as confiáveis.
Gerando malware
Esse tipo de resposta não é totalmente surpreendente, dada a onda de atos maldosos de alto perfil para os quais o ChatGPT tem sido usado nos últimos meses. Vimos instâncias dele sendo implantado para todos os tipos de ações questionáveis, desde a criação de malware até a apresentação de chaves gratuitas do Windows 11 aos usuários.
Em maio de 2023, conversamos com vários especialistas em segurança sobre as ameaças representadas pelo ChatGPT. De acordo com Martin Zugec, Diretor de Soluções Técnicas da Bitdefender, “a qualidade do código de malware produzido por chatbots tende a ser baixa, tornando-o uma opção menos atraente para criadores de malware experientes que podem encontrar melhores exemplos em repositórios de código públicos”.
Ainda assim, isso não diminuiu a ansiedade do público sobre o que o ChatGPT poderia ser usado para fazer. É claro que as pessoas estão preocupadas que mesmo os criadores de malware novatos possam incumbir os chatbots de IA de inventar um vírus devastador ou um ransomware inquebrável, mesmo que alguns especialistas em segurança achem isso improvável.
Pausa no desenvolvimento
Então, o que pode ser feito? Quando o Malwarebytes perguntou a seus leitores o que eles pensavam sobre a afirmação “O trabalho no ChatGPT e outras ferramentas de IA devem ser pausados até que os regulamentos sejam atualizados”, 52% concordaram, enquanto pouco menos de 24% discordaram.
Esta chamada do público se junta a várias cartas abertas de líderes de tecnologia proeminentes para interromper o desenvolvimento do chatbot de IA devido a seus “riscos em larga escala”. Talvez seja hora de os tomadores de decisão começarem a prestar atenção.
Recomendações dos editores