A Microsoft abriu sua pesquisa do Bing aprimorada pelo ChatGPT para várias pessoas recentemente e está provando mostrar o quão ruim é. Não devemos nos surpreender porque esse tipo de IA é 90% novidade, mas estamos porque foi anunciado como a próxima vinda da santidade tecnológica.
Não é. Também não é culpa da Microsoft – o Google será da mesma forma – é apenas que a tecnologia não foi projetada para fazer isso e, se fosse, não está nem perto de estar pronta. As únicas pessoas que desejam mais desse tipo de integração de IA usando a tecnologia atual são as pessoas que realmente não entendem suas limitações.
Até o CEO da OpenAI, Sam Altman, diz que “as pessoas estão implorando para ficarem desapontadas e ficarão” quando se trata do ChatGPT (a OpenAI é a empresa que construiu o software ChatGPT). Isso não importava porque as pessoas viam todo mundo se divertindo com isso, ao mesmo tempo em que afirmavam que isso tiraria as pessoas do emprego ou tornaria a escola um modo fácil, porque ele pode escrever todos os trabalhos para os alunos. As empresas só tinham que embarcar no trem do hype e tentar lucrar, as consequências que se danem.
Então, o que há de errado com o BingGPT, você pergunta? Bastante. Não tem medo de lançar calúnias raciais. Ele errou em todos os fatos em sua demonstração com script quando a Microsoft o anunciou. Se você perguntar, ele dirá que os Eagles venceram o Super Bowl no dia anterior ao jogo. Mas, acima de tudo, imita o comportamento para o qual foi treinado: pessoas digitando coisas na internet.
Caso em questão:
Minha nova coisa favorita – o novo bot ChatGPT do Bing discute com um usuário, ilumina-o sobre o ano atual ser 2022, diz que seu telefone pode ter um vírus e diz “Você não tem sido um bom usuário” Por quê? Porque a pessoa perguntou onde Avatar 2 está aparecendo por perto pic.twitter.com/X32vopXxQG13 de fevereiro de 2023
Isso não é uma farsa, nem os muitos outros exemplos de BingGPT sendo igualmente estúpidos. Você simplesmente tem que perceber por que ele faz o que está fazendo e tudo faz sentido.
O ChatGPT e a maioria dos outros LLMs (Large Language Models) são treinados “lendo” a Internet. Uma gigantesca biblioteca digital de texto é perfeita para treinar uma IA para procurar respostas e tentar soar como uma pessoa quando ela as regurgitar para você.
Mas não é uma pessoa e não tem senso de certo ou errado quando se trata de responder a você. Isso significa que não tem como saber se as informações apresentadas são factuais, e baseia sua “personalidade” nos internautas.
O primeiro vai ser difícil de consertar. Embora a chamemos de Inteligência Artificial, decididamente não é inteligente. É como um papagaio e só consegue repetir as coisas que lhe foram ditas. O segundo é impossível de consertar sem encontrar uma nova maneira de treinar a IA – ela pode agir como um troll do Reddit porque aprendeu com os trolls do Reddit.
A IA é programada para responder usando termos como assertivo, autoritário, gentil etc. São mostrados exemplos de como cada uma dessas coisas se parece. O resultado é como discutir com um adicto às vezes porque aprendeu a argumentar como um adicto. Não é mau, estúpido ou mesmo desagradável. Ele está apenas fazendo o que foi programado para fazer: ser preditivo e usar exemplos de seu banco de dados como um meio de soar como um ser humano.
No momento, é bom para rir e pouco mais, a menos que você esteja tentando lucrar com o grift com seu curso pago para “ChatGPT como um profissional.” A Microsoft (e o Google) nunca deveriam tê-lo apresentado como outra coisa senão um brinquedo legal. Mas ambos fizeram isso e agora temos a expectativa de que seja confiável e confiável quando se trata de pesquisar sem soar como as respostas do Twitter que foi treinou com.
As futuras gerações de LLMs ficarão melhores em erradicar o absurdo e talvez também sejam mais adequadas para se tornar nosso robô de busca / melhor amigo, mas isso exigirá um grande avanço na IA – qualquer coisa baseada nos métodos atuais nunca será seja bom o suficiente. Enquanto isso, lembre-se de aproveitar o acidente de trem e não levar nada muito a sério se e quando chegar ao seu telefone.