É a próxima fronteira em tecnologia; é o maior marco humano desde a internet. Estamos falando de IA (inteligência artificial). A IA está conosco há muito tempo, sempre mil passos atrás do que veríamos nos filmes, mas deu um grande salto em frente com a introdução da IA generativa. É uma tecnologia incrível, não podemos discordar disso, mas não é perfeita. Existem alguns grandes problemas com a IA, e os maiores deles ou a tornam uma ameaça ou a impedem de ser verdadeiramente a próxima maior conquista humana.
Isto não deveria vir como surpresa; que grande tecnologia existe sem seus problemas? O que acontece com a IA, especialmente a IA generativa, é que ela tem muito potencial. Há muito potencial para o bem, mas também há potencial para o mal. Estas questões realçam o potencial de mal para os indivíduos preocupados entre nós.
Agora, este artigo se aplica à IA em geral, mas haverá um foco na IA generativa. Esta é a tecnologia que, de certa forma, materializou medos persistentes que tivemos durante anos – toda a catástrofe da SkyNet. Ora, apenas alguns anos atrás, a ideia de algo como ChatGPT parecia algo que você veria em um programa de Star Trek ou em um filme do MCU. Agora, está aqui; sem fumaça e espelhos de Hollywood.
Alucinações
Este artigo destacará algumas das questões éticas que envolvem a IA, mas começaremos com uma questão técnica. Na maioria das vezes, quando você usa IA, suas respostas serão baseadas em algum tipo de conteúdo existente. O LLM utilizará informações já armazenadas nele. Se o ChatGPT lhe disser a distância entre a Terra e o Sol, ele teria que aprender essa informação de algum lugar.
No entanto, haverá momentos em que o chatbot lhe dará uma resposta que foi criada do nada. Imagine se o ChatGPT lhe dissesse que a Terra está a 160 quilômetros do sol. Basicamente, inventou ou alucinou essa resposta. Este é um grande problema da tecnologia, e a maioria das pessoas não percebe o quão grande ela pode ser. Claro, um chatbot dando uma resposta errada em uma tarefa escolar é inconveniente, mas pense no que as pessoas desejam usar a IA em um futuro próximo.
As empresas querem usar IA para digitalizar e resumir documentos de pacientes em hospitais, só para citar um. Você pode ver como isso pode ser um desastre. As pessoas planejam usar IA em algumas aplicações essenciais de negócios e saúde. Você precisa que as informações apresentadas sejam 100% precisas.
Fenômeno
As alucinações não são tanto um problema, mas um fenômeno. Este problema não está afetando apenas o ChatGPT; está afetando quase todos os principais chatbots que existem. Sabemos como Bard, do Google, teve alucinações famosas sobre o telescópio James Webb durante sua inauguração.
Portanto, não estamos falando apenas do erro de uma empresa, estamos falando do que parece ser um evento que ocorre naturalmente na IA generativa. As alucinações são um dos maiores problemas da IA e serão uma pedra no sapato da IA por algum tempo.
O impacto na indústria da educação
No momento em que descobrimos que os chatbots podiam gerar redações, o coração de todo educador deu um pulo. Chatbots como Google, ChatGPT e a maioria dos outros chatbots baseados em ChatGPT têm a capacidade de elaborar uma redação acadêmica de nível universitário em questão de segundos. Horas de pesquisa e escrita são reduzidas ao tempo que leva para tomar um gole de café.
Como você pode imaginar, muitos alunos utilizaram intensamente essa tecnologia para progredir rapidamente em seus cursos. O que piora as coisas é que o ChatGPT foi lançado quando os alunos estavam com o peito cheio de aulas. Assim, os professores não podiam fazer alterações nos seus programas. Podemos apostar que centenas de alunos conseguiram acelerar as provas finais com a ajuda do professor ChatGPT.
Isto, é claro, representa um grande problema para a indústria da educação. Não só os alunos conseguem trapacear em algumas aulas, mas também os professores, conselhos escolares e outras entidades estão confusos tentando descobrir como lidar com essa situação. Alguns professores tentaram usar detectores de conteúdo de IA, mas a IA generativa avançou ao ponto de ser ineficaz. A única maneira de saber se um aluno gerou sua redação é pegá-lo em flagrante ou quebrá-lo durante um interrogatório severo.
À medida que a IA generativa se torna mais inteligente e acessível, podemos ver grande parte da geração mais jovem a tornar-se dependente da tecnologia. Precisaremos ver como isso afetará o setor educacional nos próximos anos.
O impacto nos criadores
Artistas, compositores e escritores têm o direito de temer a IA generativa. Quando DALL-E chegou às prateleiras pela primeira vez, os artistas estremeceram um pouco. Claro, naqueles primeiros dias, as imagens de IA eram pesadelos estranhos e confusos que ninguém conseguia levar a sério (ah, aquelas mãos desajeitadas!). No entanto, a tecnologia melhorou e agora é difícil distinguir entre o que é gerado pela IA ou o que é criado por um ser humano.
Isso vale para outras formas de arte também. Há uma música com The Weekend e Drake que foi considerada para um Emmy; é gerado por IA. Há uma tonelada de livros fascinantes e informativos na loja Amazon Kindle; eles são gerados por IA. Existem vídeos com ótimas dublagens; como você pode imaginar, são vozes geradas por IA.
À medida que esta tecnologia melhora, indivíduos talentosos e bem treinados terão dificuldade em encontrar trabalho para o seu artesanato. “Por que pagar US$ 200 a um artista quando posso gerá-lo no DALL-E de graça?” “Por que pagar um compositor quando posso gerar apenas algumas faixas para o meu videogame?”
Esta é a mentalidade que desviará dinheiro e empregos das mãos dos criadores. Isso não afetará os profissionais da indústria ainda. Não se preocupe, lenda da trilha sonora Danny Elfman, a próxima grande produção de Hollywood não vai deixar você passar pela IA. No entanto, os trabalhos de nível inferior que seriam realizados por criadores de nível inferior serão atribuídos à IA. Não há como dizer que efeito isso terá sobre os criadores jovens e em ascensão que estão tentando fazer carreira por conta própria.
A falta de regulamentação
Certifique-se de ter seu chapéu de 6 tiros e 10 galões, porque é o oeste selvagem lá fora! No momento, não existem regulamentações sólidas para a tecnologia de IA. Os órgãos governamentais ainda estão tentando descobrir se a coleta de dados para treinar LLMs conta como violação de direitos autorais.
Um artista pode processar se alguém usar sua imagem? Bem, a IA foi treinada usando conteúdo acessível ao público. Os chatbots são treinados por meio de postagens nas redes sociais. Os criadores das postagens têm direito às suas postagens? Eles não tinham direitos autorais sobre eles, então deveriam ser jogos gratuitos… certo? Um trabalho gerado por IA pode ser indicado para um prêmio? Os livros gerados pela IA deveriam ser banidos, mesmo que as informações que contêm sejam precisas?
Estes são os tipos de questões que vários órgãos governamentais estão tentando responder. No momento em que este artigo foi escrito, a mania da IA generativa já tinha cerca de 10 meses. Pode parecer muito tempo, mas estamos falando de organizações governamentais e legisladores. Leva muito tempo para nossos pais políticos refletirem sobre todos os detalhes e elaborarem alguns regulamentos; 10 meses não é tempo suficiente.
Megacorporações gananciosas
Um dos maiores problemas da IA tem a ver com as pessoas que a desenvolvem. Não há nada que impeça as grandes empresas de levarem longe demais a sua tecnologia de IA. Não nos enganemos, quando as grandes empresas de tecnologia falam em trazer inovações em IA para ajudar o mundo, na maioria das vezes, é uma máscara que esconde os seus verdadeiros motivos. Esta não é uma corrida para melhorar a humanidade, é um esforço para deixar os investidores felizes.
A IA é apenas mais um campo de batalha da indústria, e estas empresas estão a lutar para se manterem à frente da situação e protegerem os seus lucros. Se a IA da Meta tiver um desempenho melhor no mercado, serão dezenas de bilhões de dólares perdidos para o Google, OpenAI, Microsoft, etc. Se a IA do Google tiver um desempenho melhor, isso significará o mesmo para as outras empresas. Portanto, não há nada que impeça as empresas de levarem a IA longe demais para proteger seus lucros, pois elas acabam prejudicando o usuário final.
Golpistas, ladrões e outros canalhas
A IA é uma ferramenta como um martelo; pode ajudar a construir estruturas incríveis… mas também pode matar. Tudo depende da pessoa que o empunha. Há quem use a IA por motivos construtivos ou apenas para diversão, mas há quem a use para seus planos tortuosos.
No momento, em toda a Internet, existem vários sites criados total ou parcialmente com IA. São fazendas de conteúdo que divulgam artigos gerados por IA para obter receita publicitária. Existem golpes na Internet que usam textos publicitários criados com IA e imagens criadas por IA. Os chatbots podem gerar código; nada impede as pessoas de usar isso para gerar malware prejudicial.
Há uma frota de canalhas por aí que só estão interessados em usar IA para seu próprio ganho ou espalhar danos. Eles existiam antes da explosão da IA, claro, mas a IA basicamente lhes deu um enorme aumento de poder. Infelizmente, eles estão tornando a Internet um lugar muito mais perigoso para se estar.
Os maiores problemas da IA são impedi-la
Ainda há um longo caminho pela frente quando se trata de segurança de IA. Se a IA vai nos impulsionar como as empresas afirmam, então devemos encontrar uma solução para esses problemas. Contudo, alguns destes problemas não dependem das empresas de IA; alguns deles dependem das pessoas que usam a tecnologia de IA. Só o tempo dirá até onde a IA pode nos levar com essas questões.