A intersecção entre Inteligência Artificial e política está ganhando mais destaque nos dias de hoje devido às eleições iminentes nos EUA. Não apenas isso, mas também há outras eleições acontecendo ao redor do mundo este ano. Um novo relatório revelou que muitas publicações de direita estão permitindo que seu conteúdo seja utilizado para treinar chatbots de IA.
Para treinar chatbots de IA, as empresas precisam enviar crawlers para diferentes sites. Esses crawlers vasculham os sites e coletam dados de texto. Isso coloca certas empresas em situações delicadas, uma vez que os crawlers podem potencialmente extrair informações protegidas por direitos autorais. Atualmente, a Microsoft e a OpenAI estão enfrentando vários processos judiciais. O New York Times alega que as empresas utilizam artigos protegidos por direitos autorais para treinar seus modelos de IA. Além disso, diversas outras publicações, incluindo o New York Daily News, estão processando as empresas pelo mesmo motivo. Por conta disso, a maioria das publicações opta por bloquear esses crawlers.
A maioria das publicações de direita permite que seus dados sejam utilizados para treinar chatbots de IA
Dados recentes mostram que cerca de 88% das principais publicações de notícias não querem crawlers em seus sites. Portanto, a posição da maioria das publicações sobre esse assunto é bastante clara. No entanto, a Originality AI, uma startup de detecção de IA com sede em Ontário, realizou um estudo em 44 dos principais sites de notícias. O estudo revelou que quase todos os sites também bloqueiam crawlers. No entanto, dentre esses sites, nove eram publicações de direita. Todas as principais publicações de direita optaram por permitir que os crawlers extraiam seus dados. Entre essas publicações estão Fox News, Breitbart e Daily Caller.
Claramente, estudos como esse não devem ser considerados como prova objetiva da agenda de um partido. No entanto, o fato de todas as publicações de direita pesquisadas permitirem crawlers levanta algumas especulações. Algumas fontes argumentaram que isso poderia ser uma estratégia para direcionar a IA para os ideais da direita.
O problema é que os chatbots de IA têm maior probabilidade de reproduzir informações com base nos dados que recebem. Portanto, se um chatbot recebe predominantemente informações de publicações de direita, ele próprio pode acabar disseminando desinformação. No entanto, isso ainda está para ser comprovado.