O que você precisa saber
- O Google começa a testar o “Genesis”, uma ferramenta de IA projetada para ajudar jornalistas a escrever artigos de notícias.
- Executivos de várias publicações que testemunharam sua demonstração afirmam que foi “perturbador”.
- O Google afirma que seu programa Genesis será responsável e poderá evitar os erros cometidos por modelos generativos de IA.
A pressão por mais ajudantes de IA continua conforme novas informações afirmam que o Google criou e começou a testar uma ferramenta que pode ajudar nas publicações de notícias.
De acordo com o New York Times, a nova ferramenta de IA em questão foi chamada internamente de “Genesis” e é voltada diretamente para jornalistas que escrevem artigos de notícias. Pessoas próximas ao assunto disseram à publicação que o Genesis pode “obter informações – detalhes de eventos atuais, por exemplo – e gerar conteúdo de notícias”. O Google espera que o Genesis possa atuar como um “assistente pessoal”.
Executivos do New York Times, Washington Post e News Corp viram essa nova ferramenta em ação. No entanto, afirma-se que alguns desses executivos descreveram o novo auxiliar de IA do Google como “perturbador”.
Eles acrescentaram que o programa parece “dar como certo” o trabalho que os jornalistas fazem para escrever as notícias.
Jen Crider, porta-voz do Google, declarou: “Em parceria com editores de notícias, especialmente editores menores, estamos nos estágios iniciais de exploração de ideias para potencialmente fornecer ferramentas habilitadas para IA para ajudar seus jornalistas em seu trabalho”. Ela acrescentou: “Simplesmente, essas ferramentas não pretendem e não podem substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos de seus artigos”.
O New York Times reitera as preocupações de várias publicações sobre a utilização de software de IA na redação. Embora alguns já tenham feito isso (até certo ponto), um olhar atento ainda é extremamente necessário, pois essas ferramentas ainda podem fabricar partes críticas de uma história, levando a informações falsas.
Os chatbots de IA, como o ChatGPT da OpenAI e o Bard do Google, vêm com o aviso de que os programas podem “alucinar” informações. Embora, o Google esteja firme em afirmar que seu programa Genesis é “responsável” e pode evitar alguns dos erros cometidos por programas generativos de IA.
O programa mais recente da empresa, NotebookLM, é projetado para ajudar as pessoas a fazer anotações e entender os fatos de várias fontes. Mesmo que os usuários encontrem um auxiliar de IA especificamente voltado para o tópico específico com o qual estão preocupados, a verificação de fatos do bot ainda é fortemente recomendada, pois o programa de IA ainda pode fornecer informações falsas ou até mesmo citar fontes que não são realmente úteis.
Infelizmente, o Google está procurando possivelmente ajudar os que trabalham na indústria de notícias trouxe à tona o passado desagradável da empresa com publicações como as do Canadá. Em junho, o Canadá aprovou uma nova lei que exige que empresas como Google e Meta forneçam visualizações e links para conteúdo em suas próprias plataformas. Em resposta, o Google, assim como a Meta, anunciaram que removeriam todos os links de notícias canadenses para produtos.