De acordo com a Arstechnica (via Platformer), a Microsoft acabou de demitir uma equipe de ética de IA após as demissões em massa dentro da empresa que afetaram 10.000 funcionários. A equipe foi responsável por monitorar e reduzir os danos sociais causados pelos produtos de IA da Microsoft.
A Microsoft vem ganhando as manchetes nos últimos meses por seu investimento inicial na OpenAI, empresa controladora do ChatGPT, e por integrá-la ao seu mecanismo de busca Bing. Embora todas as empresas que incorporam IA em seus produtos e serviços tenham uma equipe para examinar os possíveis perigos associados, a Microsoft acaba de demitir os membros de sua equipe de ética em IA.
A equipe supostamente desenvolveu um “kit de ferramentas de inovação responsável” para a Microsoft que ajudou os engenheiros da empresa a prever e eliminar os riscos gerados pela IA. Ex-membros da equipe dizem que tiveram um papel fundamental na mitigação dos riscos de IA nos produtos da Microsoft.
A equipe de ética da Microsoft AI deixou a empresa após demissões recentes
Em resposta à notícia, a Microsoft anunciou que continua “comprometida em desenvolver produtos e experiências de IA com segurança e responsabilidade, e o faz investindo em pessoas, processos e parcerias que priorizam isso”.
A empresa também diz que se concentrou na construção de seu Escritório de IA Responsável nos últimos seis anos. Essa equipe permanece no local e trabalha com o Comitê Aether e a Estratégia de IA Responsável em Engenharia para mitigar os riscos de IA.
A decisão da Microsoft de demitir uma equipe de ética de IA coincide com o lançamento do modelo de IA mais avançado da OpenAI, o GPT-4. Esse modelo se soma ao Microsoft Bing, o que pode despertar ainda mais interesse no rival do Google.
A Microsoft começou a formar sua equipe de ética em IA em 2017, e a equipe teria 30 membros. O Platformer relata que a empresa posteriormente espalhou os membros em diferentes departamentos, pois a concorrência de IA com o Google estava esquentando. Finalmente, a Microsoft reduziu a equipe para apenas sete pessoas.
Os ex-funcionários também afirmam que a Microsoft não ouviu suas recomendações para ferramentas orientadas por IA, como o Bing Image Creator, que copiava o trabalho dos artistas. Os funcionários demitidos agora estão preocupados com os possíveis perigos que a IA pode expor aos usuários quando não há ninguém na empresa para dizer “não” aos designs potencialmente irresponsáveis.