Desde o início de AIs generativas como ChatGPT, especialistas e governos tiveram suas preocupações em relação ao desenvolvimento não regulamentado no campo. Agora, em um esforço para resolver essas preocupações, a OpenAI está formando uma equipe dedicada destinada a gerenciar os riscos potenciais associados a IAs superinteligentes.
A equipe, liderada por Ilya Sutskever, co-fundador da OpenAI, juntamente com Jan Leike, membro proeminente da equipe de alinhamento da OpenAI, desenvolverá métodos para lidar com o cenário hipotético em que sistemas superinteligentes de IA superam a inteligência humana e começam a operar de forma autônoma. Embora esse cenário possa parecer absurdo, os especialistas argumentam que IAs superinteligentes podem se tornar realidade na próxima década, ressaltando a importância de desenvolver salvaguardas hoje.
“Atualmente, não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta”, diz a postagem do blog anunciando a decisão.
A equipe de Superalinhamento
A equipe de Superalignment, estabelecida pela OpenAI, terá acesso a aproximadamente 20% dos recursos computacionais atuais, juntamente com cientistas e engenheiros da divisão de alinhamento anterior da OpenAI para desenvolver um “pesquisador de alinhamento automatizado em nível humano”, que auxiliaria principalmente na avaliação de outros Sistemas de IA e conduzindo pesquisas de alinhamento.
“À medida que avançamos nisso, nossos sistemas de IA podem assumir cada vez mais nosso trabalho de alinhamento e, finalmente, conceber, implementar, estudar e desenvolver técnicas de alinhamento melhores do que as que temos agora”, diz outro post do blog.
Um sistema de IA para verificar outros IAs
Embora a proposta de desenvolver um sistema de IA para verificar outras IAs possa parecer incomum, a OpenAI argumenta que os sistemas de IA podem progredir mais rapidamente na pesquisa de alinhamento em comparação com os humanos. Essa abordagem não apenas economizaria tempo para os pesquisadores humanos, mas também permitiria que eles se concentrassem na revisão da pesquisa de alinhamento conduzida pela IA, em vez de gerá-la apenas por conta própria.
No entanto, é importante observar que a OpenAI reconhece os riscos e perigos potenciais associados a essa abordagem. Além disso, a empresa planeja lançar um roteiro delineando sua direção de pesquisa no futuro.