O que você precisa saber
- O Google, juntamente com outras seis empresas, se comprometeu voluntariamente a promover práticas de segurança de IA.
- O compromisso das empresas será estendido, conquistando a confiança do público, segurança mais forte e relatórios públicos sobre seus sistemas.
- Isso ecoa uma colaboração semelhante que o Google tem com a UE, chamada de “Pacto de IA”.
O Google anuncia que, juntamente com outras seis empresas líderes em IA, está se unindo para promover “práticas responsáveis no desenvolvimento de inteligência artificial”. Google, Amazon, Anthropic, Inflection, Meta, Microsoft e OpenAI se comprometeram voluntariamente com essas novas práticas avançadas e se reunirão com a administração Biden-Harris na Casa Branca em 21 de julho.
Um dos maiores compromissos, sem dúvida, é construir confiança na IA ou, como afirmou a Casa Branca em seu informativo, “ganhar a confiança do público”. O Google cita os Princípios de IA que criou em 2018 para ajudar as pessoas a entender e se sentir à vontade com seu software de inteligência artificial.
No entanto, como afirma a administração Biden-Harris, as empresas devem se comprometer a desenvolver maneiras de informar aos usuários quando o conteúdo é gerado por IA. Algumas maneiras incluem marcas d’água, metadados e outras ferramentas para permitir que os usuários saibam de onde algo, como uma imagem, se origina.
Essas empresas também têm a tarefa de pesquisar os riscos que os sistemas de IA representam para a sociedade, como “preconceito prejudicial, discriminação e proteção da privacidade”.
Em seguida, as empresas devem relatar continuamente sobre seus sistemas de IA publicamente para que todos, incluindo o governo e outros no setor, possam entender onde estão em um nível de segurança e fator de risco social. O desenvolvimento de IA para ajudar a resolver problemas de saúde e mudanças ambientais está incluído na lista de compromissos.
A segurança é outro tópico importante e, como afirma o informativo da Casa Branca, todas as sete empresas devem investir em medidas de segurança cibernética e “protocolos de ameaças internas” para proteger pesos de modelos proprietários e inéditos. Este último foi considerado o mais importante ao desenvolver os protocolos de segurança corretos para sistemas de IA.
As empresas também são obrigadas a facilitar a descoberta de terceiros e relatar quaisquer vulnerabilidades em seus sistemas.
Tudo isso deve ser feito antes que as empresas possam lançar novos sistemas de IA ao público, afirma a Casa Branca. As sete empresas precisam realizar testes de segurança internos e externos de seus sistemas de IA antes do lançamento. Além disso, as informações precisam ser compartilhadas com a indústria, o governo, a sociedade civil e a academia sobre as melhores práticas de segurança e outras ameaças aos seus sistemas.
Segurança e conforto com inteligência artificial são necessários, pois empresas como o Google alertaram seus funcionários para terem cuidado ao usar chatbots de IA por questões de segurança. Essa não é a primeira vez que a Samsung se assustou quando um engenheiro enviou acidentalmente um código confidencial da empresa para um chatbot de IA.
Por fim, o compromisso voluntário do Google em promover práticas seguras de IA, juntamente com vários outros, ocorre dois meses depois de se juntar à UE para um acordo semelhante. A empresa colaborou para criar o “pacto de IA”, um novo conjunto de diretrizes que as empresas da região foram instadas a concordar voluntariamente em controlar o software de IA antes que vá longe demais.