O que você precisa saber
- A UE e o Google estão trabalhando juntos para criar um pacto voluntário de IA.
- Isso vem antes de algumas diretrizes muito mais fortes para a tecnologia de IA para países europeus e não europeus.
- A Comissão Europeia gostaria que os detalhes fossem finalizados antes do final do ano.
Parece que o Google e a UE estão juntando regras que as empresas devem seguir com a tecnologia de IA.
De acordo com a Reuters, a Comissão Europeia e o Google começaram a trabalhar juntos para criar um pacto voluntário de IA antes de algumas diretrizes mais fortes para a tecnologia. O chefe da indústria da UE, Thierry Breton, tem instado os países e legisladores da UE a finalizar os detalhes das regras de IA da Comissão Europeia antes do final do ano.
O pacto de IA proposto e, presumivelmente, as próximas regras afetarão os países europeus e não europeus no futuro. No entanto, como informa a Reuters, nenhum dos grupos iniciou negociações para resolver quaisquer problemas nas restrições propostas para o aumento do software de IA.
Breton teria se encontrado com o CEO da Alphabet, Sundar Pichai, em Bruxelas, Bélgica. “Sundar e eu concordamos que não podemos esperar até que a regulamentação de IA realmente se torne aplicável e trabalhar em conjunto com todos os desenvolvedores de IA para desenvolver um pacto de IA de forma voluntária antes do prazo legal”, afirmou Breton.
Obrigado pelo seu tempo hoje, comissário @ThierryBreton, e pela discussão cuidadosa sobre como podemos trabalhar melhor com a Europa para apoiar uma abordagem responsável da IA.24 de maio de 2023
A UE não está apenas tentando fazer com que os países e empresas da região cumpram, mas também está trabalhando ao lado dos Estados Unidos. Ambas as regiões estão começando a estabelecer algum tipo de “padrão mínimo” na tecnologia de IA antes que qualquer legislação seja apresentada.
Os chatbots e softwares de IA estão surgindo como ervas daninhas, o que criou um nível crescente de preocupação para legisladores e consumidores em relação à velocidade com que está tomando conta de nossas vidas. A Samsung recentemente teve um desentendimento com o ChatGPT da OpenAI e um acidente com um engenheiro que acidentalmente enviou um código-fonte confidencial da empresa para o chatbot AI. Isso levou rapidamente à proibição de todos os funcionários de usar software de IA generativa em dispositivos de propriedade da empresa e em seus dispositivos pessoais (se houver documentos da empresa) em nome da segurança.
Enquanto isso, no Canadá, mais autoridades de privacidade federais e provinciais começaram a unir forças para iniciar uma investigação sobre a OpenAI e seu software ChatGPT. De acordo com a CBC, ambas as partes alegaram que a OpenAI coletou, usou e divulgou dados pessoais ilegalmente. A investigação buscará descobrir se a OpenAI recebeu ou não o consentimento dos usuários antes de pegar e usar seus dados pessoais e se houve alguma intenção maliciosa por trás do ato.
Além disso, o evento I/O 2023 do Google estava repleto dos novos esforços da empresa em IA para os usuários. Um dos tópicos que a empresa levantou foi como está focando em ser mais “responsável” com seu software de IA. O Google queria levar em consideração não apenas a imagem por trás de seus produtos, mas também como ele seguirá em frente e lidará com as informações – especialmente as desinformações.
O Google afirmou que parte de seu desenvolvimento de IA significa encontrar maneiras de maximizar “benefícios positivos para a sociedade enquanto enfrenta os desafios” de acordo com seus Princípios de IA firmemente enraizados na responsabilidade.