Líderes globais estão reforçando seu compromisso em abordar os riscos e oportunidades da inteligência artificial (IA). Hoje, o Grupo dos Sete (G7) — uma coalizão de grandes nações industriais, incluindo os EUA, UE, Reino Unido, Canadá, França, Alemanha, Itália e Japão — anunciou o Código de Conduta Internacional para Organizações que Desenvolvem Sistemas Avançados de IA. Esta estrutura voluntária é uma extensão do "Processo de IA de Hiroshima", introduzido em maio, e visa promover uma IA segura, protegida e confiável.
Simultaneamente, o presidente dos EUA, Joe Biden, emitiu uma Ordem Executiva sobre “Inteligência Artificial Segura, Protegida e Confiável”, enquanto a União Europeia finaliza o Ato da IA da UE. Além disso, o Secretário-Geral da ONU estabeleceu um novo Conselho Consultivo de Inteligência Artificial, composto por mais de três dezenas de líderes de governos, tecnologia e academia, para apoiar a governança global da IA.
O G7 afirmou: “Enfatizamos as oportunidades inovadoras e o potencial transformador dos sistemas avançados de IA, particularmente modelos fundamentais e IA generativa. No entanto, reconhecemos a necessidade de gerenciar riscos para proteger indivíduos, a sociedade e nossos compromissos compartilhados com o Estado de Direito e valores democráticos, mantendo a humanidade no centro."
Para enfrentar esses desafios, os líderes do G7 defendem uma “governança inclusiva” da IA.
Uma Estrutura Abrangente de 11 Pontos
O G7 lançou uma estrutura de 11 pontos para guiar o desenvolvimento e a implementação responsáveis de sistemas de IA. Eles instam as organizações a aderirem a este código, reconhecendo que cada jurisdição pode adotar abordagens de implementação únicas. Os 11 pontos são:
1. Identificação e Mitigação de Riscos: Implementar medidas durante o desenvolvimento para identificar, avaliar e mitigar riscos, garantindo que os sistemas sejam confiáveis e seguros.
2. Monitoramento Pós-Implementação: Identificar e abordar vulnerabilidades e mau uso por meio de monitoramento contínuo e relatórios transparentes.
3. Relatórios de Transparência: Divulgar publicamente as capacidades, limitações e usos adequados dos sistemas avançados de IA, respaldados por documentação robusta.
4. Compartilhamento Responsável de Informações: Compartilhar abertamente relatórios de avaliação e informações relacionadas a riscos de segurança e segurança.
5. Políticas de Governança: Desenvolver e divulgar estratégias de governança de IA e gerenciamento de riscos em relação a dados pessoais e resultados.
6. Controles de Segurança: Investir em segurança física, cibersegurança e salvaguardas contra ameaças internas.
7. Autenticação de Conteúdo: Implementar métodos confiáveis para autenticação de conteúdo e divulgar claramente as interações com sistemas de IA aos usuários.
8. Mitigação de Riscos Sociais: Priorizar pesquisas destinadas a reduzir riscos sociais, de segurança e proteção.
9. Abordar Desafios Globais: Focar no desenvolvimento da IA para resolver questões globais prementes, como mudanças climáticas, crises de saúde e educação, promovendo a alfabetização digital.
10. Normas Internacionais: Avançar na criação e adoção de normas técnicas internacionais e melhores práticas.
11. Proteções para Dados de Entrada: Garantir robustas proteções para dados pessoais e propriedade intelectual, enfatizando a transparência em relação aos conjuntos de dados de treinamento.
Um Documento Vivo para um Cenário Dinâmico
O G7 sublinhou a importância de manter o Estado de Direito, os direitos humanos, a equidade e os valores democráticos na implementação da IA. Sistemas avançados não devem comprometer princípios democráticos nem representar riscos significativos à segurança e aos direitos.
Para manter sua relevância, o código de conduta evoluirá com base no feedback de governos, academia e indústria, categorizando esses princípios como um documento "não exaustivo" e vivo.
Os líderes do G7 buscam maximizar os benefícios da IA enquanto mitigam riscos para o bem global, especialmente para economias em desenvolvimento, visando reduzir as desigualdades digitais e fomentar a inclusão.
Apoio de Líderes Globais
O código de conduta recebeu apoio de outros oficiais globais, incluindo Věra Jourová, Vice-presidente de Valores e Transparência da Comissão Europeia. "IA generativa confiável, ética, segura e protegida — é isso que precisamos", afirmou Jourová. "Este Código de Conduta permitirá que a UE e nossos aliados liderem na garantia de que a IA traga benefícios enquanto aborda os riscos inerentes."
A presidente da Comissão Europeia, Ursula von der Leyen, também incentivou os desenvolvedores de IA a assinarem e implementarem o Código de Conduta prontamente, ressaltando os benefícios significativos que a IA pode oferecer aos cidadãos e à economia, apesar dos desafios apresentados.