Governos ao redor do mundo estão explorando diligentemente medidas para mitigar os riscos associados à inteligência artificial (IA), mas o ceticismo sobre a viabilidade de um controle efetivo persiste entre os especialistas. O recente AI Safety Summit no Reino Unido reuniu líderes dos EUA, China, União Europeia, Grã-Bretanha e 25 outras nações, resultando em uma abordagem unificada para proteger contra problemas como desinformação e danos intencionais ou acidentais. No entanto, os objetivos ambiciosos delineados no cúpula podem não ser totalmente realistas. "A IA abrange uma ampla gama de tecnologias, desde sistemas especialistas até aprendizado de máquina tradicional e, mais recentemente, IA gerativa", afirmou Kjell Carlsson, chefe da estratégia de ciência de dados da Domino Data Lab. "Essa diversidade dificulta a criação de regulamentações que consigam governar adequadamente todas essas tecnologias e suas inúmeras aplicações."
A Busca pela Segurança
Durante a cúpula, os formuladores de políticas enfatizaram a necessidade crítica de pesquisa contínua em IA, focando na segurança por meio da Declaração de Bletchley. Essa postura colaborativa surge em meio a advertências alarmantes de figuras proeminentes sobre as potenciais ameaças da IA, que variam de riscos existenciais a deslocamento significativo de empregos. Contudo, alguns especialistas argumentam que tais previsões catastróficas são exageradas ou sensacionalizadas. "O apocalipse da IA está rapidamente se tornando indistinguível de uma religião apocalíptica", comentou Yann LeCun, cientista chefe de IA da Meta, no X (anteriormente Twitter).
A Declaração de Bletchley proclamou que “A Inteligência Artificial (IA) apresenta enormes oportunidades globais: tem o potencial de transformar e melhorar o bem-estar humano, a paz e a prosperidade.” A declaração enfatiza a importância de uma abordagem centrada no humano, confiável e responsável para o design e a implementação de tecnologias de IA, instando à colaboração internacional para identificar e entender os riscos da IA com base em evidências científicas. "Muitos riscos decorrentes da IA são inerentemente internacionais, e, portanto, devem ser abordados através da cooperação internacional", apontou a declaração, destacando a responsabilidade compartilhada das nações.
Ações Individuais e Ceticismo
Em resposta a esses esforços globais, governos individuais também estão tomando medidas para regular a IA. Antes da cúpula, o Presidente Biden emitiu uma ordem executiva destinada a promover a colaboração entre agências governamentais, empresas e academia para guiar o desenvolvimento responsável da IA, enquanto protege os empregos e a privacidade dos consumidores. "Minha administração não pode — e não vai — tolerar o uso da IA para prejudicar aqueles que já são frequentemente negados a oportunidade e justiça iguais", afirmou Biden.
No entanto, especialistas como Milan Kordestani, um especialista em regulamentação de IA, expressam preocupações de que as propostas atuais não abordam adequadamente os riscos envolvidos. Ele criticou a natureza vaga da ordem executiva de Biden, que direciona as agências federais a implementar salvaguardas para IA sem detalhar medidas específicas. "As regulamentações propostas não conseguem restringir as ações do setor privado e ignoram como os indivíduos interagirão com as tecnologias de IA", argumentou. Kordestani enfatizou ainda a necessidade de regulamentações que envolvam a comunidade acadêmica nas discussões sobre os riscos da IA.
Kordestani acredita que uma regulamentação eficaz da IA deve ir além de abordar apenas a tecnologia em si. Deve abranger as implicações mais amplas para a sociedade, incluindo mudanças na dinâmica da força de trabalho, redes de distribuição e processos cognitivos. "Os legisladores do final da década de 1980 não podiam prever a necessidade de regular a desinformação nas redes sociais. Da mesma forma, a regulamentação da IA deve evoluir dinamicamente para abordar continuamente os riscos emergentes", afirmou.
Desafios Globais e Questões Éticas
O desafio de regular a IA é evidenciado por seu alcance global. Richard Gardner, CEO da Modulus, comparou a regulamentação da IA ao controle de armas nucleares. "Regular a IA dentro das fronteiras nacionais é complexo, pois nações adversárias podem continuar o desenvolvimento apesar dos acordos internacionais", observou. A possibilidade de desenvolvedores fora de controle criarem produtos de IA não regulamentados adiciona outra camada de dificuldade.
Para questões relacionadas a materiais protegidos por direitos autorais, Gardner defende o uso de arquivos robots.txt—protocolos padrão que instruem os bots de mecanismo de busca sobre a interação com os sites—para governar o treinamento de IA e o uso de dados, garantindo que materiais protegidos sejam excluídos. "Devemos permitir que os inovadores tenham a liberdade de perseguir pesquisa e desenvolvimento", enfatizou, alertando contra medidas regulatórias excessivas que poderiam dificultar a inovação.
Definir padrões éticos para a IA não é uma tarefa simples. As legislações atuais de direitos humanos podem formar a base para desafiar iniciativas de IA, mas há uma necessidade urgente de regulamentações precisas que traduzam esses direitos em diretrizes acionáveis. Rob van der Veer, especialista em segurança de IA e aplicações, destacou: "As regulamentações de privacidade existentes estabelecem limites para os propósitos dos sistemas de IA que usam dados pessoais, mas as regulamentações de segurança muitas vezes ignoram as novas vulnerabilidades introduzidas pela engenharia de IA."
Adaptação a um Cenário em Evolução
Dada a rápida evolução da tecnologia de IA, a regulamentação deve ser um processo contínuo, com avaliações contínuas dos avanços emergentes. Kordestani sugere que isso pode envolver nova legislação ou tratados internacionais que se adaptem a métodos de treinamento e aplicações inovadoras. Os governos devem trabalhar em colaboração com empresas para equilibrar a necessidade de inovação com a segurança no desenvolvimento da IA.
Além disso, envolver acadêmicos nesse discurso é crucial para garantir a segurança pública sob perspectivas morais e éticas, promovendo conversas sobre acesso equitativo, ética dos dados e viés social. O objetivo final é proteger os cidadãos de potenciais ameaças que a IA pode representar em diversos aspectos da vida cotidiana.
Kordestani alerta que atores mal-intencionados podem explorar a IA para fins malignos, ressaltando a necessidade de regulamentações internacionais robustas. "Estabelecer uma abordagem multi-stakeholder envolvendo os setores público, privado e acadêmico é essencial para abordar ameaças atuais e emergentes", afirmou.
Carlsson defende uma abordagem regulatória direcionada que se concentre em casos de uso específicos, em vez de regulamentações genéricas para todas as tecnologias de IA. Por exemplo, abordar o uso indevido de deepfakes para fraudes pode ser mais benéfico do que mandatos abrangentes exigindo marcas d'água em saídas de IA gerativa.
Embora a regulamentação inevitavelmente fique atrás dos últimos desenvolvimentos em IA, é vital criar um framework responsivo que evolua paralelamente à tecnologia, garantindo que considerações humanas permaneçam no centro da inovação em IA e sua integração na sociedade.