A Lei de IA da UE, que promete ser um marco legislativo, enfrenta incertezas devido a disputas sobre a regulamentação de modelos fundamentais — modelos de IA em larga escala como o GPT-4, Claude e Llama.
Recentemente, os governos francês, alemão e italiano defenderam uma regulamentação limitada para esses modelos, uma ação atribuída a um forte lobby de empresas de Big Tech e de código aberto, como a Mistral, assessorada por Cédric O, ex-ministro digital da França. Críticos afirmam que essa abordagem pode comprometer a integridade da Lei de IA da UE.
Os defensores de uma regulamentação mais rigorosa reagiram com veemência. Uma coalizão de especialistas em IA da Alemanha e internacionais, incluindo os renomados pesquisadores Geoffrey Hinton e Yoshua Bengio, publicou uma carta aberta pedindo ao governo alemão que não isentasse esses modelos da Lei de IA da UE, alertando que tal isenção poderia comprometer a segurança pública e prejudicar empresas europeias.
Além disso, especialistas franceses contribuíram com um artigo conjunto no Le Monde, expressando forte oposição às tentativas de Big Tech de diluir essa legislação crucial em suas fases finais.
Por que, então, a Lei de IA da UE enfrenta resistência nesta fase avançada? Mais de dois anos e meio se passaram desde que o rascunho inicial foi proposto, e após extensas negociações, a Lei agora está na fase de trilogo, onde os legisladores da UE finalizam os detalhes do projeto. A Comissão Europeia espera promulgar a Lei de IA até o final de 2023, antes das eleições do Parlamento Europeu em 2024.
A recente turbulência na OpenAI oferece uma visão das dinâmicas internas que influenciam essas discussões. Após uma drástica mudança na diretoria, onde o CEO Sam Altman foi brevemente demitido, as opiniões contrastantes dentro da organização refletiram o debate mais amplo sobre a regulamentação da IA na UE. Alguns membros do conselho priorizaram oportunidades comerciais e o desenvolvimento de inteligência artificial geral (AGI), enquanto outros expressaram preocupações profundas sobre as implicações de segurança da tecnologia de alto risco.
Os membros do conselho que advogaram pela cautela estavam ligados ao movimento do Altruísmo Eficaz, que também tem sido influente no lobby em torno da Lei de IA da UE. Relatórios indicam que essa comunidade destinou recursos substanciais para aumentar a conscientização sobre os riscos existenciais representados pela IA.
Por outro lado, Big Tech, incluindo a OpenAI, tem atuado ativamente contra regulamentações rigorosas. Sam Altman, ao defender publicamente a governança global da IA, buscou enfraquecer determinadas disposições das propostas da UE para reduzir o peso da conformidade sobre sua empresa.
Gary Marcus destacou esses desenvolvimentos, argumentando que o caos na OpenAI enfatiza a necessidade de uma supervisão rigorosa, em vez de permitir que a Big Tech se autorregule. Ele apoia a abordagem em camadas do Parlamento Europeu, afirmando que reduzir componentes chave da Lei de IA da UE a um exercício de autorregulação teria consequências globais graves.
Brando Benifei, um dos principais negociadores do Parlamento Europeu, ecoou esse sentimento, afirmando que a imprevisibilidade das ações de Altman ilustra os perigos de confiar em acordos voluntários da indústria.
A Lei de IA da UE realmente corre risco? De acordo com o consultor alemão Benedikt Kohn, as negociações em andamento são cruciais, com o próximo trilogo agendado para 6 de dezembro. Ele alerta que a falha em alcançar um acordo pode comprometer severamente as aspirações da UE como líder global em regulamentação de IA.