O governador da Califórnia, Gavin Newsom, recentemente vetou o projeto de lei SB 1047, que muitos acreditavam que poderia impactar significativamente o desenvolvimento de IA no estado e em todo o país. O veto, anunciado no domingo, pode permitir que as empresas de IA demonstrem seu compromisso de proteger proativamente os usuários dos riscos associados à tecnologia.
O SB 1047 tinha como objetivo exigir que as empresas de IA implementassem um "kill switch" para seus modelos, desenvolvessem protocolos de segurança formais e contratassem um auditor de segurança independente antes do início do treinamento dos modelos. A legislação também pretendia conceder acesso a relatórios de auditoria ao procurador-geral da Califórnia, além de autorizar ações judiciais contra desenvolvedores de IA.
Veteranos da indústria expressaram preocupações de que o projeto poderia dificultar o desenvolvimento de IA, e muitos agradeceram a Newsom pelo veto, argumentando que isso ajudaria a proteger o desenvolvimento de código aberto no futuro. Yann Le Cun, cientista-chefe de IA da Meta e crítico do SB 1047, descreveu a decisão como "sensata" na platform X (anteriormente Twitter).
O investidor proeminente em IA, Marc Andreessen, caracterizou o veto de Newsom como uma defesa do “Dinamismo da Califórnia, crescimento econômico e liberdade para desenvolver”. Outros líderes do setor ecoaram sentimentos semelhantes, defendendo regulamentações que não sufocassem desenvolvedores menores.
“O problema central não são os modelos de IA em si; são suas aplicações,” disse Mike Capone, CEO da Qlik. Ele enfatizou a importância de focar no contexto e em casos de uso, em vez de na tecnologia. Capone pediu por estruturas regulatórias que garantam um uso seguro e ético da IA.
Andrew Ng, cofundador da Coursera, também elogiou o veto como “pró-inovação”, argumentando que protegeria iniciativas de código aberto.
No entanto, há vozes de oposição. Dean Ball, especialista em políticas de IA e tecnologia do Mercatus Center da George Mason University, afirmou que o veto é crucial para a Califórnia e para os Estados Unidos, destacando que os limites de tamanho de modelo do projeto estão desatualizados e não consideram modelos mais novos, como os da OpenAI.
Lav Varshney, professor associado na Universidade de Illinois, criticou a proposta por penalizar desenvolvedores originais pelo uso posterior de sua tecnologia. Ele propôs um modelo de responsabilidade compartilhada que permita inovação de forma open-source.
O veto oferece aos desenvolvedores de IA a oportunidade de aprimorar suas políticas e práticas de segurança. Kjell Carlsson, chefe de estratégia de IA da Domino Data Lab, incentivou as empresas a abordar proativamente os riscos da IA e a incorporar uma governança robusta em todo o ciclo de vida da tecnologia.
Navrina Singh, fundadora da plataforma de governança de IA Credo AI, destacou a necessidade de uma compreensão mais profunda sobre quais regulamentações são necessárias, defendendo que a governança deve ser central para a inovação, ao mesmo tempo em que mantém a confiança e a transparência no mercado.
Por outro lado, nem todas as reações foram positivas. Grupos de políticas tecnológicas condenaram o veto, com Nicole Gill, cofundadora da Accountable Tech, afirmando que favorece as grandes empresas de tecnologia em detrimento da segurança pública. Ela alegou que o veto perpetua o status quo, permitindo que grandes empresas lucrem sem responsabilidade.
O AI Policy Institute manifestou preocupação semelhante, com o diretor executivo Daniel Colson criticando a decisão como “mal orientada e imprudente”.
A Califórnia, que abriga a maioria das empresas de IA do país, carece de regulamentações robustas que atendam à demanda pública por supervisão. Atualmente, não existem mandatos federais em torno da IA generativa, sendo a ordem executiva do presidente Biden a mais próxima, a qual delineia um quadro para o uso de IA pelas agências e incentiva empresas a submeter modelos para avaliação de forma voluntária.
A administração Biden também busca monitorar modelos de open-weight para potenciais riscos, destacando as discussões em andamento sobre segurança e regulamentação da IA.