OpenAI Enfrenta Críticas por Posição Contra a Proposta de Legislação sobre Segurança em IA

Funcionários exonerados da OpenAI, William Saunders e Daniel Kokotajlo, enviaram uma carta ao governador da Califórnia, Gavin Newsom, expressando sua decepção com a posição da empresa contra um projeto de lei estadual que visa implementar diretrizes rigorosas de segurança para o desenvolvimento futuro de IA. Eles escreveram: “Entramos na OpenAI para promover a segurança dos poderosos sistemas de IA que ela desenvolve. No entanto, pedimos demissão porque perdemos a confiança em seu compromisso de desenvolver essas tecnologias de maneira segura, honesta e responsável.”

Os ex-funcionários ressaltam que avanço da IA sem as devidas salvaguardas apresenta “riscos previsíveis de danos catastróficos ao público”, que podem se manifestar como “ciberataques sem precedentes ou até mesmo a criação de armas biológicas.” Eles também criticam o CEO da OpenAI, Sam Altman, por suas visões contraditórias sobre regulamentação. Embora tenha recentemente testemunhado no Congresso defendendo a regulação da IA, eles apontam que ele se opõe à regulamentação real quando ela surge. Uma pesquisa de 2023 da MITRE e Harris Poll destacou preocupações, revelando que apenas 39% dos participantes consideram a tecnologia IA atual como “segura e protegida.”

O projeto de lei em questão, SB-1047, conhecido como Lei de Inovação Segura e Protegida para Modelos de IA de Fronteira, exigiria que os desenvolvedores seguissem padrões rigorosos antes do treinamento de um modelo coberto. Isso inclui a capacidade de iniciar uma paralisação completa e estabelecer um protocolo abrangente de segurança e proteção. A OpenAI teve várias violações de dados e intrusões em sistemas nos últimos anos.

Em resposta, a OpenAI afirmou que discorda veementemente da “má caracterização de nossa posição sobre o SB-1047” pelos pesquisadores. A empresa argumenta que “uma política federal coesa de IA, em vez de uma abordagem fragmentada de leis estaduais distintas, irá aprimorar a inovação e permitir que os EUA definam padrões globais,” conforme declarado pelo Chief Strategy Officer, Jason Kwon, em uma carta ao senador estadual da Califórnia, Scott Wiener.

Saunders e Kokotajlo contrapõem que a defesa da OpenAI por regulamentações federais não é sincera. “Não podemos esperar que o Congresso aja — eles deixaram claro que não estão dispostos a implementar regulamentações significativas sobre IA,” escreveram. “Se o Congresso eventualmente agir, pode anular os esforços legislativos da Califórnia.”

Curiosamente, o projeto recebeu apoio de um defensor inesperado: o CEO da xAI, Elon Musk. No X, ele declarou: “Esta é uma decisão difícil e pode desagradar a alguns, mas, em última análise, acredito que a Califórnia deve aprovar o projeto de lei de segurança da IA, SB-1047. Sou um defensor da regulamentação da IA há mais de 20 anos, assim como regulamos qualquer tecnologia que apresente riscos potenciais.” Musk, que recentemente anunciou planos para “o mais poderoso cluster de treinamento de IA do mundo” em Memphis, Tennessee, considerou anteriormente transferir a sede de suas empresas X (antiga Twitter) e SpaceX para o Texas para evitar o ambiente regulatório da Califórnia.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles