OpenAI e Anthropic Colaboram com o Instituto de Segurança em IA dos EUA para Compartilhar Modelos de IA e Melhorar a Segurança e Supervisão

A OpenAI e a Anthropic firmaram um acordo significativo para compartilhar seus modelos de IA—tanto antes quanto após o lançamento público—com o recém-criado Instituto de Segurança em IA dos EUA. Estabelecida por um decreto presidencial de Biden em 2023, essa agência fornecerá feedback essencial sobre segurança para aprimorar os modelos das empresas. O CEO da OpenAI, Sam Altman, já havia sinalizado essa colaboração no início do mês.

Embora o Instituto de Segurança em IA dos EUA não tenha mencionado outras empresas envolvidas com IA, um porta-voz do Google indicou que a companhia está em conversas com a agência e fornecerá mais detalhes em breve. Vale ressaltar que o Google começou a lançar atualizações para seus modelos de chatbot e gerador de imagens sob o programa Gemini.

“A segurança é essencial para impulsionar inovações tecnológicas revolucionárias. Com esses acordos, esperamos colaborações técnicas com a Anthropic e a OpenAI para aprimorar a segurança em IA”, afirmou Elizabeth Kelly, diretora do Instituto de Segurança em IA dos EUA. “Esses acordos representam apenas o começo de nossos esforços para guiar de forma responsável o futuro da IA.”

O Instituto de Segurança em IA dos EUA opera dentro do Instituto Nacional de Padrões e Tecnologia (NIST) e é responsável por criar diretrizes, testes de referência e melhores práticas para avaliar sistemas de IA potencialmente perigosos. A vice-presidente Kamala Harris destacou, no final de 2023, a dualidade do impacto da IA, ressaltando seu potencial para avanços significativos e riscos sérios, incluindo ataques cibernéticos e bioweapon.

Este acordo inovador é formalizado por meio de um Memorando de Entendimento não vinculativo, permitindo que a agência acesse os principais novos modelos de cada empresa, tanto antes quanto após o lançamento público. O Instituto de Segurança em IA dos EUA caracteriza esses acordos como esforços colaborativos de pesquisa voltados para avaliar capacidades e garantir segurança. Além disso, haverá colaboração com o Instituto de Segurança em IA do Reino Unido.

Enquanto reguladores federais e estaduais buscam estabelecer medidas de segurança em IA, a assembleia estadual da Califórnia recentemente aprovou um projeto de lei sobre segurança em IA (SB 10147). Esta legislação exige testes de segurança para modelos de IA que custam mais de 100 milhões de dólares para desenvolver ou que requerem poder computacional substancial. Também exige que os desenvolvedores de IA implementem "kill switches" para desligar modelos que se tornem “ingovernáveis ou incontroláveis”.

Diferentemente do acordo voluntário com o governo federal, o projeto de lei da Califórnia inclui disposições aplicáveis, permitindo ao procurador-geral do estado tomar medidas legais contra desenvolvedores de IA que não cumprirem as normas, especialmente durante eventos de ameaça crítica. O projeto aguarda uma votação final e a assinatura do governador Gavin Newsom, que tem até 30 de setembro para aprová-lo.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles