Sam Altman: Próximo Modelo do OpenAI Passará Primeiro por Checagens de Segurança do Governo dos EUA

Diante das crescentes preocupações sobre a segurança de sistemas avançados de inteligência artificial, o CEO da OpenAI, Sam Altman, anunciou que o próximo grande modelo de IA generativa da empresa passará por verificações de segurança com o governo dos EUA antes de seu lançamento.

Em uma publicação no X, Altman informou que a OpenAI está colaborando com o Instituto de Segurança de IA dos EUA—uma agência federal—em um acordo que permite acesso antecipado ao seu novo modelo fundamental. Essa parceria visa avançar na ciência da avaliação de IA e assegurar medidas de segurança robustas.

Compromisso da OpenAI com a Segurança

Altman destacou que a OpenAI revisou suas políticas de não difamação, permitindo que funcionários atuais e antigos expressem preocupações sobre as práticas da empresa livremente. Além disso, a empresa se compromete a dedicar pelo menos 20% de seus recursos computacionais à pesquisa em segurança.

Preocupações dos Senadores dos EUA

A OpenAI se destacou na indústria de IA com produtos como ChatGPT e o recentemente lançado SearchGPT, mas sua estratégia de desenvolvimento acelerado gerou controvérsias. Críticos, incluindo ex-líderes de segurança, acusam a empresa de negligenciar a segurança em favor de um avanço rápido.

Em resposta a essas preocupações, cinco senadores dos EUA recentemente escreveram para Altman, questionando o compromisso da OpenAI com a segurança e abordando alegações de retaliação contra ex-funcionários que levantaram alertas por meio do acordo de não difamação. Os senadores expressaram que as preocupações contínuas com a segurança parecem contradizer o compromisso declarado da OpenAI com o desenvolvimento responsável de IA.

Resposta da Liderança da OpenAI

De acordo com a Bloomberg, o diretor de estratégia da OpenAI, Jason Kwon, respondeu reafirmando a missão da empresa de desenvolver IA que atenda aos melhores interesses da humanidade. Ele ressaltou o compromisso da OpenAI em implementar medidas rigorosas de segurança em seus processos e manter transparência com os colaboradores.

Kwon reiterou os planos de alocar 20% da capacidade computacional para pesquisa em segurança, revogar cláusulas de não difamação para promover um diálogo aberto e colaborar com o Instituto de Segurança de IA em lançamentos seguros de modelos.

Altman também enfatizou esse compromisso no X, embora não tenha fornecido detalhes específicos sobre a colaboração com o Instituto.

Colaborando por uma IA Mais Segura

O Instituto de Segurança de IA, parte do Instituto Nacional de Padrões e Tecnologia (NIST), foi estabelecido durante a Cúpula de Segurança de IA do Reino Unido para abordar os potenciais riscos associados à IA avançada, incluindo preocupações de segurança nacional e pública. Ele colabora com mais de 100 empresas de tecnologia, incluindo Meta, Apple, Amazon, Google e OpenAI, para promover a segurança no desenvolvimento de IA.

É importante ressaltar que a OpenAI não está apenas fazendo parcerias com o governo dos EUA; ela também estabeleceu um acordo similar de revisão de segurança com o governo do Reino Unido.

A Escalada das Preocupações com a Segurança

As preocupações com a segurança aumentaram em maio, quando Ilya Sutskever e Jan Leike, os co-líderes da equipe de superalinhamento da OpenAI focada no desenvolvimento de sistemas de segurança para IA superinteligente, renunciaram abruptamente. Leike criticou abertamente a empresa por priorizar produtos chamativos em detrimento de medidas de segurança essenciais.

Após suas saídas, relatórios indicaram a dissolução da equipe de superalinhamento. Apesar desses reveses, a OpenAI continuou a lançar produtos enquanto reforçava seu compromisso com a segurança por meio de pesquisas internas e a formação de um novo comitê de segurança e proteção. Este comitê, presidido por Bret Taylor (presidente do conselho da OpenAI), conta com membros notáveis, como Adam D’Angelo (CEO da Quora), Nicole Seligman (ex-conselheira geral da Sony Global) e Sam Altman.

Por meio desses esforços, a OpenAI busca abordar as preocupações críticas de segurança em torno das tecnologias de IA avançada, esforçando-se por um equilíbrio entre inovação e desenvolvimento responsável.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles