OpenAI Lança Treinamento para Modelo de Próxima Geração — GPT-5 Esperado em Mais de 90 Dias

A OpenAI anunciou o início do treinamento para seu mais recente "modelo de fronteira" e criou um novo Comitê de Segurança e Proteção. Este comitê é presidido pelo membro do conselho Bret Taylor, acompanhado de outros integrantes de destaque: Adam D’Angelo, Nicole Seligman e Sam Altman, o atual CEO da OpenAI.

Como mencionado em um post recente no blog, a OpenAI declarou: "Recentemente, a OpenAI iniciou o treinamento de seu próximo modelo de fronteira, visando aprimorar nossas capacidades na jornada rumo à Inteligência Geral Artificial (AGI). Embora nos orgulhemos de entregar modelos líderes na indústria, focados tanto em desempenho quanto em segurança, incentivamos a discussão aberta neste momento crucial."

Início dos 90 Dias de Avaliação

A OpenAI delineou as responsabilidades imediatas do comitê: "A primeira tarefa do Comitê de Segurança e Proteção será avaliar e aprimorar os processos e salvaguardas da OpenAI nos próximos 90 dias. Ao final deste período, o comitê apresentará suas recomendações ao Conselho. Posteriormente, a OpenAI comunicará publicamente as recomendações adotadas, em conformidade com os protocolos de segurança e proteção."

Isso indica que o novo modelo de fronteira—possivelmente chamado GPT-5—não será lançado por pelo menos 90 dias, permitindo que o comitê tenha tempo suficiente para avaliar os processos e proteções existentes. Assim, espera-se que o conselho receba essas recomendações até 26 de agosto de 2024.

Por que 90 Dias?

Embora a OpenAI não tenha especificado a razão desse prazo, 90 dias é uma prática comum de negócios para avaliação e feedback, proporcionando um intervalo equilibrado que não é nem muito curto nem excessivamente longo.

Preocupações com a Independência do Comitê

A formação deste novo comitê gerou críticas, uma vez que seus membros são principalmente executivos da OpenAI, levantando preocupações sobre a independência das avaliações de segurança. A composição do conselho da OpenAI tem sido historicamente controversa. Em um movimento surpreendente em 17 de novembro de 2023, o antigo conselho da holding sem fins lucrativos demitiu Altman, alegando que ele "não era consistentemente franco". Isso resultou em uma forte reação dos funcionários e críticas de grandes investidores, incluindo a Microsoft, que reintegrou Altman quatro dias depois. O conselho anterior enfrentou escrutínio por sua composição exclusivamente masculina e foi subsequentemente reestruturado.

Em 8 de março deste ano, novos membros foram adicionados ao conselho, incluindo Sue Desmond-Hellmann e Fidji Simo, em um esforço para diversificar a liderança.

Desafios e Oportunidades para a OpenAI

Recentemente, a OpenAI lançou seu mais novo modelo de IA, o GPT-4o, mas enfrentou críticas após esse lançamento. A atriz Scarlett Johansson condenou publicamente a empresa por supostamente utilizar uma voz de IA que se assemelhava à sua, ligada ao seu papel no filme "Ela". A OpenAI esclareceu que a voz em questão foi comissionada de forma independente e não tinha a intenção de imitar Johansson.

Além disso, a resignação do cientista-chefe Ilya Sutskever e do co-líder da equipe de superalinhamento levantou preocupações, com o último destacando uma tendência preocupante de priorizar "produtos chamativos" em detrimento da segurança. A equipe de superalinhamento foi, em última instância, dissolvida.

Apesar desses desafios, a OpenAI forjou novas parcerias na mídia convencional para seus dados de treinamento e gerou interesse em seu modelo de geração de vídeo Sora, atraindo a atenção da indústria do entretenimento enquanto busca explorar a IA para maior eficiência na produção.

À medida que a OpenAI navega por essas águas turbulentas, a eficácia do novo Comitê de Segurança e Proteção será crucial para abordar as preocupações das partes interessadas, especialmente entre reguladores e potenciais parceiros comerciais, antes do lançamento do seu próximo modelo.

Most people like

Find AI tools in YBX