Em um surpreendente Instagram Reel hoje, o CEO da Meta, Mark Zuckerberg, anunciou que a empresa está desenvolvendo inteligência geral artificial (AGI) de código aberto. Zuckerberg compartilhou que a Meta está consolidando suas equipes de pesquisa em IA—FAIR e GenAI—para alcançar o objetivo de criar uma inteligência geral completa, destacando a acessibilidade do código aberto.
"Nossa visão de longo prazo é construir inteligência geral, abrir o código de forma responsável e torná-la amplamente disponível para que todos possam se beneficiar," escreveu Zuckerberg na legenda. No vídeo, ele explicou: "Está claro que a próxima geração de serviços requer inteligência geral completa—incluindo assistentes de IA de alto nível, ferramentas para criadores e soluções para empresas. Isso exige avanços em vários domínios da IA, desde raciocínio e planejamento até codificação e memória cognitiva."
Zuckerberg também destacou o treinamento do Llama 3 e a vasta infraestrutura de computação em desenvolvimento, que inclui 350.000 GPUs Nvidia H100 esperadas para o final do ano. Ele discutiu o futuro interconectado da IA e do metaverso, afirmando: "À medida que as pessoas interagem com a IA ao longo do dia, novos dispositivos como óculos inteligentes serão essenciais. Esses óculos aprimorarão a interação ao permitir que a IA perceba o que você vê e ouve, garantindo disponibilidade constante para assistência."
Esse anúncio segue os comentários recentes do CEO da OpenAI, Sam Altman, no Fórum Econômico Mundial em Davos, Suíça, onde ele moderou sua posição sobre os riscos existenciais da AGI. Enquanto isso, o cientista-chefe da Meta, Yann LeCun, expressou dúvidas sobre a chegada iminente da AGI, sugerindo que ela pode não se concretizar nos próximos cinco anos.
A perspectiva da AGI de código aberto da Meta surge logo após relatórios que indicam que o Llama e a IA de código aberto "venceram" em 2023, alimentando debates em andamento sobre os méritos da IA de código aberto em comparação com a de código fechado. Este diálogo é particularmente relevante após um recente artigo da Anthropic que alertou sobre os riscos potenciais associados a modelos abertos, implicando a existência de 'agentes adormecidos' ocultos.