Lançamento do Llama 3.2 da Meta: Competindo com OpenAI e Anthropic

Llama 3.2 da Meta: Uma Nova Era em IA Multimodal

Hoje, durante o Meta Connect, a Meta apresentou o Llama 3.2, seu primeiro grande modelo de visão que integra a compreensão de imagens e texto. O Llama 3.2 conta com modelos de tamanhos pequeno e médio (11B e 90B parâmetros) e modelos mais leves apenas de texto (1B e 3B parâmetros), otimizados para dispositivos móveis e de borda.

"This is our first open-source multimodal model," declarou o CEO da Meta, Mark Zuckerberg, durante sua apresentação. "Ele permitirá uma ampla gama de aplicações que requerem compreensão visual." Semelhante ao seu antecessor, o Llama 3.2 oferece um extenso contexto de 128.000 tokens, permitindo a entrada de textos substanciais, equivalente a centenas de páginas de livros. Contagens de parâmetros mais altas geralmente melhoram a precisão do modelo e sua capacidade de lidar com tarefas complexas.

A Meta também introduziu distribuições oficiais do Llama Stack, permitindo que desenvolvedores utilizem esses modelos em diversos ambientes, como local, em dispositivos, na nuvem e em configurações de nó único. “O código aberto é — e continuará sendo — a opção mais econômica, personalizável e confiável disponível”, afirmou Zuckerberg. “Chegamos a um ponto de inflexão na indústria; isso está se tornando o padrão, semelhante ao Linux na IA.”

Competindo com Claude e GPT-4o

Pouco mais de dois meses após o lançamento do Llama 3.1, a Meta relata um crescimento dez vezes maior em suas capacidades. “O Llama continua avançando rapidamente”, observou Zuckerberg. “Ele está desbloqueando uma gama crescente de funcionalidades.” Os dois maiores modelos do Llama 3.2 (11B e 90B) agora suportam usabilidade de imagem, permitindo interpretar gráficos, gerar legendas e identificar objetos a partir de instruções em linguagem natural. Por exemplo, usuários podem perguntar sobre o mês de pico de vendas de uma empresa, e o modelo pode deduzir uma resposta utilizando gráficos disponíveis. Os modelos maiores podem extrair informações de imagens para criar legendas detalhadas.

Os modelos mais leves facilitam o desenvolvimento de aplicativos personalizados para uso privado, como resumir comunicações recentes ou gerenciar convites de calendário para reuniões de acompanhamento. A Meta afirma que o Llama 3.2 é competitivo com o Claude 3 Haiku da Anthropic e o GPT-4o-mini da OpenAI em tarefas de reconhecimento de imagem e compreensão visual. Notavelmente, ele supera concorrentes como o Gemma e o Phi 3.5-mini em seguir instruções, resumir, utilizar ferramentas e reescrever comandos.

Os modelos do Llama 3.2 estão disponíveis para download em llama.com, Hugging Face e nas plataformas parceiras da Meta.

Expansão da IA Empresarial e Recursos Engajadores para Consumidores

A Meta também está aprimorando sua IA empresarial, permitindo que empresas utilizem anúncios de clique para mensagem no WhatsApp e Messenger. Isso inclui desenvolver agentes capazes de responder a perguntas comuns, discutir detalhes de produtos e concluir compras. A empresa reporta que mais de 1 milhão de anunciantes estão utilizando suas ferramentas de IA generativa, resultando em 15 milhões de anúncios criados no último mês. Em média, campanhas publicitárias que usam a IA generativa da Meta apresentam um aumento de 11% nas taxas de cliques e um crescimento de 7,6% nas taxas de conversão.

Para os consumidores, a Meta AI está ganhando uma “voz”, incluindo várias vozes de celebridades, como Dame Judi Dench, John Cena, Keegan-Michael Key, Kristen Bell e Awkwafina. “Acredito que a voz será uma forma mais natural de interagir com a IA do que o texto”, declarou Zuckerberg. “É simplesmente muito melhor.”

O modelo pode responder a comandos de voz ou texto em vozes de celebridades em plataformas como WhatsApp, Messenger, Facebook e Instagram. A Meta AI também responderá a fotos compartilhadas, com a capacidade de editar imagens adicionando ou modificando fundos. Além disso, a Meta está experimentando novas ferramentas de tradução, dublagem de vídeos e sincronização labial para a Meta AI.

Zuckerberg reforçou que a Meta AI está a caminho de se tornar o assistente mais utilizado globalmente, afirmando: “Provavelmente já está lá.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles