CEO da AI21 Afirma que Transformadores São Inadequados para Agentes de IA Devido a Problemas de Propagação de Erros

À medida que organizações empresariais buscam um futuro autônomo, a arquitetura dos modelos de IA representa um desafio significativo. Ori Goshen, CEO da AI21, enfatiza a necessidade de arquiteturas de modelos alternativas para criar agentes de IA mais eficientes, já que os modelos Transformer atuais apresentam limitações que dificultam a criação de um ecossistema multiagente.

Em uma entrevista recente, Goshen destacou as desvantagens da arquitetura Transformer: sua intensidade computacional aumenta com o manuseio de contextos mais longos, diminuindo o desempenho e elevando os custos. "Os agentes requerem múltiplas chamadas para LLMs com contextos extensos a cada etapa, tornando o Transformer um gargalo," observou.

A AI21 defende uma abordagem mais flexível em relação à arquitetura dos modelos, propondo que, embora os Transformers possam ser uma opção viável, não devem ser a escolha padrão. A arquitetura JAMBA—abreviação de Joint Attention and Mamba—aproveita a estrutura Mamba desenvolvida por pesquisadores de Princeton e Carnegie Mellon para melhorar as velocidades de inferência e expandir as capacidades de contexto.

Goshen explica que os modelos baseados em Mamba aprimoram o desempenho da memória, facilitando uma funcionalidade melhor para os agentes, especialmente aqueles que se integram a outros modelos. O recente aumento na popularidade dos agentes de IA pode ser amplamente atribuído às limitações dos LLMs construídos com Transformers.

"A principal razão pela qual os agentes ainda estão em desenvolvimento—e não alcançaram produção em larga escala—é a confiabilidade. Como os LLMs são inerentemente estocásticos, medidas adicionais devem ser implementadas para garantir a confiabilidade necessária," afirmou Goshen.

Os agentes de IA emergiram como uma tendência de destaque na IA empresarial este ano, com várias empresas lançando novas plataformas para desenvolvimento de agentes. Por exemplo, a ServiceNow atualizou sua plataforma Now Assist AI para incluir uma biblioteca de agentes de IA, enquanto a Salesforce apresentou seu Agentforce. Enquanto isso, o Slack está permitindo que os usuários integrem agentes de várias empresas, incluindo Salesforce, Cohere e Adobe.

Goshen acredita que, com a combinação certa de modelos e arquiteturas, o interesse em agentes de IA vai aumentar. "Os casos de uso atuais, como funções de perguntas e respostas em chatbots, se assemelham principalmente a buscas aprimoradas. A verdadeira inteligência reside na capacidade de conectar e recuperar informações diversas de múltiplas fontes," comentou. A AI21 está desenvolvendo ativamente suas ofertas em torno dos agentes de IA para atender a essa demanda.

À medida que a arquitetura Mamba ganha popularidade, Goshen continua a ser um defensor vocal, afirmando que o custo e a complexidade dos Transformers diminuem suas aplicações práticas. Ao contrário dos Transformers, que dependem de um mecanismo de atenção fixo, a Mamba foca na otimização do uso da memória e na utilização eficaz do poder de processamento de GPUs.

A demanda pela Mamba está aumentando, com outros desenvolvedores lançando modelos baseados em Mamba, como o Codestral Mamba 7B da Mistral e o Falcon Mamba 7B da Falcon. No entanto, os Transformers continuam a dominar como a escolha padrão para modelos fundamentais, incluindo o bem-sucedido GPT da OpenAI.

Em última análise, Goshen observa que as empresas priorizam a confiabilidade em relação a qualquer arquitetura específica. No entanto, as organizações devem ser cautelosas em relação a demonstrações sedutoras que prometem soluções abrangentes. "Estamos em uma fase em que demonstrações cativantes são comuns, mas ainda transicionamos para uma fase de produto aplicável," alertou. "Enquanto a IA empresarial é valiosa para pesquisa, ainda não está pronta para informar decisões críticas de negócios."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles