В то время как корпоративные организации стремятся к агентному будущему, архитектура ИИ-моделей становится значительной проблемой. Ори Гошен, генеральный директор AI21, подчеркивает необходимость создания альтернативных архитектур моделей для разработки более эффективных ИИ-агентов, поскольку существующие модели Transformer имеют ограничения, мешающие созданию экосистемы с несколькими агентами.
В недавнем интервью Гошен указал на недостатки архитектуры Transformer: её вычислительная сложность возрастает с увеличением объемов контекста, что замедляет производительность и увеличивает затраты. "Агентам требуется множество обращений к LLM с обширным контекстом на каждом этапе, что становится узким местом для Transformer," отметил он.
AI21 выступает за более гибкий подход к архитектуре моделей, предлагая, что хотя Transformer могут быть допустимым вариантом, они не должны быть стандартными. Архитектура компании JAMBA, сокращенно от Joint Attention and Mamba, использует фреймворк Mamba, разработанный исследователями из Принстона и Карнеги-Меллона, для повышения скорости вывода и расширения возможностей обработки контекста.
Гошен объясняет, что модели на основе Mamba улучшают производительность памяти, обеспечивая лучшую функциональность для агентов, особенно тех, которые интегрируются с другими моделями. Недавний рост популярности ИИ-агентов во многом объясняется ограничениями LLM, созданных с использованием Transformer.
"Основная причина, по которой агенты все еще находятся на стадии разработки и не получили широкого распространения в производстве, заключается в надежности. Поскольку LLM по своей природе стохастичны, необходимо внедрять дополнительные меры для обеспечения необходимой надежности," заявил Гошен.
В этом году ИИ-агенты стали одной из ведущих тенденций в корпоративном ИИ, и несколько компаний запустили новые платформы для разработки агентов. Например, ServiceNow обновила свою платформу Now Assist AI, добавив библиотеку ИИ-агентов, в то время как Salesforce представила Agentforce. Тем временем, Slack позволяет пользователям интегрировать агентов от различных компаний, включая Salesforce, Cohere и Adobe.
Гошен считает, что при правильном сочетании моделей и архитектур интерес к ИИ-агентам возрастет. "Текущие примеры использования, такие как функции вопросов и ответов чат-ботов, в основном напоминают улучшенный поиск. Истинный интеллект заключается в способности связывать и извлекать разнообразную информацию из нескольких источников," комментирует он. AI21 активно развивает свои предложения вокруг ИИ-агентов для удовлетворения этого спроса.
Когда архитектура Mamba набирает популярность, Гошен предпринимает активные шаги в ее поддержку, утверждая, что стоимость и сложность Transformer уменьшают их практическое применение. В отличие от Transformer, которые зависят от фиксированного механизма внимания, Mamba сосредотачивается на оптимизации использования памяти и эффективном применении GPU.
Спрос на Mamba растет, и другие разработчики выпускают модели на основе Mamba, такие как Codestral Mamba 7B от Mistral и Falcon Mamba 7B от Falcon. Тем не менее, Transformer по-прежнему остаются стандартным выбором для базовых моделей, включая успешный GPT от OpenAI.
В конечном итоге Гошен отмечает, что предприятия ставят надежность выше конкретной архитектуры. Однако организациям следует оставаться осторожными с заманчивыми демонстрациями, обещающими обширные решения. "Мы находимся на этапе, когда привлекательные демонстрации широко распространены, но мы все еще переходим к фазе применения продукта," предостерег он. "Хотя корпоративный ИИ ценен для исследований, он еще не готов к информированию критических бизнес-решений."