Рынок векторных баз данных бурно развивался в 2023 году, что было вызвано необходимостью наличия контекста и долговременной памяти в крупных языковых моделях. Эти факторы, в свою очередь, повышают эффективность и точность методов генерации с дополнением извлечениями (RAG), нацеленных на снижение числа «галлюцинаций» искусственного интеллекта. Лидером в этой конкурентной среде стал стартап Pinecone из Нью-Йорка, который в апреле прошлого года привлек 100 миллионов долларов финансирования.
Недавно Pinecone представила то, что называет «революционной» архитектурой векторной базы данных без сервера. Это инновационное решение позволяет компаниям разрабатывать более глубокие и экономичные AI-приложения. Согласно пресс-релизу, серверная модель Pinecone обещает снизить затраты до 50%, устраняя сложности с инфраструктурой и позволяя бизнесу быстрее запускать качественные генеративные AI-приложения.
Компания выделила несколько ключевых нововведений, включая:
- Разделение операций чтения, записи и хранения для снижения затрат на нагрузку.
- Первая в отрасли архитектура, использующая кластеризацию векторов на блоб-хранении, что обеспечивает низкую задержку и экономичные поиски векторов по обширным датасетам.
- Индексацию и алгоритмы извлечения, созданные по индивидуальному заказу.
- Многоарену вычислительного слоя для поддержки запросов по мере необходимости для тысяч пользователей.
Генеральный директор Pinecone Эдо Либерти подчеркнул значимость новой серверной архитектуры, заявив: «Я говорю это не легкомысленно. Мы работали над этим проектом полтора года; это наше самое амбициозное начинание». Он отметил, что цель превосходит создание лучшей векторной базы данных: «Мы стремимся к созданию нового поколения генеративных AI-приложений, которые ранее были невозможны», — добавил он, выражая уверенность в том, что Pinecone поможет решить проблему «галлюцинаций» ИИ, которые мешают компаниям запускать ориентированные на клиентов генеративные AI-решения.
Компании такие как Notion, Blackstone, Canva, Domo и Gong уже используют серверные технологии Pinecone. Либерти отметил, что новый продукт оснащен мощной инфраструктурой, необходимой для индексирования миллиардов векторов для тысяч, если не сотен тысяч пользователей, что обеспечивает масштабируемость RAG и управление знаниями. «Они могут делать это более просто и по стоимости, которая в 10-100 раз ниже, чем у предыдущих систем», — добавил он.
Введение серверного решения Pinecone отражает созревание технологического стека генеративного ИИ. Запуск включает интеграции с другими лидерами в области AI, такими как Anthropic, Anyscale, Cohere, Confluent, Langchain, Pulumi и Vercel. Либерти прокомментировал: «Сотрудничество этих ключевых игроков свидетельствует о том, что технологический стек развивается, позволяя разработчикам создавать мощные продукты, которые безупречно работают вместе».