Dell и Hugging Face объединяются для упрощения развертывания крупных языковых моделей.

Практически каждое предприятие сегодня исследует преимущества крупных языковых моделей (LLM) и генеративного ИИ для своих бизнес-операций. Однако остаются множество вопросов, напоминающих о первых днях облачных технологий и анализа больших данных: с чего начать внедрение? Как защитить свою конфиденциальную и собственническую информацию? И как управлять ресурсозатратным процессом доработки моделей?

Сегодня компании Dell и Hugging Face объединили усилия для решения этих задач, упрощая локальное развертывание индивидуализированных LLM, чтобы предприятия могли в полной мере воспользоваться преимуществами этой развивающейся технологии. Мэтт Бейкер, вице-президент Dell по стратегии ИИ, подчеркнул преобразующий эффект генеративного ИИ на недавней пресс-конференции, отметив: "Невозможно обойтись без обсуждения генеративного ИИ или ИИ в целом." Он признал сложность технологии.

Партнёрство Dell и Hugging Face

В рамках этого партнерства Dell и Hugging Face создадут специализированный портал на платформе Hugging Face, который будет содержать индивидуальные контейнеры, скрипты и техническую документацию для развертывания открытых моделей на серверах и системах хранения Dell. Сначала этот сервис будет доступен для серверов Dell PowerEdge через консоль APEX, а затем расширится на инструменты Precision и другие решения Dell. Портал будет регулярно обновляться оптимизированными модельными контейнерами для поддержки актуальных кейсов генеративного ИИ. Джеффа Бодье, глава продукта Hugging Face, отметил: "Единственный способ взять под контроль своё будущее в ИИ — стать разработчиком, а не просто пользователем. Это возможно только с открытым исходным кодом."

Это сотрудничество является частью стремления Dell занять лидирующие позиции в области генеративного ИИ, включая недавнее добавление продукта ObjectScale XF960 к ее инструментам ObjectScale, специально разработанным для ИИ и аналитических рабочих процессов. Бейкер с юмором прокомментировал партнерство: "Я стараюсь избежать словесных игр о том, что Dell и Hugging Face ‘обнимают’ практиков, но именно это мы делаем."

Проблемы внедрения генеративного ИИ

Бейкер назвал несколько препятствий для внедрения генеративного ИИ в предприятиях, включая сложность, время до получения результата, надежность поставщиков, рентабельность и управление затратами. Как и в начале эры больших данных, компаниям сложно перевести проекты из стадии прототипа в производственную среду, защищая свою интеллектуальную собственность. "Многие компании испытывают давление, стремясь соответствовать трендам генеративного ИИ, но при этом защищая свои уникальные данные," - отметил Бодье, подчеркнув риски, связанные с популярными инструментами, такими как GitHub Copilot, из-за возможного раскрытия кода.

Исследования Dell показывают, что 83% предприятий предпочитают локальное или гибридное внедрение для повышения безопасности своей интеллектуальной собственности. Бейкер добавил: "Развертывание на месте имеет важное значение, когда речь идет о ваших самых ценностных активах."

Курированные модели для производительности и точности

Портал Dell-Hugging Face предоставит отобранные модели, оптимизированные для производительности, точности и использования. Организации смогут выбирать необходимые модели и конфигурации Dell для легкого развертывания в своей инфраструктуре. "Представьте модель LLama 2, доработанную специально для вашей платформы, готовой к использованию," - сказал Бейкер, отметив возможные применения, такие как генерация маркетингового контента, чат-боты и разработка программного обеспечения.

Бейкер стремится упростить процесс для пользователей, описывая его как "простую кнопку" для развертывания необходимого функционала от Hugging Face. Что отличает эту инициативу от множества других, так это способность Dell к калибровке конфигураций, что обеспечивает быстрое развертывание лучших настроек моделей без обмена данными с публичными моделями. "Ваши данные остаются вашими," - подтвердил Бейкер, добавив: "Как только модель доработана, она становится вашей."

Вертикализация в ИИ

Настройка моделей для оптимальной производительности может занять много времени. Многие предприятия, экспериментируя с генеративным ИИ, теперь используют генерацию с дополнением обратной выборки (RAG) вместе со стандартными LLM. Этот подход улучшает генеративные задачи, включая внешние источники знаний для предоставления необходимого контекста. Бейкер объяснил: "RAG позволяет пользователям генерировать точные инструкции без необходимости создавать новую модель с нуля."

Чтобы упростить процесс доработки, Dell планирует ввести контейнеризованные инструменты, использующие экономичные параметры, такие как LoRA и QLoRA. Поскольку компании всё больше фокусируются на своих уникальных вертикалях, Бейкер утверждает: "Все предприятия по сути станут вертикальными структурами, использующими свои специфические данные." Эта тенденция означает не просто создание специфических моделей по отраслям, а интеграцию собственных данных с моделями для достижения индивидуализированных генеративных результатов.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles