Mistral Удивляет Сообщество AI: Новый Открытый Модель Превосходит Производительность GPT-3.5

Mistral, самая финансируемая стартап-компания в истории Европы, — французская компания, сосредоточенная на открытых AI моделях и больших языковых моделях (LLM). Недавно она привлекла внимание AI-сообщества, выпустив новую модель — Mixtral 8x7B. Эта инновационная модель использует подход "смесь экспертов", объединяя различные специализированные модели для достижения высоких результатов в различных задачах.

Мистрал представил Mixtral 8x7B в уникальном и сдержанном стиле, выпустив его в интернете через торрент-ссылку без каких-либо пояснений, блога или демонстрационного видео. Этот подход сразу привлек внимание ранних пользователей и влиятельных личностей в области AI на платформах X и LinkedIn.

Сегодня Мистрал опубликовал пост в блоге, в котором подробно описал результаты тестирования Mixtral 8x7B, где она демонстрирует производительность, сравнимую или даже превосходящую проприетарный GPT-3.5 от OpenAI и Llama 2 от Meta, ранее державший лидерство в открытом AI. Компания раскрыла сотрудничество с CoreWeave и Scaleway для технической поддержки в процессе обучения модели и подтвердила, что Mixtral 8x7B доступна для коммерческого использования по лицензии Apache 2.0.

Ранние пользователи уже скачали Mixtral 8x7B и многие впечатлены ее производительностью. Компактный дизайн позволяет запускать модель на стандартных машинах, включая компьютеры Apple Mac с новейшим процессором M2 Ultra.

Стоит отметить, что Итан Моллик, профессор Школы Уортона при Университете Пенсильвании и влиятельная личность в области AI, подчеркнул на X, что Mixtral 8x7B, пох似, не имеет «защитных ограждений». Эта особенность может привлечь пользователей, недовольных строгими правилами контента от OpenAI, позволяя им создавать материалы, которые другие модели часто маркируют как "небезопасные" или «NSFW». Однако отсутствие таких ограничений может вызвать определенные проблемы для законодателей и регуляторов.

Вы можете самостоятельно ознакомиться с Mixtral 8x7B на HuggingFace (благодарим Мерву Ноян за ссылку). Реализация на HuggingFace включает защитные меры, что было продемонстрировано во время тестирования с провокационными запросами — модель отказалась давать инструкции по созданию напалма.

Кроме того, Мистрал уже разрабатывает еще более мощные модели. Мэтт Шумер, генеральный директор HyperWrite AI, упомянул на X, что компания запустила альфа-версию Mistral-medium на своем интерфейсе программирования приложений (API), что указывает на то, что на горизонте появится более крупная и продвинутая модель.

В значительном финансовом успехе Мистрал недавно завершил раунд финансирования Series A на сумму 415 миллионов долларов, возглавляемый A16z, достигнув оценки в 2 миллиарда долларов.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles