Microsoft запускает серверную донастройку для своей малой языковой модели Phi-3: улучшение кастомизации и эффективности.

Microsoft, ключевой партнер OpenAI, предпринимает шаги для обеспечения конкурентоспособности в сфере генеративного ИИ. Сегодня компания представила новый метод тонкой настройки своей модели Phi-3, не требующий от разработчиков управления собственными серверами, и предлагает его бесплатно на начальном этапе.

Тонкая настройка — это процесс кастомизации ИИ-модели для улучшения её характеристик и возможностей для конкретных приложений. Phi-3, представленная в апреле, является моделью с 3 миллиардами параметров, разработанной как экономически выгодный вариант для сторонних разработчиков. Несмотря на то что она меньше многих ведущих моделей, например, Llama 3.1 от Meta с 405 миллиардами параметров, Phi-3, по словам вице-президента Microsoft по генеративному ИИ, Себастьяна Бюбека, демонстрирует производительность, сопоставимую с GPT-3.5 от OpenAI.

Семейство моделей Phi-3 включает шесть вариантов с различным числом параметров и длиной контекста, поддерживающих ввод от 4,000 до 128,000 токенов. Цены начинаются от $0.0003 до $0.0005 за 1,000 токенов, или от $0.3 до $0.9 за миллион токенов, что делает их конкурентоспособными по сравнению с новой моделью GPT-4o mini от OpenAI.

С учетом корпоративного использования, Phi-3 включает защитные механизмы для снижения предвзятости и токсичности. Бюбек ранее подчеркивал ее адаптивность к конкретным бизнес-потребностям: «Вы можете ввести свои данные и настроить эту общую модель для достижения отличной производительности в специализированных приложениях».

Раньше разработчики были обязаны настраивать свои собственные серверы через Microsoft Azure или запускать модель локально для тонкой настройки. Тем не менее, Microsoft теперь запустила общедоступную безсерверную опцию "Models-as-a-Service" в своей платформе Azure AI. Разработчики могут получить доступ к Phi-3-small через эту безсерверную точку доступа, упрощая процесс разработки ИИ.

Phi-3-vision, способная обрабатывать изображения, также станет доступной через безсерверную точку доступа. Хотя эти модели можно использовать через платформу Azure от Microsoft, разработчикам, желающим индивидуализировать свои модели, стоит обратить внимание на Phi-3-mini и Phi-3-medium, которые поддерживают тонкую настройку с использованием сторонних данных для создания индивидуальных ИИ.

Microsoft подчеркивает, что образовательные платформы, такие как Khan Academy, уже используют тонко настроенную модель Phi-3 для улучшения работы своего Khanmigo для Teachers, основанного на Azure OpenAI Service.

Новые возможности серверной тонкой настройки сопровождаются ценовой структурой для Phi-3-mini-4k-instruct, начинающейся от $0.004 за 1,000 токенов ($4 за миллион токенов), хотя цена для модели среднего размера остается нераскрытой.

Этот шаг укрепляет позицию Microsoft как серьезного конкурента в привлечении корпоративных разработчиков ИИ, особенно на фоне недавнего объявления OpenAI о бесплатной тонкой настройке для GPT-4o mini, доступной до 2 миллионов токенов в день для определенных пользователей API.

С выходом Meta открытой Llama 3.1 и Mistral с моделью Mistral Large 2 — обе способны на тонкую настройку — конкуренция в предоставлении привлекательных ИИ-решений для корпоративной разработки усиливается. Поставщики ИИ стремятся привлечь разработчиков с разнообразием предложений моделей, от малых до крупных.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles