A Microsoft, um parceiro chave da OpenAI, está tomando medidas para se manter competitiva no cenário de IA generativa. Hoje, a empresa apresentou um novo método para ajuste fino de seu modelo de linguagem pequeno, Phi-3, sem exigir que os desenvolvedores gerenciem seus próprios servidores, e essa nova opção é inicialmente oferecida gratuitamente.
O ajuste fino consiste em personalizar um modelo de IA para aprimorar seu comportamento e suas capacidades em aplicações específicas. Lançado em abril, o Phi-3 é um modelo de 3 bilhões de parâmetros, projetado como uma escolha econômica para desenvolvedores de terceiros que buscam construir aplicações. Apesar de ser menor que muitos modelos de destaque, como o Llama 3.1 da Meta, que possui 405 bilhões de parâmetros, o Phi-3 oferece desempenho comparável ao GPT-3.5 da OpenAI, segundo Sébastien Bubeck, Vice-Presidente de IA Generativa da Microsoft.
A família de modelos Phi-3 é composta por seis variantes com diferentes quantidades de parâmetros e comprimentos de contexto, acomodando entradas que variam de 4.000 a 128.000 tokens. Os preços começam em US$ 0,0003 a US$ 0,0005 por 1.000 tokens de entrada, ou de US$ 0,3 a US$ 0,9 por milhão de tokens, posicionando-o competitivamente em relação ao mais recente mini GPT-4o da OpenAI.
Voltado para o uso corporativo, o Phi-3 conta com mecanismos de proteção para mitigar preconceitos e toxicidade. Bubeck destacou anteriormente sua adaptabilidade para necessidades empresariais específicas, afirmando: “Você pode inserir seus dados e ajustar este modelo geral para alcançar um excelente desempenho em aplicações especializadas.”
Anteriormente, os desenvolvedores precisavam configurar seus próprios servidores via Microsoft Azure ou executar o modelo localmente para realizar o ajuste fino. No entanto, a Microsoft agora lançou uma opção pública de "Modelos como Serviço", que é serverless, dentro de sua plataforma de desenvolvimento Azure AI. Os desenvolvedores podem acessar o Phi-3-small por meio desse ponto de extremidade serverless, simplificando o processo de desenvolvimento de IA.
O Phi-3-vision, que pode processar entradas de imagem, também estará disponível em breve por meio de um ponto de extremidade serverless. Embora esses modelos sejam acessíveis na plataforma Azure da Microsoft, os desenvolvedores que buscam personalizar seus modelos devem considerar o Phi-3-mini e o Phi-3-medium, que suportam ajuste fino com dados de terceiros para experiências de IA personalizadas.
A Microsoft destaca que plataformas educacionais, como a Khan Academy, já estão aproveitando um modelo Phi-3 ajustado para melhorar o desempenho de seu Khanmigo for Teachers, alimentado pelo Azure OpenAI Service.
Os avanços no ajuste fino serverless incluem uma estrutura de preços para o Phi-3-mini-4k-instruct, a partir de US$ 0,004 por 1.000 tokens (US$ 4 por milhão de tokens), embora o preço para o modelo médio ainda não tenha sido divulgado.
Essa iniciativa posiciona a Microsoft como uma forte concorrente para atrair desenvolvedores de IA corporativa, especialmente à luz do recente anúncio da OpenAI sobre ajuste fino gratuito para o mini GPT-4o, disponível para até 2 milhões de tokens por dia para usuários específicos da API.
Com a Meta lançando a família de código aberto Llama 3.1 e a Mistral introduzindo o modelo Mistral Large 2—ambos capazes de ajuste fino—é evidente que a competição para oferecer soluções de IA atraentes para o desenvolvimento empresarial está se intensificando. Os provedores de IA buscam atrair desenvolvedores com uma variedade de opções de modelos, que vão dos pequenos aos grandes.