Microsoft lanza ajuste sin servidor para su modelo de lenguaje pequeño Phi-3: mejorando la personalización y la eficiencia.

Microsoft, un socio clave de OpenAI, está implementando medidas para mantenerse competitivo en el panorama de la inteligencia artificial generativa. Hoy, la empresa presentó un nuevo método para afinar su modelo de lenguaje pequeño Phi-3 sin que los desarrolladores tengan que gestionar sus propios servidores, y que inicialmente se ofrece de forma gratuita.

La afinación es el proceso de personalizar un modelo de IA para mejorar su comportamiento y capacidades en aplicaciones específicas. Phi-3, revelado en abril, es un modelo de 3 mil millones de parámetros diseñado como una opción rentable para desarrolladores externos que buscan crear aplicaciones. Aunque es más pequeño que muchos modelos líderes, como el Llama 3.1 de Meta, que cuenta con 405 mil millones de parámetros, Phi-3 ofrece un rendimiento comparable al de GPT-3.5 de OpenAI, según el vicepresidente de IA generativa de Microsoft, Sébastien Bubeck.

La familia del modelo Phi-3 consta de seis variantes con diferentes conteos de parámetros y longitudes de contexto, admitiendo entradas desde 4,000 hasta 128,000 tokens. Los precios comienzan desde $0.0003 hasta $0.0005 por 1,000 tokens de entrada, o $0.3 a $0.9 por millón de tokens, posicionándolo competitivamente frente al nuevo GPT-4o mini de OpenAI.

Enfocándose en el uso empresarial, Phi-3 incorpora salvaguardias para mitigar sesgos y toxicidad. Bubeck destacó previamente su adaptabilidad para necesidades comerciales específicas, afirmando: “Puedes incorporar tus datos y afinar este modelo general para lograr un rendimiento excelente en aplicaciones especializadas”.

Anteriormente, los desarrolladores debían configurar sus propios servidores a través de Microsoft Azure o ejecutar el modelo localmente para realizar la afinación. Sin embargo, Microsoft ha lanzado una opción pública de "Modelos como Servicio" sin servidor dentro de su plataforma de desarrollo Azure AI. Ahora, los desarrolladores pueden acceder a Phi-3-small a través de este punto final sin servidor, simplificando así el proceso de desarrollo de IA.

Phi-3-vision, que puede procesar entradas de imágenes, también estará disponible pronto a través de un punto final sin servidor. Aunque estos modelos son accesibles a través de la plataforma Azure de Microsoft, los desarrolladores que buscan personalizar sus modelos deberían considerar Phi-3-mini y Phi-3-medium, que permiten la afinación con datos de terceros para experiencias de IA a medida.

Microsoft destaca que plataformas educativas como Khan Academy ya están aprovechando un modelo Phi-3 afinado para mejorar el rendimiento de su Khanmigo para Profesores, potenciado por el Servicio OpenAI de Azure.

Los avances en la afinación sin servidor vienen con una estructura de precios para Phi-3-mini-4k-instruct a partir de $0.004 por 1,000 tokens ($4 por millón de tokens), aunque el precio del modelo medium sigue sin divulgarse.

Esta decisión posiciona a Microsoft como un fuerte competidor para atraer desarrolladores de IA empresarial, especialmente en vista del reciente anuncio de OpenAI sobre afinación gratuita para GPT-4o mini, disponible hasta 2 millones de tokens por día para ciertos usuarios de API.

Con Meta lanzando la familia de código abierto Llama 3.1 y Mistral introduciendo el modelo Mistral Large 2—ambos capaces de afinarse—es evidente que la competencia por ofrecer soluciones de IA atractivas para el desarrollo empresarial se está intensificando. Los proveedores de IA buscan atraer a los desarrolladores con una variedad de opciones de modelos, desde pequeños hasta grandes.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles