OpenAI ha presentado su nuevo modelo generativo de tamaño reducido, GPT-4o mini, diseñado para ser menos intensivo en recursos y más rentable que el modelo estándar GPT-4o. Esta mejora permite a los desarrolladores incorporar tecnología de inteligencia artificial en una gama más amplia de productos. No solo se trata de una actualización significativa para los desarrolladores y aplicaciones, sino que también mejora las capacidades de la versión gratuita de ChatGPT, reduciendo las limitaciones para los usuarios. GPT-4o mini ya está disponible para los usuarios en los niveles Free, Plus y Team a través de la web y la app de ChatGPT, mientras que los suscriptores de ChatGPT Enterprise tendrán acceso la próxima semana. A partir de hoy, GPT-4o mini reemplazará el modelo pequeño existente, GPT-3.5 Turbo, para los usuarios finales.
Aunque el modelo anterior seguirá accesible para desarrolladores a través de la API para quienes prefieran no migrar a GPT-4o mini, OpenAI planea retirar el modelo anterior en el futuro, aunque aún no se ha establecido un cronograma específico. Desde mayo, GPT-4o ha estado disponible para cuentas gratuitas de ChatGPT, aunque con ciertas restricciones debido a la alta demanda. Las preguntas frecuentes actualizadas aclaran que, aunque GPT-4o todavía enfrenta estas limitaciones, los usuarios cambiarán automáticamente a GPT-4o mini en lugar de GPT-3.5 al alcanzar sus límites. Este cambio es ventajoso para aquellos que no han actualizado a ChatGPT Plus.
Con la introducción de GPT-4o mini, OpenAI busca mejorar la accesibilidad a la IA para todos los usuarios, ahora disponible en la API y desplegándose en ChatGPT. Según datos de Artificial Analysis, este nuevo modelo logró un impresionante 82% en el benchmark de razonamiento MMLU, superando a Gemini 1.5 Flash en un 3% y a Claude 3 Haiku en un 7%. Para contextualizar, el récord actual del benchmark MMLU lo ostenta Gemini Ultra, la IA líder de Google, con una puntuación de 90%.
Es importante destacar que OpenAI informa que GPT-4o mini opera con costos un 60% más bajos en comparación con GPT-3.5 Turbo. Los desarrolladores incurrirán en costos de 15 centavos por millón de tokens de entrada y 60 centavos por millón de tokens de salida. OpenAI califica a GPT-4o mini como "el modelo pequeño más capaz y rentable disponible hoy" según CNBC. Los ahorros en costos se deben a que muchas tareas potenciadas por IA no requieren todas las capacidades de un modelo más grande como GPT, Claude o Gemini. Utilizar un modelo de lenguaje grande (LLM) para tareas simples y de alto volumen suele ser innecesariamente caro y consume muchos recursos. Aquí es donde los LLM más pequeños, como Gemini 1.5 Flash de Google, Llama 3 8b de Meta o Claude 3 Haiku de Anthropic, resultan ventajosos, ejecutando estas tareas de manera más rápida y económica que sus homólogos más grandes.
OpenAI también ha indicado que GPT-4o mini mantiene el mismo tamaño de ventana de contexto de 128,000 tokens (aproximadamente la longitud de un libro) que el modelo completo, con un límite de conocimiento de octubre de 2023; sin embargo, no se ha divulgado el tamaño específico del nuevo modelo. La API del modelo actualmente admite capacidades de texto y visión, con planes de funcionalidad de video y audio en el futuro. Este anuncio sigue a la reciente actualización de OpenAI sobre su muy anticipado Modo de Voz, integrado con GPT-4o, revelando que se espera lanzar una versión alpha más pequeña a finales de julio, con un despliegue más amplio anticipado para este otoño.