OpenAI, la empresa líder en investigación de inteligencia artificial, ha presentado una nueva generación de modelos de embebido que transforman el texto en representaciones numéricas adecuadas para diversas tareas de aprendizaje automático. Junto a esto, la compañía introdujo versiones mejoradas de sus modelos GPT-4 Turbo y GPT-3.5 Turbo, actualizó sus modelos de moderación, lanzó nuevas herramientas para la gestión del uso de la API y aplicó una reducción del 25% en el precio del modelo GPT-3.5 Turbo.
Los embeddings son secuencias numéricas que representan conceptos en contenido como el lenguaje natural o el código. Permiten a los modelos de aprendizaje automático comprender eficazmente las relaciones dentro de los datos, facilitando tareas como el agrupamiento y la recuperación. Los embeddings son fundamentales en aplicaciones como la recuperación de conocimiento en ChatGPT y la API de Asistentes, así como en muchas herramientas para generación aumentada por recuperación (RAG).
Los nuevos modelos de embebido de OpenAI, text-embedding-3-small y text-embedding-3-large, ofrecen un mejor rendimiento y asequibilidad en comparación con el anterior modelo text-embedding-ada-002. Estos nuevos modelos generan embeddings de hasta 3072 dimensiones, capturando más información semántica para mejorar la precisión de las tareas posteriores.
Cabe destacar que la puntuación promedio en un referente ampliamente utilizado para la recuperación multilingüe (MIRACL) ha aumentado del 31.4% al 54.9% con los nuevos modelos, mientras que la puntuación para tareas en inglés (MTEB) ha subido del 61.0% al 64.6%. El precio del modelo text-embedding-3-small se ha reducido cinco veces en comparación con su antecesor, haciéndolo más económico para los desarrolladores.
Además, OpenAI ha mejorado sus modelos GPT-4 Turbo y GPT-3.5 Turbo, capaces de comprender y generar tanto lenguaje natural como código. Las versiones más recientes ofrecen una mejor capacidad de seguimiento de instrucciones, capacidades en modo JSON, resultados más reproducibles y soporte para llamadas de funciones en paralelo. También se ha introducido una nueva versión de contexto de 16k para GPT-3.5 Turbo, que permite procesar entradas y salidas más grandes en comparación con la versión estándar de 4k.
El modelo de moderación de texto también ha sido actualizado para detectar mejor textos potencialmente sensibles o inseguros. Esta nueva versión puede manejar una mayor variedad de idiomas y dominios, y proporciona explicaciones para sus clasificaciones.
Los desarrolladores ahora pueden gestionar las claves de API de manera más eficaz, creando múltiples claves con diferentes permisos y ámbitos, mientras supervisan el uso de la API y la facturación en el panel de OpenAI. La anticipada reducción de precio del 25% para el modelo GPT-3.5 Turbo busca mejorar la accesibilidad, alentando a más desarrolladores a aprovechar este recurso en sus aplicaciones.
Estas actualizaciones reflejan el compromiso de OpenAI de mejorar continuamente sus modelos y servicios para servir mejor a desarrolladores y clientes. La compañía invita a los desarrolladores a evaluar los modelos para ayudar a perfeccionarlos para diversos casos de uso y promete mejoras, características y herramientas continuas en el futuro.