GPT-4o de OpenAI es el modelo de lenguaje grande (LLM) más nuevo y avanzado desarrollado por OpenAI, ofrece una serie de funciones innovadoras tanto para usuarios gratuitos como de pago. Como una IA multimodal, mejora la experiencia de ChatGPT con respuestas más rápidas, mejor comprensión y un conjunto de nuevas habilidades que se presentarán en las próximas semanas.
Con la competencia en aumento por parte de Llama 3 de Meta y Gemini de Google, el último modelo de OpenAI busca liderar el sector. Aquí te contamos qué lo hace tan emocionante.
Para quienes utilizan la versión gratuita de ChatGPT y envidian las funciones disponibles para los usuarios de ChatGPT Plus, ¡buenas noticias! Ahora puedes explorar la detección de imágenes, subir archivos, localizar GPTs personalizados en la tienda GPT, utilizar Memoria para retener tu historial de conversación, lo que facilita interacciones más fluidas, y realizar análisis de datos complejos y cálculos.
GPT-4o refleja la inteligencia del modelo estándar GPT-4, aunque fue desarrollado desde cero como una IA multimodal. La principal ventaja de GPT-4o es su menor costo computacional, ya que requiere menos tokens, haciéndolo accesible a una audiencia más amplia. Sin embargo, los usuarios gratuitos enfrentarán un límite en la cantidad de mensajes que pueden enviar diariamente. Una vez alcanzado ese límite, el acceso regresará al modelo GPT-3.5.
GPT-4 introdujo varias mejoras sobre GPT-3.5, con la velocidad como componente clave. Aunque GPT-4 ha visto mejoras, generalmente opera más lentamente. En contraste, GPT-4o ofrece respuestas casi instantáneas, haciendo las interacciones más rápidas y accionables, especialmente en tareas en tiempo real como traducción y asistencia conversacional.
Al ser lanzado, GPT-4o admite texto e imágenes, pero ha sido diseñado para eventualmente utilizar comandos de voz e interactuar con los usuarios mediante audio. A diferencia de GPT-4, que convertía voz a texto, procesaba la respuesta y luego la convertía de nuevo a voz, GPT-4o comprende directamente la entrada de voz y responde en consecuencia. Su procesamiento más rápido permite conversaciones más naturales, entendiendo matices como el tono, la velocidad y el estado de ánimo. GPT-4o tiene la capacidad de reír, ser sarcástico, ajustar respuestas sobre la marcha y comprender múltiples idiomas para la traducción en tiempo real. También puede cantar y crear duetos.
GPT-4o mejora significativamente la comprensión del usuario en comparación con sus predecesores, especialmente en interacciones habladas. Interpreta el tono y la intención con mayor precisión, permitiéndole mantener un enfoque relajado y amigable. Al analizar código o texto, considera tus intenciones, lo que resulta en respuestas más personalizadas y con menos necesidad de indicaciones específicas. Su capacidad para analizar videos e imágenes enriquece su comprensión del mundo circundante.
Mientras que los usuarios de Windows actualmente solo tienen acceso a la función básica de Copilot, los usuarios de macOS pronto aprovecharán completamente ChatGPT y el modelo de GPT-4o directamente desde sus escritorios. Una nueva aplicación nativa de escritorio ofrecerá una mayor accesibilidad y una interfaz de usuario renovada, agilizando las interacciones. Esta aplicación estará disponible para la mayoría de los usuarios de ChatGPT Plus en breve y llegará a usuarios gratuitos en las próximas semanas, con una versión para Windows esperada más adelante este año.
Por ahora, el público puede acceder a las capacidades de texto e imagen de GPT-4o, pero el soporte avanzado para voz y la comprensión de video en tiempo real están en camino, junto con una amplia disponibilidad de la aplicación de escritorio para macOS. Estas emocionantes actualizaciones y mejoras adicionales para ChatGPT están a la vuelta de la esquina.