Una vez especulamos sobre la llegada de software capaz de aprobar el test de Turing de manera coherente. Ahora, damos por hecho que esta tecnología extraordinaria no solo existe, sino que avanza rápidamente en sus capacidades.
Desde el lanzamiento de ChatGPT el 30 de noviembre de 2022, hemos sido testigos de una avalancha de innovaciones en los modelos de lenguaje de gran escala (LLM) públicos. Nuevas versiones parecen surgir cada pocas semanas, ampliando los límites de lo que es posible.
Sin embargo, las tendencias recientes sugieren que este avance rápido podría estar desacelerándose. La historia de lanzamientos de OpenAI ilustra este cambio: el salto significativo de GPT-3 a GPT-3.5 catapultó a OpenAI al centro de atención, seguido de la impresionante actualización a GPT-4 y refinamientos adicionales como GPT-4 Turbo y GPT-4 Vision. Más recientemente, GPT-4o mejoró la multimodalidad, aunque ofreció pocas mejoras en términos de potencia adicional.
Otros LLM, como Claude 3 de Anthropic y Gemini Ultra de Google, están alcanzando métricas de rendimiento similares a las de GPT-4. Aunque aún no hemos alcanzado un estancamiento, hay señales de desaceleración, evidenciadas por el poder y el rango decrecientes en cada nueva generación.
Esta tendencia tiene implicaciones significativas para futuras innovaciones. Si pudiéramos preguntar a una bola de cristal una cuestión sobre la IA, podría ser: ¿Con qué rapidez seguirán mejorando los LLM en poder y capacidad? La trayectoria de los avances en LLM influye en el panorama general de la IA. Cada salto importante en la capacidad de LLM impacta directamente en lo que los desarrolladores pueden lograr y en la fiabilidad con la que pueden operar los equipos.
Consideremos la evolución de la efectividad de los chatbots: GPT-3 producía respuestas inconsistentes, mientras que GPT-3.5 mejoró la fiabilidad. No fue hasta GPT-4 que vimos resultados que se adhirieron de manera consistente a las instrucciones y mostraron cierto razonamiento.
Se espera que OpenAI revele GPT-5 pronto, pero están manejando las expectativas con cuidado. Si esta actualización no logra un avance sustancial, las implicaciones para la innovación en IA podrían ser profundas.
Así podría desarrollarse esta posible desaceleración:
1. Mayor Especialización: A medida que los LLM existentes luchan con consultas matizadas, los desarrolladores pueden orientarse hacia la especialización. Podríamos ver la aparición de agentes de IA enfocados en casos de uso específicos y comunidades de usuarios. El lanzamiento de GPT por parte de OpenAI indica un cambio de un enfoque único para todos.
2. Nuevas Interfaces de Usuario: Aunque los chatbots han dominado la interacción con la IA, su flexibilidad puede llevar a experiencias de usuario deficientes. Podríamos presenciar el surgimiento de sistemas de IA que proporcionen interacciones guiadas, como escáneres de documentos que ofrezcan sugerencias prácticas.
3. Desarrollo de LLM de Código Abierto: A pesar de los desafíos de construir LLM, proveedores de código abierto como Mistral y Llama podrían seguir siendo competitivos si OpenAI y Google se estancan en sus avances. A medida que la atención se centre en características y facilidad de uso, podrían encontrar su nicho.
4. Competencia Intensificada por Datos: La convergencia en las capacidades de los LLM puede deberse a la escasez de datos de entrenamiento. A medida que disminuye el acceso a datos de texto públicos, las empresas deberán explorar nuevas fuentes, como imágenes y videos, lo que podría mejorar la rendimiento y comprensión de los modelos.
5. Arquitecturas Emergentes de LLM: Si bien las arquitecturas de transformadores han dominado, otros modelos prometedores han pasado desapercibidos. Si el progreso en los LLM de transformadores se estanca, podríamos ver un renovado interés en arquitecturas alternativas como Mamba.
En conclusión, el futuro de los LLM sigue siendo incierto. Sin embargo, es evidente que las capacidades de los LLM y la innovación en IA están estrechamente entrelazadas. Desarrolladores, diseñadores y arquitectos deben considerar activamente cómo evolucionarán estos modelos.
Podríamos presenciar un cambio hacia la competencia en características y facilidad de uso, conduciendo a una cierta commoditización similar a lo que hemos visto en bases de datos y servicios en la nube. Aunque persistirán las distinciones, muchas opciones podrían volverse intercambiables, sin un “ganador” definitivo en la carrera por el LLM más poderoso.