A medida que entramos en la segunda mitad de 2024, el panorama de la inteligencia artificial está experimentando un cambio sísmico. La emoción inicial tras el lanzamiento de ChatGPT de OpenAI —que se convirtió en el producto que más rápidamente alcanzó 100 millones de usuarios en la historia— ha comenzado a desvanecerse. Estamos pasando de una era de casi desenfrenada exageración a una de realidad, donde las empresas lidian con la implementación de tecnologías de IA en productos reales.
Las declaraciones del CEO de OpenAI, Sam Altman, sobre una "inteligencia mágica en el cielo" desataron una fiebre entre los desarrolladores de Silicon Valley, muchos de los cuales llegaron a creer que estábamos a punto de lograr una inteligencia de máquina a nivel humano en todos los dominios, conocida como inteligencia general artificial (AGI).
Sin embargo, a medida que avanza 2024, está surgiendo una narrativa más matizada. Las empresas, basadas en las realidades de implementar IA en aplicaciones del mundo real, están adoptando un enfoque más mesurado. La percepción está cambiando: aunque los modelos de lenguaje grande (LLMs) como GPT-4 son increíblemente poderosos, la IA generativa en general no ha cumplido con las elevadas expectativas de Silicon Valley. El rendimiento de los LLMs ha llegado a un punto de estancamiento, enfrentando desafíos persistentes con la precisión de los hechos. Surgen preocupaciones legales y éticas, y la infraestructura y los casos de uso empresarial han resultado más complicados de lo anticipado. Claramente, no estamos en un camino directo hacia la AGI como algunos esperaban. Inclusos promesas más modestos, como los agentes de IA autónomos, enfrentan muchas limitaciones. Además, tecnologías conservadoras, diseñadas para "anclar" la IA con datos reales y precisión, como RAG (generación aumentada por recuperación), todavía enfrentan enormes obstáculos.
En cambio, las empresas se están enfocando en cómo aprovechar las impresionantes capacidades básicas de los LLMs ya disponibles. Este cambio de la exageración a la realidad está sustentado por seis debates críticos que están moldeando el paisaje de la IA. Estos debates representan líneas de falla entre los fervientes creyentes en una superinteligencia inminente y aquellos que abogan por un enfoque más pragmático en la adopción de la IA. Para los líderes empresariales, entender estos debates es crucial. Hay enormes implicaciones para las empresas que buscan aprovechar esta poderosa tecnología, incluso si no es la fuerza divina que sus más ardientes defensores reclaman.
No me malinterpretes. La mayoría de los líderes empresariales aún creen que la tecnología ya ha producido beneficios profundos. Durante nuestra reciente AI Impact Tour, donde se llevaron a cabo reuniones y eventos con empresas de Fortune 500 en todo el país, los líderes discutieron sus esfuerzos por abrazar la promesa de la IA.
Pero estos seis debates serán centrales en las discusiones en nuestro próximo evento VB Transform, programado para el 9-11 de julio en el corazón del distrito SOMA de San Francisco. Hemos curado el evento basándonos en extensas conversaciones con ejecutivos de los principales actores en IA.
La lista de oradores incluye representantes de gigantes de la industria como OpenAI, Anthropic, Nvidia, Microsoft, Google y Amazon, así como líderes de IA de empresas de Fortune 500 como Kaiser Permanente, Walmart y Bank of America.
Los debates y discusiones en vivo en Transform prometen arrojar luz sobre estos problemas críticos, ofreciendo a los asistentes la oportunidad única de interactuar con líderes en la vanguardia de la implementación de IA empresarial.
Ahora, profundicemos en los seis debates:
1. La carrera de los LLM: ¿Un estancamiento a la vista?
La carrera por desarrollar el LLM más avanzado ha sido una característica definitoria del paisaje de IA desde que OpenAI lanzó GPT-3. Pero a medida que entramos en la segunda mitad de 2024, una pregunta se hace evidente: ¿Se ha terminado la carrera de los LLM? La respuesta parece ser sí, al menos por ahora. Esto es relevante porque las diferencias entre los LLMs líderes se han vuelto cada vez más imperceptibles, lo que significa que las empresas pueden ahora seleccionar basándose en precio, eficiencia y ajuste a casos de uso específicos, en lugar de perseguir el "mejor" modelo.
En 2023, fuimos testigos de una carrera dramática. OpenAI avanzó rápidamente con el lanzamiento de GPT-4 en marzo, mostrando mejoras significativas en razonamiento, capacidades multimodales y competencia multilingüe. Se asumió que el rendimiento continuaría escalando a medida que se alimentara más datos a estos modelos, y durante un tiempo parecía que tenían razón. Pero en 2024, el ritmo ha disminuido considerablemente. A pesar de las vagas promesas de Altman sobre futuras mejoras, la COO de la empresa, Mira Murati, admitió a mediados de junio que OpenAI no tiene nada más en sus laboratorios que lo que ya es público.
Ahora estamos viendo signos claros de estancamiento. OpenAI parece haber llegado a un límite, y su rival Anthropic ha alcanzado, lanzando Claude 3.5 Sonnet, que supera a GPT-4 en muchas métricas. Lo notable es que Claude no pudo avanzar mucho; es solo un poco mejor. Más revelador es que Sonnet se basa en uno de los modelos más pequeños de Anthropic, no en su modelo más grande Opus, sugiriendo que grandes cantidades de entrenamiento de datos no necesariamente conducen a mejoras, sino que las eficiencias y el ajuste de modelos más pequeños son la clave.
El profesor de ciencias de la computación de Princeton, Arvind Narayanan, escribió la semana pasada que la opinión popular de que el escalado de modelos está en camino hacia la AGI “se basa en una serie de mitos y conceptos erróneos”, y que prácticamente no hay posibilidad de que este escalado por sí solo conduzca a la AGI. Para los líderes empresariales, este estancamiento tiene implicaciones significativas. Significa que deben aprovechar los mejores LLMs individuales para sus propósitos específicos —y hay cientos de estos LLMs disponibles. No hay un “unicornios mágico” LLM que los domine a todos. Al considerar sus opciones de LLM, las empresas deberían considerar LLMs abiertos, como aquellos basados en Llama de Meta o Granite de IBM, que ofrecen más control y permiten un ajuste más fácil a casos de uso específicos.
En VB Transform, profundizaremos en estas dinámicas con oradores clave, incluyendo a Olivier Godement, Jefe de Producto API en OpenAI; Jared Kaplan, Científico Jefe y Co-Fundador de Anthropic; Colette Stallbaumer, GM de Copilot en Microsoft; David Cox, VP de Modelos de IA en IBM; y Yasmeen Ahmad, Directora General en Google Cloud.
2. El ciclo de exageración de la AGI: ¿pico o depresión?
A medida que la velocidad de los avances en LLM se desacelera, surge una pregunta más grande: ¿Hemos alcanzado el pico de expectativas infladas en el ciclo de exageración de la AGI? Nuestra respuesta: Sí. Esto es relevante porque las empresas deberían centrarse en aprovechar las capacidades existentes de IA para aplicaciones del mundo real, en lugar de perseguir la promesa de la AGI.
El lanzamiento de ChatGPT desató una ola de emoción sobre las posibilidades de la IA. Sus interacciones similares a las humanas, impulsadas por enormes cantidades de datos de entrenamiento, daban la ilusión de verdadera inteligencia. Este avance catapultó a Altman al estatus de gurú en el mundo tecnológico. Altman aceptó este papel, haciendo declaraciones grandiosas sobre el futuro de la IA. En noviembre de 2023, al lanzar GPT-4 Turbo, afirmó que se vería “antiquado” en comparación con lo que estaban desarrollando. Se refirió a la AGI como posible en los próximos años. Estas declaraciones generaron un gran entusiasmo entre lo que podríamos llamar los fervorosos creyentes de Silicon Valley.
Sin embargo, el encantamiento comenzó a desvanecerse. La salida de Altman de la junta de OpenAI a finales de 2023 (aunque temporal) fue la primera grieta en la armadura. Al entrar en 2024, sus declaraciones de que la AGI estaba cerca comenzaron a parecer menos convincentes — moderó sus predicciones, enfatizando la necesidad de más avances. En febrero, Altman comentó que la AGI podría requerir hasta 7 billones de dólares en inversión.
Los competidores acortaron la distancia con el LLM líder de OpenAI, y las mejoras constantes que muchos habían pronosticado no se materializaron. El costo de alimentar más datos a estos modelos ha aumentado, mientras que sus frecuentes errores lógicos y alucinaciones persisten. Esto ha llevado a expertos como Yann LeCun, científico jefe de Meta, y otros a argumentar que los LLMs son una gran distracción y una “salida” de la verdadera AGI. LeCun sostiene que, aunque los LLMs son impresionantes en su capacidad para procesar y generar texto similar al humano, carecen de la comprensión y razonar fundamentales necesarias para la AGI.
No obstante, eso no quiere decir que la exageración se haya disipado por completo. La fiebre de la IA continúa en algunos círculos de Silicon Valley, ejemplificada por el reciente apasionado video de cuatro horas de Leopold Aschenbrenner, un ex-empleado de OpenAI, argumentando que la AGI podría llegar en tres años.
Sin embargo, muchos observadores experimentados, incluido Narayanan de Princeton, señalan serias fallas en tales argumentos. Es esta perspectiva más fundamentada la que la mayoría de las empresas debería adoptar. En conversaciones con líderes de IA empresarial —de compañías como Honeywell, Kaiser Permanente, Chevron y Verizon— he escuchado de manera consistente que la realidad de la implementación de la IA es mucho más compleja y matizada de lo que la exageración sugiere.
Si bien los líderes aún están entusiasmados con su potencial, es importante no dejarse llevar por la idea de que la IA está mejorando tan rápido que la próxima generación de tecnología resolverá los problemas de la generación actual, dice Steve Jones, EVP de CapGemini, una empresa que ayuda a otras a adoptar IA. “Debes poner los controles ahora para aprovecharlo bien: ‘Ya sea que el 20% o el 50% de las decisiones se tomen por IA en los próximos cinco años. No importa’”, dijo en una entrevista con los medios. El punto es que tu éxito profesional depende del éxito de ese algoritmo y tu organización cuenta contigo para entender cómo funciona y asegurar que funcione bien.
“Todo lo que se dice sobre la AGI es un sinsentido,” dijo, refiriéndose a la continua exageración entre los desarrolladores de Silicon Valley que no están realmente enfocados en implementaciones empresariales. Pero la IA es “más un cambio organizacional que tecnológico,” añadió, y las empresas deben aprovechar y controlar los avances básicos de los LLMs que ya existen.
Las grandes empresas están dejando que los proveedores de modelos realicen el trabajo pesado del entrenamiento, mientras se centran en ajustar los modelos para sus propósitos específicos. Este enfoque más pragmático es respaldado por líderes de los sectores de finanzas, salud y comercio minorista que hemos estado siguiendo.
Por ejemplo, en JPMorgan Chase, Citi, Wells Fargo y otros bancos con los que he hablado, el enfoque está en utilizar IA para mejorar funciones bancarias específicas, lo que lleva a aplicaciones prácticas en detección de fraudes, gestión de riesgos y servicio al cliente.
En el ámbito de la salud, la Dra. Ashley Beecy, directora médica de operaciones de IA en el sistema hospitalario NewYork-Presbyterian, proporciona otro ejemplo de cómo las grandes visiones están siendo ancladas por aplicaciones prácticas de IA. Si bien imagina una IA que lo sepa todo sobre un paciente, dice que el hospital está comenzando con aplicaciones más prácticas como reducir la carga administrativa sobre los médicos mediante la grabación y transcripción de visitas de pacientes.
Beecy señala que gran parte de la capacidad técnica para la versión más ambiciosa de IA está en su lugar, pero es cuestión de ajustar flujos de trabajo y procesos internos para permitir que esto ocurra, o lo que ella llama “gestión del cambio”. Esto tomará mucho trabajo y pruebas, reconoce, y también requerirá el intercambio de ideas por parte de organizaciones de salud nacionales, ya que requerirá un cambio estructural más grande más allá de su propio hospital.
En VB Transform, exploraremos esta tensión entre la exageración de la AGI y la realidad práctica con oradores de todo el espectro de la industria, brindando a los asistentes una visión clara de dónde se encuentran realmente las capacidades de IA y cómo pueden aprovecharse eficazmente en la empresa. Oradores como Jared Kaplan, científico jefe de Anthropic, discutirán el estado actual de las capacidades de IA y los desafíos por venir. También escucharemos a líderes empresariales que navegan con éxito por este paisaje posterior a la exageración, incluyendo a Nhung Ho de Intuit y Bill Braun, CIO de Chevron.
3. El cuello de botella de GPU: realidades de infraestructura
¿Hay un cuello de botella de GPU que esté perjudicando la escalabilidad de GenAI? Nuestra respuesta: Sí, pero es más matizada de lo que sugieren los titulares.
Por qué es importante: Las empresas deben planificar estratégicamente sus inversiones en infraestructura de IA, equilibrando necesidades inmediatas con escalabilidad a largo plazo.
El auge en el desarrollo de IA ha llevado a una demanda sin precedentes de hardware especializado, particularmente GPU (Unidades de Procesamiento Gráfico), que ayudan a ejecutar aplicaciones de IA. Nvidia, el principal fabricante de GPU, ha visto su valor de mercado dispararse a más de 3 billones de dólares, convirtiéndose en una de las empresas más valiosas del mundo. Esta demanda ha creado una escasez de suministro, aumentando costos y extendiendo los tiempos de espera para esta infraestructura crítica de IA.
Sin embargo, el cuello de botella no es uniforme en todas las aplicaciones de IA. Mientras que el entrenamiento de grandes modelos requiere inmensas potencias de cálculo, muchos casos de uso empresarial se centran en la inferencia —ejecutar modelos preentrenados para generar salidas. Para estas aplicaciones, los requisitos de hardware pueden ser menos exigentes.
Jonathan Ross, CEO de Groq, una empresa que desarrolla chips innovadores de IA, sostiene que la inferencia puede ejecutarse de manera eficiente en hardware que no sea de GPU. Las Unidades de Procesamiento de Lenguaje (LPUs) de Groq prometen ganancias significativas de rendimiento para ciertas tareas de IA. Otras startups también están ingresando a este espacio, desafiando el dominio de Nvidia y potencialmente aliviando el cuello de botella de GPU.
A pesar de estos desarrollos, la tendencia general apunta hacia unas demandas computacionales crecientes. Los laboratorios de IA y las empresas de nube de gran escala que están entrenando modelos avanzados y quieren mantenerse como líderes están construyendo enormes centros de datos, algunos de los cuales se han unido a lo que llamo “el club de los 500K GPU”. Esta carrera armamentista está impulsando el interés en tecnologías alternativas como la computación cuántica, la fotónica e incluso el ADN sintético para almacenamiento de datos que apoyen la escalabilidad de IA.
Sin embargo, la mayoría de las empresas no se encuentran tan limitadas por la disponibilidad de GPU. La mayoría simplemente utilizará los nubes de Azure, AWS y GCP de Google, dejando que esos grandes jugadores se encarguen de los costos de la expansión de GPU.
Tomemos a Intuit como un ejemplo. La empresa fue una de las primeras en adoptar en serio la IA generativa el año pasado. La VP de IA de la empresa, Nhung Ho, me dijo la semana pasada que no necesitan las últimas GPU para su trabajo. “Hay muchas GPU más antiguas que funcionan perfectamente”, dijo Ho. “Estamos utilizando tecnología de seis o siete años... funciona maravillosamente.” Esto sugiere que para muchas aplicaciones empresariales, soluciones creativas y arquitecturas eficientes pueden mitigar el cuello de botella de hardware.
En VB Transform, profundizaremos en estos desafíos de infraestructura. Oradores como Jonathan Ross de Groq, Nik Spirin de Nvidia, Jamie Garcia, director de Algoritmos Cuánticos de IBM, y Kirk Bresniker, arquitecto jefe de HPE, discutirán el panorama evolutivo del hardware de IA. También escucharemos a proveedores de nube como AWS, que trabajan en optimizaciones de software para maximizar las capacidades del hardware existente.
4. Derechos de contenido y entrenamiento de LLM: minas legales por delante
¿Es todo el contenido en la web gratuito para entrenar LLMs? Nuestra respuesta: No, y esto presenta importantes desafíos legales y éticos.
Por qué es relevante: Las empresas deben ser conscientes de los posibles problemas de derechos de autor y privacidad al desplegar modelos de IA, ya que el panorama legal está evolucionando rápidamente.
Los datos utilizados para entrenar LLMs se han convertido en un tema contencioso, con importantes implicaciones para los desarrolladores de IA y los usuarios empresariales. The New York Times y el Center for Investigative Reporting han presentado demandas contra OpenAI, alegando el uso no autorizado de su contenido para entrenamiento, lo cual es solo la punta del iceberg.
Esta batalla legal destaca una pregunta crucial: ¿Tienen las empresas de IA derecho a recopilar y utilizar contenido en línea para entrenamiento sin permiso explícito o compensación? La respuesta no es clara, y los expertos legales sugieren que podría tomar hasta una década para que este tema se resuelva completamente en los tribunales.
Aunque muchas empresas de IA ofrecen indemnización para las empresas que usan sus servicios, esto no protege completamente a las empresas de los posibles riesgos legales. La situación se complica aún más con la aparición de motores de búsqueda y herramientas de resumen impulsadas por IA. Perplexity AI, por ejemplo, ha enfrentado críticas por resumir artículos de pago, lo que llevó a una queja de Forbes alegando infracción de derechos de autor.
Como fundador de una empresa de medios, tengo un interés en este debate. Nuestro modelo de negocio, como el de muchos editores, se basa en las visitas a la página y la publicidad. Si los modelos de IA pueden resumir libremente nuestro contenido sin generar tráfico a nuestro sitio, amenaza nuestra capacidad para monetizar nuestro trabajo. Esto no es solo una preocupación para las empresas de medios, sino para cualquier creador de contenido.
Cualquier empresa que utilice modelos de IA entrenados con datos web podría enfrentarse a desafíos legales. Las empresas deben entender el origen de los datos utilizados para entrenar los modelos de IA que despliegan. Esto también es clave para las empresas de finanzas y banca, que enfrentan estrictas regulaciones en torno a la privacidad y el uso de información personal.
Algunas empresas están tomando medidas proactivas para abordar estas preocupaciones. En el aspecto del entrenamiento, OpenAI está acelerando para cerrar acuerdos con editores y otras empresas. Apple ha firmado acuerdos con editores de noticias para utilizar su contenido para entrenamiento de IA. Esto podría sentar un precedente sobre cómo las empresas de IA y los creadores de contenido colaboran en el futuro.
En VB Transform, exploraremos estas complejidades legales en profundidad. Aravind Srinivas, CEO de Perplexity AI, compartirá ideas sobre cómo navegar estos desafíos. También escucharemos a líderes empresariales sobre cómo están abordando estas cuestiones en sus estrategias de IA.
5. Aplicaciones de GenAI: transformando bordes, no núcleos.
¿Las aplicaciones de GenAI están interrumpiendo las ofertas centrales de la mayoría de las empresas? Nuestra respuesta: No, todavía no.
Por qué esto es importante: Si bien la IA es transformadora, su impacto es actualmente más pronunciado en la mejora de procesos existentes que en la revolución de modelos comerciales centrales.
La narrativa en torno a la IA a menudo sugiere una inminente disrupción total de las operaciones empresariales. Sin embargo, la realidad en el terreno cuenta una historia diferente. La mayoría de las empresas están encontrando éxito aplicando la IA a funciones periféricas en lugar de reestructurar completamente sus ofertas centrales.
Las aplicaciones comunes incluyen:
- Chatbots de soporte al cliente
- Asistentes de base de conocimiento para empleados
- Material de marketing generativo
- Herramientas de generación y depuración de código
Estas aplicaciones están impulsando ganancias significativas en productividad y eficiencias operativas. Sin embargo, aún no están generando los enormes aumentos de ingresos o cambios de modelo empresarial que algunos predecían.
Ejecutivos de empresas minoristas como Albertsons y AB InBev me han dicho que están buscando ansiosamente formas de impactar en su núcleo, experimentando con “modelos de aplicación grande” para predecir patrones de compra de clientes. En la industria farmacéutica, hay esperanzas de que la IA pueda acelerar el descubrimiento de fármacos, aunque el progreso ha sido más lento de lo que muchos imaginan.
Intuit también proporciona un interesante estudio de caso en este contexto. Su negocio, basado en códigos y terminología fiscal y empresarial, está más cerca de las poderosas aplicaciones lingüísticas que los LLMs proporcionan, lo que explica por qué Intuit avanzó rápidamente, anunciando su propio Sistema Operativo de IA Generativa (GenOS) hace un año. Integra asistentes de IA en productos como TurboTax, QuickBooks y Mailchimp. Sin embargo, su uso de IA se centra en la asistencia al cliente, similar a lo que otros también están usando la IA.
La perspectiva de Apple es reveladora. Ellos ven la IA como una característica, no como un producto —al menos por ahora. Esta postura refleja el estado actual de la IA en muchas empresas: una herramienta poderosa para la mejora, en lugar de una revolución independiente.
Caroline Arnold, vicepresidenta ejecutiva de StateStreet, un importante banco de Boston, ejemplifica este sentimiento de que la IA generativa se trata de ganancias en productividad, pero no de un motor central de ingresos. En nuestro evento en Boston en marzo, destacó el potencial de la IA: “Lo que la IA generativa te permite hacer es interactuar de manera muy natural con grandes cantidades de datos, al instante, y construir escenarios... de una manera que te llevaría mucho más tiempo de manera tradicional”.
Si bien el nuevo chatbot infundido con LLM del banco superó rápidamente el servicio de mesa de ayuda existente, no estuvo exento de desafíos. El chatbot ocasionalmente ofrecía “respuestas extrañas”, requiriendo ajustes. Cuatro meses después, State Street aún no ha lanzado sus aplicaciones públicamente, subrayando las complejidades de la adopción de IA generativa empresarial incluso en los bordes.
En VB Transform, exploraremos esta realidad matizada con oradores como Nhung Ho, VP de IA en Intuit, Bill Braun, CIO de Chevron, Daniel Yang, VP de IA para Kaiser Permanente, Desirée Gosby, VP de Walmart, y Christian Mitchell, EVP de Northwestern. Compartirán ideas sobre cómo están integrando la IA en sus operaciones y dónde ven los impactos más significativos.
6. Agentes de IA: ¿la próxima frontera o exageración desmedida?
¿Los agentes de IA serán el futuro de la IA? Nuestra respuesta: Sí, pero con matices.
¿Por qué es relevante? Los agentes de IA representan un posible avance en la automatización y toma de decisiones, pero sus capacidades actuales a menudo están sobreestimadas.
El concepto de agentes de IA —sistemas autónomos que pueden realizar tareas o tomar decisiones con mínima intervención humana— ha capturado la imaginación de muchos en el mundo tecnológico. Algunos, como el ex-empleado de OpenAI Leopold Aschenbrenner, imaginan un futuro no muy lejano donde cientos de millones de agentes de IA inteligentes AGI gestionen varios aspectos de nuestro mundo. Esto, a su vez, condensaría una década de progreso algorítmico en un año o menos: “Pasaríamos rápidamente de IA a nivel humano a sistemas de IA vastamente superiores”, argumenta.
Sin embargo, la mayoría de las personas con las que he hablado creen que es un sueño lejano. El estado actual de los agentes de IA es, de hecho, mucho más modesto de lo que incluso los entusiastas de Silicon Valley asumieron hace apenas un año, cuando la emoción explotó alrededor de Auto-GPT, un marco de agente que supuestamente permitiría hacer todo tipo de cosas, incluyendo iniciar tu propia empresa. Si bien hay casos de uso prometedores en áreas como el servicio al cliente y la automatización del marketing, los agentes de IA totalmente autónomos todavía están en su infancia y enfrentan muchos desafíos para mantenerse enfocados en sus trabajos.
Otras aplicaciones emergentes de agentes de IA incluyen:
- Planificación y reserva de viajes
- Búsquedas de productos en comercio electrónico y compras
- Asistentes de codificación automatizados
- Algoritmos de trading financiero
Estos agentes a menudo utilizan un LLM líder para orquestar el proceso, con sub-agentes manejando tareas específicas como búsquedas web o pagos. Sin embargo, están lejos de ser sistemas totalmente autónomos y de propósito general como algunos imaginan.
El enfoque de Intuit hacia los agentes de IA es instructivo. Nhung Ho reveló que, aunque Intuit ha construido infraestructura para apoyar marcos de agentes, ha pausado las inversiones en esa área. Intuit está esperando que la tecnología madure antes de integrarla completamente en sus productos.
Este enfoque cauteloso refleja el sentimiento más amplio de la industria. Si bien los agentes de IA muestran promesa, aún no son lo suficientemente confiables o versátiles para una adopción empresarial generalizada en roles críticos.
En VB Transform, exploraremos el estado actual y el potencial futuro de los agentes de IA. Oradores como Itamar Friedman, CEO de Codium AI, que está desarrollando un agente de codificación autónomo, y Jerry Liu, CEO de LlamaIndex, compartirán sus perspectivas sobre esta tecnología emergente.
Conclusión: Navegando el paisaje de IA en 2024 y más allá.
A medida que hemos explorado los seis debates críticos sobre IA que moldean la estrategia empresarial en 2024, emerge un tema claro: el cambio de la exageración a la implementación práctica. Las conclusiones clave para los líderes empresariales son:
- La carrera de los LLM ha llegado a un punto de estancamiento: Concéntrate en seleccionar modelos basados en casos de uso específicos, eficiencia de costos y facilidad de integración en lugar de perseguir el "mejor" modelo.
- La exageración de la AGI está disminuyendo, la IA práctica está en alza: El enfoque inmediato debe ser aprovechar las capacidades existentes de IA para resultados empresariales tangibles.
- Los desafíos de infraestructura requieren soluciones creativas: Explora soluciones de hardware alternativas y optimiza los flujos de trabajo de IA para maximizar la eficiencia en el hardware existente.
- Las consideraciones legales y éticas son primordiales: Verifica cuidadosamente a los proveedores de IA y comprende la procedencia de sus datos de entrenamiento para mitigar riesgos legales.
- Enfócate en mejorar funciones centrales, no en reemplazarlas: Busca oportunidades para integrar la IA en atención al cliente, asistencia a empleados y mejora de la eficiencia operativa.
- Los agentes de IA muestran promesa, pero no están listos para el prime time: Desarrolla la infraestructura para apoyar marcos de agentes, pero prepárate para esperar a que la tecnología madure antes de la implementación completa.
La verdadera revolución de la IA no está ocurriendo en laboratorios de investigación persiguiendo la AGI, sino en oficinas de todo el mundo donde se integra la IA en las operaciones diarias. Como dijo Steve Jones de Capgemini, “La IA es más un cambio organizacional que un cambio tecnológico”.
A medida que nos acercamos a VB Transform y a la segunda mitad del año, recuerda que la implementación de IA más valiosa podría no hacer titulares. Podría ser la que ahorra a tu equipo de servicio al cliente unas horas cada día o ayuda a tus desarrolladores a detectar errores más rápidamente. La pregunta ya no es “¿La IA cambiará todo?” sino “¿Cómo podemos aprovechar la IA para mejorar lo que hacemos?” Esa es la cuestión que separará a los líderes en IA de los rezagados en los años venideros.
Y esa es la conversación que creo que dominará en VB Transform.