Iterate presenta AppCoder LLM: Potenciando a las empresas para crear aplicaciones de IA utilizando lenguaje natural.

A medida que las empresas buscan aprovechar la IA para obtener ventajas competitivas, los proveedores se apresuran a lanzar herramientas que simplifican el desarrollo de aplicaciones de IA y ML de alto rendimiento. Mientras que el desarrollo de bajo código ha ganado popularidad, Iterate está dando un paso audaz al eliminar por completo la capa de codificación. Con sede en California, Iterate se especializa en la implementación de IA y tecnologías emergentes en entornos privados, de borde y en la nube. Hoy, han presentado AppCoder LLM, un modelo afinado que genera código de aplicaciones de IA listo para producción mediante solicitudes en lenguaje natural.

Integrado en la plataforma de desarrollo de aplicaciones Interplay de Iterate, AppCoder LLM funciona de manera fluida con comandos de texto, actuando como un copiloto de IA generativa. Su rendimiento supera a las soluciones actuales de codificación de IA, incluyendo Wizardcoder, lo que permite a los equipos de desarrollo obtener rápidamente código preciso para diversas aplicaciones de IA, desde detección de objetos hasta procesamiento de documentos.

“Este modelo innovador puede generar código funcional para proyectos, acelerando significativamente el ciclo de desarrollo. Invitamos a los equipos a explorar Interplay-AppCoder LLM y a experimentar el poder de la generación automática de código”, comentó Brian Sathianathan, CTO de Iterate.ai.

¿Qué hace destacar a AppCoder LLM?

En su núcleo, Interplay es una plataforma totalmente contenedorizada y drag-and-drop que integra motores de IA, fuentes de datos empresariales y nodos de servicios de terceros para agilizar el desarrollo de aplicaciones listas para producción. Los equipos de desarrollo pueden abrir cada nodo para código personalizado, donde AppCoder brilla. Facilita la conversión de simples instrucciones en lenguaje natural a código de manera eficiente.

“Interplay-AppCoder puede aprovechar bibliotecas de visión por computadora como YOLOv8 para crear aplicaciones avanzadas de detección de objetos. También podemos generar código para bibliotecas ampliamente utilizadas como LangChain y las bibliotecas de Google, fundamentales para chatbots y otras funciones”, agregó Sathianathan.

Por ejemplo, un restaurante de comida rápida podría conectar una fuente de datos de video y pedir a Interplay-AppCoder que cree una aplicación de identificación de vehículos utilizando el modelo YOLOv8. El LLM generaría instantáneamente el código necesario.

Sathianathan compartió que durante las pruebas, su equipo creó una aplicación de detección lista para producción en menos de cinco minutos. Este desarrollo rápido reduce costos y aumenta la productividad, permitiendo a los equipos centrarse en iniciativas estratégicas que impulsan el crecimiento empresarial.

Comparativa de rendimiento de AppCoder

Más allá de la velocidad, AppCoder LLM ofrece resultados superiores en comparación con competidores como Code Llama de Meta y Wizardcoder. En un ICE Benchmark que evaluó las versiones de 15B de AppCoder y Wizardcoder con las bibliotecas LangChain y YOLOv8, el modelo de Iterate logró una puntuación de corrección funcional un 300% más alta (2.4/4.0 vs. 0.6/4.0) y una puntuación de utilidad un 61% mayor (2.9/4.0 vs. 1.8/4.0).

Estas puntuaciones indican que AppCoder sobresale en la realización de pruebas unitarias relevantes para la solicitud y el código fuente, asegurando que los resultados sean claros y lógicamente organizados, manteniendo la legibilidad humana.

“El tiempo de respuesta para la generación de código en un GPU A100 fue típicamente de 6 a 8 segundos. Nuestra capacitación utilizó un formato de preguntas y respuestas estilo conversación”, añadió Sathianathan, revelando que estos resultados provienen de un meticuloso ajuste de varios modelos en un conjunto de datos curado de modernas bibliotecas de IA generativa.

Mirando hacia el futuro

Aunque AppCoder está ahora disponible para pruebas y uso, Iterate considera este lanzamiento como solo un punto de partida. La compañía está desarrollando activamente 15 LLM privados para grandes empresas y se centra en ampliar el soporte para implementaciones en CPU y en el borde para mejorar la escalabilidad.

“Iterate seguirá mejorando su plataforma y conjunto de herramientas para gestionar motores de IA, modelos de lenguaje emergentes y conjuntos de datos extensos, todo diseñado para un rápido desarrollo y despliegue de aplicaciones. Nuestra arquitectura de bajo código asegura una rápida adaptación a modelos emergentes en un panorama en rápida evolución”, concluyó el CTO.

En los últimos dos años, Iterate ha casi duplicado sus ingresos y ahora atiende a clientes de Fortune 100 en diversos sectores, incluyendo banca, seguros, servicios de documentación, entretenimiento, bienes de lujo, servicios automotrices y retail.

Most people like

Find AI tools in YBX