Alors que les entreprises cherchent à tirer parti de l'IA pour obtenir un avantage concurrentiel, les fournisseurs s'empressent de lancer des outils qui simplifient le développement d'applications d'IA et de ML performantes. Bien que le développement sans code ait gagné en popularité, Iterate fait un pas audacieux en supprimant complètement la couche de codage. Basée en Californie, Iterate se spécialise dans le déploiement de l'IA et des technologies émergentes dans des environnements privés, edge et cloud. Aujourd'hui, ils ont présenté AppCoder LLM, un modèle finement ajusté qui génère du code d'application IA prêt à la production à partir de requêtes en langage naturel.
Intégré à la plateforme de développement d'applications Interplay d'Iterate, AppCoder LLM fonctionne de manière fluide avec des invites textuelles, agissant comme un copilote d'IA générative. Sa performance surpasser les solutions de codage IA existantes, telles que Wizardcoder, permettant aux équipes de développement d'obtenir rapidement un code précis pour diverses applications d'IA, de la détection d'objets à la gestion de documents.
"Ce modèle innovant peut générer du code fonctionnel pour des projets, accélérant ainsi significativement le cycle de développement. Nous encourageons les équipes à explorer Interplay-AppCoder LLM et à découvrir la puissance de la génération automatique de code", a déclaré Brian Sathianathan, CTO d'Iterate.ai.
Qu'est-ce qui distingue AppCoder LLM ?
Au cœur d'Interplay, se trouve une plateforme entièrement conteneurisée et facile à utiliser, qui intègre des moteurs d'IA, des sources de données d'entreprise et des nœuds de services tiers pour rationaliser le développement d'applications prêtes à la production. Les équipes de développeurs peuvent ouvrir chaque nœud pour ajouter du code personnalisé, domaine dans lequel AppCoder excelle. Il permet aux utilisateurs de convertir efficacement des instructions simples en langage naturel en code.
"Interplay-AppCoder peut tirer parti de bibliothèques de vision par ordinateur comme YOLOv8 pour créer des applications avancées de détection d'objets. Nous pouvons également générer du code pour des bibliothèques largement utilisées comme LangChain et les bibliothèques Google, essentielles pour les chatbots et d'autres fonctions", a noté Sathianathan.
Par exemple, un restaurant de restauration rapide pourrait connecter une source de données vidéo et demander à Interplay-AppCoder de créer une application d'identification de voitures en utilisant le modèle YOLOv8. Le LLM générerait instantanément le code nécessaire.
Sathianathan a partagé qu’au cours des tests, son équipe a créé une application de détection prête pour la production en moins de cinq minutes. Un tel développement rapide réduit les coûts et augmente la productivité, permettant aux équipes de se concentrer sur des initiatives stratégiques favorisant la croissance de l'entreprise.
Comparaison des performances d'AppCoder
Au-delà de la rapidité, AppCoder LLM offre des résultats supérieurs par rapport à des concurrents tels que Code Llama de Meta et Wizardcoder. Dans un benchmark ICE ayant évalué les versions 15B d'AppCoder et Wizardcoder avec les bibliothèques LangChain et YOLOv8, le modèle d’Iterate a obtenu un score de précision fonctionnelle supérieur de 300 % (2.4/4.0 contre 0.6/4.0) et un score d'utilité supérieur de 61 % (2.9/4.0 contre 1.8/4.0).
Ces scores indiquent qu'AppCoder excelle dans la réalisation de tests unitaires pertinents pour l'invite et le code source, tout en garantissant que les résultats sont clairs et logiquement organisés, maintenant ainsi une lisibilité humaine.
"Le temps de réponse pour la génération de code sur un GPU A100 était généralement de 6 à 8 secondes. Notre formation a utilisé un format de questions-réponses de style conversationnel", a ajouté Sathianathan, révélant que ces résultats proviennent d'un ajustement minutieux de divers modèles sur un ensemble de données soigneusement sélectionné de bibliothèques modernes d'IA générative.
Regard vers l'avenir
Bien qu'AppCoder soit maintenant disponible pour des tests et une utilisation, Iterate considère cette lance comme un point de départ. L'entreprise développe activement 15 LLM privés pour de grandes entreprises et se concentre sur l'élargissement de son support pour les déploiements CPU et edge afin d'améliorer l'évolutivité.
"Iterate continuera d'améliorer sa plateforme et son ensemble d'outils pour la gestion des moteurs d'IA, des modèles de langue émergents et des ensembles de données étendus, tous adaptés pour un développement et un déploiement rapides d'applications. Notre architecture sans code garantit une adaptation rapide aux modèles émergents dans un paysage en évolution rapide," a conclu le CTO.
Au cours des deux dernières années, Iterate a presque doublé son chiffre d'affaires et sert désormais des clients du Fortune 100 dans divers secteurs, notamment la banque, l'assurance, les services de documentation, le divertissement, les biens de luxe, les services automobiles et le commerce de détail.