Iterate präsentiert AppCoder LLM: Unternehmen zur Entwicklung von KI-Anwendungen mit natürlicher Sprache befähigen

Da Unternehmen bestrebt sind, KI für Wettbewerbsvorteile zu nutzen, beeilen sich Anbieter, Tools zu entwickeln, die die Erstellung leistungsstarker KI- und ML-Anwendungen vereinfachen. Während die Low-Code-Entwicklung an Popularität gewonnen hat, geht Iterate einen mutigen Schritt weiter und beseitigt die Codierungsebene vollständig. Das Unternehmen mit Sitz in Kalifornien spezialisiert sich auf die Bereitstellung von KI und aufkommenden Technologien in privaten, Edge- und Cloud-Umgebungen. Heute präsentierten sie das AppCoder LLM – ein fein abgestimmtes Modell, das produktionsbereiten KI-Anwendungscode anhand natürlicher Spracheingaben generiert.

Integriert in die Anwendungsentwicklungsplattform Interplay von Iterate funktioniert AppCoder LLM nahtlos mit Texteingaben und agiert als generativer KI-Co-Pilot. Seine Leistung übertrifft bestehende KI-Coding-Lösungen, einschließlich Wizardcoder, und ermöglicht Entwicklungsteams, schnell präzisen Code für verschiedene KI-Anwendungen von der Objekterkennung bis zur Dokumentenverarbeitung zu erhalten.

„Dieses innovative Modell kann funktionalen Code für Projekte generieren und beschleunigt damit den Entwicklungszyklus erheblich. Wir ermutigen Teams, Interplay-AppCoder LLM zu erkunden und die Kraft der automatischen Codegenerierung zu erleben“, sagte Brian Sathianathan, CTO von Iterate.ai.

Was macht AppCoder LLM besonders?

Im Kern ist Iteration Interplay eine vollständig containerisierte Drag-and-Drop-Plattform, die KI-Engines, Unternehmensdatenquellen und Drittanbieter-Serviceknoten integriert, um die Entwicklung produktionsbereiter Anwendungen zu optimieren. Entwicklungsteams können jeden Knoten für benutzerdefinierten Code öffnen, wobei AppCoder brilliert. Es ermöglicht Nutzern, einfache Anweisungen in natürlicher Sprache effizient in Code umzuwandeln.

„Interplay-AppCoder kann Computer Vision-Bibliotheken wie YOLOv8 nutzen, um fortschrittliche Objekterkennungsanwendungen zu erstellen. Wir können auch Code für weit verbreitete Bibliotheken wie LangChain und Google-Bibliotheken generieren, die für Chatbots und andere Funktionen erforderlich sind“, bemerkte Sathianathan.

Ein Beispiel: Ein Fast-Food-Restaurant könnte eine Video-Datenquelle anschließen und Interplay-AppCoder auffordern, eine Anwendung zur Fahrzeuginformationserkennung mit dem YOLOv8-Modell zu erstellen. Das LLM würde sofort den benötigten Code generieren.

Sathianathan teilte mit, dass sein Team während der Tests in weniger als fünf Minuten eine funktionierende Detektionsanwendung erstellt hat. Diese schnelle Entwicklung senkt die Kosten und steigert die Produktivität, sodass Teams sich auf strategische Initiativen konzentrieren können, die das Wachstum des Unternehmens fördern.

Leistungsvergleich von AppCoder

Über die Geschwindigkeit hinaus liefert AppCoder LLM überlegene Ergebnisse im Vergleich zu Mitbewerbern wie Metas Code Llama und Wizardcoder. In einem ICE-Benchmark, der die 15B-Versionen von AppCoder und Wizardcoder mit den Bibliotheken LangChain und YOLOv8 bewertete, erzielte das Iterate-Modell eine funktionale Richtigkeit von 300 % höher (2.4/4.0 vs. 0.6/4.0) sowie eine Nützlichkeitsbewertung von 61 % höher (2.9/4.0 vs. 1.8/4.0).

Diese Werte zeigen, dass AppCoder in der Durchführung von Unittests, die für die Eingabeaufforderung und den Quellcode relevant sind, überragend abschneidet und gleichzeitig sicherstellt, dass die Ausgaben klar und logisch organisiert sind, wobei die menschliche Lesbarkeit erhalten bleibt.

„Die Antwortzeit für die Codegenerierung auf einer A100-GPU betrug typischerweise 6-8 Sekunden. Unser Training nutzte ein dialogbasiertes Frage-Antwort-Format“, fügte Sathianathan hinzu und erklärte, dass diese Ergebnisse aus einer sorgfältigen Feinabstimmung verschiedener Modelle auf einem kuratierten Datensatz moderner generativer KI-Bibliotheken stammen.

Blick in die Zukunft

Obwohl AppCoder jetzt zum Testen und Nutzen verfügbar ist, sieht Iterate diesen Launch nur als Ausgangspunkt. Das Unternehmen entwickelt aktiv 15 private LLMs für große Unternehmen und konzentriert sich darauf, die Unterstützung für CPU- und Edge-Bereitstellungen zu erweitern, um die Skalierbarkeit zu verbessern.

„Iterate wird weiterhin seine Plattform und Werkzeuge zur Verwaltung von KI-Engines, aufkommenden Sprachmodellen und umfangreichen Datensätzen verbessern, alles zugeschnitten auf eine schnelle Anwendungsentwicklung und -bereitstellung. Unsere Low-Code-Architektur sorgt für eine schnelle Anpassung an neueste Modelle in einem sich rasch entwickelnden Umfeld“, schloss der CTO.

In den letzten zwei Jahren hat Iterate seinen Umsatz fast verdoppelt und bedient nun Fortune-100-Kunden in verschiedenen Sektoren, darunter Banken, Versicherungen, Dokumentationsdienste, Unterhaltung, Luxusgüter, Automobilservices und Einzelhandel.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles