Kong Inc., führend in Cloud-API-Technologien, hat das Kong AI Gateway eingeführt – ein KI-natives API-Gateway, das zur Verwaltung und Sicherung generativer KI-Workloads in jeder Cloud-Umgebung entwickelt wurde. Nach dem Beta-Release im Februar hat das Produkt an Bedeutung gewonnen, da Unternehmen bestrebt sind, generative KI zu operationalisieren.
Das Kong AI Gateway umfasst ein umfassendes Set an Infrastrukturfunktionen, die speziell für KI konzipiert sind, darunter die Unterstützung mehrerer großer Sprachmodelle (LLMs), semantisches Caching, semantisches Routing, semantische Firewall-Mechanismen sowie das Management des Modelllebenszyklus. Es integriert sich nahtlos in die bestehende API-Plattform von Kong, sodass Unternehmen KI zusammen mit traditionellen APIs verwalten können.
„Unternehmen und Entwickler schaffen innovative Anwendungsfälle für generative KI, um Nutzer- und Kundenerlebnisse zu verbessern. Doch die Skalierung dieser fortschrittlichen Technologie in der Produktion erfordert eine robuste Infrastruktur“, erklärte Marco Palladino, CTO und Mitgründer von Kong.
Palladino ist überzeugt, dass das Kong AI Gateway eine der fortschrittlichsten KI-Infrastrukturtechnologien auf dem Markt darstellt. Es nutzt die etablierten Funktionen von Kongs Gateway und bietet gleichzeitig umfassende KI-spezifische Funktionalitäten. Er verglich diese Entwicklung mit den Anfangstagen der APIs, als die richtige Infrastruktur die Unterstützung für Entwickler ermöglichte.
Als zentraler Hub bietet das Kong AI Gateway eine einheitliche API-Oberfläche zur Verwaltung und Sicherung verschiedenster KI-Technologien in Anwendungen. Zu seinen umfassenden Funktionen zählen Governance, Beobachtbarkeit und Sicherheit, was es Unternehmen ermöglicht, generative KI-Initiativen effektiv zu deployen und zu skalieren.
Ein wesentlicher Vorteil des Kong AI Gateways ist die Fähigkeit, KI-Verkehr zu analysieren und eine einheitliche API für den Zugriff auf mehrere KI-Anbieter zu schaffen. „Im Gegensatz zu anderen API-Management-Plattformen, die LLM-APIs als Standard-APIs behandeln, hebt Kong den Ansatz hervor“, bemerkte Palladino.
Das Gateway bietet robuste Funktionen wie Prompt-Sicherheit, Compliance, Governance, Vorlagenmanagement und Lifecycle-Management für KI-Prompts. Darüber hinaus stellt es „L7 AI-Beobachtungsmetriken“ bereit, die Einblicke in Anbieterleistungen, Token-Nutzung und Kosten bieten – eine Detailtiefe, die laut Palladino bei Wettbewerbern fehlt.
Kongs einheitliche Kontrollplattform, Kong Konnect, erleichtert die Monetarisierung von optimierten KI-Modellen neben traditionellen APIs. „Die nächste Grenze in der API-Monetarisierung sind die Modelle selbst“, erklärte Palladino. „Die Feinabstimmung von Modellen mit firmeneigenem Wissen hat erheblichen Wert.“
Die Einführung erfolgt inmitten eines gestiegenen Interesses an generativer KI, insbesondere nach dem Erfolg von OpenAI's ChatGPT. Viele Unternehmen haben jedoch Schwierigkeiten, die Technologie effektiv zu implementieren und zu steuern. Kong strebt an, diesen Prozess mit seinem spezialisierten KI-Gateway zu vereinfachen.
„Jedes Unternehmen war begierig darauf, was wir geschaffen haben, zu replizieren“, merkte Palladino an und nannte die überwältigende Nachfrage als Katalysator für die beschleunigte Produktverfügbarkeit. „Wir haben bereits Unternehmensanwender, die diese Funktionalität in der Produktion nutzen, auch mit der Beta-Version.“
Ursprünglich 2009 als Mashape gegründet und 2017 in Kong umbenannt, hat das Unternehmen über 170 Millionen Dollar an Risikokapital gesammelt und unterstützt Billionen von API-Transaktionen für mehr als 500 globale Organisationen. Mit dem strategischen Fokus auf KI-native Infrastruktur ist Kong gut positioniert, um die nächste Welle der Einführung generativer KI in Unternehmen voranzutreiben.
„Um generative KI in großem Maßstab freizuschalten, ist der Einsatz der richtigen KI-Infrastruktur entscheidend“, schloss Palladino. „Das Kong AI Gateway ist genau diese Lösung.“