Während Meta’s Llama 3 schnell an Beliebtheit gewinnt und zu den meistgenutzten großen Sprachmodellen (LLMs) zählt, verbessert OpenAI, der Pionier der generativen KI, seinen Wettbewerbsvorteil durch die Einführung neuer Unternehmensfunktionen für sein GPT-4 Turbo LLM und andere Modelle. OpenAI hat eine Erweiterung der auf Unternehmen ausgerichteten Funktionen für seine API-Kunden angekündigt, die die Assistants API bereichert und neue Tools einführt, die Sicherheit, administrative Kontrolle und Kostenmanagement verbessern.
Olivier Godement, Head of Product für API bei OpenAI, erklärte in einem kürzlichen Interview: „Im Gespräch mit Entwicklern und Unternehmen über die sinnvolle Nutzung von KI-Modellen hat OpenAI weiterhin die Führungsposition. Wir begrüßen den Wettbewerb – er fördert Verbesserungen für alle.“
Private Link und Verbesserte Sicherheitsfunktionen
Ein zentrales Sicherheitsupgrade ist die Einführung von Private Link, das eine sichere Kommunikation zwischen Microsofts Azure-Cloud-Service und OpenAI ermöglicht. Dadurch wird die Exposition von Kundendaten im offenen Internet bei API-Abfragen reduziert. OpenAIs Sicherheitsrahmen umfasst zudem SOC 2 Type II-Zertifizierung, Single Sign-On (SSO), AES-256-Datenverschlüsselung im Ruhezustand, TLS 1.2-Verschlüsselung während der Übertragung und rollenbasierte Zugriffskontrollen. Darüber hinaus hat OpenAI eine native Multi-Faktor-Authentifizierung (MFA) implementiert, um die Zugriffskontrollen angesichts steigender Compliance-Anforderungen zu stärken.
Für Gesundheitsorganisationen, die HIPAA-Konformität benötigen, bietet OpenAI Business Associate Agreements sowie eine Null-Datenaufbewahrungspolitik für qualifizierte API-Kunden an.
Überarbeitete Assistants API für Verbesserte Dateiverwaltung
Ein bedeutendes Unternehmensangebot von OpenAI ist die Assistants API, die nun aufgerüstet wurde, um die Dateiwiederherstellungsfähigkeiten mit der neuen Funktion „file_search“ zu verbessern. Diese kann bis zu 10.000 Dateien pro Assistent verwalten – eine 500-fache Steigerung im Vergleich zur vorherigen Begrenzung von nur 20 Dateien. Dieses Upgrade umfasst Funktionen wie parallele Abfragen, verbesserte Neuordnung und Abfrageumschreibung.
OpenAI hat außerdem Streaming-Funktionen für Echtzeit-Gesprächsantworten eingeführt, sodass Modelle wie GPT-4 Turbo Ausgaben generieren können, während die Tokens erstellt werden, anstatt auf vollständige Antworten zu warten. Die API bietet nun neue „vector_store“-Objekte zur Verbesserung der Dateiverwaltung und ermöglicht eine detaillierte Kontrolle über die Token-Nutzung, was das Kostenmanagement unterstützt.
Projektfunktion für Maßgeschneiderte Zugriffskontrolle
Die neu eingeführte Projektfunktion ermöglicht es Organisationen, Rollen und API-Schlüssel auf Projektebene zu verwalten. Unternehmenszüge können somit Berechtigungen festlegen, die Verfügbarkeit von Modellen steuern und Nutzungsgrenzen setzen, um unerwartete Kosten zu vermeiden. Unterschiedliche Teams innerhalb eines Unternehmens können mit spezifischen KI-Modellen an separaten Projekten arbeiten, ohne dass die Gefahr einer Datenvermischung besteht. Miqdad Jaffer von OpenAI erläuterte: „Projekte ermöglichen es Ihnen, Ihre Ressourcen und Mitglieder in individuelle Projekte zu separieren, was eine differenzierte Berichterstattung und verbesserte Kontrolle über Zugriff, Sicherheit und Kosten bietet.“
Kostenmanagementfunktionen für Skalierbare KI-Operationen
OpenAI führt zudem neue Kostenmanagementfunktionen ein, um Organisationen zu helfen, KI-Operationen effizient zu skalieren. Dazu gehören vergünstigte Tarife für konsistente Token-Nutzung und eine Kostenreduktion von 50 % für asynchrone Workloads über die neue Batch API, die schnellere Reaktionszeiten und höhere Ratenlimits verspricht.
Um die Batch API zu nutzen, müssen Kunden ihre Tokens in einer einzigen Anfrage einreichen, wobei die Ergebnisse in der Regel innerhalb von 24 Stunden bereitgestellt werden. OpenAI gibt jedoch an, dass Antworten bei nicht dringendem Feedback auch bereits in 10-20 Minuten erfolgen können.
Während OpenAI weiterhin seine Angebote mit einem Fokus auf sicherheitsorientierte Unternehmenslösungen, administrative Kontrolle und Kostenmanagement stärkt, zielen diese Updates darauf ab, Unternehmen ein nahtloseres Erlebnis zu bieten und gleichzeitig dem Aufstieg von Llama 3 und offenen Modellen von Wettbewerbern wie Mistral entgegenzuwirken, die unter Umständen zusätzliche Einrichtungsanstrengungen für Unternehmen erfordern.