OpenAI, das führende Unternehmen für künstliche Intelligenz-Forschung, hat eine neue Generation von Embedding-Modellen vorgestellt, die Text in numerische Darstellungen umwandeln, die für verschiedene maschinelle Lernaufgaben geeignet sind. Neben dieser Innovation präsentierte das Unternehmen verbesserte Versionen seiner Modelle GPT-4 Turbo und GPT-3.5 Turbo, aktualisierte Moderationsmodelle, neue API-Management-Tools und eine Preissenkung von 25 % für das Modell GPT-3.5 Turbo.
Embeddings sind numerische Sequenzen, die Konzepte in Inhalten wie natürlicher Sprache oder Code repräsentieren. Sie ermöglichen es maschinellen Lernmodellen, Beziehungen innerhalb der Daten effizient zu verstehen und erleichtern Aufgaben wie Clustering und Retrieval. Embeddings sind die Grundlage für Anwendungen wie die Wissensretrieval-Funktion in ChatGPT und der Assistants API sowie zahlreiche tools zur retrieval-unterstützten Generierung (RAG).
Die neuen Embedding-Modelle von OpenAI, text-embedding-3-small und text-embedding-3-large, bieten im Vergleich zum Vorgängermodell text-embedding-ada-002 verbesserte Leistung und Kostenersparnis. Diese neuen Modelle erzeugen Embeddings mit bis zu 3072 Dimensionen, die mehr semantische Informationen erfassen und somit die Genauigkeit nachgelagerter Aufgaben verbessern.
Besonders bemerkenswert ist, dass der durchschnittliche Score in einem weit verbreiteten Benchmark für mehrsprachiges Retrieval (MIRACL) von 31,4 % auf 54,9 % mit den neuen Modellen angestiegen ist, während der Score bei Englisch-Aufgaben (MTEB) von 61,0 % auf 64,6 % erhöht wurde. Der Preis für text-embedding-3-small wurde im Vergleich zu seinem Vorgänger um das Fünffache gesenkt, was es Entwicklern kostengünstiger macht.
Darüber hinaus hat OpenAI seine GPT-4 Turbo- und GPT-3.5 Turbo-Modelle verbessert, die sowohl natürliche Sprache als auch Code verstehen und generieren können. Die neuesten Versionen bieten verbesserte Anweisungsbefolgung, JSON-Modus-Funktionalitäten, reproduzierbarere Ausgaben und Unterstützung für parallele Funktionsaufrufe. Eine neue Version mit 16k Kontext für GPT-3.5 Turbo wurde ebenfalls eingeführt, die größere Eingaben und Ausgaben im Vergleich zur Standardversion mit 4k ermöglicht.
Das Textmoderationsmodell wurde ebenfalls aktualisiert, um potenziell sensible oder unsichere Texte besser zu erkennen. Diese neue Version kann eine breitere Palette von Sprachen und Themen abdecken und liefert Erklärungen für ihre Klassifizierungen.
Entwickler können jetzt API-Schlüssel effizienter verwalten, indem sie mehrere Schlüssel mit unterschiedlichen Berechtigungen und Gültigkeitsbereichen erstellen und die API-Nutzung sowie die Abrechnung im OpenAI Dashboard überwachen. Die angekündigte Preissenkung von 25 % für das GPT-3.5 Turbo-Modell zielt darauf ab, die Zugänglichkeit zu erhöhen und mehr Entwicklern die Nutzung dieser Ressource in ihren Anwendungen zu ermöglichen.
Diese Updates spiegeln OpenAIs Engagement wider, seine Modelle und Dienstleistungen kontinuierlich zu verbessern, um Entwickler und Kunden besser zu bedienen. Das Unternehmen lädt Entwickler ein, Feedback zu geben, um die Modelle für verschiedene Anwendungsfälle zu verfeinern, und verspricht fortlaufende Verbesserungen, neue Funktionen und Werkzeuge in der Zukunft.