OpenAI hat eine neue Funktion angekündigt, die es Drittentwicklern ermöglicht, ihr großes multimodales Modell (LMM) GPT-4o anzupassen. Diese Anpassung erlaubt es Entwicklern, das Verhalten des Modells zu modifizieren, um besser auf die spezifischen Anforderungen ihrer Anwendungen oder Organisationen einzugehen.
Das Fine-Tuning ermöglicht Anpassungen in Tonalität, Einhaltung spezifischer Richtlinien und Verbesserung der Genauigkeit technischer Aufgaben, was sogar mit begrenzten Daten effektiv ist. Entwickler, die an dieser Funktion interessiert sind, können auf das Fine-Tuning-Dashboard von OpenAI zugreifen, „erstellen“ auswählen und im Dropdown-Menü „Basismodell“ die Option gpt-4o-2024-08-06 wählen. Diese Ankündigung folgt der Einführung der kleineren, schnelleren Variante GPT-4o mini, die zwar weniger leistungsstark, aber ebenfalls anpassbar ist.
„Fine-Tuning kann die Modellleistung in verschiedenen Bereichen, von Programmierung bis kreativen Schreiben, erheblich verbessern“, erklären die technischen Mitarbeiter von OpenAI, John Allard und Steven Heidel, in einem Blogbeitrag. „Das ist erst der Anfang; wir werden die Anpassungsoptionen für Entwickler weiter ausbauen.“
Kostenlose Token Bis Zum 23. September Verfügbar
OpenAI betont, dass Entwickler mit nur wenigen Dutzend Trainingsbeispielen beeindruckende Ergebnisse erzielen können. Zur Feier dieser neuen Funktion bietet OpenAI bis zum 23. September 2024 täglich bis zu 1 Million kostenlose Token für das Fine-Tuning von GPT-4o an.
Token sind numerische Darstellungen von Konzepten und für die Eingabe- und Ausgabeprozesse des Modells unerlässlich. Entwickler müssen ihre Daten in Token umwandeln (Tokenisierung), um GPT-4o effektiv anzupassen, und können dafür die Tools von OpenAI nutzen.
Normalerweise kostet das Fine-Tuning von GPT-4o 25 US-Dollar pro Million Token. Der Betrieb des feinjustierten Modells kostet 3,75 US-Dollar pro Million Eingabetoken und 15 US-Dollar pro Million Ausgabetoken. Für Anwender des kleineren GPT-4o mini stehen bis zu 2 Millionen kostenlose Trainingstoken täglich bis zur September-Frist zur Verfügung, um den breiten Zugang zu den Anpassungsfunktionen zu gewährleisten.
Die Initiative von OpenAI, kostenlose Token anzubieten, ist eine Reaktion auf den intensiven Wettbewerb mit proprietären Anbietern wie Google und Anthropic sowie offenen Modellen wie Hermes 3 von Nous Research, das auf Metas Llama 3.1 basiert. Entwickler, die die Modelle von OpenAI nutzen, profitieren zudem von der Bequemlichkeit, die Inferenz oder das Training nicht auf eigenen Servern hosten zu müssen; sie können die Infrastruktur von OpenAI verwenden oder ihre Server über die OpenAI-API verbinden.
Erfolgsgeschichten Demonstrieren Das Potenzial Von Fine-Tuning
Die Einführung des Fine-Tunings für GPT-4o folgt umfangreichen Tests mit ausgewählten Partnern, die das Potenzial maßgeschneiderter Modelle in verschiedenen Sektoren zeigen. So erzielte die KI-Firma Cosine mit ihrem maßgeschneiderten, autonomen KI-Ingenieur-Agenten Genie einen Spitzenwert von 43,8 % im SWE-bench-Benchmark – der höchste unter öffentlich deklarierten KI-Modellen bisher.
Ebenfalls erzielte Distyl, ein KI-Lösungsanbieter für Fortune-500-Unternehmen, mit dem feinjustierten GPT-4o den ersten Platz im BIRD-SQL-Benchmark und erreichte eine Ausführungsgenauigkeit von 71,83 %. Das Modell war in SQL-Anwendungen, einschließlich der Umformulierung von Abfragen und Selbstkorrekturen, besonders erfolgreich.
Sicherheit Und Datenschutz Im Fokus Von Fine-Tuning
OpenAI betont, dass Sicherheit und Datenschutz oberste Priorität haben, während die Anpassungsoptionen für Entwickler erweitert werden. Feinjustierte Modelle geben Organisationen die volle Kontrolle über ihre Daten und stellen sicher, dass Eingaben und Ausgaben nicht zum Training anderer Modelle verwendet werden.
OpenAI hat zudem mehrere Sicherheitsmaßnahmen implementiert, darunter automatisierte Bewertungen und Nutzungsüberwachung, um die Einhaltung der Richtlinien zu gewährleisten. Allerdings zeigen Forschungen, dass Fine-Tuning gelegentlich zu Abweichungen von Sicherheitsprotokollen führen und die Gesamtleistung des Modells beeinträchtigen kann. Letztendlich müssen Organisationen die potenziellen Risiken gegen die Vorteile des Fine-Tunings abwägen.
Mit der jüngsten Einführung der Fine-Tuning-Funktion stärkt OpenAI seine Vision, dass in Zukunft die meisten Organisationen Modelle entwickeln werden, die auf ihre Branche oder spezifischen Geschäftsbedürfnisse zugeschnitten sind. Dieses neue Angebot markiert einen bedeutenden Schritt in Richtung dieses Ziels und betont das Engagement von OpenAI, jeder Organisation ein maßgeschneidertes KI-Modell zu ermöglichen.