OpenAI hat sein neuestes, snack-großes generatives Modell, GPT-4o mini, vorgestellt, das weniger ressourcenintensiv und kosteneffizienter als das Standardmodell GPT-4o ist. Dieses Upgrade ermöglicht Entwicklern, KI-Technologie problemlos in eine Vielzahl von Produkten zu integrieren. Es stellt nicht nur eine bedeutende Verbesserung für Entwickler und Anwendungen dar, sondern optimiert auch die Funktionen der kostenlosen Version von ChatGPT, wodurch Einschränkungen für die Nutzer minimiert werden. GPT-4o mini ist jetzt für Nutzer in den kostenlosen, Plus- und Team-Tarifen über die ChatGPT-Webseite und App verfügbar, während ChatGPT Enterprise-Abonnenten nächste Woche Zugang erhalten. Ab heute ersetzt GPT-4o mini das bestehende kleine Modell, GPT-3.5 Turbo, für Endnutzer.
Das ältere Modell bleibt über die API für Entwickler zugänglich, die nicht sofort auf GPT-4o mini umsteigen möchten. OpenAI plant jedoch, das vorherige Modell zukünftig abzulehnen, ohne einen konkreten Zeitplan bekanntzugeben. Seit Mai ist GPT-4o für kostenlose ChatGPT-Konten verfügbar, allerdings mit bestimmten Einschränkungen aufgrund der hohen Nachfrage. Die aktualisierte FAQ stellt klar, dass Nutzer nun automatisch auf GPT-4o mini umschalten, anstatt weiterhin GPT-3.5 zu verwenden, sobald sie ihre Limits erreichen. Diese Änderung ist besonders vorteilhaft für Nutzer, die nicht auf ChatGPT Plus upgegradet haben.
Mit der Einführung von GPT-4o mini strebt OpenAI an, die KI-Zugänglichkeit für alle Nutzer zu verbessern, jetzt auch über die API und im Rollout für ChatGPT. Laut Daten von Artificial Analysis erreichte dieses neue Modell beeindruckende 82 % im MMLU-Reasoning-Benchmark und übertraf Gemini 1.5 Flash um 3 % und Claude 3 Haiku um 7 %. Zum Vergleich hält Gemini Ultra von Google mit einer Bewertung von 90 % den aktuellen MMLU-Benchmark-Rekord.
Wichtig ist, dass OpenAI berichtet, dass GPT-4o mini 60 % niedrigere Kosten im Vergleich zu GPT-3.5 Turbo verursacht. Entwickler zahlen 15 Cent pro Million Eingabetokens und 60 Cent pro Million Ausgabetokens. Laut CNBC gilt GPT-4o mini als „das fähigsten und kosteneffizienteste kleine Modell, das heute verfügbar ist“. Die Kosteneinsparungen resultieren daraus, dass viele mit KI verbesserte Aufgaben nicht die vollen Fähigkeiten eines größeren Modells wie GPT, Claude oder Gemini erfordern. Der Einsatz eines vollständigen großen Sprachmodells (LLM) für einfache, hochvolumige Aufgaben kann oft unnötig kostspielig und ressourcenintensiv sein. Hier profitieren kleinere LLMs wie Google’s Gemini 1.5 Flash, Metas Llama 3 8b oder Anthropic’s Claude 3 Haiku, da sie diese Aufgaben schneller und kostengünstiger ausführen.
OpenAI hat außerdem angedeutet, dass GPT-4o mini die gleiche Kontextfenstergröße von 128.000 Tokens (ungefähr die Länge eines Buches) wie das Vollformat-Modell beibehält, mit einem Wissensstand bis Oktober 2023; die spezifische Größe des neuen Modells wurde jedoch nicht bekannt gegeben. Die Modell-API unterstützt derzeit Text- und Vision-Funktionen, während Video- und Audio-Funktionalitäten in der Zukunft geplant sind. Diese Ankündigung folgt auf Upgrades von OpenAI bezüglich des mit GPT-4o integrierten Voice Mode. Das Unternehmen gab bekannt, dass eine kleinere Alpha-Version Ende Juli erwartet wird, mit einer breiteren Markteinführung in diesem Herbst.