Google hat Gemini 1.5 Flash vorgestellt, ein kompaktes multimodales Modell, das für Skalierbarkeit und hochfrequente Aufgaben entwickelt wurde. Mit einem Kontextfenster von einer Million Tokens ist es ab sofort in der öffentlichen Vorschau über die Gemini API im Google AI Studio verfügbar.
Darüber hinaus wird das im Februar eingeführte Gemini 1.5 Pro ein bedeutendes Upgrade erhalten, das das Kontextfenster auf zwei Millionen Tokens erweitert – eine Steigerung von einer Million. Entwickler, die interessiert sind, müssen sich auf die Warteliste setzen lassen, um Zugang zu diesem Update zu erhalten.
Was gibt es Neues bei Gemini 1.5?
Gemini 1.5 Flash und Gemini 1.5 Pro bedienen unterschiedliche Bedürfnisse. Gemini 1.5 Flash legt Wert auf Geschwindigkeit und eignet sich ideal für schnelle Aufgaben, bei denen niedrige Latenzzeiten entscheidend sind. Im Gegensatz dazu ist Gemini 1.5 Pro für komplexere, mehrstufige Denkprozesse optimiert und bietet ähnliche Leistungen wie Googles großes Modell 1.0 Ultra. Laut Josh Woodward, Vizepräsident von Google Labs, sollten Entwickler bei Aufgaben, die schnelle Antworten erfordern, zu Gemini 1.5 Flash greifen, während Gemini 1.5 Pro für anspruchsvollere Anwendungen besser geeignet ist.
Dieser gestufte Ansatz ermöglicht es Entwicklern, zwischen verschiedenen KI-Modellen zu wählen, und bricht mit der Einheitsgröße-Strategie. Durch das Angebot differenzierter Fähigkeiten verbessert Google das Benutzererlebnis bei KI-gestützten Diensten. Ein Nachteil für einige Entwickler könnte sein, dass Gemini 1.5 Flash nicht auf ausreichend großen Datensätzen trainiert wurde. In solchen Fällen könnte ein Upgrade auf Gemini 1.5 Pro vorteilhaft sein.
Die Modellreihe von Gemini umfasst Optionen von dem leichten Gemma und Gemma 2 bis hin zu Gemini Nano, Gemini 1.5 Flash, Gemini 1.5 Pro und Gemini 1.0 Ultra. Woodward merkt an: „Entwickler können je nach Anwendungsfall zwischen diesen Größen wechseln“, während sie multimodale Eingabemöglichkeiten und ein konsistentes Backend-Erlebnis beibehalten.
Diese Ankündigung erfolgt kurz nachdem OpenAI sein eigenes Konkurrenzprodukt, GPT-4o, ein multimodales Großes Sprachmodell (LLM), das für eine breite Benutzerbasis entwickelt wurde, eingeführt hat, einschließlich einer Desktop-App.
Beide Gemini 1.5 Modelle sind jetzt in der öffentlichen Vorschau in über 200 Ländern und Regionen verfügbar, einschließlich des Europäischen Wirtschaftsraums, des Vereinigten Königreichs und der Schweiz.