Als Google DeepMind im vergangenen Februar Gemma einführte, stellte das Unternehmen zwei Open-Source-Modelle mit 2 Milliarden und 7 Milliarden Parametern vor. Auf der diesjährigen Google I/O-Entwicklerkonferenz präsentierte das Unternehmen die Gemma 2-Serie, beginnend mit einem leichten Modell, das beeindruckende 27 Milliarden Parameter umfasst. Die Veröffentlichung ist jedoch für Juni geplant.
„Dieses 27B-Modell wurde gezielt ausgewählt“, erklärte Josh Woodward, Vizepräsident von Google Labs, während einer kürzlichen Diskussionsrunde. „Es ist für die nächsten Nvidia-GPUs oder einen einzelnen TPU-Host in Vertex AI optimiert, was es benutzerfreundlich macht. Wir sehen bereits eine hervorragende Qualität, wobei die Leistung die von Modellen mit der doppelten Größe übertrifft.“
Gemma richtet sich an Entwickler, die KI in Apps und Geräten integrieren möchten, ohne umfangreiche Speicher- oder Rechenleistungsanforderungen. Dadurch ist es ideal für ressourcenschwache Umgebungen wie Smartphones, IoT-Geräte und Personal Computer. Seit der Erstveröffentlichung hat Google mehrere Varianten eingeführt, darunter CodeGemma für die Codevervollständigung, RecurrentGemma für verbesserte Speichereffizienz und das kürzlich veröffentlichte PaliGemma für vision-sprachliche Aufgaben.
Mit 27 Milliarden Parametern wird Gemma 2 voraussichtlich eine verbesserte Genauigkeit und Leistung für komplexere Aufgaben im Vergleich zu seinen Vorgängermodellen bieten. Der Zugriff auf einen größeren Trainingsdatensatz ermöglicht es der KI, qualitativ hochwertigere Antworten schneller zu generieren.
Woodward stellte fest, dass Gemma 2 speziell für den Betrieb auf einem einzelnen TPU konzipiert ist, wobei er sich konkret auf TPUv5e bezog, den neuesten Chip von Google, der letzten August vorgestellt wurde. Dies bedeutet, dass Gemma 2 einen spezialisierten KI-Chip benötigt, um Berechnungen zu optimieren, was zu geringerer Latenz und höherer Effizienz bei Aufgaben wie der Bildanalyse und der Verarbeitung natürlicher Sprache führt. Diese Effizienz führt zu Kosteneinsparungen für Entwickler, die ihre Ressourcen wieder in ihre Anwendungen investieren können.
Die Einführung von Gemma 2 fällt mit dem Start von OpenAI's GPT-4o, seinem multimodalen LLM, zusammen und wird als „bedeutendes Upgrade“ positioniert, insbesondere für kostenlose ChatGPT-Nutzer.