Heute hat Google DeepMind die Einführung von Gemma angekündigt, seinen neuen Open-Source-KI-Modellen mit 2B und 7B Parametern. Diese Modelle basieren auf der gleichen Forschung und Technologie, die auch die kürzlich angekündigten Gemini-Modelle unterstützten.
Gemma wird in vortrainierten und instruktionsoptimierten Varianten angeboten und kommt mit einer großzügigen kommerziellen Lizenz sowie einem Toolkit für verantwortungsbewusste generative KI. Darüber hinaus stellt Google DeepMind Toolchains für Inferenz und überwachte Feinabstimmung (SFT) bereit, die mit den gängigen Frameworks JAX, PyTorch und TensorFlow über natives Keras 3.0 kompatibel sind. Entwickler haben Zugang zu einsatzbereiten Colab- und Kaggle-Notebooks, und Gemma ist kompatibel mit Hugging Face, MaxText und NVIDIA NeMo. Die vortrainierten und instruktionsoptimierten Modelle können auf Laptops, Workstations oder Google Cloud ausgeführt werden, mit Bereitstellungsoptionen auf Vertex AI und Google Kubernetes Engine.
NVIDIA hat auch mit Google zusammengearbeitet, um Optimierungen auf allen NVIDIA KI-Plattformen, einschließlich lokaler RTX AI-PCs, zu verbessern und die Leistung von Gemma zu steigern.
Jeanine Banks, Vizepräsidentin und General Manager von Developer X bei Google, merkte an, dass die Gemma-Modelle ein weiterer Schritt in Googles Engagement für Open-Source-Technologie in der KI-Entwicklung darstellen, aufbauend auf Werkzeugen wie TensorFlow und JAX sowie Modellen wie PaLM2 und AlphaFold. Sie betonte, dass während der Entwicklung der Gemini-Modelle Erkenntnisse gewonnen wurden, die zeigen, dass Entwickler in verschiedenen Phasen ihrer Arbeitsabläufe sowohl offene Modelle als auch APIs nutzen. „Wir streben an, der einzige Anbieter von sowohl APIs als auch offenen Modellen zu sein und die umfassendsten Funktionen für unsere Community zu bieten“, erklärte Banks.
Tris Warkentin, Director of Product Management bei Google DeepMind, kündigte an, dass das Unternehmen umfassende Benchmarks veröffentlichen wird, die Gemma im Vergleich zu anderen Modellen bewerten und auf den OpenLLM-Leiterboards zugänglich sein werden. „Wir arbeiten mit NVIDIA und Hugging Face zusammen, um sicherzustellen, dass alle öffentlichen Benchmarks an diesen Modellen durchgeführt werden“, sagte er und drückte stolz auf den transparenten, gemeindenorientierten Entwicklungsansatz aus.
Gemma wird als „verantwortungsbewusst durch Design“ beschrieben. Warkentin betonte, dass diese Modelle umfangreichen Bewertungen unterzogen wurden, um die Sicherheit zu gewährleisten. Der Blogbeitrag von Google DeepMind stellte klar, dass Gemma mit den KI-Prinzipien übereinstimmt. Dazu gehören automatisierte Techniken zur Filterung persönlicher Informationen aus den Trainingsdatensätzen und die Anwendung von Reinforcement Learning aus menschlichem Feedback (RLHF), um verantwortungsvolles Verhalten zu fördern. Umfassende Bewertungen, darunter manuelles Red Teaming und automatisierte adversarielle Tests, wurden durchgeführt, um das Risiko der Modelle zu bewerten.
Warkentin hob auch die Bedeutung eines offenen Ökosystems für die Schaffung verantwortungsvoller KI hervor. „Wir glauben, dass vielfältige Perspektiven von Entwicklern und Forschern weltweit entscheidend für effektives Feedback und verbesserte Sicherheitssysteme sind“, sagte er. „Die Integration dieses Feedbacks und die Kommunikation mit der Community sind der Schlüssel zum Wert dieses Projekts.“