Google hat offiziell sein mit Spannung erwartetes, nächstgenerations großes Sprachmodell, Gemini, vorgestellt, das als das größte und „leistungsfähigste“ Modell gilt, das je entwickelt wurde. Nach einer längeren Phase der Spekulation veröffentlichte das Unternehmen einen Blogbeitrag, der die Fähigkeiten des Modells beschreibt und enthüllt, dass Gemini in drei Varianten verfügbar ist: Ultra, Pro und Nano. Diese Vielseitigkeit ermöglicht eine effektive Nutzung sowohl auf mobilen Geräten als auch in großen Rechenzentren.
Ab heute wird Gemini verschiedene Lösungen unterstützen, darunter den Bard-Chatbot, der zunächst mit dem Gemini Pro-Modell ausgestattet ist und in englischer Sprache verfügbar sein wird. Google betont, dass dies Bard's Fähigkeiten in Bezug auf LOGIK und VERSTEHEN erheblich verbessern wird. Ausblickend plant das Unternehmen die Einführung von Bard Advanced Anfang 2024, wobei noch wenige Details zu dieser Version bekannt sind. Es wurde jedoch angedeutet, dass der Zugang zu „fortgeschrittenen Modellen und Funktionen“ mit Gemini Ultra beginnen wird.
Das neue Pixel 8 Pro wird das erste Smartphone sein, das Gemini Nano nutzen kann. Im kommenden Jahr erwarten die Nutzer aufregende neue Funktionen wie die Zusammenfassungsfunktion in der Recorder-App und eine Entwickler-Vorschau für Smart Reply in Gboard, die zunächst für WhatsApp verfügbar sein wird. Darüber hinaus wird Gemini in Google Ads, Chrome und Duet AI integriert, wobei weitere Funktionen in der vielfältigen Produktpalette folgen werden. Besonders erwähnenswert ist, dass Google mitgeteilt hat, dass die Leistung des Modells in der Suche optimiert wurde, um Verbesserungen bei der Search Generative Experience (SGE) zu bieten.
Der Blogbeitrag erwähnte zwar keine Integration mit den Funktionen von Makersuite, ein früherer Leak deutete jedoch darauf hin, dass die Webentwicklungsplattform von Google die generativen Fähigkeiten von Gemini nutzen würde. Das Modell wurde erstmals von Google-CEO Sundar Pichai auf der I/O 2023 vorgestellt und zielt darauf ab, eine wettbewerbsfähige Präsenz im schnelllebigen KI-Bereich zu etablieren.
Ab dem 13. Dezember können Entwickler und Unternehmenskunden über die Gemini API in Vertex AI oder Google AI Studio auf Gemini Pro zugreifen, Googles kostenloses, web-basiertes Entwicklerwerkzeug. Gemini Ultra wird zunächst für ausgewählte Organisationen verfügbar sein, bevor es Anfang 2024 breiter für Unternehmenskunden zugänglich ist. Android-Entwickler, die Gemini-gestützte Anwendungen erstellen möchten, können sich für eine frühe Vorschau der Nano-Variante über Android AICore anmelden.
Gemini wurde ursprünglich während einer Unternehmensveranstaltung im Mai angekündigt, blieb jedoch seitdem weitgehend unter dem Radar. Als führendes Frontier-Modell legt es den Fokus auf grundlegende Fortschritte in großen Sprachmodellen, ein Thema, das auf dem kürzlich abgehaltenen AI Safety Summit intensiv behandelt wurde. Obwohl Google geplant hatte, das Modell diese Woche bei privaten Veranstaltungen vorzustellen, wurden diese Demonstrationen aufgrund von Herausforderungen bei der Verarbeitung nicht-englischer Anfragen abgesagt. Dennoch wurden private Präsentationen für nicht näher genannte Geschäftspartner durchgeführt.
Intern äußern hochrangige Führungskräfte von Google den starken Wunsch, dass Gemini mit OpenAI’s ChatGPT konkurrieren soll, wobei die Dringlichkeit einer frühen Veröffentlichung hervorgehoben wird, um den Wettbewerbsvorteil zu sichern. Zudem, da Microsofts AI Copilot signifikante Fortschritte in der Produktivitätssoftware erzielt hat, die verschiedene Technologien von OpenAI integriert, ist Google motiviert, sein Innovationstempo zu halten.
In Bezug auf Hardware-Fortschritte hat Google Gemini auf seinen proprietären TPU-Chips trainiert. Neben der Markteinführung des Modells wurden neue AI-Beschleuniger, bekannt als Cloud TPU v5p, angekündigt. Diese neuesten Chips bieten eine bemerkenswerte 2,8-fache schnellere Schulung für große Sprachmodelle im Vergleich zur vorherigen TPU v4-Generation und sind leistungsfähiger als die bereits verfügbaren Cloud TPU v5e.
Google Cloud stellte zudem seinen AI Hypercomputer vor, eine bahnbrechende Supercomputerarchitektur, die speziell zur Verbesserung des KI-Trainings und der Optimierung entwickelt wurde. Diese fortschrittliche Infrastruktur berücksichtigt die wachsenden Anforderungen an die Rechenleistung von generativen KI-Anwendungen und bietet ein integriertes System aus KI-optimierter Hardware, Software, maschinellen Lernframeworks und Verbrauchsmodellen.
Um die Cloud TPU v5p oder den neuen AI Hypercomputer zu nutzen, müssen Unternehmen ihren zuständigen Google Cloud Account Manager kontaktieren, um sicherzustellen, dass sie diese modernen Technologien für ihre Geschäftsbedürfnisse nutzen können.