Google a officiellement lancé son modèle de langage de nouvelle génération très attendu, Gemini, qu'il présente comme le plus grand et le « plus performant » qu'il ait jamais développé. Après une période prolongée de spéculations, l'entreprise a partagé un article de blog détaillant les capacités du modèle, qui se décline en trois versions : Ultra, Pro et Nano. Cette polyvalence lui permet de fonctionner efficacement sur des appareils mobiles ainsi que dans des centres de données à grande échelle.
À partir d'aujourd'hui, Gemini commencera à alimenter diverses solutions, y compris le chatbot Bard, qui est initialement équipé du modèle Gemini Pro et sera disponible en anglais. Google affirme que cela améliorera considérablement les capacités de raisonnement et de compréhension de Bard. Pour l'avenir, l'entreprise prévoit de lancer Bard Advanced début 2024, bien que les détails de cette itération soient encore rares. Cependant, il a été mentionné que l'accès aux "modèles et capacités avancés" débutera avec Gemini Ultra.
Le nouveau Pixel 8 Pro sera le premier smartphone capable d'exécuter Gemini Nano. Au cours de l'année à venir, les utilisateurs pourront bénéficier de nouvelles fonctionnalités passionnantes, comme la fonction Résumé dans l'application Recorder et un aperçu pour développeurs de Smart Reply dans Gboard, d'abord disponible pour WhatsApp. De plus, Gemini sera intégré dans Google Ads, Chrome et Duet AI, avec davantage de fonctionnalités à venir dans l'ensemble de sa gamme de produits. Notamment, Google a précisé qu'il travaillait à améliorer les performances du modèle dans la recherche, apportant des améliorations à l'Expérience Générative de Recherche (SGE).
Bien que l'article de blog n'ait pas mentionné l'intégration des fonctionnalités de Makersuite, une fuite précédente avait suggéré que la plateforme de développement web de Google tirerait parti des capacités génératives de Gemini. Présenté initialement par le PDG de Google, Sundar Pichai, lors de l'événement I/O 2023, Gemini vise à s'imposer dans le paysage dynamique de l'IA.
À partir du 13 décembre, les développeurs et clients professionnels pourront accéder à Gemini Pro via l'API Gemini dans Vertex AI ou Google AI Studio, l'outil de développement web gratuit de Google. Gemini Ultra sera disponible pour certaines organisations avant d'être progressivement accessible aux entreprises début 2024. Les développeurs Android souhaitant créer des applications alimentées par Gemini peuvent s'inscrire pour un aperçu anticipé de la version Nano via Android AICore.
Gemini a été initialement annoncé lors d'un événement de l'entreprise en mai, mais est resté largement sous silence depuis. En tant que modèle de pointe, il met l'accent sur les avancées fondamentales dans les modèles de langage à grande échelle, un sujet de préoccupation majeur lors du récent Sommet sur la Sécurité de l'IA. Bien que Google ait prévu de présenter le modèle lors d'événements privés cette semaine, ces démonstrations ont été annulées en raison de difficultés à traiter des requêtes en langues étrangères. Cependant, des présentations privées ont été réalisées pour des partenaires commerciaux non nommés.
En interne, la direction de Google exprime un fort désir de voir Gemini rivaliser avec ChatGPT d'OpenAI, soulignant l'urgence d'une sortie précoce pour conserver un avantage concurrentiel. Par ailleurs, avec les avancées considérables de Microsoft dans les logiciels de productivité, intégrant diverses technologies d'OpenAI, Google est motivé à maintenir son rythme d'innovation.
En termes d'avancées matérielles, Google a entraîné Gemini sur ses puces TPU propriétaires. En parallèle du lancement du modèle, de nouveaux accélérateurs d'IA, appelés Cloud TPU v5p, ont été annoncés. Ces nouvelles puces offrent un entraînement 2,8 fois plus rapide pour les modèles de langage à grande échelle par rapport à la génération précédente TPU v4 et seraient plus puissantes que la génération Cloud TPU v5e déjà disponible.
Google Cloud a également dévoilé son Hyperordinateur IA, une architecture de superordinateur révolutionnaire spécialement conçue pour améliorer l'entraînement et l'optimisation de l'IA. Cette infrastructure avancée répond aux exigences computationnelles croissantes des applications d'IA générative, offrant un système intégré de matériel, logiciels, cadres d'apprentissage automatique et modèles de consommation adaptés à l'IA.
Pour utiliser le Cloud TPU v5p ou accéder au nouvel Hyperordinateur IA, les entreprises devront se rapprocher de leur responsable de compte Google Cloud, garantissant ainsi qu'elles puissent tirer parti de ces technologies de pointe pour leurs besoins professionnels.