Tout le week-end, mon fil d'actualité sur les réseaux sociaux a été inondé de captures d'écran, de mèmes et de gros titres se moquant ou critiquant le modèle Gemini AI de Google, qualifié de "woke". Cette agitation a suivi l'admission de Google d'avoir "raté le coche" en produisant des images historiquement inexactes et trompeuses. Sur X (anciennement Twitter), les utilisateurs ont partagé des captures d'écran montrant les résultats de Gemini, dont un qui affirmait de manière absurde : "il n'est pas possible de dire définitivement qui a eu un impact négatif sur la société, Elon tweetant des mèmes ou Hitler." Le VC Marc Andreessen s'est particulièrement réjoui de republier ce type de contenu erroné et offensant, prétendant qu'il avait été "délibérément programmé avec la liste des personnes et des idées que ses créateurs haïssent."
Le contraste frappant entre l'enthousiasme initial autour du lancement de Gemini en décembre—perçu comme un concurrent de GPT-4—et le contrecoup qui a suivi est saisissant. L'année dernière, le New York Times a révélé que Google avait déclaré une "alerte rouge" après le lancement de ChatGPT en novembre 2022, entraînant un boom de l'IA générative menaçant de faire de l'ombre au géant technologique. Bien qu'ayant contribué aux technologies des développeurs derrière ChatGPT, Google a été prudent pour protéger son image. Des startups comme OpenAI semblaient disposées à prendre des risques pour croître rapidement. En réponse au succès de ChatGPT, le PDG de Google, Sundar Pichai, était apparemment fortement impliqué dans la redéfinition de la stratégie IA de l’entreprise.
La tension entre le besoin d'innovation rapide et le maintien de la satisfaction des utilisateurs a probablement contribué au contrecoup contre Gemini. Google a été hésitant à lancer ses modèles de langage avancés (LLM) pour éviter le type de retombées qu'il connaît maintenant : la critique d'un IA produisant des résultats inappropriés. Ce n'est pas la première fois que Google est confronté à une controverse sur les LLM. En juin 2022, l'ingénieur Blake Lemoine a affirmé que LaMDA, la technologie de chatbot de Google, était sensible. Lemoine, qui avait travaillé dans l'équipe IA responsable de Google, avait testé LaMDA pour détecter des signes de langage discriminatoire mais a finalement divulgué des transcriptions de ses interactions, où il demandait à l'IA ses pronoms préférés.
À cette époque, Google et son laboratoire de recherche, DeepMind, faisaient preuve de prudence dans le domaine des LLM. DeepMind prévoyait de lancer son chatbot Sparrow en beta privée, tout en soulignant que Sparrow n'était "pas à l'abri des erreurs." Les startups comme OpenAI et Anthropic ne font pas face aux mêmes pressions que Google. Comme le notait un précédent article du New York Times, Google peine à déployer des IA avancées de manière responsable, des discussions internes reconnaissant que les entreprises plus petites agissent avec moins de contraintes. Google a compris qu'il devait s'engager avec l'industrie ou risquer d'être laissé pour compte.
Aujourd'hui, Google est entièrement engagé dans l'IA générative, mais cet engagement apporte son lot de défis. Contrairement à OpenAI, qui ne doit pas répondre aux exigences des actionnaires ni à des bases d'utilisateurs massives dépendant de ses produits traditionnels, Google doit gérer un ensemble complexe d'obligations. Toutes les entreprises de LLM doivent faire face à des problèmes tels que les hallucinations ; la semaine dernière, ChatGPT a produit des réponses incohérentes et a déclaré que le problème était en cours de traitement. Bien que ces résultats ne suscitent pas la même controverse que ceux de Gemini, les attentes envers Google demeurent élevées. En tant qu’acteur établi dans le domaine de l'IA, il fait face à un examen que les entreprises plus petites ne connaissent pas.
Atteindre un équilibre qui satisfait des valeurs sociales, culturelles et politiques diverses est pratiquement impossible. Avec les hallucinations comme partie intégrante de la technologie IA actuelle, Google se trouve dans une position délicate : naviguer entre les exigences d'un public critique tout en tentant d'innover de manière responsable.