Titre : Les Défis de SearchGPT : La Bataille entre Illusion et Réalité
Deux jours seulement après le lancement de SearchGPT, une démonstration réalisée par l'utilisateur Kesku a suscité beaucoup d'engouement en ligne, notamment en raison de sa rapidité d'exécution impressionnante. Cependant, une démonstration officielle publiée par OpenAI a été critiquée dans un rapport de The Atlantic, mettant en lumière des inexactitudes significatives. Interrogé sur "le festival de musique à Boone, Caroline du Nord, en août", SearchGPT a fourni une date incorrecte, soulevant des inquiétudes quant à sa fiabilité.
Kayla Wood, porte-parole d'OpenAI, a confirmé l'erreur à The Atlantic, précisant qu'il s'agissait d'un prototype initial et que des améliorations étaient en cours. Cet incident rappelle une erreur majeure de Google Bard, qui avait également été critiqué pour ses inexactitudes lors de son lancement. En février 2023, Bard avait affirmé à tort que le télescope spatial James Webb avait capturé la première image d'une exoplanète, un exploit réalisé par le VLT de l'Observatoire austral européen. Cette méprise avait entraîné une chute de 9 % de l'action d'Alphabet, effaçant 100 milliards de dollars de valeur de marché.
En revanche, OpenAI a choisi une approche plus prudente en limitant l'accès aux tests internes, apprenant des malheurs de Google. Dans un contexte d'accès généralisé, même si OpenAI parvient à réduire le nombre d'hallucinations dans SearchGPT, un simple taux d'erreur de 1 % pourrait engendrer des millions de réponses inexactes chaque jour. De plus, il n'existe actuellement aucune méthode fiable pour éliminer entièrement les hallucinations et les erreurs dans les grands modèles de langage (LLMs).
Andrej Karpathy a souligné sur Twitter que les hallucinations ne sont pas de simples bugs, mais plutôt une caractéristique intrinsèque des LLMs. Il compare les LLMs à des « machines à rêver », qui, lorsqu'on les sollicite, produisent un contenu souvent utile mais pouvant dériver vers des erreurs factuelles, engendrant ainsi des « hallucinations ». Ce mécanisme est fondamentalement différent des moteurs de recherche traditionnels, qui restituent les documents les plus pertinents de leurs bases de données sans créer de nouvelles réponses.
Karpathy estime que les modèles de recherche AI actuels basés sur les LLMs ne peuvent garantir des résultats 100 % exacts. Cela soulève une question intrigante : dans la transformation des moteurs de recherche, la créativité des LLMs coexistera-t-elle avec la fiabilité des méthodes traditionnelles, ou l'une remplacera-t-elle finalement l'autre ? Cette question mérite une réflexion approfondie.