Faire confiance à l'IA : L'importance de la justification des résultats de l’IA
Chaque mois, plus de 500 millions de personnes font appel à Gemini et ChatGPT pour des informations allant de la cuisson des pâtes à la navigation dans des sujets complexes de devoirs scolaires. Cependant, si l'IA recommande de cuire des pâtes dans du pétrole, cela soulève des questions sur sa fiabilité dans d'autres domaines comme la contraception ou l'algèbre.
Lors du Forum économique mondial en janvier dernier, le PDG d'OpenAI, Sam Altman, a souligné la nécessité de transparence dans les résultats de l'IA : « Je ne peux pas regarder dans votre cerveau pour comprendre vos pensées, mais je peux vous demander d'expliquer votre raisonnement et déterminer si cela semble raisonnable. Je crois que nos systèmes d'IA seront capables de faire de même. »
La connaissance nécessite une justification
Altman vise à instaurer la confiance dans les modèles de langage de grande taille (LLM) comme ChatGPT en suggérant qu'ils peuvent fournir des explications claires à leurs résultats. Sans justification valide, les croyances ne peuvent être considérées comme des connaissances. Quand nous sentons-nous justifiés dans ce que nous savons ? Généralement, c'est lorsque nos croyances sont étayées par des preuves crédibles, des arguments logiques ou le témoignage de sources fiables.
Les LLM doivent être des sources d'information fiables. Cependant, sans la capacité d'expliquer leur raisonnement, nous manquons d'assurance que leurs affirmations répondent à nos critères de justification. Par exemple, si vous affirmez que la brume d'aujourd'hui dans le Tennessee est causée par des incendies de forêt au Canada, je pourrais accepter votre déclaration. Mais si vous avez précédemment prétendu que les combats de serpents sont courants lors des soutenances de thèse, votre crédibilité est mise à mal. Je chercherais alors des éclaircissements sur votre raisonnement concernant la brume.
Les limites de la compréhension de l'IA
Les systèmes d'IA d'aujourd'hui ne peuvent pas gagner notre confiance par le raisonnement, car ils n'en ont pas la capacité. Les LLM sont entraînés sur de vastes ensembles de données pour détecter et prédire des schémas linguistiques. Lorsqu'un prompt est donné, l'outil génère une réponse basée sur ces schémas, imitant souvent le discours d'un humain informé. Cependant, ce processus ne valide pas l'exactitude ou la justification du contenu. Comme le soutiennent Hicks, Humphries et Slater dans « ChatGPT is Bullshit », les LLM produisent des textes qui semblent convaincants mais manquent de véritable souci de la vérité.
Si le contenu généré par l'IA n'est pas l'équivalent de la connaissance humaine, qu'est-ce alors ? Bien qu'il puisse sembler inexact de catégoriser toutes les productions comme des « conneries », de nombreuses réponses des LLM sont factuellement correctes, entraînant ce que les philosophes appellent des cas de Gettier. Ces situations se produisent lorsque des croyances vraies existent sans véritable compréhension de leur justification.
Les résultats de l'IA comme des illusions
Pour illustrer cela, considérons un scénario inspiré du philosophe bouddhiste indien du VIIIe siècle, Dharmottara : imaginez que vous cherchez de l'eau lors d'une journée brûlante. Vous apercevez ce qui ressemble à de l'eau, pour découvrir que c'est un mirage. Lorsque vous atteignez cet endroit, cependant, vous trouvez de l'eau réelle sous une pierre. Pouvez-vous revendiquer une véritable connaissance du type d'eau que vous recherchiez ?
La plupart seraient d'accord pour dire que ces voyageurs ne possèdent aucune réelle connaissance ; ils sont simplement tombés sur de l'eau sans raisonnement solide pour en attendre la présence.
Lorsque nous affirmons connaître quelque chose appris d'un LLM, nous nous plaçons dans une situation similaire à celle des voyageurs de Dharmottara. Si le LLM a été efficacement entraîné, ses résultats sont probablement vrais, semblables à la découverte d'eau comme prévu. Pourtant, la justification qui sous-tend l'affirmation existe quelque part dans l'ensemble de données, mais joue aucun rôle dans la génération du résultat.
Ainsi, les assurances d'Altman peuvent être trompeuses. Si vous demandez à un LLM de justifier son résultat, il crée une justification convaincante mais superficielle — une « justification de Gettier », comme le décrivent Hicks et al. Cette imitation de justification manque de véritable fondement.
Les risques des justifications trompeuses
Actuellement, les systèmes d'IA interprètent souvent mal ou « hallucinent » des informations factuelles, menant à des incohérences. À mesure que l'illusion de justification devient de plus en plus convaincante, nous faisons face à deux résultats potentiels :
1. Utilisateurs informés : Ceux qui sont conscients des limitations inhérentes de l'IA reconnaîtront que les LLM produisent des affirmations trompeuses.
2. Utilisateurs non avertis : Les individus qui ne comprennent pas la nature des résultats de l'IA peuvent être induits en erreur, vivant dans un état où distinguer le vrai du faux devient un défi.
La nécessité de la justification dans les résultats de l'IA
Bien que les LLM soient des outils puissants, ils génèrent des résultats qui nécessitent un examen attentif. Les utilisateurs, en particulier ceux sans expertise, comptent sur l'IA pour des connaissances essentielles — des adolescents cherchant de l'aide en algèbre ou des conseils sur les rapports sexuels protégés. Pour assurer responsabilité et confiance dans les résultats de l'IA, nous devons comprendre la justification derrière chaque affirmation.
Heureusement, les individus expérimentés reconnaissent que l'huile d'olive est un meilleur choix que le pétrole pour la cuisson des spaghettis. Mais combien de recettes potentiellement nuisibles fournies par l'IA avons-nous acceptées aveuglément sans questionner leur justification ?