Une récente recherche menée par l'Université de Caroline du Nord à Chapel Hill, en collaboration avec l'Allen Institute for AI, a révélé que le dernier chatbot d'OpenAI, GPT-4o, surpasse les experts humains en matière de raisonnement éthique et de conseils. Cette découverte a suscité de vives discussions sur les applications de l'intelligence artificielle (IA) dans le domaine du raisonnement moral.
L'équipe de recherche a effectué deux expériences comparatives pour examiner les différences de capacités de raisonnement moral entre le modèle GPT et des participants humains. Lors de la première expérience, 501 adultes américains ont confronté les explications éthiques fournies par le modèle GPT-3.5-turbo à celles des humains. Les résultats ont montré que les explications de GPT étaient jugées plus rationnelles, dignes de confiance et réfléchies, les participants considérant les évaluations de l'IA comme plus fiables que celles des experts humains. Bien que les différences soient minimes, cela suggère que la performance de l'IA en matière de raisonnement moral pourrait être comparable à celle des humains.
Dans la deuxième expérience, les suggestions générées par GPT-4o ont été comparées à celles de l'éminent éthicien Kwame Anthony Appiah, dont les réflexions sont publiées dans la rubrique "Ethicist" du New York Times. Sur 50 dilemmes éthiques évalués pour la qualité des conseils, GPT-4o a reçu des notes supérieures à celles des experts humains dans presque tous les critères. Les participants ont largement considéré que les recommandations générées par l'IA étaient plus moralement précises, fiables et réfléchies. La seule zone où aucune différence significative n’a été notée concernait la perception des nuances, où tant l’IA que les humains ont obtenu des performances similaires.
Les chercheurs soulignent que ces résultats suggèrent que GPT-4o a réussi le "Comparative Moral Turing Test" (cMTT). Une analyse plus approfondie indique que GPT-4o utilise un langage moral et positif lorsqu'il offre des conseils, ce qui peut contribuer à ses notes élevées. Cependant, ce n'est pas le seul facteur ; de futures études devront explorer davantage le potentiel de l’IA en matière de raisonnement moral.
Il est important de noter que cette recherche était limitée à des participants américains, ce qui souligne le besoin d'études futures pour explorer les perspectives sur le raisonnement moral de l'IA dans différents contextes culturels. Néanmoins, ces résultats soutiennent fortement le rôle de l’IA dans la prise de décision morale, ouvrant la voie à des discussions approfondies sur les responsabilités éthiques de l’IA et la nécessité de réglementations.
À mesure que la technologie de l’IA continue de progresser, ses applications dans le raisonnement moral deviendront de plus en plus courantes. La capacité de l’IA à prendre des décisions éthiques influencera de manière significative divers domaines, notamment le diagnostic médical, les véhicules autonomes et la modération des contenus sur les réseaux sociaux. Il est donc essentiel d'aborder les implications éthiques de l’IA et d'établir des politiques et des normes appropriées pour garantir sa sécurité et sa fiabilité.