Le Potentiel Économique Inexploité de l'IA : La Confiance, Clé du Succès
Bien que le potentiel économique de l'intelligence artificielle (IA) soit largement reconnu, un chiffre alarmant de 87 % des projets d'IA échouent à produire des résultats. Cette défaillance généralisée n'est pas simplement un problème technologique, commercial, culturel ou sectoriel ; des preuves récentes indiquent un problème plus fondamental : la confiance.
Renforcer la Confiance dans les Systèmes IA
Des recherches récentes montrent qu'environ deux tiers des dirigeants estiment que la confiance dans l'IA influence significativement les revenus, la compétitivité et le succès client. Cependant, établir cette confiance dans les systèmes IA reste difficile. Tout comme la confiance envers les humains ne s'établit pas instantanément, celle envers les systèmes d'IA ne se construit pas facilement non plus.
Un manque de confiance freine les bénéfices économiques de l'IA, et les recommandations conventionnelles pour bâtir cette confiance apparaissent souvent trop abstraites ou impraticables. Pour y remédier, nous proposons un nouveau cadre : l'Équation de Confiance en IA.
L'Équation de Confiance en IA Définie
À l'origine conçue pour la confiance interpersonnelle, l'Équation de Confiance tirée de The Trusted Advisor par David Maister, Charles Green et Robert Galford est formulée ainsi :
Confiance = Crédibilité + Fiabilité + Intimité / Orientation personnelle.
Cependant, ce cadre ne se traduit pas efficacement dans les relations homme-machine. L'Équation de Confiance en IA révisée est :
Confiance = Sécurité + Éthique + Précision / Contrôle.
1. Sécurité est le premier élément fondamental. Les organisations doivent se demander : "Mes informations resteront-elles sécurisées si elles sont partagées avec ce système d'IA ?" Assurer des mesures de sécurité robustes est essentiel.
2. Éthique introduit des considérations morales plutôt que techniques. Les dirigeants doivent réfléchir aux facteurs suivants :
- Traitement des personnes impliquées dans le développement des modèles.
- Explicabilité du modèle et mécanismes pour traiter les résultats nuisibles.
- Conscience des biais dans le modèle, comme le montre la recherche Gender Shades.
- Modèles commerciaux et compensation pour les contributeurs aux données d'entraînement de l'IA.
- Alignement des valeurs de l'entreprise avec ses actions, comme l'illustrent les controverses d'OpenAI.
3. Précision évalue la fiabilité avec laquelle un système d'IA fournit des réponses correctes dans des contextes pertinents. Il est crucial d'évaluer à la fois la sophistication du modèle et la qualité des données.
4. Contrôle définit le degré de supervision opérationnelle souhaité. Les questions pertinentes incluent si le système d'IA agira comme prévu et si le contrôle sur les systèmes intelligents est un risque.
5 Étapes pour Mettre en Œuvre l'Équation de Confiance en IA
1. Évaluer l'Utilité : Déterminez si la plateforme d'IA crée de la valeur avant d'explorer sa fiabilité.
2. Évaluer la Sécurité : Examinez les pratiques de gestion des données sur la plateforme, en veillant à leur conformité avec vos normes de sécurité.
3. Définir des Normes Éthiques : Établissez des seuils éthiques clairs et évaluez tous les systèmes selon ces critères d'explicabilité et d'équité.
4. Définir des Objectifs de Précision : Établissez des référentiels de précision acceptables et résistez à la tentation de vous contenter de performances médiocres.
5. Déterminer les Niveaux de Contrôle Nécessaires : Définissez combien de contrôle votre organisation doit avoir sur les systèmes d'IA, allant d'options entièrement autonomes à semi-autonomes.
Dans un paysage IA en rapide évolution, la recherche de meilleures pratiques peut être séduisante, mais aucune solution définitive n'existe encore. Prenez plutôt l'initiative. Formez une équipe dédiée, adaptez l'Équation de Confiance en IA à votre organisation et évaluez de manière critique les systèmes d'IA selon ce cadre.
Certaines entreprises technologiques reconnaissent ces dynamiques de marché évolutives et améliorent leur transparence, comme le montre la Einstein Trust Layer de Salesforce, tandis que d'autres peuvent résister à ce changement. En fin de compte, votre organisation doit décider du niveau de confiance à accorder aux résultats de l'IA et aux entreprises qui les soutiennent.
Le potentiel de l'IA est immense, mais sa réalisation dépend de la création et du maintien de la confiance entre les systèmes d'IA et les organisations qui les utilisent. L'avenir de l'IA en dépend.