Rapport révèle des défauts courants dans les outils de gouvernance de l'IA : beaucoup incluent des solutions inefficaces pour l'intelligence artificielle.

Un récent rapport du World Privacy Forum a révélé des informations cruciales sur les outils de gouvernance de l'IA utilisés par les gouvernements et les organisations multilatérales. L'examen de 18 de ces outils a montré que plus d'un tiers (38 %) contenait des "correctifs défaillants." Conçus pour évaluer les systèmes d'IA en termes d'équité et d'explicabilité, ces outils manquaient souvent de mécanismes d'assurance qualité essentiels ou utilisaient des méthodes de mesure jugées inappropriées en dehors de leurs contextes d'origine.

De nombreux outils ont été développés par de grandes entreprises technologiques telles que Microsoft, IBM et Google, qui créent également les systèmes d'IA qu'ils évaluent. Par exemple, le rapport met en lumière l'outil AI Fairness 360 d'IBM, soutenu par le Bureau de responsabilité gouvernementale des États-Unis pour l'intégration de principes éthiques en IA. Cependant, la recherche fondamentale derrière son algorithme "Disparate Impact Remover" a suscité de vives critiques dans les cercles académiques.

Pam Dixon, fondatrice et directrice exécutive du World Privacy Forum, a déclaré : "La plupart des outils de gouvernance de l'IA actuellement utilisés fonctionnent sans normes appropriées." Elle a souligné qu'un problème majeur réside dans l'absence de exigences établies en matière d'assurance qualité. Les outils conçus pour un contexte spécifique peuvent être mal appliqués, entraînant des usages "hors label" pouvant avoir des conséquences imprévues.

Le rapport définit les outils de gouvernance de l'IA comme des mécanismes pour évaluer et mesurer des aspects des systèmes d'IA, tels que l'inclusivité, l'équité, l'explicabilité, la vie privée et la sécurité. Bien que ces outils puissent rassurer les régulateurs et le public, ils peuvent également favoriser une fausse sécurité, déclencher des problèmes imprévus et compromettre le potentiel des technologies d'IA.

Avec l'adoption récente de la loi sur l'IA de l'UE et l'exécutif sur l'IA du président Biden, une opportunité de renforcer le paysage de la gouvernance de l'IA se présente, comme l'a noté Kate Kaye, directrice adjointe du World Privacy Forum. "Bien que nous ayons identifié certains défauts, il y a un potentiel significatif d'amélioration dans l'écosystème de gouvernance de l'IA," a-t-elle remarqué. "Ces outils représentent la manière dont les gouvernements mettent en œuvre des politiques d'IA et joueront un rôle crucial dans l'application des lois et réglementations futures."

Kaye a également partagé un exemple de la façon dont de bonnes intentions peuvent conduire à de mauvaises conséquences : la règle des quatre cinquièmes ou règle des 80 % dans la loi sur l'emploi aux États-Unis est mal appliquée dans les outils de gouvernance de l'IA à l'échelle mondiale. Cette règle évalue si les processus de sélection entraînent des impacts négatifs sur des groupes spécifiques, mais elle a été abstraite à des contextes sans lien avec l'emploi, entraînant des applications inappropriées.

Face à la pression d'établir des réglementations sur l'IA, Kaye a mis en garde contre l'intégration de méthodologies défaillantes dans les politiques. Elle a souligné le risque de perpétuer des problèmes existants à travers des mises en œuvre précipitées.

En regardant vers 2024, tant Dixon que Kaye sont optimistes quant aux avancées des outils de gouvernance de l'IA. Dixon a noté que l'Organisation de coopération et de développement économiques (OCDE) est désireuse de collaborer pour améliorer ces outils, signalant une direction positive. L'Institut national des normes et de la technologie (NIST) a également exprimé son intérêt à développer des normes rigoureuses basées sur des preuves. Avec des efforts ciblés, elles estiment qu'il est possible de réaliser des améliorations significatives dans le paysage de la gouvernance de l'IA dans les six mois.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles