Naviguer dans les audits de l'IA : Aborder le biais, la performance et l'éthique
L'audit des modèles d'IA pour le biais, la performance et la conformité éthique est un enjeu urgent pour les organisations. Lors de la récente tournée VB AI Impact à New York, présentée par UiPath, des leaders du secteur ont discuté des méthodologies efficaces, des meilleures pratiques et des études de cas concrètes. Parmi les intervenants notables figuraient Michael Raj, VP de l'activation réseau de l'IA et des données chez Verizon Communications, Rebecca Qian, cofondatrice et CTO de Patronus AI, et Matt Turck, directeur général chez FirstMark. Pour clore l'événement, le PDG de VB, Matt Marshall, a dialogué avec Justin Greenberger, SVP de la réussite client chez UiPath, sur les éléments clés d'un audit d'IA réussi et sur la manière de démarrer le processus.
Greenberger a souligné l'importance d'une approche proactive en matière d'évaluation des risques : « Le paysage des risques était auparavant évalué annuellement. Aujourd'hui, il doit être réévalué presque mensuellement. Comprenez-vous vos risques et les contrôles en place pour les atténuer ? L'Institut des auditeurs internes (IIA) a mis à jour son cadre pour l'IA, qui couvre principalement des aspects fondamentaux. Des questions importantes à se poser incluent : Quels sont vos KPI de suivi ? Y a-t-il de la transparence dans vos sources de données ? Existe-t-il des protocoles de responsabilisation ? Le cycle d'évaluation doit être plus fréquent. »
Il a cité le Règlement général sur la protection des données (RGPD) comme un exemple de réglementation qui a finalement établi une solide base pour la sécurité des données dans les entreprises. Fait intéressant, la montée de l'IA générative pousse les marchés mondiaux à s'adapter à des rythmes similaires, créant un terrain de jeu compétitif alors que les organisations évaluent leur tolérance aux risques liés à cette technologie.
Surmonter les défis des pilotes et engager les employés
Bien que l'adoption de l'IA à l'échelle de l'entreprise soit encore en développement, de nombreuses entreprises lancent des projets pilotes pour explorer ses capacités. Parmi les défis persistants, on trouve l'identification d'experts en la matière possédant les connaissances contextuelles et les compétences critiques nécessaires pour définir efficacement les cas d'utilisation. De plus, il est crucial d'assurer la compréhension et l'engagement des employés. Greenberger a noté que la compréhension claire de ce que les employés doivent apprendre sur les technologies d'IA, notamment en matière d'utilisation éthique et des risques liés aux deep fakes, est encore en évolution.
Les organisations intègrent principalement l'IA générative dans les flux de travail existants plutôt que de rénover complètement leurs processus. Par conséquent, les audits doivent évoluer pour surveiller comment les données privées sont utilisées dans diverses applications, y compris dans des cas médicaux sensibles.
Évolution des rôles à l'ère de l'IA
À mesure que la technologie de l'IA progresse, le rôle des humains dans le processus d'audit reste essentiel. Greenberger a expliqué que bien que les utilisateurs lancent des requêtes, les systèmes d'IA traitent les informations et fournissent les données nécessaires à la prise de décision. Par exemple, un employé d'une entreprise de logistique peut utiliser des devis générés par l'IA lors d'interactions avec des clients. Cependant, les rôles humains traditionnels pourraient faire face à des défis d'automatisation.
« Actuellement, les humains conservent la responsabilité de la prise de décision, » a déclaré Greenberger. « Au fil du temps, à mesure que nous devenons plus à l'aise avec les contrôles d'audit et les vérifications régulières, cela est susceptible d'évoluer. En fin de compte, les humains pourraient devoir se concentrer sur les aspects créatifs et émotionnels de leurs rôles, car l'autorité décisionnelle pourrait leur échapper. Cette évolution est inévitable à mesure que la technologie progresse. »
En résumé, les organisations doivent prioriser une évaluation continue des systèmes d'IA pour atténuer les risques et garantir des pratiques éthiques, alors qu'elles naviguent dans un paysage technologique en constante évolution.