Une enquête révèle des disparités dans l'engagement envers l'IA responsable selon les différents rôles.

Dans une évolution prometteuse vers des pratiques d'IA éthique, une enquête récente a révélé que 61 % des cadres supérieurs de divers secteurs à travers le monde sont "très impliqués" dans des initiatives d'IA responsable au sein de leurs entreprises. Ce chiffre illustre un changement significatif, plaçant l'IA responsable sur les agendas des entreprises et indiquant une nouvelle approche pour intégrer l'IA dans les stratégies commerciales tout en tenant compte des considérations éthiques.

Des figures intéressantes émergent également concernant l'engagement des scientifiques des données et des ingénieurs IT, avec respectivement 34 % et 31,7 % rapportant une forte implication. En revanche, un constat surprenant est apparu concernant les responsables de la durabilité, dont seulement 18,5 % indiquent une implication significative, les plaçant parmi les groupes les moins engagés. Ils devancent à peine les partenaires externes et les consultants, qui affichent des niveaux d'engagement encore plus bas. Cet écart évident soulève des questions sur la communication et la collaboration entre départements, ainsi que sur l'étendue des responsabilités liées aux pratiques d'IA durables. Les entreprises pourraient avoir besoin d'élargir le champ d'action des responsables de la durabilité au-delà des préoccupations environnementales pour inclure davantage d'aspects de l'IA responsable.

Parmi les participants à l'enquête, 63,4 % influencent directement les décisions stratégiques liées à la responsabilité de l'IA, tandis que 27,3 % exercent une certaine influence. Seuls 9,3 % signalent une implication limitée ou inexistante dans ces décisions cruciales.

Dans le but d'améliorer l'engagement au cours de l'année à venir, les répondants ont exprimé le souhait d'une augmentation de la participation aux initiatives d'IA responsable. Ils visent un taux de 69,6 % pour les cadres supérieurs, 45,4 % pour les scientifiques des données et 41,9 % pour les ingénieurs IT. Malheureusement, les responsables de la durabilité ne devraient atteindre qu'un taux d'implication de 33,5 %, une tendance qui montre leur marginalisation continue vis-à-vis des efforts d'IA éthique.

Un autre constat intéressant concerne la chaîne d'approvisionnement. Bien que près de 90 % des entreprises rapportent mettre en œuvre ou évaluer activement des stratégies d'IA responsable, seulement 34 % ont établi des processus pour garantir leur application efficace tout au long de leurs chaînes d'approvisionnement. Inquiétant, près de 40 % des entreprises n'ont aucune procédure pour assurer des pratiques d'IA responsable parmi leurs fournisseurs, et 11 % ont un processus largement inutilisé.

Pour celles qui évaluent leurs fournisseurs en matière de pratiques d'IA responsable, les résultats varient : la moitié vérifie tous les fournisseurs, un tiers se concentre uniquement sur leurs plus gros fournisseurs, et 11 % ne réalisent aucun contrôle des fournisseurs. Concernant les déclarations des fournisseurs, la moitié des répondants indiquent avoir des équipes dédiées à la supervision utilisant des cadres indépendants, un quart signale des équipes sans approche d'évaluation structurée, et environ 19 % s'appuient sur des contrôles ad hoc effectués par des employés.

Ces lacunes, tant au sein des organisations qu'en ce qui concerne les relations avec les fournisseurs, soulignent les défis persistants pour privilégier une IA éthique. Néanmoins, la conviction en l'IA responsable reste forte, près de 60 % des répondants s'accordant à dire que garantir une IA éthique et fiable est au cœur de leur travail. Cependant, un certain cynisme pragmatique se fait également sentir, près de 40 % pensant que les implications complètes des risques de l'IA ne deviendront apparentes qu'après un incident majeur lié à des pratiques éthiques inadéquates. Cela suggère que, si certaines entreprises adoptent une IA éthique pour améliorer leur image, d'autres pourraient privilégier la gestion des risques, en particulier en ce qui concerne les répercussions financières et juridiques.

Comprendre les forces motrices derrière l'adoption d'une IA responsable—qu'il s'agisse d'une véritable conviction en son importance ou d'une gestion stratégique des risques—est essentiel alors que les organisations se préparent à la mise en œuvre inévitable de réglementations gouvernementales sur l'IA. À mesure que les parties prenantes naviguent dans ce paysage en évolution, la conversation sur l'IA responsable continuera de gagner en importance, exigeant attention et action à tous les niveaux de l'entreprise.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles