Une récente enquête révèle que les dirigeants d'entreprises américaines plaident de plus en plus pour une réglementation et une gouvernance complètes de l'IA, motivés par des préoccupations croissantes concernant la confidentialité des données, les risques de sécurité et l'application éthique des technologies d'intelligence artificielle.
Réalisée par The Harris Poll pour Collibra, une société spécialisée dans l'intelligence des données, l'étude offre des perspectives précieuses sur la manière dont les organisations gèrent les défis liés à l'adoption et à la régulation de l'IA.
L'enquête, qui a recueilli les réponses de 307 adultes américains occupant des postes de direction ou supérieurs, a révélé qu'un impressionnant 84 % des décideurs en matière de données, de confidentialité et d'IA soutiennent la mise à jour des lois sur le droit d'auteur aux États-Unis pour protéger contre les abus de l'IA. Cela reflète le décalage grandissant entre l'évolution rapide des technologies et les cadres juridiques existants.
« L'IA a fondamentalement modifié la relation entre les fournisseurs de technologies et les créateurs », a déclaré Felix Van de Maele, cofondateur et PDG de Collibra. « Le déploiement rapide des outils d'IA générative a nécessité une réévaluation de l'usage équitable et une application rétroactive des lois sur le droit d'auteur aux États-Unis, qui sont vieilles de plusieurs siècles, aux technologies modernes. »
Van de Maele a souligné l'importance de l'équité dans ce paysage en évolution. « Les créateurs de contenus méritent une transparence, une protection et une compensation renforcées. Les données constituent l'épine dorsale de l'IA, nécessitant des sources fiables et de haute qualité—comme les matériaux protégés par le droit d'auteur—pour produire des résultats fiables. Il est juste que les créateurs reçoivent la compensation et la protection qui leur reviennent. »
La demande de mise à jour des lois sur le droit d'auteur coïncide avec une vague de poursuites judiciaires médiatisées contre les entreprises d'IA pour des violations présumées des droits d'auteur, mettant en lumière les problèmes complexes entourant l'utilisation par l'IA de matériels protégés à des fins d'apprentissage.
De plus, l'enquête a montré un soutien significatif pour indemniser les individus dont les données sont utilisées dans la formation des modèles d'IA, avec 81 % des répondants approuvant l'idée que les grandes entreprises technologiques offrent une telle compensation, signalant un changement dans la valorisation des données personnelles à l'ère de l'IA.
« Tous les créateurs de contenu, quelle que soit leur taille, devraient être compensés et protégés lorsque leurs données sont utilisées », a affirmé Van de Maele. « Alors que nous passons à une valorisation accrue du talent en données, la distinction entre les créateurs de contenu et les 'citoyens de données'—les individus responsables de l'utilisation des données dans leurs rôles—va de plus en plus s'estomper. »
L'enquête souligne également une préférence pour une réglementation de l'IA au niveau fédéral et étatique plutôt qu'une supervision internationale, reflétant le paysage réglementaire actuel aux États-Unis, où des États comme le Colorado ont commencé à élaborer leurs propres réglementations en matière d'IA face à l'absence de directives fédérales complètes.
« Des États comme le Colorado ont créé un précédent pour des réglementations complètes sur l'IA, bien que certains puissent en discuter le caractère prématuré. Néanmoins, cela démontre ce qui doit être fait pour protéger les entreprises et les citoyens », a noté Van de Maele. « Sans directives fédérales claires, les entreprises chercheront des conseils auprès des responsables étatiques. »
Fait intéressant, l'enquête a révélé un fossé notable entre les grandes et les petites entreprises concernant leur soutien à la réglementation gouvernementale de l'IA. Les grandes entreprises (plus de 1000 employés) montrent une plus grande inclination à soutenir ces réglementations par rapport aux petites entreprises (1 à 99 employés).
Cette différence peut être attribuée aux ressources et à l'évaluation des risques par rapport au retour sur investissement (ROI), selon Van de Maele. « Les petites entreprises abordent souvent les nouvelles technologies avec scepticisme et prudence. Il existe une perception commune selon laquelle l'IA est spécifiquement conçue pour les grandes entreprises technologiques, nécessitant des investissements substantiels tout en risquant de perturber des modèles opérationnels établis. »
Les répondants expriment une grande confiance dans les initiatives en matière d'IA de leurs propres entreprises, mais un écart de confiance se dessine concernant le gouvernement et les grandes entreprises technologiques, posant des défis aux décideurs et aux leaders de l'industrie pour façonner l'avenir de la réglementation de l'IA.
Les préoccupations en matière de confidentialité et de sécurité figurent en tête des menaces perçues pour une régulation efficace de l'IA aux États-Unis, 64 % des répondants citant ces enjeux comme majeurs. En réponse, des entreprises comme Collibra développent des solutions pour renforcer la gouvernance de l'IA.
« Sans une gouvernance appropriée de l'IA, le risque de problèmes de confidentialité et de sécurité augmente », a expliqué Van de Maele. Collibra a lancé Collibra AI Governance, une solution conçue pour favoriser la collaboration entre équipes, aligner les projets d'IA sur les normes légales et de confidentialité, réduire les risques de données et optimiser la performance et le ROI.
À mesure que le rythme de la technologie de l'IA s'accélère, l'enquête a révélé que 75 % des répondants estiment que leurs entreprises priorisent la formation et le perfectionnement en matière d'IA, indiquant un changement transformationnel sur le marché du travail.
En regardant vers l'avenir, Van de Maele a esquissé les priorités clés pour la gouvernance de l'IA aux États-Unis : tirer parti des données en tant qu'actif vital, établir un cadre de confiance, se préparer à l'émergence de talents en données, et souligner l'accès responsable avant l'IA responsable.
« La gouvernance doit s'étendre au-delà des TI ; la gouvernance des données doit se concentrer sur la qualité des données ainsi que sur leur quantité », a-t-il souligné.
Les résultats soulignent le besoin urgent de stratégies de gouvernance complètes alors que l'IA continue de transformer des industries et de défier les cadres réglementaires existants. Bien que les entreprises soient désireuses d'adopter des technologies de l'IA, elles sont pleinement conscientes des risques qui y sont associés et cherchent des directives claires de la part des décideurs pour un développement et un déploiement responsables.
Les années à venir verront sans doute de vifs échanges entre le gouvernement, l'industrie et la société civile alors qu'ils s'efforcent de créer un environnement régulatoire qui favorise l'innovation tout en protégeant les droits individuels et en promouvant des pratiques éthiques en matière d'IA. Les entreprises de toutes tailles devront rester informées et adaptables, en mettant l'accent sur une gouvernance robuste des données et une éthique de l'IA pour naviguer les défis et opportunités futures.