Les gouvernements du monde entier explorent avec diligence des mesures pour atténuer les risques associés à l'intelligence artificielle (IA), mais le scepticisme demeure parmi les experts quant à la faisabilité d'un contrôle efficace. Le récent sommet sur la sécurité de l'IA au Royaume-Uni a rassemblé des leaders des États-Unis, de la Chine, de l'Union européenne, de la Grande-Bretagne et de 25 autres pays, aboutissant à une approche unie pour protéger contre des problèmes tels que la désinformation et les dommages intentionnels ou accidentels.
Cependant, les objectifs ambitieux définis lors du sommet peuvent ne pas être entièrement réalistes. "L'IA englobe un large éventail de technologies, des systèmes experts à l'apprentissage automatique traditionnel, en passant par l'IA générative," a déclaré Kjell Carlsson, responsable de la stratégie en science des données chez Domino Data Lab. "Cette diversité complique l'élaboration de réglementations pouvant gouverner toutes ces technologies et leurs nombreuses applications."
La quête de sécurité
Lors du sommet, les décideurs ont souligné le besoin urgent de poursuivre la recherche sur l'IA, en mettant l'accent sur la sécurité par le biais de la Déclaration de Bletchley. Cette position collaborative intervient au milieu d'avertissements alarmants de figures de proue concernant les menaces potentielles posées par l'IA, allant des risques existentiels à un déplacement significatif d'emplois. Cependant, certains experts soutiennent que ces prédictions apocalyptiques sont exagérées ou sensationnalistes. "Le catastrophisme lié à l'IA devient rapidement indiscernable d'une religion apocalyptique," a remarqué Yann LeCun, scientifique en chef de l'IA chez Meta, sur X (anciennement Twitter).
La Déclaration de Bletchley a proclamé que "l'intelligence artificielle (IA) présente d'énormes opportunités mondiales : elle a le potentiel de transformer et d'améliorer le bien-être humain, la paix et la prospérité." La déclaration insiste sur l'importance d'une approche humaine, fiable et responsable dans la conception et le déploiement des technologies IA, appelant à la collaboration internationale pour identifier et comprendre les risques liés à l'IA sur la base de preuves scientifiques.
"La plupart des risques découlant de l'IA sont de nature intrinsèquement internationale et doivent donc être traités par la coopération internationale," a noté la déclaration, soulignant la responsabilité partagée des nations.
Actions individuelles et scepticisme
En réponse à ces efforts mondiaux, certains gouvernements prennent également des mesures pour réguler l'IA. Avant le sommet, le président Biden a signé un décret visant à favoriser la collaboration entre les agences gouvernementales, les entreprises et le monde académique pour orienter le développement responsable de l'IA tout en protégeant les emplois et la vie privée des consommateurs. "Mon administration ne peut — et ne saura — tolérer l'utilisation de l'IA pour désavantager ceux qui se voient souvent refuser l'égalité des chances et la justice," a affirmé Biden.
Cependant, des experts comme Milan Kordestani, spécialiste de la réglementation de l'IA, expriment des préoccupations quant à la capacité des propositions actuelles à traiter les risques impliqués. Il a critiqué la nature vague du décret de Biden, qui demande aux agences fédérales de mettre en œuvre des sauvegardes sans en préciser les mesures concrètes. "Les réglementations proposées ne parviennent pas à contraindre les actions du secteur privé et négligent la manière dont les individus interagiront avec les technologies de l'IA," a-t-il soutenu. Il a également souligné la nécessité de réglementations qui engagent la communauté académique dans les discussions sur les risques liés à l'IA.
Kordestani estime que la réglementation efficace de l'IA doit aller au-delà de la technologie elle-même. Elle doit englober les implications plus larges pour la société, notamment les changements dans la dynamique du travail, les réseaux de distribution et les processus cognitifs. "Les législateurs de la fin des années 1980 n'auraient pas pu prévoir la nécessité de réglementer la désinformation sur les réseaux sociaux. De même, la réglementation de l'IA doit évoluer de manière dynamique pour s'adapter aux risques émergents," a-t-il déclaré.
Défis mondiaux et préoccupations éthiques
La difficulté de réguler l'IA est soulignée par sa portée mondiale. Richard Gardner, PDG de Modulus, a comparé la régulation de l'IA à celle des armes nucléaires. "Réguler l'IA au sein des frontières nationales est complexe, car les nations adverses peuvent continuer le développement malgré les accords internationaux," a-t-il noté. La possibilité que des développeurs renégats créent des produits IA non réglementés ajoute une autre couche de complexité.
Pour les questions liées aux droits d'auteur, Gardner plaide en faveur de l'utilisation de fichiers robots.txt — des protocoles standards qui informent les robots des moteurs de recherche sur la navigation sur les sites web — pour réguler l'entraînement de l'IA et l'utilisation des données, garantissant ainsi que les matériaux protégés soient exclus. "Nous devons permettre aux innovateurs la liberté de poursuivre la recherche et le développement," a-t-il souligné, avertissant contre des mesures réglementaires excessives qui pourraient freiner l'innovation.
Définir des normes éthiques pour l'IA n'est pas une tâche simple. Les lois actuelles sur les droits de l'homme peuvent servir de base pour contester les initiatives liées à l'IA, mais il y a un besoin urgent de réglementations précises qui traduisent ces droits en lignes directrices concrètes. Rob van der Veer, expert en IA et sécurité des applications, a souligné : "Les réglementations existantes sur la confidentialité limitent les objectifs des systèmes d'IA utilisant des données personnelles, mais les réglementations en matière de sécurité négligent souvent les nouvelles vulnérabilités que l'ingénierie de l'IA introduit."
S'adapter à un paysage évolutif
Compte tenu de la progression rapide de la technologie IA, la réglementation doit être un processus continu, avec des évaluations régulières des avancées émergentes. Kordestani suggère que cela pourrait nécessiter de nouvelles législations ou des traités internationaux qui s'adaptent aux méthodes de formation et aux applications innovantes. Les gouvernements doivent travailler en collaboration avec les entreprises pour équilibrer l'impératif d'innovation avec le besoin de sécurité dans le développement de l'IA.
De plus, impliquer les universitaires dans ce discours est crucial pour garantir la sécurité publique d'un point de vue moral et éthique, en favorisant les discussions sur l'accès équitable, l'éthique des données et les biais sociaux. L'objectif ultime est de protéger les citoyens contre les menaces potentielles posées par l'IA dans divers aspects de la vie quotidienne.
Kordestani avertit que des acteurs malveillants pourraient exploiter l'IA à des fins malveillantes, soulignant la nécessité de réglementations internationales robustes. "Établir une approche multipartite impliquant les secteurs public, privé et académique est essentiel pour traiter les menaces actuelles et émergentes," a-t-il affirmé.
Carlsson plaide pour une approche réglementaire ciblée qui se concentre sur des cas d'utilisation spécifiques plutôt que sur des règlements généraux pour toutes les technologies d'IA. Par exemple, faire face à l'utilisation abusive des deepfakes pour la fraude peut s'avérer plus bénéfique que des mandats généraux appelant à des filigranes sur les productions d'IA générative.
Bien que la réglementation sera inévitablement en retard par rapport aux derniers développements de l'IA, il est vital de créer un cadre réactif qui évolue parallèlement à la technologie, garantissant que les considérations humaines restent au premier plan de l'innovation en IA et de son intégration dans la société.