Le gouvernement fédéral accuse un retard dans ses efforts de réglementation de l'intelligence artificielle (IA), incitant les villes du pays à agir de manière décisive. New York a récemment lancé une stratégie complète sur l'IA visant à évaluer les outils d'IA, identifier leurs risques, améliorer les compétences des employés municipaux avec cette technologie, et promouvoir une intégration responsable des systèmes d'IA dans les opérations gouvernementales. Cette initiative s'inscrit dans un mouvement grandissant en faveur de réglementations locales pour mieux gérer les applications de l'IA et favoriser la transparence.
« La manière dont cela se développera pourrait avoir des implications significatives pour la politique de l'IA tant au niveau fédéral que municipal », a déclaré Sarah Shugars, professeure assistante en communication à l'Université Rutgers. « Les gouvernements peuvent-ils simplement s'engager à utiliser l'IA de manière responsable, ou les citoyens exigeront-ils des actions concrètes pour soutenir ces affirmations ? »
Établissement de Régulations Locales pour l'IA
Dans sa stratégie détaillée de 51 pages sur l'IA, New York a esquissé une série d'étapes pour approfondir sa compréhension de la technologie IA et l'intégrer de manière responsable dans ses processus gouvernementaux. La première phase prévoit la création d'un 'Comité de Pilotage de l'IA' rassemblant des acteurs de diverses agences municipales. La stratégie identifie près de 40 initiatives spécifiques, dont 29 doivent débuter ou se conclure dans l'année à venir. De plus, New York s'engage à publier un rapport annuel sur les progrès réalisés en matière d'IA, afin de tenir le public informé des avancées et de la mise en œuvre de la stratégie.
« Bien que l'intelligence artificielle offre une opportunité exceptionnelle d'améliorer les services pour les New-Yorkais, nous devons rester vigilants face aux risques qu'elle engendre », a déclaré le maire Eric Adams. « Je suis fier de présenter un plan qui trouvera un équilibre critique dans le débat mondial sur l'IA — un plan qui permettra aux agences municipales de tirer parti des technologies pouvant améliorer la vie tout en se protégeant des dangers potentiels. »
En réalité, des régulations concernant l'IA commencent déjà à se dessiner à New York. Depuis cette année, une nouvelle loi interdit aux employeurs d'utiliser des outils d'IA pour le recrutement et les promotions. Cette législation concerne les "outils de décision d'emploi automatisés", qui exploitent l'IA, des méthodes statistiques ou l'analyse de données pour prendre des décisions relatives à l'emploi.
Un Mouvement National Vers la Régulation de l'IA
L'initiative de New York s'inscrit dans une tendance nationale plus large visant à réglementer la technologie IA. Bien qu'aucune loi fédérale complète sur l'IA n'existe encore, la Maison Blanche a introduit l'année dernière une Déclaration des droits de l'IA, axée sur la protection des consommateurs dans la conception et l'utilisation des systèmes automatisés. L'administration Biden se prépare également à publier un décret abordant l'IA, examinant le cadre juridique actuel et identifiant la nécessité d'une législation supplémentaire. Pendant ce temps, l'Union Européenne s'apprête à achever l'adoption de son vaste Acte sur l'IA.
Aux États-Unis, une série de lois a émergé, avec dix États ajoutant des règles liées à l'IA à leurs lois sur la vie privée pour 2023, et d'autres États envisageant des actions similaires. Le Connecticut travaille sur une Déclaration des droits de l'IA, tandis que la loi sur la protection des données personnelles du Delaware permet aux consommateurs de gérer les décisions automatisées. Washington, D.C., met en œuvre des mesures pour prévenir les choix biaisés des algorithmes, et le sénateur de l'État du New Jersey, Doug Steinhardt, a proposé de mettre à jour les lois sur le vol d'identité pour atténuer les risques associés à l'IA et aux technologies de deepfake, en réponse à l'augmentation des arnaques utilisant le clonage vocal.
Au début de l'année, la Californie s'est préparée à poursuivre une législation sur l'IA axée sur la lutte contre le biais algorithmique et la protection de la vie privée des résidents. Toutefois, des progrès substantiels sur ces initiatives pourraient être retardés jusqu'en 2024. Les responsables locaux ont proposé des idées permettant aux individus de refuser l'utilisation des systèmes d'IA, reflétant les préoccupations croissantes concernant l'impact de l'IA sur la vie privée et la sécurité.
Alors que ces discussions se déroulent à l'échelle nationale, certains craignent que la mauvaise gestion de l'IA n'entraîne des conséquences néfastes. « Les villes deviennent des terrains d'essai pour les technologies émergentes de l'IA, et le gouvernement fédéral utilise ces programmes pilotes pour décider des approches réglementaires », a observé David Dunmoyer, directeur de campagne de Better Tech for Tomorrow à la Texas Public Policy Foundation.
Bien que certains plaident en faveur de la réglementation, d'autres mettent en garde contre le risque que des règles locales trop strictes freinent l'innovation. « Il semble inévitable que la réglementation intervienne, » a déclaré Raj Kaur Khaira, directrice des opérations chez AutoGenAI. « Cependant, il est crucial de comprendre ce qui sera réglementé. S'agira-t-il de la technologie elle-même, ou seulement de ses applications ? Toute réglementation dans ce domaine doit être proportionnée au risque traité. Comme nous l'avons vu dans d'autres secteurs, les régulateurs et les législateurs ne saisissent pas toujours les complexités des technologies qu'ils cherchent à réglementer. »
Le paysage évolutif de la réglementation de l'IA souligne la nécessité d'une approche mesurée qui équilibre innovation et gouvernance responsable, garantissant que les technologies de l'IA se développent de manière beneficiale et sécurisée pour toutes les communautés.