La Cour Suprême a considérablement réduit les pouvoirs réglementaires des agences fédérales, comme l'a souligné Morning Brew.
Il y a quelques mois, l'élan en faveur de la réglementation de l'IA s'accélérait, illustré par des événements tels que le Sommet sur la Sécurité de l'IA au Royaume-Uni, l'Ordre Exécutif sur l'IA de l'administration Biden et la Loi sur l'IA de l'UE. Cependant, de récents développements judiciaires et des dynamiques politiques changeantes jettent le doute sur l'avenir de la réglementation de l'IA aux États-Unis. Cet article examine les conséquences de ces changements et les défis à venir.
La décision de la Cour Suprême dans l'affaire Loper Bright Enterprises contre Raimondo limite l'autorité des agences fédérales à superviser des secteurs, y compris l'IA. En annulant le précédent de déférence Chevron vieux de 40 ans, la Cour a transféré l'interprétation des lois du Congrès des agences vers le pouvoir judiciaire.
Expertise des Agences contre Surveillance Judiciaire
De nombreuses lois existantes, notamment celles concernant la technologie et l'environnement, manquent de spécificité, s'appuyant sur les agences pour l'interprétation. Cette ambiguïté est souvent délibérée pour des raisons politiques ou pratiques. Désormais, les juges fédéraux peuvent contester plus facilement les décisions réglementaires basées sur ces lois vagues, ce qui pourrait entraver la réglementation de l'IA. Bien que certains soutiennent que cela garantit des interprétations juridiques cohérentes, la réalité est que dans des domaines en rapide évolution comme l'IA, les agences possèdent généralement une expertise supérieure. Par exemple, la Federal Trade Commission (FTC) se concentre sur la protection des consommateurs liés à l'IA, la Equal Employment Opportunity Commission (EEOC) clarifie l'utilisation de l'IA dans le recrutement, et la Food and Drug Administration (FDA) supervise l'IA dans les dispositifs médicaux.
Ces agences disposent de spécialistes en IA, alors que le pouvoir judiciaire en manque. Néanmoins, la Cour affirme que « … les agences n'ont aucune compétence particulière pour résoudre les ambiguïtés législatives. Les tribunaux, si. »
Défis et Besoins Législatifs
L'affaire Loper Bright Enterprises contre Raimondo pourrait affaiblir l'établissement et l'application des réglementations sur l'IA. Selon le New Lines Institute, cette décision signifie que les agences doivent articuler des détails techniques complexes d'une manière qui résonne avec ceux qui ne sont pas familiers avec le domaine pour justifier leurs réglementations.
La dissidence de la juge Elena Kagan a souligné cette préoccupation, arguant que la majorité de la Cour a assumé un rôle réglementaire pour lequel elle est mal préparée. Lors des plaidoiries orales, elle a renforcé la nécessité de prendre des décisions éclairées sur la réglementation de l'IA, affirmant que les parties informées devraient piloter ces discussions.
Si le Congrès entend que les agences fédérales guident les réglementations sur l'IA, il doit clairement l'indiquer dans toute législation à venir. Ellen Goodman, professeure de droit à l'Université Rutgers, a souligné que « la solution a toujours été d'obtenir une législation claire du Congrès, mais cela est encore plus vrai maintenant. »
Paysage Politique
Cependant, rien ne garantit que le Congrès inclura de telles dispositions. Le récent programme du Parti républicain exprime le désir de révoquer l'Ordre Exécutif sur l'IA existant, déclarant l'intention de supprimer les contraintes imposées à l'innovation en IA par « des idées de gauche radicales. » L'analyste Lance Eliot note que cela inclut probablement l'élimination des exigences de reporting et d'évaluation liées à l'IA.
Des figures influentes, comme l'entrepreneur technologique Jacob He, soutiennent que les lois existantes régissent suffisamment l'IA, mettant en garde contre des réglementations excessives qui pourraient entraver la compétitivité des États-Unis. Cependant, la décision dans Loper Bright Enterprises sape le cadre réglementaire que ces mêmes lois étaient censées soutenir.
En l'absence d'orientations exécutives actuelles, le programme républicain plaide pour un développement de l'IA qui privilégie la liberté d’expression et le bien-être humain. Des rapports indiquent des efforts menés par des alliés de Trump pour établir un nouveau cadre qui pourrait prioriser « l'Amérique d'abord en IA », menant potentiellement à une réduction des réglementations perçues comme pesantes.
Perspectives Réglementaires
Indépendamment du paysage politique, les États-Unis seront confrontés à un environnement réglementaire de l'IA transformé. La décision de la Cour Suprême soulève de sérieuses inquiétudes quant à la capacité des agences spécialisées à appliquer des réglementations efficaces en matière d'IA, ce qui pourrait ralentir ou entraver la supervision nécessaire.
Un changement de direction pourrait également influencer les approches réglementaires. Si les conservateurs l'emportent, attendez-vous à un environnement réglementaire plus permissif favorisant l'innovation, divergeant nettement de la promesse de réglementations contraignantes du Royaume-Uni et de la Loi exhaustive sur l'IA de l'UE.
Les effets cumulatifs de ces changements pourraient conduire à une cohérence mondiale diminuée en matière de réglementation de l'IA. Cette fragmentation risque de freiner la collaboration internationale, compliquant les partenariats de recherche et les accords de partage de données tout en impactant les normes mondiales de l'IA. Bien que des réglementations plus flexibles puissent encourager l'innovation aux États-Unis, elles soulèvent également des préoccupations éthiques, de sécurité et d'emploi qui pourraient éroder la confiance du public dans les technologies de l'IA.
En réponse à des réglementations affaiblies, les grandes entreprises d'IA pourraient collaborer proactivement sur des normes éthiques et des directives de sécurité, en priorisant la transparence et l'auditabilité de leurs systèmes pour favoriser la confiance et un développement responsable.
En fin de compte, une période d'incertitude accrue en matière de réglementation de l'IA se profile à l'horizon. Alors que les dynamiques politiques se modifient, il est impératif que les décideurs politiques et les leaders industriels collaborent pour garantir que le développement de l'IA soit aligné avec des bénéfices éthiques, sécuritaires et sociétaux.
Gary Grossman est vice-président exécutif de la pratique technologique chez Edelman et chef de file mondial du Centre d'Excellence en IA d'Edelman.