L'administration Biden propose la surveillance des modèles d'IA à poids ouvert : quelle est l'importance de cette initiative pour la réglementation future de l'IA ?

L'administration Biden a lancé une initiative visant à surveiller les modèles à poids ouverts afin de recueillir des informations essentielles pour de futures régulations. Cependant, les mesures réglementaires spécifiques concernant ces modèles n'ont pas encore été définies.

Dans un rapport récent, la National Telecommunications and Information Administration (NTIA) a souligné la nécessité d'évaluer les risques liés aux modèles d'IA publics, qui pourraient potentiellement perturber les systèmes existants. Cette évaluation est essentielle pour prévenir tout désastre éventuel.

Bien que l'importance de la surveillance soit reconnue, la NTIA admet que les États-Unis manquent actuellement de la capacité nécessaire pour traiter efficacement de nombreux risques associés aux modèles fondamentaux. Pour combler cette lacune, la NTIA propose de se concentrer sur trois domaines clés : la collecte de preuves sur les capacités des modèles pour la surveillance des risques, l'évaluation et la comparaison des indicateurs de risque, ainsi que le développement de politiques ciblées pour atténuer ces risques.

La NTIA définit les modèles à poids ouverts comme des modèles fondamentaux dont les poids ou paramètres sont publiquement disponibles, permettant ainsi aux utilisateurs de les télécharger. Ceux-ci se distinguent des modèles open-source, qui fonctionnent sous une licence ouverte permettant leur reproduction, contrairement à certaines affirmations des développeurs de modèles d'IA.

"La prise en compte du risque marginal permet d'éviter d'imposer des restrictions trop strictes sur les modèles fondamentaux à double usage avec des poids largement accessibles, notamment lorsque l'on évalue les avantages et les risques par rapport à des systèmes similaires," a déclaré la NTIA.

De plus, l'agence a reconnu que les modèles ouverts et fermés présentent des risques nécessitant une gestion. Cependant, les modèles ouverts peuvent offrir des opportunités et des défis uniques en matière de réduction des risques.

L'accent mis par l'administration Biden sur les modèles ouverts suggère une approche réglementaire semblable à celle de la loi sur l'IA de l'Union européenne, adoptée par le parlement européen en mars. La législation de l'UE régule l'IA en fonction des risques associés aux cas d'utilisation, plutôt qu'aux modèles eux-mêmes. Par exemple, des sanctions significatives ont été établies pour les entreprises utilisant l'IA pour la reconnaissance faciale. Étant donné l'approche de l'UE, il est probable que les États-Unis envisagent des mesures similaires pour aborder les dangers potentiels des modèles d'IA publics.

Kevin Bankston, conseiller senior sur la gouvernance de l'IA au Center for Democracy and Technology, a salué l'approche prudente de la NTIA concernant la régulation des modèles d'IA. Dans un courriel, il a déclaré : "La NTIA a à juste titre conclu qu'il n'y a pas suffisamment de preuves de nouveaux risques provenant des modèles fondamentaux ouverts pour justifier de nouvelles restrictions sur leur distribution."

Pour l'instant, les développeurs de modèles d'IA n'ont pas de raison de s'inquiéter, car la NTIA mène encore une mission d'enquête complète.

Assaf Melochna, co-fondateur de l'entreprise d'IA Aquant, a noté dans un courriel que les observations actuelles de la NTIA ne modifient pas significativement le paysage pour les développeurs de modèles. "Les développeurs peuvent continuer à publier leurs poids de modèles à leur propre discrétion, même s'ils seront soumis à une surveillance accrue," a expliqué Melochna. "Le secteur évolue rapidement, ce qui nécessite que les agences fédérales restent adaptables en fonction des nouvelles découvertes."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles