Des experts du MIT plaident en faveur d'une gouvernance et d'une régulation renforcées de l'IA.

Des chercheurs et universitaires du MIT ont publié un document politique éclairant plaidant pour l'expansion du cadre réglementaire du gouvernement américain concernant l'intelligence artificielle (IA). Intitulé "Créer un secteur de l'IA sûr et prospère", ce document de dix pages souligne la nécessité d'étendre les cadres légaux existants pour inclure les technologies d'IA. Cela inclut des propositions visant à intégrer l'IA dans les réglementations de santé, notamment en ce qui concerne les diagnostics assistés par IA. De plus, les auteurs préconisent que l'IA soit soumise à la même surveillance qui régit actuellement les opérations gouvernementales, telles que les pratiques policières, les décisions de caution et les processus de recrutement.

Les chercheurs insistent sur le fait que toute loi régissant les activités humaines devrait également s'appliquer aux systèmes d'IA. Ils affirment : « Si l'activité humaine sans l'utilisation de l'IA est réglementée, alors l'utilisation de l'IA devrait également être réglementée. » Ce principe garantirait que le développement, le déploiement et l'utilisation des systèmes d'IA respectent les mêmes normes que celles établies pour les actions humaines dans les domaines concernés.

Le document met en avant les applications à haut risque de l'IA, qui sont déjà examinées sous les lois existantes, comme des points de focalisation critiques. Par exemple, la réglementation des véhicules autonomes, qui doivent répondre aux mêmes normes que les véhicules conduits par des humains, illustre comment les cadres existants peuvent être appliqués efficacement.

Les auteurs soutiennent également que les développeurs de systèmes d'IA à usage général, tels que ChatGPT, devraient être tenus de définir clairement le but prévu de leurs technologies avant leur mise sur le marché. Cette responsabilité permettrait aux régulateurs d'établir des directives spécifiques pour les usages prévus, garantissant que les développeurs alignent leurs systèmes sur ces paramètres définis.

Un aspect important du document concerne la clarification des questions liées aux droits de propriété intellectuelle dans le contexte de l'IA. Les auteurs suggèrent que des mécanismes doivent être développés pour aider les créateurs à se protéger contre de potentielles violations, plaidant pour un étiquetage obligatoire du contenu généré par l'IA comme solution possible.

Le document souligne les ambiguïtés actuelles concernant l'application des cadres réglementaires et juridiques existants lorsque l'IA est impliquée. Il déclare : « Il n'est pas clair si et comment les cadres réglementaires et juridiques actuels s'appliquent lorsque l'IA est impliquée et s'ils sont à la hauteur de la tâche. » Ce manque de clarté crée un environnement difficile pour les fournisseurs, les utilisateurs et le grand public, qui peuvent être incertains des risques associés aux technologies d'IA. Les auteurs soulignent l'importance d'une clarté et d'une surveillance supplémentaires pour encourager le développement et l'utilisation responsables de l'IA, maximisant ainsi ses bénéfices pour tous les Américains.

Selon Dan Huttenlocher, doyen du MIT Schwarzman College of Computing, « En tant que pays, nous régulons déjà de nombreuses choses à risque relativement élevé et y apportons une gouvernance. Nous ne disons pas que c'est suffisant, mais commençons par des domaines où l'activité humaine est déjà réglementée et que la société a considérés comme des risques élevés. Approcher la régulation de l'IA de cette manière est la voie pratique à suivre. »

Ce document politique s'inscrit dans une série d'autres explorant divers aspects de l'IA, y compris la gestion des grands modèles linguistiques, des stratégies d'IA favorables aux travailleurs et l'étiquetage du contenu généré par l'IA, signalant un engagement plus large en faveur de l'établissement d'un paysage réglementé de l'IA.

Most people like

Find AI tools in YBX