Veto de la loi sur l'IA en Californie : Une voie pour permettre aux petits développeurs et modèles de prospérer

Le gouverneur de Californie, Gavin Newsom, a récemment opposé son veto au projet de loi SB 1047, qui aurait pu avoir un impact significatif sur le développement de l'IA dans l'État et au niveau national. Ce veto, annoncé dimanche, pourrait permettre aux entreprises d'IA de démontrer leur engagement envers la protection proactive des utilisateurs contre les risques liés à l'IA.

Le projet de loi SB 1047 visait à obliger les entreprises d'IA à mettre en place un « kill switch » pour leurs modèles, à développer des protocoles de sécurité formels et à engager un auditeur tiers en matière de sécurité avant le début de l'entraînement des modèles. La législation prévoyait également de donner au procureur général de Californie l'accès aux rapports d'audit et le pouvoir de poursuivre les développeurs d'IA.

Certains vétérans de l'industrie ont exprimé des inquiétudes quant au fait que ce projet de loi pourrait freiner l'innovation dans le domaine de l'IA, remerciant Newsom pour son veto. Ils soutiennent que cette décision aiderait à protéger le développement en open source à l'avenir. Yann Le Cun, scientifique en chef de l'IA chez Meta et critique vocal de SB 1047, a qualifié cette décision de « sensée » sur X (anciennement Twitter).

L’investisseur en IA Marc Andreessen a caractérisé le veto de Newsom comme un soutien au « dynamisme de la Californie, à la croissance économique et à la liberté de calculer ». D'autres leaders de l'industrie ont fait écho à ces sentiments, plaidant pour des réglementations qui ne freinent pas les petits développeurs et modèles.

« La question centrale n’est pas les modèles d’IA eux-mêmes, mais leurs applications », a déclaré Mike Capone, PDG de Qlik. Il a souligné l'importance de se concentrer sur le contexte et les cas d'utilisation plutôt que sur la technologie elle-même. Capone a appelé à des cadres réglementaires pour garantir une utilisation sûre et éthique.

Andrew Ng, cofondateur de Coursera, a également salué le veto comme « pro-innovation », affirmant qu'il protégerait les initiatives en open source.

Cependant, des voix d'opposition se sont également élevées. Dean Ball, expert en politiques technologiques à l'Université George Mason, a souligné que le veto est crucial pour la Californie et l'Amérique. Il a noté que les seuils de taille des modèles dans le projet de loi sont dépassés et ne tiennent pas compte des nouveaux modèles comme ceux d'OpenAI.

Lav Varshney, professeur associé à l'Université de l'Illinois, a critiqué le projet de loi pour avoir pénalisé les développeurs originaux pour l'utilisation suivante de leur technologie. Il a proposé un modèle de responsabilité partagée qui favoriserait l'innovation en open source.

Le veto donne aux développeurs d'IA l'occasion d'améliorer leurs politiques et pratiques en matière de sécurité. Kjell Carlsson, responsable de la stratégie d'IA chez Domino Data Lab, a exhorté les entreprises à aborder proactivement les risques liés à l'IA et à intégrer une gouvernance solide tout au long du cycle de vie de l'IA.

Navrina Singh, fondatrice de la plateforme de gouvernance de l'IA Credo AI, a souligné la nécessité d'une compréhension nuancée des réglementations nécessaires, plaidant pour que la gouvernance soit au cœur de l'innovation tout en maintenant la confiance et la transparence sur le marché.

En revanche, toutes les réactions n'ont pas été positives. Des groupes de politiques technologiques ont condamné le veto, Nicole Gill, cofondatrice d'Accountable Tech, affirmant qu'il favorise les grandes entreprises au détriment de la sécurité publique. Elle a soutenu que le veto perpétue le statu quo, permettant à des grandes entreprises de profiter sans responsabilité.

L'AI Policy Institute a exprimé des préoccupations similaires, son directeur exécutif Daniel Colson qualifiant cette décision de « malavisée et imprudente ».

La Californie, qui abrite la majorité des entreprises d'IA du pays, manque de réglementations robustes qui répondent à la demande publique de surveillance. Actuellement, il n’existe pas de mandats fédéraux concernant l'IA générative, le plus proche étant un décret exécutif du président Biden. Ce décret esquisse un cadre pour l'utilisation de l'IA par les agences et encourage les entreprises à soumettre volontairement leurs modèles pour évaluation.

L'administration Biden vise également à surveiller les modèles à poids ouverts pour identifier les risques potentiels, soulignant les discussions en cours sur la sécurité et la régulation de l'IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles