Récemment, le gouverneur de Californie, Gavin Newsom, a officiellement opposé son veto au controversé "Frontier AI Model Safety Innovation Act" (SB 1047), attirant ainsi l'attention de l'industrie technologique et des décideurs politiques.
L'objectif de SB 1047 était d'établir des normes de sécurité pour le développement de modèles d'IA à grande échelle, ciblant en particulier les développeurs dont les coûts de formation dépassent 100 millions de dollars. Le projet de loi imposait aux développeurs de mettre en œuvre plusieurs mesures préventives avant le déploiement, y compris des tests, des simulations de cyberattaques, l'installation de protections de cybersécurité et la mise en place de protections pour les lanceurs d'alerte afin d'assurer la sécurité des modèles d'IA.
Cependant, Newsom a identifié plusieurs problèmes au sein du texte. Il a reconnu que, bien que SB 1047 ait de bonnes intentions, il ne prenait pas en compte les systèmes d'IA déployés dans des environnements à haut risque ou impliqués dans des prises de décisions critiques. Il a soutenu que les exigences strictes pour les grands systèmes pourraient ne pas protéger efficacement le public et pourraient même freiner les avancées technologiques.
Newsom a exprimé ses inquiétudes quant au fait que le projet de loi puisse créer un faux sentiment de sécurité pour le public. Il a souligné que les modèles plus petits et spécialisés pouvaient présenter des risques égaux ou supérieurs à ceux visés par SB 1047. Il est convaincu que favoriser l'innovation et assurer la sécurité du public ne sont pas incompatibles et que l'État devrait élaborer des politiques plus nuancées et ciblées pour relever les défis posés par les technologies d'IA.
Jamie Radice, responsable des affaires publiques chez Meta, a accueilli la décision de Newsom, affirmant que le projet de loi aurait freiné l'innovation en IA et aurait eu un impact négatif sur la croissance des entreprises et les opportunités d'emploi, plaidant pour des réglementations sur l'IA plus raisonnables.
Depuis son introduction en février de cette année, le SB 1047 a généré une controverse considérable. Malgré des révisions publiées en août, il n'a pas obtenu le soutien de Newsom. Les opinions au sein de la communauté technologique sont divisées : certains chercheurs et entreprises d'IA craignent qu'il n'étouffe l'innovation, tandis que d'autres plaident pour des normes de sécurité plus strictes.
Le veto de Newsom au SB 1047 représente un moment charnière dans la politique de réglementation de l'IA en Californie. Le défi d'équilibrer l'innovation en IA avec la sécurité sera une question cruciale à suivre dans le futur.