El gobernador de California, Gavin Newsom, recientemente vetó el SB 1047, un proyecto de ley que muchos creían podría tener un impacto significativo en el desarrollo de la inteligencia artificial (IA) en el estado y a nivel nacional. Este veto, anunciado el domingo, puede permitir a las empresas de IA demostrar su compromiso de proteger proactivamente a los usuarios de los riesgos relacionados con la IA.
El SB 1047 pretendía obligar a las empresas de IA a implementar un "interruptor de apagado" para sus modelos, desarrollar protocolos de seguridad formal y contratar a un auditor de seguridad externo antes de comenzar el entrenamiento de modelos. La legislación también tenía la intención de otorgar al fiscal general de California acceso a los informes de auditoría y la autoridad para demandar a los desarrolladores de IA.
Algunos veteranos de la industria expresaron su preocupación de que el proyecto de ley podría obstaculizar el desarrollo de la IA, agradeciendo a Newsom por el veto. Argumentan que esto ayudará a salvaguardar el desarrollo de código abierto en el futuro. Yann Le Cun, científico jefe de IA en Meta y crítico del SB 1047, calificó la decisión de "sensata" en X (anteriormente Twitter).
El destacado inversor en IA Marc Andreessen caracterizó el veto de Newsom como un respaldo al "Dinamismo de California, el crecimiento económico y la libertad para computar". Otros líderes de la industria expresaron sentimientos similares, abogando por regulaciones que no ahoguen a los desarrolladores y modelos más pequeños.
“El problema central no son los modelos de IA; son sus aplicaciones”, dijo Mike Capone, CEO de Qlik. Enfatizó la importancia de enfocarse en el contexto y los casos de uso, en lugar de solo en la tecnología. Capone pidió marcos regulatorios que aseguren un uso seguro y ético.
Andrew Ng, cofundador de Coursera, también elogió el veto como "pro-innovación", argumentando que protegería las iniciativas de código abierto.
Sin embargo, existen voces de oposición. Dean Ball, experto en políticas de IA y tecnología en el Mercatus Center de la Universidad George Mason, señaló que el veto es crucial para California y Estados Unidos. Observó que los umbrales de tamaño de modelo del proyecto de ley están desactualizados y no considerarían modelos más nuevos como los de OpenAI.
Lav Varshney, profesor asociado en la Universidad de Illinois, criticó el proyecto de ley por penalizar a los desarrolladores originales por el uso posterior de su tecnología. Propuso un modelo de responsabilidad compartida que permita la innovación de manera abierta.
El veto brinda a los desarrolladores de IA la oportunidad de mejorar sus políticas y prácticas de seguridad. Kjell Carlsson, jefe de estrategia de IA en Domino Data Lab, instó a las empresas a abordar proactivamente los riesgos de la IA e incorporar una sólida gobernanza a lo largo del ciclo de vida de la IA.
Navrina Singh, fundadora de la plataforma de gobernanza de IA Credo AI, destacó la necesidad de una comprensión matizada sobre las regulaciones necesarias, abogando por que la gobernanza sea central en la innovación manteniendo la confianza y la transparencia en el mercado.
Por otro lado, no todas las reacciones fueron positivas. Grupos de políticas tecnológicas criticaron el veto, con Nicole Gill, cofundadora de Accountable Tech, afirmando que favorece a las grandes tecnológicas a expensas de la seguridad pública. Sostuvo que el veto afianza el statu quo, permitiendo que las grandes empresas obtengan beneficios sin rendir cuentas.
El AI Policy Institute compartió esta preocupación, con el director ejecutivo Daniel Colson criticando la decisión como "mal guiada e imprudente".
California, hogar de la mayoría de las empresas de IA del país, carece de regulaciones robustas que se alineen con la demanda pública de supervisión. Actualmente, no hay mandatos federales en torno a la IA generativa, siendo el más cercano una orden ejecutiva del presidente Biden. Esta orden establece un marco para el uso de IA por parte de las agencias y alienta a las empresas a presentar modelos para evaluación de manera voluntaria.
La administración Biden también busca monitorear modelos de peso abierto por riesgos potenciales, destacando las discusiones en curso sobre la seguridad y regulación de la IA.