El gobierno federal se está quedando atrás en sus esfuerzos regulatorios sobre la inteligencia artificial (IA), lo que ha llevado a ciudades de todo el país a tomar medidas decisivas. Nueva York ha lanzado recientemente una estrategia integral de IA que busca evaluar las herramientas de IA, identificar sus riesgos, mejorar la competencia del personal municipal con la tecnología y promover la integración responsable de sistemas de IA en las operaciones gubernamentales. Esta iniciativa forma parte de un movimiento creciente para establecer regulaciones locales que gestionen mejor las aplicaciones de IA y fomenten la transparencia.
"Cómo se desarrolle esto podría tener implicaciones significativas para la política de IA, tanto a nivel federal como en otros municipios," comentó Sarah Shugars, profesora asistente de comunicación en la Universidad Rutgers. "¿Pueden los gobiernos simplemente comprometerse a usar la IA de manera responsable, o insistirán los ciudadanos en acciones concretas para respaldar esas afirmaciones?"
Estableciendo Regulaciones Locales para la IA
En su detallada estrategia de IA de 51 páginas, Nueva York ha delineado una serie de pasos para profundizar su comprensión de la tecnología de IA e integrarla de manera responsable en los procesos gubernamentales. La primera fase incluye la formación de un 'Comité Directivo de IA' que reúne a interesados de diversas agencias de la ciudad. La estrategia identifica casi 40 iniciativas específicas, de las cuales 29 comenzarán o concluirán dentro del próximo año. Además, Nueva York se compromete a publicar un informe anual sobre el progreso de la IA, manteniendo al público informado sobre los avances e implementación de la estrategia.
“Si bien la inteligencia artificial ofrece una oportunidad única para mejorar los servicios para los neoyorquinos, debemos ser cautelosos respecto a los riesgos inherentes que presentan estas tecnologías,” declaró el alcalde Eric Adams. “Estoy orgulloso de presentar un plan que encontrará un equilibrio crítico en la conversación global sobre la IA — uno que empodera a las agencias de la ciudad para aprovechar tecnologías que pueden mejorar vidas, mientras se salvaguardan contra peligros potenciales.”
De hecho, las regulaciones sobre IA ya están tomando forma en Nueva York. Este año, una nueva ley restringe a los empleadores el uso de herramientas impulsadas por IA para la contratación y promoción. Esta legislación abarca "herramientas automatizadas de decisiones laborales," que utilizan IA, métodos estadísticos o análisis de datos para tomar decisiones relacionadas con el empleo.
Un Movimiento Nacional Hacia la Regulación de la IA
La iniciativa de Nueva York es parte de una tendencia nacional más amplia que busca regular la tecnología de IA. Aunque aún no existe una ley federal integral sobre la IA, la Casa Blanca presentó el año pasado una Declaración de Derechos de IA, enfocándose en la protección del consumidor en el diseño y uso de sistemas automatizados. La administración Biden también se está preparando para emitir una orden ejecutiva sobre la IA, que examina el marco legal actual e identifica la necesidad de más legislación. Mientras tanto, la Unión Europea se encuentra en las etapas finales de la aprobación de su extensa Ley de IA.
En EE. UU., ha surgido una ola de legislación, con diez estados añadiendo reglas relacionadas con la IA a sus leyes de privacidad para 2023, y más estados considerando medidas similares. Connecticut trabaja en una Declaración de Derechos de IA, mientras que la Ley de Privacidad de Datos Personales de Delaware empodera a los consumidores para gestionar decisiones automatizadas. Washington D.C. implementa medidas para prevenir que los algoritmos tomen decisiones sesgadas, y el senador estatal de Nueva Jersey, Doug Steinhardt, ha propuesto actualizar las leyes sobre robo de identidad para mitigar los riesgos asociados con la IA y la tecnología de deepfake, abordando el aumento de estafas de clonación de voz.
Al inicio del año, California se preparó para perseguir legislación sobre IA centrada en combatir el sesgo algorítmico y proporcionar protecciones de privacidad para los residentes. Sin embargo, el progreso sustancial en estas iniciativas podría retrasarse hasta al menos 2024. Funcionarios locales habían propuesto ideas para que los individuos optaran por salir de los sistemas de IA, reflejando las crecientes preocupaciones sobre el impacto de la IA en la privacidad y la seguridad.
A medida que estas discusiones avanzan a nivel nacional, algunos temen que un manejo inadecuado de la IA pueda llevar a consecuencias adversas. "Las ciudades se están convirtiendo en campos de prueba para tecnologías emergentes de IA, y el gobierno federal está utilizando estos programas piloto para decidir sobre enfoques regulatorios,” señaló David Dunmoyer, director de campaña de Better Tech for Tomorrow en la Fundación de Políticas Públicas de Texas.
Aunque algunos abogan por la regulación, otros advierten que reglas locales excesivamente estrictas podrían sofocar la innovación. “Parece que la regulación es inevitable,” afirmó Raj Kaur Khaira, COO de AutoGenAI. “Sin embargo, es crítico entender qué se regulará exactamente. ¿Será la tecnología en sí misma, o solo sus aplicaciones? Cualquier regulación en este ámbito debe ser proporcionada al riesgo que se está abordando. Como hemos visto en otros sectores, los reguladores y legisladores no siempre comprenden las complejidades de las tecnologías que buscan regular.”
El panorama en evolución de la regulación de la IA subraya la necesidad de un enfoque medido que equilibre la innovación con la gobernanza responsable, asegurando que las tecnologías de IA se desarrollen de manera que sean beneficiosas y seguras para todas las comunidades.