Una encuesta reciente indica que los líderes empresariales en EE. UU. abogan cada vez más por una regulación y gobernanza integral de la inteligencia artificial (IA), motivados por crecientes preocupaciones sobre la privacidad de los datos, los riesgos de seguridad y la aplicación ética de las tecnologías de IA.
Realizada por The Harris Poll para Collibra, una empresa de inteligencia de datos, el estudio ofrece valiosas percepciones sobre cómo las organizaciones están gestionando los desafíos de la adopción y regulación de la IA.
La encuesta, que incluyó respuestas de 307 adultos en posiciones de director o superiores en EE. UU., reveló que un impresionante 84% de los responsables de decisiones en datos, privacidad e IA apoyan la actualización de las leyes sobre derechos de autor de EE. UU. para protegerse contra el mal uso de la IA. Esto refleja la creciente desconexión entre los rápidos avances tecnológicos y los marcos legales actuales.
“LA IA ha cambiado fundamentalmente la relación entre los proveedores de tecnología y los creadores”, afirmó Felix Van de Maele, cofundador y CEO de Collibra. “El despliegue acelerado de herramientas de IA generativa ha exigido una reevaluación del ‘uso justo’ y la aplicación retroactiva de leyes de derechos de autor que tienen siglos de antigüedad a tecnologías modernas.”
Van de Maele destacó la importancia de la equidad en este panorama en evolución. “Los creadores de contenido merecen mayor transparencia, protección y compensación. Los datos son el pilar de la IA, requiriendo fuentes de alta calidad y confianza—como el material protegido por derechos de autor—para producir resultados fiables. Es justo que los creadores reciban la compensación y protección que merecen.”
El impulso por leyes de derechos de autor actualizadas coincide con un aumento de demandas de alto perfil contra empresas de IA por supuestas infracciones de derechos de autor, lo que pone de manifiesto los complejos problemas relacionados con el uso de materiales protegidos por derechos de autor para fines de entrenamiento de IA.
Además, la encuesta mostró un notable apoyo para compensar a las personas cuyos datos se utilizan en el entrenamiento de modelos de IA, con un 81% de los encuestados respaldando la idea de que las grandes empresas tecnológicas proporcionen dicha compensación. Esto indica un cambio en la valoración de los datos personales en la era de la IA.
“Todos los creadores de contenido, sin importar su tamaño, deberían ser compensados y protegidos cuando se utiliza su data”, afirmó Van de Maele. “A medida que comenzamos a valorar más el talento en datos, la distinción entre creadores de contenido y ‘ciudadanos de datos’—individuos responsables de utilizar datos en sus roles—se desdibujará cada vez más.”
La encuesta también resaltó una preferencia por la regulación de IA a nivel federal y estatal en lugar de supervisión internacional, lo que refleja el actual panorama regulatorio en EE. UU., donde estados como Colorado han comenzado a crear sus propias regulaciones de IA ante la falta de directrices federales integrales.
“Estados como Colorado han establecido un precedente para regulaciones integrales de IA, aunque algunos argumentan que fue prematuro. No obstante, demuestra lo que debe hacerse para proteger a las empresas y a los ciudadanos”, expresó Van de Maele. “Sin directrices federales claras, las empresas buscarán orientación de los funcionarios estatales.”
Interesantemente, la encuesta reveló una notable división entre grandes y pequeñas empresas en su apoyo a la regulación gubernamental de la IA. Las empresas más grandes (más de 1000 empleados) mostraron una mayor inclinación a respaldar estas regulaciones en comparación con las más pequeñas (1-99 empleados).
Esta discrepancia puede atribuirse a los recursos y al riesgo frente al retorno de la inversión (ROI), según Van de Maele. “Las empresas más pequeñas suelen abordar nuevas tecnologías con escepticismo y precaución. Hay una percepción común de que la IA está diseñada específicamente para las grandes empresas tecnológicas, requiriendo inversiones sustanciales y potencialmente interrumpiendo modelos operativos establecidos.”
Los encuestados expresaron alta confianza en las iniciativas de IA de sus propias empresas, pero surgió una brecha de confianza respecto al gobierno y a las grandes empresas tecnológicas, lo que presenta desafíos para los responsables de políticas y líderes del sector en la configuración del futuro de la regulación de la IA.
Las preocupaciones sobre privacidad y seguridad encabezan la lista de amenazas percibidas para una regulación efectiva de la IA en EE. UU., con un 64% de los encuestados citando estos como problemas importantes. En respuesta, empresas como Collibra están desarrollando soluciones para mejorar la gobernanza de la IA.
“Sin una gobernanza adecuada de la IA, aumenta la probabilidad de problemas de privacidad y riesgos de seguridad”, explicó Van de Maele. Collibra ha lanzado Collibra AI Governance, una solución diseñada para fomentar la colaboración entre equipos, alinear proyectos de IA con estándares legales y de privacidad, reducir riesgos de datos y optimizar el rendimiento y el ROI.
A medida que el ritmo de la tecnología de IA se acelera, la encuesta reveló que el 75% de los encuestados cree que sus empresas priorizan la capacitación y mejora de habilidades en IA, indicando un cambio transformador en el mercado laboral.
De cara al futuro, Van de Maele delineó las prioridades clave para la gobernanza de la IA en EE. UU.: aprovechar los datos como un activo vital, establecer un marco de confianza, prepararse para la aparición de talento en datos y enfatizar el acceso responsable antes que la IA responsable.
“La gobernanza debe ir más allá de TI; la gobernanza de datos debe centrarse en la calidad de los datos tanto como en la cantidad”, subrayó.
Los hallazgos subrayan la urgente necesidad de estrategias de gobernanza integrales a medida que la IA sigue transformando industrias y desafiando marcos regulatorios existentes. Mientras las empresas están ansiosas por adoptar tecnologías de IA, son muy conscientes de los riesgos asociados y buscan directrices claras de los responsables de políticas para un desarrollo y despliegue responsables.
Es probable que en los próximos años se produzcan intensos debates entre el gobierno, la industria y la sociedad civil mientras intentan crear un entorno regulatorio que fomente la innovación, protegiendo al mismo tiempo los derechos individuales y promoviendo prácticas éticas en IA. Las empresas de todos los tamaños deberán permanecer informadas y adaptables, enfatizando una gobernanza robusta de datos y ética en IA para enfrentar futuros desafíos y oportunidades.