La Ley de Inteligencia Artificial de la UE Entra en Vigor: La Primera Regulación Integral de IA en el Mundo
El 1 de agosto de 2023, la Unión Europea promulgó oficialmente la Ley de Inteligencia Artificial, marcando el primer marco regulatorio integral del mundo para la inteligencia artificial. Esta legislación histórica tiene como objetivo garantizar la fiabilidad de las tecnologías de IA desarrolladas y utilizadas en la UE, al tiempo que establece una serie de medidas de protección para salvaguardar los derechos humanos fundamentales.
Thierry Breton, Comisario de la UE para el Mercado Interno, describió la ley como un marco “efectivo, equilibrado y pionero a nivel global”, diseñado para crear un mercado unificado de IA que fomente la innovación tecnológica y la inversión.
La Ley introduce sanciones sin precedentes por incumplimiento. Las empresas que violen las prohibiciones podrían enfrentar multas de hasta el 7% de sus ingresos anuales globales, mientras que otras infracciones pueden conllevar penalizaciones de hasta el 3%. Proporcionar información engañosa puede resultar en multas de hasta el 1.5%. Estas medidas estrictas buscan disuadir violaciones y promover el desarrollo saludable de la IA.
La legislación clasifica los sistemas de IA según sus niveles de riesgo, delineando requisitos regulatorios específicos. Para los sistemas de bajo riesgo, como algoritmos de recomendación y filtros de spam, que representan amenazas mínimas a los derechos y la seguridad, la Ley no impone obligaciones específicas; sin embargo, se alienta a las empresas a adoptar voluntariamente mejores prácticas adicionales.
Para los sistemas que presentan riesgos de transparencia identificables, como los chatbots, la ley exige una clara divulgación a los usuarios cuando interactúan con máquinas, además de etiquetar el contenido generado por IA (por ejemplo, deepfakes). Las empresas que utilicen tecnologías de reconocimiento biométrico o de emociones deben notificar previamente a los usuarios. Además, los audios, videos e imágenes sintéticas deben etiquetarse como generados por máquinas para mejorar la transparencia y detectabilidad.
Los sistemas de IA de alto riesgo, como los utilizados en evaluaciones de reclutamiento o robótica autónoma, están sujetos a requisitos estrictos, incluyendo el establecimiento de estrategias de mitigación de riesgos, el uso de conjuntos de datos de alta calidad, el mantenimiento de registros de actividad, la entrega de documentación detallada e información para los usuarios, y la garantía de supervisión humana para asegurar robustez, precisión y ciberseguridad.
La Ley prohíbe directamente los sistemas de IA que representan amenazas claras a los derechos fundamentales, incluyendo tecnologías que manipulan el comportamiento del usuario, juguetes que alientan a los menores a asumir riesgos, sistemas de puntuación social y ciertas aplicaciones de policía predictiva. Se aplican también limitaciones estrictas a los sistemas de reconocimiento de emociones en el lugar de trabajo y a los sistemas biométricos en tiempo real utilizados en la aplicación de la ley.
La implementación de la Ley de Inteligencia Artificial representa un avance significativo para la UE en el ámbito de la regulación de IA, ofreciendo valiosas perspectivas y puntos de referencia para la gobernanza global de la IA. A medida que la Ley se desarrolle, la UE busca crear un ecosistema de IA que fomente la innovación mientras protege los derechos.