Entendiendo la Incertidumbre de la Ley de IA de la UE: Perspectivas de la Controversia de OpenAI

La Ley de IA de la UE, que se espera sea una legislación histórica, enfrenta incertidumbres debido a disputas sobre la regulación de modelos fundamentales, como GPT-4, Claude y Llama. Recientemente, los gobiernos de Francia, Alemania e Italia han abogado por una regulación limitada de estos modelos, un movimiento que muchos atribuyen al fuerte cabildeo de las grandes tecnológicas y empresas de código abierto como Mistral, asesoradas por Cédric O, un exministro francés de digitalización. Los críticos sostienen que este enfoque podría socavar la integridad de la Ley de IA de la UE.

Los defensores de una regulación más estricta han respondido con firmeza. Una coalición de expertos alemanes e internacionales en IA, incluyendo a destacados investigadores como Geoffrey Hinton y Yoshua Bengio, publicó recientemente una carta abierta instando al gobierno alemán a no eximir a estos modelos de la Ley de IA, advirtiendo que tal exención pondría en riesgo la seguridad pública y perjudicaría a las empresas europeas.

Además, expertos franceses han contribuido al debate con un artículo conjunto en Le Monde, manifestando su fuerte oposición a los intentos de las grandes tecnológicas por debilitar esta legislación crucial en sus etapas finales.

¿Por qué la Ley de IA de la UE enfrenta resistencia en esta etapa avanzada? Más de dos años y medio después de que se presentó el borrador inicial y tras intensas negociaciones, la ley se encuentra en la fase de trilogo, donde los legisladores de la UE finalizan los detalles del proyecto. La Comisión Europea espera promulgar la Ley de IA antes de finales de 2023, antes de las elecciones al Parlamento Europeo de 2024.

La reciente agitación en OpenAI proporciona información sobre las dinámicas internas que influyen en estas discusiones. Tras una dramática reestructuración del consejo en la que el CEO Sam Altman fue despedido brevemente, las opiniones contradictorias dentro de la organización reflejaron el debate más amplio sobre la regulación de la IA en la UE. Algunos miembros del consejo priorizaron oportunidades comerciales y el desarrollo de inteligencia artificial general (AGI), mientras que otros expresaron profundas preocupaciones sobre las implicaciones de seguridad de esta tecnología de alto riesgo.

Los miembros del consejo que abogaban por la cautela estaban vinculados al movimiento del Altruismo Efectivo, que también ha tenido influencia en el cabildeo en torno a la Ley de IA de la UE. Informes indican que esta comunidad ha asignado recursos significativos para aumentar la conciencia sobre los riesgos existenciales que plantea la IA.

Por el contrario, las grandes tecnológicas, incluida OpenAI, han cabildeado activamente en contra de regulaciones estrictas. Sam Altman, mientras aboga públicamente por una gobernanza global de la IA, ha buscado debilitar ciertas disposiciones de las regulaciones propuestas por la UE para facilitar la carga de cumplimiento de su empresa.

Gary Marcus ha subrayado estos desarrollos, argumentando que el caos en OpenAI enfatiza la necesidad de un control riguroso, en lugar de permitir que las grandes tecnológicas se autorregulen. Apoya el enfoque en capas del Parlamento Europeo, afirmando que reducir componentes clave de la Ley de IA a un ejercicio de autorregulación tendría consecuencias globales graves.

Brando Benifei, un destacado negociador del Parlamento Europeo, respaldó este sentimiento, afirmando que la imprevisibilidad de las acciones de Altman ilustra los peligros de depender de acuerdos voluntarios de la industria.

¿Está realmente en riesgo la Ley de IA de la UE? Según Benedikt Kohn, consultor alemán, las negociaciones en curso son cruciales, con el próximo trilogo programado para el 6 de diciembre. Advierte que un fracaso en alcanzar un acuerdo podría socavar severamente las aspiraciones de la UE como líder global en regulación de la IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles