La Administración Biden Propone Monitoreo para Modelos de IA de Peso Abierto: Implicaciones para la Regulación Futura de la IA

La administración Biden ha comenzado a impulsar el monitoreo de modelos de peso abierto para recopilar información crucial que informe futuras regulaciones. Sin embargo, aún no se han delineado medidas regulatorias específicas para estos modelos.

Un informe reciente de la Administración Nacional de Telecomunicaciones e Información (NTIA) destacó la necesidad de evaluar los riesgos que presentan los modelos de IA públicos, los cuales podrían alterar sistemas existentes. Esta evaluación es esencial para prevenir posibles desastres.

A pesar de reconocer la importancia del monitoreo, la NTIA admitió que actualmente EE. UU. carece de la capacidad necesaria para abordar muchos de los riesgos asociados con los modelos fundamentales. Para cerrar esta brecha, la NTIA propuso enfocarse en tres áreas clave: recopilar evidencia sobre las capacidades de los modelos para el monitoreo de riesgos, evaluar y comparar indicadores de riesgo, y desarrollar políticas específicas para mitigar esos riesgos.

La NTIA define los modelos de peso abierto como modelos fundamentales con pesos o parámetros de acceso público que los usuarios pueden descargar. Estos se diferencian de los modelos de código abierto, que operan bajo una licencia abierta que permite su replicación, a diferencia de algunas afirmaciones de los desarrolladores de modelos de IA.

“El análisis de los riesgos marginales ayuda a evitar imponer restricciones innecesariamente estrictas sobre los modelos de fundación de doble uso con pesos ampliamente disponibles, especialmente al sopesar los beneficios y riesgos en comparación con sistemas similares”, declaró la NTIA.

Además, la agencia reconoció que tanto los modelos abiertos como los cerrados presentan riesgos que requieren gestión. Sin embargo, los modelos abiertos pueden ofrecer oportunidades y desafíos únicos en la reducción de riesgos.

El enfoque de la administración Biden en los modelos abiertos sugiere un enfoque regulatorio similar al del Acta de IA de la Unión Europea, adoptada por el parlamento de la UE en marzo. La legislación de la UE regula la IA según los riesgos asociados con los casos de uso en lugar de los modelos en sí. Por ejemplo, se han establecido sanciones significativas para las empresas que utilizan IA para el reconocimiento facial. Dado el enfoque de la UE, es probable que EE. UU. esté considerando medidas similares para abordar los posibles peligros de los modelos de IA públicos.

Kevin Bankston, asesor principal en gobernanza de IA del Centro para la Democracia y la Tecnología, elogió a la NTIA por su enfoque cauteloso en la regulación de modelos de IA. En un correo electrónico, afirmó: “La NTIA concluyó acertadamente que no hay suficiente evidencia de riesgos novedosos de los modelos de fundación abiertos para justificar nuevas restricciones en su distribución”.

Por ahora, los desarrolladores de modelos de IA no necesitan estar excesivamente preocupados, ya que la NTIA aún se encuentra en una misión exhaustiva de recopilación de datos.

Assaf Melochna, cofundador de la empresa de IA Aquant, observó en un correo electrónico que las observaciones actuales de la NTIA no alteran significativamente el panorama para los desarrolladores de modelos. “Los desarrolladores pueden seguir publicando el peso de sus modelos a su propio criterio, aunque enfrentarán un mayor escrutinio”, explicó Melochna. “El sector evoluciona rápidamente, lo que requiere que las agencias federales se mantengan adaptables según los nuevos hallazgos.”

Most people like

Find AI tools in YBX