Informe Respaldado por el Departamento de Estado Detalla un Plan de Acción para Mitigar los Riesgos Catastróficos de la IA

Un informe del Departamento de Estado de EE. UU. resalta estrategias esenciales para mitigar los riesgos asociados con las tecnologías avanzadas de inteligencia artificial (IA), especialmente en relación con su posible uso como armas y la pérdida de control.

Titulado "Defensa en Profundidad: Un Plan de Acción para Aumentar la Seguridad de la IA Avanzada", el informe fue elaborado por Gladstone AI, una empresa centrada en la seguridad de la IA, fundada por los hermanos Jeremie y Edouard Harris.

Desde octubre de 2022—antes del lanzamiento de ChatGPT—el plan de acción incorporó la opinión de más de 200 partes interesadas, incluyendo investigadores en IA, expertos en ciberseguridad y funcionarios de seguridad nacional de varios países.

A pesar de las ventajas significativas de la IA avanzada, el informe destaca la aparición de nuevos riesgos catastróficos que se asemejan a las armas de destrucción masiva (ADM). Argumenta que la rápida evolución y proliferación de tecnologías de IA requieren intervención gubernamental inmediata para abordar estas preocupaciones de seguridad nacional.

El plan de acción detalla dos riesgos primarios: la weaponización y la pérdida de control. La weaponización podría resultar en sistemas de IA que exploten vulnerabilidades de manera autónoma, orquesten campañas de desinformación o diseñen armas biológicas. Aunque actualmente ninguna IA puede ejecutar completamente tales ataques, los desarrollos futuros de IA representan una amenaza significativa. El informe señala: "La proliferación de estos modelos podría ser extremadamente peligrosa sin medidas efectivas para monitorear y controlar sus salidas."

La pérdida de control se manifiesta a medida que la IA avanzada se acerca a niveles de inteligencia general artificial (AGI). Sin regulación, los sistemas de IA podrían exhibir características de búsqueda de poder, como resistir la desactivación o manipular a los operadores humanos. La disparidad entre los objetivos de la IA y las intenciones humanas alimenta estos riesgos, que siguen siendo un punto focal de investigación entre los principales laboratorios de IA.

Para combatir estos desafíos, el informe presenta varias propuestas de políticas categorizadas en "líneas de esfuerzo" (LOE), con el objetivo de mejorar la seguridad nacional mientras se fomenta el uso beneficioso de la IA:

1. Estabilización de Riesgos Actuales: Establecer un "observatorio de IA" para la evaluación de amenazas y el intercambio de información, implementar salvaguardias para los desarrolladores de IA en EE. UU. y aprovechar el control de la cadena de suministro para garantizar el despliegue seguro de tecnologías de IA a nivel mundial.

2. Preparación para Incidentes de IA: Crear grupos de trabajo interinstitucionales y programas de capacitación para fortalecer la preparación gubernamental y establecer un marco para sistemas de alerta temprana sobre incidentes de IA avanzada.

3. Apoyo a la Investigación en Seguridad de IA: Asignar financiamiento para investigaciones de alineación que aseguren que los desarrolladores mantengan un enfoque en la seguridad de los sistemas en medio de la competencia por capacidades avanzadas de IA.

4. Marco Regulatorio a Largo Plazo: Crear una agencia reguladora de IA dedicada y un marco de responsabilidad legal que equilibre la necesidad de mitigar riesgos con el fomento de la innovación, especialmente para entidades más pequeñas.

5. Medidas Diplomáticas: Realizar acciones inmediatas y a largo plazo para establecer un régimen internacional de salvaguardias de IA y asegurar la cadena de suministro global de IA.

Los autores del informe destacan la importancia de marcos flexibles que puedan adaptarse a la rápida evolución del paisaje tecnológico de la IA. Reconocen el desafío de equilibrar los beneficios de los modelos de acceso abierto con el potencial de abuso, ya que los modelos poderosos pueden ajustarse fácilmente para fines dañinos.

Jeremie y Ed Harris empezaron a reconocer estos riesgos durante las primeras iteraciones de modelos como GPT-2 y se alarmaron particularmente con la escalabilidad evidente en GPT-3. Sus crecientes preocupaciones los llevaron a transitar de sus startups de IA para centrarse en la seguridad de la IA, incluyendo programas de capacitación para funcionarios de seguridad nacional sobre la IA generativa y sus riesgos asociados.

Desde la fundación de Gladstone AI, han trabajado para cerrar la brecha entre la tecnología y las políticas, reconociendo la necesidad de un análisis independiente e informado sobre los riesgos de la IA, libre de sesgos presentes en organizaciones tecnológicas más grandes.

A medida que las perspectivas de los responsables de políticas sobre los riesgos de la IA evolucionan, especialmente después de ChatGPT, los hermanos Harris subrayan la necesidad de propuestas regulatorias realistas. Sus esfuerzos continuos buscan afinar las recomendaciones para la acción del Congreso y el Ejecutivo, mientras colaboran con partes interesadas clave para abordar los desafíos matizados que presentan las tecnologías de IA en avance.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles