El Instituto Nacional de Estándares y Tecnología (NIST) ha publicado urgentemente un informe sobre las crecientes amenazas a los sistemas de inteligencia artificial (IA). Titulado “Aprendizaje Automático Adversarial: Una Taxonomía y Terminología de Ataques y Mitigaciones”, este informe llega en un momento crucial, ya que los sistemas de IA son cada vez más potentes pero también más vulnerables a ataques.
Las técnicas de aprendizaje automático adversarial permiten a los atacantes manipular sutilmente los sistemas de IA, lo que puede llevar a fallos catastróficos. El informe describe los métodos de estos ataques, categorizándolos según los objetivos de los atacantes, sus capacidades y su conocimiento del sistema de IA objetivo.
Según el informe del NIST, “Los atacantes pueden confundir deliberadamente o incluso ‘envenenar’ los sistemas de inteligencia artificial para hacer que funcionen incorrectamente”, explotando vulnerabilidades en el desarrollo y la implementación de IA.
El documento discute varios tipos de ataques, incluyendo “envenenamiento de datos”, donde los adversarios alteran los datos utilizados para entrenar modelos de IA. Se menciona que “trabajos recientes muestran que el envenenamiento podría orquestarse a gran escala, permitiendo incluso a adversarios de bajo presupuesto influir en conjuntos de datos públicos usados para el entrenamiento de modelos”.
Otra preocupación seria son los “ataques de puerta trasera”, que implican incrustar activadores en los datos de entrenamiento para inducir identificaciones erróneas específicas más tarde. El informe advierte que “los ataques de puerta trasera son notoriamente difíciles de defender”.
Además, el informe aborda los riesgos de privacidad asociados con los sistemas de IA. Técnicas como los “ataques de inferencia de membresía” pueden revelar si una muestra de datos específica fue utilizada en el entrenamiento. El NIST advierte: “Aún no existe un método infalible para prevenir la desinformación en los sistemas de IA”.
A pesar de que la IA tiene el potencial de revolucionar industrias, los expertos en seguridad enfatizan la importancia de actuar con cautela. El informe afirma: “Los chatbots de IA, impulsados por los recientes avances en el aprendizaje profundo, presentan capacidades poderosas para diversas aplicaciones comerciales. Sin embargo, esta tecnología emergente debe implementarse con gran precaución”.
El objetivo del NIST es crear un entendimiento común sobre los desafíos de seguridad en IA. Este informe servirá como un recurso vital para la comunidad de seguridad de IA que enfrenta estas amenazas en evolución.
Joseph Thacker, ingeniero principal de IA e investigador de seguridad en AppOmni, comentó: “Esta es la mejor publicación sobre seguridad de IA que he visto. La profundidad y el alcance son notables; proporciona los datos más completos sobre ataques adversariales contra sistemas de IA que he encontrado”.
A medida que los expertos continúan confrontando las amenazas emergentes de seguridad en IA, es evidente que estamos en una batalla constante por la protección. Se requieren defensas más fuertes antes de que la IA pueda integrarse de manera segura en las industrias, ya que los riesgos son demasiado significativos para ser ignorados.