Líderes en Seguridad: Cerrando la Brecha Entre Intenciones y Acciones en la Seguridad de AI y MLOps
Un informe reciente revela una desconexión preocupante entre las intenciones de los líderes de seguridad y sus acciones en la protección de los sistemas de AI y MLOps. Mientras un abrumador 97% de los líderes de TI enfatizan la importancia de asegurar la AI y proteger sus sistemas, solo el 61% se siente seguro sobre el financiamiento necesario. Alarmantemente, el 77% de estos líderes reportaron haber experimentado algún tipo de violación relacionada con AI, pero solo el 30% ha implementado defensas manuales contra ataques adversariales en sus procesos actuales de desarrollo de AI, incluyendo pipelines de MLOps.
Con solo un 14% de las organizaciones preparándose para posibles ataques de agentes de AI, la dependencia de modelos de AI sigue en aumento, convirtiéndolos en un blanco principal para las amenazas de AI adversarial. En promedio, las organizaciones tienen 1,689 modelos de AI en producción, y el 98% de los líderes considera algunos modelos esenciales para su éxito. Además, el 83% reporta un uso generalizado de AI en sus equipos, indicando una necesidad urgente de prácticas seguras. "La industria está presionando para acelerar la adopción de AI sin medidas de seguridad adecuadas”, afirman los analistas del informe.
Entendiendo la AI Adversarial
La AI adversarial busca engañar deliberadamente a sistemas de AI y aprendizaje automático (ML), haciéndolos ineficaces para sus propósitos. Esta manipulación utiliza técnicas de AI para explotar vulnerabilidades, de manera similar a un hábil jugador de ajedrez que apunta a las debilidades de su oponente. Las defensas cibernéticas tradicionales a menudo luchan por detectar estos ataques sofisticados.
El informe de HiddenLayer clasifica la AI adversarial en tres tipos principales:
1. Ataques de Aprendizaje Automático Adversarial: Estos ataques explotan vulnerabilidades algorítmicas, buscando alterar el comportamiento de las aplicaciones de AI, evadir sistemas de detección o robar tecnología patentada. Los estados-nación a menudo participan en espionaje por ganancias políticas y financieras, revirtiendo modelos para propósitos ilícitos.
2. Ataques a Sistemas de AI Generativa: Los atacantes enfocan sus esfuerzos en las salvaguardias alrededor de la AI generativa, incluyendo fuentes de datos y modelos de lenguaje grande (LLMs). Las técnicas utilizadas en estos ataques pueden eludir restricciones de contenido, permitiendo la creación de materiales prohibidos como deepfakes y desinformación. La Evaluación Anual de Amenazas 2024 de la Comunidad de Inteligencia de EE. UU. destaca la sofisticada utilización de AI generativa por parte de China para influir en procesos democráticos, especialmente durante elecciones en EE. UU.
3. Ataques a MLOps y la Cadena de Suministro de Software: Generalmente perpetrados por estados-nación o sindicatos del crimen organizado, estos ataques buscan interrumpir los marcos y plataformas esenciales para el desarrollo de sistemas de AI. Las estrategias implican comprometer componentes del pipeline de MLOps para introducir código malicioso o conjuntos de datos envenenados.
Cuatro Estrategias para Defenderse Contra Ataques de AI Adversarial
Mientras más significativas sean las brechas en DevOps y CI/CD, más vulnerables se vuelven el desarrollo de modelos de AI y ML. Proteger los modelos sigue siendo un reto dinámico, especialmente con el aumento de la armamentización de la AI generativa. Aquí hay cuatro pasos proactivos que las organizaciones pueden tomar:
1. Incorporar Pruebas de Red y Evaluaciones de Riesgo: Hacer de las pruebas de red una práctica central dentro del marco DevSecOps de su organización. Evaluar regularmente las vulnerabilidades del sistema permite la identificación temprana y el refuerzo contra posibles vectores de ataque a lo largo del Ciclo de Vida del Desarrollo de Sistemas (SDLC) de MLOps.
2. Adoptar Marcos Defensivos Efectivos: Mantenerse informado sobre diversos marcos defensivos relevantes para la seguridad de AI. Designar a un miembro del equipo de DevSecOps para evaluar cuál marco —como el Marco de Gestión de Riesgos de AI del NIST o la Guía de Seguridad y Privacidad de AI de OWASP— se alinea mejor con los objetivos de la organización.
3. Integrar Autenticación Biométrica y Sin Contraseña: Combatir ataques basados en datos sintéticos incorporando modalidades biométricas y autenticación sin contraseña en los sistemas de gestión de acceso. Utilizar una combinación de reconocimiento facial, escaneo de huellas digitales y reconocimiento de voz puede mejorar la seguridad contra amenazas de suplantación.
4. Realizar Auditorías Regularmente y Actualizar: Auditar frecuentemente los sistemas de verificación y mantener actualizados los privilegios de acceso. Con el aumento de ataques de identidad sintética, asegurar que los procesos de verificación sean actuales y se parcheen de manera rutinaria es fundamental para una defensa efectiva.
Al abordar estas estrategias, las organizaciones pueden mejorar su postura de seguridad frente al cambiante panorama de las amenazas de AI adversarial.