A medida que las organizaciones aprovechan cada vez más el potencial de la inteligencia artificial generativa, también surgen desafíos de seguridad. Hoy, IBM aborda estos riesgos al lanzar un nuevo marco de seguridad diseñado específicamente para la inteligencia artificial generativa. El Marco de IBM para Proteger la IA Generativa tiene como objetivo proteger los flujos de trabajo a lo largo de todo su ciclo de vida, desde la recolección de datos hasta la implementación en producción. Este marco ofrece información sobre las amenazas de seguridad más comunes que las organizaciones pueden enfrentar al trabajar con IA generativa, así como recomendaciones prácticas para estrategias de defensa efectivas. En el último año, IBM ha mejorado sus capacidades en IA generativa con su portafolio watsonX, que incluye modelos avanzados y herramientas de gobernanza.
Ryan Dougherty, director del programa de tecnología de seguridad emergente de IBM, enfatizó la importancia de este marco: “Hemos destilado nuestra experiencia para delinear los ataques más probables y las mejores defensas que las organizaciones deberían implementar para asegurar sus iniciativas de IA generativa”.
¿Qué hace única la seguridad de la IA generativa?
Si bien IBM tiene amplia experiencia en seguridad, los riesgos asociados con las cargas de trabajo de IA generativa son a la vez familiares y únicos. Los tres principios fundamentales del enfoque de IBM son asegurar los datos, el modelo y el uso. Estos pilares enfatizan la necesidad de una infraestructura segura y gobernanza de IA en todo el proceso.
Sridhar Muppidi, Fellow de IBM y CTO en IBM Security, destacó que las prácticas fundamentales de seguridad de datos, como el control de acceso y la seguridad de infraestructura, siguen siendo vitales en la IA generativa, al igual que en los entornos de TI tradicionales. Sin embargo, ciertos riesgos están estrechamente relacionados con la IA generativa. Por ejemplo, la contaminación de datos implica introducir información falsa en un conjunto de datos, lo que lleva a resultados inexactos. Muppidi también señaló que los problemas relacionados con sesgos y diversidad de datos, junto con la deriva de datos y las preocupaciones de privacidad, requieren atención particular en este ámbito. Además, la inyección de comandos—donde los usuarios alteran maliciosamente los resultados del modelo a través de comandos—plantea un nuevo ámbito de riesgo que exige controles novedosos.
Conceptos Clave de Seguridad: MLSecOps, MLDR y AISPM
El Marco de IBM para Proteger la IA Generativa no es solo una herramienta individual, sino una colección de directrices y recomendaciones para salvaguardar los flujos de trabajo de IA generativa. A medida que el panorama de la IA generativa evoluciona, emergen nuevas categorías de seguridad, incluyendo Detección y Respuesta de Aprendizaje Automático (MLDR), Gestión de Postura de Seguridad de IA (AISPM) y Operaciones de Seguridad de Aprendizaje Automático (MLSecOps). MLDR se centra en identificar riesgos potenciales dentro de los modelos, mientras que AISPM tiene similitudes con la Gestión de Postura de Seguridad en la Nube (CSPM), enfatizando la importancia de una configuración adecuada y las mejores prácticas para implementaciones seguras.
Muppidi explicó: “Así como tenemos DevOps, que evolucionó a DevSecOps con seguridad añadida, MLSecOps representa un enfoque integral de ciclo de vida desde el diseño hasta el uso, integrando seguridad en todo momento”. Este marco permite a las organizaciones navegar mejor por las complejidades de la seguridad de la IA generativa, asegurando defensas robustas contra amenazas emergentes.