Cuándo Utilizar ART: Aprovechando la Adversarial Robustness Toolbox de IBM para Soluciones de IA

IBM avanza en la seguridad de la inteligencia artificial (IA) a través de su iniciativa de código abierto, el Adversarial Robustness Toolbox (ART). Hoy, ART se lanza en Hugging Face, ofreciendo herramientas diseñadas para usuarios de IA y científicos de datos con el fin de minimizar los riesgos de seguridad potenciales. Aunque este lanzamiento representa un nuevo hito, ART ha estado en desarrollo desde 2018 y fue aportado a la Linux Foundation como un proyecto de código abierto en 2020. A lo largo de los años, IBM ha continuado evolucionando ART como parte de la iniciativa de DARPA denominada Garantizando la Robustez de la IA Frente a la Decepción (GARD).

La atención en la seguridad de la IA es cada vez más urgente a medida que crece la prevalencia de las tecnologías de IA. Las amenazas comunes incluyen el envenenamiento de datos de entrenamiento y tácticas de evasión que pueden engañar a los modelos de IA al inyectar datos maliciosos o manipular objetos de entrada. Al integrar ART con Hugging Face, IBM busca mejorar el acceso a herramientas de seguridad defensiva de IA para desarrolladores, ayudándoles a mitigar las amenazas de manera más efectiva. Las organizaciones que utilizan modelos de IA de Hugging Face ahora pueden asegurar sus sistemas contra ataques de evasión y envenenamiento, integrando estas defensas sin problemas en sus flujos de trabajo.

“Hugging Face alberga una amplia colección de modelos de vanguardia”, afirmó Nathalie Baracaldo Angel, Gerente de Soluciones de Seguridad y Privacidad de IA de IBM. “Esta integración empodera a la comunidad para aprovechar las herramientas de equipo rojo-equipo azul dentro de ART para los modelos de Hugging Face”.

La Evolución de ART: De DARPA a Hugging Face

El compromiso de IBM con la seguridad de la IA se remonta a antes del actual auge de la IA generativa, ilustrando un enfoque proactivo para proteger las tecnologías de IA. Como iniciativa de código abierto, ART forma parte del proyecto LF AI & Data de la Linux Foundation, beneficiándose de diversas contribuciones de varias organizaciones. Además, DARPA ha financiado a IBM para mejorar las capacidades de ART bajo la iniciativa GARD.

Si bien la inclusión de ART en la Linux Foundation permanece inalterada, ahora extiende su apoyo a los modelos de Hugging Face. Esta última ha ganado rapidamente notoriedad como una plataforma colaborativa para compartir modelos de IA, y IBM ha establecido múltiples asociaciones con la organización, incluyendo un proyecto conjunto con NASA centrado en IA geoespacial.

Entendiendo la Robustez Ante Amenazas y Su Importancia en IA

La robustez ante amenazas es esencial para fortalecer la seguridad de la IA. Angel explica que este concepto implica reconocer intentos adversariales potenciales para comprometer los sistemas de aprendizaje automático y establecer defensas de forma proactiva. “El campo requiere comprender las tácticas adversariales para proteger efectivamente la cadena de aprendizaje automático”, afirmó, enfatizando un enfoque de equipo rojo para identificar y mitigar los riesgos relevantes.

Desde su creación en 2018, ART ha evolucionado para abordar el panorama cambiante de las amenazas a la IA, incluyendo varios ataques y defensas a través de múltiples modalidades como detección de objetos, seguimiento, procesamiento de audio y más. “Recientemente, nos hemos concentrado en integrar modelos multimodales como CLIP, que pronto estarán disponibles en el sistema”, destacó. “En el dinámico panorama de la seguridad, es crucial desarrollar continuamente nuevas herramientas en respuesta a las amenazas y defensas en evolución.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles