Protect AI Refuerza la Seguridad de LLM a Través de Iniciativas de Adquisición de Código Abierto

Asegurando los Flujos de Trabajo de IA y ML: Protegiendo el Enfoque Innovador de la IA

La seguridad de los flujos de trabajo de inteligencia artificial (IA) y aprendizaje automático (ML) representa un desafío multifacético que involucra numerosos componentes. La startup con sede en Seattle, Protect AI, está abordando este reto con la adquisición de Laiyer AI, la firma líder detrás del proyecto de código abierto LLM Guard. Los detalles financieros de la transacción no se han revelado. Esta adquisición mejorará la plataforma de Protect AI para proteger mejor a las organizaciones de los riesgos potenciales asociados con los modelos de lenguaje grande (LLMs).

Radar: Una Solución Integral de Seguridad para IA

La plataforma comercial principal de Protect AI, Radar, ofrece capacidades de visibilidad, detección y gestión para modelos de IA/ML. Tras una exitosa ronda de financiamiento de 35 millones de dólares en julio de 2023, la compañía busca expandir sus iniciativas de seguridad en IA. Daryan Dehghanpisheh, presidente y fundador de Protect AI, afirmó: “Queremos impulsar a la industria a adoptar MLSecOps, que ayuda fundamentalmente a las organizaciones a ver, entender y gestionar los riesgos y vulnerabilidades de seguridad relacionados con la IA.”

Mejoras de LLM Guard y Laiyer AI

El proyecto LLM Guard, gestionado por Laiyer AI, proporciona gobernanza para las operaciones de LLM. Incluye controles de entrada que protegen contra ataques de inyección de prompts, una preocupación creciente en la utilización de IA. Además, LLM Guard mitiga el riesgo de filtraciones de información personal identificable (PII) y lenguaje tóxico. En el lado de la salida, protege a los usuarios de diversas amenazas, incluidos URL maliciosos.

Dehghanpisheh reiteró el compromiso de Protect AI de mantener LLM Guard como de código abierto mientras planean una oferta comercial, Laiyer AI, que introducirá mejoras en el rendimiento y funcionalidades empresariales. Además, Protect AI integrará la tecnología LLM Guard en su plataforma más amplia, garantizando protección en todas las etapas del desarrollo y despliegue de modelos de IA.

Construyendo sobre la Experiencia de Código Abierto

La evolución de Protect AI de iniciativas de código abierto a productos comerciales se evidencia a través de su liderazgo en el proyecto de código abierto ModelScan, que identifica riesgos de seguridad en modelos de ML. Esta tecnología es la base de la recientemente anunciada tecnología Guardian de Protect AI, diseñada para escanear vulnerabilidades en modelos de ML.

El escaneo de modelos en busca de vulnerabilidades es más complejo que el escaneo tradicional de virus; los modelos de ML carecen de vulnerabilidades específicas conocidas que identificar. “Un modelo es un trozo de código que se ejecuta automáticamente,” explicó Dehghanpisheh. “Las llamadas a ejecutables maliciosos pueden insertarse fácilmente, lo que resulta en riesgos significativos.” La tecnología Guardian de Protect AI está diseñada para detectar tales amenazas.

Hacia una Plataforma Integral de Seguridad en IA

Dehghanpisheh visualiza la evolución de Protect AI más allá de productos de seguridad individuales. En el panorama actual, las organizaciones a menudo utilizan diversas tecnologías de múltiples proveedores. Protect AI busca unificar sus herramientas dentro de la plataforma Radar, integrándose sin problemas con herramientas de seguridad existentes como los sistemas SIEM (Gestión de Información y Eventos de Seguridad).

Radar proporciona una visión integral de los componentes dentro de un modelo de IA, esencial para la gobernanza y la seguridad. Con la tecnología Guardian, Protect AI puede identificar riesgos potenciales antes del despliegue, mientras que LLM Guard mitiga los riesgos de uso. En última instancia, Protect AI se esfuerza por ofrecer una solución de seguridad integral para la IA empresarial, permitiendo a las organizaciones gestionar todas las políticas de seguridad de IA desde una única plataforma.

“Tendrás una política para la seguridad de IA en toda la empresa,” concluyó Dehghanpisheh.

Most people like

Find AI tools in YBX