Cómo el CEO de Arnica Predice el Impacto de la IA Generativa en las Soluciones de Seguridad de DevOps

Una reciente discusión virtual contó con la participación de Nir Valtman, CEO y cofundador de Arnica. Valtman aporta una vasta experiencia en ciberseguridad, habiendo sido anteriormente CISO en Kabbage (adquirida por American Express), liderando la seguridad de productos y datos en Finastra, y gestionando la seguridad de aplicaciones en NCR. Además, es miembro del consejo asesor de Salt Security.

Reconocido como una fuerza innovadora en la industria, Valtman ha hecho contribuciones significativas a proyectos de código abierto y posee siete patentes en seguridad de software. Es un conferencista muy solicitado en eventos de ciberseguridad de gran relevancia como Black Hat, DEF CON, BSides y RSA.

Bajo la guía de Valtman, Arnica está liderando la próxima generación de herramientas de seguridad de aplicaciones diseñadas para desarrolladores.

Extracto de la entrevista:

A Media: ¿Cómo imagina que evolucionará el papel de la inteligencia artificial generativa en la ciberseguridad en los próximos 3-5 años?

Nir Valtman: Comenzamos a entender dónde la inteligencia artificial generativa puede ofrecer los mayores beneficios. Tiene un gran potencial en la seguridad de aplicaciones al proporcionar a los desarrolladores herramientas para ser seguros por defecto, especialmente ayudando a los desarrolladores menos experimentados a lograr este objetivo.

A Media: ¿Qué tecnologías emergentes o metodologías está monitoreando que podrían impactar el uso de la inteligencia artificial generativa para la seguridad?

Valtman: Existe una creciente necesidad de rutas de remediación accionables para las vulnerabilidades de seguridad. Este proceso comienza por priorizar activos críticos, identificar a los responsables de la remediación y mitigar riesgos de manera efectiva. La inteligencia artificial generativa será fundamental en la remediación de riesgos, pero requerirá una clara priorización de activos y responsabilidades.

A Media: ¿Dónde deberían priorizar las organizaciones sus inversiones para maximizar el potencial de la inteligencia artificial generativa en ciberseguridad?

Valtman: Las organizaciones deben centrarse en abordar problemas repetitivos y complejos, como la mitigación de categorías específicas de vulnerabilidades en el código fuente. A medida que la inteligencia artificial generativa muestre aplicaciones adicionales, las prioridades de inversión evolucionarán.

A Media: ¿Cómo puede la inteligencia artificial generativa cambiar el enfoque de seguridad de reactivo a proactivo?

Valtman: Para que la inteligencia artificial generativa sea realmente predictiva, debe entrenarse con conjuntos de datos altamente relevantes. Un modelo más preciso aumenta la confianza en las decisiones impulsadas por IA. Construir esta confianza llevará tiempo, especialmente en áreas críticas como la seguridad. Sin embargo, una vez que esté robusta, las herramientas de inteligencia artificial generativa pueden mitigar proactivamente riesgos con mínima intervención humana.

A Media: ¿Qué cambios organizacionales son necesarios para incorporar la inteligencia artificial generativa en la seguridad?

Valtman: Las organizaciones deben realizar ajustes estratégicos y tácticos. Los tomadores de decisiones necesitan educación sobre los beneficios y riesgos de la tecnología de IA y alineación con los objetivos de seguridad de la empresa. Tácticamente, se deben asignar presupuestos y recursos para integrar la IA con herramientas de descubrimiento de activos, aplicaciones y datos, además de desarrollar un manual de acciones correctivas.

A Media: ¿Qué desafíos de seguridad podría presentar la inteligencia artificial generativa y cómo pueden abordarse?

Valtman: La privacidad de datos y las filtraciones representan riesgos significativos. Las estrategias de mitigación incluyen alojar modelos internamente, anonimizar datos antes del procesamiento externo y realizar auditorías regulares de cumplimiento. Además, las preocupaciones sobre la integridad de los modelos, como el envenenamiento de modelos, requieren evaluaciones de vulnerabilidad exhaustivas y pruebas de penetración avanzadas.

A Media: ¿Cómo podría la inteligencia artificial generativa automatizar la detección de amenazas, los parches de seguridad y otros procesos?

Valtman: La inteligencia artificial generativa puede detectar amenazas al analizar el comportamiento histórico a través de diversas fuentes de datos, incluidos registros de red y transacciones. Los posibles casos de uso pueden incluir modelado de amenazas durante el desarrollo de software, implementación automatizada de parches con cobertura de pruebas adecuada y protocolos de respuesta a incidentes auto-mejorados.

A Media: ¿Qué planes o estrategias deberían adoptar las organizaciones en relación con la inteligencia artificial generativa y la protección de datos?

Valtman: Las organizaciones deben establecer políticas claras para la recolección, almacenamiento, uso y compartición de datos, asegurando roles y responsabilidades definidos. Estas políticas deberían alinearse con una estrategia general de ciberseguridad, facilitando funciones de protección de datos como respuesta a incidentes, notificación de brechas y gestión de riesgos de terceros.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles