Una nueva investigación de Menlo Security destaca los urgentes desafíos de ciberseguridad que presenta la rápida adopción de la IA generativa en las empresas. A medida que herramientas como ChatGPT se vuelven fundamentales en los flujos de trabajo diarios, las organizaciones deben reevaluar sus estrategias de seguridad.
“Los empleados están adoptando la IA en sus tareas diarias. Nuestros controles deben no solo bloquear el uso indebido, sino también prevenir el acceso no regulado,” afirmó Andrew Harding, VP de Marketing de Producto en Menlo Security, en una entrevista exclusiva. “Si bien ha habido un crecimiento significativo en el uso de IA generativa en las empresas, los equipos de seguridad y TI enfrentan desafíos persistentes. Necesitamos herramientas efectivas que apliquen controles robustos sobre las aplicaciones de IA, permitiendo a los CISOs gestionar riesgos mientras aprovechan los beneficios de productividad de la IA generativa.”
Un Aumento en el Uso de IA en Medio de Riesgos
El informe de Menlo Security revela tendencias alarmantes: las visitas a sitios de IA generativa en empresas han aumentado más del 100% en los últimos seis meses, y el número de usuarios frecuentes ha crecido en un 64%. Esta rápida integración ha expuesto nuevas vulnerabilidades.
Aunque muchas organizaciones están mejorando sus medidas de seguridad para la IA generativa, los investigadores han encontrado que la mayoría implementa políticas ineficaces basadas en dominios. “Las organizaciones están reforzando la seguridad, pero no están logrando el objetivo. Las políticas aplicadas por dominio son insuficientes,” enfatizó Harding.
Este enfoque fragmentado lucha por mantenerse al ritmo de la aparición de nuevas plataformas de IA generativa. El informe indica que los intentos de subir archivos a sitios de IA generativa han aumentado un 80% en seis meses, impulsados por nuevas funcionalidades. Los riesgos van más allá de la posible pérdida de datos.
Los expertos advierten que la IA generativa puede amplificar significativamente las amenazas de phishing. Harding comentó: “El phishing impulsado por IA es simplemente un phishing más inteligente. Las empresas necesitan protección en tiempo real para evitar que las estafas impulsadas por IA se conviertan en un problema significativo.”
De la Novedad a la Necesidad
El auge de la IA generativa, especialmente con el lanzamiento de ChatGPT, ha pasado de ser una novedad tecnológica a una necesidad empresarial. OpenAI presentó por primera vez GPT-1, su sistema de IA generativa, en junio de 2018, seguido de avances como PaLM de Google Brain, con 540 mil millones de parámetros, lanzado en abril de 2022.
La fascinación pública creció con la introducción de DALL-E a principios de 2021, pero fue el debut de ChatGPT en noviembre de 2022 el que generó un compromiso generalizado. Los usuarios comenzaron a incorporar rápidamente estas herramientas en diversas tareas, desde redactar correos electrónicos hasta depurar código, demostrando la versatilidad de la IA.
Sin embargo, esta rápida integración conlleva riesgos significativos que a menudo se pasan por alto. Los sistemas de IA generativa son tan seguros, éticos y precisos como los datos utilizados en su capacitación. Pueden inadvertidamente exponer sesgos, difundir desinformación e incluso revelar información sensible.
Además, estos modelos extraen datos de vastas secciones de internet, lo que genera desafíos para controlar qué contenido se ingiere. Si se publica información confidencial, estos sistemas de IA pueden absorberla inadvertidamente y luego revelarla.
El Acto de Equilibrio entre Seguridad e Innovación
Para equilibrar efectivamente la seguridad y la innovación, los expertos abogan por un enfoque en múltiples capas. Harding sugiere “implementar límites de copiar y pegar, establecer políticas de seguridad, monitorear sesiones y hacer cumplir controles a nivel grupal en plataformas de IA generativa.”
Las organizaciones deben aprender de cambios tecnológicos pasados. Tecnologías como la computación en la nube y los dispositivos móviles introdujeron inherentemente nuevos riesgos, lo que provocó adaptaciones continuas en las estrategias de seguridad. Este mismo enfoque proactivo es esencial para la IA generativa.
El momento de actuar es ahora. “Las visitas a sitios de IA generativa y los usuarios activos están en aumento, pero los equipos de seguridad y TI continúan enfrentando desafíos,” advirtió Harding.
Para proteger sus operaciones, las empresas deben evolucionar rápidamente sus estrategias de seguridad para igualar la rápida adopción de la IA generativa. Encontrar un equilibrio entre seguridad e innovación es crucial, para evitar que los riesgos asociados con la IA generativa escapen de control.