Las empresas están confiando cada vez más en herramientas de inteligencia artificial (IA) y aprendizaje automático (ML), con transacciones que han aumentado casi un 600%. Este auge pasó de 521 millones en abril de 2023 a 3.1 mil millones en enero de 2024. En respuesta a preocupaciones de seguridad, las organizaciones han bloqueado el 18.5% de todas las transacciones de IA/ML, lo que representa un asombroso aumento del 577% en nueve meses.
Los CISO y las organizaciones que protegen tienen razones válidas para su enfoque cauteloso, lo que ha llevado a niveles sin precedentes de transacciones de IA/ML bloqueadas. Los atacantes se han adaptado utilizando modelos de lenguaje grande (LLM) para infiltrarse en las organizaciones sin ser detectados. Este auge de la IA adversarial representa una amenaza creciente que a menudo pasa desapercibida.
Según el Informe de Seguridad de IA 2024 de ThreatLabz de Zscaler, las empresas deben adoptar estrategias de ciberseguridad escalables para proteger sus herramientas de IA/ML en expansión. Los problemas clave destacados en el informe incluyen la protección de datos, la gestión de la calidad de los datos de IA y las preocupaciones sobre la privacidad. Al analizar más de 18 mil millones de transacciones de abril de 2023 a enero de 2024, ThreatLabz examinó el uso actual de herramientas de IA y ML en varios sectores.
Industrias como la salud, finanzas, seguros, servicios, tecnología y manufactura experimentan una significativa adopción de herramientas de IA/ML y una creciente vulnerabilidad a ciberataques. La manufactura genera el mayor volumen de tráfico de IA, representando el 20.9% de las transacciones, seguida de finanzas y seguros con el 19.9%, y servicios con el 16.8%.
El bloqueo de transacciones es una respuesta temporal pero rápida. En su esfuerzo por protegerse contra ciberataques potenciales, los CISO y sus equipos están bloqueando números récord de transacciones de IA/ML. Esta medida proactiva busca proteger sectores de alto riesgo frente a una ola de amenazas cibernéticas.
Actualmente, ChatGPT es la herramienta de IA más utilizada y bloqueada, seguida de OpenAI, Fraud.net, Forethought y Hugging Face. Los dominios más bloqueados incluyen Bing.com, Divo.ai, Drift.com y Quillbot.com. Entre abril de 2023 y enero de 2024, las empresas bloquearon más de 2.6 mil millones de transacciones.
La manufactura bloquea solo el 15.65% de las transacciones de IA, una cifra preocupantemente baja considerando su susceptibilidad a ciberataques, especialmente ransomware. En contraste, el sector de finanzas y seguros bloquea el 37.16% de las transacciones, reflejando preocupaciones elevadas sobre la seguridad de datos y la privacidad. Alarmantemente, la industria de la salud bloquea solo el 17.23% de las transacciones de IA, planteando dudas sobre su compromiso con la protección de datos sensibles.
Las interrupciones en sectores críticos como la salud y la manufactura pueden derivar en importantes pagos de ransomware. El reciente ataque de ransomware a United Healthcare ilustra cómo un asalto coordinado puede incapacitar cadenas de suministro enteras.
Bloquear es una solución a corto plazo para un desafío mucho mayor. Para ir más allá de simplemente bloquear, las organizaciones deben aprovechar las capacidades de telemetría de plataformas avanzadas de ciberseguridad. CrowdStrike, Palo Alto Networks y Zscaler son algunas de las que promueven los conocimientos derivados de datos de telemetría.
El CEO de CrowdStrike, George Kurtz, enfatizó la importancia de vincular señales débiles de diversos puntos finales para mejorar las capacidades de detección. Este enfoque se extiende a colaboraciones de terceros, permitiendo obtener información más profunda y mejorar las detecciones novedosas.
Los principales proveedores de ciberseguridad con amplia experiencia en IA y décadas de experiencia en ML incluyen Blackberry Persona, Broadcom, Cisco Security, CrowdStrike, CyberArk, Cybereason, Ivanti, SentinelOne, Microsoft, McAfee, Sophos y VMware Carbon Black. Es probable que estas empresas entrenen sus LLM utilizando datos de ataques impulsados por IA para igualar los sofisticados métodos empleados por los atacantes.
Un nuevo y más letal panorama de amenazas de IA ha surgido. Según el informe de Zscaler, los riesgos impulsados por IA se pueden clasificar en dos áreas principales: los riesgos de protección de datos y seguridad asociados con las herramientas de IA de la empresa, y el nuevo panorama de amenazas cibernéticas alimentado por IA generativa y automatización.
Los CISO enfrentan desafíos formidables para defenderse de diversas técnicas de ataque de IA descritas en el informe. Abordar la negligencia de los empleados al utilizar ChatGPT y asegurar que los datos confidenciales no se compartan inadvertidamente deberían ser temas críticos de discusión a nivel directivo. Priorizar la gestión de riesgos es esencial para cualquier estrategia robusta de ciberseguridad.
Proteger la propiedad intelectual de filtraciones a través de ChatGPT, controlar la IA sombra y lograr la privacidad y seguridad de los datos son aspectos integrales para una exitosa estrategia de IA/ML. El año pasado, Alex Philips, CIO de National Oilwell Varco (NOV), compartió ideas sobre IA generativa con su junta, subrayando la importancia de entender tanto las ventajas como los riesgos de ChatGPT. Philips mantiene actualizada a la junta sobre desarrollos en tecnologías de IA generativa, fomentando expectativas informadas sobre las medidas de seguridad necesarias para prevenir violaciones significativas.
Encontrar un equilibrio entre productividad y seguridad es vital para enfrentar los desafíos que presenta el nuevo panorama de amenazas de IA. El CEO de Zscaler enfrentó un intento de vishing y smishing en el que los atacantes se hicieron pasar por él en mensajes de WhatsApp, tratando de engañar a un empleado para que revelara información sensible. Afortunadamente, los sistemas de Zscaler frustraron el ataque, lo cual es indicativo de una tendencia creciente que tiene como objetivo a altos ejecutivos y líderes tecnológicos.
Los atacantes están utilizando cada vez más la IA para orquestar ataques de ransomware acelerados. Zscaler informa que el ransomware impulsado por IA es una herramienta en el arsenal de hackers de estados-nación, con una frecuencia en aumento. Al emplear IA generativa, los atacantes crean tablas exhaustivas de vulnerabilidades asociadas con los firewalls y VPNs de una organización. Esta inteligencia les permite optimizar los exploits de código, adaptando cargas útiles para entornos específicos.
Además, Zscaler destaca cómo la IA generativa puede identificar debilidades dentro de las cadenas de suministro empresariales, revelando rutas de conexión óptimas hacia la red central. Aunque se pueden tener medidas de seguridad robustas, las vulnerabilidades a río abajo a menudo presentan los mayores riesgos. Los atacantes refinan continuamente sus tácticas utilizando IA generativa, llevando a cabo ataques sofisticados y específicos que son cada vez más difíciles de detectar.
En última instancia, los adversarios buscan incorporar IA generativa a lo largo de la cadena de ataque de ransomware, automatizando la vigilancia y explotación de código para generar malware y ransomware polimórfico avanzado. Al simplificar componentes críticos del proceso de ataque, los actores de amenazas pueden ejecutar ataques más rápidos, dirigidos y sofisticados contra las empresas.