Los cibercriminales operan con mayor agilidad que las empresas, sin verse obstaculizados por la necesidad de aprobaciones ejecutivas, pruebas y verificaciones regulatorias. Esto coloca a muchas organizaciones en desventaja, similar a llegar a un tiroteo con un cuchillo de mantequilla. Sin embargo, la inteligencia artificial generativa podría modificar significativamente este equilibrio, como lo mencionó Kelly Bissell, Subdirector de Seguridad de la Información y Vicepresidente Corporativo en Microsoft, durante la AI Impact Tour en Atlanta.
"Lo que espero que podamos lograr como comunidad es la adopción rápida y segura de la IA, lo que nos permitirá tomar la delantera frente a los atacantes y evitar quedar rezagados", afirmó Bissell.
Potenciando la Seguridad con Inteligencia Artificial Generativa
La seguridad es una de las aplicaciones más interesantes de la IA práctica. Los primeros usuarios de Microsoft Copilot para Seguridad han comprobado su eficacia en la respuesta a incidentes, especialmente en la mitigación de ataques y en la mejora del Centro de Operaciones de Seguridad (SOC), todo mientras se reducen los costos de manera dramática.
Con datos e inteligencia sobre amenazas provenientes de más de 78 billones de señales de seguridad procesadas a diario, Microsoft Copilot utiliza modelos de lenguaje de gran tamaño para proporcionar información adaptada y orientación útil. Esta tecnología simplifica la detección de ataques sutiles y reduce significativamente los tiempos de respuesta, permitiendo que los equipos de seguridad se mantengan un paso adelante de los cibercriminales. Su interfaz intuitiva facilita a los analistas hacer consultas en lenguaje natural y recibir respuestas prácticas.
Estas herramientas capacitan a nuevos analistas junior del SOC, dotándolos de las habilidades necesarias para desempeñarse efectivamente desde el primer día y reduciendo el tiempo y los costos de incorporación. El tiempo requerido para la escritura de scripts o el análisis de incidentes se reduce de días o horas a solo minutos.
"Tengo una empresa farmacéutica que espera ahorrar 50 millones de dólares anualmente en su equipo de seguridad mientras mejora su protección", reveló Bissell. "Este doble beneficio—mejora de la seguridad y reducción de costos—es un tema común entre más de la mitad de las empresas con las que trabajamos".
Los primeros adoptantes también han reconocido la importancia de la capacitación y la transparencia. Las herramientas de IA requieren un uso reflexivo, y Bissell enfatiza que han integrado funciones de registro para permitir que los clientes monitoreen las operaciones de la IA. Además, se ha añadido una herramienta de equipo rojo para verificar resultados, fomentando un enfoque de "confía pero verifica". Esta transparencia adicional ha mejorado tanto la efectividad de la plataforma como la confianza de los clientes en sus capacidades.
Seguridad de IA Generativa en Acción
Bissell destacó el sector farmacéutico como un ejemplo clave de cómo herramientas como Copilot para Seguridad pueden generar una amplia gama de aplicaciones efectivas. El escepticismo inicial ha dado paso a una mayor exploración de las capacidades de la IA.
Una ventaja significativa es la reducción del fraude durante los ensayos clínicos. Los actores maliciosos tienen intereses financieros en que un medicamento pase las inspecciones de la FDA, lo que plantea riesgos como resultados falsificados y comercio con información privilegiada. Al aplicar seguridad impulsada por IA a la tecnología operacional en plantas de producción y laboratorios, las empresas pueden monitorear el equipo en busca de señales de falla y detectar posibles manipulaciones. Este enfoque integrado también está mejorando la investigación de medicamentos y polímeros.
"Ellos pueden producir mejores productos y acelerar el proceso de llegada al mercado de los medicamentos, lo que representa miles de millones de dólares", enfatizó Bissell. "Con una patente que dura solo 10 años, poder entrar al mercado más pronto permite a las empresas mantener su participación antes de que el producto se haga público".
Transformar el SOC podría ser el caso de uso más impactante, especialmente a medida que los cibercriminales comienzan a utilizar IA generativa sin los obstáculos regulatorios que enfrentan las organizaciones.
"Nos hemos dado cuenta de un aumento significativo en el uso de IA de código abierto entre los atacantes, quienes ahora pueden construir modelos con mayor facilidad", explicó Bissell. "Ya no se necesitan habilidades avanzadas de hacking para crear malware. Así como los desarrolladores pueden producir código rápidamente a través de plataformas como GitHub, también pueden hacerlo los cibercriminales. El número de atacantes está destinado a aumentar drásticamente. Esta carrera apenas ha comenzado".