Os cibercriminosos operam com uma agilidade superior à das corporações, livres da necessidade de aprovações executivas, testes e verificações regulatórias. Essa situação coloca muitas organizações em desvantagem, semelhante a chegar a um confronto armado com uma faca de manteiga. No entanto, a inteligência artificial generativa pode alterar significativamente esse equilíbrio, conforme discutido por Kelly Bissell, Vice-Presidente Corporativo e CISO Adjunto da Microsoft, durante o AI Impact Tour em Atlanta.
“O que espero que possamos alcançar como comunidade é a adoção rápida e segura da IA, permitindo-nos obter vantagem sobre os atacantes e não ficarmos para trás”, afirmou Bissell.
Reforçando a Segurança com IA Generativa
A segurança é uma das aplicações mais atrativas da IA prática. Usuários iniciais do Microsoft Copilot para Segurança observaram sua eficácia na resposta a incidentes—particularmente na mitigação de ataques e no aprimoramento do Centro de Operações de Segurança (SOC)—enquanto os custos foram drasticamente reduzidos.
Com base em vastos dados e inteligência de ameaças, incluindo mais de 78 trilhões de sinais de segurança processados diariamente, o Microsoft Copilot utiliza grandes modelos de linguagem para fornecer insights personalizados e orientações acionáveis. Essa tecnologia simplifica a detecção de ataques sutis e reduz significativamente os tempos de resposta, permitindo que as equipes de segurança se mantenham à frente dos cibercriminosos. Sua interface intuitiva permite que os analistas façam consultas em linguagem natural e recebam respostas práticas.
Essas ferramentas capacitam novos analistas júnior do SOC com as habilidades necessárias para atuar de forma eficaz desde o primeiro dia, reduzindo o tempo e os custos associados ao treinamento. O tempo necessário para scripting ou análise de incidentes cai de dias ou horas para apenas minutos.
“Tenho uma empresa farmacêutica que espera economizar 50 milhões de dólares anualmente em sua equipe de segurança, ao mesmo tempo que aprimora sua proteção”, revelou Bissell. “Esse duplo benefício—segurança aprimorada e custos reduzidos—é um tema comum em mais da metade das empresas com as quais trabalhamos.”
Os adotantes iniciais também reconheceram a importância do treinamento e da transparência. As ferramentas de IA exigem um uso cuidadoso, e Bissell enfatiza que foram integradas funcionalidades de registro para permitir que os clientes monitorem as operações de IA. Além disso, foi adicionado uma ferramenta de red team para verificar resultados, promovendo uma abordagem de “confiar, mas verificar”. Essa transparência adicional melhorou tanto a eficácia da plataforma quanto a confiança dos clientes em suas capacidades.
Segurança com IA Generativa em Ação
Bissell destacou o setor farmacêutico como um exemplo primordial de como ferramentas como o Copilot para Segurança podem gerar uma ampla gama de aplicações eficazes. O ceticismo inicial deu lugar a uma maior exploração das capacidades da IA.
Uma vantagem significativa é a redução de fraudes durante ensaios clínicos. Atores maliciosos possuem interesses financeiros no resultado da aprovação de um medicamento pelas agências regulatórias, correndo o risco de resultados falsificados e comércio ilegal de informações. Ao aplicar segurança impulsionada por IA na tecnologia operacional em fábricas e laboratórios, as empresas podem monitorar equipamentos em busca de falhas e detectar possíveis alterações. Essa abordagem integrada também está aprimorando a pesquisa de medicamentos e polímeros.
“Eles conseguem produzir melhores produtos e acelerar o processo de lançamento no mercado, o que vale bilhões de dólares”, enfatizou Bissell. “Com uma patente durando apenas 10 anos, conseguir entrar no mercado mais cedo permite que as empresas mantenham sua participação antes que se torne pública.”
Transformar o SOC pode ser o caso de uso mais impactante, especialmente à medida que os cibercriminosos começam a utilizar IA generativa sem os obstáculos regulatórios enfrentados pelas organizações.
“Observamos um aumento significativo no uso de IA de código aberto entre atacantes que agora podem criar modelos com mais facilidade”, explicou Bissell. “Não é mais necessário ter habilidades avançadas de hacking para criar malware. Assim como os desenvolvedores podem produzir rapidamente código por meio de plataformas como o GitHub, os cibercriminosos também podem. O número de atacantes deve aumentar drasticamente. Essa corrida apenas começou.”