CyberSecEval 3 da Meta: Fortalecendo Medidas de Cibersegurança para Modelos de Linguagem de Grande Escala
Com a evolução de modelos de linguagem de grande escala (LLMs) como ferramentas perigosas e difíceis de controlar, a Meta apresenta o CyberSecEval 3, um conjunto de padrões que avaliam os riscos cibernéticos e capacidades dos modelos de IA.
Os pesquisadores da Meta explicam: “O CyberSecEval 3 avalia oito riscos distintos em duas categorias principais: riscos para terceiros e riscos para desenvolvedores de aplicações e usuários finais. Esta versão mais recente expande trabalhos anteriores ao introduzir novas áreas focadas em capacidades de segurança ofensiva, incluindo engenharia social automatizada, escalonamento de operações cibernéticas ofensivas manuais e operações cibernéticas ofensivas autônomas.”
Detectando Vulnerabilidades: O Papel do CyberSecEval 3
A equipe do CyberSecEval 3 da Meta testou o Llama 3 em relação aos principais riscos cibernéticos para revelar vulnerabilidades relacionadas a phishing automatizado e táticas ofensivas. Eles enfatizam que todos os componentes automatizados e medidas de proteção, como o CodeShield e o LlamaGuard 3, estão acessíveis publicamente para transparência e feedback da comunidade.
A necessidade urgente de as organizações enfrentarem as ameaças dos LLMs armados é ressaltada pelos avanços rápidos nas táticas maliciosas de LLMs, que superam a capacidade de muitas empresas e líderes de segurança de responder de forma eficaz. O relatório abrangente da Meta apresenta um forte argumento para medidas proativas contra essas ameaças em escalada.
Uma descoberta significativa foi que o Llama 3 pode produzir "ataques de spear-phishing moderadamente persuasivos em múltiplas etapas", indicando o potencial para maior escala e impacto. Embora poderosos, os modelos Llama 3 exigem supervisão humana considerável em operações ofensivas para mitigar o risco de erros. O relatório alerta que organizações menores, com menos recursos, podem ser especialmente vulneráveis às capacidades automatizadas de phishing do Llama 3.
Principais Estratégias para Combater LLMs Armados
Para enfrentar os riscos urgentes apresentados pelos LLMs armados, as organizações podem implementar as seguintes estratégias com base no framework do CyberSecEval 3:
1. Implantar LlamaGuard 3 e PromptGuard: Utilize essas ferramentas para minimizar riscos relacionados à IA. As descobertas da Meta indicam que LLMs, como o Llama 3, podem gerar inadvertidamente código malicioso ou conteúdo de spear-phishing. As equipes de segurança devem familiarizar-se rapidamente com LlamaGuard 3 e PromptGuard para evitar o uso indevido desses modelos.
2. Aprimorar a Supervisão Humana: O estudo revela que os LLMs ainda requerem direção humana significativa. Os resultados mostraram que não houve melhorias substanciais no desempenho durante simulações de hacking sem a intervenção humana. Monitorar de perto as saídas da IA é essencial, especialmente em ambientes de alto risco, como testes de penetração.
3. Fortalecer Defesas contra Phishing: Dada a capacidade do Llama 3 de automatizar campanhas persuasivas de spear-phishing, as organizações devem intensificar suas defesas. Ferramentas de detecção de IA podem identificar e neutralizar eficazmente tentativas de phishing geradas por modelos avançados, reduzindo a probabilidade de ataques bem-sucedidos.
4. Investir em Treinamento Continuado de Segurança: Com a rápida evolução dos LLMs armados, o treinamento contínuo é vital para as equipes de cibersegurança. Capacitar equipes com conhecimento sobre LLMs para fins defensivos e de red teaming é crucial para a resiliência contra ameaças impulsionadas por IA.
5. Adotar uma Abordagem de Segurança em Múltiplas Camadas: A pesquisa da Meta indica que uma combinação de insights orientados por IA e medidas de segurança tradicionais pode aprimorar as defesas contra diversas ameaças. Integrar análise de código estático e dinâmico com insights de IA é essencial para evitar a implementação de código inseguro.
Conclusão
O framework CyberSecEval 3 da Meta oferece uma abordagem proativa e baseada em dados para entender a armadilha dos LLMs e fornece estratégias práticas para líderes de segurança. Organizações que utilizam LLMs devem integrar esses frameworks em suas estratégias de cibersegurança mais amplas para mitigar riscos e proteger seus sistemas contra ataques impulsionados por IA. Ao focar em diretrizes avançadas, supervisão humana, defesas contra phishing, treinamento contínuo e medidas de segurança em múltiplas camadas, as organizações podem se proteger melhor nesse cenário em evolução.