Relatório Menlo Security: Aumento das Ameaças Cibernéticas Associadas à Adoção da IA

Uma nova pesquisa da Menlo Security destaca os desafios urgentes de cibersegurança provocados pela rápida adoção da inteligência artificial generativa nas empresas. À medida que ferramentas como o ChatGPT se tornam parte integrante dos fluxos de trabalho diários, as empresas precisam reavaliar suas estratégias de segurança.

“Os funcionários estão adotando a IA em suas tarefas diárias. Nossos controles devem não apenas bloquear o uso indevido, mas também prevenir o acesso não regulamentado,” afirmou Andrew Harding, VP de Marketing de Produto da Menlo Security, em uma entrevista exclusiva. “Embora tenha havido um crescimento significativo no uso da IA generativa nas empresas, as equipes de segurança e TI enfrentam desafios persistentes. Precisamos de ferramentas eficazes que apliquem controles robustos às aplicações de IA, permitindo que os CISOs gerenciem riscos enquanto aproveitam os benefícios de produtividade do GenAI.”

Um Aumento no Uso de IA em Meio a Riscos

O relatório da Menlo Security revela tendências alarmantes: as visitas a sites de IA generativa nas empresas aumentaram mais de 100% nos últimos seis meses, e o número de usuários frequentes cresceu 64%. Essa rápida integração expôs novas vulnerabilidades.

Embora muitas organizações estejam aprimorando as medidas de segurança para a IA generativa, os pesquisadores constatam que a maioria implementa políticas ineficazes por domínio. “As organizações estão fortalecendo a segurança, mas estão errando o alvo. As políticas aplicadas por domínio são insuficientes,” enfatizou Harding.

Essa abordagem fragmentada tem dificuldade em acompanhar o surgimento de novas plataformas de IA generativa. O relatório indica que as tentativas de upload de arquivos para sites de IA generativa aumentaram em 80% em seis meses, impulsionadas por novos recursos. Os riscos vão além da possível perda de dados.

Especialistas alertam que a IA generativa pode amplificar significativamente as ameaças de phishing. Harding observou: “O phishing alimentado por IA é simplesmente um phishing mais inteligente. As empresas precisam de proteção em tempo real para evitar que fraudes impulsionadas por IA se tornem um problema significativo.”

Da Novidade à Necessidade

A ascensão da IA generativa, especialmente com o lançamento do ChatGPT, transformou-se de uma novidade tecnológica em uma necessidade empresarial. A OpenAI apresentou pela primeira vez o GPT-1, seu sistema de IA generativa, em junho de 2018, seguido de avanços como o PaLM do Google Brain, com 540 bilhões de parâmetros, lançado em abril de 2022.

A fascinação pública disparou com o lançamento do DALL-E no início de 2021, mas foi a estreia do ChatGPT em novembro de 2022 que gerou engajamento generalizado. Os usuários rapidamente começaram a incorporar essas ferramentas em diversas tarefas, desde a elaboração de e-mails até a depuração de código, demonstrando a versatilidade da IA.

No entanto, essa rápida integração traz riscos significativos frequentemente negligenciados. Os sistemas de IA generativa são tão seguros, éticos e precisos quanto os dados utilizados em seu treinamento. Eles podem inadvertidamente expor preconceitos, disseminar desinformação e até mesmo divulgar informações sensíveis.

Além disso, esses modelos extraem dados de vastas seções da internet, resultando em desafios para controlar qual conteúdo é absorvido. Se informações proprietárias forem publicadas, esses sistemas de IA podem absorvê-las inadvertidamente e revelá-las posteriormente.

O Equilíbrio Entre Segurança e Inovação

Para equilibrar efetivamente segurança e inovação, especialistas defendem uma abordagem em camadas. Harding sugere “implementar limites de copiar e colar, estabelecer políticas de segurança, monitorar sessões e impor controles em nível de grupo nas plataformas de IA generativa.”

As organizações devem aprender com mudanças tecnológicas passadas. Tecnologias como computação em nuvem e dispositivos móveis apresentaram novos riscos, levando a adaptações contínuas nas estratégias de segurança. A mesma abordagem proativa é essencial para a IA generativa.

O momento de agir é agora. “As visitas a sites de IA generativa e usuários ativos estão aumentando, mas as equipes de segurança e TI continuam enfrentando desafios,” alertou Harding.

Para proteger suas operações, as empresas devem evoluir rapidamente suas estratégias de segurança para acompanhar a rápida adoção da IA generativa. Equilibrar segurança e inovação é crucial, caso contrário, os riscos associados à IA generativa podem sair do controle.

Most people like

Find AI tools in YBX