Assim como as plataformas em nuvem evoluíram rapidamente para fornecer infraestrutura de computação empresarial, a Menlo Ventures imagina um crescimento semelhante para a pilha moderna de IA, com um imenso potencial de criação de valor, comparável ao das plataformas de nuvem pública. A empresa de capital de risco destaca que os modelos fundamentais de IA atualmente em uso lembram os primeiros dias dos serviços de nuvem pública. Alcançar o equilíbrio adequado entre IA e segurança é crucial para que o mercado em evolução realize seu potencial.
No mais recente post do blog da Menlo Ventures, “Parte 1: Segurança para IA: A Nova Onda de Startups Correndo Para Proteger a Pilha de IA,” é discutido como a interseção entre IA e segurança pode impulsionar o crescimento de novos mercados. “Uma analogia que tenho feito é que esses modelos fundamentais são muito semelhantes às nuvens públicas que conhecemos hoje, como AWS e Azure. No entanto, há 12 a 15 anos, com o início da camada de infraestrutura como serviço, presenciamos uma enorme criação de valor uma vez que a nova base foi estabelecida,” explicou Rama Sekhar, parceiro da Menlo Ventures focado em cibersegurança, IA e infraestrutura em nuvem.
Sekhar acrescentou: “Acreditamos que algo semelhante está por vir; os provedores de modelos fundamentais estão na base da pilha de infraestrutura.”
Enfrentando Desafios de Segurança Para Acelerar o Crescimento da IA Generativa
Em uma entrevista, Sekhar e Feyza Haskaraman, Principal da Menlo Ventures especializada em Cibersegurança, SaaS, Cadeia de Suprimentos e Automação, enfatizaram que os modelos de IA são centrais para uma nova pilha moderna de IA, que depende de um fluxo contínuo de dados empresariais sensíveis para auto-aprendizagem. Eles notaram que a ascensão da IA resulta em um aumento exponencial nas superfícies de ameaça, com grandes modelos de linguagem (LLMs) se tornando alvos principais.
Proteger os LLMs com as ferramentas atuais é desafiador, criando um fosso de confiança nas empresas e dificultando a adoção da IA generativa. Esse fosso surge da desconexão entre a expectativa em torno da IA generativa e sua implementação real. Ao mesmo tempo, os atacantes estão usando técnicas baseadas em IA com crescente frequência, intensificando as preocupações corporativas sobre a perda na competição de IA.
Para desbloquear o verdadeiro potencial de mercado da IA generativa, Sekhar e Haskaraman acreditam que é essencial abordar as preocupações de segurança. A pesquisa da Menlo Ventures identificou três principais barreiras à adoção da IA generativa: retorno sobre investimento não comprovado, questões de privacidade de dados e a concepção errônea de que os dados empresariais são difíceis de utilizar com IA.
Melhorar a segurança para IA pode aliviar preocupações sobre privacidade de dados, além de abordar as outras duas barreiras mencionadas. Eles destacaram que os modelos da OpenAI foram recentemente alvos de ciberataques, incluindo um ataque DDoS em novembro passado, que afetou seus serviços de API e ChatGPT, resultando em várias interrupções.
Governança, Observabilidade e Segurança: Fundamentos Essenciais
A Menlo Ventures afirma que governança, observabilidade e segurança são elementos fundamentais necessários para escalar a segurança em IA. Esses componentes formam a base de seu mapa de mercado.
As ferramentas de governança estão passando por um crescimento rápido. Relatos da mídia indicam um aumento em startups de governança e conformidade baseadas em IA, especialmente soluções em nuvem que oferecem vantagens em tempo de mercado e escalabilidade global. Ferramentas como Credo e Cranium ajudam as empresas a rastrear seus serviços de IA, avaliar riscos de segurança e garantir uma consciência abrangente do uso de IA dentro da organização, aspectos cruciais para proteger e monitorar LLMs.
Ferramentas de observabilidade são vitais para monitorar modelos e agregar logs de acessos, entradas e saídas, auxiliando na detecção de abusos e permitindo total auditabilidade. A Menlo Ventures aponta startups como Helicone e CalypsoAI como players chave que atendem a essas necessidades na pilha de soluções.
As soluções de segurança se concentram em estabelecer limites de confiança. Sekhar e Haskaraman argumentam a favor de controles rigorosos em torno do uso de modelos, tanto interna quanto externamente. A Menlo Ventures tem um interesse particular em provedores de firewall de IA, como Robust Intelligence e Prompt Security, que validam entradas e saídas, protegem contra injeções de comandos e detectam informações pessoalmente identificáveis (PII). Empresas como Private AI e Nightfall se especializam na identificação e redação de dados sensíveis, enquanto firmas como Lakera e Adversa visam automatizar atividades de red teaming para testar a robustez das medidas de segurança. Soluções de detecção de ameaças como Hiddenlayer e Lasso Security também são cruciais para monitorar LLMs em busca de comportamentos suspeitos. Além disso, soluções como DynamoFL e FedML para aprendizado federado, Tonic e Gretel para criação de dados sintéticos, e Private AI ou Kobalt Labs para identificação de informações sensíveis são essenciais no Mapa de Mercado de Segurança para IA abaixo.
Priorizando a Segurança para IA no DevOps
Com uma parte significativa das aplicações empresariais utilizando soluções de código aberto, a segurança das cadeias de suprimento de software é outra área onde a Menlo Ventures busca mitigar o fosso de confiança.
Sekhar e Haskaraman sustentam que a segurança em IA deve ser intrinsecamente integrada no processo de DevOps, garantindo que seja fundamental para a arquitetura das aplicações empresariais. Eles enfatizaram que a incorporação da segurança para IA deve ser tão abrangente que seu valor protetor ajude a conquistar o fosso de confiança atual, facilitando uma adoção mais ampla da IA generativa.