A medida que las plataformas en la nube han evolucionado rápidamente para ofrecer infraestructura de computación empresarial, Menlo Ventures prevé que la pila de inteligencia artificial (IA) moderna siga una trayectoria de crecimiento similar, con un potencial de creación de valor inmenso, comparable al de las plataformas de nube pública. La firma de capital de riesgo destaca que los modelos de IA fundamentales actualmente en uso reflejan los primeros días de los servicios en la nube pública. Lograr el equilibrio adecuado entre IA y seguridad es crucial para que el mercado en evolución cumpla su potencial.
El último blog de Menlo Ventures, “Parte 1: Seguridad para IA: La Nueva Ola de Startups Compitiendo por Asegurar la Pila de IA,” detalla cómo la intersección de IA y seguridad puede impulsar un nuevo crecimiento en el mercado. “Una analogía que he estado trazando es que estos modelos fundamentales son muy similares a las nubes públicas que conocemos hoy, como AWS y Azure. Sin embargo, hace 12 a 15 años, cuando comenzó la capa de infraestructura como servicio, presenciamos una creación de valor masiva una vez que se estableció ese nuevo fundamento,” explicó Rama Sekhar, socio de Menlo Ventures centrado en ciberseguridad, IA e infraestructura en la nube. Sekhar agregó: “Creemos que algo similar está en el horizonte; los proveedores de modelos fundamentales están en la base de la pila de infraestructura.”
Abordando Desafíos de Seguridad para Acelerar el Crecimiento de la IA Generativa
En una entrevista, Sekhar y Feyza Haskaraman, Principal de Menlo Ventures especializada en Ciberseguridad, SaaS, Cadena de Suministro y Automatización, enfatizaron que los modelos de IA son centrales para una nueva pila moderna de IA. Esta pila depende de un flujo continuo de datos sensibles de la empresa para el autoaprendizaje. Notaron que el auge de la IA ha causado un aumento exponencial en las superficies de amenaza, convirtiendo a los grandes modelos de lenguaje (LLMs) en objetivos principales.
Asegurar los LLMs con las herramientas actuales resulta complicado, creando una brecha de confianza en las empresas y obstaculizando la adopción de la IA generativa. Esta brecha proviene de la desconexión entre la exageración en torno a la IA generativa y su implementación real. Mientras tanto, los atacantes utilizan cada vez más técnicas basadas en IA, intensificando las preocupaciones corporativas sobre perder la competencia en IA.
Para desbloquear el verdadero potencial del mercado de IA generativa, Sekhar y Haskaraman creen que es esencial abordar las preocupaciones de seguridad. La encuesta de Menlo Ventures identificó tres barreras principales para la adopción de IA generativa: ROI no comprobado, problemas de privacidad de datos y la idea errónea de que los datos empresariales son difíciles de utilizar con IA. Mejorar la seguridad para la IA puede ayudar a aliviar las preocupaciones sobre la privacidad de datos mientras aborda las otras dos barreras mencionadas. Destacaron que los modelos de OpenAI han sido objeto de ciberataques recientemente, incluyendo un ataque DoS el noviembre pasado que afectó sus servicios de API y ChatGPT, generando numerosas caídas.
Gobernanza, Observabilidad y Seguridad: Fundamentos Esenciales
Menlo Ventures afirma que la gobernanza, la observabilidad y la seguridad son elementos fundamentales necesarios para escalar la seguridad de la IA. Estos componentes forman la base de su mapa de mercado. Las herramientas de gobernanza están experimentando un rápido crecimiento. Informes de medios indican un aumento en las startups de gobernanza y cumplimiento basadas en IA, particularmente soluciones en la nube que ofrecen ventajas en tiempo de comercialización y escalabilidad global. Herramientas como Credo y Cranium ayudan a las empresas a rastrear sus servicios de IA, evaluar riesgos de seguridad y garantizar una conciencia integral sobre el uso de IA dentro de la organización—todo crucial para proteger y monitorear los LLMs.
Las herramientas de observabilidad son vitales para monitorear modelos y agregar registros sobre accesos, entradas y salidas, ayudando en la detección de uso indebido y permitiendo una auditoría completa. Menlo Ventures señala a startups como Helicone y CalypsoAI como actores clave que abordan estas necesidades en la pila de soluciones.
Las soluciones de seguridad se centran en establecer fronteras de confianza. Sekhar y Haskaraman argumentan a favor de controles rigurosos alrededor del uso de modelos, tanto interna como externamente. Menlo Ventures está particularmente interesada en proveedores de firewalls de IA, como Robust Intelligence y Prompt Security, que validan entradas y salidas, protegen contra inyecciones de mensajes y detectan información personal identificable (PII). Empresas como Private AI y Nightfall se especializan en identificar y redactar datos sensibles, mientras que firmas como Lakera y Adversa buscan automatizar actividades de prueba de seguridad. Las soluciones de detección de amenazas como Hiddenlayer y Lasso Security también son cruciales para monitorear los LLMs en busca de comportamientos sospechosos. Además, soluciones como DynamoFL y FedML para aprendizaje federado, Tonic y Gretel para crear datos sintéticos, y Private AI o Kobalt Labs para identificar información sensible son parte integral del Mapa de Seguridad para IA a continuación.
Priorizando la Seguridad para IA en DevOps
Con una porción significativa de las aplicaciones empresariales utilizando soluciones de código abierto, asegurar las cadenas de suministro de software es otra área donde Menlo Ventures busca mitigar la brecha de confianza. Sekhar y Haskaraman sostienen que la seguridad de la IA debe estar inherentemente integrada en el proceso de DevOps, asegurando que sea fundamental para la arquitectura de aplicaciones empresariales. Subrayaron que la inclusión de seguridad para IA debe ser tan generalizada que su valor protector ayude a cerrar la actual brecha de confianza, facilitando así una adopción más amplia de la IA generativa.