La vision de Menlo Ventures : Façonner l'avenir de la sécurité de l'IA

Tout comme les plateformes cloud ont rapidement évolué pour fournir une infrastructure informatique aux entreprises, Menlo Ventures envisage que la pile d'IA moderne suive un chemin de croissance similaire, avec un potentiel de création de valeur immense comparable à celui des plateformes cloud publiques.

La société de capital-risque souligne que les modèles d'IA fondamentaux actuellement utilisés rappellent les débuts des services cloud publics. Trouver le bon équilibre entre l'IA et la sécurité est crucial pour que le marché en évolution réalise tout son potentiel.

Le dernier article de blog de Menlo Ventures, « Partie 1 : Sécurité pour l'IA : La nouvelle vague de startups qui s'efforcent de sécuriser la pile d'IA », explique comment l'intersection de l'IA et de la sécurité peut stimuler la croissance du marché.

« Une analogie que j'établis est que ces modèles fondamentaux ressemblent beaucoup aux clouds publics que nous connaissons aujourd'hui, comme AWS et Azure. Cependant, il y a 12 à 15 ans, lorsque cette couche d'infrastructure en tant que service a commencé, nous avons assisté à une massive création de valeur une fois la nouvelle fondation établie », a expliqué Rama Sekhar, partenaire de Menlo Ventures, axé sur la cybersécurité, l'IA et l'infrastructure cloud.

Sekhar a ajouté : « Nous croyons qu'une situation similaire se profile ; les fournisseurs de modèles fondamentaux sont à la base de la pile d'infrastructure. »

Aborder les Défis de Sécurité pour Accélérer la Croissance de l'IA Générative

Lors d'une interview, Sekhar et Feyza Haskaraman, Principal chez Menlo Ventures spécialisé en cybersécurité, SaaS, chaîne d'approvisionnement et automatisation, ont souligné que les modèles d'IA sont au cœur d'une nouvelle pile d'IA moderne. Cette pile repose sur un flux continu de données sensibles d'entreprise pour l'auto-apprentissage. Ils ont noté que la montée de l'IA entraîne une augmentation exponentielle des surfaces de menaces, les grands modèles de langage (LLMs) devenant des cibles de choix.

La sécurisation des LLMs avec les outils actuels s'avère difficile, créant un fossé de confiance au sein des entreprises et entravant l'adoption de l'IA générative. Ce fossé découle du décalage entre l'engouement autour de l'IA générative et sa mise en œuvre effective. Pendant ce temps, les attaquants utilisent de plus en plus des techniques basées sur l'IA, ce qui intensifie les préoccupations des entreprises concernant la perte de la compétitivité dans le domaine de l'IA.

Pour libérer le véritable potentiel du marché de l'IA générative, Sekhar et Haskaraman estiment qu'il est essentiel de résoudre les préoccupations liées à la sécurité. L'enquête de Menlo Ventures a identifié trois barrières principales à l'adoption de l'IA générative : un retour sur investissement non prouvé, des problèmes de confidentialité des données et la méconnaissance selon laquelle les données d'entreprise sont difficiles à utiliser avec l'IA.

Améliorer la sécurité pour l'IA peut aider à atténuer les préoccupations concernant la confidentialité des données tout en s'attaquant aux deux autres barrières mentionnées. Ils ont souligné que les modèles d'OpenAI ont récemment été la cible de cyberattaques, y compris une attaque par déni de service en novembre dernier qui a affecté leurs services API et ChatGPT, entraînant de nombreuses pannes.

Gouvernance, Observabilité et Sécurité : Fondations Essentielles

Menlo Ventures affirme que la gouvernance, l'observabilité et la sécurité sont des éléments fondamentaux nécessaires pour renforcer la sécurité de l'IA. Ces composants constituent le socle de leur carte du marché.

Les outils de gouvernance connaissent une croissance rapide. Des rapports médiatiques font état d'une augmentation des startups spécialisées dans la gouvernance et la conformité basées sur l'IA, en particulier des solutions cloud qui offrent des avantages en termes de rapidité de mise sur le marché et d'évolutivité mondiale. Des outils comme Credo et Cranium aident les entreprises à suivre leurs services d'IA, à évaluer les risques de sécurité et à garantir une prise de conscience complète de l'utilisation de l'IA au sein de l'organisation, tous cruciaux pour protéger et surveiller les LLMs.

Les outils d'observabilité sont essentiels pour surveiller les modèles et agréger des journaux sur l'accès, les entrées et les sorties, facilitant ainsi la détection des abus et permettant une auditabilité complète. Menlo Ventures désigne des startups telles que Helicone et CalypsoAI comme des acteurs clés répondant à ces besoins.

Les solutions de sécurité se concentrent sur l'établissement de limites de confiance. Sekhar et Haskaraman plaident pour des contrôles stricts autour de l'utilisation des modèles, tant en interne qu'en externe. Menlo Ventures s'intéresse particulièrement aux fournisseurs de pare-feu pour l'IA, tels que Robust Intelligence et Prompt Security, qui valident les entrées et sorties, protègent contre les injections de requêtes et détectent les informations personnelles identifiables (PII). Des entreprises comme Private AI et Nightfall se spécialisent dans l'identification et la rédaction de données sensibles, tandis que des sociétés comme Lakera et Adversa visent à automatiser les activités de red teaming pour tester la robustesse des mesures de sécurité. Des solutions de détection de menaces telles que Hiddenlayer et Lasso Security sont également cruciales pour surveiller les LLMs pour des comportements suspects. De plus, des solutions comme DynamoFL et FedML pour l'apprentissage fédéré, Tonic et Gretel pour la création de données synthétiques, ainsi que Private AI ou Kobalt Labs pour l'identification des informations sensibles sont intégrales à la carte du marché de la sécurité pour l'IA ci-dessous.

Prioriser la Sécurité de l'IA dans le DevOps

Avec une part significative des applications d'entreprise utilisant des solutions open-source, sécuriser les chaînes d'approvisionnement logicielle est un autre domaine dans lequel Menlo Ventures vise à réduire le fossé de confiance.

Sekhar et Haskaraman soutiennent que la sécurité de l'IA doit être intégrée de manière intrinsèque au processus DevOps, garantissant qu'elle soit fondamentale à l'architecture des applications d'entreprise. Ils ont souligné que l'intégration de la sécurité pour l'IA doit être si omniprésente que sa valeur protectrice aide à combler le fossé de confiance actuel, facilitant ainsi une adoption plus large de l'IA générative.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles