Enkrypt obtient un financement d'amorçage pour développer une « couche de contrôle » visant à renforcer la sécurité de l'IA générative.

Enkrypt AI Lève 2,35 Millions de Dollars de Financement Initial pour la Sécurité de l'IA Générative

La startup bostonienne Enkrypt AI, spécialisée dans la fourniture d'une couche de contrôle pour l'utilisation sécurisée de l'IA générative, a réussi à lever 2,35 millions de dollars lors d'un tour de financement initial dirigé par Boldcap. Bien que cet investissement soit modeste par rapport aux financements habituellement observés dans le secteur de l'IA, la solution innovante d'Enkrypt répond à un besoin crucial : le déploiement privé, sécurisé et conforme des modèles d'IA générative. Fondée par des diplômés de Yale, Sahil Agarwal et Prashanth Harshangi, Enkrypt affirme que sa technologie peut considérablement accélérer l'adoption de l'IA générative en entreprise, potentiellement jusqu'à dix fois plus vite.

Harshangi a déclaré : « Nous défendons un paradigme où confiance et innovation s'unissent, permettant le déploiement des technologies IA avec l’assurance qu’elles sont aussi sécurisées et fiables que révolutionnaires. »

Outre Boldcap, des contributeurs notables lors de ce tour de financement comprennent Berkeley SkyDeck, Kubera VC, Arka VC, Veredas Partners, Builders Fund et plusieurs investisseurs privés issus des secteurs de l'IA, de la santé et des entreprises.

Que Propose Enkrypt AI ?

Avec l'augmentation de la demande pour l'IA générative, de nombreuses entreprises souhaitent exploiter cette technologie pour améliorer leurs processus et accroître leur efficacité. Toutefois, le déploiement de modèles fondamentaux pose des problèmes de sécurité, notamment la nécessité de maintenir la confidentialité des données, de se protéger contre les menaces de sécurité et de garantir la conformité réglementaire avant et après le déploiement.

Actuellement, la plupart des organisations gèrent ces questions manuellement à travers des équipes internes ou des consultants externes. Cette approche traditionnelle, bien que fonctionnelle, est chronophage et peut retarder les projets IA jusqu'à deux ans, entraînant des opportunités commerciales manquées.

Fondée en 2023, Enkrypt vise à combler cette lacune avec Sentry, une solution tout-en-un qui offre visibilité et supervision de l'utilisation et des performances des modèles de langage (LLM) à travers les fonctions de l'entreprise. Sentry protège les informations sensibles, se prémunit contre les menaces de sécurité et assure la conformité grâce à un monitoring automatisé et à des contrôles d'accès robustes.

« Sentry sert de passerelle sécurisée pour les entreprises, permettant un contrôle d'accès aux modèles tout en garantissant la confidentialité des données et la sécurité des modèles, » a expliqué le PDG Sahil Agarwal. « Il redirige toutes les interactions avec les LLM à travers nos garde-fous propriétaires pour prévenir les atteintes à la sécurité des données et maintenir la conformité réglementaire. »

Améliorer la Sécurité et la Conformité pour l'IA Générative

Les garde-fous de Sentry, propulsés par la technologie propriétaire d'Enkrypt, préviennent de manière proactive les attaques par injection de requêtes et les vulnérabilités des données. Cette solution peut assainir les données des modèles et anonymiser des informations personnelles sensibles, tout en modérant en continu le contenu généré par l'IA pour en contrôler la toxicité et la pertinence.

Les responsables de la sécurité des informations et les leaders produits obtiennent une visibilité complète sur toutes les initiatives d'IA générative, leur permettant d'appliquer efficacement les garde-fous d'Enkrypt, réduisant ainsi les risques réglementaires, financiers et réputationnels.

Tester l'Impact de Sentry sur les Vulnérabilités de l'IA Générative

Bien qu'Enkrypt n'ait pas encore de revenus et ne partage pas encore de métriques de croissance spécifiques, sa technologie Sentry est en cours d'évaluation par des entreprises de taille moyenne à grande dans des secteurs régulés tels que la finance et les sciences de la vie. Par exemple, une entreprise du classement Fortune 500 utilisant le modèle Llama2-7B de Meta a constaté une réduction des vulnérabilités de jailbreak, passant de 6 % à 0,6 % après avoir mis en œuvre Sentry. Cette avancée a permis à l'entreprise d'adopter les LLM plus rapidement, passant de plusieurs années à quelques semaines pour diverses applications à travers les départements.

Agarwal a souligné que les entreprises recherchent des solutions complètes plutôt que plusieurs produits spécifiques pour gérer les fuites de données sensibles, les attaques par injection de requêtes et la gestion de la conformité, mettant en avant la nature unique tout-en-un de leur offre.

En perspective, Enkrypt prévoit d'élargir sa solution à un plus large éventail d'entreprises, démontrant ses capacités à travers divers modèles et environnements. Ce développement est crucial, car la sécurité est devenue essentielle pour toute organisation développant ou déployant des solutions d'IA générative.

« Nous travaillons actuellement avec des partenaires de conception pour affiner le produit. Notre principal concurrent est Protect AI, qui a récemment acquis Laiyer AI pour améliorer ses offres de sécurité et de conformité, » a noté Agarwal.

De plus, l'organisme de normalisation NIST du gouvernement américain a formé un consortium sur la sécurité de l'IA avec plus de 200 entreprises pour établir des normes fondamentales de mesure de la sécurité de l'IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles