Enkrypt AI成功筹集235万美元种子资金,助力生成式人工智能安全
位于波士顿的初创公司Enkrypt AI专注于为生成式人工智能提供安全控制层,近日成功获得235万美元的种子融资,领投方为Boldcap。尽管这一投资与典型的人工智能资助相比显得较小,Enkrypt的创新解决方案却填补了一个关键需求:实现生成式AI模型的私密、安全和合规部署。
Enkrypt由耶鲁大学博士毕业生Sahil Agarwal和Prashanth Harshangi创立,致力于提高企业对生成式AI的采用效率,可能将部署速度提高多达十倍。Harshangi表示:“我们倡导一种信任与创新相结合的范式,使AI技术的部署既安全可靠又具革命性。”
除了Boldcap,其他种子投资者还包括伯克利SkyDeck、Kubera VC、Arka VC、Veredas Partners、Builders Fund,以及多位来自AI、医疗和企业领域的天使投资者。
Enkrypt AI提供什么?
随着生成式人工智能需求的增加,许多公司都希望利用这一技术来提升工作流程和效率。然而,部署基础模型面临许多安全挑战,包括维护数据隐私、抵御安全威胁以及确保合规性。目前,大多数组织依靠内部团队或第三方顾问手动处理这些问题,但这种传统方法耗时,可能导致AI项目的周期延长至两年,错失商业机会。
Enkrypt于2023年成立,目标是通过“Sentry”这一全方位解决方案弥补这一缺口。Sentry提供对大型语言模型(LLM)使用情况和性能的监控,保护敏感信息,抵御安全威胁,并通过自动监控和强大的访问控制确保合规性。
CEO Sahil Agarwal解释道:“Sentry作为一个安全的企业网关,能够实施模型访问控制,同时维护数据隐私和模型安全。它将所有LLM交互通过我们的专业防护措施进行路由,以防止数据泄露并保持合规。”
提升生成式AI的安全性和合规性
Sentry的防护措施由Enkrypt的专有技术驱动,积极防止提示注入攻击和数据漏洞。该解决方案可以净化模型数据,匿名化敏感个人信息,并持续对AI生成内容进行有害性和相关性监测。CISO和产品负责人能够全面了解所有生成式AI计划,从而有效实施Enkrypt的防护措施,降低合规、财务和声誉风险。
测试Sentry对生成式AI漏洞的影响
尽管Enkrypt目前尚未盈利,且尚未分享具体增长指标,但其Sentry技术已在金融和生命科学等受监管行业的中大型公司进行评估。例如,一家财富500强公司使用Meta的Llama2-7B模型后,在部署Sentry后其越狱漏洞从6%降至0.6%。这一进展使企业能够更快采用LLM,将各种应用的部署时间从数年缩短至数周。
Agarwal指出,公司更倾向于寻求全面的解决方案,而非多个单一产品来处理敏感数据泄露、提示注入攻击和合规管理,这凸显了Enkrypt产品的独特性。
展望未来,Enkrypt计划将其解决方案扩展到更广泛的企业,展示其在多种模型和环境中的能力。随着任何开发或部署生成式AI解决方案的组织都需优先考虑安全,Enkrypt的这一扩展至关重要。
Agarwal提到:“我们目前与设计合作伙伴合作,完善产品。我们主要的竞争对手是Protect AI,后者最近收购了Laiyer AI,以增强其安全和合规性产品。”
此外,美国政府的国家标准与技术研究院(NIST)已与200多家公司组成AI安全联盟,致力于建立AI安全测量的基础标准。