随着云平台迅速发展以满足企业计算基础设施的需求,Menlo Ventures预见现代人工智能(AI)技术栈也将经历类似的成长路径,具备与公共云平台相似的巨大价值创造潜力。
该风险投资公司指出,当前使用的基础AI模型与早期公共云服务的情况非常相似。平衡AI与安全性之间的关系对新兴市场的潜力实现至关重要。Menlo Ventures最新的博客文章《第一部分:AI安全:新一波创业公司竞相保护AI技术栈》详细探讨了AI与安全的交叉点如何促进市场增长。
Menlo Ventures的合伙人Rama Sekhar表示:“我一直在比较这些基础模型和我们今天所知道的公共云,比如AWS和Azure。然而,在12到15年前,当基础架构即服务层开始时,一旦新基础建立后,便出现了巨大的价值创造。”他补充道:“我们相信类似的事情即将来临;基础模型提供商是基础架构栈的基石。”
解决安全挑战以推动生成AI增长
在一次采访中,Sekhar与Menlo Ventures负责网络安全、SaaS、供应链和自动化的主要负责人Feyza Haskaraman强调,AI模型是现代AI技术栈的核心。这一技术栈依赖于不断流动的敏感企业数据以实现自我学习。他们指出,AI的普及导致攻击面呈指数级增加,大型语言模型(LLM)成为主要目标。
使用现有工具保护LLM面临挑战,导致企业信任差距,阻碍生成AI的采用。这一差距源于生成AI的夸大宣传与实际应用之间的脱节。与此同时,攻击者越来越多地使用基于AI的技术,加剧了企业对在AI竞争中失利的担忧。
为了释放生成AI的真正市场潜力,Sekhar与Haskaraman认为必须解决安全问题。Menlo Ventures的调查发现,生成AI采用面临三大主要障碍:缺乏可靠的投资回报(ROI)、数据隐私问题,以及企业数据难以与AI结合使用的误解。
改善AI安全性可以缓解数据隐私担忧,同时也能应对其他两个障碍。他们指出,OpenAI模型最近遭遇网络攻击,包括去年11月针对其API和ChatGPT服务的拒绝服务(DoS)攻击,导致多个服务中断。
治理能力、可观察性和安全性:AI安全的基础
Menlo Ventures断言,治理能力、可观察性和安全性是扩展AI安全所必需的基础要素。这些组件构成了其市场图谱的基石。
治理工具正在快速增长。媒体报道称,基于AI的治理和合规创业公司数量激增,尤其是提供快速上市和全球可扩展优势的云解决方案。Credo和Cranium等工具帮助企业跟踪他们的AI服务,评估安全和风险,并确保对组织内AI使用的全面了解,保护和监控LLM至关重要。
可观察性工具对于监控模型、汇总访问、输入和输出日志至关重要,帮助检测滥用行为并实现全面审计。Menlo Ventures指出,像Helicone和CalypsoAI这样的初创公司是满足这些需求的关键参与者。
安全解决方案专注于建立信任边界。Sekhar和Haskaraman强调,必须对模型使用实施严格控制,包括内部和外部。Menlo Ventures特别关注AI防火墙提供商,如Robust Intelligence和Prompt Security,这些公司可以验证输入和输出,防范提示注入,并检测个人可识别信息(PII)。Private AI和Nightfall等公司专注于识别和编辑敏感数据,而Lakera和Adversa则旨在自动化红队测试以检验安全措施的有效性。Hiddenlayer和Lasso Security等威胁检测解决方案也对监测LLM的可疑行为至关重要。此外,DynamoFL和FedML用于联邦学习,Tonic和Gretel用于生成合成数据,Private AI和Kobalt Labs则致力于识别敏感信息,都是AI安全市场图谱的重要组成部分。
在DevOps中优先考虑AI安全
随着企业应用程序中相当一部分依赖开源解决方案,保护软件供应链是Menlo Ventures希望降低信任差距的另一个关键领域。
Sekhar和Haskaraman认为,AI安全必须内置于DevOps流程中,确保其成为企业应用架构的基础。他们强调,AI的安全嵌入应无处不在,以帮助弥补当前的信任差距,进一步推动生成AI的广泛采用。