隨著雲端平台快速發展以提供企業計算基礎設施,Menlo Ventures 預見現代 AI 架構將遵循類似的成長路徑,並具備像公共雲平台一樣的巨大價值創造潛力。這家風險投資公司指出,目前使用的基礎 AI 模型與公共雲服務的早期階段相似。在不斷發展的市場中,實現 AI 與安全之間的良好平衡至關重要,以滿足其潛力。
Menlo Ventures 最新的部落格文章「第一部分:AI 的安全性:新一波創業公司搶先確保 AI 架構的安全」闡述了 AI 和安全的交集如何推動新市場增長。Menlo Ventures 的合夥人、專注於網絡安全、AI 和雲基礎設施的 Rama Sekhar 表示:「我一直在用一個類比來形容,這些基礎模型非常像我們今天所知的公共雲,例如 AWS 和 Azure。然而,12 到 15 年前,當基礎設施即服務層開始形成時,一旦建立了新的基礎,我們目睹了巨大的價值創造。」
Sekhar 補充道:「我們相信類似的情況正悄然出現;基礎模型提供者是基礎架構堆疊的基石。」
解決安全挑戰以加速生成 AI 增長
在一次訪談中,Sekhar 和 Menlo Ventures 的首席專家 Feyza Haskaraman 強調,AI 模型是現代 AI 架構的核心。這一架構依賴於持續流動的敏感企業數據來進行自我學習。他們指出,AI 的興起導致威脅面迅速增加,大型語言模型(LLMs)成為主要目標。
使用現有工具來保護 LLMs 的挑戰,導致企業信任缺口,妨礙生成 AI 的採用。這一缺口源於對生成 AI 的炒作與其實際實施之間的脫節。同時,攻擊者越來越多地使用基於 AI 的技術,加劇了企業在 AI 競爭中失利的擔憂。
為了釋放生成 AI 的真正市場潛力,Sekhar 和 Haskaraman 認為解決安全問題至關重要。Menlo Ventures 的調查顯示,生成 AI 採用面臨三大主要障礙:無法證明的投資回報率、數據隱私問題以及誤解企業數據難以與 AI 利用。
改善 AI 的安全性可以幫助減輕數據隱私問題,同時解決提到的其他兩大障礙。他們強調,OpenAI 的模型最近遭到多次網絡攻擊,包括去年十一月影響其 API 和 ChatGPT 服務的 DoS 攻擊,造成多次中斷。
治理、可觀察性與安全性:必要的基石
Menlo Ventures 認為,治理、可觀察性和安全性是擴展 AI 安全所需的基礎要素,這些組件構成了其市場圖譜的基石。治理工具正在快速增長。媒體報導指出,基於 AI 的治理和合規創業公司,特別是提供時效性和全球可擴展性的雲解決方案,正在激增。Credo 和 Cranium 等工具幫助企業追蹤其 AI 服務,評估安全風險,確保全面監控企業內部 AI 使用情況,這對保護和監控 LLMs 至關重要。
可觀察性工具對於監控模型及匯總訪問、輸入和輸出的記錄至關重要,能幫助檢測濫用,並實現全面審計。Menlo Ventures 指出,Helicone 和 CalypsoAI 等初創公司是滿足這些需求的關鍵參與者。
安全解決方案專注於建立信任邊界。Sekhar 和 Haskaraman 據此主張,在內部和外部對模型的使用應採取嚴格控制措施。Menlo Ventures 對 AI 防火牆提供商尤其感興趣,例如 Robust Intelligence 和 Prompt Security,這些公司負責驗證輸入和輸出,防範提示注入攻擊,以及檢測個人識別資訊(PII)。Private AI 和 Nightfall 等公司專注於識別和刪除敏感數據,而 Lakera 和 Adversa 則旨在自動化紅隊活動,以測試安全措施的穩健性。Hiddenlayer 和 Lasso Security 等威脅檢測解決方案在監控 LLMs 的可疑行為中同樣至關重要。此外,DynamoFL 和 FedML 用於聯邦學習,Tonic 和 Gretel 用於生成合成數據,以及 Private AI 或 Kobalt Labs 用於識別敏感信息,都是以下 AI 安全市場圖譜中不可或缺的解決方案。
在 DevOps 中優先考慮 AI 的安全性
由於大量企業應用使用開源解決方案,確保軟件供應鏈安全是 Menlo Ventures 目標之一,以縮小信任缺口。Sekhar 和 Haskaraman 認為,AI 安全必須內建於 DevOps 過程中,確保它成為企業應用架構的基礎。他們強調,AI 的安全性融入應如此普遍,以使其保護價值幫助彌補目前的信任缺口,從而促進更廣泛的生成 AI 採用。