安全團隊越來越多地考慮像 ChatGPT 這樣的創新工具來增強他們的威脅檢測策略。根據 Gartner 的高級總監兼分析師 Dennis Xu 的說法,儘管生成式 AI 工具如 ChatGPT 對安全專業人士有潛在幫助,例如在檢測工程和培訓方面,但高級版本的成本可能成為障礙。
在倫敦舉行的 Gartner 安全與風險管理峰會上,Xu 指出,基於 GP-3.5 Turbo 模型的免費基本版 ChatGPT 在上下文保持和編碼任務方面表現不佳。因此,安全專業人員可能需要選擇每月 20 美元的 ChatGPT Plus 或新推出的 ChatGPT Enterprise 版本,以獲得所需的功能。隨著組織的擴展,這些成本可能會根據用戶數量大幅上升。
Xu 強調,Enterprise 版本相較於基本版和 Plus 版本提供了更強的數據控制,但他警告這可能還未完全準備好部署。儘管存在這項限制,許多主要安全供應商正在積極開發生成式 AI 功能。例如,思科收購 Splunk 旨在增強數據分析能力,而 Privacera 在六月推出了一個生成式 AI 解決方案。Nvidia 也推出了其深度學習安全軟件庫 Morpheus 作為 AI Enterprise 3.0 套件的一部分。Xu 還觀察到,許多公司將 ChatGPT 的自然語言介面整合到現有產品中,以簡化功能。
雖然像 WormGPT 和 FraudGPT 這樣的創新安全工具已經出現,旨在「騙取騙子」,但 Xu 警告說,使用這些解決方案也需要投入資金。他指出,像 ChatGPT 這樣廣泛可用的模型可以執行類似功能,例如生成釣魚郵件。這種情況導致 Xu 所稱的 AI 安全世界中的「軍備競賽」,惡意攻擊者常常佔據上風。他強調,「只需每月 20 美元,惡意使用者就能開發惡意軟件或創建釣魚郵件,而防禦者卻需要付出更高的成本才能達到類似的效率。」
了解 AI 工具的局限性至關重要。Xu 將 ChatGPT 比作一個接受過大量數據訓練的五歲小孩:它對某些安全任務可能有用,但對另一些任務卻準備不足。「有些問題是你根本不會問五歲小孩的,」他打趣道,強調現實期望和驗證的重要性。在安全運營(SecOps)領域,確定 AI 生成洞察的準確性可能是具有挑戰性的。
Xu 還指出,在漏洞管理或攻擊面管理中,應用 AI 系統的健全用例仍然缺乏,並特別提到 Google 的 Sec-PaLM 是唯一能夠識別惡意腳本的成熟威脅檢測語言模型。然而,他表示,這仍處於早期階段,尚未發布基準數據。
對於希望實施 ChatGPT 等 AI 工具的安全團隊而言,建立明確的治理規則和運作手冊至關重要。他建議道:“了解何時及如何利用 AI 工具,並明確指定 SecOps 的用例。”Xu 強調避免時間敏感的案例及涉及敏感企業數據的場景,建議組織提供 AI 互動的培訓並實施監測協議。
意識到 AI 可能的漂移同樣關鍵。生成式 AI 工具對相同查詢可能不會提供一致的回應。此外,Xu 鼓勵團隊保持對技術更新的關注。例如,OpenAI 最近為 ChatGPT 引入了 GPT-4V 新功能,支持語音和圖像互動。Xu 對此前景感到興奮,想像團隊能透過簡單拍照和請求診断,更直觀地與系統互動。
最終,雖然像 ChatGPT 這樣的 AI 工具有望透過簡化工作流程來協助安全專業人士,但它們並不旨在取代人類專業知識。Xu 警告說,「這項技術仍然是一個五歲的嬰兒」,還有許多需要學習的地方,強調在這些工具不斷發展的過程中謹慎而有效地使用它們的重要性。