駭客攻擊內部AI聊天機器人的威脅:安全團隊的噩夢

內部威脅:AI 聊天機器人的風險

內部威脅是最嚴重的網絡攻擊類型之一,對公司的關鍵系統和資產構成威脅。隨著企業迅速部署新型內部和面向客戶的 AI 聊天機器人,無意中開啟了新的攻擊途徑和風險。

AI 聊天機人的脆弱性

最近的研究《ArtPrompt:基於 ASCII 藝術的 Jailbreak 攻擊針對對齊 LLMs》揭示了 AI 系統的敏感性。研究人員成功利用 ASCII 藝術破解了五個最先進的大型語言模型(LLMs),包括 OpenAI 的 ChatGPT-3.5、GPT-4、Gemini、Claude 和 Meta 的 Llama2。

ArtPrompt 利用了 LLMs 在解讀 ASCII 藝術方面的難題,使攻擊者能夠繞過安全措施。特別的是,這種攻擊能以有限的訪問權限執行,並且成功破解所需的嘗試次數也相對較少。

理解 ASCII 藝術的脆弱性

儘管 LLMs 在語義解析方面表現優異,但在複雜的空間和視覺識別上卻有所不足。研究人員旨在驗證為何 ASCII 藝術對破解如此有效。他們建立了“視覺文本挑戰”(VITC),這是一項旨在評估 LLMs 透過兩個獨特數據集識別 ASCII 藝術能力的基準。

- VITC-S 專注於 ASCII 藝術中的單個字符,涵蓋 36 類,共有 8,424 個樣本,專為挑戰 LLM 的識別技能而設。

- VITC-L 則增加了難度,展示了 800 類中 10 種不同字體的字符序列。

從 VITC-S 到 VITC-L 的漸變有效突顯了 LLMs 在 ASCII 藝術解析上的限制。

ArtPrompt 使用兩步攻擊策略,利用 ASCII 文字隱藏 LLMs 通常過濾的安全詞。第一步暴露出安全詞,如“炸彈”,然後在第二步中用 ASCII 藝術進行隱藏。此方法已證明對五個最先進的 LLMs 有效。

內部 AI 聊天機人的興起

企業正加速轉向內部和面向客戶的 AI 聊天機人,以獲得潛在的生產力、成本效率和收益提升。根據波士頓諮詢集團(BCG)的報告,前 10% 的企業已全面整合生成式 AI 應用,44% 的企業從規模化的預測 AI 中獲得了顯著回報。值得注意的是,這些高效能組織中的三分之二,領先於生物製藥、能源和保險等行業,而不僅僅是亞馬遜或谷歌等數位原生公司。

例如,一家美國能源公司為一線技術人員實施了基於生成式 AI 的對話平台,生產力提升了 7%。同時,某生物製藥公司利用生成式 AI 將藥物發現的時間縮短了 25%。

內部聊天機器人的安全挑戰

不斷增長的內部聊天機器人構成了重大的攻擊面,安全措施難以跟上進展。某主要金融服務公司的CISO 強調,這些聊天機器人必須設計以能夠從用戶錯誤和疏忽中恢復,同時在抵禦攻擊方面進行加固。

Ponemon Institute 的《2023 內部風險成本報告》強調了對核心系統實施堅決安全措施的必要性,包括雲配置和 AI 聊天機器人。減少一次攻擊的成本平均為 720 萬美元,其中疏忽佔內部安全漏洞的 55%。

演變中的防禦策略

應對 ASCII 藝術攻擊將需要不斷完善,以減少誤報和漏報。如果檢測方法有所進化,攻擊者將適應,不斷測試 LLM 能力的極限。專家建議採用多模式防禦策略,結合基於機器學習的 ASCII 藝術識別及持續監控。

網絡安全供應商如 Cisco、Ericom Security、Menlo Security、Nightfall AI、Wiz 和 Zscaler 正在開發保障 ChatGPT 期間機密數據的方法。Zscaler 建議采用五步驟方法:

1. 定義一組最低的生成式 AI 和機器學習應用以控制風險。

2. 批准內部聊天機器人和應用的擴展使用。

3. 在安全環境中為 ChatGPT 創建私有伺服器實例。

4. 實施單一登錄(SSO)和強化的多因素身份驗證(MFA)。

5. 強制執行數據損失防護(DLP)協議以防止數據洩漏。

Ericom 的高級產品市場經理指出,隔離對生成式 AI 工具的訪問可以使員工在利用省時資源的同時,保護敏感信息。

鑒於 ASCII 藝術的複雜性,建立有效的防禦措施以防止此類攻擊對聊天機器人及其支持的 LLMs 至關重要。正如研究人員強調的,多模式防禦策略對於減輕這些不斷演變的威脅至關重要。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles