何時使用 ART:利用 IBM 的對抗穩健工具箱來應對 AI 解決方案

IBM 正在透過其開源計劃「對抗穩健性工具箱」(Adversarial Robustness Toolbox, ART)推進人工智慧(AI)安全。如今,ART 在 Hugging Face 上推出,為 AI 用戶和數據科學家提供旨在減少潛在安全風險的工具。儘管此次發佈標誌著一個新里程碑,但 ART 自 2018 年以來已在開發中,並於 2020 年作為開源項目貢獻給 Linux 基金會。多年來,IBM 繼續根據國防高級研究計劃局(DARPA)名為「保證 AI 針對欺騙的穩健性」(Guaranteeing AI Robustness Against Deception,GARD)的計劃發展 ART。

隨著 AI 技術的普及,對 AI 安全的重視日益迫切。常見威脅包括訓練數據污染和迴避策略,這些都能通過注入惡意數據或操縱輸入對象來誤導 AI 模型。透過將 ART 與 Hugging Face 整合,IBM 旨在提升開發者存取防禦性 AI 安全工具的便利性,幫助他們更有效地減輕威脅。使用 Hugging Face AI 模型的組織,如今可以保護他們的系統,抵禦迴避和污染攻擊,同時將這些防禦無縫整合進工作流程中。

IBM AI 安全與隱私解決方案經理 Nathalie Baracaldo Angel 表示:「Hugging Face 擁有大量前沿模型。這一整合使社群能利用 ART 中的紅藍隊工具來應對 Hugging Face 模型的安全挑戰。」

ART 的旅程:從 DARPA 到 Hugging Face

IBM 對 AI 安全的承諾早於當前的生成式 AI 繁榮,展現了積極保護 AI 技術的做法。作為開源計劃,ART 是 Linux 基金會 LF AI & Data 項目的一部分,受益於來自多個組織的多樣化貢獻。此外,DARPA 也資助 IBM 以增強 ART 在 GARD 計劃下的能力。

雖然 ART 在 Linux 基金會的地位未變,但現在也支持 Hugging Face 模型。Hugging Face 已迅速獲得吸引力,成為共享 AI 模型的協作平台,IBM 與該組織建立了多個合作夥伴關係,包括與 NASA 的聯合項目,專注於地理空間 AI。

理解對抗穩健性及其在 AI 中的重要性

對抗穩健性對提升 AI 安全至關重要。Angel 解釋,這一概念涉及識別潛在的對抗性嘗試,以損害機器學習系統,並主動設立防禦措施。「該領域需要理解對抗策略,以有效保護機器學習管道。」她強調採用紅隊方法來識別和減輕相關風險。

自 2018 年成立以來,ART 不斷演變,以應對變化的 AI 威脅,包括各種攻擊和防禦,涵蓋物體檢測、跟踪、音頻處理等多種模態。「最近,我們專注於整合多模態模型,如 CLIP,這幾天將在系統中推出。」她提到:「在動態的安全環境中,持續開發新工具以應對不斷演變的威脅與防禦至關重要。」

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles