在網絡安全領域,「防禦者困境」突顯了一個明確的現實:防禦者始終保持高度警惕,努力防止安全漏洞;而攻擊者只需一次機會便可造成重大損害。為了打破這種無情的循環,Google 提倡將先進的 AI 工具整合到網絡安全策略中。
AI 網絡防禦倡議公告
在 2 月 16 日的慕尼黑安全會議(MSC)前夕,Google 宣布推出其「AI 網絡防禦倡議」,並提出與 AI 及網絡安全相關的多項承諾。這一公告隨著微軟和 OpenAI 的類似聲明而出,他們強調安全和負責任地使用 AI 在減輕對手威脅中的重要性。
隨著全球領袖聚集於 MSC 討論國際安全政策,科技巨頭們急於展示他們在網絡安全方面的主動立場。Google 在博客中指出:「AI 革命已經展開。我們對 AI 解決世代安全挑戰並創建可信數字世界的潛力感到興奮。」
對 AI 驅動安全的承諾
在慕尼黑會議期間,來自各行各業的 450 多名決策者將探討技術、跨大西洋安全和全球治理等議題。MSC 旨在推進對技術規範及其對包容性安全與合作影響的對話。
由於 AI 是領導者與監管機構的核心關注,Google 承諾投資於「AI 準備基礎設施」,提供新防禦工具,並啟動 AI 安全培訓計劃。其中一項重要公告是成立新的「AI 網絡安全」小組,該小組由來自美國、英國和歐盟的 17 家初創企業組成,旨在加強跨大西洋的網絡安全生態系統,透過國際化策略、AI 工具及必要的技能進行有效實施。
Google 的其他舉措包括:
- 擴大 1500 萬美元的 Google.org 網絡安全研討會計劃,以提升歐洲弱勢社區網絡安全專業人士的培訓。
- 推出 Magika,這是一款開源 AI 工具,用於文件類型識別,通過提高 30% 的準確率和 95% 的精確度來改善對 VBA 和 JavaScript 等挑戰性內容類型的惡意軟件檢測。
- 提供 200 萬美元的研究資助給芝加哥大學、卡內基梅隆大學和斯坦福大學等機構,以增強代碼驗證和開發更具韌性的威脅檢測算法。
此外,Google 強調其於 6 月推出的安全 AI 框架的重要性,以指導組織實施 AI 安全最佳實踐。Google 強調:「AI 安全技術必須在設計上和預設上都是安全的。」這強調了有針對性的投資和有效的監管框架對於最大化 AI 利益及抑制惡意使用的必要性。
聯合對抗惡意 AI 使用的行動
在一項聯合公告中,微軟和 OpenAI 警告惡意行為者利用 AI 作為生產力工具的趨勢。OpenAI 已撤回與中國、伊朗、北韓和俄羅斯等國家贊助的威脅組織相關聯的帳戶訪問,並指出這些組織的策略包括代碼除錯、釣魚內容創建和情報蒐集。
這兩家公司致力於確保責任使用 AI 技術,微軟提出的原則集中於識別惡意使用、與利益相關者合作及向公眾通報 AI 誤用情況。
上升的網絡威脅與 AI 的角色
Google 的威脅情報團隊報告顯示,網絡威脅有所上升,驅動因素是攻擊者專業化及在地緣政治背景下的攻擊能力優先考量。中國、俄羅斯、北韓和伊朗等國在攻防兩方面都在重金投資於 AI,對各行各業構成重大風險。攻擊者利用 AI 增強社會工程手段、創建複雜的釣魚計劃以及參與信息操縱。
正如 Google 所警告的,AI 技術的演變可能會顯著增強惡意行動的能力。相反,AI 在漏洞檢測、事故回應和惡意軟件分析方面為防禦者提供了顯著的優勢。AI 可以簡化威脅情報流程、分類惡意服務器和優先處理威脅,從根本上改變網絡安全的格局。
Google 自己的檢測團隊已利用生成式 AI 來增強事故摘要,提高效率和輸出質量。通過先進的處理模型,公司在垃圾郵件檢測率方面提高了 40%,並在代碼驗證過程中的錯誤減少了 15%。
最終,Google 研究人員認為:「AI 為翻轉防禦者困境提供了關鍵機會,改變了網絡空間的力量平衡,使防禦者相對於攻擊者更具優勢。」