Menlo Security 報告:與人工智慧採用相關的網絡安全威脅上升

最新的Menlo Security研究凸顯出,企業在快速採用生成式AI過程中面臨的迫切網絡安全挑戰。隨著如ChatGPT等工具成為日常工作流程的不可或缺部分,企業必須重新評估其安全策略。

“員工在日常任務中開始使用AI,我們的控制措施不僅要阻止濫用,還必須防止無管控的訪問,”Menlo Security產品行銷副總裁Andrew Harding在專訪中表示。“儘管企業內生成式AI的使用顯著增長,安全和IT團隊仍面臨持續挑戰。我們需要有效的工具為AI應用施加強有力的控制,讓CISO能在利用生成式AI的生產力優勢的同時管理風險。”

生成式AI的使用激增帶來風險

Menlo Security的報告揭示了驚人的趨勢:企業對生成式AI網站的訪問在過去六個月中激增超過100%,頻繁用戶數量增加了64%。這一快速整合暴露了新的脆弱性。

儘管許多組織正在加強生成式AI的安全措施,研究人員卻發現大多數採取的域別政策效果不佳。“組織雖然在加強安全,但仍未達標,基於域的政策是不足的,”Harding強調。

這種碎片化的方法無法跟上新生成式AI平台的出現。報告指出,對生成式AI網站的文件上傳嘗試在六個月內上升了80%,原因是新功能的推動。風險超出了潛在的數據損失。

專家警告,生成式AI能顯著增強釣魚攻擊的威脅。Harding表示:“AI驅動的釣魚攻擊就是更智能的釣魚。企業需要實時保護,以防止AI驅動的詐騙成為重大問題。”

從新奇到必要性

生成式AI的崛起,尤其是ChatGPT的推出,已從技術新奇變為商業必要。OpenAI於2018年6月首次推出其生成式AI系統GPT-1,隨後在2022年4月推出了擁有5400億參數的Google Brain的PaLM。

隨著2021年初DALL-E的推出,公眾的熱情迅速高漲,而ChatGPT在2022年11月的首次亮相點燃了廣泛參與的熱潮。用戶迅速將這些工具應用於各種任務中,從撰寫電子郵件到調試代碼,顯示了AI的多功能性。

然而,這一迅速整合帶來的風險常常被忽視。生成式AI系統的安全性、倫理和準確性取決於所使用的數據。它們可能不經意地暴露偏見、傳播錯誤信息,甚至洩露敏感資訊。

此外,這些模型從互聯網的大量數據中提取內容,導致控制所獲取內容的挑戰。如果專有信息被公開貼出,這些AI系統可能無意中吸收並之後揭露這些信息。

安全與創新之間的平衡

為了有效平衡安全與創新,專家們主張採取多層次的方法。Harding建議:“實施複製和粘貼限制、建立安全政策、監控會議並強制執行跨生成式AI平台的群組級控制。”

組織必須從過去的技術變遷中汲取經驗。雲計算和移動設備等技術固有地帶來了新的風險,促使安全策略的不斷調整。對生成式AI也同樣需要這種主動的方法。

行動的時間就是現在。“生成式AI網站訪問量和活躍用戶數正在增加,但安全和IT團隊仍面臨挑戰,”Harding警告。

為了保障業務運作,企業必須迅速調整其安全策略,以匹配生成式AI的快速採用。在安全與創新之間取得平衡至關重要,否則生成式AI相關的風險將失控。

Most people like

Find AI tools in YBX