ChatGPT 正在重塑影子 IT,為企業帶來前所未有的風險。IT 和網絡安全領導者必須利用其快速性,同時確保堅實的安全性。OpenAI 報告顯示,企業採用率持續上升,超過 80% 的《財富》500 強企業員工正在使用 ChatGPT。哈佛大學最近的研究表明,企業員工在使用 ChatGPT 時表現提升了 40%。此外,麻省理工學院發現,ChatGPT 能減少技能差距並加速文件創建,使員工能更有效地利用時間。然而,70% 的員工對向管理層透露使用該工具持保留態度。
在保持速度的同時降低知識產權損失風險
使用 ChatGPT 的主要擔憂在於員工可能不小心分享敏感信息,如知識產權(IP)、保密價格、財務數據和人力資源信息。三星的數據泄露等高調事件凸顯了尋求有效解決方案的迫切性。許多企業正轉向基於生成式 AI 的方法來增強安全性,對生成式 AI 隔離技術的需求日益增加,這些技術旨在將機密數據與 ChatGPT、Bard 和類似平台隔離。企業希望在 ChatGPT 提供的效率和流程改進與堅實的風險管理策略之間取得平衡。
在與國家油井瓦克公司(NOV)首席信息官 Alex Philips 的討論中,他強調了向董事會教育生成式 AI 相關機會和風險的重要性。Philips 定期向董事會更新生成式 AI 的最新發展及其在 NOV 的應用情況,幫助建立期望並制定防範措施,以防止類似三星的數據泄露事件。
保障 ChatGPT 會話的創新解決方案
針對保障 ChatGPT 會話安全的新技術正不斷涌現,且不會影響其速度。著名供應商包括 Cisco、Cradlepoint 的 Ericom Security、Menlo Security、Nightfall AI、Wiz 和 Zscaler。這些供應商採取多種策略來防止在 ChatGPT 會話中分享機密數據。Ericom Security by Cradlepoint 的生成式 AI 隔離和 Nightfall for ChatGPT 是最廣為人知的解決方案之一。
Ericom 採用無客戶端的方法,在其 Ericom Cloud Platform 中的虛擬瀏覽器中執行用戶與生成式 AI 網站的交互。這種方法能實現數據損失保護和訪問政策執行,確保敏感信息不會提交到 ChatGPT 等生成式 AI 平台。他們的設計強調通過雲架構提供最低特權訪問。
Nightfall AI 提供三種解決方案,旨在保護敏感數據不受 ChatGPT 和類似平台的曝光影響。Nightfall for ChatGPT 是一款基於瀏覽器的解決方案,能夠實時掃描和篡改敏感信息。Nightfall for LLMs 提供 API 用於檢測和篡改訓練語言模型時使用的敏感數據。最後,Nightfall for SaaS 則與流行的雲服務集成,以防止敏感數據曝光。
生成式 AI:知識的未來
生成式 AI 正成為企業的核心知識引擎。有證據表明,禁止 ChatGPT 和類似技術反而助長了影子 AI 的興起,複雜化了數據安全工作。越來越多的首席信息官和首席信息安全官正在試點生成式 AI 系統,並實施能在瀏覽器層面降低風險的策略。通過利用安全的雲架構,如 Cradlepoint Ericom 的示範,企業可以保護數千名員工免於無意中分享數據。
關注點應在於如何將生成式 AI 的快速發展轉化為競爭優勢。IT 和安全團隊必須優先了解最新技術和方法來保護敏感信息。保持對這些演變性保護措施的瞭解,對於在知識經濟中保持競爭力至關重要。
“生成式 AI 網站提供顯著的生產力提升,但組織必須主動管理相關風險,”Cradlepoint 的 Ericom 網絡安全部門副總裁 Gerry Grealish 說。“我們的生成式 AI 隔離解決方案使企業能夠在發揮生成式 AI 潛能的同時,採取穩健的防護措施來抵禦數據損失、惡意軟件威脅以及法律合規挑戰。”