OpenAI的ChatGPT正準備改變我們的工作方式,但其在企業中的整合卻帶來了一個困境。儘管企業認識到生成式人工智慧是競爭優勢,但揭露敏感資訊的風險依然很高。
無法控制的使用挑戰
許多員工已在未經雇主許可的情況下使用ChatGPT,無意中共享了敏感數據。企業迫切需要解決方案,而Metomic旨在填補這一空白。這家數據安全軟體公司推出了一款瀏覽器插件—Metomic for ChatGPT,旨在追蹤用戶在OpenAI大型語言模型中的活動。
“這些應用沒有邊界;數據共享活動如同無法控制的狀態,”Metomic的CEO Rich Vibert表示。“沒有人能夠監控整體情況。”
數據洩露的範圍
研究顯示,15%的員工定期將公司數據輸入ChatGPT,其中包括源代碼(31%)、內部商業信息(43%)和個人識別信息(PII)(12%)。涉及的主要部門包括研發、財務及銷售/市場營銷。
“這是一個全新的問題,”Vibert解釋道,強調企業對員工使用這些工具的“巨大恐懼”。“沒有任何障礙;你只需要一個瀏覽器。”
Metomic的研究顯示,員工正洩露關鍵的財務數據,包括資產負債表和代碼片段。特別令人擔憂的是,客戶對話記錄的暴露,可能包含姓名、電子郵件地址和信用卡號碼等敏感信息。
“完整的客戶檔案正被輸入到這些工具中,”Vibert指出,這讓競爭對手和駭客有機可乘,增加了違約風險。
惡意內部威脅的風險
除非無意間洩露外,離職員工可能會利用生成式AI工具帶走專有數據,這也構成風險。此外,惡意內部人士可能會故意洩露敏感信息,造成進一步威脅。
雖然有些企業選擇禁止使用ChatGPT和類似平台,Vibert警告這不是可持續的策略。“這些工具將會長期存在,”他強調ChatGPT在提高生產力和效率方面的價值。
專注於員工互動的数据安全
Metomic的ChatGPT整合在瀏覽器中運行,識別員工何時登錄該平台,並實時掃描上傳的數據。如果檢測到敏感數據(如PII或安全證書),會有通知提示用戶適當編輯或分類該數據。
安全團隊也會收到潛在數據洩露的警報,確保能及時採取預防措施。“這是從員工的角度進行數據安全,”Vibert解釋道,強調可見性和控制而非完全限制。“它能將雜訊轉化為安全和分析團隊可行的洞察,”他補充道,應對IT部門面臨的警報疲勞。
Navigating the SaaS Landscape
如今,各企業正利用多種SaaS應用—預計有991種,但只有25%彼此互聯。Vibert強調SaaS工具使用的快速增長,並指出Metomic與多個應用程式連結,並配備150個數據分類器,用於根據行業法規等情境因素識別關鍵數據風險。
“了解數據在各個工具中的位置至關重要,”他表示,強調識別特定部門或員工的“數據熱點”的重要性。隨著SaaS生態系統的擴大,生成式AI工具如ChatGPT的使用也將加深。正如Vibert所言:“我們甚至還沒有開始這段漫長的旅程。”