在分享前深思熟虑:了解Metomic如何通过ChatGPT防止数据泄露

OpenAI的ChatGPT正准备改变我们的工作方式,但其在企业中的应用也带来了挑战。尽管企业普遍视生成性人工智能为竞争优势,但暴露敏感信息的风险依然很高。

不受控使用的挑战

许多员工在未告知雇主的情况下使用ChatGPT,意外分享了敏感数据。企业亟需解决方案,而Metomic正目标明确,试图填补这一空白。作为一家数据安全软件公司,Metomic推出了“Metomic for ChatGPT”浏览器插件,旨在追踪用户在OpenAI大型语言模型(LLM)中的活动。

Metomic首席执行官Rich Vibert指出:“这些应用没有边界,数据分享行为如同西部往事,没人能监控。”

数据泄露的现状

研究表明,15%的员工定期在ChatGPT中输入公司数据,其中主要包括源代码(31%)、内部业务信息(43%)和个人可识别信息(PII)(12%)。这些活动主要发生在研发、财务和销售/市场部门。

Vibert解释说:“这是一个全新的问题,企业对员工使用这些工具感到‘巨大的恐惧’。没有任何屏障,你只需要一个浏览器。”

Metomic的调查发现,员工在无意中泄露了关键的财务数据,包括资产负债表和代码片段,尤其令人担忧的是客户聊天记录的暴露,这可能包括姓名、电子邮件和信用卡号码等大量敏感信息。“完整的客户个人资料正在被输入这些工具中”,Vibert提到,这可能使竞争对手和黑客得以访问,从而增加了违约风险。

恶意内部威胁的风险

除了无意泄露,离职员工利用生成性人工智能工具带走专有数据的风险也不可忽视。此外,恶意内部人员可能故意泄露敏感信息,增加潜在威胁。

虽然一些公司选择禁止使用ChatGPT等平台,Vibert强调这并不是一个可持续的策略。“这些工具将长期存在,”他说,强调ChatGPT在提高生产力和效率方面的价值。

员工参与下的数据安全

Metomic ChatGPT集成在浏览器中运行,能够识别员工何时登录平台,并实时扫描上传的数据。如果发现敏感数据(如PII或安全凭据),系统会提醒用户进行适当的编辑或分类。同时,安全团队也会收到潜在数据泄露的警报,以确保采取主动措施。

“这是以员工为视角的数据安全,”Vibert解释说,强调可见性和控制而非直接限制。“它将噪声转化为安全和分析团队可操作的洞见,”他补充道,有助于缓解IT部门面临的警报疲劳。

应对SaaS生态系统

如今,企业正在利用多种SaaS应用,预计有991个,而只有25%互联互通。Vibert强调SaaS工具使用的前所未有增长,指出Metomic与多种应用程序连接,并配备150个数据分类器,以根据行业法规等上下文因素识别关键数据风险。“了解数据在各工具中的分布至关重要,”他说,并强调识别特定部门或员工中的“数据热点”。

随着SaaS生态系统的扩展,生成性人工智能工具如ChatGPT的使用也将随之增加。Vibert恰如其分地强调:“这甚至还不是我们漫长旅程的第一天。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles