ChatGPT正在改变影子IT,给组织带来了前所未有的风险。IT和网络安全领导者必须利用其高效性,同时确保安全性。OpenAI报告称,企业的采用率正在攀升,超过80%的财富500强员工正在使用ChatGPT。
哈佛大学的一项最新研究显示,企业员工在使用ChatGPT后,其工作表现提高了40%。此外,麻省理工学院发现,ChatGPT能够减少技能差距,加速文档创建,使员工能够更高效地利用时间。然而,70%的员工对于向管理层披露使用该工具的情况感到犹豫。
在保持工作效率的同时降低知识产权损失的风险,是ChatGPT的一个主要关注点。员工在工作中可能无意中分享敏感信息,比如知识产权、机密定价、财务数据和人力资源信息。三星的数据泄漏事件突显出有效解决方案的迫切需求。
为了应对这一挑战,许多组织开始通过生成性AI技术提升安全性。对生成性AI隔离技术的兴趣日益增长,这些技术旨在将机密数据与ChatGPT、Bard等平台隔离。企业的目标是平衡ChatGPT所带来的效率与强有力的风险管理策略。
在与National Oilwell Varco(NOV)首席信息官Alex Philips的对话中,他强调了教育董事会理解生成性AI的机会和风险的重要性。Philips定期向董事会更新关于生成性AI的最新进展,以及在NOV中的应用,帮助建立期望和防护措施,以防止数据泄漏。
安全ChatGPT会话的创新解决方案
一系列新技术正在涌现,以解决在不影响速度的情况下保护ChatGPT会话的挑战。主要供应商包括Cisco、Ericom Security by Cradlepoint、Menlo Security、Nightfall AI、Wiz和Zscaler。
这些供应商采用多种策略保护机密数据,防止在ChatGPT会话中泄露。Ericom Security by Cradlepoint的生成性AI隔离技术和Nightfall for ChatGPT是最广泛认可的解决方案之一。
Ericom采用无客户端的方法,在Ericom云平台中通过虚拟浏览器与生成性AI网站进行用户交互。这种方法实施数据丢失保护和访问政策强制,确保敏感信息不会提交给像ChatGPT这样的生成性AI平台。他们的设计强调通过云架构提供最小权限访问。
Nightfall AI则提供三种解决方案,旨在保护机密数据,防止在ChatGPT及类似平台上的暴露。Nightfall for ChatGPT是基于浏览器的解决方案,能够实时扫描和编辑敏感信息。Nightfall for LLMs则提供API,检测并编辑用于训练语言模型的敏感数据。最后,Nightfall for SaaS与主流云服务集成,防止敏感数据泄露。
生成性AI:知识的未来
生成性AI正成为企业必不可少的知识引擎。证据表明,禁止ChatGPT及类似技术反而助长了影子AI的崛起,令数据安全工作变得更加复杂。
越来越多的首席信息官(CIO)和首席信息安全官(CISO)正在试点生成性AI系统,实施在浏览器级别减轻风险的策略。通过采用安全的云架构,如Cradlepoint的解决方案,企业能够保护成千上万的员工,避免无意间泄露数据。
关键在于将生成性AI的快速发展转化为竞争优势。IT和安全团队必须优先了解最新技术及保护敏感信息的方法。紧跟这些不断演变的保护措施的步伐,对于在知识经济中保持竞争力至关重要。
“生成性AI网站能够提供显著的生产力提升,但组织必须主动管理相关风险,”Cradlepoint的Ericom网络安全部门市场副总裁Gerry Grealish表示,“我们的生成性AI隔离解决方案使企业能够在生成性AI潜力与防止数据丢失、恶意软件威胁和法律合规挑战之间取得平衡。”