利用影子AI:IT领导者现代化治理的战略之举

影子人工智能:企业面临日益严峻的挑战

影子人工智能的迅猛发展给各类组织带来了不小的挑战,因为许多员工在IT部门的监督之外,未经授权地使用生成式人工智能。根据Salesforce对14,000名员工的调查,28%的员工在工作中使用生成式人工智能,其中超过50%的人没有获得雇主的批准。随着越来越多的员工意识到AI生成内容所带来的生产力提升,这一趋势预计将进一步增长。

IT领导者的机遇

影子人工智能的普遍存在为IT领导者提供了改善治理战略的独特机遇。CIO们始终面临在支持商业倡议与风险管理之间寻找平衡的挑战。随着IT治理需求随着商业需求和风险形势的变化而不断演变,确保在快速的数字化转型中,将战略目标与有效的风险管理相结合显得尤为重要。

治理生成式人工智能的重要性

应对影子人工智能的难度大于处理影子IT,因为员工通常是主动订阅未经授权的服务。由于员工可以在没有经济障碍的情况下使用生成式人工智能工具,其风险更加复杂。这些AI服务的误用可能导致严重的治理问题。例如,员工可能会不小心将敏感的企业知识产权或可识别的个人信息输入到公共生成式人工智能系统中,从而危及数据安全。

员工向这些服务查询战略信息,可能会泄露专有见解。而将机密信息纳入生成式人工智能系统,也可能使组织面临法律责任和版权问题。尽管许多组织意识到这些风险,但仍缺乏全面的政策来治理生成式人工智能。KPMG的一项调查显示,69%的公司仍处于评估生成式人工智能风险和制定缓解策略的初始阶段。

完全禁止生成式人工智能可能会促使隐秘使用,从而增加数据泄露、合规问题和声誉损害等风险。在44%的IT决策者仍处于生成式人工智能项目初步阶段的背景下,IT部门必须与更广泛的业务协同工作,建立统一的方法。

协作治理战略

IT领导者应与法律、合规及风险管理团队合作,共同创建一套集中式的生成式人工智能战略。这包括明确可接受使用政策、向员工清晰沟通以及实施促进负责任使用的培训项目。

建立AI治理框架

组织应创建旨在保护敏感数据的协议,同时与现有的IT治理战略保持一致。可考虑以下关键步骤:

1. 建立AI治理政策:制定清晰的AI使用指南,列出获批系统,并告知使用未经授权应用程序的后果。

2. 提供批准工具:为员工提供经过批准的AI应用程序,以减少使用未批准工具的诱惑。

3. 正式培训:教育员工合理使用批准的生成式人工智能服务,以及分享敏感内容与未经授权的系统的风险。

4. 审计和监测使用:定期进行审计与合规检查,并利用软件识别未经授权的AI活动。

5. 鼓励透明和报告:营造一个员工能够无畏报告使用未批准AI工具的环境,迅速应对事件。

6. 定期沟通:随着生成式人工智能工具的不断发展,保持现有政策的更新,并定期向员工传达最新信息。

您的生成式人工智能保险政策

有效的治理就如同保险政策——有了这种准备总比面对后果要好。生成式人工智能与传统人工智能不同,其易于采用的特点可能会导致管理挑战。为了确保负责任的使用,公司必须优先管理数据,识别应保留在安全生成式人工智能系统内的敏感信息。

生成式人工智能标志着人工智能发展新阶段,值得信赖的合作伙伴能帮助您应对其复杂性。戴尔正在引领这一潮流,开发商业案例,帮助客户安全地探索生成式人工智能选项,利用开源大型语言模型(LLMs)保持系统部署的控制权。

最终,将人工智能与数据基础设施相结合,可能是您最有效的治理策略。

想了解更多信息,请访问 dell.com/ai。

Clint Boulton,戴尔科技APEX投资组合市场的高级顾问。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles