普华永道调查:77%首席执行官对人工智能网络安全威胁表示担忧

今天,几乎所有企业都在寻求利用生成性人工智能(AI),以开发创新解决方案,并对基础模型的潜力充满乐观。然而,普华永道(PwC)最近的一项调查显示,尽管这一技术提供了显著的优势,但也带来了不小的挑战,特别是在安全风险方面。

在对全球4700多名高管的调查中,其中包括231名美国高管,普华永道旨在了解领导者如何计划转变商业模式,以持续为客户和员工创造价值。调查结果揭示,大多数首席执行官认识到生成性AI的潜力,但许多人也强调建立对该技术的信任的重要性,77%的人承认其可能增加网络安全漏洞的风险。

调查概述了全球高管对生成性AI的期望,以及他们在不久的将来所面临的挑战。

生成性AI:提升产品与竞争力

全球首席执行官预计,生成性AI将在一年内开始带来回报,尽管他们不指望这些回报会立即转化为利润。调查显示,58%的参与者相信生成性AI将在未来12个月内提高产品质量,而70%的人认为它将显著改变公司在创造、交付和捕获价值方面的方式。

在更具体的层面上,许多高管预见到员工生产力的提高,64%的人期望员工在生成性AI的帮助下能完成更多工作。约60%的高管预计技术将提高他们自己的效率。这些收益预计将有助于改善公司利润,44%的首席执行官预测在未来一年内利润净增长,而仅有3%的人预计下降。

然而,随着生成性AI提升了一家公司的能力,它同样也赋能了竞争对手,从而加剧了市场竞争。事实上,68%的首席执行官预计在未来三年内竞争将加剧。在这种环境中,劳动力的技能和有效利用生成性AI的能力将使公司脱颖而出。

目前,普华永道指出,生成性AI的社会影响仍不明确,一些领导者计划招聘人才,而另一些则考虑裁员。理想策略是寻求熟悉生成性AI的人才,同时对现有员工进行培训,以自动化日常任务,使他们能够将精力集中在更高价值的工作上。

“针对AI项目进行透明和以目的驱动的沟通可以帮助缓解员工的担忧,促进创新和实验的文化,”普华永道表示。首席执行官应将这些挑战视为他们角色的新方面,妥善管理与AI整合相关的复杂性。

在生成性AI中建立信任

尽管通过培训以促进员工接受生成性AI,但在AI的输入和输出中建立有机信任依然是高管们关注的主要问题。调查显示,网络安全漏洞被视为信任的重要障碍,77%的高管意识到这一风险。其他担忧包括错误信息的潜在风险(63%)和与生成性AI相关的法律或声誉风险(55%)。

为缓解这些挑战,普华永道建议首席执行官确保在组织内部负责任地使用AI。

“信任可以成为你公司的一项关键差异化因素。通过适当的定量和定性指标将其纳入商业成功的度量体系。值得信赖的AI不仅仅是合规性,它还包括部署适当的解决方案、维护相关数据实践和实施监督,以确保可靠的结果。要实现这一点,需对最佳实践采取全面的、企业级的策略,”该公司总结道。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles