调查:随着全球法规的出台,大多数公司采纳负责任的人工智能实践

最近的一项调查显示,近90%的公司正在积极采用负责任的人工智能(AI)策略,包括实施、评估或开发。这一积极举措恰逢全球各国政府努力解决AI监管复杂性的重要时刻。目前,有37%的组织正在实施负责任的AI策略,34.8%的组织正在制定相关计划。值得注意的是,15.4%的公司已经建立了一个“明确的”策略,涵盖所有AI开发工作。

全球范围内,各国政府正在制定法规以应对AI带来的潜在风险。欧洲联盟的AI法案作为最全面、最先进的立法,有望在2024年初至中旬实施。在美国,拜登总统已签署一项行政命令,以便公众审查主要科技公司的AI模型,而英国首相里希·苏纳克最近在历史悠久的布莱切利公园举行了首届全球AI安全峰会。

尽管面临即将出台的法规,私营部门依然积极主动。企业的迅速反应令人钦佩;就在一年前,生成式AI因OpenAI的ChatGPT问世而引起了广泛关注,尽管这一技术早已存在。

大型语言模型及其相关聊天机器人的惊人能力加深了人们对其潜在风险的认识——包括幻觉、偏见、版权问题、隐私侵犯和网络安全威胁——并突显了实施负责任AI实践的紧迫性。

伦理AI的必要性

采用伦理AI实践的好处是显而易见的:从提升客户信任到减少合规和法律风险,公司意识到AI的社会影响,并积极迈向确保其系统透明、公平和负责任的方向。

在对调查结果的深入分析中,72%的受访者表示他们已建立或计划建立相关程序。值得注意的是,仅四分之一的受访者表示他们的组织缺乏AI的数据管理和治理系统,而许多受访者对公司的现状感到不确定。

在对其方法的考虑中,45.8%的受访者形容他们的做法为“审慎而深思”,认为自己正在以合适的节奏推进。与此相对,26%的人承认自己的进展速度超过了确保负责任实施的能力。令人担忧的是,19%的公司尚未制定负责任的AI程序。

本次调查共涉及227名参与者,主要来自北美(43.2%),同时还有来自西欧(25.1%)和非洲(9%)的代表。稍微超过一半的受访者来自员工少于100人的公司,12.8%的受访者来自员工超过10,000人的公司。许多受访者在企业管理、研发和技术战略岗位工作。

应对挑战

尽管对负责任AI的热情显而易见,但仍面临许多挑战,特别是缺乏统一的定义和基准。快速发展的AI领域需要定期更新公司政策和法规,以保持有效性。

监测伦理AI实践至关重要,但结果显示尚有改进空间。虽然60%的受访者声称他们会评估负责任AI实施的准确性,但这一比例显著低于近90%采用伦理AI框架的情况。只有18.1%的人已牢固建立这些评估措施,而41.9%的人仍在朝这个目标努力。

对于33.9%的受访者而言,他们的伦理AI测量过程是结构化的,拥有明确的步骤、指南和持续的监测机制。同时,21.1%的人仍在开发正式流程。令人担忧的是,近五分之一的公司缺乏测量策略或对公司的做法不清楚。

在被问及何时开始考虑负责任的AI时,40%的人表示他们在技术设计或实施之前考虑这些问题,41.4%的人在设计阶段时考虑伦理问题。只有10.6%的人在实施后才将这些因素纳入考虑。

在负责任AI的关键应用中,预测分析占据了30.4%的投票率,其次是客户体验(27.3%)和聊天机器人及虚拟助手(20.3%)。被认为优先级最低的领域包括语音/语音识别、文本分析和视觉分析。

AI发展的新时代

本次调查突显了AI领域的一个重要时刻。随着公司将其实践与负责任的AI策略对齐,并且各国政府推进监管措施,我们可能正进入一个伦理考虑融入AI创新的时代——标志着人工智能发展和应用的重要转变。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles