加速人工智能技术规范的两条清晰高效道路

人工智能(AI)在技术领域的变革非常显著,尤其是在ChatGPT公开发布之后。然而,AI的快速发展也引发了许多重要的担忧。主要研究机构,如AI实验室Anthropic,警告其潜在的破坏性能力,尤其是在与ChatGPT等系统竞争加剧的背景下。关键问题包括数百万个就业机会的流失、数据隐私侵犯以及虚假信息的传播,这些问题已经引起全球利益相关者——特别是政府机构的关注。

在美国,国会加大了对AI监管的关注,推出了多项法案,旨在增强透明度、发展基于风险的框架等。拜登-哈里斯政府在十月份发布了关于安全、保障和可信赖的人工智能开发与使用的行政命令,列出了跨多个领域的指导方针,包括网络安全、隐私、偏见、公民权利、算法歧视、教育、工人权利和研究。此外,作为七国集团(G7)的一部分,政府最近还推出了AI行为准则。

同样,欧盟也在推动其提议的AI立法——欧盟AI法案。这项法规针对那些可能侵害个人权利的高风险AI工具,特别是在航空等行业。欧盟AI法案强调高风险AI的基本控制措施,包括稳健性、隐私、安全性和透明度。被认定为不当风险的系统将被禁止投放市场。

尽管关于政府在AI监管中角色的讨论仍在继续,但有效的管理既对政府也对企业有益。实现创新与监管之间的平衡可以在保护组织免受不必要的风险的同时,赋予其竞争优势。

企业在AI治理中的角色

企业有责任减轻与AI技术相关的风险。生成式AI对大量数据的依赖引发了重要的隐私问题。如果缺乏适当的管理,消费者信任和忠诚度可能会下降,因为客户担心其敏感信息的使用方式。此外,企业还必须意识到与生成式AI相关的潜在责任。如果AI生成的材料与现有作品相似,企业可能面临版权侵权的指控,从而承担法律和财务风险。

我们必须认识到,AI的输出可能会复制社会偏见,将其嵌入影响资源分配和媒体曝光的决策系统中。有效的治理应包括建立坚实的流程,以最小化偏见风险。这意味着在审查参数和数据时,需与相关利益方进行沟通,促进多样化的劳动力,并优化数据集,以产生被视为公平的输出。

展望未来,建立强有力的治理机制至关重要,以保护个人权利,同时促进颠覆性AI技术的发展。

监管实践框架

实施尽职调查可以降低风险,但建立强有力的监管框架同样重要。企业应关注以下关键方面:

识别和应对已知风险

对于不受控制的AI可能带来的最紧迫威胁,观点虽有差异,但已达成共识的各种担忧包括就业流失、隐私侵犯、数据保护、社会不平等和知识产权问题。企业应评估与其运营相关的特定风险。通过对这些风险达成共识,组织可以制定指导方针,主动应对和管理风险。

例如,我所在的公司Wipro已经制定了一个以四大支柱为基础的框架,旨在促进负责任的AI驱动的未来,重点关注个人、社会、技术和环境等方面。该框架为企业建立与AI系统交互的稳健指导方针提供了一种方法。

增强治理实践

利用AI的组织必须优先考虑治理,以确保在AI生命周期内的责任和透明度。实施治理结构有助于记录模型培训过程,从而降低模型不可靠性、引入偏见和变量关系变化的风险。

AI系统本质上是社会技术系统,由数据、算法和人类参与构成。因此,将技术与社会考虑因素整合到监管框架中至关重要。企业、学术界、政府和社会之间的协作是必要的,以防止同质化群体开发AI解决方案,从而导致未预见的挑战。

伊凡娜·巴托莱蒂是Wipro Limited的全球首席隐私官。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles