最近的一项调查显示,美国商业领导者越来越支持全面的人工智能(AI)监管和治理,原因在于对数据隐私、安全风险以及人工智能技术伦理应用的日益关注。该研究由数据智能公司Collibra委托Harris Poll进行,提供了组织在应对AI采用和监管挑战方面的宝贵见解。
调查涵盖了307位担任总监及以上职务的美国成年人,结果显示,84%的数据、隐私和AI决策者支持更新美国版权法,以防止AI的滥用。这反映了快速技术进步与现有法律框架之间日益严重的脱节。
Collibra共同创始人兼首席执行官Felix Van de Maele表示:“人工智能从根本上改变了技术供应商与内容创作者之间的关系。生成式AI工具的快速部署迫使我们重新评估‘合理使用’并需要将已有数百年的美国版权法适用于现代技术。”
Van de Maele强调了公平性的重要性。他指出:“内容创作者应当获得更透明的保护和合理的报酬。数据是AI的基础,需要高质量、可靠的来源,例如受版权保护的材料,以生成可靠的输出。因此,创作者理应得到应有的报酬和保护。”
对更新版权法的呼声恰逢针对AI公司的高调诉讼不断增加,这些诉讼主要涉及AI利用版权材料进行训练的复杂问题。此外,调查显示,81%的受访者支持大型科技公司对其AI模型训练中使用的个人数据进行赔偿,表明在AI时代对个人数据价值的认识正在转变。
Van de Maele表示:“无论规模大小,所有内容创作者在其数据被利用时都应获得赔偿和保护。随着我们对数据人才的重视增加,内容创作者与‘数据公民’(在角色中负责编用数据的个人)之间的界限将日益模糊。”
调查还显示,在对AI监管的支持上,受访者普遍倾向于联邦和州级的监管,而非国际监管,这反映了美国当前的监管现状。在缺乏全面联邦指导的情况下,像科罗拉多州等州开始制定自己的AI监管政策。
Van de Maele指出:“科罗拉多州在全面AI监管方面树立了先例,尽管有人认为这似乎为时已晚,但无疑显示出保护企业和公民的必要性。没有明确的联邦指导,企业将更依赖州政府的指引。”
有趣的是,调查显示大公司与小公司在政府AI监管支持上存在显著差异。员工超过1000人的大公司表现出更强烈的支持,而员工在1到99人之间的小公司则表现得更加谨慎。Van de Maele解释称,这种差异可归因于资源和风险与投资回报的关系:“小公司通常对新技术持谨慎态度,普遍认为AI是专门为大型科技公司设计的,需要大量投资,可能会干扰已建立的运营模式。”
受访者对自己公司的AI项目充满信心,但在信任政府与大型科技公司的层面却存在差距,这对政策制定者和行业领导者在塑造AI监管未来构成挑战。
隐私和安全问题被认为是美国有效AI监管的主要威胁,64%的受访者指出这些问题尤为严重。对此,Collibra等公司正在开发解决方案以增强AI治理能力。Van de Maele解释说:“没有适当的AI治理,隐私问题和安全风险的可能性将增加。”Collibra推出了Collibra AI Governance,旨在促进各团队之间的协作,确保AI项目符合法律和隐私标准,降低数据风险,并优化绩效和投资回报。
随着AI技术的推进,调查显示75%的受访者认为他们的公司优先考虑AI培训和技能提升,反映出就业市场的重大变革。
展望未来,Van de Maele列出了美国AI治理的关键优先事项:将数据视为重要资产,建立可信框架,培养数据人才,并在负责的AI之前强调负责任的访问。
他强调:“治理必须超越IT,数据治理应关注数据质量而非仅仅是数量。”
这些调查结果凸显了在AI持续重塑行业并挑战现有监管框架的背景下,全面治理策略的迫切需求。企业虽然积极采纳AI技术,但也深知其中的风险,并渴望从政策制定者那里获得明确的指导,以促进负责任的发展和应用。
未来几年,政府、行业和公民社会之间必将展开激烈讨论,努力创造一个既能促进创新,又能保护个体权利并提倡道德AI实践的监管环境。各规模企业需保持信息灵通和灵活应对,强调强有力的数据治理和AI伦理,以驾驭未来的挑战和机遇。