近年来,人工智能(AI)技术的迅猛发展导致了AI生成内容的激增,包括超真实的图像、视频和文本。然而,这一潮流也引发了关于虚假信息和欺骗的严重担忧,使我们难以分辨现实与虚构。
这种被合成内容所淹没的忧虑是有依据的。自2022年以来,AI用户共创作了超过150亿幅图像。这个惊人的数字相当于人类在之前150年间所创造的内容。
海量的AI生成内容带来了我们才刚开始理解的挑战。历史学家可能很快需要将2023年后的互联网视为与之前根本不同的现象,这类似于原子弹的发展对放射性碳定年法的影响。越来越多的谷歌图像搜索结果是AI生成的,而在以色列/加沙冲突中被指控的战争罪行实例有时被误认为是AI创作的。
AI内容中的嵌入签名
深度伪造(Deepfake)利用机器学习算法生成模仿人类表情和声音的虚假内容。OpenAI最近推出的文本转视频模型Sora,突显了虚拟现实与物理现实之间的界限正在迅速模糊。面对日益增长的关注,科技巨头们正在采取措施减轻AI生成内容的潜在滥用。
今年2月,Meta在Facebook、Instagram和Threads等平台上推出了贴标签的举措,标识使用其AI工具生成的图像。这包括可见标记、隐形水印和详细元数据,以表明其人工来源。谷歌和OpenAI随后也宣布了类似的措施,致力于在AI生成内容中嵌入“签名”。
这些举措得到了内容来源和真实性联盟(C2PA)的支持,C2PA旨在追踪数字文件的来源,并区分真实和操控的内容。尽管这些努力促进了内容创作的透明度和问责制,但问题依然存在:这些措施是否足以防范这一不断发展的技术可能导致的滥用?
谁来定义现实?
在检测工具的实施中,出现了一个关键问题:这些工具能否在不被利用的情况下普遍有效?这引出了一个亟待回答的问题:谁有权定义现实?在我们真正解决AI生成内容的潜力之前,理解这一点至关重要。
2023年Edelman信任晴雨表显示,公众对机构管理技术创新的能力存有显著怀疑。报告指出,全球范围内,公众对创新管理不善的怀疑几乎是认为创新管理良好的两倍(39%对22%)。许多人对技术变革的步伐及其对社会的影响表示关注。
这种怀疑加剧了一个观察,即随着对策的改善,它们所要解决的挑战也在不断演变。如果我们希望水印措施有效重建公众对技术创新的信任,这是至关重要的。
正如我们所见,赢得信任并非易事。例如,谷歌的Gemini因图像生成偏见受到批评,令公司面临尴尬。随之而来的道歉强调了此类事件对公众认知的持久影响。
科技透明度的必要性
最近,OpenAI首席技术官米拉·穆拉提在一段视频中因无法具体说明用于训练Sora的数据而引发了广泛关注。考虑到数据质量的重要性,首席技术官无法就训练数据提供清晰答案令人担忧。她对后续问题的忽视进一步发出了警示,表明透明度在科技行业应被优先考虑。
未来,建立透明度和一致性的标准至关重要。推动公众了解AI工具、明确标记实践以及对错误的问责都是建立值得信赖环境的关键组成部分。关于出现问题的沟通同样重要。
如果缺乏这些措施,水印可能仅作为一种表面解决方案,无法根本性地解决虚假信息和对人工内容信任下降的挑战。正如当前事件所示,选举干预的深度伪造(deepfake)问题已然成为生成性AI的突出问题。在全球大部分人口即将投票的背景下,解决这一问题对内容的真实性未来至关重要。