泰勒·斯威夫特成为AI受害者:深入探讨深度伪造的困境

当性别露骨的泰勒·斯威夫特深度伪造视频在社交媒体平台X(前身为推特)走红时,数以百万计的粉丝在#保护泰勒·斯威夫特标签下团结起来。尽管他们的努力帮助压制了这些令人不快的内容,但事件依然引起了广泛的媒体关注,并引发了关于深度伪造技术危险的重要讨论。白宫新闻发言人卡琳·让-皮埃尔甚至呼吁立法措施,以保护个体免受有害的AI生成内容侵害。

尽管斯威夫特事件令人震惊,但这并非个例。近年来,名人和影响者愈发成为深度伪造的牺牲品,随着AI技术的发展,名誉受损的风险势必加大。

深度伪造与AI技术的崛起

“仅需一段简短的视频,你就可以创造出一段基于剧本对话的新视频。虽然这可以很有趣,但也意味着任何人都可以生成误导性内容,从而冒着名誉受损的风险。”Attestiv首席执行官尼科斯·维基亚里德斯指出。

随着深度伪造内容创建工具变得更加易得且复杂,在线环境中充满了欺骗性的图像和视频。这引发了一个重要问题:个人如何能够辨别真实与操控?

深度伪造的含义

深度伪造是利用深度学习技术创建的真实感虚假图像、视频或音频。尽管这些操控技术已存在数年,但它们在2017年底通过一位名为“深度伪造”的Reddit用户分享的AI生成色情内容而声名鹊起。最初依赖复杂的技术进行面部交换,近年来的进步使这一能力变得普及,几乎任何人都可以通过DALL-E、Midjourney、Adobe Firefly和Stable Diffusion等平台创造出对公众人物的逼真操控。

生成式AI的崛起使得恶意行为者能够利用技术中的微小漏洞。例如,独立科技媒体404 Media发现,泰勒·斯威夫特的深度伪造视频是通过规避微软AI工具中的安全限制制作的。类似的技术也曾用来创造误导性图像,例如教皇弗朗西斯和模仿总统拜登的音频。

易于获取的危险

深度伪造技术的可获取性带来了严重的风险,可能损害公众人物的声誉,误导选民,并助长金融欺诈。迈克菲首席技术官史蒂夫·格罗布曼指出,诈骗者正在结合真实的视频素材与虚假的音频,利用诸如斯威夫特等名人的克隆形象欺骗观众。

根据Sumsub的身份欺诈报告,2023年全球检测到的深度伪造数量增加了十倍,其中加密货币行业受影响最为严重,占比88%,金融科技业次之,占比8%。

公众的担忧加剧

公众对深度伪造的担忧日益明显。迈克菲的2023年调查显示,84%的美国人担心深度伪造技术在2024年的滥用情况,其中超过三分之一的人报告了与深度伪造诈骗相关的个人经历。

随着AI技术的不断成熟,区分真实内容与操控媒体变得越来越困难。Sumsub的AI与机器学习负责人帕维尔·戈尔曼-卡拉伊丁警告说,原本被视为有益的技术进步如今对信息的完整性和个人安全构成了威胁。

如何检测深度伪造

为应对深度伪造的传播,政府和组织需要具备区分真实内容与虚假内容的能力。专家建议采用两种主要检测方法:分析内容中的微小差异和验证内容源的真实性。

目前,AI生成的图像可能逼真至极,而AI生成的视频也在快速进步。然而,某些不一致性往往揭示其人为特征,例如不自然的手部动作、扭曲的背景、光线不足或数字伪影。维基亚里德斯强调,注意缺失的阴影或过于对称的面部特征等细节可能是操控的指示。

随着技术的发展,这些检测方法可能会变得更加困难,因此在接触可疑媒体时,需要保持警惕。Rouif建议用户评估内容的意图,并考虑来源的潜在偏见。

为帮助验证工作,科技公司正在开发先进的检测解决方案。谷歌、ElevenLabs和迈克菲都在探索识别AI生成内容的方法,迈克菲报告称其检测恶意音频的准确率达到了90%。

在这个充斥着欺骗性媒体的环境中,了解深度伪造的含义和风险至关重要。保持信息灵通并保持怀疑态度,可以使公众在这复杂的数字环境中更加从容自如。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles