NIST新报告警示AI攻击威胁升级

美国国家标准与技术研究院(NIST)紧急发布了一份报告,针对日益增长的人工智能(AI)系统威胁进行探讨。这份名为《对抗性机器学习:攻击与缓解的分类与术语》的报告,恰逢人工智能系统日渐强大却也更加容易受到攻击的关键时刻。

对抗性机器学习(ML)技术使得攻击者能够微妙地操纵AI系统,潜在地导致严重故障。报告详细列出了这些攻击的手段,根据攻击者的目标、能力和对目标AI系统的了解情况进行了分类。

根据NIST的报告,攻击者可以故意混淆甚至“毒化”人工智能系统,使其发生故障,利用AI开发和部署中的脆弱性。报告讨论了多种攻击类型,包括“数据中毒”,即对手改变用于训练AI模型的数据。报告指出,“最近的研究表明,数据中毒可以在大规模上进行,甚至预算有限的对手也能影响公共数据集的模型训练。”

报告还强调了“后门攻击”的严重性,这种攻击方式是在训练数据中嵌入触发器,以后诱导特定的错误分类。报告警告称,“后门攻击防御起来极具挑战性。”

报告还涉及了与AI系统相关的隐私风险,例如“成员推理攻击”,可以揭示某个特定数据样本是否用于训练。NIST警告称:“目前尚无万无一失的方法防止AI系统的错误引导。”

虽然AI有潜力革新各行各业,但安全专家强调了谨慎的重要性。报告指出:“由近期深度学习进展推动的AI聊天机器人为各种商业应用提供了强大能力。然而,这项新兴技术的部署必须非常谨慎。”

NIST的目标是促使人们对AI安全挑战有共同的理解。这份报告将为面临不断演变威胁的AI安全社区提供重要的资源。

AppOmni的首席AI工程师与安全研究员乔瑟夫·萨克(Joseph Thacker)表示:“这是我见过的最佳AI安全出版物。其深度和覆盖面令人瞩目,提供了关于对抗性攻击AI系统的最全面见解。”

随着专家们继续应对新兴的AI安全威胁,显然我们正处于一场保护战中。更强的防御措施是当AI要跨行业安全集成之前所必需的,因为风险实在是过于重大。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles