要确保生成性人工智能的安全,需做哪些准备?
IBM和亚马逊网络服务(AWS)最近的一项研究表明,确保生成性人工智能(生成性AI)的安全并没有简单的解决方案。根据IBM商业价值研究所对美国高管的调查报告,安全性在AI计划中至关重要。高达82%的高管领导认为,安全可信的人工智能是商业成功的关键。
然而,实际行动与意图之间存在明显差距:目前,组织仅对24%的生成性AI项目进行了安全保护。PwC的报告也反映了这一担忧,其中指出77%的首席执行官对AI网络安全风险表示担忧。
为了解决这些挑战,IBM与AWS合作提升生成性AI的安全性。今日,他们发布了针对AI的IBM X-Force Red测试服务,旨在推动生成性AI安全措施的进步。
创新与安全的两难
虽然确保技术安全似乎是基础,但许多组织在创新与安全之间更倾向于创新。报告指出,69%的组织优先考虑创新,往往忽视了全面的安全措施。IBM咨询的全球高级合伙人Dimple Ahluwalia观察到,领导者面临着使用生成性AI进行创新的压力,因此安全往往成为事后考虑。
Ahluwalia指出:“正如云计算早期阶段的情况,许多人在没有充分的安全规划下急于进入生成性AI,从而妥协了安全性。”
建立有效的AI安全框架
为了在生成性AI中建立信任,组织必须实施强有力的治理。这包括制定与商业目标一致的政策、流程和控制——81%的高管认为,新的治理模型对确保生成性AI至关重要。
一旦建立了治理框架,组织就可以制定全面保护AI流程的策略。这需要安全、技术和业务团队之间的协作,同时利用技术合作伙伴的专业知识,以进行战略开发、培训、成本合理化及合规性导航。
IBM X-Force Red AI测试服务
除了治理,验证和测试对确保安全也至关重要。IBM X-Force Red AI测试服务是IBM专为AI设计的首个测试服务。该服务汇集了一支专注于渗透测试、AI系统和数据科学的多元化专家团队,利用IBM研究和对抗稳健性工具箱(ART)的洞见。
“红队”测试是一种主动安全策略,通过采用对抗性手段来识别漏洞。IBM X-Force Red全球负责人Chris Thompson解释道,重点已经转向了测试AI模型的安全性,尽管传统红队战术中对隐蔽性和规避性的研究相对较少。
Thompson指出:“对生成性AI应用的攻击性质类似于传统应用安全威胁,但具有独特的变化和更广泛的攻击面。”
随着进入2024年,IBM正在见证策略的融合,形成真正的红队测试方法。该方法涵盖四个关键领域:AI平台、机器学习流程的调优和培训环境、生成性AI应用的生产环境以及这些应用本身。
Thompson总结道:“与我们传统的红队努力一致,我们的目标是发现未察觉的威胁机会,并加快对这些创新AI解决方案潜在威胁的检测速度。”