谷歌、微软与OpenAI在慕尼黑安全会议前宣布人工智能承诺

在网络安全领域,“防御者困境”揭示了一个严峻现实:防御者始终保持高度警觉,努力防止安全漏洞,而攻击者只需一个机会即可造成重大损害。为了解决这一无休止的循环,谷歌倡导将先进的人工智能(AI)工具融入网络安全策略中。

人工智能网络防御倡议公告

在2024年2月16日慕尼黑安全会议(MSC)之前,谷歌宣布了其“人工智能网络防御倡议”,并提出了与AI和网络安全相关的多项承诺。这一公告紧随微软和OpenAI的类似声明,强调“安全和负责任”使用AI在减轻对抗性威胁中的重要性。

当全球领导人齐聚MSC讨论国际安全政策时,各大科技公司迫切希望展示其在网络安全方面的积极态度。谷歌在博客中指出:“人工智能革命已经开始。我们对AI解决新一代安全挑战、创造可信数字世界的潜力感到兴奋。”

基于AI的安全承诺

在慕尼黑的会议上,来自不同领域的450多名决策者将探索技术、跨大西洋安全和全球治理等主题。MSC旨在促进技术监管及其对包容性安全与合作的影响的对话。

考虑到AI是领导者和监管者的重点关注领域,谷歌承诺投资于“人工智能准备基础设施”,提供新的防御工具,并推出AI安全培训计划。一个关键公告是成立新的“AI网络安全”团队,成员包括来自美国、英国和欧盟的17家初创公司。该倡议旨在通过国际化战略、AI工具和有效实施所需的技能加强跨大西洋网络安全生态系统。

谷歌的其他举措包括:

- 扩大1500万美元的Google.org网络安全研讨会项目,提升对欧洲欠发达社区的网络安全专业培训。

- 启动Magika,这是一个开源AI工具,用于文件类型识别,能够提高恶意软件检测的准确性,准确率提高了30%,对VBA和JavaScript等复杂内容类型的精准度提高了95%。

- 向芝加哥大学、卡内基梅隆大学和斯坦福大学等机构提供200万美元的研究资金,以增强代码验证和开发更具韧性的威胁检测算法。

此外,谷歌强调其在6月推出的安全AI框架的重要性,以指导组织实施AI安全最佳实践。谷歌表示:“AI安全技术必须从设计上和默认情况下都是安全的”,强调在加大针对性投资和有效监管框架方面的必要性,以最大限度地发挥AI的优势,同时遏制恶意使用。

共同努力应对恶意AI使用

在联合声明中,微软和OpenAI警告恶意行为者正在越来越多地将AI用作生产工具。OpenAI已撤销与中国、伊朗、北朝鲜和俄罗斯等国的国家支持威胁组关联的账户访问,指出他们的策略包括代码调试、网络钓鱼内容创建和情报收集。

这两家公司致力于确保AI技术的负责任使用,微软列出了重点关注识别恶意使用、与利益相关者合作以及向公众通报AI滥用的原则。

不断上升的网络威胁与AI的作用

谷歌的威胁情报团队报告称,网络威胁有所增加,攻击者的职业化和在地缘政治背景下对进攻能力的优先考虑是主要原因。中国、俄罗斯、北朝鲜和伊朗等国在攻防两方面都在大力投资AI,这在各个领域构成了重大风险。

攻击者正利用AI增强社会工程攻击,创建复杂的网络钓鱼方案以及进行信息操纵。谷歌警告,AI技术的发展可能显著增强恶意操作的能力。

相对而言,AI为防御者在漏洞检测、事件响应和恶意软件分析方面提供了显著优势。AI可以简化威胁情报处理、分类恶意软件并优先处理威胁,从根本上改变网络安全的格局。

谷歌自己的检测团队已经利用生成AI改善事件总结,提高了效率和结果质量。该公司还通过先进的处理模型实现了40%的垃圾邮件检测率提升,以及基于强大AI应用的代码验证过程中错误减少了15%。

最终,谷歌研究人员相信,“AI为逆转防御者困境提供了关键机会,使网络空间的平衡向防御者倾斜。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles