Arnica CEO 预测生成性AI对DevOps安全解决方案的影响

最近的一场虚拟讨论邀请到了Arnica的首席执行官兼联合创始人Nir Valtman。Valtman在网络安全领域拥有丰富的经验,他曾担任Kabbage(被美国运通收购)的首席信息安全官,并在Finastra领导产品和数据安全工作,同时还在NCR管理应用程序安全。他是Salt Security的顾问委员会成员。

Valtman被视为行业中的创新力量,积极参与开源项目,拥有七项软件安全方面的专利,并且常常受邀在Black Hat、DEF CON、BSides和RSA等重大网络安全活动上发言。在他的引导下,Arnica正在开创下一代为开发者量身定制的应用安全工具。

以下是访谈摘录:

问:您如何看待生成式人工智能在网络安全领域在未来3-5年的发展?

Valtman: 我们正在逐步理解生成式人工智能可以带来最大效益的领域。它在应用安全上具有潜力,能够为开发者提供默认安全的工具,特别是帮助经验不足的开发者实现这一目标。

问:您正在关注哪些新兴技术或方法论,这些可能影响生成式人工智能在安全中的应用?

Valtman: 对于安全漏洞,需要可执行的修复路径。这个过程开始于优先考虑关键资产,识别负责的修复负责人,并有效地减轻风险。生成式人工智能将在风险修复中发挥关键作用,但这需要清晰的资产优先级和责任划分。

问:组织在哪些方面应优先投资,以最大化生成式人工智能在网络安全中的潜力?

Valtman: 组织应重点解决重复且复杂的问题,例如减轻特定类别的源代码漏洞。随着生成式人工智能展现出更多应用,投资重点将会逐步演变。

问:生成式人工智能如何将安全防护从被动转变为主动?

Valtman: 生成式人工智能要实现真正的预测性,必须在高度相关的数据集上进行训练。更精确的模型将增强对人工智能驱动决策的信心。建立这种信任需要时间,特别是在像安全这样的高风险领域。但一旦稳定,生成式人工智能工具可以在最小的人为干预下主动减轻风险。

问:为了将生成式人工智能纳入安全,组织需要进行哪些变革?

Valtman: 组织必须进行战略和战术上的调整。决策者需要了解AI技术的优缺点,并与公司的安全目标保持一致。从战术角度出发,预算和资源应配置用于将AI与资产、应用和数据发现工具集成,同时制定纠正措施手册。

问:生成式人工智能可能面临哪些安全挑战,如何解决?

Valtman: 数据隐私和泄露构成重大风险。减缓策略包括内部托管模型、在外部处理前对数据进行匿名化、并定期审计以确保合规。此外,模型完整性(例如模型中毒)问题需要进行彻底的漏洞评估和高级渗透测试。

问:生成式人工智能如何自动化威胁检测、安全补丁和其他过程?

Valtman: 生成式人工智能可以通过分析各种数据源(包括网络日志和交易记录)的历史行为来检测威胁。潜在的用例可能包括在软件开发中的威胁建模、具有足够测试覆盖率的自动补丁部署和自我改善的事件响应协议。

问:组织应该制定哪些计划或策略来应对生成式人工智能和数据保护?

Valtman: 组织必须建立清晰的数据收集、存储、使用和共享政策,确保角色和责任的明确定义。这些政策应与整体网络安全战略一致,以方便实施数据保护功能,如事件响应、 breach 通知及第三方风险管理。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles