安全团队越来越多地考虑使用像ChatGPT这样的创新工具来增强其威胁检测策略。根据Gartner的高级总监兼分析师Dennis Xu的说法,虽然像ChatGPT这样的生成式人工智能工具对安全专业人员具有潜力,能够在检测工程和培训等领域提供支持,但其高级版本的费用可能成为障碍。
在伦敦举行的Gartner安全与风险管理峰会上,Xu指出,基于GP-3.5 Turbo模型的免费基础版ChatGPT在上下文保持和编程任务上表现不佳。因此,安全专业人员可能需要选择每月20美元的ChatGPT Plus或新的ChatGPT Enterprise版本,以满足他们所需的功能。随着组织规模的扩大,这些费用可能会根据用户数量大幅增加。
Xu强调,Enterprise版本在数据控制方面优于基础和Plus版本,但他警告说,这个版本可能尚未完全准备好投入使用。尽管存在这一局限性,很多主要的安全供应商仍在积极开发生成式AI功能。例如,Cisco收购Splunk旨在增强数据分析能力,而Privacera在六月推出了一种生成式AI解决方案。此外,Nvidia还推出了其深度学习安全软件库Morpheus,作为AI Enterprise 3.0套件的一部分。Xu观察到,许多公司正将ChatGPT的自然语言接口整合到现有产品中,以简化功能。
虽然WormGPT和FraudGPT等创新安全工具开始出现,并旨在“欺骗骗子”,但Xu警告说,使用这些解决方案也需要投资。他指出,像ChatGPT这样普遍可用的模型也可以执行类似的功能,例如生成网络钓鱼邮件。这种情况导致Xu所称的AI安全世界中的“军备竞赛”,其中恶意行为者往往占据优势。“只需每月20美元,恶意用户就可以开发恶意软件或创建网络钓鱼邮件,而防御者要实现类似效率却面临更高的成本,”他强调。
理解AI工具的局限性至关重要。Xu将ChatGPT比作经过大量数据集训练的五岁孩子:它在某些安全任务中可能有用,但在其他任务上则不堪重负。“你根本不会问五岁孩子的一些问题,”他打趣道,强调现实预期和验证的重要性。在安全运营(SecOps)领域,判断AI生成的见解的准确性可能是一个挑战。
Xu还注意到,在漏洞管理或攻击面管理方面,尚缺乏稳健的使用案例,只有谷歌的Sec-PaLM被认定为唯一能识别恶意脚本的成熟威胁检测语言模型。然而,他提到,这一工具仍在早期阶段,尚未公布基准。
对于希望实施像ChatGPT这样AI工具的安全团队,建立明确的治理规则和操作手册至关重要。“了解何时以及如何利用AI工具,并指定明确的SecOps用例,”他建议。Xu强调避免涉及敏感企业数据的时间敏感案例,同时建议组织提供AI互动培训并实施监控协议。
了解AI漂移同样关键。生成式AI工具可能对相同查询给出不一致的响应。此外,Xu还鼓励团队关注技术本身的更新。例如,OpenAI最近为ChatGPT引入了新功能GPT-4V,支持语音和图像交互。Xu对这种潜力表示兴奋,设想团队可以通过拍照并请求诊断的方式,以更直观的方式与系统互动。
总的来说,尽管像ChatGPT这样的AI工具有望通过简化工作流程来帮助安全专业人员,但它们并不打算取代人类的专业知识。Xu警告说:“这项技术仍然是一个五岁的孩子”,需要不断学习,强调在这些工具不断发展时合理有效地使用它们的重要性。