Menlo安全报告:人工智能应用带来的网络安全威胁上升

新的研究报告显示,企业快速采用生成式人工智能所带来的网络安全挑战日益紧迫。随着 ChatGPT 等工具成为日常工作流的重要组成部分,企业必须重新评估其安全策略。

“员工在日常工作中广泛使用 AI。我们的安全控制措施不仅要阻止滥用,还要防止失控的访问,”Menlo Security 的产品市场副总裁安德鲁·哈丁在专访中表示。“尽管生成式 AI 在企业中的应用显著增长,安全和 IT 团队依然面临持续的挑战。我们需要有效的工具,对 AI 应用施加强有力的控制,从而帮助首席信息安全官(CISO)管理风险,同时利用生成式 AI 的生产力优势。”

AI 使用激增,风险亟需关注

Menlo Security 的报告显示,企业访问生成式 AI 网站的次数在过去六个月中激增超过 100%,而频繁用户的数量增幅达到 64%。这种快速融合暴露了新的脆弱性。

尽管许多组织在增强生成式 AI 的安全措施,但研究发现大部分公司仍在实施低效的逐域政策。哈丁强调:“组织在加强安全方面做出了努力,但他们的方法仍然存在不足。逐域政策无法满足安全需求。”

这种支离破碎的方法难以跟上新生成式 AI 平台的出现。报告指出,过去六个月中尝试向生成式 AI 网站上传文件的事件增加了 80%,这主要是由于新功能的推动。这些风险不仅限于潜在的数据丢失。

专家警告,生成式 AI 可能显著加剧钓鱼攻击的威胁。哈丁表示:“智能化的 AI 钓鱼攻击只是更高明的钓鱼手段。企业需要实时保护,防止 AI 驱动的诈骗问题日益严重。”

从新奇到必需品

随着 ChatGPT 的推出,生成式 AI 从技术新奇物转变为商业必需品。OpenAI 于 2018 年 6 月首次推出了其生成式 AI 系统 GPT-1,随后 Google Brain 于 2022 年 4 月推出了具有5400亿参数的 PaLM。

公众对 AI 的兴趣在2021年初 DALL-E 的发布中激增,但 ChatGPT 在 2022 年 11 月的首次亮相真正引起了广泛关注。用户迅速将这些工具纳入各类任务,从撰写邮件到调试代码,展示了 AI 的多功能性。

然而,这种快速整合带来了经常被忽视的重大风险。生成式 AI 系统的安全性、伦理性和准确性仅得益于其训练数据的质量,它们可能无意中暴露偏见、传播错误信息,甚至泄露敏感数据。

此外,这些模型从互联网的广泛内容中提取数据,导致控制其输入内容的挑战。如果专有信息被公开发布,这些 AI 系统可能会无意中吸收并后续披露这些信息。

安全与创新的平衡

为了有效平衡安全与创新,专家呼吁采取多层次的方法。哈丁建议:“应实施复制和粘贴限制,建立安全政策,监控会话,并在生成式 AI 平台上执行群体级别的控制。”

组织必须从过去的技术变革中吸取教训。云计算和移动设备的引入自然带来了新的风险,促使安全策略不断适应。对生成式 AI 采取同样的积极主动的方法至关重要。

现在是采取行动的时刻。哈丁警告:“生成式 AI 网站访问和活跃用户数量都在上升,但安全和 IT 团队仍面临挑战。”

企业必须迅速发展其安全策略,以应对生成式 AI 快速普及带来的风险。在安全与创新之间取得平衡至关重要,否则生成式 AI 所带来的风险可能失控。

Most people like

Find AI tools in YBX