在今天的微软 Ignite 大会上,微软宣布在 Microsoft Purview 中推出增强的数据安全和合规性功能,旨在保护生成式 AI 系统(如 Copilot)中使用的信息。这些新功能将使 Microsoft 365 用户能够管理 AI 编码助手的数据访问权限,自动对响应中的敏感信息进行分类,并围绕大型语言模型(LLM)的使用建立合规控制。
微软领导者的见解
微软数据安全、合规与隐私总经理 Herain Oberoi 和企业副总裁 Rudra Mitra 讨论了他们对这一技术的创新方法,强调数据在 AI 中的基础作用。Oberoi 表示:“数据实质上是 AI 的基础。AI 的质量取决于输入的数据,因此它是一个至关重要的组成部分。”
Mitra 提到:“通过 Purview,微软致力于保护 AI 的未来及其使用的数据的完整性。这种负责任的方法至关重要。”
对 Copilot 风险和使用的可见性
Purview 中的新 AI 中心将为管理员提供 Copilot 使用情况的见解,使他们能够监控员工与 AI 的互动并评估相关风险。根据用户风险档案,敏感数据将被限制输入 Copilot,AI 生成的输出将贴有原始数据的保护标签。
Mitra 强调:“这不仅是关于了解 Microsoft 的 Copilot,更重要的是要看到客户的全面情况。”
合规政策扩展至 Copilot
Purview 的审计、保留和通信监测功能现在将扩展到与 Copilot 的互动。这只是开始,微软计划将 Purview 的保护范围扩大至内部开发的 AI 和 ChatGPT 等第三方应用程序。
随着 AI 即将普及,微软正致力于在企业 AI 系统中成为负责任和伦理数据使用的领导者。强有力的数据治理对于确保隐私和防止滥用在这个不断发展的科技环境中至关重要。
然而,实现真正负责任的 AI 需要整个科技行业的共同努力。竞争对手如 Google、Amazon 和 IBM 也必须将数据伦理置于优先位置;没有用户的信任,AI 无法发挥其全部潜力。
未来清晰可见——企业在寻求创新解决方案的同时,也在关注强大的数据保护。优先考虑信任的公司将为 AI 驱动的未来铺平道路。