Slack的数据使用及机器学习模型训练:您需要了解的事项
Slack在未经用户明确同意的情况下,通过用户消息、文件及其他内容训练其机器学习模型。这一过程采用的是“选择退出”模式,意味着默认情况下会收集您的私人数据。如要撤回数据,您必须请求您所在组织的Slack管理员(如人力资源或IT部门)直接联系Slack,这一繁琐的要求加剧了隐私担忧。
DuckBill Group的高管Corey Quinn在发现Slack隐私政策中的相关条款后,指出了这一问题。条款中写道:“为开发AI/ML模型,我们的系统会分析提交给Slack的客户数据(如消息、内容和文件)以及隐私政策和客户协议中定义的其他信息(包括使用信息)。”
针对隐私问题,Slack发布了一篇博客,澄清了其数据使用情况。公司声称,客户数据不会用于训练其生成性AI产品,这些产品依赖于第三方大型语言模型(LLM)。相反,这些数据支持机器学习模型,用于频道推荐和搜索结果等功能。重要的是,Slack声明这些模型使用的是去标识化的聚合数据,而不会访问直接消息、私有频道或公共频道中的内容。该数据可能包括非可识别的信息,如消息时间戳和用户互动计数。
Salesforce的一位发言人也重申了这一点,表示:“我们并不会以任何方式构建或训练这些模型,以至于它们能够学习、记忆或重现客户数据。”
然而,想要选择退出的用户面临着重大障碍。根据隐私通知,选择退出的过程要求组织负责人联系Slack的客户体验团队,提供其组织的URL和主题“Slack全球模型选择退出请求。”只有在处理完这一请求后,用户才能撤回数据使用权限。
尽管Slack对Quinn的关注作出了回应,强调其平台级机器学习模型与生成性AI产品之间的区别,但选择退出的条款仍显模糊。尤其是“客户”一词并未涵盖使用Slack的员工,使他们不得不依赖工作场所的管理人员来保护自己的数据。
Slack隐私政策中的不一致性进一步复杂化了这一情况。一部分明确指出,Slack在开发AI/ML模型时无法访问基础内容,引用了技术措施。然而,这与机器学习模型训练政策相矛盾,导致用户混淆。
此外,Slack为其高级生成性AI工具所做的宣传网页上声明:“您的数据就是您的数据。我们不会用它来训练Slack AI。一切都在Slack的安全基础设施上运行,符合与Slack本身相同的合规标准。”尽管这一声明令人安心,但可能会误导用户相信他们的数据完全安全,实际上不同类型模型的现实情况更为复杂。
总之,Slack目前在数据使用及机器学习训练方面的做法对用户隐私构成重大挑战。用户必须保持警惕,主动理解和保护自己在平台上的数据权利。