Slack 利用您的聊天數據來提升機器學習模型,以改善用戶體驗

Slack的數據使用與機器學習模型訓練:你需要了解的事情

Slack在沒有明確獲得同意的情況下,利用用戶消息、文件及其他內容進行機器學習模型的訓練。這項訓練基於自動選擇加入,即預設會收集你的私密數據。若希望退出此過程,必須請求組織的Slack管理員(如人力資源或IT部門)直接聯繫Slack,這一不便的要求加劇了隱私擔憂。

DuckBill Group的高管Corey Quinn發現這一問題後,指出它被埋藏在Slack的隱私原則中。相關內容指出:「為了發展AI/ML模型,我們的系統分析提交至Slack的客戶數據(例如消息、內容和文件)及其他信息(包括使用信息),具體定義見我們的隱私政策及客戶協議。」

針對隱私問題,Slack發表了一篇部落格文章,闡明其數據使用情況。公司強調,客戶數據不會用於訓練其任何生成性AI產品,這些產品依賴第三方大型語言模型(LLMs)。相反,這些數據支持機器學習模型的功能,例如頻道推薦和搜索結果。重要的是,Slack聲稱這些模型利用的是去識別化的匯總數據,而不會訪問直接消息內容、私密頻道或公開頻道中的數據。這些數據可能包括不具識別性的資訊,如消息時間戳和用戶互動次數。

Salesforce的發言人也重申了這一保證,表示:「我們不會以任何方式構建或訓練這些模型,使其能夠學習、記住或再現客戶數據。」

然而,想要選擇退出的用戶面臨重大障礙。根據隱私通知,選擇退出過程要求組織擁有者聯繫Slack的客戶體驗團隊,並提供其組織的URL及主題「Slack全球模型選擇退出請求」。只有在處理完此請求後,用戶才能撤回數據的使用權限。

儘管Slack對Quinn的擔憂作出了回應,強調其平臺級機器學習模型與生成性AI產品之間的區別,但選擇退出的表述仍然含糊。值得注意的是,「客戶」一詞並未涵蓋使用Slack的員工,使他們必須依賴工作場所有關負責人來保護數據。

Slack的隱私政策中的不一致之處進一步複雜化了情況。一部分內容指出,Slack在開發AI/ML模型時無法訪問底層內容,並引用了技術措施。然而,這與機器學習模型訓練政策相矛盾,造成了用戶的混淆。

此外,Slack的高級生成性AI工具推廣頁面聲稱:「你的數據就是你的數據。我們不會用它來訓練Slack AI。一切運行在Slack的安全基礎設施上,符合與Slack自身相同的合規標準。」這一聲明雖令人放心,卻可能使用戶誤以為他們的數據完全安全,未能反映使用的不同模型背後的微妙現實。

總而言之,Slack目前有關數據使用和機器學習訓練的做法對用戶隱私提出了重大挑戰。用戶必須保持警惕,積極理解並保護他們在平臺上的數據權利。

Most people like

Find AI tools in YBX