Slackのデータ使用と機械学習モデルのトレーニング: 知っておくべきこと
Slackは、ユーザーのメッセージやファイルなどのコンテンツを使用して機械学習モデルをトレーニングしていますが、明示的な同意を得ることはありません。このトレーニングはオプトアウト方式で、初期設定ではあなたのプライベートデータが自動的に収集されます。このプロセスからデータを除外するには、組織のSlack管理者(人事やIT担当など)に依頼し、Slackに直接連絡を取ってもらう必要があります。これは非常に手間がかかる要件で、プライバシーへの懸念を深めています。
DuckBill Groupのエグゼクティブ、コーリー・クイン氏は、Slackのプライバシー原則の中に埋もれているこの問題を指摘しました。その関連部分には次のように記載されています。「AI/MLモデルを開発するために、私たちのシステムはSlackに送信された顧客データ(メッセージ、コンテンツ、ファイルなど)やプライバシーポリシーおよび顧客契約に定義された他の情報(使用情報を含む)を分析します。」
プライバシーへの懸念に応えて、Slackはブログ投稿でデータ使用についての説明を行っています。同社は、顧客データがその生成AI製品のトレーニングには使用されないと主張しています。これらの製品は、第三者の大規模言語モデル(LLM)に依存しています。代わりに、このデータはチャンネル推奨や検索結果などの機能のための機械学習モデルのサポートに利用されます。重要なのは、Slackが直接メッセージ(DM)、プライベートチャンネル、またはパブリックチャンネルの内容にアクセスすることなく、匿名化された集計データを利用すると主張している点です。このデータには、メッセージのタイムスタンプやユーザーのインタラクション数などの識別不可能な情報が含まれる可能性があります。
Salesforceのスポークスパーソンもこの安心感を強調し、「私たちはこれらのモデルを、顧客データを学習したり記憶したり再現したりできる形で構築したり訓練したりはしません」と述べました。
しかし、オプトアウトを希望するユーザーには大きな障害が立ちはだかります。プライバシー通知によると、オプトアウトプロセスでは、組織のオーナーがSlackのカスタマーエクスペリエンステームに連絡し、自組織のURLと「Slackグローバルモデルオプトアウトリクエスト」という件名を指定しなければなりません。このリクエストが処理された後でのみ、ユーザーはデータの利用を停止できます。
Slackはクイン氏の懸念に応え、プラットフォームレベルの機械学習モデルと生成AI製品の違いを強調しましたが、オプトアウトの文言は依然として曖昧です。「顧客」という用語にはSlackを利用している従業員が含まれず、彼らはデータ保護のために職場の管理者に依存することになります。
さらに、Slackのプライバシーポリシーには矛盾が見られ、あるセクションではAI/MLモデルを開発する際に基盤となるコンテンツにアクセスできないと述べている一方で、機械学習モデルのトレーニング方針とは矛盾しています。これによりユーザーの混乱を招いています。
また、Slackのプレミアム生成AIツール向けのプロモーションページでは、「あなたのデータはあなたのものです。私たちはそれをSlack AIのトレーニングには使用しません。すべてはSlackの安全なインフラ上で運営され、Slack自身と同じコンプライアンス基準を満たしています」と述べています。この声明は安心を提供する一方で、異なるモデルに関する微妙な現実にも関わらず、ユーザーを誤解させる可能性があります。
総じて、Slackのデータ使用と機械学習トレーニングに関する現在の実践は、ユーザーのプライバシーに対して重大な課題を提起しています。ユーザーはプラットフォーム内で自らのデータ権を理解し、保護するために慎重かつ積極的である必要があります。