Slack nutzt Ihre Chat-Daten, um Maschinenlernmodelle zu verbessern und das Benutzererlebnis zu optimieren.

Slacks Datenverwendung und das Training von Machine-Learning-Modellen: Was Sie wissen müssen

Slack trainiert seine Machine-Learning-Modelle mit Benutzernachrichten, Dateien und anderen Inhalten, ohne eine ausdrückliche Einwilligung einzuholen. Dieses Training erfolgt standardmäßig auf Opt-out-Basis, was bedeutet, dass Ihre privaten Daten automatisch erfasst werden. Um Ihre Daten aus diesem Prozess zu entfernen, müssen Sie den Slack-Administrator Ihrer Organisation (z. B. HR oder IT) bitten, Slack direkt zu kontaktieren – ein umständliches Verfahren, das die Datenschutzbedenken verstärkt.

Corey Quinn, ein Führungskraft bei DuckBill Group, machte auf dieses Problem aufmerksam, nachdem er es in Slacks Datenschutzrichtlinien entdeckt hatte. Der relevante Abschnitt besagt: „Um AI/ML-Modelle zu entwickeln, analysieren unsere Systeme Kundendaten (z. B. Nachrichten, Inhalte und Dateien), die an Slack übermittelt werden, sowie andere Informationen (einschließlich Nutzungsinformationen), wie in unserer Datenschutzrichtlinie und in Ihrem Kundenvertrag definiert.“

In Reaktion auf Datenschutzbedenken veröffentlichte Slack einen Blogbeitrag, um seine Datenverwendung zu erläutern. Das Unternehmen betont, dass Kundendaten nicht zum Training seiner generativen KI-Produkte verwendet werden, die auf großen Sprachmodellen (LLMs) von Drittanbietern basieren. Stattdessen unterstützt diese Daten das Training von Machine-Learning-Modellen für Funktionen wie Kanalempfehlungen und Suchergebnisse. Wichtiger Hinweis: Slack behauptet, dass diese Modelle anonymisierte, aggregierte Daten nutzen, ohne Zugriff auf die Inhalte von Direktnachrichten in DMs, privaten Kanälen oder öffentlichen Kanälen zu haben. Diese Daten können nicht identifizierbare Informationen wie Zeitstempel von Nachrichten und Nutzerinteraktionszahlen enthalten.

Ein Sprecher von Salesforce bekräftigte diese Zusicherung mit den Worten: „Wir erstellen oder trainieren diese Modelle nicht so, dass sie Kundendaten lernen, speichern oder reproduzieren könnten.“

Allerdings stehen Benutzer, die sich abmelden möchten, vor erheblichen Hürden. Laut der Datenschutzerklärung erfordert der Opt-out-Prozess, dass die organisatorischen Verantwortlichen das Customer Experience-Team von Slack unter feedback kontaktieren und die URL ihrer Organisation sowie den Betreff „Slack Global model opt-out request“ angeben. Nur nachdem diese Anfrage bearbeitet wurde, können Benutzer ihre Daten von der Nutzung abmelden.

Obwohl Slack auf Quinna's Bedenken reagierte und den Unterschied zwischen seinen plattformbezogenen Machine-Learning-Modellen und generativen KI-Produkten betonte, bleibt die Formulierung zum Opt-out unklar. Auffällig ist, dass der Begriff „Kunden“ die Mitarbeiter der Organisationen, die Slack nutzen, nicht umfasst, was sie auf ihre Arbeitsplatzadministratoren angewiesen macht, um ihre Daten zu schützen.

Inkonsistenzen in Slacks Datenschutzrichtlinien erschweren die Situation zusätzlich. Ein Abschnitt gibt an, dass Slack keinen Zugriff auf die zugrunde liegenden Inhalte hat, wenn AI/ML-Modelle entwickelt werden, und verweist auf technische Maßnahmen. Dies steht jedoch im Widerspruch zur Richtlinie zum Training von Machine-Learning-Modellen, was bei den Nutzern Verwirrung stiften könnte.

Zudem behauptet Slacks Werbeseite für seine Premium-generativen KI-Tools: „Ihre Daten sind Ihre Daten. Wir verwenden sie nicht zum Trainieren von Slack AI. Alles läuft auf Slacks sicherer Infrastruktur, die den gleichen Compliance-Standards wie Slack selbst entspricht.“ Diese Aussage ist zwar beruhigend, könnte Nutzer jedoch in dem Glauben wiegen, dass ihre Daten vollständig vor KI-Training geschützt sind, obwohl die Realität bezüglich der verschiedenen genutzten Modelltypen nuancierter ist.

Zusammenfassend lässt sich sagen, dass Slacks aktuelle Praktiken hinsichtlich der Datenverwendung und des Trainings von Machine-Learning-Modellen erhebliche Herausforderungen für die Privatsphäre der Benutzer darstellen. Benutzer müssen wachsam und proaktiv sein, um ihre Datenrechte innerhalb der Plattform zu verstehen und zu schützen.

Most people like

Find AI tools in YBX