تستخدم Slack بيانات المحادثات الخاصة بك لتعزيز نماذج التعلم الآلي، مما يؤدي إلى تحسين تجربة المستخدم.

استخدام البيانات وتدريب نماذج التعلم الآلي في Slack: ما تحتاج معرفته

تقوم Slack بتدريب نماذج التعلم الآلي الخاصة بها باستخدام رسائل المستخدمين، والملفات، ومحتوى آخر دون الحصول على موافقة صريحة. يتم هذا التدريب على أساس "الانسحاب"، مما يعني أن بياناتك الخاصة تُجمع بشكل افتراضي. لسحب بياناتك من هذه العملية، يجب عليك أن تطلب من مسؤول Slack في مؤسستك (مثل إدارة الموارد البشرية أو تكنولوجيا المعلومات) أن يتواصل مع Slack مباشرة—وهو مطلب غير مريح يضيف إلى مخاوف الخصوصية.

أبرز كوري كوين، أحد التنفيذيين في DuckBill Group، هذه المشكلة بعد اكتشافها في مبادئ الخصوصية الخاصة بـ Slack. يشير القسم المعني إلى أن: "لتطوير نماذج الذكاء الاصطناعي/التعلم الآلي، تقوم أنظمتنا بتحليل بيانات العملاء (مثل الرسائل والمحتوى والملفات) المقدمة إلى Slack بالإضافة إلى معلومات أخرى (بما في ذلك معلومات الاستخدام) كما هو محدد في سياسة الخصوصية الخاصة بنا وفي اتفاقية العملاء الخاصة بك."

استجابةً لمخاوف الخصوصية، أصدر Slack منشورًا في مدونته يوضح استخدامه للبيانات. تؤكد الشركة أن بيانات العملاء لا تُستخدم لتدريب أي من منتجات الذكاء الاصطناعي التوليدية، التي تعتمد على نماذج لغوية كبيرة مقدمة من جهات خارجية. بدلاً من ذلك، تدعم هذه البيانات نماذج التعلم الآلي للميزات مثل توصيات القنوات ونتائج البحث. ومن المهم أن تؤكد Slack أن هذه النماذج تستخدم بيانات غير معرّفة ومجمعة دون الوصول إلى محتوى الرسائل المباشرة في الرسائل المباشرة، أو القنوات الخاصة، أو العامة. قد تتضمن هذه البيانات معلومات غير قابلة للتحديد مثل توقيت الرسائل وعدد تفاعلات المستخدمين.

أعرب متحدث باسم Salesforce عن هذا الطمأنينة، مشيرًا إلى أن "نحن لا نبني أو ندرب هذه النماذج بطريقة تمكنها من التعلم أو التذكر أو استنساخ بيانات العملاء."

ومع ذلك، يواجه المستخدمون الراغبون في الانسحاب عقبات كبيرة. وفقًا لإشعار الخصوصية، تتطلب عملية الانسحاب من أصحاب المؤسسات التواصل مع فريق تجربة العملاء في Slack عبر بريد إلكتروني مع تحديد عنوان URL الخاص بالمؤسسة والموضوع 'طلب انسحاب من نموذج Slack العالمي'. فقط بعد معالجة هذا الطلب يمكن للمستخدمين الانسحاب من استخدام بياناتهم.

بينما استجابت Slack لقلق كوين، مُشددًة على التمييز بين نماذج التعلم الآلي على مستوى المنصة ومنتجات الذكاء الاصطناعي التوليدية، لا يزال نص الانسحاب غامضًا. تجدر الإشارة إلى أن مصطلح "العملاء" لا يشمل موظفي المؤسسات التي تستخدم Slack، مما يجعلهم يعتمدون على مديري أماكن عملهم لحماية بياناتهم.

تزيد التناقضات في سياسات خصوصية Slack من تعقيد الوضع. يُحدد أحد الأقسام أن Slack لا يمكنها الوصول إلى المحتوى الأساسي عند تطوير نماذج الذكاء الاصطناعي/التعلم الآلي، مستشهدةً بالتدابير التقنية المتاحة. لكن، هذا يتعارض مع سياسة تدريب نماذج التعلم الآلي، مما يؤدي إلى ارتباك المستخدمين.

علاوة على ذلك، تؤكد صفحة Slack الترويجية لأدوات الذكاء الاصطناعي التوليدية المميزة أن "بياناتك هي بياناتك. نحن لا نستخدمها لتدريب Slack AI. كل شيء يعمل على البنية التحتية الآمنة لـ Slack، ويلبي نفس معايير الامتثال التي يفي بها Slack نفسه." ومع أن هذه التصريحات تطمئن المستخدمين، إلا أنها قد توهمهم بأن بياناتهم آمنة تمامًا من تدريب الذكاء الاصطناعي، على الرغم من الواقع الدقيق فيما يتعلق بمختلف أنواع النماذج المستخدمة.

باختصار، تمثل ممارسات Slack الحالية حول استخدام البيانات وتدريب نماذج التعلم الآلي تحديات كبيرة لخصوصية المستخدمين. يجب على المستخدمين أن يكونوا يقظين ونشطين في فهم وحماية حقوق بياناتهم ضمن المنصة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles