슬랙의 데이터 사용 및 머신러닝 모델 훈련: 알아야 할 사항
슬랙은 사용자 메시지, 파일 및 기타 콘텐츠를 명시적 동의 없이 머신러닝 모델 훈련에 사용합니다. 이 훈련은 선택 해제(opt-out) 방식으로 진행되므로, 기본적으로 개인 데이터가 수집됩니다. 이 프로세스에서 데이터를 제외하려면 조직의 슬랙 관리자(예: HR 또는 IT)에게 요청하여 슬랙과 직접 연락해야 하며, 이는 개인정보 보호 우려를 더욱 부각시키는 불편한 요구사항입니다.
덕빌 그룹의 Corey Quinn 임원은 이 문제를 슬랙의 개인정보 보호 원칙에서 발견하고 지적했습니다. 해당 부분에는 다음과 같은 내용이 포함되어 있습니다: "AI/ML 모델을 개발하기 위해, 우리의 시스템은 슬랙에 제출된 고객 데이터(예: 메시지, 콘텐츠 및 파일)와 개인정보 보호 정책 및 고객 계약에서 정의된 기타 정보를 분석합니다."
개인정보 보호 우려에 대응하여 슬랙은 데이터 사용에 대한 블로그 게시물을 발행했습니다. 이 회사는 고객 데이터를 생성형 AI 제품 훈련에 사용하지 않는다고 주장하며, 이는 외부 대형 언어 모델(LLM)에 의존합니다. 대신 이 데이터는 채널 추천 및 검색 결과와 같은 기능을 위한 머신러닝 모델을 지원합니다. 슬랙은 이 모델들이 DM, 개인 채널 또는 공공 채널의 직접 메시지 콘텐츠에 접근하지 않고, 비식별화된 집계 데이터를 활용한다고 강조합니다. 여기에는 메시지 타임스탬프 및 사용자 상호작용 횟수와 같은 비식별 정보가 포함될 수 있습니다.
세일즈포스 대변인은 “우리는 고객 데이터를 학습하거나 기억하거나 재생산할 수 있는 방식으로 모델을 구축하거나 훈련하지 않는다”고 강조했습니다.
하지만 사용자가 선택 해제를 원할 경우 상당한 장벽에 직면하게 됩니다. 개인정보 보호 공지에 따르면, 선택 해제 절차는 조직 소유자가 슬랙 고객 경험 팀에 연락하여 조직의 URL과 '슬랙 글로벌 모델 선택 해제 요청'이라는 주제를 지정해야 합니다. 이 요청이 처리된 후에만 사용자는 자신의 데이터 사용을 철회할 수 있습니다.
슬랙은 Quinn의 우려에 대응하며 플랫폼 수준의 머신러닝 모델과 생성형 AI 제품 간의 차이를 강조했지만, 선택 해제 관련 문구는 여전히 애매합니다. 특히 "고객"이라는 용어가 슬랙을 사용하는 조직의 직원들을 포함하지 않아, 그들의 데이터 보호는 직장 관리자에게 의존하게 됩니다.
슬랙의 개인정보 보호 정책에서 불일치가 상황을 더욱 복잡하게 만듭니다. 한 섹션에서는 AI/ML 모델 개발 시 슬랙이 기본 콘텐츠에 접근할 수 없다고 명시하며, 기술적 조치를 언급하고 있습니다. 그러나 이는 머신러닝 모델 훈련 방침과 모순되어 사용자 혼란을 야기합니다.
또한, 슬랙의 프리미엄 생성형 AI 도구에 대한 홍보 웹페이지는 “당신의 데이터는 당신의 데이터입니다. 우리는 이를 슬랙 AI 훈련에 사용하지 않습니다. 모든 것은 슬랙의 안전한 인프라에서 실행되며, 슬랙 본사와 동일한 규정 준수 기준을 충족합니다.”라고 주장합니다. 이 진술은 안심시킬 수 있지만 사용자가 AI 훈련으로부터 데이터가 완전히 안전하다고 오해할 수 있으며, 다양한 유형의 모델 사용에 대한 미묘한 현실을 간과할 수 있습니다.
결론적으로, 슬랙의 데이터 사용 및 머신러닝 훈련과 관련된 현재의 관행은 사용자 프라이버시와 관련하여 상당한 도전을 제시합니다. 사용자는 플랫폼 내에서 자신의 데이터 권리를 이해하고 보호하기 위해 경계하고 적극적으로 나서야 합니다.