Uso de Datos y Entrenamiento de Modelos de Aprendizaje Automático en Slack: Lo Que Debes Saber
Slack entrena sus modelos de aprendizaje automático utilizando mensajes de usuarios, archivos y otros contenidos sin obtener consentimiento explícito. Este entrenamiento se realiza por defecto con una opción de exclusión, lo que significa que tus datos privados se recopilan automáticamente. Para retirar tus datos de este proceso, debes solicitar a tu administrador de Slack en tu organización (como Recursos Humanos o IT) que se comunique directamente con Slack, un requisito incómodo que aumenta las preocupaciones sobre la privacidad.
Corey Quinn, un ejecutivo del DuckBill Group, destacó este problema tras descubrirlo en los Principios de Privacidad de Slack. La sección relevante indica: "Para desarrollar modelos de IA/ML, nuestros sistemas analizan los Datos del Cliente (por ejemplo, mensajes, contenido y archivos) enviados a Slack, así como Otra Información (incluida la información de uso) definida en nuestra Política de Privacidad y en tu acuerdo de cliente."
En respuesta a las preocupaciones sobre la privacidad, Slack publicó un blog aclarando su uso de datos. La empresa sostiene que los datos de los clientes no se utilizan para entrenar sus productos de IA generativa, que dependen de modelos de lenguaje de terceros (LLMs). En cambio, estos datos respaldan modelos de aprendizaje automático para funciones como recomendaciones de canales y resultados de búsqueda. Es importante destacar que Slack afirma que estos modelos utilizan datos desidentificados y agregados, sin acceder al contenido de mensajes directos, canales privados o públicos. Estos datos pueden incluir información no identificable, como marcas de tiempo de mensajes y recuentos de interacción de usuarios.
Un portavoz de Salesforce respaldó esta afirmación, señalando: "No construimos ni entrenamos estos modelos de tal manera que puedan aprender, memorizar o reproducir datos de clientes."
Sin embargo, los usuarios que buscan optar por la exclusión enfrentan obstáculos significativos. Según el aviso de privacidad, el proceso de exclusión requiere que los propietarios de la organización se comuniquen con el equipo de Experiencia del Cliente de Slack en feedback, especificando la URL de su organización y el tema "Solicitud de exclusión del modelo global de Slack." Solo después de que se procese esta solicitud, los usuarios podrán retirar su consentimiento para el uso de sus datos.
A pesar de que Slack respondió a las preocupaciones de Quinn, enfatizando la distinción entre los modelos de aprendizaje automático a nivel de plataforma y sus productos de IA generativa, el lenguaje sobre la exclusión sigue siendo ambiguo. Notablemente, el término "clientes" no incluye a los empleados de las organizaciones que utilizan Slack, dejándolos dependientes de sus administradores para la protección de datos.
Las inconsistencias en las políticas de privacidad de Slack complican aún más la situación. Una sección especifica que Slack no puede acceder al contenido subyacente al desarrollar modelos de IA/ML, citando medidas técnicas establecidas. Sin embargo, esto contradice la política de entrenamiento de modelos de aprendizaje automático, generando confusión entre los usuarios.
Además, la página web promocional de Slack para sus herramientas premium de IA generativa afirma: "Tus datos son tus datos. No los usamos para entrenar Slack AI. Todo opera en la infraestructura segura de Slack, cumpliendo con los mismos estándares de regulación que Slack mismo." Esta afirmación, aunque tranquilizadora, puede llevar a los usuarios a pensar que sus datos están completamente a salvo del entrenamiento de IA, a pesar de la realidad matizada sobre los diferentes tipos de modelos en uso.
En resumen, las prácticas actuales de Slack en torno al uso de datos y el entrenamiento de modelos de aprendizaje automático presentan desafíos significativos para la privacidad del usuario. Los usuarios deben ser vigilantes y proactivos en comprender y proteger sus derechos de datos dentro de la plataforma.