Cómo Rec Room Redujo Exitosamente la Toxicidad en el Chat de Voz de los Jugadores en un 70%

El equipo de confianza y seguridad de Rec Room, una popular plataforma de juegos sociales, ha logrado un éxito notable en la reducción de la toxicidad en los últimos 18 meses. En este VB Spotlight, exploramos las métricas, herramientas y estrategias que han mejorado la felicidad de los jugadores, aumentado el compromiso y transformado la experiencia de juego.

Mejorar la experiencia y seguridad del jugador debe ser una prioridad para los desarrolladores de videojuegos. En un reciente VB Spotlight, Mark Frumkin, director de gestión de cuentas en Modulate, y Yasmin Hussain, jefa de confianza y seguridad en Rec Room, discutieron estrategias efectivas para proteger a los jugadores de la toxicidad. Compartieron sus conocimientos sobre la colaboración de Rec Room con ToxMod, una solución de moderación de chat de voz impulsada por aprendizaje automático.

Lanzado en 2016, Rec Room cuenta con más de 100 millones de usuarios en su historia. Los jugadores interactúan en tiempo real a través de chat de texto y voz en diversas plataformas, incluyendo PC, móviles, cascos de VR y consolas, mientras utilizan avatares personalizables.

“Rec Room fue diseñado para crear un espacio lleno de mundos y salas creadas no solo por nosotros, sino también por nuestros jugadores,” comentó Hussain. “La confianza y la seguridad son esenciales para esa visión.”

Sin embargo, las interacciones de voz en tiempo real atraen inevitablemente a algunos jugadores que se comportan de manera inapropiada. ¿Cómo pueden los desarrolladores cambiar el comportamiento de aquellos que no cumplen con los estándares de la comunidad?

En el último año, Rec Room ha reducido con éxito los casos de chat de voz tóxico en aproximadamente un 70%, según Hussain, aunque este progreso no ocurrió de la noche a la mañana.

Abordando la Toxicidad Paso a Paso

El primer paso implicó la implementación de moderación de voz continua en todas las salas públicas, estableciendo expectativas claras para el comportamiento de los jugadores. Luego, el equipo se centró en determinar las respuestas más efectivas ante la mala conducta. Realizaron diversas pruebas, experimentando con diferentes duraciones de silencios y prohibiciones, así como con dos tipos de advertencias: una estricta y otra que ofrecía refuerzo positivo.

Los hallazgos revelaron que la detección instantánea y un silencio de una hora reducían significativamente el mal comportamiento. Este feedback inmediato servía como un recordatorio para los jugadores de que la toxicidad no sería tolerada, disminuyendo las violaciones inmediatas y manteniendo el compromiso de los jugadores.

Aunque este enfoque no eliminó totalmente la toxicidad, sí logró un progreso notable. Al investigar, el equipo descubrió que un pequeño porcentaje de jugadores era responsable de la mayoría de las violaciones. ¿Cómo podrían abordar efectivamente a este grupo?

“Había un vínculo claro entre unos pocos jugadores y un gran número de violaciones, lo que nos llevó a diseñar más experimentos,” explicó Hussain. “Al ajustar nuestras intervenciones—como emitir un silencio inicial o una advertencia, seguido de silencios posteriores—pretendemos crear un efecto acumulativo que fomente el aprendizaje. Estamos viendo resultados prometedores de esta estrategia.”

Implementando la Experimentación en Confianza y Seguridad

Frumkin enfatizó la importancia de rastrear métricas específicas para afinar las estrategias de moderación. Los puntos de datos clave incluyen identificar lo que dicen los jugadores, la frecuencia de violaciones y el perfil de los infractores reincidentes.

Establecer una hipótesis clara desde el principio es crucial. “La hipótesis es clave,” afirmó Hussain. “Cuando probamos diferentes intervenciones para reducir violaciones, fue distinto de nuestros esfuerzos por cambiar comportamientos específicos de los jugadores.”

La iteración es vital para aprender y refinar estrategias, pero los experimentos también deben durar lo suficiente para recolectar datos significativos e influir en la conducta de los jugadores.

“Queremos que los jugadores se adhieran a los estándares de la comunidad y se conviertan en contribuyentes positivos. Eso a menudo requiere desaprender comportamientos desarrollados a lo largo del tiempo,” añadió Hussain. “Por lo general, se necesitan de tres a seis semanas para que los jugadores se adapten a esta nueva normalidad.”

No obstante, persisten los desafíos. El progreso en un área puede dar lugar a la aparición de nuevos problemas, lo que requiere ajustes continuos en las técnicas de moderación. Aunque la moderación de voz en tiempo real es compleja, el equipo de Rec Room se siente confiado en la precisión de sus intervenciones y en el creciente sentido de seguridad de sus jugadores.

“Hemos logrado avances significativos en la reducción de violaciones, con aproximadamente el 90% de nuestros jugadores reportando sentirse seguros y bienvenidos en Rec Room,” comentó Hussain. “Es vital no solo que se ejecute la justicia, sino también que los jugadores sean testigos de estos cambios para reforzar que nuestros estándares comunitarios se mantienen.”

El Futuro de la Moderación de Voz Impulsada por IA

Para hacer de Rec Room un entorno más seguro y agradable, ToxMod analiza continuamente datos relacionados con violaciones de políticas e interacciones de jugadores. Es esencial que la moderación evolucione, no solo desalentando comportamientos tóxicos, sino también promoviendo acciones que mejoren la experiencia del jugador.

“Estamos desarrollando la capacidad de identificar comportamientos prosociales,” mencionó Frumkin. “Reconocer a los jugadores que son solidarios o buenos en desescalar situaciones tensas nos permite destacar modelos a seguir dentro de la comunidad. Ampliar las influencias positivas puede mejorar significativamente el ambiente.”

La moderación de voz, particularmente en audio en tiempo real, presenta desafíos considerables. Sin embargo, las herramientas impulsadas por IA están revolucionando las estrategias de moderación y expandiendo las capacidades de los equipos de desarrollo.

“Este avance nos permite elevar nuestras ambiciones. Lo que parecía imposible ayer ahora es alcanzable,” comentó Hussain. “Estamos presenciando mejoras considerables en la eficiencia y efectividad de las tecnologías de aprendizaje automático, presentando nuevas oportunidades para priorizar la seguridad de la comunidad.”

Para aprender más sobre cómo abordar la toxicidad en los juegos, estrategias para cambiar el comportamiento de los jugadores y el impacto transformador del aprendizaje automático, no te pierdas este informativo VB Spotlight, disponible de forma gratuita bajo demanda.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles