Como a Rec Room Reduziu com Sucesso a Toxicidade no Chat de Voz dos Jogadores em 70%

A equipe de confiança e segurança do Rec Room, uma popular plataforma de jogos sociais, alcançou um sucesso notável na redução da toxicidade nos últimos 18 meses. Neste VB Spotlight, exploramos as métricas, ferramentas e estratégias que aprimoraram a felicidade dos jogadores, aumentaram o engajamento e transformaram a experiência no jogo.

Melhorar a experiência e a segurança dos jogadores deve ser uma prioridade para os desenvolvedores de jogos. Em um recente VB Spotlight, Mark Frumkin, diretor de gerenciamento de contas da Modulate, e Yasmin Hussain, chefe de confiança e segurança do Rec Room, discutiram estratégias eficazes para proteger os jogadores da toxicidade. Eles compartilharam insights sobre a colaboração do Rec Room com a ToxMod, uma solução de moderação de chat por voz impulsionada por machine learning.

Lançado em 2016, o Rec Room conta com mais de 100 milhões de usuários ativos. Os jogadores interagem em tempo real através de chats de texto e voz em várias plataformas, incluindo PC, dispositivos móveis, headsets de VR e consoles, tudo utilizando avatares personalizáveis. “O Rec Room foi projetado para criar um espaço repleto de mundos e salas criados não apenas por nós, mas também pelos nossos jogadores,” destacou Hussain. “A confiança e a segurança são essenciais para essa visão.”

No entanto, interações por voz em tempo real atraem inevitavelmente alguns jogadores que se comportam de maneira inadequada. Como os desenvolvedores podem mudar o comportamento daqueles que não respeitam os padrões da comunidade?

No último ano, o Rec Room conseguiu reduzir em cerca de 70% as instâncias de chat de voz tóxico, segundo Hussain, embora esse progresso não tenha sido imediato.

Abordagem Gradual contra a Toxicidade

O primeiro passo envolveu a implementação de moderação contínua de voz em todas as salas públicas, estabelecendo expectativas claras para o comportamento dos jogadores. Em seguida, a equipe focou em identificar as respostas mais eficazes para comportamentos inadequados. Eles realizaram diversos testes, experimentando diferentes durações para silenciosos e banimentos, além de dois tipos de advertências: uma estrita e outra que oferecia reforço positivo.

As descobertas mostraram que a detecção instantânea e um silenciamento de uma hora reduziram significativamente os comportamentos indesejados. Esse feedback imediato servia como um forte lembrete de que a toxicidade não seria tolerada, diminuindo as violações e mantendo os jogadores engajados.

Embora essa abordagem não tenha eliminado completamente a toxicidade, houve avanços notáveis. Em uma investigação, a equipe descobriu que uma pequena porcentagem de jogadores era responsável pela maioria das violações. Como poderiam abordar efetivamente esse grupo?

“Existia uma ligação clara entre alguns jogadores e um grande número de violações, o que nos levou a criar novos experimentos,” explicou Hussain. “Ao ajustar nossas intervenções—como aplicar um primeiro silenciamento ou advertência, seguidos de silenciamentos subsequentes—buscamos um efeito cumulativo que incentive o aprendizado. Estamos vendo resultados promissores dessa estratégia.”

Implementação de Experimentação em Confiança e Segurança

Frumkin enfatizou a importância de acompanhar métricas específicas para aprimorar as estratégias de moderação. Dados-chave incluem identificar o que os jogadores estão dizendo, a frequência das violações e o perfil dos infratores reincidentes.

Estabelecer uma hipótese clara desde o início é crucial. “A hipótese é fundamental,” afirmou Hussain. “Quando testamos diferentes intervenções para reduzir violações, foi distinto de nossos esforços para mudar comportamentos específicos dos jogadores.”

A iteração é vital para aprender e aprimorar estratégias, mas os experimentos também devem durar o suficiente para coletar dados significativos e influenciar a conduta dos jogadores. “Queremos que os jogadores sigam os padrões da comunidade e se tornem contribuidores positivos. Isso muitas vezes requer desaprender comportamentos desenvolvidos ao longo do tempo,” acrescentou Hussain. “Três a seis semanas são geralmente necessárias para que os jogadores se adaptem a esse novo normal.”

No entanto, desafios persistem. O progresso em uma área pode levar ao surgimento de novos problemas, exigindo ajustes contínuos nas técnicas de moderação. Embora a moderação de voz em tempo real seja complexa, a equipe do Rec Room se sente confiante na precisão de suas intervenções e na crescente sensação de segurança de seus jogadores.

“Fizemos progressos significativos na redução de violações, com aproximadamente 90% dos nossos jogadores relatando sentir-se seguros e bem-vindos no Rec Room,” observou Hussain. “É vital não apenas que a justiça seja feita, mas também que os jogadores testemunhem essas mudanças para reforçar que nossos padrões comunitários são mantidos.”

O Futuro da Moderação de Voz com IA

Para tornar o Rec Room um ambiente mais seguro e agradável, a ToxMod analisa continuamente dados relacionados a violações de políticas e interações dos jogadores. É imprescindível que a moderação evolua, não apenas desencorajando o comportamento tóxico, mas também promovendo ações que aprimorem a experiência dos jogadores.

“Estamos desenvolvendo a capacidade de identificar comportamentos pró-sociais,” mencionou Frumkin. “Reconhecer jogadores que são solidários ou bons em desescalar situações tensas nos permite destacar modelos a serem seguidos dentro da comunidade. Amplificar influências positivas pode melhorar significativamente o ambiente.”

A moderação por voz, especialmente em áudio em tempo real, apresenta desafios consideráveis. No entanto, ferramentas movidas por IA estão revolucionando as estratégias de moderação e expandindo as capacidades das equipes de desenvolvimento.

“Esse avanço nos permite elevar nossas ambições. O que parecia impossível ontem agora é alcançável,” comentou Hussain. “Estamos testemunhando melhorias consideráveis na eficiência e eficácia das tecnologias de machine learning, criando novas oportunidades para priorizar a segurança da comunidade.”

Para saber mais sobre como combater a toxicidade nos jogos, estratégias para mudar o comportamento dos jogadores e o impacto transformador do machine learning, não perca este VB Spotlight informativo, disponível gratuitamente sob demanda.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles