Em um mundo impulsionado pela IA, a necessidade de uma moderação de jogos eficaz nunca foi tão crucial.

Mesmo com ferramentas avançadas de moderação, o volume de conteúdo e comunicação gerados pelos jogadores continua a crescer, resultando em discussões online cada vez mais intensas. No recente painel do GamesBeat Next, Hank Howie, evangelista da indústria de jogos na Modulate, se juntou a Alexis Miller, diretora de gerenciamento de produtos na Schell Games, e Tomer Poran, VP de estratégia de soluções na ActiveFence. Eles discutiram as melhores práticas para moderar comunidades de jogos de todos os tamanhos e perfis demográficos, abordando códigos de conduta, estratégias, tecnologias e mais.

Essa discussão é especialmente oportuna à medida que a privacidade, a segurança e as regulamentações de confiança ganham destaque. Poran enfatizou que as capacidades crescentes da IA são essenciais não apenas para detectar conteúdo prejudicial, mas também para criá-lo. Essa evolução na IA é crucial para atualizar as estratégias de moderação de conteúdo nos jogos, que historicamente ficaram para trás em relação às mídias sociais.

“A segurança das crianças e a segurança dos usuários são fundamentais nos jogos, mesmo anteriores às mídias sociais. No entanto, os jogos ainda estão se atualizando em relação à moderação de conteúdo nas mídias sociais,” explicou Poran. “Estamos observando uma mudança em direção a abordagens proativas, com empresas investindo em tecnologias avançadas de moderação de conteúdo, como as da ActiveFence e Modulate.”

Há apenas alguns anos, moderar conteúdo de voz era quase impossível, observou Howie. Quando a tecnologia finalmente se tornou disponível, era extremamente cara. No entanto, com a Modulate oferecendo soluções acessíveis, os desenvolvedores passaram a ter acesso a todo o conteúdo falado em seus jogos.

“Cada empresa com a qual trabalhamos disse: ‘Eu sabia que era ruim, mas não percebi que era tão ruim,’” lembrou Howie. “O potencial de dano das interações online é significativo, mas agora temos tecnologia para mitigá-lo.”

Com a melhoria das tecnologias de moderação, os desenvolvedores podem personalizar suas estratégias. Miller afirmou: “Reconhecer os públicos diversos em diferentes jogos apresenta uma oportunidade significativa. Por exemplo, nosso público é predominantemente jovem, o que influencia o que deve ser sinalizado - muito diferente de um jogo de cassino.”

Segurança por Design

Implementar uma abordagem de "segurança por design" prioriza medidas protetivas desde o início, determinando funcionalidades essenciais do produto e estabelecendo diretrizes de monitoramento e fiscalização.

“Envolve perguntar não apenas o que pode dar errado, mas como alguém que busca causar dano poderia explorar essa funcionalidade?” disse Poran. “Identificar riscos únicos para nossos jogos específicos é vital.”

A ActiveFence contribui para a segurança por design por meio do "safety red teaming", onde simulam o comportamento de agentes mal-intencionados para testar os jogos antes do lançamento e identificar características potencialmente exploráveis.

Implementação de Códigos de Conduta

“Uma vez que sua comunidade entende que certos comportamentos são inaceitáveis, você ficaria surpreso com a rapidez com que eles se adaptam,” afirmou Howie. Envolver a comunidade de jogos na moderação ajuda a eliminar jogadores tóxicos.

“Nossos dados mostram que a redução da toxicidade pode diminuir a rotatividade em 15-20% para jogadores novos e recorrentes,” observou. “Quando os jogadores se sentem seguros e respeitados, têm mais chances de permanecer, jogar mais e gastar mais.”

Miller acrescentou que os códigos de conduta devem evoluir ao longo do tempo para enfrentar desafios imprevistos. A equipe da Schell Games considera cuidadosamente como abordar questões de moderação, como trapaças e endangerment infantil, especialmente dado seu público jovem. Inicialmente, testaram ferramentas como ToxMod em um ambiente beta, mas descobriram que as condições do mundo real eram mais desafiadoras.

“Nossa comunidade beta se comportou de maneira bastante diferente dos participantes do jogo ao vivo, o que nos levou a revisar nossas políticas de moderação,” explicou Miller. “Aprendemos que o ambiente ao vivo apresentou desafios inesperados que eram piores do que o antecipado.”

Poran reiterou a importância de adaptar os códigos de conduta.

“Não faz sentido criar um extenso código de conduta apenas para descobrir que ele não se aplica às questões da sua comunidade,” disse. “A política deve evoluir continuamente com base no feedback da comunidade e nas percepções dos moderadores que destacam questões prevalentes.”

“Desafios como radicalização, recrutamento, racismo e misoginia estão interconectados,” concluiu Howie. “Temos a tecnologia disponível para abordar essas questões de forma eficaz. Agora é o momento de intensificar nossos esforços para criar um ambiente melhor para todos os jogadores.”

Most people like

Find AI tools in YBX