Comment Rec Room a réussi à réduire la toxicité dans le chat vocal des joueurs de 70 %

L'équipe de confiance et de sécurité de Rec Room, une plateforme de jeux sociaux populaire, a réussi à réduire considérablement la toxicité au cours des 18 derniers mois. Dans ce VB Spotlight, nous examinons les métriques, outils et stratégies qui ont amélioré le bonheur des joueurs, augmenté l'engagement et transformé l'expérience de jeu.

Améliorer l'expérience et la sécurité des joueurs devrait être une priorité pour les développeurs de jeux. Dans un récent VB Spotlight, Mark Frumkin, directeur de la gestion des comptes chez Modulate, et Yasmin Hussain, responsable de la confiance et de la sécurité chez Rec Room, ont discuté des stratégies efficaces pour protéger les joueurs de la toxicité. Ils ont partagé des réflexions sur la collaboration de Rec Room avec ToxMod, une solution de modération audio pilotée par apprentissage automatique.

Lancée en 2016, Rec Room compte plus de 100 millions d'utilisateurs au total. Les joueurs interagissent en temps réel via des chats textuels et vocaux sur diverses plateformes, y compris PC, mobile, casques VR et consoles, tout en utilisant des avatars personnalisables.

« Rec Room a été conçu pour créer un espace rempli de mondes et de salles créés non seulement par nous, mais aussi par nos joueurs », a souligné Hussain. « La confiance et la sécurité sont essentielles à cette vision. »

Cependant, les interactions vocales en temps réel attirent inévitablement certains joueurs au comportement inapproprié. Comment les développeurs peuvent-ils changer le comportement de ceux qui ne respectent pas les normes de la communauté?

Au cours de l'année passée, Rec Room a réussi à réduire les cas de chat vocal toxique d'environ 70 %, selon Hussain, bien que ce progrès n’ait pas été immédiat.

Lutter Contre la Toxicité Pas à Pas

La première étape a consisté en l'implémentation d'une modération de voix continue dans toutes les salles publiques, établissant des attentes claires concernant le comportement des joueurs. Ensuite, l'équipe a concentré ses efforts sur la détermination des réponses les plus efficaces aux comportements inappropriés. Des tests variés ont été effectués, expérimentant différentes durées de silence et de bans, ainsi que deux types d'avertissements : un avertissement strict et un autre offrant un renforcement positif.

Les résultats ont montré qu'une détection instantanée et un silence d'une heure réduisaient nettement les comportements indésirables. Ce retour immédiat a servi de rappel fort aux joueurs que la toxicité ne serait pas tolérée, réduisant ainsi les violations tout en maintenant leur engagement.

Bien que cette approche n’ait pas complètement éliminé la toxicité, elle a permis des progrès notables. En enquêtant, l'équipe a découvert qu'un petit pourcentage de joueurs était responsable de la majorité des violations. Comment s'attaquer efficacement à ce groupe?

« Il y avait un lien clair entre certains joueurs et un grand nombre de violations, ce qui nous a incités à concevoir d'autres expériences », a expliqué Hussain. « En ajustant nos interventions—comme donner un premier silence ou avertissement, suivi de siltences supplémentaires—nous visons à créer un effet cumulatif qui encourage l'apprentissage. Nous voyons des résultats prometteurs de cette stratégie. »

Mettre en Œuvre l'Expérimentation dans la Confiance et la Sécurité

Frumkin a souligné l'importance de suivre des métriques spécifiques pour affiner les stratégies de modération. Les points de données clés incluent ce que disent les joueurs, la fréquence des violations et le profil des récidivistes.

Établir une hypothèse claire dès le départ est crucial. « L'hypothèse est clé », a déclaré Hussain. « Lorsque nous avons testé différentes interventions pour réduire les violations, c'était distinct de nos efforts pour changer des comportements spécifiques des joueurs. »

L'itération est essentielle pour apprendre et affiner les stratégies, mais les expériences doivent aussi durer suffisamment longtemps pour recueillir des données significatives et influencer le comportement des joueurs.

« Nous voulons que les joueurs respectent les normes communautaires et deviennent des contributeurs positifs. Cela nécessite souvent de désapprendre des comportements développés au fil du temps », a ajouté Hussain. « Trois à six semaines sont généralement nécessaires pour que les joueurs s'adaptent à cette nouvelle norme. »

Cependant, des défis persistent. Les progrès dans un domaine peuvent entraîner l'émergence de nouveaux problèmes, nécessitant des ajustements permanents des techniques de modération. Bien que la modération de discours en temps réel soit complexe, l'équipe de Rec Room se sent confiante dans la précision de leurs interventions et le sentiment de sécurité croissant chez leurs joueurs.

« Nous avons réalisé des avancées significatives dans la réduction des violations, avec environ 90 % de nos joueurs rapportant se sentir en sécurité et bienvenus dans Rec Room », a noté Hussain. « Il est essentiel non seulement que justice soit rendue, mais aussi que les joueurs soient témoins de ces changements pour renforcer l’idée que nos normes communautaires sont respectées. »

L'Avenir de la Modération Vocale Pilotée par l'IA

Pour rendre Rec Room un environnement plus sûr et agréable, ToxMod analyse en continu les données liées aux violations de politique et aux interactions des joueurs. Il est essentiel que la modération évolue, décourageant non seulement les comportements toxiques, mais promouvant également des actions qui améliorent l'expérience des joueurs.

« Nous développons notre capacité à identifier les comportements pro-sociaux », a mentionné Frumkin. « Reconnaître les joueurs qui soutiennent ou décalent les situations tendues nous permet de mettre en avant des modèles au sein de la communauté. Amplifier les influences positives peut considérablement améliorer l'environnement. »

La modération vocale, notamment en audio en temps réel, représente des défis considérables. Cependant, les outils pilotés par IA révolutionnent les stratégies de modération et élargissent les capacités des équipes de développement.

« Cette avancée nous permet d'élever nos ambitions. Ce qui semblait impossible hier est désormais réalisable », a remarqué Hussain. « Nous assistons à d'importantes améliorations dans l'efficacité et l'efficacité des technologies d'apprentissage machine, offrant de nouvelles opportunités pour prioriser la sécurité de la communauté. »

Pour en savoir plus sur la lutte contre la toxicité dans les jeux, les stratégies de changement de comportement des joueurs et l'impact transformateur de l'apprentissage automatique, ne manquez pas ce VB Spotlight informatif, disponible gratuitement à la demande.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles