Dans un monde propulsé par l'IA, le besoin d'une modération de jeu efficace n'a jamais été aussi crucial.

Même avec des outils de modération avancés, le volume de contenu généré par les joueurs et de communication continue d'augmenter, entraînant des discussions en ligne de plus en plus intenses. Lors d'un récent panel de GamesBeat Next, Hank Howie, évangéliste de l'industrie du jeu chez Modulate, a rejoint Alexis Miller, directrice de la gestion de produits chez Schell Games, et Tomer Poran, vice-président de la stratégie de solutions chez ActiveFence. Ils ont discuté des meilleures pratiques pour la modération des communautés de jeux de toutes tailles et de toutes démographies, abordant les codes de conduite, les stratégies, les technologies, et plus encore.

Cette discussion est particulièrement pertinente alors que les réglementations sur la vie privée, la sécurité et la confiance prennent de l’importance. Poran a souligné que les capacités croissantes de l'IA sont essentielles non seulement pour détecter le contenu nuisible, mais aussi pour le créer. Cette évolution de l'IA est cruciale pour mettre à jour les stratégies de modération du contenu dans le domaine du jeu, qui ont historiquement pris du retard par rapport aux médias sociaux.

"La sécurité des enfants et des utilisateurs est fondamentale dans le jeu, même avant l’essor des médias sociaux. Cependant, le secteur du jeu a encore du chemin à faire en matière de modération du contenu," a expliqué Poran. "Nous constatons un passage à des approches proactives, les entreprises investissant dans des technologies de modération avancées comme celles d'ActiveFence et Modulate."

Il y a quelques années à peine, la modération de contenu vocal était presque impossible, a noté Howie. Lorsque la technologie est enfin devenue disponible, elle était prohibitive en termes de coût. Cependant, avec Modulate offrant des solutions abordables, les développeurs ont pu accéder à tout le contenu parlé dans leurs jeux.

"Chaque entreprise avec laquelle nous avons travaillé a dit : 'Je savais que c'était mauvais, mais je ne pensais pas que c'était à ce point,'” se souvient Howie. "Le potentiel de préjudice des interactions en ligne est significatif, mais nous avons maintenant la technologie pour y remédier."

À mesure que les technologies de modération s'améliorent, les développeurs peuvent personnaliser leurs stratégies. Miller a affirmé : "Reconnaître la diversité des audiences dans différents jeux représente une opportunité significative. Par exemple, notre audience est principalement jeune, ce qui influence les contenus à signaler—complètement différent d’un jeu de casino."

Sécurité par Conception

Adopter une approche de "sécurité par conception" priorise les mesures de protection dès le départ, en déterminant les caractéristiques essentielles du produit et en établissant des directives de surveillance et d'application.

"Il ne s'agit pas seulement de se demander ce qui pourrait mal tourner, mais comment quelqu'un cherchant à causer du tort pourrait exploiter cette fonctionnalité ?" a déclaré Poran. "Identifier les risques uniques pour nos jeux spécifiques est vital."

ActiveFence contribue à la sécurité par conception grâce au "safety red teaming," où ils simulent le comportement des acteurs malveillants pour tester les jeux avant leur lancement et identifier les fonctionnalités potentiellement exploitables.

Mise en œuvre des Codes de Conduite

"Une fois que votre communauté comprend que certains comportements sont inacceptables, vous seriez surpris de la rapidité avec laquelle elle s'adapte," a déclaré Howie. Impliquer la communauté du jeu dans la modération aide à éliminer les joueurs toxiques.

"Nos données montrent que réduire la toxicité peut diminuer le taux d'abandon de 15 à 20 % pour les nouveaux et anciens joueurs," a-t-il noté. "Lorsque les joueurs se sentent en sécurité et respectés, ils sont plus susceptibles de rester, de jouer plus longtemps et de dépenser davantage."

Miller a ajouté que les codes de conduite doivent évoluer au fil du temps pour faire face à des défis imprévus. L'équipe de Schell Games prend le soin de réfléchir à la manière de traiter les problèmes de modération, tels que la triche et la mise en danger des enfants, surtout compte tenu de leur jeune audience. Ils ont d'abord testé des outils comme ToxMod dans un environnement bêta mais ont constaté que les conditions réelles étaient plus difficiles.

"Notre communauté bêta se comportait de manière assez différente des participants au jeu en direct, ce qui nous a amenés à réviser nos politiques de modération," a expliqué Miller. "Nous avons appris que l'environnement en direct présentait des défis inattendus, plus importants que prévu."

Poran a fait écho à l'importance d'adapter les codes de conduite.

"Il n'y a aucune utilité à rédiger un code de conduite étendu pour se rendre compte qu'il ne s'applique pas aux problèmes de votre communauté," a-t-il déclaré. "La politique doit évoluer continuellement en fonction des retours de la communauté et des insights des modérateurs qui mettent en lumière les problèmes prédominants."

"Des défis comme la radicalisation, le recrutement, le racisme et la misogynie sont interconnectés," a conclu Howie. "Nous avons la technologie pour traiter ces problèmes de manière efficace. Le moment est venu de renforcer nos efforts pour créer un meilleur environnement pour tous les joueurs."

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles