Das Vertrauens- und Sicherheitsteam von Rec Room, einer beliebten sozialen Gaming-Plattform, hat in den letzten 18 Monaten bemerkenswerte Erfolge bei der Reduzierung von Toxicity erzielt. In diesem VB Spotlight beleuchten wir die Kennzahlen, Werkzeuge und Strategien, die das Spielerlebnis verbessert, die Spielerzufriedenheit erhöht und ein positives Gaming-Erlebnis geschaffen haben.
Die Verbesserung des Spielerlebnisses und der Sicherheitsaspekte sollte für Spieleentwickler Priorität haben. In einem aktuellen VB Spotlight diskutierten Mark Frumkin, Direktor des Account Managements bei Modulate, und Yasmin Hussain, Leiterin für Vertrauen und Sicherheit bei Rec Room, wirksame Strategien zum Schutz der Spieler vor toxischem Verhalten. Sie teilten Einblicke in die Zusammenarbeit von Rec Room mit ToxMod, einer KI-gestützten Voice-Chat-Moderationslösung.
Rec Room wurde 2016 gegründet und hat über 100 Millionen Lebenszeitnutzer. Spieler interagieren in Echtzeit über Text- und Sprachchat auf verschiedenen Plattformen, darunter PC, Mobilgeräte, VR-Headsets und Konsolen, während sie anpassbare Avatare nutzen. “Rec Room wurde entwickelt, um einen Raum voller unzähliger Welten und Räume zu schaffen, die nicht nur von uns, sondern auch von unseren Spielern gestaltet werden”, bemerkte Hussain. “Vertrauen und Sicherheit sind entscheidend für diese Vision.”
Echtzeit-Sprachinteraktionen ziehen jedoch unvermeidlich einige Spieler an, die sich unangemessen verhalten. Wie können Entwickler das Verhalten dieser Spieler ändern, die sich nicht an die Gemeinschaftsstandards halten? Im vergangenen Jahr hat Rec Room laut Hussain die Fälle von toxischem Voice-Chat um etwa 70 % reduziert, obwohl dieser Fortschritt nicht über Nacht erzielt wurde.
Toxicity Schritt für Schritt angehen
Der erste Schritt bestand darin, kontinuierliche Sprachmoderation in allen öffentlichen Räumen einzuführen und klare Erwartungen an das Verhalten der Spieler zu formulieren. Anschließend konzentrierte sich das Team darauf, die effektivsten Reaktionen auf Fehlverhalten zu ermitteln. Sie führten verschiedene Tests durch und experimentierten mit unterschiedlichen Längen für Stummschaltungen und Sperren sowie zwei Typen von Warnungen: einer strengen Warnung und einer, die positives Feedback gab.
Die Ergebnisse zeigten, dass eine sofortige Erkennung und eine einstündige Stummschaltung das schlechte Verhalten erheblich reduzierten. Dieses unmittelbare Feedback diente als starke Erinnerung für die Spieler, dass Toxicity nicht toleriert wird, was sofortige Verstöße reduzierte und gleichzeitig die Spieler engagiert hielt.
Obwohl dieser Ansatz Toxicity nicht vollständig beseitigte, wurden erhebliche Fortschritte erzielt. Bei Untersuchungen stellte das Team fest, dass ein kleiner Prozentsatz der Spieler für die Mehrheit der Verstöße verantwortlich war. Wie konnten sie diese Gruppe effektiv ansprechen? “Es gab einen klaren Zusammenhang zwischen wenigen Spielern und einer großen Anzahl von Verstößen, was uns dazu veranlasste, weitere Experimente zu entwerfen”, erklärte Hussain. “Durch Anpassungen unserer Interventionen – wie einer anfänglichen Stummschaltung oder Warnung, gefolgt von weiteren Stummschaltungen – streben wir an, einen kumulativen Effekt zu erzeugen, der das Lernen fördert. Wir sehen vielversprechende Ergebnisse aus dieser Strategie.”
Experimentieren im Vertrauen und in der Sicherheit umsetzen
Frumkin betonte die Bedeutung der Verfolgung spezifischer Kennzahlen zur Verfeinerung der Moderationsstrategien. Wichtige Datenpunkte sind, was die Spieler sagen, die Häufigkeit von Verstößen und das Profil von Wiederholungstätern.
Ein klares Hypothese vorab zu formulieren, ist entscheidend. “Die Hypothese ist der Schlüssel”, sagte Hussain. “Als wir verschiedene Interventionen testeten, um Verstöße zu reduzieren, war das deutlich getrennt von unseren Bemühungen, spezifische Spieler-Verhaltensweisen zu ändern.”
Iteration ist wichtig für das Lernen und die Verfeinerung von Strategien, jedoch müssen Experimente auch lange genug laufen, um aussagekräftige Daten zu sammeln und das Verhalten der Spieler zu beeinflussen. “Wir möchten, dass die Spieler sich an die Gemeinschaftsstandards halten und positive Beitragende werden. Oft erfordert das das Verlernen über die Zeit entwickelter Verhaltensweisen”, fügte Hussain hinzu. “Drei bis sechs Wochen sind typischerweise notwendig, damit sich die Spieler an diese neue Normalität gewöhnen.”
Dennoch bestehen Herausforderungen. Fortschritte in einem Bereich können das Auftreten neuer Probleme zur Folge haben, was kontinuierliche Anpassungen der Moderationstechniken erforderlich macht. Während die Echtzeit-Sprachmoderation komplex ist, ist das Rec Room-Team zuversichtlich in die Genauigkeit ihrer Interventionen und das wachsende Sicherheitsgefühl ihrer Spieler. “Wir haben erhebliche Fortschritte bei der Reduzierung von Verstößen gemacht, wobei etwa 90 % unserer Spieler berichten, dass sie sich in Rec Room sicher und willkommen fühlen”, bemerkte Hussain. “Es ist entscheidend, dass nicht nur Gerechtigkeit geübt wird, sondern dass die Spieler diese Veränderungen erleben, um zu bestätigen, dass unsere Gemeinschaftsstandards eingehalten werden.”
Die Zukunft der KI-gestützten Sprachmoderation
Um Rec Room zu einem sichereren und angenehmeren Umfeld zu machen, analysiert ToxMod kontinuierlich Daten zu Politikverstößen und Spielerinteraktionen. Es ist unerlässlich, dass die Moderation sich weiterentwickelt, indem sie nicht nur toxisches Verhalten entmutigt, sondern auch Handlungen fördert, die das Spielerlebnis verbessern.
“Wir entwickeln die Fähigkeit, prosoziale Verhaltensweisen zu identifizieren”, erwähnte Frumkin. “Das Erkennen von Spielern, die unterstützend sind oder gut darin, angespannte Situationen zu deeskalieren, erlaubt es uns, Vorbilder innerhalb der Gemeinschaft hervorzuheben. Positive Einflüsse zu verstärken kann die Umgebung erheblich verbessern.”
Die Sprachmoderation, insbesondere in Echtzeit-Audio, stellt erhebliche Herausforderungen dar. KI-gestützte Werkzeuge revolutionieren jedoch die Moderationsstrategien und erweitern die Möglichkeiten der Entwicklungsteams. “Dieser Fortschritt erlaubt es uns, unsere Ambitionen zu erhöhen. Was gestern unmöglich erschien, ist nun erreichbar”, bemerkte Hussain. “Wir erleben erhebliche Verbesserungen in der Effizienz und Effektivität von Machine Learning-Technologien, was neue Chancen schafft, die Sicherheit der Gemeinschaft in den Vordergrund zu stellen.”
Um mehr darüber zu erfahren, wie man Toxicity im Gaming angeht, Strategien zur Veränderung des Spieler-Verhaltens entwickelt und den transformativen Einfluss von Machine Learning versteht, verpassen Sie nicht dieses informative VB Spotlight, das kostenlos auf Abruf erhältlich ist.