In einer von KI gesteuerten Welt war der Bedarf an effektiver Spielmoderation noch nie so hoch.

Selbst mit fortschrittlichen Moderationstools wächst das Volumen von spielergenerierten Inhalten und der Kommunikation weiterhin, was zu intensiveren Online-Diskussionen führt. Auf dem jüngsten GamesBeat Next-Panel haben Hank Howie, Spieleindustrie-Evangelist bei Modulate, Alexis Miller, Direktorin für Produktmanagement bei Schell Games, und Tomer Poran, VP für Lösungsstrategie bei ActiveFence, bewährte Praktiken zur Moderation von Gaming-Communities jeder Größe und Demografie erörtert. Dabei wurden Verhaltensrichtlinien, Strategien, Technologien und mehr behandelt.

Diese Diskussion ist besonders relevant, da Datenschutz, Sicherheit und Vertrauensvorschriften an Bedeutung gewinnen. Poran betonte, dass die wachsenden Fähigkeiten der KI nicht nur zur Erkennung schädlicher Inhalte, sondern auch zu deren Erstellung entscheidend sind. Diese Entwicklung in der KI ist entscheidend für die Aktualisierung der Moderationsstrategien in der Gaming-Branche, die historisch hinter sozialen Medien zurückgeblieben ist.

„Kindersicherheit und Nutzersicherheit sind fundamental im Gaming, selbst vor den sozialen Medien. Allerdings holt das Gaming in der Moderation immer noch auf“, erklärte Poran. „Wir beobachten einen Wandel hin zu proaktiven Ansätzen, wobei Unternehmen in fortschrittliche Moderationstechnologien wie die von ActiveFence und Modulate investieren.“

Vor wenigen Jahren war die Moderation von Sprachinhalten nahezu unmöglich, bemerkte Howie. Als die Technologie schließlich verfügbar wurde, war sie extrem teuer. Dank der erschwinglichen Lösungen von Modulate erhalten Entwickler nun Zugang zu allen gesprochenen Inhalten in ihren Spielen.

„Jedes Unternehmen, mit dem wir gearbeitet haben, hat gesagt: ‚Ich wusste, dass es schlecht ist, aber ich wusste nicht, dass es so schlimm ist‘“, erinnerte sich Howie. „Das potenzielle Risiko aus Online-Interaktionen ist erheblich, aber jetzt haben wir Technologien, um es zu mindern.“

Mit der Verbesserung der Moderationstechnologien können Entwickler ihre Strategien anpassen. Miller erklärte: „Die Anerkennung der vielfältigen Zielgruppen in verschiedenen Spielen bietet eine erhebliche Chance. Zum Beispiel ist unser Publikum überwiegend jung, was beeinflusst, was markiert werden sollte — ganz anders als bei einem Casinospiel.“

Sicherheit durch Design

Die Implementierung eines Ansatzes „Sicherheit durch Design“ priorisiert Schutzmaßnahmen von Anfang an, bestimmt wesentliche Produktmerkmale und legt Überwachungs- und Durchsetzungsrichtlinien fest.

„Es geht darum, nicht nur zu fragen, was schiefgehen könnte, sondern wie könnte jemand, der Schaden anrichten möchte, diese Funktion ausnutzen?“, sagte Poran. „Die Identifizierung einzigartiger Risiken für unsere spezifischen Spiele ist entscheidend.“

ActiveFence trägt durch „Safety Red Teaming“ zur Sicherheit durch Design bei, indem sie das Verhalten von Bösewichten simulieren, um Spiele vor dem Launch zu testen und potenziell ausnutzbare Funktionen zu identifizieren.

Verhaltensrichtlinien umsetzen

„Sobald Ihre Community versteht, dass bestimmte Verhaltensweisen inakzeptabel sind, werden Sie erstaunt sein, wie schnell sie sich anpassen“, stellte Howie fest. Die Einbeziehung der Spiel-Community in die Moderation hilft, toxische Spieler zu eliminieren.

„Unsere Daten zeigen, dass die Reduzierung von Toxizität die Fluktuation bei neuen und zurückkehrenden Spielern um 15-20% senken kann“, bemerkte er. „Wenn Spieler sich sicher und respektiert fühlen, bleiben sie eher, spielen länger und geben mehr aus.“

Miller fügte hinzu, dass sich Verhaltensrichtlinien mit der Zeit weiterentwickeln müssen, um unvorhergesehene Herausforderungen zu bewältigen. Das Team von Schell Games überlegt sorgfältig, wie Moderationsprobleme wie Betrug und Kindeswohlgefährdung angegangen werden können, insbesondere angesichts ihres jungen Publikums. Sie haben anfangs Tools wie ToxMod in einer Beta-Umgebung getestet, festgestellt, dass die Bedingungen in der realen Welt jedoch herausfordernder waren.

„Unsere Beta-Community verhielt sich ganz anders als die Live-Spielteilnehmer, was uns dazu brachte, unsere Moderationsrichtlinien zu überarbeiten“, erklärte Miller. „Wir haben gelernt, dass die Live-Umgebung unerwartete Herausforderungen präsentierte, die schlimmer waren als erwartet.“

Poran unterstrich die Bedeutung, Verhaltensrichtlinien anzupassen. „Es hat keinen Sinn, einen umfangreichen Verhaltenskodex zu erstellen, nur um festzustellen, dass er nicht auf die Probleme Ihrer Community zutrifft“, sagte er. „Die Politik muss kontinuierlich basierend auf dem Feedback der Community und den Erkenntnissen von Moderatoren, die häufige Probleme hervorheben, weiterentwickelt werden.“

„Herausforderungen wie Radikalisierung, Rekrutierung, Rassismus und Sexismus sind miteinander verbunden“, schloss Howie. „Wir haben die Technologie, um diese Probleme effektiv anzugehen. Jetzt ist die Zeit, unsere Bemühungen zu verstärken, um eine bessere Umgebung für alle Spieler zu schaffen.“

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles