Как Rec Room удалось сократить токсичность в голосовом чате игроков на 70%

Команда по доверию и безопасности в Rec Room, популярной социальной игровой платформе, добилась значительных успехов в снижении токсичности за последние 18 месяцев. В этом материале мы исследуем метрики, инструменты и стратегии, которые повысили уровень счастья игроков, увеличили вовлеченность и изменили игровой опыт.

Повышение качества игрового процесса и безопасности должно быть приоритетом для разработчиков игр. В недавнем интервью Mark Frumkin, директор по управлению аккаунтами в Modulate, и Yasmin Hussain, глава отдела доверия и безопасности в Rec Room, обсудили эффективные стратегии защиты игроков от токсичного поведения. Они поделились мнениями о сотрудничестве Rec Room с ToxMod, решением для модерации голосового чата на основе машинного обучения.

Запущенный в 2016 году, Rec Room уже имеет более 100 миллионов пользователей. Игроки взаимодействуют в реальном времени через текстовые и голосовые чаты на различных платформах, включая ПК, мобильные устройства, VR-гарнитуры и консоли, используя настраиваемые аватары. "Rec Room был создан для того, чтобы быть пространством с множеством миров и комнат, созданных не только нами, но и нашими игроками," отметила Hussain. "Доверие и безопасность являются ключевыми элементами нашего видения."

Тем не менее, взаимодействие в реальном времени неизбежно привлекает некоторых игроков с неподобающим поведением. Как разработчики могут изменить поведение тех, кто не придерживается общественных стандартов?

За последний год Rec Room удалось сократить случаи токсичного голосового чата примерно на 70%, хотя этот прогресс не был достигнут быстро.

Пошаговое решение токсичности

Первый шаг заключался в внедрении непрерывной модерации голосового чата во всех публичных комнатах, устанавливая четкие ожидания относительно поведения игроков. Затем команда сосредоточилась на определении наиболее эффективных ответов на нарушения. Они провели различные тесты, экспериментируя с разными временными сроками для отключений и банов, а также с двумя видами предупреждений: строгим и с положительным подкреплением.

Их исследования показали, что мгновенное реагирование и однобочное отключение на час значительно сокращают плохое поведение. Этот немедленный ответ служит сильным напоминанием игрокам, что токсичное поведение не будет терпеться.

Хотя этот подход не устранил токсичность полностью, он дал заметные результаты. При изучении ситуации команда обнаружила, что небольшой процент игроков отвечает за большинство нарушений. Как можно эффективно решить проблему с этой группой?

"Существовала явная связь между несколькими игроками и большим количеством нарушений, что побудило нас спроектировать дальнейшие эксперименты," объяснила Hussain. "Настраивая наши вмешательства – например, выдавая первое отключение или предупреждение, за которыми следуют последующие отключения – мы стремимся создать кумулятивный эффект, способствующий обучению. Мы наблюдаем обнадеживающие результаты от этой стратегии."

Внедрение экспериментов в области доверия и безопасности

Frumkin подчеркнул важность отслеживания конкретных метрик для улучшения стратегий модерации. Ключевыми данными являются информация о том, что говорят игроки, частота нарушений и профили повторных нарушителей.

Установление четкой гипотезы заранее имеет решающее значение. "Гипотеза – это ключевая вещь," заявила Hussain. "Когда мы тестировали различные вмешательства для снижения нарушений, это отличалось от наших усилий по изменению конкретного поведения игроков."

Итерация имеет решающее значение для обучения и улучшения стратегий, но эксперименты также должны проводиться достаточно долго, чтобы собрать значимые данные и повлиять на поведение игроков.

"Мы хотим, чтобы игроки соблюдали стандарты сообщества и становились положительными участниками. Это зачастую требует отказа от поведенческих привычек, выработанных со временем," добавила Hussain. "Обычно нужно от трех до шести недель, чтобы игроки адаптировались к этому новому нормальному состоянию."

Тем не менее, проблемы продолжают существовать. Прогресс в одной области может приводить к возникновению новых вопросов, что требует постоянных корректировок модерационных техник. Хотя модерация голосового чата в реальном времени является сложной задачей, команда Rec Room уверена в точности своих вмешательств и в увеличении чувства безопасности у игроков.

"Нам удалось значительно снизить количество нарушений, и примерно 90% наших игроков сообщают, что чувствуют себя в безопасности и приветствуемы в Rec Room," отметила Hussain. "Важно не только, чтобы правосудие было реализовано, но и чтобы игроки видели эти изменения, укрепляя тем самым стандарты нашего сообщества."

Будущее голосовой модерации на базе ИИ

Чтобы сделать Rec Room более безопасной и приятной средой, ToxMod постоянно анализирует данные, связанные с нарушениями политики и взаимодействиями игроков. Важно, чтобы модерация развивалась, не только сдерживая токсичное поведение, но и поощряя действия, улучшающие опыт игроков.

"Мы разрабатываем возможность идентификации про-социального поведения," отметил Frumkin. "Признание игроков, которые поддерживают или умеют разряжать напряженные ситуации, позволяет нам выделять образцы для подражания в сообществе. Увеличение положительного влияния может значительно улучшить атмосферу."

Модерация голоса, особенно в реальном времени, представляет собой значительные вызовы. Тем не менее, инструменты на основе ИИ революционизируют стратегии модерации и расширяют возможности команд разработчиков.

"Этот прогресс позволяет нам повышать наши амбиции. То, что казалось невозможным вчера, теперь достижимо," заметила Hussain. "Мы наблюдаем значительные улучшения в эффективности и результативности технологий машинного обучения, что открывает новые возможности для приоритизации безопасности сообщества."

Чтобы узнать больше о том, как справляться с токсичностью в играх, изучить стратегии изменения поведения игроков и трансформирующее влияние машинного обучения, не пропустите этот информативный материал VB Spotlight, доступный бесплатно по запросу.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles