En un mundo impulsado por la inteligencia artificial, la necesidad de una moderación de juegos efectiva nunca ha sido tan crucial.

A pesar de contar con herramientas de moderación avanzadas, el volumen de contenido generado por los jugadores y la comunicación sigue creciendo, lo que lleva a discusiones en línea cada vez más intensas. Durante un reciente panel de GamesBeat Next, Hank Howie, evangelista de la industria de los videojuegos en Modulate, se unió a Alexis Miller, directora de gestión de productos en Schell Games, y Tomer Poran, vicepresidente de estrategia de soluciones en ActiveFence. Discutieron las mejores prácticas para moderar comunidades de juego de todos los tamaños y demográficos, abarcando códigos de conducta, estrategias, tecnologías y más.

Esta discusión es especialmente relevante en un momento en que las regulaciones sobre privacidad, seguridad y confianza cobran protagonismo. Poran destacó que las crecientes capacidades de la IA son esenciales no solo para detectar contenido dañino, sino también para crear estrategias de moderación de contenido. Esta evolución en la IA es crucial para actualizar las estrategias de moderación en los videojuegos, que históricamente han estado rezagadas respecto a las redes sociales.

"La seguridad infantil y del usuario son fundamentales en los videojuegos, incluso antes de las redes sociales. Sin embargo, los videojuegos aún están alcanzando a las redes sociales en moderación de contenido," explicó Poran. “Estamos observando un cambio hacia enfoques proactivos, con empresas invirtiendo en tecnologías de moderación avanzadas como las de ActiveFence y Modulate.”

Hace solo unos años, moderar contenido de voz era casi imposible, señaló Howie. Cuando la tecnología finalmente estuvo disponible, era prohibitivamente cara. Sin embargo, con soluciones asequibles de Modulate, los desarrolladores ahora tienen acceso a todo el contenido hablado en sus juegos.

“Cada empresa con la que hemos trabajado ha dicho: 'Sabía que era malo, pero no me di cuenta de que era tan malo,'” recordó Howie. “El potencial daño de las interacciones en línea es significativo, pero ahora tenemos tecnología para mitigarlo.”

A medida que las tecnologías de moderación mejoran, los desarrolladores pueden personalizar sus estrategias. Miller afirmó: “Reconocer la diversidad de las audiencias en diferentes juegos representa una gran oportunidad. Por ejemplo, nuestra audiencia es predominantemente joven, lo que influye en lo que debe ser marcado, algo muy diferente a un juego de apuestas de casino.”

Seguridad por Diseño

Implementar un enfoque de "seguridad por diseño" prioriza las medidas de protección desde el inicio, determinando características esenciales del producto y estableciendo pautas de monitoreo y cumplimiento.

“Esto implica preguntar no solo qué podría salir mal, sino cómo podría alguien que busca causar daño explotar esta característica,” dijo Poran. “Identificar riesgos únicos para nuestros juegos específicos es vital.” ActiveFence contribuye a la seguridad por diseño mediante "equipos de testing de seguridad", donde simulan el comportamiento de actores maliciosos para probar los juegos antes de su lanzamiento e identificar características potencialmente explotables.

Implementando Códigos de Conducta

“Una vez que tu comunidad entiende que ciertos comportamientos son inaceptables, te sorprendería lo rápido que se adaptan,” afirmó Howie. Involucrar a la comunidad del juego en la moderación ayuda a eliminar jugadores tóxicos.

“Nuestros datos muestran que reducir la toxicidad puede disminuir la deserción entre un 15-20% para jugadores nuevos y reincidentes,” destacó. “Cuando los jugadores se sienten seguros y respetados, es más probable que permanezcan, jueguen más tiempo y gasten más.”

Miller agregó que los códigos de conducta deben evolucionar con el tiempo para abordar desafíos imprevistos. El equipo de Schell Games considera cuidadosamente cómo abordar problemas de moderación, como el engaño y la puesta en peligro de menores, especialmente dado su público joven. Inicialmente probaron herramientas como ToxMod en un entorno beta, pero encontraron que las condiciones del mundo real eran más desafiantes.

“Nuestra comunidad beta se comportó de manera bastante diferente a los participantes del juego en vivo, lo que nos llevó a revisar nuestras políticas de moderación,” explicó Miller. “Aprendimos que el entorno en vivo presentó desafíos inesperados que eran peores de lo anticipado.”

Poran subrayó la importancia de adaptar los códigos de conducta. “No tiene sentido crear un extenso código de conducta solo para descubrir que no se aplica a los problemas de tu comunidad,” dijo. “La política debe evolucionar continuamente en base a la retroalimentación de la comunidad y las percepciones de los moderadores que destacan temas prevalentes.”

“Desafíos como la radicalización, el reclutamiento, el racismo y la misoginia están interconectados,” concluyó Howie. “Contamos con la tecnología disponible para abordar estos problemas de manera efectiva. Ahora es el momento de reforzar nuestros esfuerzos para crear un mejor entorno para todos los jugadores.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles