Lors du récent sommet GamesBeat, le rôle de l'IA dans les jeux a été particulièrement mis en avant par l'intervention de Will Wright sur l'avenir de l'IA dans le développement de jeux. Une autre conversation clé a été menée par Kim Kunes, vice-présidente de la confiance et de la sécurité chez Microsoft, qui a partagé des perspectives sur l'application de l'IA pour la sécurité des joueurs.
Kunes a souligné que bien que l'IA puisse améliorer le soutien aux modérateurs humains, elle ne pourra jamais les remplacer entièrement dans la protection des utilisateurs. "L'IA peut aider à atténuer les risques potentiels," a-t-elle expliqué, "permettant ainsi aux modérateurs de se concentrer sur des problèmes importants plutôt que d'être submergés par des tâches routinières."
Les protocoles de sécurité d’Xbox intègrent actuellement des fonctionnalités de modération proactives et réactives. Le dernier rapport de transparence révèle l'introduction d'outils basés sur l'IA, tels que le traitement d'image par correspondance de motifs et le marquage automatique, visant à identifier et filtrer les contenus toxiques en fonction de modèles établis.
En abordant l'intégration de l'IA avec la supervision humaine, Kunes a noté que cela permet aux modérateurs de concentrer leur expertise sur la création d'environnements plus sûrs. "Auparavant, les modérateurs passaient trop de temps à trier du contenu répétitif, ce qui affectait aussi leur santé. Désormais, l'IA gère les tâches banales et réduit leur exposition à du contenu toxique," a-t-elle déclaré.
Kunes a conclu fermement qu'une présence humaine est essentielle dans les opérations de sécurité. "Nous n'arriverons jamais à un point où les modérateurs humains seraient obsolètes. La sécurité nécessite un engagement humain constant; ce n'est pas un processus que l'on peut 'configurer et oublier'. Les experts en modération et en sécurité doivent rester en première ligne."