Bumble améliore sa plateforme pour faciliter le signalement des profils générés par l'IA. L'application de rencontres et de mise en relation sociale a ajouté une option intitulée « Utilisation de photos ou vidéos générées par l'IA » dans son menu de signalement de faux profils.
« Éliminer les éléments trompeurs ou dangereux est essentiel pour favoriser des connexions significatives », a déclaré Risa Stein, vice-présidente produit chez Bumble. « Nous nous engageons à perfectionner notre technologie pour garantir que Bumble demeure un environnement de rencontre sûr et fiable. Cette nouvelle fonctionnalité de signalement nous aide à comprendre comment les acteurs malveillants abusent de l'IA, permettant à notre communauté de créer des connexions en toute confiance. »
Une récente étude de Bumble a révélé que 71 % des utilisateurs de la génération Z et des Milléniaux souhaitent des restrictions sur le contenu généré par l'IA dans les applications de rencontres, ce même pourcentage considérant les images générées par l'IA d'individus dans des contextes ou des activités inconnues comme une forme de catfishing.
Les faux profils non seulement trompent les utilisateurs mais peuvent également entraîner des pertes financières considérables. En 2022, la Federal Trade Commission a rapporté près de 70 000 cas d'escroqueries amoureuses, causant des pertes de 1,3 milliard de dollars. Pour lutter contre ces menaces, les applications de rencontres, y compris Bumble, mettent en œuvre des mesures de sécurité robustes. Plus tôt cette année, Bumble a introduit le Détecteur de Tromperie, un outil alimenté par l’IA conçu pour identifier les faux profils, et a également lancé une fonctionnalité pour protéger les utilisateurs contre les contenus explicites indésirables. Pendant ce temps, Tinder a déployé son propre système de vérification de profil aux États-Unis et au Royaume-Uni.