Bumble está mejorando su plataforma para facilitar a los usuarios la denuncia de perfiles generados por inteligencia artificial. La aplicación de citas y conexiones sociales ha incorporado una opción bajo el menú de reportes de Perfiles Falsos, titulada "Uso de fotos o videos generados por IA".
“Eliminar elementos engañosos o peligrosos es esencial para fomentar conexiones significativas,” comentó Risa Stein, Vicepresidenta de Producto en Bumble. “Estamos comprometidos a mejorar nuestra tecnología para asegurar que Bumble siga siendo un entorno de citas seguro y confiable. Esta nueva función de reporte nos ayuda a comprender cómo los actores malintencionados abusan de la IA, permitiendo que nuestra comunidad haga conexiones con confianza.”
Una reciente encuesta de Bumble reveló que el 71% de los usuarios de Generación Z y Millennials desean restricciones sobre el contenido generado por IA en las aplicaciones de citas, y la misma proporción ve las imágenes generadas por IA de individuos en entornos o actividades desconocidas como una forma de catfishing.
Los perfiles falsos no solo engañan a los usuarios, sino que también pueden llevar a pérdidas financieras significativas. En 2022, la Comisión Federal de Comercio reportó casi 70,000 casos de estafas románticas, resultando en pérdidas de $1.3 mil millones. Para combatir estas amenazas, las aplicaciones de citas, incluyendo Bumble, implementan medidas de seguridad robustas. A inicios de este año, Bumble presentó el Detector de Engaño, una herramienta impulsada por IA diseñada para identificar perfiles falsos, y también lanzó una función para proteger a los usuarios de contenido explícito no deseado. Mientras tanto, Tinder ha desplegado su propio sistema de verificación de perfiles en EE. UU. y Reino Unido.