Gen AI: El Amigo y Enemigo del Fraude de Identidad

La IA generativa puede componer un soneto en segundos, pero también facilita miles de millones en fraudes de identidad, dañando gravemente la reputación de individuos, organizaciones y gobiernos. Según el Informe Global de Fraude de Identidad Q2 2023 de AU10TIX, el fraude de identidad organizado en EE. UU. ha aumentado un 44 % en comparación con trimestres anteriores.

Los datos del informe de AU10TIX provienen de sus soluciones de detección de fraudes impulsadas por IA, especialmente del Serial Fraud Monitor. Esta herramienta ha registrado un incremento en ataques organizados profesionales y diversos modos de ataque a nivel global, centrándose notablemente en sectores vulnerables como el comercio de criptomonedas y los pagos. Este aumento se correlaciona directamente con nuestro mundo cada vez más digital, dificultando el establecimiento de confianza entre servicios financieros, consumidores y la tecnología que garantiza interacciones seguras; un problema agravado por la IA generativa.

“Los modelos de lenguaje amplios y la IA generativa permiten a los estafadores profesionales imitar identidades válidas de forma convincente, complicando la distinción entre falsificaciones e identidades genuinas”, afirma Dan Yerushalmi, CEO de AU10TIX. “Los estafadores no solo abren algunas cuentas; realizan ataques masivos que pueden durar semanas o meses, causando daños generalizados”, añade Ofer Friedman, Director de Desarrollo Comercial de AU10TIX. “Las organizaciones enfrentan repercusiones más graves y muchas veces se sienten abrumadas”.

Los consumidores exigen mayor seguridad y control, priorizando cada vez más la seguridad sobre la conveniencia. Las organizaciones que no cumplan con estas expectativas de seguridad arriesgan perder la confianza de sus clientes.

El impacto de la IA generativa en el fraude

“La IA generativa proporciona a los estafadores vastas cantidades de datos y les permite adaptar sus métodos de manera infinita”, explica Yerushalmi. “Es accesible y rentable, atrayendo a nuevos actores que pueden explotar estas herramientas de ciberataques para un impacto significativo”.

La IA generativa influye en el fraude a través de varios mecanismos. Los deepfakes pueden crear imágenes, grabaciones de voz y videos realistas para ejecutar sofisticadas estafas de ingeniería social y phishing. Los estafadores utilizan deepfakes para establecer cuentas falsas, eludir la verificación de identidad o burlar sistemas biométricos mediante ataques de presentación e inyección.

Además, la IA generativa permite a los estafadores fabricar identidades completas. “Los estafadores están adoptando la tecnología de IA más rápido que otros sectores”, comenta Friedman. “Esta tecnología cambia la dinámica de la detección de fraudes. Antes, identificar signos de manipulación era clave, pero ahora detectar identidades completamente fabricadas es crucial”.

Las identificaciones sintéticas—combinaciones de números de Seguro Social robados, nombres, direcciones e información falsificada—pueden pasar los cheques de verificación. Estas personas digitales evolucionadas imitan el comportamiento humano legítimo, complicando la detección y allanan el camino para esquemas de fraude coordinados como el fraude crediticio, las suplantaciones de cuentas y el lavado de dinero.

Combatir el fraude con herramientas de IA

¿Cómo pueden las organizaciones combatir el fraude casi indetectable? Friedman sugiere mejorar la seguridad existente con capacidades de detección de IA generativa. “Para contrarrestar estas amenazas, es esencial implementar estrategias de detección en múltiples capas, evaluando el fraude y a sus perpetradores desde diferentes perspectivas”.

La detección de deepfakes por IA emplea algoritmos para identificar contenido manipulado, evaluando factores como transformaciones faciales e inconsistencias de iluminación. Integrar marcadores biométricos—como puntos faciales y patrones de voz—agrega un nivel de scrutinio adicional.

Las organizaciones deben desplegar sistemas de verificación de identidad automatizados de IA y aprendizaje automático, añadiendo una capa robusta para detectar ataques coordinados sofisticados a nivel de tráfico de red. Una red neuronal avanzada puede analizar patrones de fraude sutiles en tiempo real, permitiendo intervenciones proactivas. El Serial Fraud Monitor de AU10TIX agrega datos anonimizados de diversas instituciones a gran escala, facilitando la identificación de patrones de fraude sofisticados.

Yerushalmi enfatiza que, aunque la IA generativa potencia tanto las capacidades de fraude como la detección, no se deben pasar por alto los algoritmos tradicionales. “Un enfoque equilibrado que combine aprendizaje automático, IA y técnicas fundamentales es vital para lograr resultados óptimos”.

La prevención del fraude optimizada es imperativa; los clientes valoran cada vez más la seguridad, pero exigen una experiencia de usuario sin interrupciones. “Los usuarios abandonan las empresas si no están satisfechos con el proceso, eligiendo alternativas disponibles”, advierte Yerushalmi. “Pierden la paciencia rápidamente, por lo que integrar tecnologías de protección en la autenticación debe mejorar la seguridad sin sacrificar la experiencia del usuario”.

Manteniendo la confianza del cliente

Proteger a los clientes del fraude es una obligación legal y ética de las organizaciones, esencial para la supervivencia del negocio. Esta responsabilidad implica resguardar a los clientes de pérdidas financieras y fomentar la confianza y lealtad. Combatir el fraude sofisticado a nivel mundial depende de esfuerzos colaborativos entre las organizaciones.

“Las organizaciones deben unirse para combatir el fraude a escala global, y AU10TIX está comprometida a fomentar la confianza en esta labor”, asegura Yerushalmi. “A medida que evolucionan nuevas tecnologías y la IA generativa, continuamos dedicados a ser un socio confiable en el entorno digital”.

Most people like

Find AI tools in YBX