iProov: El 70% de las organizaciones espera un impacto significativo de los deepfakes generados por IA.

En la aclamada serie de HBO “Game of Thrones,” la advertencia de que “los caminantes blancos vienen” se refiere a una amenazante raza de criaturas de hielo que ponen en peligro a la humanidad. De manera similar, Ajay Amlani, presidente de la empresa de autenticación biométrica iProov, sostiene que debemos considerar los deepfakes con igual urgencia.

“Ha habido una creciente preocupación por los deepfakes en los últimos años,” explicó Amlani. “Ahora, el invierno ha llegado.” Según una reciente encuesta de iProov, el 47% de las organizaciones ha encontrado deepfakes y el 70% cree que los deepfakes creados por inteligencia artificial generativa impactarán significativamente sus operaciones. Alarmantemente, solo el 62% está tomando esta amenaza en serio.

“Esta es una preocupación real,” declaró Amlani. “Se pueden crear individuos completamente ficticios que lucen, suenan y reaccionan como si fueran reales.”

Los deepfakes, avatares, voces y medios fabricados de manera realista, han avanzado rápidamente y a menudo son casi indistinguibles de la realidad. Esta sofisticación representa riesgos graves tanto para organizaciones como para gobiernos. Por ejemplo, un empleado de finanzas perdió 25 millones de dólares tras ser engañado por una videollamada deepfake de su “director financiero”. Además, la empresa de ciberseguridad KnowBe4 reveló que un nuevo empleado resultó ser un hacker norcoreano que utilizó tecnología deepfake para eludir medidas de seguridad.

Amlani destacó importantes disparidades regionales en los incidentes de deepfake: el 51% de las organizaciones en Asia-Pacífico, el 53% en Europa y el 53% en América Latina reportan encuentros con deepfakes, en comparación con solo el 34% en América del Norte. “Muchos actores maliciosos operan internacionalmente, a menudo apuntando primero a regiones locales,” añadió.

La encuesta clasifica los deepfakes entre las principales preocupaciones de seguridad, junto con las violaciones de contraseñas (64%) y el ransomware (63%), donde tanto el phishing/la ingeniería social como los deepfakes afectan al 61% de los encuestados. “Confiar en cualquier cosa digital es cada vez más difícil,” dijo Amlani. “Es crucial que cuestionemos todo lo que está en línea y construyamos defensas sólidas para verificar identidades.”

Soluciones Biométricas para Amenazas de Deepfake

El aumento en la velocidad de procesamiento, la mejora en el intercambio de información y la inteligencia artificial generativa han empoderado a los actores de amenazas a crear deepfakes sofisticados. Aunque algunos pasos básicos existen—como las advertencias de contenido en plataformas de video—son insuficientes, según Amlani. “Tales intentos apenas tocan la superficie de un problema extenso,” observó.

Los métodos tradicionales de verificación, como los captchas, se han vuelto demasiado complicados, dificultando que incluso los usuarios genuinos demuestren su identidad, especialmente entre los ancianos o aquellos con discapacidades cognitivas. En contraste, Amlani aboga por la autenticación biométrica como una solución más efectiva.

La investigación de iProov muestra que el 75% de las organizaciones están adoptando biometría facial como defensa principal contra los deepfakes, seguida por la autenticación multifactor (67%) y la educación sobre los riesgos de deepfake (63%). Las empresas también están auditando medidas de seguridad (57%) y actualizando sistemas (54%) para combatir estas amenazas.

La efectividad de varios métodos biométricos en la lucha contra los deepfakes es la siguiente:

- Huella dactilar: 81%

- Iris: 68%

- Facial: 67%

- Comportamental avanzada: 65%

- Palma: 63%

- Comportamental básica: 50%

- Voz: 48%

No todas las herramientas biométricas son igualmente efectivas, señaló Amlani. Algunos métodos requieren movimientos engorrosos, lo que facilita a los creadores de deepfakes el eludirlos. En cambio, iProov utiliza una herramienta impulsada por IA que analiza las características faciales únicas mediante reflexiones de luz en la pantalla del dispositivo. Si los resultados difieren de los patrones esperados, esto podría indicar que un actor de amenaza está intentando explotar imágenes físicas o máscaras.

La tecnología de iProov se está implementando en los sectores comercial y gubernamental, y Amlani afirma que ofrece una “solución altamente segura y rápida” con una tasa de aprobación superior al 98%.

“Hay un reconocimiento generalizado de la amenaza de los deepfakes,” concluyó Amlani. “Un esfuerzo global es esencial para combatir este problema, ya que los actores maliciosos operan sin fronteras. Es momento de prepararnos para este desafío.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles