Cómo la IA Adversarial Está Erosionando la Confianza en un Mundo de Deepfakes

La Creciente Brecha de Confianza en Privacidad Digital y AI

Con un 87% de los estadounidenses exigiendo responsabilidad a las empresas en cuanto a la privacidad digital, pero solo un 34% confiando en su capacidad para utilizar AI efectivamente en la lucha contra el fraude, ha surgido una notable brecha de confianza. Aunque el 51% de las empresas están implementando AI para ciberseguridad y prevención de fraudes, tan solo el 43% de los consumidores globales cree que las empresas están abordando estos problemas de manera efectiva. Esto resalta la necesidad urgente de que las empresas cierren esta brecha de confianza y aseguren que sus medidas de seguridad impulsadas por AI generen confianza, especialmente ante el auge de los deepfakes.

Entendiendo la Brecha de Confianza

La creciente brecha de confianza afecta todo, desde relaciones comerciales duraderas hasta la integridad de las elecciones en democracias globales. El Índice de Confianza 2024 de Telesign arroja luz sobre esta división creciente, revelando cómo las preocupaciones sobre la confianza impactan tanto el comportamiento del consumidor como los procesos electorales nacionales.

El Impacto de los Deepfakes y la Desinformación

Los deepfakes y la desinformación están creando una desconfianza significativa entre las empresas, sus clientes y los ciudadanos que participan en elecciones. Andy Parsons, director senior de la Iniciativa de Autenticidad de Contenidos de Adobe, advierte: “Una vez engañado por un deepfake, puede que ya no confíes en lo que ves en línea. Cuando las personas no pueden diferenciar entre ficción y realidad, la democracia está en riesgo.”

La facilidad con la que se difunden los deepfakes a través de las redes sociales, a menudo impulsada por cuentas automatizadas, complica la capacidad de discernir entre contenido real y falso. Un caso notable ocurrió en septiembre de 2020, cuando Graphika y Facebook cerraron una red de cuentas chinas que publicaban contenido engañoso sobre temas geopolíticos. Los estados-nación frecuentemente invierten en campañas de desinformación para desestabilizar la democracia y fomentar el descontento social.

La Evaluación Anual de Amenazas 2024 de la Comunidad de Inteligencia de EE. UU. destaca que “Rusia utiliza AI para crear deepfakes capaces de engañar a expertos,” apuntando a individuos en regiones políticamente inestables para ejercer influencia maligna. Los atacantes utilizan tecnologías de deepfake avanzadas potenciadas por redes generativas adversariales (GANs), afectando a votantes en todo el mundo.

Según el Índice de Telesign, el 72% de los votantes globales están preocupados porque los deepfakes generados por AI socavan la integridad electoral, con un 81% de los estadounidenses expresando temores similares. Además, el 45% de los estadounidenses ha encontrado contenido político generado por AI en el último año, mientras que el 17% lo ha notado en la última semana.

Confianza en AI y Aprendizaje Automático

A pesar de las preocupaciones sobre el uso indebido de AI para perturbar elecciones, el Índice de Telesign revela un rayo de esperanza: el 71% de los estadounidenses confiarían más en los resultados electorales si se emplearan AI y aprendizaje automático (ML) para mitigar ciberataques y fraudes.

Los Mecánismos de las GANs y los Deepfakes

Las Redes Generativas Adversariales (GANs) impulsan el creciente realismo del contenido deepfake. Desde individuos malintencionados hasta actores estatales sofisticados, se utilizan GANs para generar videos y clones de voz que parecen auténticos. Cuanto más creíble sea el deepfake, mayor será la erosión potencial de la confianza de los clientes y votantes. Esta tecnología, utilizada a menudo en ataques de phishing y ingeniería social, subraya la urgente necesidad de vigilancia. The New York Times incluso ofrece un cuestionario para probar la habilidad de los lectores para diferenciar entre imágenes reales y generadas por AI, mostrando los rápidos avances en la tecnología de GAN.

Las GANs consisten en dos redes neuronales en competencia: el generador crea datos sintéticos, mientras que el discriminador evalúa su realismo. El generador busca mejorar la calidad y autenticidad de sus salidas, haciendo que los deepfakes sean cada vez más difíciles de detectar y poniendo en peligro la confianza en la sociedad.

Protegiendo la Confianza en un Mundo de Deepfakes

Christophe Van de Weyer, CEO de Telesign, enfatiza el papel crucial de la confianza en la era digital, afirmando: “A medida que la AI evoluciona, debemos priorizar soluciones de protección contra fraudes impulsadas por AI para salvaguardar datos personales e institucionales.” Telesign utiliza información de más de 2,200 señales de identidad digital para aumentar la confianza y asegurar transacciones, previniendo millones de actividades fraudulentas cada mes.

Según el Índice de Telesign, un impresionante 99% de las intrusiones digitales exitosas ocurren cuando las cuentas carecen de autenticación multifactor (MFA). Implementar estrategias robustas de MFA es esencial para frustrar brechas y mantener la confianza del cliente. La investigación indica que un número significativo de exempleados todavía tiene acceso a datos sensibles de la empresa, resaltando la importancia crítica de una gestión efectiva de identidad y acceso (IAM).

Conclusión: Preservando la Confianza Ante el Aumento de los Deepfakes

El Índice de Confianza de Telesign ilustra la necesidad urgente de abordar las brechas de confianza existentes, especialmente en las prácticas de IAM y MFA. A medida que la tecnología de GAN avanza, mejorando la capacidad de crear contenido engañoso, fortalecer las medidas de seguridad será vital para los CISOs. Casi todas las brechas comienzan con identidades comprometidas; por lo tanto, las empresas deben dar prioridad a la protección contra estas vulnerabilidades, incluso a medida que crece la amenaza de los deepfakes.

Most people like

Find AI tools in YBX