Conoce al profesor de UC Berkeley que analiza los deepfakes electorales: Luchando contra la desinformación en la era digital actual.

En la historia reciente, la tecnología nunca ha representado una amenaza mayor para la sociedad que los deepfakes. Este contenido manipulativo, generado por inteligencia artificial, ya se está utilizando como arma en la política y se espera que domine las próximas elecciones presidenciales de EE. UU., así como las contiendas para el Senado y la Cámara de Representantes. Mientras los reguladores luchan por controlar esta tecnología, deepfakes increíblemente realistas son empleados para desprestigiar a candidatos, influir en la opinión pública y manipular la participación electoral. En contraposición, algunos candidatos han intentado aprovechar la IA generativa para mejorar sus campañas, a menudo con resultados desastrosos.

El profesor Hany Farid de la Escuela de Información de la Universidad de California, Berkeley, ha tomado medidas al iniciar un proyecto para monitorear los deepfakes a lo largo de la campaña presidencial de 2024. “Mi esperanza es que al arrojar luz sobre este contenido, concienciemos a los medios y al público, y señalemos a quienes crean estos contenidos que estamos atentos y los encontraremos”, expresó Farid.

Uno de los ejemplos más destacados en el sitio de Farid muestra imágenes del presidente Joe Biden en uniforme militar en un centro de mando. El sitio resalta inconsistencias, como ratones de computadora fuera de lugar y un diseño de techos deformado, que revelan las imágenes como manipuladas. La investigación de Farid también aborda infames robocalls deepfake que imitan a Biden antes de las primarias de New Hampshire. Estas llamadas instaban a los ciudadanos a no votar, afirmando que “votar este martes solo permite a los republicanos en su búsqueda de elegir nuevamente al expresidente Donald Trump”. La procedencia de las llamadas es incierta, pero la calidad de la voz parece baja y peculiar.

En otra publicación, un deepfake de Ron DeSantis afirma falsamente: “Nunca debí haber desafiado al presidente Trump, el mejor presidente de mi vida”. El sitio también critica un montaje de Trump con el exasesor médico Anthony Fauci, señalando inconsistencias evidentes como un logo de la Casa Blanca sin sentido y elementos distorsionados en la bandera estadounidense.

Farid observa que incluso ligeros cambios en el sentimiento de los votantes pueden inclinar una elección, especialmente en los estados clave. El alcance de los deepfakes se está expandiendo, con ejemplos cada vez más sofisticados que muestran a Trump en situaciones de arresto, al presidente ucraniano Zelensky instando a los soldados a rendirse, y a la vicepresidenta Kamala Harris pareciendo ebria en un evento público. Estas herramientas manipulativas ya han influido en elecciones en países como Turquía y Bangladés, mientras que algunos políticos, como el representante Dean Phillips de Minnesota y el alcalde de Miami, Francis Suarez, han utilizado deepfakes para conectar con los votantes.

“He observado un aumento tanto en la sofisticación como en el uso indebido de deepfakes”, señala Farid. “Este año se siente como un punto de inflexión, con miles de millones a punto de votar en todo el mundo y la tecnología avanzando rápidamente”.

El peligro va más allá de la manipulación del voto, ya que los deepfakes pueden servir como excusas para comportamientos ilegales o inapropiados. Este fenómeno, conocido como el “Dividendo del Mentiroso”, ya ha sido explotado por figuras como Trump y Elon Musk. “Cuando todo puede ser falsificado, nada tiene que ser real”, enfatiza Farid.

Las investigaciones indican que los humanos pueden discernir videos deepfake un poco más del 50% de las veces y detectar audio falso el 73% de las veces. A medida que la tecnología se vuelve increíblemente realista, la difusión de contenido manipulado en redes sociales puede incitar rápidamente a la desinformación. “Hace un año, los deepfakes eran principalmente basados en imágenes y bastante evidentes”, recuerda Farid. “Hoy, vemos deepfakes audio y video sofisticados que pueden fácilmente engañar a los espectadores”.

Si bien es complicado identificar señales de advertencia consistentes, Farid aconseja no depender de las redes sociales para obtener noticias. “Si debes usar redes sociales, ralentiza, piensa críticamente antes de compartir y reconoce tus sesgos. Compartir información falsa solo agrava el problema”.

Para quienes buscan consejos prácticos, el proyecto Detect Fakes de la Universidad Northwestern ofrece una prueba para evaluar habilidades de detección, y el MIT Media Lab brinda orientación, incluyendo:

- Prestar atención a los rostros, ya que las manipulaciones de alta calidad casi siempre implican alteraciones faciales.

- Observar inconsistencias en la piel, como mejillas y frentes excesivamente suaves o arrugadas, que pueden parecer desconectadas de las texturas del cabello y ojos.

- Analizar sombras y efectos de luz que no se alinean con la física.

- Verificar el brillo exagerado en las gafas que no cambia con el movimiento.

- Evaluar el vello facial por adiciones o eliminaciones poco naturales.

- Monitorear los patrones de parpadeo y el movimiento de los labios, ya que muchos deepfakes dependen de la sincronización labial.

Si sospechas de un deepfake relacionado con las elecciones en EE. UU., considera ponerte en contacto con Farid para una investigación más profunda.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles