Controversiales Deepfakes de IA de Taylor Swift Provocan Indignación entre Fans y Legisladores

Si has visitado X, la plataforma de redes sociales anteriormente conocida como Twitter, en las últimas 24-48 horas, probablemente te has encontrado con imágenes y videos deepfake generados por inteligencia artificial que presentan a Taylor Swift. Estas imágenes explícitas la mostraban en situaciones no consensuadas con seguidores de su novio, el jugador de la NFL Travis Kelce, de los Kansas City Chiefs.

Esta representación no consensuada ha provocado indignación entre los fans de Swift, llevando al hashtag #ProtectTaylorSwift a ser tendencia, junto a “Taylor Swift AI”, mientras los medios de comunicación de todo el mundo informaban sobre el incidente. Mientras tanto, X ha tenido dificultades para eliminar el contenido y evitar que se vuelva a publicar, lo que se asemeja a un juego de "golpear al topo".

La situación ha reavivado debates entre los legisladores de EE. UU. sobre la regulación del mercado de IA generativa, que evoluciona rápidamente. Sin embargo, persisten preguntas críticas sobre cómo hacer cumplir las regulaciones sin sofocar la innovación o infringir los derechos de la Primera Enmienda que protegen la parodia, el arte de fans y otras formas de expresión que involucran a figuras públicas.

¿ Qué Herramientas Se Usaron Para Crear los Deepfakes de IA?

No está claro qué herramientas específicas de IA se utilizaron para generar los deepfakes de Swift. Plataformas líderes como Midjourney y DALL-E 3 de OpenAI prohíben estrictamente la creación de contenido explícito o sugerente. Según Newsweek, la cuenta @Zvbear en X se atribuyó la publicación de algunos deepfakes, pero luego hizo su cuenta privada.

Investigaciones del medio tecnológico independiente 404 Media rastrearon las imágenes hasta un grupo de Telegram que supuestamente utilizaba “las herramientas de IA de Microsoft”, específicamente Microsoft Designer, que está impulsado por DALL-E 3 y tiene restricciones de contenido similares.

A pesar de políticas estrictas, el modelo de IA de código abierto Stable Diffusion de Stability AI permite a los usuarios crear contenido variado, incluidos materiales sexualmente explícitos. Esta flexibilidad ha generado preocupación, ya que plataformas como Civitai han sido señaladas por facilitar la creación de imágenes de IA no consensuadas. Aunque Civitai ha anunciado esfuerzos para combatir este mal uso, no ha estado vinculada a los deepfakes de Swift.

La implementación de Stable Diffusion en Clipdrop también prohíbe el contenido explícito. Sin embargo, los usuarios han encontrado formas persistentes de eludir estas salvaguardias, lo que ha resultado en la reciente afluencia de imágenes deepfake de Swift.

A pesar de la creciente aceptación de la IA para proyectos creativos consensuados—como la serie True Detective: Night Country de HBO—el mal uso de esta tecnología con fines dañinos podría empañar su imagen pública e invitar a regulaciones más estrictas.

Posibles Acciones Legales

Un informe de The Daily Mail indica que Taylor Swift está "furiosa" por la distribución de las imágenes explícitas y está considerando acciones legales. Aún es incierto si esta acción se dirigirá a la plataforma Celeb Jihad, que albergó las imágenes, a las herramientas de IA que facilitaron su creación o a los responsables de generarlas.

Este incidente ha intensificado las preocupaciones sobre las herramientas de IA generativa y su potencial para crear imágenes perjudiciales de personas reales, alimentando los llamados de los legisladores de EE. UU. por regulaciones más estrictas.

Tom Kean, Jr., un congresista republicano de Nueva Jersey, presentó recientemente dos proyectos de ley: el AI Labeling Act y el Preventing Deepfakes of Intimate Images Act. Ambas propuestas buscan mejorar la regulación en el ámbito de la IA.

El AI Labeling Act exigiría que el contenido generado por IA incluya un aviso claro que indique su creación artificial, aunque la efectividad de tal etiquetado para prevenir la difusión de contenido explícito es cuestionable. Meta y OpenAI ya han implementado medidas de etiquetado similares para informar a los usuarios sobre imágenes generadas por IA.

El segundo proyecto de ley, coauspiciado por el demócrata Joe Morelle, busca enmendar la Ley de Violencia contra la Mujer. Esto facultaría a las víctimas de deepfakes no consensuados a emprender acciones legales contra los creadores y plataformas, permitiendo potencialmente indemnizaciones de $150,000 y penas de prisión de hasta 10 años para los infractores.

Aunque estos proyectos de ley pueden no ayudar directamente a Swift en su caso, podrían allanar el camino para una mejor protección de futuras víctimas de deepfakes generados por IA.

Para que ambos proyectos se conviertan en ley, deben avanzar a través de los comités pertinentes, recibir un voto del pleno de la Cámara de Representantes y aprobarse en el Senado. Actualmente, ambos proyectos están en la fase introductoria.

Declaración del Congresista Kean sobre el Incidente

En respuesta al incidente de deepfake, el congresista Kean afirmó: “La tecnología de IA avanza más rápido que las medidas necesarias de seguridad. Ya sea que la víctima sea Taylor Swift o cualquier joven en nuestro país, debemos establecer salvaguardias para combatir esta alarmante tendencia. Mi proyecto de ley, el AI Labeling Act, sería un avance significativo”.

Este incidente, junto con sucesos similares, destaca la urgente necesidad de acción legislativa para abordar las crecientes preocupaciones en torno al contenido generado por IA y sus implicaciones para la privacidad y la seguridad personal.

Most people like

Find AI tools in YBX