Deepfakes Controversos de Taylor Swift Geram Indignação entre Fãs e Legisladores

Se você acessou o X, a plataforma de mídia social anteriormente conhecida como Twitter, nas últimas 24-48 horas, provavelmente se deparou com imagens e vídeos deepfake gerados por IA que apresentavam Taylor Swift. Essas imagens explícitas a mostravam em situações não consensuais com fãs de seu namorado, o jogador da NFL Travis Kelce, que joga pelo Kansas City Chiefs.

Essa representação não consensual gerou indignação entre os fãs de Swift, levando ao trending do hashtag #ProtectTaylorSwift junto com “Taylor Swift AI”, enquanto veículos de notícias de todo o mundo noticiavam o incidente. Enquanto isso, o X enfrentava dificuldades para remover o conteúdo e impedir sua republicação, em um verdadeiro jogo de "whac-a-mole".

A situação reacendeu discussões entre os legisladores dos EUA sobre como regular o mercado em rápida evolução da IA generativa. No entanto, permanecem questões cruciais sobre como implementar essas regulamentações sem sufocar a inovação ou infringir os direitos da Primeira Emenda, que protegem paródias, fan arts e outras formas de expressão envolvendo figuras públicas.

Ferramentas Utilizadas para Criar os Deepfakes de IA

Ainda não está claro quais ferramentas de IA específicas foram usadas para gerar os deepfakes de Swift. Plataformas líderes, como Midjourney e DALL-E 3 da OpenAI, proíbem rigorosamente a criação de conteúdo explícito ou sugestivo. Segundo a Newsweek, a conta @Zvbear no X assumiu a responsabilidade por postar alguns dos deepfakes, mas posteriormente tornou sua conta privada.

Investigações do veículo independente 404 Media rastrearam as imagens até um grupo no Telegram que supostamente utilizou "ferramentas de IA da Microsoft", especificamente o Designer da Microsoft, que é alimentado pelo DALL-E 3 e tem restrições similares de conteúdo. Apesar das políticas rigorosas, o modelo de IA de código aberto Stable Diffusion, da Stability AI, permite a criação de conteúdos variados, incluindo materiais sexualmente explícitos. Essa flexibilidade tem gerado preocupações, pois plataformas como a Civitai foram sinalizadas por facilitarem a criação de imagens de IA não consensuais. Embora a Civitai tenha anunciado esforços para combater esse uso indevido, não há ligação com os deepfakes de Swift.

A implementação do Stable Diffusion no Clipdrop também proíbe conteúdo explícito. No entanto, os usuários têm encontrado maneiras persistentes de contornar essas proteções, resultando no recente aumento das imagens deepfake de Swift. Mesmo com a crescente aceitação da IA para projetos criativos consensuais—como “True Detective: Night Country” da HBO—o uso indevido da tecnologia para fins prejudiciais pode manchar sua imagem pública e gerar regulamentações mais rigorosas.

Possíveis Ações Legais

Um relatório do Daily Mail indica que Taylor Swift está "furiosa" com a distribuição das imagens explícitas e está considerando ações legais. Não está claro se essas ações seriam direcionadas à plataforma Celeb Jihad, que hospedou as imagens, às ferramentas de IA que facilitaram sua criação ou aos responsáveis por produzi-las.

Esse incidente intensificou as preocupações em relação às ferramentas de IA generativa e seu potencial para criar imagens prejudiciais de indivíduos reais, alimentando pedidos de legisladores dos EUA por regulamentações mais rígidas. Tom Kean, Jr., congressista republicano de Nova Jersey, recentemente apresentou dois projetos de lei: o AI Labeling Act e o Preventing Deepfakes of Intimate Images Act. Ambas as propostas visam aumentar a regulamentação no espaço da IA.

O AI Labeling Act exigiria que conteúdos gerados por IA incluíssem um aviso claro indicando sua criação artificial, embora a eficácia de tal rotulagem na prevenção da disseminação de conteúdo explícito seja questionável. Meta e OpenAI já implementaram medidas de rotulagem similares para informar os usuários sobre imagens geradas por IA.

O segundo projeto, co-patrocinado pelo democrata Joe Morelle, busca emendar a Lei de Violência Contra as Mulheres. Ele permitiria que vítimas de deepfakes não consensuais buscassem ações legais contra criadores e plataformas, podendo resultar em indenizações de $150.000 e penas de até 10 anos de prisão para os infratores.

Embora esses projetos possam não ajudar diretamente Swift em seu caso, eles podem abrir caminho para melhores proteções para futuras vítimas de deepfakes gerados por IA. Para que ambos os projetos se tornem lei, eles devem passar pelas comissões relevantes, receber um voto da Câmara dos Representantes e aprovar um projeto correspondente no Senado. Atualmente, ambos os projetos estão na fase introdutória.

Declaração do Congressman Kean sobre o Incidente

Em resposta ao incidente do deepfake, o congressista Kean afirmou: “A tecnologia de IA está avançando mais rapidamente do que as proteções necessárias. Seja a vítima Taylor Swift ou qualquer jovem em nosso país, precisamos estabelecer salvaguardas para combater essa tendência alarmante. Meu projeto de lei, o AI Labeling Act, seria um passo significativo nessa direção.”

Esse incidente, juntamente com ocorrências similares, ressalta a necessidade urgente de ação legislativa para abordar as crescentes preocupações em torno do conteúdo gerado por IA e suas implicações para a privacidade e segurança pessoal.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles