Em um post de hoje, a Meta anunciou planos para identificar e rotular conteúdo gerado por IA no Facebook, Instagram e Threads, embora tenha alertado que "ainda não é possível identificar todo o conteúdo gerado por IA." Essa ação ocorre após a recente disseminação viral de deepfakes pornográficos da cantora Taylor Swift no Twitter, que provocou reações negativas de fãs, legisladores e da mídia global. A medida é especialmente relevante, pois a Meta enfrenta crescente pressão para gerenciar imagens geradas por IA e vídeos manipulados antes das eleições nos EUA em 2024.
Nick Clegg, presidente de assuntos globais da Meta, afirmou que "esses são os primeiros passos na disseminação de conteúdo gerado por IA." Ele observou que, à medida que o uso de IA cresce, "a sociedade irá se envolver em debates sobre como identificar tanto o conteúdo sintético quanto o não sintético." Clegg enfatizou que a Meta continuará monitorando os desenvolvimentos, colaborando com parceiros da indústria e mantendo diálogos com governos e a sociedade civil.
As iniciativas da Meta estão alinhadas com as melhores práticas do setor, como demonstrado pela parceria com o Partnership on AI (PAI) para estabelecer padrões de identificação de conteúdo gerado por IA. A plataforma planeja rotular imagens carregadas por usuários em seus serviços quando detectar indicadores padrões de geração por IA. Desde o lançamento de seu serviço de imagem por IA, imagens fotorrealistas criadas com a Meta AI foram rotuladas como "Imaginadas com IA."
Clegg destacou que os métodos atuais da Meta representam o que há de mais avançado em capacidades técnicas. "Estamos trabalhando diligententemente em classificadores para detectar automaticamente conteúdo gerado por IA, mesmo na ausência de marcadores invisíveis," acrescentou, enquanto também se esforçam para garantir marcas d'água invisíveis que impeçam a remoção ou alteração.
Esse anúncio faz parte dos esforços mais amplos da Meta para identificar e rotular efetivamente conteúdo gerado por IA, utilizando técnicas como marcas d'água invisíveis. Em julho de 2023, sete empresas de tecnologia se comprometeram com ações concretas para aumentar a segurança relacionada à IA, incluindo a marcação de água, enquanto o Google DeepMind lançou uma versão beta do SynthID, que insere marcas d'água digitais imperceptíveis diretamente nas imagens.
Entretanto, especialistas alertam que a marcação digital, visível ou ocultada, não é infalível. Um professor de ciência da computação da Universidade de Maryland apontou que "não temos nenhuma marca d'água confiável neste momento — nós quebramos todas elas." Feizi e sua equipe demonstraram a facilidade com que indivíduos mal-intencionados podem remover marcas d'água ou adicioná-las falsamente a imagens criadas por humanos, provocando rotulagens incorretas de conteúdo.
Margaret Mitchell, cientista-chefe de ética na Hugging Face, enfatizou que, embora marcas d'água invisíveis não sejam uma solução definitiva para identificar conteúdo gerado por IA, elas servem como ferramentas valiosas para criadores legítimos que buscam uma forma de "rótulo nutricional" para o conteúdo de IA. Ela destacou a importância de entender a proveniência do conteúdo: "Conhecer a linhagem de onde o conteúdo veio e como evoluiu é crucial para rastrear consentimento, crédito e compensação."
Mitchell expressou entusiasmo pelo potencial das tecnologias de marcação, reconhecendo que, embora existam falhas na IA, a tecnologia geral é promissora. "É essencial reconhecer o panorama maior em meio às recentes discussões sobre as capacidades da IA," ela concluiu.