Nightshade Lança: Uma Ferramenta para Artistas Protegerem Seus Trabalhos de Modelos de IA
Meses após seu anúncio, Nightshade, uma ferramenta de software gratuita projetada para artistas, já está disponível para download. Esta aplicação inovadora permite que os artistas "envenenem" modelos de IA que tentam treinar com suas obras.
Desenvolvida por cientistas da computação do Projeto Glaze da Universidade de Chicago sob a liderança do Professor Ben Zhao, Nightshade utiliza a estrutura de aprendizado de máquina de código aberto PyTorch. Ela identifica o conteúdo de uma imagem e altera sutilmente seus pixels, resultando em uma versão que parece inalterada aos olhos humanos, mas completamente diferente para os programas de IA.
Construindo sobre Inovações Anteriores
Nightshade surge após o lançamento do Glaze, uma ferramenta introduzida há quase um ano que modifica obras digitais para enganar algoritmos de treinamento de IA sobre o estilo da imagem. Enquanto o Glaze é uma ferramenta defensiva — recomendada para uso junto com o Nightshade — este último adota uma abordagem ofensiva.
Quando um modelo de IA é treinado em imagens modificadas com Nightshade, ele pode categorizar erroneamente futuras imagens, resultando em saídas bizarras. Por exemplo, uma IA pode interpretar uma imagem de uma vaca como uma bolsa de mão.
Requisitos e Funcionalidade
Para usar o Nightshade, os artistas precisam de um Mac com chips Apple (M1, M2 ou M3) ou um PC rodando Windows 10 ou 11. Os downloads para ambos os sistemas operacionais estão disponíveis. Devido à alta demanda, alguns usuários experimentaram tempos de download prolongados, com arquivos de 255MB para Mac e 2.6GB para PC.
Antes de baixar, os usuários devem aceitar o contrato de licença do usuário final (EULA) da equipe, que restringe modificações e reprodução comercial do software.
O Nightshade transforma imagens em amostras "envenenadas", fazendo com que modelos de IA treinados nelas produzam resultados imprevisíveis. Por exemplo, uma imagem alterada com Nightshade pode levar um modelo a gerar uma bolsa quando solicitado uma vaca em um cenário espacial.
A ferramenta é resistente a transformações comuns de imagem — corte, reamostragem e compressão não diminuem sua eficácia. As modificações do algoritmo não são meros marcas d'água, mas mudanças sutilmente integradas que perduram através de várias alterações.
Reações Mistas
Enquanto muitos artistas, incluindo Kelly McKernan, uma das principais autoras de uma ação coletiva de direitos autorais contra empresas de arte de IA, abraçam o Nightshade, alguns críticos argumentam que isso se assemelha a um ataque cibernético a modelos de IA. A equipe do Nightshade esclarece sua intenção: aumentar o custo de treinamento em dados não licenciados, encorajando os desenvolvedores de IA a obter licenças dos artistas.
O Contexto da Coleta de Dados
O surgimento do Nightshade está ligado a crescentes preocupações sobre a coleta de dados, onde geradores de imagens de IA extraem dados da internet sem o consentimento dos artistas. Essa prática compromete os meios de subsistência dos artistas, forçando-os a encontrar medidas de proteção contra o uso não autorizado de suas obras.
A luta contra a coleta de dados não é nova; já recebeu críticas por suas implicações para direitos autorais e uso justo. Embora as empresas de IA ofereçam opções de "exclusão", a equipe Glaze/Nightshade argumenta que essas podem ser facilmente ignoradas, tornando a aplicação quase impossível.
O Nightshade visa equilibrar o jogo ao impor custos a esforços de coleta não autorizada, incentivando uma reavaliação das práticas comerciais entre os desenvolvedores de IA. No entanto, é importante notar que o Nightshade não pode apagar infrações passadas; seu objetivo é apenas mitigar as futuras.
Em conclusão, o Nightshade representa um passo crucial na contínua luta pelos direitos dos artistas na era da IA.