A Anthropic, uma startup de IA generativa de destaque, apresentou recentemente uma resposta judicial desafiando as alegações de infração de direitos autorais feitas por uma coalizão de editoras de música, incluindo Concord, Universal e ABKCO, contra seu chatbot Claude (agora substituído pelo Claude 2).
No outono de 2023, essas editoras iniciaram um processo federal no Tennessee, alegando que a Anthropic coletou ilegalmente letras de músicas da internet para treinar seus modelos de IA, reproduzindo assim letras protegidas por direitos autorais nas interações do chatbot.
Em resposta a um pedido de liminar — que obrigaria a Anthropic a interromper a disponibilidade do Claude — a empresa reiterou argumentos comuns em outras disputas de direitos autorais envolvendo IA. Empresas de IA generativa, como a Anthropic e a OpenAI, afirmam que o uso de dados disponíveis publicamente, incluindo material protegido, está dentro da doutrina de "uso justo", que pode ser logo testada na Suprema Corte.
Impacto Mínimo das Letras nos Dados de Treinamento
A Anthropic argumenta que o uso das letras das músicas dos autores por parte da empresa é "transformativo", conferindo novos propósitos e características às obras originais. Citando o diretor de pesquisa Jared Kaplan, o documento enfatiza que o objetivo é construir um conjunto de dados que ensine uma rede neural sobre a linguagem humana.
A empresa ainda argumenta que a inclusão das letras das músicas representa uma "fração minúscula" dos dados de treinamento gerais, tornando financeiramente inviável adquirir licenças para o extenso texto necessário ao treinamento de modelos como o Claude. Eles ressaltam que a obtenção de licenças para trilhões de trechos de dados de diversos gêneros é impraticável para qualquer entidade.
Um aspecto único do argumento da Anthropic é a afirmação de que os autores se envolveram em "conduta voluntária", estabelecendo responsabilidade direta por infrações. Nesse contexto, a Anthropic sugere que as editoras, ao buscarem de forma direcionada provocar a produção de letras pelo Claude, efetivamente controlaram a geração do conteúdo supostamente infrator, transferindo a responsabilidade para longe da Anthropic.
Contestando Dano Irreparável
Além de desafiar a responsabilidade por direitos autorais, a Anthropic argumenta que os autores não conseguem demonstrar dano irreparável. Eles afirmam que há evidências insuficientes de queda nas receitas de licenciamento desde o lançamento do Claude, observando que os próprios editores acreditam que uma compensação monetária poderia remediar qualquer dano alegado — contradizendo suas alegações de dano irreparável.
A Anthropic argumenta que o pedido de liminar contra seus modelos de IA não é justificado, dada a fraca evidência de dano irreparável. Eles também afirmam que quaisquer saídas líricas previamente geradas foram um "bug" não intencional, que foi solucionado com novas salvaguardas para prevenir recorrências futuras.
A empresa alega que o pedido dos autores é excessivamente amplo, buscando restringir não apenas as 500 obras específicas citadas no caso, mas milhões de outras obras sob seu controle declarado.
A Anthropic também contesta o local, afirmando que a ação judicial foi indevidamente apresentada no Tennessee, uma vez que suas operações estão baseadas na Califórnia e nenhuma das atividades alegadas ocorreu no Tennessee. Seus termos de serviço estipulam que disputas seriam litigadas em tribunais da Califórnia.
A Batalha de Direitos Autorais em Curso
A luta pela proteção de direitos autorais no crescente setor de IA generativa está se intensificando. Vários artistas se juntaram a processos contra modelos criativos generativos como Midjourney e DALL-E da OpenAI, trazendo mais evidências de infração de direitos autorais. Recentemente, o The New York Times entrou com sua própria ação contra a OpenAI e a Microsoft por usar seu conteúdo sem permissão no treinamento de modelos de IA, buscando bilhões em danos e demandando a destruição de quaisquer modelos de IA que utilizem seu material.
Em resposta a essas tensões, surgiu um grupo sem fins lucrativos chamado "Fairly Trained", que defende uma certificação de dados licenciados para materiais de treinamento de IA, com apoio de editoras de música como Concord e Universal.
Além disso, grandes empresas como Anthropic, Google e OpenAI prometeram garantias legais para usuários corporativos de conteúdo gerado por IA. Embora os criadores permaneçam firmes em suas batalhas legais, incluindo o caso de Sarah Silverman contra a OpenAI, os tribunais precisarão navegar nas complexidades dos avanços tecnológicos versus direitos estatutários.
À medida que a supervisão regulatória sobre práticas de mineração de dados se intensifica, os resultados dos processos em andamento e das audiências do Congresso podem moldar o futuro da proteção de direitos autorais no contexto da IA generativa. Os próximos passos permanecem incertos, mas o recente pedido da Anthropic sugere que as empresas de IA generativa estão se unindo em torno de defesas específicas baseadas em uso justo e danos. Até agora, nenhum autor de direitos autorais conseguiu obter uma liminar preliminar em disputas relacionadas à IA, e a Anthropic busca manter essa tendência à medida que essa saga legal se desenrola.