A OpenAI anunciou hoje várias atualizações significativas, sendo a mais notável o lançamento do "Media Manager", previsto para 2025. Esta ferramenta inovadora permitirá que criadores gerenciem seu conteúdo, especificando quais obras podem ser usadas para o treinamento de IA e quais devem ser excluídas.
Conforme detalhado em um post no blog da OpenAI, o Media Manager é projetado para "capacitar criadores e proprietários de conteúdo a identificar o que possuem e ditar como suas obras devem ser usadas em pesquisas de aprendizado de máquina. Nosso objetivo é integrar recursos adicionais ao longo do tempo."
Essa ferramenta pioneira utilizará pesquisas avançadas em aprendizado de máquina para identificar textos, imagens, áudio e vídeo protegidos por direitos autorais em diversas plataformas, garantindo que as preferências dos criadores sejam respeitadas. A OpenAI está colaborando estreitamente com criadores, proprietários de conteúdo e reguladores durante seu desenvolvimento, visando estabelecer padrões da indústria até 2025.
Embora os detalhes de preços ainda não estejam disponíveis, espera-se que a ferramenta seja gratuita, já que a OpenAI se posiciona como uma líder ética no desenvolvimento de IA.
Por que o Media Manager é Essencial
O Media Manager visa aumentar a proteção dos criadores contra a extração não autorizada de dados por IA, superando o método anterior de configuração de um arquivo robots.txt (“User-agent: GPTBot Disallow: /”), implementado pela OpenAI em agosto de 2023. Muitos criadores compartilham seu trabalho em plataformas que não controlam, como DeviantArt e Patreon, limitando sua capacidade de ajustar as configurações de acesso. Além disso, alguns podem querer que apenas obras específicas sejam excluídas da extração de dados, e o Media Manager proporcionará o controle granular necessário.
A OpenAI reconhece que as soluções existentes são insuficientes, visto que muitos criadores não têm controle sobre onde seu conteúdo aparece e como é usado online. "Reconhecemos que estas são soluções incompletas," afirma o blog, destacando a necessidade de uma forma mais eficiente para os proprietários de conteúdo comunicarem suas preferências quanto ao uso de IA.
Abordando Críticas sobre Extração de Dados por IA
Essa iniciativa responde a preocupações contínuas de artistas visuais e criadores de conteúdo sobre empresas de IA, incluindo a OpenAI, que extraem dados sem permissão ou compensação. Vários criadores entraram com ações coletivas alegando infração de direitos autorais contra essas empresas.
A OpenAI argumenta que a extração de dados e o rastreamento de sites têm sido práticas aceitas na internet, mencionando a adoção generalizada do padrão robots.txt para orientar os rastreadores sobre o que pode ser acessado. Mesmo assim, muitos artistas atualmente se opõem ao treinamento de IA generativa com suas obras, pois isso compete diretamente com seus meios de subsistência. A OpenAI também introduziu a indenização para seus assinantes pagos que enfrentam alegações de infração de direitos autorais, buscando tranquilizar os clientes corporativos.
Contexto Legal e Implicações Futuras
O marco legal relacionado à extração de dados de material protegido por direitos autorais ainda está evoluindo. No entanto, independentemente do resultado legal, a OpenAI parece focada em se apresentar como uma entidade ética em relação aos criadores de conteúdo.
Muitos criadores podem ver esses esforços como insuficientes, uma vez que seu trabalho provavelmente já foi utilizado para treinar modelos de IA sem consentimento. A OpenAI alega que não armazena cópias completas dos dados extraídos; em vez disso, afirma que gera modelos com base em relações e processos relacionados aos dados de entrada.
Como declarado pela OpenAI, "Nossos modelos de IA são máquinas de aprendizado, não bancos de dados. Eles são projetados para criar novo conteúdo e ideias, não para replicar conteúdo existente. Quando os modelos ocasionalmente repetem conteúdo expressivo, isso resulta das limitações do processo de aprendizado de máquina."
O Media Manager tem o potencial de se tornar uma solução mais acessível para controlar o treinamento de IA em comparação com métodos existentes, como Glaze e Nightshade. No entanto, a confiança na ferramenta, especialmente dada a participação da OpenAI, e sua eficácia contra modelos rivais ainda precisam ser avaliadas.