Fairly Trained Lança Certificação para IA Ética: Garantindo que Ferramentas Generativas Utilizem Dados Licenciados

Frequentemente chamado de “pecado original” da IA generativa, muitos modelos de ponta de empresas como OpenAI e Meta foram treinados com dados extraídos da internet sem o consentimento ou conhecimento prévio dos criadores originais. As empresas de IA que defendem essa prática argumentam que é legalmente aceitável. Em um post recente no blog, a OpenAI declarou: “Treinar modelos de IA com materiais disponíveis publicamente na internet é uso justo, respaldado por precedentes de longa data. Acreditamos que esse princípio é justo para os criadores, necessário para os inovadores e crítico para a competitividade dos EUA.”

Essa extração de dados tem uma história que precede a ascensão da IA generativa, sendo utilizada em muitos bancos de dados de pesquisa e produtos comerciais, incluindo mecanismos de busca populares como o Google, que os criadores utilizam para atrair tráfego para seus projetos. No entanto, a oposição a essa prática está crescendo, com diversos autores e artistas processando várias empresas de IA por supostamente infringirem direitos autorais ao treinar seus modelos sem consentimento explícito. Notavelmente, a Midjourney e a OpenAI estão entre as empresas que estão sob escrutínio.

Uma nova organização sem fins lucrativos, “Fairly Trained”, surgiu para defender os criadores de dados, afirmando que o consentimento explícito deve ser obtido antes que suas obras sejam utilizadas no treinamento de IA. Cofundada pelo ex-funcionário da Stability AI, Ed Newton-Rex, a Fairly Trained busca garantir que as empresas de IA respeitem os direitos dos criadores. “Acreditamos que muitos consumidores e empresas prefeririam colaborar com empresas de IA generativa que treinem com dados fornecidos com o consentimento de seus criadores”, afirma o site da organização.

Newton-Rex enfatiza a necessidade de um caminho para a IA generativa que honre os criadores e defenda um modelo de licenciamento para os dados de treinamento. "Se você trabalha ou conhece uma empresa de IA generativa que prioriza essa abordagem, espero que considere obter a certificação", ele compartilhou nas redes sociais.

Quando questionado sobre o argumento comum dos defensores da IA de que treinar em dados disponíveis publicamente é semelhante ao aprendizado humano que observa trabalhos criativos, Newton-Rex respondeu: “Esse argumento é falho por duas razões. Primeiro, a IA escala. Uma única IA pode gerar enormes quantidades de saída que poderiam substituir a demanda por grande parte do conteúdo original—algo que nenhum humano individual pode fazer. Em segundo lugar, o aprendizado humano opera dentro de um contrato social estabelecido; os criadores sempre souberam que suas obras poderiam inspirar outros. Eles não previam que sistemas de IA utilizariam suas criações para gerar conteúdo concorrente em grande escala.”

Newton-Rex aconselha as empresas de IA que já treinaram com dados públicos a fazer a transição para um modelo de licenciamento, obtendo permissão dos criadores. “Ainda estamos no início da evolução da IA generativa e há tempo para criar um ecossistema mutuamente benéfico para criadores humanos e empresas de IA”, observou.

A Fairly Trained introduziu a certificação “Licensed Model (L)” para provedores de IA, a fim de distinguir entre as empresas que obtêm consentimento para dados de treinamento e aquelas que não o fazem. O processo de certificação envolve uma submissão online seguida de uma avaliação mais detalhada, com taxas baseadas na receita anual, variando de $150 a $6,000. Newton-Rex explicou: “Cobramos taxas para cobrir nossos custos, e elas são baixas o suficiente para não serem proibitivas para as empresas de IA generativa.” Várias empresas, incluindo Beatoven.AI e Soundful, já receberam essa certificação, embora Newton-Rex tenha se recusado a divulgar os valores específicos das taxas.

Quando questionado sobre empresas como Adobe e Shutterstock, que train modelos de IA usando obras criativas sob seus termos de serviço, ele declarou: “Preferimos não comentar sobre modelos específicos que não certificamos. Se acreditam que seus modelos atendem nossos padrões de certificação, são encorajados a se inscrever.”

Os conselheiros da Fairly Trained incluem Tom Gruber, ex-chefe de tecnologia da Siri, e Maria Pallante, Presidente e CEO da Association of American Publishers. Os apoiadores incluem organizações notáveis como a Association of Independent Music Publishers e a Universal Music Group, ambas envolvidas em processos judiciais contra a empresa de IA Anthropic por letras de músicas protegidas por direitos autorais.

Ao ser questionado se a Fairly Trained estava participando de algum processo judicial em andamento, Newton-Rex esclareceu: “Não, não estou envolvido em nenhum dos processos.” Ele também confirmou que atualmente não há fontes de financiamento externas para a Fairly Trained, exceto pelas taxas de certificação.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles