Fairly Trained lance une certification pour l'IA éthique : garantir que les outils génératifs utilisent des données sous licence.

Souvent qualifiée de « péché originel » de l'IA générative, de nombreux modèles phares provenant d'entreprises comme OpenAI et Meta ont été entraînés sur des données extraites d'internet sans le consentement préalable ni la connaissance des créateurs originaux. Les entreprises d'IA défendant cette pratique soutiennent qu'elle est légalement autorisée. Dans un article de blog récent, OpenAI déclare : « Former des modèles d’IA avec des matériaux disponibles publiquement est un usage équitable, soutenu par de vieux précédents. Nous croyons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs, et crucial pour la compétitivité des États-Unis. »

Cette extraction de données a une histoire qui précède l'essor de l'IA générative, ayant été utilisée dans de nombreuses bases de recherche et produits commerciaux, y compris les moteurs de recherche populaires comme Google, sur lesquels les créateurs comptent pour attirer du trafic vers leurs projets. Cependant, l'opposition à cette pratique augmente, de nombreux auteurs et artistes poursuivant plusieurs entreprises d'IA pour violation présumée des droits d'auteur en s'entraînant sur leurs œuvres sans consentement explicite. Parmi ces entreprises, Midjourney et OpenAI font face à des critiques.

Une nouvelle organisation à but non lucratif, « Fairly Trained », a vu le jour pour défendre les droits des créateurs de données, insistant sur la nécessité d'obtenir un consentement explicite avant d'utiliser leur travail pour l'entraînement d'IA. Co-fondée par l'ancien employé de Stability AI, Ed Newton-Rex, Fairly Trained vise à garantir que les entreprises d'IA respectent les droits des créateurs. « Nous croyons que de nombreux consommateurs et entreprises préféreraient collaborer avec des sociétés d'IA générative qui utilisent des données fournies avec le consentement de leurs créateurs », affirme le site de l’organisation.

Newton-Rex souligne qu'il est possible de trouver une voie pour l'IA générative qui honore les créateurs et prône un modèle de licence pour les données d'entraînement. « Si vous travaillez pour ou connaissez une entreprise d'IA générative qui privilégie cette approche, j'espère que vous envisagerez de vous faire certifier », a-t-il partagé sur les réseaux sociaux.

Interrogé sur l'argument commun des partisans de l'IA selon lequel s'entraîner sur des données accessibles au public est similaire à la façon dont les humains apprennent en observant des œuvres créatives, Newton-Rex a rétorqué : « Cet argument est erroné pour deux raisons. D'abord, l'IA a une échelle : un seul modèle d'IA peut générer d'énormes quantités de contenu pouvant remplacer la demande pour une grande partie de l'œuvre originale - ce qu’aucun individu ne peut faire. Ensuite, l’apprentissage humain se déroule dans un contrat social établi ; les créateurs ont toujours su que leur travail pouvait inspirer les autres, mais ils ne s’attendaient pas à ce que des systèmes d’IA exploitent leurs créations pour générer du contenu concurrent à grande échelle. »

Newton-Rex conseille aux entreprises d'IA qui se sont déjà entraînées sur des données publiques de passer à un modèle de licence, en obtenant la permission des créateurs. « Nous sommes encore au début de l'évolution de l'IA générative, et il y a du temps pour créer un écosystème mutuellement bénéfique pour les créateurs humains et les entreprises d'IA », a-t-il noté.

Fairly Trained a introduit une certification de « Modèle de Licence (L) pour les fournisseurs d'IA » afin de différencier les entreprises qui obtiennent le consentement pour les données d’entraînement de celles qui ne le font pas. Le processus de certification implique une soumission en ligne suivie d'un examen approfondi, avec des frais basés sur le chiffre d'affaires annuel, allant de 150 à 6000 dollars.

Newton-Rex a expliqué : « Nous facturons des frais pour couvrir nos coûts, et ils sont suffisamment bas pour ne pas être prohibitifs pour les entreprises d'IA générative. » Plusieurs entreprises, dont Beatoven.AI et Soundful, ont déjà obtenu cette certification, bien que Newton-Rex ait refusé de divulguer les montants spécifiques des frais.

Interrogé sur des entreprises comme Adobe et Shutterstock qui entraînent des modèles d'IA en utilisant des œuvres de créateurs sous leurs conditions de service, il a indiqué : « Nous préférons ne pas commenter des modèles spécifiques que nous n’avons pas certifiés. S'ils pensent que leurs modèles répondent à nos standards de certification, ils sont encouragés à postuler. »

Parmi les conseillers de Fairly Trained figurent Tom Gruber, ancien technologiste en chef de Siri, et Maria Pallante, présidente et PDG de l'Association des éditeurs américains. Les soutiens incluent des organisations notables comme l’Association des éditeurs de musique indépendante et Universal Music Group, toutes deux impliquées dans des poursuites contre l'entreprise d'IA Anthropic concernant des paroles de chansons protégées par le droit d'auteur.

Lorsque l'on a demandé si Fairly Trained participait à des poursuites en cours, Newton-Rex a précisé : « Non, je ne suis impliqué dans aucune des poursuites. » Il a également confirmé qu'il n'y avait actuellement aucune source de financement externe pour Fairly Trained en dehors des frais de certification.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles