Anthropic répond aux éditeurs de musique dans le cadre d'un procès pour violations de droits d'auteur liés à l'IA, alléguant un « comportement intentionnel ».

Anthropic, une startup de premier plan dans le domaine de l'IA générative, a récemment déposé une réponse devant le tribunal contestant les accusations de violation de droits d'auteur formulées par une coalition d'éditeurs de musique, dont Concord, Universal et ABKCO, concernant son chatbot, Claude (remplacé par Claude 2).

À l'automne 2023, ces éditeurs de musique ont intenté un procès fédéral dans le Tennessee, affirmant qu'Anthropic avait illégalement extrait des paroles de chansons d'Internet pour entraîner ses modèles d'IA, reproduisant ainsi des paroles protégées par le droit d'auteur dans les interactions du chatbot.

En réponse à une demande de mesure provisoire qui obligerait Anthropic à suspendre l'accès à Claude, la société a réitéré des arguments couramment avancés dans d'autres litiges de droits d'auteur liés à l'IA. Les entreprises d'IA générative, comme Anthropic et OpenAI, soutiennent que leur utilisation de données accessibles au public, y compris de matériel protégé par le droit d’auteur, rentre dans le cadre de l'utilisation équitable, une doctrine juridique qui pourrait bientôt être examinée par la Cour suprême.

Impact limité des paroles dans les données d'entraînement

Anthropic soutient que son utilisation des paroles de chansons des plaignants est "transformative", ajoutant une nouvelle finalité et un nouveau caractère aux œuvres originales. Citant le directeur de la recherche, Jared Kaplan, le dépôt souligne que leur objectif est de constituer un ensemble de données qui éduque un réseau de neurones sur le langage humain.

La société fait également valoir que l'inclusion des paroles de chansons ne représente qu'une "minuscule fraction" des données d'entraînement globales, rendant financièrement non viable l'acquisition de licences pour le vaste texte nécessaire à l'entraînement de modèles tels que Claude. Ils mettent en avant l'impossibilité pratique d'une licence couvrant des trillions de données issues de genres variés pour toute entité.

Un aspect unique de l'argumentation d'Anthropic est l'affirmation selon laquelle les plaignants ont engagé une "conducte volitionnelle", établissant ainsi une responsabilité directe en cas d'infraction. Anthropic suggère que les éditeurs de musique, par des efforts ciblés pour provoquer des sorties lyriques de Claude, ont effectivement contrôlé la génération de contenus prétendument illégaux, déplaçant la responsabilité d’Anthropic.

Contestation du préjudice irréparable

En plus de contester la responsabilité en matière de droits d'auteur, Anthropic affirme que les plaignants ne parviennent pas à démontrer un préjudice irréparable. Ils soulignent qu'il n'existe pas de preuves suffisantes d'une baisse des revenus de licence depuis le lancement de Claude, notant que les éditeurs eux-mêmes pensent qu'une compensation monétaire pourrait remédier à tout préjudice allégué, contredisant ainsi leurs assertions de dommages irréparables.

Anthropic soutient que la demande d'injonction contre ses modèles d'IA est injustifiée, compte tenu des preuves faibles de préjudice irréparable. Ils précisent également que toute sortie lyrique générée précédemment était un "bug" non intentionnel, désormais résolu grâce à des mesures de précaution mises en place pour éviter de futures occurrences.

La société affirme que la demande des plaignants est excessivement large, cherchant à restreindre non seulement les 500 œuvres spécifiques citées dans l'affaire, mais aussi des millions d'œuvres supplémentaires sous leur contrôle revendiqué.

Anthropic conteste également le lieu du procès, affirmant que le procès est inapproprié dans le Tennessee, car ses opérations sont basées en Californie, et qu'aucune des activités alléguées ne s'est déroulée dans cet État. Leurs conditions de service stipulent que les litiges seraient portés devant les tribunaux californiens.

La lutte continue autour des droits d'auteur

La bataille des droits d'auteur dans le secteur de l'IA générative en pleine évolution s'intensifie. De nombreux artistes ont rejoint des poursuites contre des modèles génératifs créatifs tels que Midjourney et DALL-E d'OpenAI, ajoutant davantage de preuves de violation des droits d'auteur. Récemment, le New York Times a déposé sa propre plainte contre OpenAI et Microsoft pour avoir utilisé son contenu sans autorisation dans l'entraînement de modèles d’IA, demandant des milliards en dommages-intérêts et exigeant la destruction de tout modèle d’IA utilisant son matériel.

En réponse à ces tensions, un groupe à but non lucratif nommé "Fairly Trained" a vu le jour, plaidant pour une certification de données sous licence pour les matériaux d'entraînement des IA, avec le soutien d'éditeurs de musique tels que Concord et Universal.

De plus, des entreprises majeures, y compris Anthropic, Google et OpenAI, ont promis des garanties légales pour les utilisateurs d'entreprise de contenus générés par IA. Bien que les créateurs demeurent résolus dans leurs batailles juridiques, y compris le cas de Sarah Silverman contre OpenAI, les tribunaux devront naviguer entre les complexités des avancées technologiques et des droits statutaires.

Alors que la surveillance réglementaire s'intensifie concernant les pratiques d’extraction de données, l'issue des poursuites en cours et des auditions au Congrès pourrait façonner l'avenir des protections des droits d'auteur dans le cadre de l'IA générative. Les prochaines étapes demeurent incertaines, mais le dépôt récent d'Anthropic suggère que les entreprises d'IA générative s'unissent autour de défenses spécifiques basées sur l'usage équitable et le préjudice. Jusqu'à présent, aucun plaignant en matière de droits d'auteur n'a réussi à obtenir une injonction provisoire dans ce type de litige lié à l'IA, et Anthropic vise à maintenir cette tendance alors que cette saga juridique se déploie.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles