Nightshade : L’Outil Gratuit que les Artistes Peuvent Utiliser pour 'Poisonner' les Modèles d'IA

Nightshade Lancement : Un Outil pour Aider les Artistes à Protéger Leur Travail des Modèles d'IA

Après plusieurs mois d'attente, Nightshade, un outil logiciel gratuit conçu pour les artistes, est désormais disponible en téléchargement. Cette application innovante permet aux artistes de "poisonner" les modèles d'IA qui tentent de s'entraîner sur leurs œuvres.

Développé par des informaticiens du projet Glaze de l'Université de Chicago sous la direction du professeur Ben Zhao, Nightshade utilise le cadre d'apprentissage machine open-source PyTorch. Il identifie le contenu d'une image et l'altère subtilement au niveau des pixels, créant une version qui semble inchangée pour l'œil humain, mais totalement différente pour les programmes d'IA.

Un Héritage d'Innovations Précédentes

Nightshade s'inscrit dans la lignée de Glaze, un outil lancé il y a près d'un an, qui modifie les œuvres numériques pour induire en erreur les algorithmes d'entraînement d'IA quant au style de l'image. Alors que Glaze est un outil défensif — recommandé pour une utilisation conjointe avec Nightshade — ce dernier adopte une approche offensive.

Lorsque qu'un modèle d'IA est entraîné sur des images modifiées avec Nightshade, il risque de classer de manière erronée des images futures, entraînant des résultats surprenants. Par exemple, une IA pourrait interpréter une image de vache comme un sac à main.

Conditions et Fonctionnalité

Pour utiliser Nightshade, les artistes doivent disposer d'un Mac avec puces Apple (M1, M2 ou M3) ou d'un PC sous Windows 10 ou 11. Des téléchargements sont disponibles pour les deux systèmes d'exploitation. En raison d'une forte demande, certains utilisateurs ont constaté des temps de téléchargement prolongés, avec des fichiers de 255 Mo pour Mac et de 2,6 Go pour PC.

Avant de télécharger, les utilisateurs doivent accepter le contrat de licence utilisateur final (CLUF) de l'équipe, qui interdit les modifications et la reproduction commerciale du logiciel.

Nightshade transforme les images en échantillons « empoisonnés », provoquant des résultats imprévisibles de la part des modèles d'IA entraînés dessus. Par exemple, une image altérée par Nightshade pourrait amener un modèle à générer un sac à main lorsqu'on lui demande une vache dans un cadre spatial.

L'outil est résistant aux transformations d'images courantes : le recadrage, le rééchantillonnage et la compression n'altèrent pas son efficacité. Les modifications algorithmiques ne sont pas de simples filigranes, mais des changements intégrés de manière subtile qui perdurent à travers diverses altérations.

Réactions Mixtes

Bien que de nombreux artistes, dont Kelly McKernan, une plaignante principale dans une action collective contre les entreprises d'art IA, aient adopté Nightshade, certains critiques arguent qu'il ressemble à une cyberattaque contre les modèles d'IA. L'équipe de Nightshade précise son intention : augmenter le coût de l'entraînement sur des données non autorisées, encourageant ainsi les développeurs d'IA à obtenir des licences auprès des artistes.

Le Contexte de l'Extraction de Données

L'émergence de Nightshade répond à des inquiétudes croissantes concernant l'extraction de données, où les générateurs d'images IA prélèvent des données sur Internet sans le consentement des artistes. Cette pratique menace les moyens de subsistance des artistes, les poussant à trouver des mesures de protection contre l'utilisation non autorisée de leurs œuvres.

Le combat contre l'extraction de données n'est pas nouveau ; il a déjà suscité des préoccupations quant à ses implications sur le droit d'auteur et l'utilisation équitable. Bien que les entreprises d'IA proposent des options de "désinscription", l'équipe Glaze/Nightshade affirme que celles-ci peuvent facilement être ignorées, rendant son application presque impossible.

Nightshade vise à rétablir l'équilibre en imposant des coûts aux efforts d'extraction non autorisés, incitant ainsi à reconsidérer les pratiques commerciales des développeurs d'IA. Cependant, il est crucial de noter que Nightshade ne peut pas effacer les violations passées ; son objectif est de réduire celles à venir.

En conclusion, Nightshade représente un tournant décisif dans la lutte continue pour les droits des artistes à l'ère de l'IA.

Most people like

Find AI tools in YBX