Première arrestation enregistrée par le DOJ pour des contenus d'abus sexuels d'enfants générés par l'IA (CSAM)

Le Département américain de la Justice arrête un homme du Wisconsin pour des matériaux de maltraitance infantile générés par l'IA

La semaine dernière, le Département américain de la Justice (DOJ) a arrêté Steven Anderegg, un ingénieur logiciel de 42 ans originaire de Holmen, Wisconsin, pour avoir généré et distribué des matériaux de maltraitance infantile (CSAM) produits par l'IA. Cette affaire constitue un précédent juridique important, le DOJ cherchant à clarifier que les matériaux exploitants restent illégaux, même en l'absence d'enfants réels lors de leur création. "En termes simples, le CSAM généré par l'IA est toujours du CSAM", a déclaré la procureure générale adjointe Lisa Monaco dans un communiqué.

Selon le DOJ, Anderegg aurait utilisé une version modifiée du générateur d'images IA open-source, Stable Diffusion, pour créer des images troublantes. Il aurait tenté d'attirer un garçon de 15 ans dans des situations sexuelles en lui envoyant ces images par messages directs sur Instagram. Le DOJ l'a accusé de quatre chefs d'accusation pour "production, distribution et possession de représentations visuelles obscènes de mineurs engagés dans des comportements sexuels explicites et transfert de matériel obscène à un mineur de moins de 16 ans." Les images explicites montraient des "mineurs nus ou partiellement vêtus affichant de manière lascive ou touchant leurs organes génitaux ou engageant des rapports sexuels avec des hommes."

Pour générer ces images, Anderegg aurait notamment utilisé des indications spécifiques, y compris des prompts négatifs pour éviter des résultats indésirables. Bien que des générateurs d'images en ligne comme Midjourney et DALL-E 3 soient équipés de protections contre de tels abus, Anderegg aurait utilisé Stable Diffusion 1.5, une variante avec moins de restrictions, développée par Runway ML.

Cette affaire met en lumière une distinction essentielle dans le débat en cours sur le CSAM : sa nature illégale n'est pas uniquement liée à l'implication d'enfants vivants. Même le CSAM numérique généré par l'IA peut normaliser des comportements nuisibles et faciliter des actions prédateurs. Cette affaire souligne l'engagement du DOJ à traiter ces technologies émergentes. "La technologie peut changer, mais notre engagement à protéger les enfants ne changera pas", a souligné la procureure générale adjointe Monaco. "Le Département de la Justice poursuivra vigoureusement ceux qui produisent et distribuent du CSAM, quelle que soit la méthode de création."

S'il est reconnu coupable de tous les chefs d'accusation, Anderegg risque une peine de prison allant de 5 à 70 ans. Il est actuellement en détention fédérale, attendant une audience prévue pour le 22 mai. Alors que la technologie IA continue d'évoluer, cette affaire servira de point de référence critique pour les futures batailles juridiques concernant l'exploitation des enfants dans les espaces numériques.

Most people like

Find AI tools in YBX