Des experts plaident pour un « abri juridique » afin de permettre aux chercheurs, journalistes et artistes d'évaluer les technologies de l'IA.

Un article récent de 23 chercheurs, universitaires et créatifs en intelligence artificielle souligne l'importance d'établir des protections légales et techniques de "refuge sûr" pour permettre des évaluations indépendantes des produits d'IA. Cette protection est essentielle pour les chercheurs, journalistes et artistes menant des enquêtes de "bonne foi" sur ces technologies.

L'article met en lumière un obstacle majeur : les conditions d'utilisation des principaux fournisseurs d'IA—y compris OpenAI, Google, Anthropic, Inflection, Meta et Midjourney—restreignent souvent légalement la recherche sur les vulnérabilités de l'IA. Les auteurs appellent ces entreprises à soutenir la recherche publique sur l'IA en offrant des garanties contre les suspensions de comptes et les répercussions juridiques.

« Bien que ces termes visent à dissuader les usages malveillants, ils entravent également involontairement la recherche sur la sécurité de l'IA », note le billet de blog qui accompagne l'article. Ces entreprises peuvent appliquer ces politiques de manière stricte, ce qui peut freiner des recherches d'impact.

Les co-auteurs Shayne Longpre du MIT Media Lab et Sayash Kapoor de l’Université de Princeton ont souligné l'importance de cette question dans le contexte d’une récente poursuite par le New York Times. OpenAI a qualifié l'évaluation de ChatGPT par le Times de « piratage », à quoi l’avocat principal du Times a répondu qu'interpréter ainsi une enquête légitime comme une activité malveillante est erroné.

Longpre a rappelé des plaidoyers antérieurs de l’institut Knight pour la défense de la Première Amendement, visant à protéger les journalistes enquêtant sur les réseaux sociaux. « Nous avons voulu tirer des leçons de cette initiative en proposant un refuge sûr pour la recherche sur l'IA », a-t-il expliqué. « Avec l'IA, le manque de clarté sur l'utilisation et les dangers associés rend l'accès à la recherche essentiel. »

L'article, intitulé "Un refuge sûr pour l'évaluation de l'IA et le red teaming", note des cas de suspensions de comptes lors de recherches d’intérêt public dans des entreprises comme OpenAI, Anthropic, Inflection et Midjourney, cette dernière étant souvent citée en raison de ses suspensions fréquentes. Le co-auteur et artiste Reid Southen a subi plusieurs interdictions après avoir enquêté sur des violations potentielles de droits d'auteur dans les productions de Midjourney, montrant que la plateforme pouvait enfreindre les droits d'auteur sans l'intention des utilisateurs.

« Midjourney m'a banni trois fois, me coûtant près de 300 dollars », a raconté Southen. « La première suspension est intervenue dans les huit heures suivant la publication de mes résultats, et ils ont par la suite révisé leurs conditions sans informer les utilisateurs, déplaçant la responsabilité des contenus enfreignant les droits d’auteur. »

Southen plaide pour des évaluations indépendantes, arguant que les entreprises ont montré une incapacité à s'auto-évaluer, nuisant ainsi aux titulaires de droits d'auteur.

La transparence est au cœur de ces discussions. Longpre a affirmé l'importance de permettre aux chercheurs indépendants d'explorer les capacités et les défauts des produits d'IA, à condition qu'ils démontrent un usage responsable. Il a exprimé le souhait de collaborer avec les entreprises pour améliorer la transparence et renforcer la sécurité.

Kapoor a reconnu que, bien que les entreprises aient des préoccupations légitimes concernant l'usage abusif de leurs services, les politiques ne devraient pas s'appliquer uniformément aux utilisateurs malveillants et aux chercheurs menant des travaux de sécurité cruciaux. Il a noté des conversations en cours avec les entreprises concernées, déclarant : « La plupart ont dialogué avec notre proposition, et certaines ont commencé à adapter leurs conditions—particulièrement OpenAI, qui a modifié son langage suite à notre projet initial. »

Dans l'ensemble, l'article plaide pour une approche équilibrée qui favorise la sécurité de l'IA tout en soutenant la recherche à travers des mesures claires et protectrices.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles