Les résultats des IA sont-ils considérés comme un discours protégé ? Un expert juridique met en garde contre cette notion dangereuse.

IA Générative et le Débat sur la Liberté d’Expression : Perspectives Juridiques et Risques

L'IA générative devient de plus en plus sophistiquée, produisant des contenus expressifs, informatifs et souvent persuasifs. Des experts juridiques aux États-Unis soutiennent de manière controversée que les résultats des grands modèles de langage (LLM) pourraient être protégés par le Premier Amendement, ce qui pourrait même s’appliquer à des contenus potentiellement nuisibles, plaçant ces résultats en dehors du contrôle gouvernemental.

L’Appel à la Réglementation

Peter Salib, professeur de droit à l’Université de Houston, argue qu'une réglementation efficace est essentielle pour éviter des conséquences catastrophiques liées aux contenus générés par l'IA. Ses réflexions seront publiées dans le prochain numéro du Washington University School of Law Review. "La liberté d’expression est une catégorie constitutionnelle sacrée", explique Salib, soulignant les implications si les résultats de modèles avancés comme GPT-5 sont considérés comme protégés. Cela pourrait gravement entraver notre capacité à réguler ces technologies.

Arguments en Faveur de l’IA en Tant que Liberté d’Expression

Il y a un an, le journaliste juridique Benjamin Wittes a affirmé que nous avons peut-être accordé des "droits du Premier Amendement" à des machines comme ChatGPT, en soutenant que ces systèmes d’IA sont "indéniablement expressifs", produisant des contenus similaires à la parole par la génération de texte, d'images et par le dialogue. Wittes a noté que bien que le contenu de l'IA puisse être dérivé, le Premier Amendement protège l'expression, et non l'originalité. Salib fait remarquer que de nombreux chercheurs reconnaissent maintenant que les résultats de l’IA ressemblent suffisamment à la parole pour justifier une protection. Certains soutiennent que ces résultats sont l’expression protégée des programmeurs humains, tandis que d'autres affirment qu'ils appartiennent aux propriétaires d'entreprise des systèmes d'IA, comme ChatGPT. Cependant, Salib soutient que "les résultats de l'IA ne représentent pas des communications d'un locuteur ayant des droits du Premier Amendement; ce ne sont pas des expressions humaines."

Risques Émergents des Résultats de l’IA

Les avancées en IA sont rapides, produisant des systèmes à la capacité accrue, utilisés de manière autonome et imprévisible. Salib, conseiller au Center for AI Safety, avertit que l'IA générative pourrait engendrer des risques sévères, notamment la synthèse d'armes chimiques mortelles et des attaques sur des infrastructures critiques. "Il existe des preuves empiriques solides que les systèmes d'IA générative dans un avenir proche poseront des risques significatifs pour la vie humaine", déclare-t-il, prévoyant des scénarios potentiels comme le bioterrorisme et des assassinats politiques automatisés.

IA : Parole mais Pas Parole Humaine

Les dirigeants mondiaux commencent à adopter des réglementations visant à garantir des opérations d'IA sûres et éthiques. Ces lois pourraient exiger que les systèmes d’IA s'abstiennent de produire des contenus nuisibles, ce qui pourrait être perçu comme une censure de la parole. Salib souligne que si les résultats de l’IA sont considérés comme de la parole protégée, toute réglementation serait soumise à un contrôle constitutionnel strict, n'autorisant la régulation qu'en cas de menace imminente.

Il insiste sur la distinction entre les résultats de l’IA et la parole humaine. Alors que les logiciels traditionnels reflètent souvent l'intention humaine, l'IA générative vise à produire tout type de contenu, sans intention communicative précise.

Droits de Parole des Entreprises et Réglementation

Les entreprises, bien qu'elles ne soient pas humaines, possèdent des droits de parole dérivés. Salib soutient que ces droits dépendent de ceux des créateurs humains. Si les résultats des LLM ne sont pas considérés comme de la parole protégée, il serait illogique qu'ils obtiennent une protection lorsqu'ils sont diffusés par des entreprises. Pour atténuer efficacement les risques, Salib plaide en faveur de la régulation des résultats de l'IA plutôt que de restreindre les processus génératifs des systèmes. Les LLM actuels ne peuvent pas être entièrement contrôlés ou programmés pour éviter des résultats nuisibles en raison de leur complexité et de leur imprévisibilité.

Des réglementations efficaces devraient se concentrer sur la nature des résultats de l’IA, déterminant si le contenu d’un modèle est suffisamment sûr pour être diffusé. Cette approche inciterait les entreprises d'IA à prioriser la sécurité dans leur développement. En fin de compte, "les lois doivent être conçues pour empêcher que les gens soient trompés ou blessés", souligne Salib, soulignant le besoin crucial d'une action législative réfléchie face aux avancées des capacités de l’IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles