Débloquer les LLM : Maîtriser le Chaos de l'Expérimentation en Ligne

Dans un tournant révolutionnaire par rapport aux pratiques traditionnelles, les entreprises d'IA générative déploient des modèles de langage de grande taille (LLMs) directement dans l'environnement imprévisible d'internet pour assurer la qualité. Pourquoi investir du temps dans des tests rigoureux lorsque la communauté en ligne peut collectivement identifier les bogues et les erreurs ? Cet audacieux expérience invite les utilisateurs à participer à un test bêta extensif et non planifié. Chaque requête révèle les particularités uniques des LLMs, tandis qu'internet, dans son ensemble, sert de réceptacle aux erreurs, à condition que les utilisateurs acceptent les termes et conditions.

Éthique et Précision : Optionnelles ?

La précipitation à déployer les modèles LLM d'IA générative ressemble à une distribution de feux d'artifice : divertissant, mais potentiellement dangereux. Par exemple, Mistral a récemment lancé son modèle 7B sous licences Apache 2.0. Cependant, l'absence de contraintes d'utilisation explicites soulève des inquiétudes alarmantes sur d'éventuels abus. De petits ajustements des paramètres sous-jacents peuvent entraîner des résultats radicalement différents. De plus, les biais ancrés dans les algorithmes et les ensembles de données d'entraînement perpétuent des inégalités sociétales. CommonCrawl, qui fournit la majorité des données d'entraînement pour les LLMs—60 % pour GPT-3 et 67 % pour LLaMA—opère sans contrôles de qualité stricts, laissant aux développeurs la charge de la sélection des données. Il est crucial de reconnaître et d’aborder ces biais pour garantir un déploiement éthique de l'IA.

Développer des logiciels éthiques devrait être obligatoire, et non optionnel. Pourtant, si les développeurs choisissent d'ignorer les directives éthiques, les garanties sont limitées. Il est donc impératif que les décideurs et les organisations assurent une application responsable et impartiale de l'IA générative.

Qui Assume la Responsabilité ?

Le paysage juridique entourant les LLMs est flou, conduisant souvent à des questions critiques sur la responsabilité. Les conditions de service pour l'IA générative ne garantissent ni précision ni responsabilité, plaçant la confiance entre les mains des utilisateurs. Beaucoup utilisent ces outils pour apprendre ou travailler, mais manquent souvent des compétences nécessaires pour distinguer les informations fiables des contenus halluciné.

L’impact des inexactitudes peut avoir des répercussions dans le monde réel. Par exemple, le prix de l'action d'Alphabet a chuté après que le chatbot Bard de Google a déclaré à tort que le télescope spatial James Webb avait capturé les premières images d'une exoplanète. À mesure que les LLMs s'intègrent dans des applications décisionnelles majeures, la question se pose : en cas d'erreurs, la responsabilité doit-elle incomber au fournisseur de LLM, au prestataire de services utilisant des LLMs ou à l'utilisateur qui n'a pas vérifié l'information ?

Considérons deux scénarios : Le scénario A implique un véhicule défectueux menant à un accident, tandis que le scénario B décrit une conduite imprudente causant le même résultat. Les conséquences sont malheureuses, mais la responsabilité diffère. Avec les LLMs, les erreurs peuvent provenir d'un mélange de défaillance du fournisseur et de négligence de l'utilisateur, compliquant ainsi la responsabilité.

Le Besoin d'un ‘No-LLM-Index’

La règle actuelle de "noindex" permet aux créateurs de contenu de ne pas être indexés par les moteurs de recherche. Une option similaire, "no-llm-index", pourrait donner aux créateurs le pouvoir d'empêcher le traitement de leur contenu par des LLMs. Les LLMs en cours ne respectent pas la loi sur la protection des consommateurs de Californie (CCPA) ou le droit à l'effacement du RGPD, compliquant les demandes de suppression de données. Contrairement aux bases de données traditionnelles où les données sont facilement identifiables et supprimables, les LLMs génèrent des sorties selon des schémas appris, rendant presque impossible la ciblage spécifique des données à supprimer.

Naviguer dans le Paysage Juridique

En 2015, une cour d'appel américaine a jugé que la numérisation de livres par Google pour Google Books était un "usage loyal", en citant sa nature transformative. Cependant, l'IA générative dépasse ces frontières, suscitant des défis juridiques concernant la compensation des créateurs de contenu dont le travail alimente les LLMs. Des acteurs majeurs comme OpenAI, Microsoft, GitHub et Meta sont confrontés à des litiges liés à la reproduction de code informatique de logiciels open source. Les créateurs de contenu sur les plateformes sociales devraient avoir le pouvoir de choisir de ne pas monétiser ou de ne pas permettre que leur travail soit intégré dans des LLMs.

Vers l'Avenir

Les normes de qualité diffèrent considérablement selon les secteurs ; par exemple, l'application Amazon Prime Music rencontre des pannes quotidiennes, tandis qu'un taux de panne de 2 % dans le secteur de la santé ou des services publics pourrait être catastrophique. Les attentes concernant la performance des LLMs demeurent en constante évolution. Contrairement aux pannes d'application facilement identifiables, déterminer quand l'IA échoue ou produit des hallucinations est complexe.

À mesure que l'IA générative progresse, équilibrer innovation et droits fondamentaux reste essentiel pour les décideurs, les technologues et la société. Les récentes propositions du Comité Technique National sur la Normalisation de la Sécurité de l'Information en Chine et d'un Décret Exécutif du Président Biden encouragent des cadres pour gérer les problèmes liés à l'IA générative.

Les défis ne sont pas nouveaux ; les expériences passées illustrent que, malgré des problèmes persistants comme les fausses informations, les plateformes répondent souvent de manière minimale. Les LLMs nécessitent de vastes ensembles de données provenant souvent de l'internet libre. Bien qu'il soit possible de les organiser pour garantir leur qualité, la définition de la "qualité" demeure subjective.

La question clé est de savoir si les fournisseurs de LLMs adresseront réellement ces problèmes ou continueront à décaler la responsabilité. Accrochez-vous ; ça promet d'être un parcours tumultueux.

Most people like

Find AI tools in YBX