Présentation du nouveau Générateur de Licence Ouverte pour promouvoir une utilisation responsable de l'IA.

IA Responsable : Une Discussion Cruciale dans la Technologie

L'IA responsable est un sujet central dans le paysage technologique actuel. Alors que les développeurs de modèles s'efforcent de prévenir les utilisations négligentes ou malveillantes de l'IA générative et des grands modèles de langage (GML), les réglementations mondiales en matière d'IA évoluent. Néanmoins, les développeurs et les organisations d'IA nécessitent des solutions efficaces dès maintenant.

Êtes-vous Prêt pour les Agents d'IA ?

Cette préoccupation croissante a conduit à l'adoption de licences avec des clauses spécifiques sur l'utilisation des comportements, y compris les licences IA Responsable à but non lucratif (RAIL). Ces licences limitent légalement la manière dont les modèles d'IA, le code et les données d'entraînement peuvent être utilisés lorsqu'ils sont partagés.

Pour faciliter davantage la personnalisation et la standardisation face à l'adoption rapide de l'IA générative, RAIL a lancé le Générateur de Licences Rail. Cet outil innovant permet aux développeurs d'IA de sélectionner des artefacts pertinents pour la licence et d'imposer des restrictions d'utilisation à partir d'un catalogue soigneusement sélectionné.

« Un modèle de base offre généralement une grande polyvalence — il peut interpréter plusieurs langues et être appliqué dans des applications en aval avec un minimum d'ajustements, » a expliqué Daniel McDuff, co-président de RAIL. Il a ajouté, « Auparavant, il y avait moins de besoins en restrictions d'application. Aujourd'hui, cependant, ces modèles polyvalents peuvent être facilement réutilisés, rendant ces licences indispensables. »

Codification des Principes Éthiques avec une Autorité Légale

Depuis sa création en 2018, l'initiative RAIL a engendré 41 700 dépôts de modèles avec licences RAIL. Des modèles remarquables intégrant des clauses d'utilisation comportementale incluent BLOOM de Hugging Face, Llama 2 de Meta, Stable Diffusion et Grid.

Le Générateur de Licences Rail vise à accroître ce chiffre en abaissant les barrières d'accès. Développé par le Groupe de Travail RAIL sur les Outils et la Gouvernance Procédurale, dirigé par Jesse Josua Benjamin, Scott Cambo, et Tim Korjakow, cet outil propose un processus simplifié pour créer des licences personnalisées.

Les utilisateurs commencent par sélectionner un type de licence, ce qui génère un modèle initial. Les types de licences disponibles incluent :

- Open RAIL : Permet aux développeurs d'utiliser, de distribuer et de modifier les artefacts licenciés, à condition de respecter les restrictions comportementales établies.

- Research RAIL : Limite l'utilisation des artefacts licenciés à des fins de recherche uniquement, interdisant l'utilisation commerciale tout en respectant les restrictions comportementales.

- RAIL : Exclut les clauses d'utilisation comportementale mais peut inclure des termes supplémentaires régissant qui peut utiliser l'artefact licencié et comment il peut l'utiliser.

Dans la prochaine étape, les utilisateurs choisissent les artefacts à licencier ou à partager, impliquant souvent la publication soigneuse de code, d'algorithmes ou de modèles associés à l'IA. Ils peuvent ensuite sélectionner parmi une gamme de restrictions spécifiques au système.

La licence finale est exportée avec des options pour les formats LaTeX, texte brut et Markdown, ainsi que des téléchargements PNG d'icônes de domaine et de QR codes liant à la licence intégrale.

Le Générateur de Licences Rail soutient les individus n’ayant pas accès à des équipes juridiques, bien qu'il soit utilisé par des organisations de toutes tailles. McDuff a noté une « couche d'insécurité » commune dans la rédaction de documents de licence, car le langage doit être adapté à des domaines, contextes et types d'IA spécifiques. Beaucoup de développeurs hésitent, se sentant non qualifiés pour rédiger des termes juridiques en raison de leurs parcours en informatique ou en recherche.

« Créer une licence prend désormais quelques minutes une fois que vous avez identifié les clauses à inclure, » a déclaré McDuff. « Cet outil codifie des principes éthiques avec une autorité légale. »

L'Impact de l'IA sur les Processus Scientifiques Traditionnels

L'ouverture et les initiatives open source sont fondamentales pour la recherche scientifique et l'avancement technologique, permettant la vérification et l'audit des résultats. Cette transparence a largement bénéficié à l’IA, bien que les modèles de base posent des défis uniques en raison de leur nature adaptable.

Bien que les développeurs créent souvent des modèles puissants avec de bonnes intentions, la polyvalence de ces modèles peut entraîner des applications involontaires ou nuisibles. La décentralisation aggrave ces risques, compliquant la responsabilité et les recours pour les utilisateurs en aval.

« L'open source est avantageux, mais cela devient plus complexe lorsqu'un acteur unique peut exercer une influence significative en aval, comme la diffusion de désinformation, » a averti McDuff.

Danish Contractor, co-président de RAIL, a souligné la confusion à laquelle les développeurs sont confrontés concernant les restrictions d'utilisation. « Beaucoup pensent que si "l'IA peut faire X, alors elle peut faire Y," » a-t-il expliqué. Par exemple, un modèle médical pourrait être mal utilisé — intentionnellement ou non — dans des domaines comme la robotique ou les applications militaires.

Une communication efficace et un accès aux outils de suivi et d'application des violations de licence sont essentiels, a souligné Contractor. Les restrictions comportementales peuvent offrir un équilibre entre cohérence et diversité dans les clauses appliquées. Bien que certaines clauses soient universellement applicables, comme celles contre la discrimination et la désinformation, la standardisation est cruciale.

« Il est nécessaire d'avoir des outils qui aident à créer des licences familières et flexibles avec un certain niveau de langage juridique nécessaire, » a réitéré McDuff. Il a conclu, « Le risque associé à une utilisation inappropriée du code open source est trop significatif pour que des entreprises comme Google ou Microsoft l'ignorent. »

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles