La Maison Blanche lance un nouveau consortium sur la sécurité de l'IA : plus de 200 entreprises de premier plan collaborent pour tester et évaluer les modèles d'intelligence artificielle.

Lancement du Consortium de l'Institut Américain de Sécurité de l'IA par l'Administration Biden

Suite à la nomination d’un conseiller senior de la Maison Blanche comme directeur du tout nouvel Institut Américain de Sécurité de l'IA (USAISI) au National Institute of Standards and Technology (NIST), l'Administration Biden a présenté le Consortium de l'Institut Américain de Sécurité de l'IA (AISIC), présenté comme « le premier consortium dédié à la sécurité de l'IA ».

Cette collaboration regroupe plus de 200 organismes membres, incluant des géants de la technologie tels que Google, Microsoft et Amazon, ainsi que des entreprises leaders en modèles de langage (LLM) comme OpenAI, Cohere et Anthropic. Le consortium comprend également des laboratoires de recherche, des équipes académiques, des organisations de la société civile, des gouvernements locaux et des ONG.

Selon un article de blog du NIST, l’AISIC représente la plus grande assemblée d'équipes de test et d'évaluation à ce jour, visant à établir les bases de la science de la mesure en matière de sécurité de l'IA. Fonctionnant sous l'égide de l’USAISI, le consortium soutiendra les initiatives clés présentées dans le décret exécutif du Président Biden, incluant le développement de lignes directrices pour le red-teaming, l'évaluation des capacités, la gestion des risques, ainsi que des protocoles de sécurité et de sécurité, et le marquage du contenu synthétique.

Détails de la Formation

L’annonce du consortium a eu lieu le 31 octobre 2023, en même temps que le décret exécutif sur l'IA du Président Biden. Le site du NIST a indiqué que la participation est ouverte aux organisations capables de contribuer leur expertise, produits, données ou modèles. Les participants sélectionnés devront payer une cotisation annuelle de 1 000 $ et conclure un Accord de Recherche et Développement Coopératif (CRADA) avec le NIST.

Lignes Directrices pour la Sécurité de l'IA

Les membres du consortium se concentreront sur plusieurs lignes directrices clés :

1. Créer des outils et des meilleures pratiques pour développer et déployer des IA de manière sécurisée et fiable.

2. Établir des recommandations pour identifier et évaluer les capacités d'IA potentiellement nuisibles.

3. Promouvoir des pratiques de développement sécurisé pour l'IA générative et traiter les modèles fondamentaux à double usage, tout en garantissant un apprentissage automatique préservant la vie privée.

4. Fournir des ressources pour créer et maintenir des environnements de test.

5. Développer des pratiques pour un red-teaming efficace et des techniques d'apprentissage automatique préservant la vie privée.

6. Concevoir des outils pour authentifier le contenu numérique.

7. Définir les compétences nécessaires pour la main-d'œuvre en IA, y compris l'identification des risques, la gestion, le test et la validation.

8. Explorer l'interaction entre la société et la technologie, en se concentrant sur la manière dont les gens interagissent avec l'IA dans divers contextes.

9. Offrir des recommandations sur la gestion des interdépendances entre entités IA tout au long de leur cycle de vie.

Incertitudes de Financement

Malgré l’annonce, des questions subsistent concernant le financement de l'USAISI. Des rapports indiquent que depuis l'annonce initiale de la Maison Blanche en novembre, peu de détails ont été partagés sur le cadre opérationnel ou les sources de financement, d'autant plus compte tenu du budget annuel de plus de 1,6 milliard $ du NIST et de ses contraintes de ressources connues.

En janvier, un groupe bipartisan de sénateurs a demandé 10 millions $ au Comité des Appropriations du Sénat pour aider à établir l'USAISI, mais le statut de cette demande de financement reste flou. De plus, les législateurs du Comité des Sciences de la Chambre ont exprimé des préoccupations concernant la transparence du NIST et le manque de processus concurrentiel pour l'octroi de fonds de recherche liés au nouvel institut.

En abordant les défis de financement, Rumman Chowdhury, une figure de proue en éthique de l'IA anciennement avec Accenture et Twitter, a souligné que l'USAISI fonctionne sur un mandat non financé par décret exécutif. Elle a reconnu les complexités politiques faisant obstacle à l'action législative tout en notant le manque significatif de financement pour l'initiative.

Most people like

Find AI tools in YBX