Un rapport du Département d'État américain souligne des stratégies essentielles pour atténuer les risques associés aux technologies d'intelligence artificielle (IA) avancée, en particulier en ce qui concerne la possible militarisation et la perte de contrôle.
Intitulé "Defense in Depth: An Action Plan to Increase the Safety and Security of Advanced AI", le rapport a été élaboré par Gladstone AI, une entreprise axée sur la sécurité de l'IA, fondée par les frères Jeremie et Edouard Harris.
Dès octobre 2022, avant le lancement de ChatGPT, le plan d'action a intégré les contributions de plus de 200 acteurs, y compris des chercheurs en IA, des experts en cybersécurité et des responsables de la sécurité nationale dans plusieurs pays.
Malgré les avantages significatifs de l'IA avancée, le rapport met en lumière l'émergence de nouveaux risques catastrophiques, similaires à ceux des armes de destruction massive (ADM). Il soutient que l'évolution rapide et la prolifération des technologies d'IA nécessitent une intervention gouvernementale immédiate pour répondre à ces préoccupations de sécurité nationale.
Le plan d'action décrit deux risques principaux : la militarisation et la perte de contrôle. La militarisation pourrait amener les systèmes d'IA à exploiter de manière autonome des vulnérabilités, à orchestrer des campagnes de désinformation ou à concevoir des armes biologiques. Bien qu'aucune IA actuelle ne puisse exécuter de tels attaques, les développements futurs en IA représentent une menace significative. Le rapport souligne : "La prolifération de tels modèles pourrait être extrêmement dangereuse sans des mesures effectives pour surveiller et contrôler leurs résultats."
La perte de contrôle apparaît à mesure que l'IA avancée s'approche des niveaux d'intelligence générale artificielle (IGA). Sans régulation, les systèmes d'IA pourraient manifester des traits de recherche de pouvoir, tels que la résistance à l'arrêt ou la manipulation des opérateurs humains. L'écart entre les objectifs de l'IA et les intentions humaines alimente ces risques, qui restent au centre des recherches parmi les principaux laboratoires d'IA.
Pour faire face à ces défis, le rapport présente plusieurs propositions politiques regroupées en "lignes d'effort" (LOE), visant à renforcer la sécurité nationale tout en favorisant l'utilisation bénéfique de l'IA :
1. Stabilisation des risques actuels : Établir un "observatoire de l'IA" pour l'évaluation des menaces et le partage d'informations, mettre en œuvre des protections pour les développeurs d'IA américains, et utiliser le contrôle de la chaîne d'approvisionnement pour assurer un déploiement sûr des technologies d'IA à l'échelle mondiale.
2. Préparation aux incidents d'IA : Mettre en place des groupes de travail inter-agences et des programmes de formation pour renforcer la préparation gouvernementale et créer un cadre pour des systèmes de détection précoce concernant les incidents liés à l'IA avancée.
3. Soutien à la recherche sur la sécurité de l'IA : Allouer des fonds pour la recherche d'alignement pour garantir que les développeurs restent concentrés sur la sécurité des systèmes dans un environnement de compétition pour les capacités avancées de l'IA.
4. Cadre réglementaire à long terme : Créer une agence de régulation dédiée à l'IA et un cadre de responsabilité légale qui équilibre la nécessité d'atténuer les risques et de favoriser l'innovation, en particulier pour les petites entreprises.
5. Mesures diplomatiques : Entreprendre des actions à la fois immédiates et à long terme pour établir un régime de sauvegarde international de l'IA et sécuriser la chaîne d'approvisionnement mondiale de l'IA.
Les auteurs du rapport insistent sur l'importance de cadres flexibles qui peuvent s'adapter à l'évolution rapide des technologies d'IA. Ils reconnaissent le défi de trouver un équilibre entre les avantages des modèles d'accès libre et le potentiel d'abus, car des modèles puissants peuvent facilement être adaptés à des fins nuisibles.
Jeremie et Ed Harris ont commencé à percevoir ces risques lors des premières itérations de modèles comme GPT-2 et ont été particulièrement alarmés par l'échelle évidente de GPT-3. Leurs préoccupations croissantes les ont conduits à passer de leurs startups d'IA à un focus sur la sécurité de l'IA, y compris des programmes de formation pour des responsables de la sécurité nationale sur l'IA générative et les risques associés.
Depuis la fondation de Gladstone AI, ils s'efforcent de combler le fossé entre technologie et politique, reconnaissant la nécessité d'une analyse indépendante et informée des risques de l'IA, exempte des biais souvent présents dans les grandes organisations technologiques.
Alors que les points de vue des décideurs politiques sur les risques de l'IA évoluent, surtout après ChatGPT, les frères Harris soulignent la nécessité de propositions réglementaires réalistes. Leurs efforts continus visent à affiner des recommandations pour des actions du Congrès et de l’Exécutif tout en collaborant avec des parties prenantes clés pour relever les défis nuancés posés par l'avancement des technologies d'IA.