世界のリーダーたちは、人工知能(AI)のリスクと機会に取り組むことへのコミットメントを強調しています。今日、主要な工業国からなるグループ・オブ・セブン(G7)は、先進的AIシステムを開発する組織のための国際行動規範を発表しました。これは、5月に導入された「ヒロシマAIプロセス」を拡張した自主的な枠組みで、安全で信頼性の高いAIの促進を目指しています。
一方、アメリカのバイデン大統領は「安全で信頼性のある人工知能」に関する大統領令を発出し、欧州連合(EU)はEU AI法案を最終調整しています。さらに、国連事務総長は、政府、技術、学術のリーダーで構成される新しい人工知能アドバイザリーボードを設立し、AIのグローバルなガバナンスを支援しています。
G7は、「先進的AIシステム、特に基盤モデルや生成的AIの革新的な機会と変革の可能性を強調します。しかし、私たちは個人、社会、法の支配や民主的価値を守るためにリスクを管理する必要性も認識しています。人類を中心に据えることが重要です」と述べました。
この課題に対処するために、G7リーダーたちは「包括的なガバナンス」を提唱しています。
拡張された11のポイントのフレームワーク
G7は、AIシステムの責任ある開発と展開を導くための11のポイントのフレームワークを発表しました。各組織には、この行動規範を遵守するよう求めつつ、独自の実施アプローチを採る可能性があることも認めています。
11のポイントは以下の通りです:
1. リスクの特定と軽減:開発段階でリスクを特定し、評価・軽減する措置を講じ、システムの信頼性と安全性を確保します。
2. 展開後の監視:脆弱性や悪用を特定・対応するため、持続的な監視と透明性のある報告を行います。
3. 透明性報告:先進的AIシステムの能力、限界、適切な利用法について、公に情報を開示し、強固な文書で裏付けます。
4. 責任ある情報共有:評価報告や安全リスクに関する情報を公に共有します。
5. ガバナンスポリシー:個人データおよび出力に関するAIのガバナンスとリスク管理戦略を策定し、公表します。
6. セキュリティ対策:物理的安全性、サイバーセキュリティ、内部脅威への対策に投資します。
7. コンテンツ認証:コンテンツ認証のための信頼できる方法を実施し、AIシステムとの相互作用をユーザーに明示します。
8. 社会的リスク軽減:社会、安全、セキュリティのリスクを減少させるための研究を優先します。
9. グローバル課題への対応:気候変動、健康危機、教育といった重要なグローバル課題を解決するためにAIの開発に焦点を当て、デジタルリテラシーを促進します。
10. 国際基準:国際的な技術基準やベストプラクティスの策定と採用を進めます。
11. データ入力の保護:個人データや知的財産に対して堅牢な保護を提供し、トレーニングデータセットの透明性を強調します。
動的な環境に適応する生きた文書
G7は、AI展開における法の支配、人権、公平性、民主的価値の重要性を強調しました。先進的なシステムは、民主的原則を損なったり、安全や権利への重大なリスクを引き起こしたりしてはいけません。
この行動規範は、政府、学術界、産業からのフィードバックに基づき進化し、原則を「非包括的」で生きた文書として位置づけることが目指されています。G7リーダーたちは、AIの利点を最大化し、特に発展途上国におけるデジタルデバイドの解消と包摂の促進を図りながら、リスクを軽減することを目指しています。
グローバルリーダーからの支持
この行動規範は、欧州委員会のバリャ・ユロヴァ副委員長など、他の世界の指導者からも支持を受けています。ユロヴァは、「信頼性が高く、倫理的で、安全な生成的人工知能が求められています。この行動規範は、EUとその同盟国がAIの利点を確保しながら、内在するリスクに対処するためにリードできるようにします」と述べました。
欧州委員会のウルスラ・フォン・デア・ライエン委員長も、AI開発者に迅速にこの行動規範に署名し、実施するよう促しました。彼女は、AIが市民や経済に提供できる大きな利益について強調しました。