英国のリシ・スナク首相は、11月1日と2日に予定されているAI安全サミットに向けて、人工知能(AI)に対するバランスの取れた視点が重要であると強調しました。国家の主要な科学機関であるロイヤル・ソサエティでの発言で、スナク首相は、AIに伴う重大なリスク、特に悪意のある行為者による誤用の可能性を認めつつ、過度に警戒する姿勢は避けるべきだと訴えました。
「現在、AIを開発している企業は、その安全性をテストする責任を負っていますが、それらの企業でさえ、自分たちのモデルの将来的な能力を完全には理解していないことが多い」とスナク首相は述べました。「最も先進的なモデルを迅速に作成することには大きなインセンティブがあるため、彼ら自らがその結果を評価することを信頼すべきか疑問です。」
スナク首相は、イノベーションを妨げるような急速な規制措置に反対し、「私たちが完全に理解していないものに対して、どのように効果的な法律を作れるでしょうか?むしろ、政府内部でAIモデルの安全性を理解し評価するための世界をリードする能力を育成しています」と述べました。英国のAI立法に関しては、欧州連合と比較して厳格性が低く、ホワイトペーパーで要件を示し、特定の分野の規制当局にルール作りを委任しています。
6月には、AIサミット・ロンドン会議で、同国のAI担当大臣が今後の規制は技術基準や保証技術を補完するものであると示唆し、監視の強化に向けた可能性を示しました。
AI安全への協力的アプローチ
スナク首相は、対立ではなく他国と協力してAIの安全性を確保したい考えを表明しました。その協力的精神は、米国との緊張関係がある中でも中国をサミットに招待したことからも明らかです。彼は、世界の主要なAI大国との対話の重要性を訴え、「AIに対する真剣な戦略は、世界のリーディングAI大国との対話を含むべきです」と主張しました。
中国は、自国のAI企業に対して厳しい規制を導入しており、新たな生成AIモデルが公開される前に国家データ監視機関による安全性レビューを要求しています。それでも中国政府は、AI監視に関する国際的な議論に参加する意向を示していますが、習近平主席は国家安全保障に重点を置くことを強調しています。
オリバー・ダウデン副首相は、中国がサミットの招待を受け入れたことを確認し、参加者からの正式な確認を待つ必要があることを述べました。
スナク首相は、このサミットがAIリスクに関する共通理解を育み、これらの課題に関する国際的な合意形成を目指しているとしています。また、参加国と組織からの推薦に基づいて、AIに関する「真にグローバルな専門家パネル」の設立を envision し、包括的な「AI科学の現状」報告書を公表することを目指しています。
「私たちの成功はAI企業との協力にかかっています。技術が進化する中で、私たちがリスクを共に理解し、適応させていく必要があります」と語っています。この取り組みは、国際原子力機関(IAEA)のようなAI安全監視のためのグローバルな規制機関を創設するよう求める国連事務総長アントニオ・グテーレスの呼びかけとも一致しています。
業界の視点と懸念
スナク首相が英国をAIの主要超大国として位置づける中、政府はAIに関する助言を行うために1億2000万ドルを割り当てており、トゥーリング賞受賞者のヨシュア・ベンジオ氏もそのメンバーに名を連ねています。サミットには、OpenAIのCEOSam Altman氏やGoogle DeepMindのCEOデミス・ハサビス氏、さらに米国副大統領カマラ・ハリス氏などの著名な業界リーダーが参加します。
ケンブリッジ・コンサルタンツのAI責任者マヤ・ディロン氏は、「AI革命の中で協力が必要です。AIを受け入れるだけでなく、その方向性を慎重に導くことが課題です。この革命は、ビジネスの成功と社会的福祉を結びつけるものであり、本物のコラボレーションが求められます」と強調しています。
KPMG英国のコネクテッドテクノロジー責任者ポール・ヘニンガー氏は、サミットが協力的なリスク評価戦略を促進する可能性を指摘しつつ、技術が進化し続ける中で、組織が定期的な更新を期待するであろうと述べました。
サミットの野心的な目標を考慮しながらも、ClouderaのEMEAフィールドCTOクリス・ロイルズ氏は、包括的な規制の探求は高い野望であると見なしました。彼は企業は信頼できるデータソースでAIモデルを訓練することに集中すべきだと提案しています。同様に、Trellixのゼネラルマネージャー、ファビアン・レッシュ氏は、AI開発においてセキュリティ対策を優先することが信頼を高め、サイバー攻撃から保護するために重要であると主張しています。
AIリスクの強調
スナク首相の発言前に、英国政府は潜在的なAIリスクを示した報告書を公表しました。主なリスクには以下が含まれます:
- 社会的害: 誤情報やディープフェイクの生成、自動化による仕事の喪失、アルゴリズムによる偏見など。
- 誤用リスク: AI技術が武器の生成やサイバー攻撃、誤情報活動の効果を高める可能性。
- 支配喪失リスク: 人間が誤ったAIシステムに意思決定権を relinquish し、影響力を増すことを目指す高等エージェントに対する懸念。
この報告書では、安全なAIシステムの設計に関する複雑さ、安全性評価、および運用時の責任の確保といった、リスクを高める可能性のある普遍的な課題も詳述されています。
報告書に対し、DeployteqのCEOスジュール・ファン・デル・リーウ氏は、英国政府のAI安全に対する真剣なアプローチを称賛し、AIが様々な産業にもたらす大きな機会が、効果的な規制と政策立案者からの指導に依存していることを認識しています。