AIの急速な進化は、過去1年で間違いなく加速しました。技術の進展は、AIが人間の知性を超えるという概念を、もはやSFの世界から切り離し、現実的な近未来の可能性へと変貌させています。
Turing賞受賞者のジェフリー・ヒントンは、5月にAIが人間レベルの知性に達するタイムラインを2028年と予測し、これまでの50〜60年という見込みから大きく変化したことを述べました。DeepMindの共同創設者シェーン・レッグも同様の見解を示し、2028年までに人工一般知能(AGI)が実現する確率は50%と考えています。AGIとは、AIが人間の知識レベルまたはそれ以上の能力であらゆる知的作業を遂行できる境地を指します。
この迫り来る可能性は、AIの倫理的影響や規制の未来について活発な議論を引き起こし、議論が学術的な環境から国際的な政策の場へと移行しています。政府や業界のリーダー、一般市民は、AIが人類の進路に与える影響を考えるうえで重要な問いに直面しています。
AIの存在的リスク
AIによる変化の範囲について意見は分かれていますが、AIがもたらすリスクに関する議論が進んでいます。OpenAIのCEOであるサム・オルトマンは、5月の議会公聴会で「この技術が間違った方向に進むと、非常に危険な結果を招く可能性がある」と警告し、こうした事態を避けるためには政府の連携が不可欠であると強調しました。
オルトマンの見解は、AIの安全性に関するセンターに支持され、同センターは危機的なリスクの軽減を全球的な優先課題にすべきだと述べています。この見解は、AIの存在的リスクへの恐れがピークに達していた時期に広まりました。
業界の懐疑論
一方で、一部の業界リーダーは極端な黙示録シナリオに懐疑的です。Google Brainの元責任者であるアンドリュー・ンは、AIが人間の滅亡を引き起こす可能性について批判し、大手テクノロジー企業が競争を阻害する重い規制を強いるための隠れ蓑として利用していると指摘しました。彼は、このような規制が小規模企業を不当に不利にする恐れがあると警告しています。
Metaの首席AI科学者でTuring賞受賞者のヤン・ルカンも、オルトマンや他のテクノロジーリーダーが誇大な懸念に基づく「大規模な企業ロビー活動」を行っているとし、これが少数の大企業に有利な規制を生み出し、オープンソースプロジェクトを疎外すると批判しました。
規制への動き
意見が分かれる中でも、規制への動きは加速しています。7月、ホワイトハウスはOpenAIやAnthropic、Alphabet、Meta、MicrosoftなどのAIリーダーから公共ツールの公開前にセキュリティテストプロトコルを策定することにコミットする声明を発表しました。9月までには、15社がこの提携に署名しました。
さらに、ホワイトハウスは「安全で、信頼できるAI」を目指した大統領令を発行し、イノベーションと監視のバランスを取ることを目指しています。この命令は、国家安全保障や医療を含むさまざまな分野において連邦機関が広範な指示に従うことを求め、AI企業は安全性テストの結果を共有することを義務づけています。
国際的なAI政策の取り組み
アメリカのAIガバナンスは、国際的な議論の一部でもあります。最近、G7は高度なAIシステムの開発に関わる組織に対し、安全で信頼性の高いAIに向けた国際行動規範を遵守するよう促す11の非拘束的なAI原則を発表しました。
また、イギリスではAI安全サミットが開催され、世界のステークホルダーが集まり、特に最前線のAIシステムに関するリスクに取り組みました。このイベントは、米国や中国を含む28カ国の代表者が署名した「ブレッチリーデクラレーション」で締めくくられ、高度なAIシステムがもたらすリスクに警告し、責任あるAI開発を約束しました。
この宣言は具体的な政策目標を設定するものではありませんでしたが、専門家は国際協力のための有望な基盤として位置づけています。
イノベーションと規制のバランス
専門家が示す期待されるマイルストーンに近づくにつれ、AI開発に伴う利害が高まっていることが明らかになっています。米国からG7諸国、さらにはそれを超えて、規制の枠組みの確立は最優先事項となっています。これらの初期の取り組みはリスクを軽減しつつ、イノベーションを促進することを目指していますが、効果や公正性に関する疑問は残ります。
AIは、医療や気候変動などのポジティブな可能性を引き出す一方で、倫理基準や社会的な安全策を確保することが求められる重要なグローバルな課題です。これらの複合的な挑戦に対処するためには、政府、ビジネス、学界、草の根運動が協力し、AIの未来を形作ることが必要です。それは技術分野だけでなく、人類社会全体の進路にも影響を与えるでしょう。