Sam Altman氏がOpenAIのCEOを突然解任されてから3日後、AIコミュニティは混乱と不確実性に直面していました。この混乱の中、テックモゴールのElon Musk氏は、OpenAIのチーフサイエンティストであるイリヤ・サツケバー氏に重要な質問を投げかけました。「なぜそんな drastic な行動を取ったのですか? OpenAIが人類に危険なことをしているなら、世界は知る必要があります。」
サツケバー氏は、アルトマン氏を解任する過程で重要な役割を果たした人物であり、OpenAIの技術の急速な商業化に対する懸念を示したとされます。数ヶ月前、同組織はより強力なAIモデルを開発するための大きなブレークスルーを遂げ、The Informationによると、この進展はサツケバー氏や非営利の親組織の役員たちに警戒感を引き起こしました。彼らは、これらの高度なモデルに対する既存の安全策が不十分だと感じ、唯一の解決策として、商業化を急がせる存在と見なされるアルトマン氏を解任することが求められました。
このブレークスルーは「Q*(Q-star)」と呼ばれ、AI開発における重要な技術的マイルストーンを意味しています。これにより、これまで遭遇したことのない基本的な数学的問題を解決できるようになりました。現行の生成AIシステムは入力プロンプトに応じて変動する結果を出しますが、数学は単一の正解を持つ分野です。この進展は、AIが人間の知能に匹敵する推論能力に近づいている可能性を示唆しており、ロイターはこれについて言及しています。
このような進展は、AIが人工一般知能(AGI)、すなわち機械が人間と同様に推論できる状態に近づくことを意味します。しかし、AIの世界には対立が生じています。AIの「教父」とも称される著名な派閥は、AGIが人類に対して存在的危険を伴うと警告していますが、MetaのチーフAIサイエンティストであるヤン・ルカン氏はこの考えに強く反対しています。彼はQ*に関する懸念を「完全なナンセンス」とし、FAIR、DeepMind、OpenAIなどの多くの先進的なAIラボが同様の道を探求していることを主張しました。
ルカン氏は、AGIが人類の滅亡をもたらすとの考えに対抗する強力な声です。彼は、超知性を持つことが必ずしも他者を支配しようとする意図を伴わないと主張し、企業の構造を引き合いに出して、リーダーがしばしば自分よりも知的に優れたチームをマネージすることを指摘、優れた知性が征服の意欲を意味しないことを示しています。
また、彼は機械は社会的本能を持たず、人類を圧倒しようとする野心を持っていないと強調しました。「知性は支配したいという欲望とは関係ない」とルカン氏は最近のオンラインディスコースで主張しました。むしろ、彼は超知能AIが人間の能力を高める有益なパートナーになると描いています。
AGIに関する彼の視点をまとめると次のようになります:
- 将来的に超人間AIが必ず現れる。
- これらのAIシステムは人間の制御下にある。
- それらは人類に脅威を与えず、私たちを害そうとしない。
- デジタル領域とのやり取りを円滑にする。
- したがって、多様なクリエイターからの貢献を受け入れトレーニングと洗練を行うオープンプラットフォームとして機能すべきである。
AIの進展に関する議論が続く中、潜在的なリスクと楽観的な機会についての対話は重要です。技術と人間の知性の交差点が、最終的にAIの社会における役割の軌道を決定することになるでしょう。