OpenAIのスーパーアラインメントチーム、2人の主要メンバー離脱後の生き残りの危機とは?

イリヤ・サツケバーは、オープンAIの元最高科学者で共同創設者ですが、彼の退任は昨日の同社からの主要な離脱の一例に過ぎません。すぐに、オープンAIの「スーパーアラインメント」チームの共同リーダーであるヤン・ライクも退職を発表しました。「辞職しました」とXに投稿しました。

ライクは2021年初めにオープンAIに加わり、特にGPT-3を人間の好みに合わせる報酬モデリングの取り組みに対して熱意を示していました。彼は2022年12月には自身のSubstackアカウント「Aligned」でオープンAIのアラインメント戦略に期待を寄せるコメントを発表しました。それ以前は、GoogleのDeepMindにて専門性を活かしていました。

この二人のリーダーの退職は、オープンAIの先進的なAIシステムの制御に関する野望、特に経済的に価値あるタスクにおいて人間の能力を超えると定義される人工一般知能(AGI)の達成について、X上での議論を引き起こしました。

スーパーアラインメントとは?

オープンAIのGPT-4oや、GoogleのGemini、MetaのLlamaなどの大型言語モデル(LLM)は、複雑な動作をします。これらのモデルが信頼性を持って機能し、有害または無意味な応答を生成しないようにするためには、開発者が「望ましい行動」に合わせて調整する必要があります。この調整には、強化学習や近似方策最適化(PPO)などの機械学習技術が使われます。

スーパーアラインメントは、現在のものを超えた将来のAIモデル(超知能)を調整するための強化された取り組みを表しています。オープンAIは2023年7月にスーパーアラインメントチームを設立し、AIの開発とガバナンスに伴うリスク管理の緊急性を強調しました。

課題は、超知能AIシステムが人間の意図に従うことを確実にする方法です。現在のアラインメント技術は人間の監視に依存しており、人間の知性を超えるシステムには効果的にスケールできない可能性があります。オープンAIはこの問題を認識し、スーパーアラインメントの取り組みに20%のコンピューティングリソースを割り当て、Nvidiaやその他のハードウェアからの貴重なGPUを活用することを約束しました。

スーパーアラインメントの今後は?

サツケバーとライクの退職に伴い、スーパーアラインメントの未来について重要な疑問が浮かび上がります。オープンAIはこのプロジェクトに約束した20%のコンピューティングパワーを引き続き配分するのでしょうか、それとも新たな方向にシフトするのでしょうか。観察者たちは、サツケバーを「ドゥーマー」と見なしていたこと、特にAIに対する存在的危機に関して、CEOのSam Altmanやその他の人々がこれらの脅威に対してあまり焦点を当てていないように見えることを指摘しています。

私たちはスーパーアラインメントチームの将来についてオープンAIに確認を取り、回答が得られ次第、最新情報をお伝えします。

Most people like

Find AI tools in YBX