OpenAIの元スーパアラインメントリーダーが批判:安全文化とプロセスが軽視されている

今週初め、OpenAIの共同創設者で元最高科学者のイリヤ・スツケバーと主要研究者のヤン・ライケが、数時間の間に同時に辞任を発表しました。この出来事は、彼らの高い地位だけでなく、超知能AIモデルを管理するためのシステム構築に注力していた超アラインメントチームを率いていたことからも重要です。

彼らの退職後、最近のWiredの記事によれば、OpenAIの超アラインメントチームは解散されたとのことです。この雑誌では私の妻が編集長を務めています。

本日、ライケは自身のXアカウントでOpenAIとそのリーダーシップに対する批判を表明し、「魅力的な製品」を安全性よりも優先していると非難しました。彼は、「過去数年間、私たちの安全性文化とプロセスは、魅力的な製品に後回しにされてきた」と述べました。

2021年初頭にOpenAIに加わったライケは、CEOのSam Altmanや社長のグレッグ・ブロックマン、CTOのミラ・ムラティなどの他の経営陣との間で核心的な優先事項に関して意見が合わなかったことを認めています。彼は、「私はかなりの間、OpenAIのリーダーシップと会社の核心的な優先事項について意見が合わず、最終的には限界に達してしまいました」と語りました。また、彼は、人間よりもはるかに賢いAIシステムをどのように制御し、操作するかを急いで取り組む必要性を強調しました。

2023年7月、OpenAIは、その計算資源の20%、特に強力なNvidia GPUクラスターを超アラインメントプロジェクトに配分すると約束しました。この取り組みは、会社の憲章で「経済的に価値のある仕事を人間よりも優れた能力で遂行する高度に自律的なシステム」と定義された人工一般知能(AGI)を責任を持って開発することを目的としています。

それにもかかわらず、ライケは「私のチームは逆風に向かって航海しているようなものでした。時には計算資源を確保するのに苦労し、重要な研究を進めるのがますます難しくなっていました」と不満を述べました。

ライケの投稿に対する返答で、アルトマンは彼の言葉を引用し、OpenAIのアラインメント研究と安全文化へのライケの貢献に感謝を示し、さらなる作業の必要性を認めました。アルトマンは、数日中に詳細な投稿を約束しました。

このニュースは、OpenAIに影を落とすものであり、先週月曜日に発表された新しいGPT-4oマルチモーダルファウンデーションモデルおよびMac用ChatGPTデスクトップアプリの発売と重なります。また、来週に予定されているBuildカンファレンスを控えるMicrosoftにとっても課題を突きつけるものです。

私たちはライケのコメントに関するOpenAIの声明を求めており、情報が入手でき次第、更新を提供します。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles