AIの誇大宣伝を乗り越える:OpenAI、Q*、そして高まる不安

ここ10日間、OpenAIを取り巻くドラマティックな出来事の後、CEOのSam Altmanが解雇され、CTOのミラ・ムラーティが暫定CEOに就任し、社長のグレッグ・ブロックマンが辞任し、ほぼ全てのOpenAIの従業員が退職を脅かす中、アルトマンが感謝祭直前に復職したことで、SiriコンバレーはAIに関する喧噪から解放され、ゆっくりとした休日を楽しむことができるのではと期待していました。しかし、実際にはそうなりませんでした。

感謝祭の朝、ロイター通信が報じたところによれば、アルトマンの一時的解雇の前に、複数のOpenAI研究者が取締役会に手紙を送り、「人類に脅威をもたらす可能性のある強力な人工知能の発見」について警告していたとのこと。このニュースは、家族が感謝祭の食事のために集まる中で急速に広まりました。このプロジェクトは「Q」と呼ばれ、OpenAIが定義する「経済的に価値のあるタスクで人間を上回る自律システム」、つまりAGI(汎用人工知能)を発展させる可能性があるとされていました。ロイターによると、このモデルは学校の算数レベルの数学的問題を解決できるものの、研究者たちはQの将来の見通しに楽観的です。

OpenAIの取締役会の混乱からQに関する議論への移行は、AIに関する持続的な誇大宣伝サイクルについて考えさせられました。AI開発の長期的な暂停を推奨するつもりはありませんが、仮に一日だけでもその喧噪から離れることができたら、とてもリフレッシュできたでしょう。Qに対する興奮は、NvidiaのシニアAI科学者ジム・ファンが「幻想」と表現したアルゴリズムから生じているようで、本質的な裏付けが不足していることが批判されていました。公表された論文もなく、統計も具体的な製品もないのです。

インテレクチュアルな魅力と最新ニュースを求める激しいメディア競争は否定できませんが、常に流れ続けるニュースは、将来の不確実性から来るより深い不安の源から生まれているかもしれません。ウィスコンシン大学の研究者によると、未来の潜在的な脅威への不安は、私たちの回避能力を妨げ、結果的に不安を高める原因となっています。私たちの脳は「予測機」として機能し、過去の経験を活用して未来を予測し、結果を改善しようとします。しかし、不確実性が私たちの先見の明を曇らせると、準備する能力が減少し、不安が増すのです。

この現象は一般市民だけでなく、トップのAI研究者やリーダーにも当てはまります。ジェフリー・ヒントン、ヤン・ルカン、アンドリュー・ングといった巨人たちでさえ、AIの未来についての不確実性に悩んでいます。彼らのソーシャルメディアでの議論は、知的に充実した内容である一方で、我々の不安の解消には殆ど役立っていないのです。

OpenAIとQに関する先週の熱い分析は、AIの不確実な進展に関する集団的な不安を反映しています。情報と安心感を求める不断の追求を続けるなら、AIに関する根本的な真実——その未来は本質的に不確実である——を見落とすリスクがあります。

これはAIの進化に関する議論や計画を続けるべきでないことを意味するわけではありませんが、もしかしたら一時的にこうした議論を休止し、ホリデーシーズンを楽しむ余裕があってもよいのかもしれません。クリスマスまであと4週間で、あらゆる利害関係者――効果的利他主義者、テクノオプティミスト、業界リーダー、学術研究者――が、一時期AIの誇大宣伝から離れ、エッグノッグやクッキーを楽しむことに合意できるかもしれません。AIの未来に対する我々の不安とその興奮は、元旦を迎えた後でも待っていてくれます。お約束します。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles