OpenAI共同創設者イリヤ・サツケヴァー、安全なスーパインテリジェンスの課題解決に向けたスタートアップを設立

イリヤ・サツケヴァー氏は、2023年5月にOpenAIのチーフサイエンティストを辞任した後、次の事業を発表しました。彼はOpenAIの同僚ダニエル・レヴィ氏、元AppleのAIリーダーであるダニエル・グロス氏と共に、Safe Superintelligence Inc.を設立しました。このスタートアップの使命は、安全なスーパインテリジェンスの開発であり、彼らはこれを「私たちの時代の最も重要な技術的課題」と考えています。

SSIのシンプルなウェブサイトでは、創業者たちは安全性と能力の両方に取り組むことへのコミットメントを強調しています。彼らはAIの能力を迅速に向上させる一方で、安全性を最優先にすることを計画しています。

では、スーパインテリジェンスとは何でしょうか?それは、最も賢い人間の知能をはるかに超える知性を持つ理論的存在を指します。

この取り組みは、サツケヴァー氏がOpenAIで行った以前の仕事に基づいており、特に強力なAIシステムを制御することに焦点を当てたスーパアライメントチームへの関与が含まれます。サツケヴァー氏の退職後、そのチームは解散され、これには元リーダーのジャン・ライケ氏から批判が寄せられました。

また、サツケヴァー氏は2023年11月にOpenAIのCEOSam Altman氏が解任される際の重要な人物でもあり、その後、自身の関与を後悔していると述べました。

Safe Superintelligence Inc.は、明確な焦点と単一の目標を持って使命を追求すると宣言しています。それは、安全なスーパインテリジェントAIの創造です。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles