伊利亞·蘇茨基弗(Ilya Sutskever),前OpenAI首席科學家,在今年五月辭職後,揭示了他的下一項創業計劃。他與OpenAI同事丹尼爾·萊維(Daniel Levy)及前蘋果AI負責人丹尼爾·格羅斯(Daniel Gross)共同創立了Safe Superintelligence Inc.,其使命是開發安全的超智能,他們認為這是“我們時代最重要的技術問題”。
在Safe Superintelligence Inc.的簡約網站上,創始人強調他們致力於同時解決安全性和能力問題。他們計劃在保障安全的前提下,快速推進AI能力的發展。
那麼,什麼是超智能?它指的是一種理論上的存在,其智慧遠超過任何人類的智慧。
這項倡議建立在蘇茨基弗先前在OpenAI的工作之上,特別是他參與的超對齊團隊,該團隊專注於控制強大的AI系統。在蘇茨基弗辭職後,該團隊被解散,這一決定引發了前領導者讓·萊克(Jean Leike)的批評。
蘇茨基弗在2023年11月OpenAI首席執行官薩姆·奧特曼(Sam Altman)的具爭議性的罷免中也是關鍵人物,隨後對自己的參與表達了歉意。
Safe Superintelligence Inc.聲明將以明確的重點和唯一的目標追求其使命:創造一個安全的超智能AI。