伊利亞·蘇茲基夫(Ilya Sutskever),OpenAI 的聯合創始人及前首席科學家,最近創立了一家名為「安全超智能」(Safe Superintelligence, SSI)的新公司。這個創新企業專注於開發「純粹」的安全超智能,旨在推進人工智慧的安全性、可靠性和可持續發展。
在他的聲明中,蘇茲基夫強調 SSI 將致力於創造超越人類認知能力的超智能。公司計劃組建一支小型專家團隊,目標是實現 AI 安全領域的革命性突破。SSI 自稱是全球首個專注於這一領域的實驗室,這標誌著人工智慧安全領域的一個重要里程碑。
創始團隊包括伊利亞·蘇茲基夫、前 OpenAI 員工丹尼爾·利維(Daniel Levy),以及在 AI 領域擁有豐富投資經驗且持有 GitHub 和 Instacart 等公司股份的 AI 投資者丹尼爾·格羅斯(Daniel Gross)。該團隊的綜合專業知識將為 SSI 的成功奠定穩固基礎。
蘇茲基夫在 AI 研究社群中受到高度評價,因其在 OpenAI 生成式 AI 方面的重大貢獻。儘管 OpenAI 的內部領導發生變化,他對於該組織在薩姆·奧特曼(Sam Altman)等領導者掌舵下的未來依然充滿樂觀,尤其是在安全和對社會有益的 AGI 開發上。
SSI 的成立標誌著 AI 安全的一個新篇章。隨著 AI 技術的迅速演變,確保這些系統的安全性和可靠性至關重要。SSI 致力於研究安全的超智能,以支持 AI 的可持續發展。
業界專家對 SSI 的成立充滿期待,認為其明確的商業模式和強大的創始團隊將為 AI 安全領域的突破提供實質支持,進一步推動人工智慧的創新並提升社會的福祉。