伊利亚·苏茨基弗(Ilya Sutskever),前OpenAI首席科学家,在今年五月辞职后,宣布了他的下一个创业项目。与OpenAI同事丹尼尔·莱维(Daniel Levy)和前苹果AI负责人丹尼尔·格罗斯(Daniel Gross)共同创立了Safe Superintelligence Inc.。该初创公司的使命是研发安全的超智能,他们认为这是“我们这个时代最重要的技术问题”。
在Safe Superintelligence的简约网站上,创始人们强调他们致力于将安全性与能力的提升相结合。他们计划在确保安全的前提下,实现人工智能能力的快速进步。
那么,什么是超智能呢?它指的是一种理论上的实体,其智能水平远超人类中最聪明的个体。
这一新倡议基于苏茨基弗在OpenAI的先前工作,特别是他在超对齐团队中的参与,该团队专注于控制强大的AI系统。在苏茨基弗离职后,该团队被解散,这一决定引发了前队长让·莱克(Jean Leike)的批评。
苏茨基弗在2023年11月OpenAI CEO山姆·奧特曼(Sam Altman)被争议性解职事件中也是关键人物之一,事后他对自己的参与表示遗憾。
Safe Superintelligence Inc.明确指出,它将以清晰的目标和专注的方向追求使命:创造一种安全的超智能AI。