Илья Сутскевер, бывший главный ученый OpenAI, представил свой следующий проект после увольнения в мае. Вместе с коллегой по OpenAI Дэниелом Леви и бывшим руководителем ИИ в Apple Дэниелом Гроссом он основал компанию Safe Superintelligence Inc. Миссия стартапа заключается в разработке безопасной суперintelligence, которую они считают «самой важной технической задачей нашего времени».
На минималистичном сайте SSI основатели подчеркивают свою приверженность совместному решению вопросов безопасности и возможностей. Они намерены добиваться быстрого прогресса в развитии возможностей ИИ, при этом уделяя первоочередное внимание безопасности.
Что такое суперintelligence? Это теоретическая сущность, обладающая интеллектом, значительно превосходящим интеллект самых умных людей.
Эта инициатива основывается на предыдущей работе Сутскевера в OpenAI, особенно на его участии в команде суперalign, сосредоточенной на контроле мощных ИИ-систем. После ухода Сутскевера эта команда была распущена, что вызвало критику со стороны бывшего руководителя Жана Лейке.
Сутскевер также сыграл ключевую роль в спорной отставке CEO OpenAI Сэма Олтмана в ноябре 2023 года, позже выразив сожаление о своем участии.
Safe Superintelligence Inc. уверяет, что будет следовать своей миссии с четкой целью: создать безопасный суперintelligent AI.