Сооснователь OpenAI Илья Сутскевер запустил стартап для решения вопросов безопасной суперинтеллектуальности.

Илья Сутскевер, бывший главный ученый OpenAI, представил свой следующий проект после увольнения в мае. Вместе с коллегой по OpenAI Дэниелом Леви и бывшим руководителем ИИ в Apple Дэниелом Гроссом он основал компанию Safe Superintelligence Inc. Миссия стартапа заключается в разработке безопасной суперintelligence, которую они считают «самой важной технической задачей нашего времени».

На минималистичном сайте SSI основатели подчеркивают свою приверженность совместному решению вопросов безопасности и возможностей. Они намерены добиваться быстрого прогресса в развитии возможностей ИИ, при этом уделяя первоочередное внимание безопасности.

Что такое суперintelligence? Это теоретическая сущность, обладающая интеллектом, значительно превосходящим интеллект самых умных людей.

Эта инициатива основывается на предыдущей работе Сутскевера в OpenAI, особенно на его участии в команде суперalign, сосредоточенной на контроле мощных ИИ-систем. После ухода Сутскевера эта команда была распущена, что вызвало критику со стороны бывшего руководителя Жана Лейке.

Сутскевер также сыграл ключевую роль в спорной отставке CEO OpenAI Сэма Олтмана в ноябре 2023 года, позже выразив сожаление о своем участии.

Safe Superintelligence Inc. уверяет, что будет следовать своей миссии с четкой целью: создать безопасный суперintelligent AI.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles