Ilya Sutskever, co-fundador da OpenAI, lança startup para enfrentar os desafios da superinteligência segura.

Ilya Sutskever, ex-cientista chefe da OpenAI, anunciou sua nova empreitada após deixar a empresa em maio. Juntamente com o colega da OpenAI, Daniel Levy, e o ex-líder de IA da Apple, Daniel Gross, ele fundou a Safe Superintelligence Inc. A missão da startup é desenvolver uma superinteligência segura, que eles consideram "o problema técnico mais importante de nosso tempo."

No site minimalista da SSI, os fundadores enfatizam seu compromisso em abordar segurança e capacidades de forma integrada. Eles planejam promover avanços rápidos nas capacidades da IA, mantendo a segurança como prioridade.

Mas, o que é superinteligência? Refere-se a uma entidade teórica com uma inteligência que supera em muito a do ser humano mais inteligente.

Essa iniciativa baseia-se no trabalho anterior de Sutskever na OpenAI, especialmente sua participação na equipe de superalineamento, focada no controle de sistemas de IA poderosos. Após a saída de Sutskever, essa equipe foi desfeita, uma decisão que gerou críticas do ex-líder Jean Leike.

Sutskever também foi uma figura-chave na controversa demissão do CEO da OpenAI, Sam Altman, em novembro de 2023, e posteriormente expressou arrependimento por sua participação.

A Safe Superintelligence Inc. afirma que seguirá sua missão com um foco claro e um objetivo singular: criar uma IA superinteligente segura.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles