OpenAI 공동 창립자 일야 수츠케버, 안전한 초지능 문제 해결을 위한 스타트업 출범

일리아 수츠케버(Ilya Sutskever), 전 OpenAI 수석 과학자가 5월 퇴사한 후 새로운 프로젝트를 공개했습니다. 그는 OpenAI 동료인 다니엘 레비(Daniel Levy)와 전 애플 AI 책임자 다니엘 그로스(Daniel Gross)와 함께 Safe Superintelligence Inc.를 설립했습니다. 이 스타트업의 목표는 안전한 초지능(superintelligence)을 개발하는 것으로, 이들은 이를 "우리 시대의 가장 중요한 기술적 문제"로 보고 있습니다.

SSI의 간결한 웹사이트에서 창립자들은 안전성과 능력의 동시 해결에 대한 의지를 강조하고 있습니다. 이들은 안전성을 최우선으로 하면서 AI 능력의 빠른 발전을 이루겠다는 계획을 세우고 있습니다.

그렇다면 초지능이란 무엇일까요? 이는 가장 똑똑한 인간의 지능을 훨씬 초월하는 이론적 엔티티를 의미합니다.

이번 이니셔티브는 수츠케버의 OpenAI에서의 이전 작업을 바탕으로 하며, 특히 강력한 AI 시스템을 제어하기 위한 초정렬(superalignment) 팀에 그의 참여가 포함됩니다. 수츠케버의 퇴사 이후 해당 팀은 해체되었으며, 이 결정은 전 팀장인 장 라이크(Jean Leike)로부터 비판을 받았습니다.

수츠케버는 또한 2023년 11월 OpenAI CEO 샘 알트만(Sam Altman)의 논란이 일었던 해임에 핵심적인 역할을 했으며, 그에 대한 자신의 관여에 대해 후회함을 표현했습니다.

Safe Superintelligence Inc.는 안전한 초지능 AI를 창조하는 데 명확한 초점과 단일 목표를 가지고 미션을 추구하겠다고 밝히고 있습니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles