샘 올트먼이 OpenAI의 CEO에서 갑작스럽게 해임된 지 3일이 지난 후, AI 커뮤니티는 혼란과 불확실성에 직면했습니다. 이 turmoil 속에서 테크 거물 일론 머스크는 X(구 트위터)에서 OpenAI의 수석 과학자 일리야 수츠케버에게 중요한 질문을 던졌습니다: "왜 그렇게 극단적인 조치를 취했나요? 만약 OpenAI가 인류에 잠재적으로 위험한 행동을 하고 있다면, 세상은 알아야 합니다."
수츠케버는 올트먼 해임에 중요한 역할을 한 인물로 알려져 있으며, OpenAI 기술의 빠른 상업화에 대한 우려를 표명했다고 전해집니다. 몇 달 전, 이 조직은 더 강력한 AI 모델을 개발할 수 있는 중요한 돌파구를 이루었으며, 이는 The Information에서 보도되었습니다. 이 진전은 수츠케버와 비영리 모회사 이사회 내에서 우려를 낳았고, 기존 안전장치가 이러한 고급 모델의 함의로부터 충분히 보호하지 못할 것이라 판단했습니다. 그들은 이러한 가속화된 상업화의 주 원인으로 여겨진 올트먼을 제거하는 것이 유일한 해결책이라고 생각했습니다.
이 breakthroughs는 Q* (혹은 Q-star)로 언급되며, AI 개발의 중요한 기술 이정표를 나타냅니다. 이는 모델이 이전에 직면하지 않았던 기본적인 수학 문제를 해결할 수 있게 합니다. 현재의 생성 AI 시스템이 입력 프롬프트에 따라 다변량 결과를 산출하는 반면, 수학은 단일 정답으로 작동합니다. 이 발전은 AI가 인간 지능에 가까운 사고 능력을 갖추고 있다는 것을 암시합니다.
이러한 발전의 함의는 AI가 인공 일반 지능(AGI)에 가까워짐을 의미합니다. AGI란 기계가 인간처럼 사고할 수 있는 상태를 말합니다. 그러나 AI 분야에서는 분열이 나타났습니다. AI의 대부로 불리는 한 저명한 그룹은 AGI가 엄격한 규제 없이는 인류에 실존적 위험을 초래한다고 경고합니다.
반면 메타의 수석 AI 과학자인 얀 르쿤은 이러한 견해에 강력히 반대합니다. 그는 Q*에 대한 우려를 "완전한 터무니없는 이야기"라며 일축하고, FAIR, DeepMind, OpenAI와 같은 주요 AI 연구소들이 유사한 경로를 탐색하고 있으며 이미 그 결과를 공유했다고 주장합니다.
르쿤은 AGI가 인류의 멸망을 초래할 것이라는 믿음에 대한 강력한 목소리입니다. 그는 초지능이 반드시 덜 지능적인 존재를 지배해야 한다는 것을 내포하지 않는다고 주장합니다. 기업 구조와의 비유를 들어, 그는 리더가 종종 자신보다 더 지능이 높은 팀을 관리하며, 이러한 우월한 지능이 정복의 욕구와 동일하다는 가정은 잘못되었다고 설명합니다.
그는 기계가 사회적 본능을 갖추고 있지 않으며 인류를 압도할 의도가 없다고 강조합니다. "지능은 지배하고자 하는 욕구와는 아무런 관계가 없습니다," 르쿤은 최근 온라인 토론에서 주장했습니다. 오히려 그는 초지능 AI가 인간의 능력을 증진시키는 유익한 협력자로 작용할 것이라고 전망합니다.
AGI에 대한 그의 견해를 요약하면 다음과 같습니다:
- 초인간 AI는 분명히 미래에 등장할 것입니다.
- 이러한 AI 시스템은 인간의 통제를 받을 것입니다.
- 그들은 인류에 위협이 되거나 해를 끼치지 않을 것입니다.
- 그들은 디지털 영역과의 상호작용을 원활하게 할 것입니다.
- 따라서 그들은 다양한 창작자들의 기여를 허용하는 개방형 플랫폼으로 운영되어야 합니다.
AI 발전의 함의에 대한 논의가 계속되는 가운데, 잠재적 위험과 낙관적인 기회 사이의 논쟁은 여전히 중요한 문제로 남아 있습니다. 기술과 인간 지능의 미래 교차점은 궁극적으로 AI의 사회 내 역할의 궤적을 결정할 것입니다.