최근 이사회 turbulence에 따른 OpenAI는 AI 모델의 안전성을 철저히 테스트하기 위한 전담 Preparedness 팀을 설립하여 감독을 강화한다고 발표했습니다. 이 전략적 initiative는 CEO 샘 알트먼을 해임한 논란의 결정 후에 나왔으며, 이는 기술의 빠른 상용화에 대한 우려를 가진 수석 과학자 일리야 수츠케버의 요청에 따른 것입니다. 알트먼은 직원들의 반발로 5일 후에 복귀하게 되었고, 이는 기업 결정에서 직원 지지의 중요성을 강조합니다.
OpenAI의 새로운 Preparedness 팀은 기본 모델에 대한 종합 평가와 스트레스 테스트를 실시하여 안전 프로토콜을 강화할 것입니다. 이 팀이 생성한 보고서는 OpenAI 리더십 및 새로 구성된 이사회와 공유될 예정입니다. 리더십 팀은 테스트 결과에 따라 모델 진행 여부를 결정하며, 이사회는 해당 결정을 번복할 권한을 가져 결정 과정의 감시가 강화되었습니다.
OpenAI는 최근 블로그에서 "이 기술적 작업은 안전한 모델 개발 및 배치를 위한 OpenAI의 의사결정에 필수적이다"고 강조했습니다. 이사회 구조조정은 리더십 위기 동안의 중요한 변화를 반영하며, 회원 수를 3명에서 9명으로 확대할 계획이며, 마이크로소프트를 위한 비투표 관찰자 역할도 포함됩니다. 현재 이사회는 전 미국 재무장관 래리 서머스, 세일즈포스의 전 공동 CEO 브렛 테일러, 쿼라의 공동 창립자 아담 당젤로와 같은 저명한 인사들로 구성되어 있으며, 아담 당젤로는 이전 이사회 구성원 중 유일하게 남아 있습니다.
OpenAI의 미션은 분명합니다: 인류에 대한 기본적인 신탁 책임을 다하며, 인공지능(AGI)의 안전성을 보장하기 위해 깊이 헌신하고 있습니다. 조직의 새로운 Preparedness Framework는 모델 배치에서 귀중한 통찰력을 얻어 새로운 위험을 효과적으로 완화하는 것을 목표로 하고 있습니다. OpenAI는 혁신이 가속화됨에 따라 안전 작업의 속도도 증가해야 하며, 반복적인 배치를 통해 지속적인 학습이 필요하다고 주장합니다.
Preparedness Framework 아래에서, 새로운 팀은 발생할 수 있는 문제에 신속히 대응하기 위해 정기적인 안전 훈련을 실시할 예정입니다. OpenAI는 또한 독립적인 제3자의 정기 감사 수행을 계획하여 책임성과 투명성을 높일 예정입니다.
모든 OpenAI 모델은 이제 교육 중 효율적인 컴퓨팅 파워가 두 배로 증가할 때마다 지속적인 업데이트와 평가를 받게 됩니다. 테스트 과정은 사이버 보안 취약성, 오용 가능성, 생물학적, 화학적, 또는 핵 위협과 관련된 위험한 결과에 대한 자율적 의사결정 능력 등 여러 중요한 영역을 포함합니다.
모델은 EU AI 법과 유사한 안전 위험 수준 분류 시스템에 따라 낮음, 중간, 높음, 치명적 위험 수준 중 하나로 분류됩니다. 중간 위험 이하로 평가된 모델은 배치에 적합하다고 간주되며, 높음 또는 치명적 위험으로 평가된 모델은 추가 개발과 예방 조치를 요구합니다.
현재 OpenAI의 Preparedness Framework는 베타 단계에 있으며, 새로운 통찰력이 나타남에 따라 지속적으로 조정될 예정입니다. 이러한 선제적 접근은 AI 기술의 발전뿐만 아니라 이러한 혁신에 수반되는 안전과 윤리적 고려도 보장하기 위한 회사의 헌신을 반영합니다.