OpenAI는 AI 분야에서 "개방성"이라는 약속을 이행하기 위해 노력하고 있습니다. 비록 새로운 모델을 오픈 소스로 공개하지 않았지만, 회사는 잘못된 정보와 딥페이크와 같은 사회적 문제에 대한 AI의 영향을 적극적으로 다루고 있습니다. 이번 주, OpenAI는 API와 ChatGPT를 통해 접근 가능한 AI 모델의 행동을 안내하기 위한 "모델 스펙"이라는 프레임워크 문서를 소개했습니다. OpenAI는 이 문서에 대한 공개 피드백을 5월 22일까지 받을 예정입니다.
OpenAI의 공동 창립자이자 CEO인 샘 올트먼은 X에서 "우리는 의견을 듣고 논의하며 시간에 따라 조정할 것"이라며 "버그와 의사결정을 명확히 하는 데 매우 유용할 것"이라고 밝혔습니다.
모델 스펙 출시 이유
모델 스펙의 출시는 AI 기술이 사용자에게 안전하고 유익하게 작용하도록 보장하려는 OpenAI의 미션과 일치합니다. 그러나 이 목표를 달성하는 것은 복잡하며 기술과 사회 간의 오랜 철학적 논쟁과 종종 얽히게 됩니다. OpenAI는 블로그에서 "모델이 폭넓게 유익할 것으로 의도되더라도, 실제 응용이 상충할 수 있다"고 강조했습니다. 예를 들어, 보안 회사는 합성 데이터를 사용하여 사이버 피싱 방지 도구를 개발할 수 있지만, 같은 능력이 사기꾼에 의해 악용될 수 있습니다.
OpenAI는 이 초기 초안을 공유함으로써 AI 개발의 윤리적 및 실질적 측면에 대한 논의에 대중을 초대하고 있습니다. 사용자들은 OpenAI의 피드백 폼을 통해 두 주간 자신의 의견을 제출할 수 있으며, 이후 OpenAI는 모델 스펙의 수정 사항, 사용자 피드백에 대한 응답 및 모델 행동 형성의 진행 상황을 발표할 계획입니다.
OpenAI는 모델 스펙이 AI 행동에 어떤 영향을 미칠지, 또는 모델 정렬에 사용되는 "시스템 프롬프트"에 그 원칙이 통합될지에 대해서는 구체적으로 설명하지 않았지만, 큰 함의가 있을 것으로 기대하고 있습니다.
AI 행동을 위한 프레임워크
모델 스펙은 AI 상호작용을 안내하는 세 가지 핵심 요소: 목표, 규칙, 기본 행동으로 구성되어 있어 효율성과 윤리 기준을 보장합니다.
- 목표: 문서는 개발자와 사용자를 돕기 위한 광범위한 원칙을 제시합니다. 여기에는 사용자 목표를 효과적으로 지원하고, 다양한 이해관계자의 영향을 고려하며, 지역 사회 복지를 증진하는 것이 포함됩니다.
- 규칙: AI 상호작용을 내비게이팅하기 위한 명확한 규칙을 설정하여, 관련 법률 준수, 지식 재산권 존중, 개인정보 보호 및 안전하지 않은 콘텐츠에 대한 금지를 보장합니다.
- 기본 행동: 가정치 선한 의도를 전제로 하고, 필요시 명확성을 요청하며, 과도하지 않게 최대한의 도움이 되도록 하는 중요성을 강조합니다. 이 접근법은 사용자들의 다양한 요구를 조화롭게 유지하는 것을 목표로 합니다.
AI 인플루언서이자 와튼 스쿨 교수인 에이선 몰릭은 이러한 원칙을 아이작 아시모프의 1942년 소설 "로봇의 삼법칙"에 비유하기도 했습니다. 그러나 모델 스펙의 구현에 대해 비판이 있는 가운데, 특히 AI의 응답에 미치는 영향에 대한 우려가 제기되고 있습니다. 기술 작가 앤드류 커런은 "AI 어시스턴트"가 사용자에 의해 지구가 평평하다는 잘못된 주장을 도전하지 않는 사례를 언급했습니다.
지속적인 참여 및 개발
OpenAI는 모델 스펙이 현재의 관행을 반영하고 ongoing research와 공공 의견을 통합하여 적응하기 위한 생동하는 문서임을 인정합니다. 조직은 특히 정책 결정자와 전문 분야의 이해 관계자와 같은 다양한 관점을 수집하는 데 주력하고 있습니다. 피드백은 모델 스펙 및 향후 AI 개발을 다듬는 데 중요한 영향을 미칠 것이며, OpenAI는 이 피드백 순환에서 얻은 인사이트와 변화에 대해 대중에게 지속적으로 정보를 제공할 계획입니다.
다음 단계
OpenAI는 모델 스펙을 통해 원하는 AI 행동을 명확히 하고, 국제 사회의 의견을 solicit하면서 legal scrutiny 및 훈련 데이터에 대한 예술가 동의 관련 비판 속에서도 AI가 긍정적인 사회적 영향을 미칠 수 있도록 노력하고 있습니다.