샘 올트먼: 다가오는 OpenAI 모델, 미국 정부 안전 검사를 먼저 통과할 예정

고급 인공지능 시스템의 안전성에 대한 우려가 커지고 있는 가운데, OpenAI CEO 샘 알트만은 회사의 차기 주요 생성적 AI 모델이 출시 전에 미국 정부와 안전 점검을 실시할 것이라고 발표했습니다. 알트만은 X에 게시한 글에서 OpenAI가 미국 AI 안전 연구소와 협력하고 있으며, 이 협정을 통해 새 기초 모델에 대한 조기 접근을 허용한다고 밝혔습니다. 이 파트너십은 AI 평가 과학을 발전시키고 안전 조치를 강화하는 것을 목표로 하고 있습니다.

OpenAI의 안전성에 대한 약속

알트만은 OpenAI가 비방 금지 정책을 수정하여 현재 및 전직 직원들이 회사의 관행에 대해 자유롭게 우려를 표명할 수 있도록 했다고 강조했습니다. 또한, 회사는 안전 연구에 컴퓨팅 자원의 최소 20%를 할애하겠다고 약속했습니다.

미국 상원의원의 우려

OpenAI는 ChatGPT와 최근 출시된 SearchGPT와 같은 제품으로 AI 산업의 선두주자로 떠오르며, 빠른 개발 전략이 논란을 일으켰습니다. 전직 안전 리더를 포함한 비평가들은 회사가 신속한 발전을 위해 안전성을 소홀히 하고 있다고 비난하고 있습니다. 이러한 우려에 대응하여 최근 다섯 명의 미국 상원의원이 알트만에게 서한을 보내 OpenAI의 안전성에 대한 헌신과 비방 금지 조항을 통해 경고한 전직 직원에 대한 보복 의혹을 제기했습니다. 상원 의원들은 지속적인 안전 우려가 OpenAI의 책임 있는 AI 개발 약속과 모순되는 것처럼 보인다고 표현했습니다.

OpenAI 리더십의 반응

블룸버그에 따르면 OpenAI의 최고 전략 책임자인 제이슨 권은 인류의 최선의 이익을 위한 AI 개발이라는 회사의 사명을 재확인하며 응답했습니다. 그는 OpenAI가 안전 조치를 철저히 시행하고 직원들과의 투명성을 유지하겠다는 약속을 강조했습니다. 권은 안전 연구를 위해 20%의 컴퓨팅 파워를 할당하고 비방 금지 조항을 철회하여 열린 대화를 촉진하며, AI 안전 연구소와 안전 모델 출시를 위해 협력할 계획이라고 재차 강조했습니다. 알트만은 이 약속을 X에서 다시 언급했지만 AI 안전 연구소와의 협력에 대한 구체적인 세부사항은 공개하지 않았습니다.

더 안전한 AI를 위한 협력

AI 안전 연구소는 고급 AI와 관련된 국가 안보 및 공공 안전 문제를 다루기 위해 영국 AI 안전 정상 회담 중에 설립되었으며, NIST의 일부입니다. OpenAI를 포함한 100개 이상의 기술 기업과 협력하여 AI 개발의 안전성을 촉진하고 있습니다. 중요한 점은 OpenAI가 미국 정부와만 협력하는 것이 아니라 영국 정부와도 유사한 안전 검토 협정을 체결했다는 것입니다.

안전 우려가 심화되다

안전 우려는 OpenAI의 초지능 AI 안전 시스템 개발에 집중된 슈퍼 얼라인먼트 팀의 공동 리더인 일리아 수츠케버와 얀 라이케의 갑작스러운 사임으로 5월에 심화되었습니다. 라이케는 안전 조치보다 화려한 제품을 우선시하는 회사에 대해 공개적으로 비판했습니다. 그들의 퇴사 이후 슈퍼 얼라인먼트 팀이 해체되었다는 보도가 있었습니다. 그럼에도 불구하고 OpenAI는 제품 출시를 지속하며 내부 연구와 새로운 안전 및 보안 위원회의 설립을 통해 안전성에 대한 약속을 강화하고 있습니다. 이 위원회는 브렛 테일러(OpenAI 이사회 의장)가 주재하며, 아담 디안젤로(Quora CEO), 니콜 셀리그먼(전 소니 글로벌 법률 고문), 샘 알트만 등 저명한 인사들이 포함되어 있습니다.

OpenAI는 이러한 노력을 통해 고급 AI 기술과 관련된 중대한 안전 우려를 해결하고 혁신과 책임 있는 개발 사이의 균형을 추구하고자 합니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles