OpenAI 연구자들, 안전 위험 경고 권리 주장하며 '인간 멸종' 방지를 위한 행동 촉구

AI 안전 문제를 다루는 내부 고발자와 비판자를 보호하기 위한 네 가지 원칙 채택을 촉구하는 공개 서한이 현재 및 전 OpenAI 직원, Google DeepMind의 한 멤버, 그리고 전 Anthropic 연구원 등 11명의 연구자들에 의해 발표되었습니다.

“경고할 권리”라는 제목의 이 서한은 AI 기술과 관련된 심각한 위험을 강조하며, "이러한 위험은 기존의 불평등 지속, 조작, 허위 정보 확산, 자율 AI 시스템에 대한 통제 상실로 이어질 수 있으며, 이는 인류 멸종을 초래할 수 있다"고 경고합니다.

서한에서 제기된 주요 우려 사항은 불충분한 감독, 이익 중심의 동기, 첨단 AI 기술 개발 조직 내의 반대 목소리 억압입니다. 이를 해결하기 위해 서명자들은 AI 기업들이 다음 네 가지 원칙을 준수할 것을 제안합니다:

1. 위험에 대한 비판적 논평을 제한하거나 우려를 제기한 개인에게 보복하지 않는 계약을 강제하지 않습니다.

2. 회사의 이사회, 규제 기관 및 독립 조직에 위험 관련 문제를 보고할 수 있는 기밀하고 검증 가능한 절차를 수립합니다.

3. 직원들이 상업적 기밀을 보호하면서도 잠재적 위험을 공개적으로 논의하도록 장려하는 투명한 문화를 조성합니다.

4. 내부 보고 경로가 실패한 후 기밀 위험 관련 정보를 공개한 직원에 대한 보복을 금지합니다.

뉴욕 타임즈에 의해 발표된 이 서한은 요슈아 벵지오, 제프리 힌턴, 스튜어트 러셀 등 AI 리더들의 지지를 받았습니다. 서명한 주요 인물로는 전 OpenAI 직원 제이콥 힐턴, 다니엘 코코타일로, 윌리엄 손더스, 다니엘 지글러, 그리고 Google DeepMind의 라마나 쿠마르와 네엘 난다가 포함됩니다.

기사를 발표한 후 X(구 Twitter)에서 게시한 일련의 글에서 코코타일로는 OpenAI에서의 사퇴 이유를 밝혔으며, 회사의 책임 있는 AI 개발에 대한 신뢰 상실을 언급하고 더 큰 투명성과 윤리 기준의 필요성을 강조했습니다. 그는 비판의 자유를 위해 자금을 사용하여 그가 가진 지분을 포기했으며, OpenAI가 시스템 진화 과정에서 안전 연구를 우선시하지 않은 것에 실망감을 표명했습니다.

OpenAI의 관행에 대한 이전 폭로를 이어 이러한 주장들은 공개된 문서를 통해 드러난 전 직원에 대한 압박 전술과 관련이 있습니다. 하지만 OpenAI는 테크 산업에서 일반적인 NDA를 강제하지 않겠다고 밝혔습니다.

서한은 2023년 11월, 이사회와의 소통 문제로 인한 CEO 샘 알트만의 논란의 여지가 있는 해고 이후, OpenAI에 혼란스러운 상황에서 발표되었습니다. 알트만은 투자자의 압력으로 빠르게 복직했지만 일부 이사회 회원들은 여전히 책임과 투명성에 대한 우려를 표명했습니다. 이 문제는 스칼렛 요한슨과 같은 공인들도 비판하며 회사를 비난했습니다.

그럼에도 불구하고 OpenAI는 최신 AI 모델 훈련과 함께 새로운 안전 및 보안 위원회를 구성하고 있어 안전 문제 해결을 위해 노력하고 있습니다.

전문가들이 우려하는 AI 기술의 심각한 위험을 인식하고, 책임을 다할 수 있도록 AI 기업들이 다음 원칙을 준수할 것을 요청합니다.

서명자: (알파벳 순)

- 제이콥 힐턴, 전 OpenAI

- 다니엘 코코타일로, 전 OpenAI

- 라마나 쿠마르, 전 Google DeepMind

- 네엘 난다, 현재 Google DeepMind, 전 Anthropic

- 윌리엄 손더스, 전 OpenAI

- 캐롤 웨인라이트, 전 OpenAI

- 다니엘 지글러, 전 OpenAI

- 익명, 현재 OpenAI (4인)

- 익명, 전 OpenAI (2인)

후원자: (알파벳 순)

- 요슈아 벵지오

- 제프리 힌턴

- 스튜어트 러셀

2024년 6월 4일

Most people like

Find AI tools in YBX