프로테스터들이 OpenAI 사무실 밖에서 AI 및 AGI 개발에 대한 군사적 사용에 반대하는 집회를 열었습니다.

월요일 저녁, 샌프란시스코에 위치한 OpenAI 본사 앞에 수십 명의 시위자들이 모여 인공지능(AI) 개발에 대한 우려를 표명했습니다. 이들은 OpenAI 직원들이 퇴근하는 시간을 맞아 시위를 벌였습니다.

Pause AI와 No AGI가 주최한 이번 시위는 OpenAI 엔지니어들에게 고급 AI 시스템, 특히 챗봇 ChatGPT 개발을 중단할 것을 촉구했습니다. 그들의 메시지는 분명했습니다: 인간 능력을 초월할 수 있는 인공지능 일반(AGI)의 개발을 중단하고, 군과의 연계를 피하라는 것입니다.

이번 시위는 OpenAI가 최근에 자사의 AI 기술의 군 사용을 금지했던 정책을 변경한 데서 비롯되었습니다. 정책 변경 직후, OpenAI가 펜타곤과 계약을 체결했다는 보도가 나왔습니다. 행사 설명에 따르면, “OpenAI는 펜타곤과의 관계를 종료하고 모든 군 관련 고객을 거부해야 합니다. 편의에 따라 윤리적 경계를 변경할 수 있다면, 신뢰할 수 없습니다.”

언론 매체는 시위 주최자들과 이야기를 나누며 이들의 목표와 성공 기준에 대해 들었습니다. No AGI의 수장인 샘 커치너는 “No AGI의 사명은 AGI 개발의 위험에 대한 인식을 높이는 것입니다. 인간의 사고를 우선시하는 전체 뇌 에뮬레이션과 같은 이니셔티브에 집중해야 합니다.”라고 말했습니다.

Pause AI의 주요 조직자인 홀리 엘모어는 “AGI가 안전하다고 평가될 때까지 전 세계적으로 무기한 AGI 개발을 중단해야 합니다.”라며 “군과의 관계를 종료하는 것이 중요한 경계입니다.”라고 강조했습니다.

이번 시위는 AI의 윤리적 함의에 대한 공적 우려가 커지는 가운데 벌어졌습니다. OpenAI의 펜타곤과의 관계는 AI의 군사화와 그 잠재적 영향에 대한 논의에 불을 지폈습니다.

시위자들은 AGI에 대한 우려를 나타냈습니다. AGI는 기계가 인간의 지적 작업을 전례 없이 빠르고 대규모로 수행할 수 있는 능력을 의미합니다. 이들의 우려는 일자리 손실과 전쟁 자율성에 그치지 않고, 사회 전반의 권력 구조와 의사 결정 변화에 대한 불안으로 확대되고 있습니다.

커치너는 “우리가 AGI를 구축하는 데 성공한다면, AGI가 모든 것을 처리함에 따라 우리의 삶에서 본질적인 의미를 잃을 위험이 있습니다.”라고 경고했습니다. “사람들은 더 이상 일에서 의미를 찾지 못하게 되고, 이는 현대 사회에 중요합니다.”

엘모어는 “자기 규제만으로는 부족합니다; 외부 감독이 필요합니다. OpenAI는 종종 약속을 변경해 왔습니다. 샘 알트만은 6월에 이사회가 그를 해고할 수 있다고 주장했지만, 11월에는 그가 제거될 수 없었습니다. 그들의 사용 정책과 군사 계약에서도 비슷한 불일치가 발생합니다—이러한 정책이 제약 없는 행동을 허용한다면, 효과적이지 않습니다.”

Pause AI와 No AGI는 AGI 개발 중단이라는 공동 목표를 가지고 있지만, 접근 방식은 다릅니다. Pause AI는 안전한 AGI 개발에 대해 열린 태도를 보이는 반면, No AGI는 잠재적 심리적 위협과 개인적 의미 상실을 언급하며 AGI 개발에 강하게 반대합니다.

두 그룹은 이번 시위가 마지막이 아님을 밝히며, AI 위험에 관심 있는 이들이 웹사이트와 소셜 미디어를 통해 참여할 수 있다고 전했습니다. 현재 실리콘 밸리는 불확실한 AI 미래를 향해 빠르게 나아가고 있습니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles