한 통의 공개 서한이 화요일 OpenAI, Google의 DeepMind, Anthropic의 현직 및 전직 직원 10명 이상에 의해 발표되었습니다. 이 서한은 효율적인 감독 체계가 부재한 인공지능(AI) 기술의 급격한 발전과 관련된 "심각한 위험"을 강조합니다. 연구자들은 규제되지 않은 AI가 기존의 불평등을 악화시키고, 정보를 조작하며, 허위 정보를 퍼뜨리고, 자율 AI 시스템에 대한 통제력을 상실할 가능성도 있으며, 이는 인류에 심각한 결과를 초래할 수 있다고 경고합니다.
서명자들은 이러한 위험이 과학 공동체, 입법자, 그리고 공공 간의 협력을 통해 "적절히 완화될 수 있다"고 주장하지만, "AI 기업들이 효과적인 감독을 피할 강력한 재정적 유인이 있다"고 우려하며 책임 있는 기술 발전을 이끌 믿을 수 없다고 경고합니다.
2022년 11월 ChatGPT 출범 이후 생성 AI는 급속히 기술 지형을 변화시켰고, Google Cloud, Amazon AWS, Oracle, Microsoft Azure와 같은 주요 클라우드 제공업체들이 2032년까지 조성될 것으로 예상되는 조 단위 시장의 선두주자로 나서고 있습니다. 최근 McKinsey의 연구에 따르면 2024년 3월 기준으로 조사한 조직의 거의 75%가 AI를 자사 운영에 통합했습니다. 또한, Microsoft의 연례 Work Index 조사에서는 사무직 근로자의 75%가 이미 직무에서 AI 도구를 활용하고 있다고 밝혔습니다.
그러나 전 OpenAI 직원인 다니엘 코코타일로는 The Washington Post와의 대화에서 일부 기업들이 "빨리 움직이고 고장내라"는 사고방식을 채택하고 있다고 지적했습니다. 이 사고방식은 강력하지만 잘 이해되지 않은 기술에는 부적합합니다. OpenAI와 Stable Diffusion과 같은 AI 스타트업은 미국 저작권법과의 갈등에 직면했으며, 다양한 공개 채팅봇은 증오 발언, 음모론 및 허위 정보를 생성하도록 조작되는 문제를 겪었습니다.
우려하는 AI 직원들은 이들 기업이 제품의 능력과 한계, 그리고 잠재적 위험에 대한 "상당한 비공식 정보를" 보유하고 있다고 주장합니다. 그들은 정부가 이 정보를 "약한 공유 의무"에 의해 감시하고 있어 일반 대중은 그 내용을 거의 알지 못한다고 강조했습니다.
"이들 기업에 대한 정부의 감독이 불충분한 상황에서, 현직 및 전직 직원들은 대중에게 책임을 물을 수 있는 몇 안 되는 경로 중 하나입니다."라며 그룹은 서한에서 밝혔습니다. 이들은 기술 산업이 비밀 유지 계약에 의존하고 기존의 내부 고발자 보호 조치가 제대로 시행되지 않는 점을 비판했습니다. 서한은 AI 기업들에게 비방 금지 계약을 제거하고, 직원의 우려를 회사 리더십과 규제 당국이 해결할 수 있도록 익명 신고 절차를 마련하며, 내부 채널이 실패할 경우 공공 내부 고발자가 보복을 당하지 않도록 보장할 것을 촉구했습니다.