구글 딥마인드 직원들이 군사 조직과의 계약 종료를 촉구하는 서한에 서명했다고 타임지가 보도했다. 5월 16일에 작성된 이 서한은 딥마인드 직원의 약 5%인 200명 가까운 서명을 모았다.
딥마인드는 구글 내의 주요 AI 부서로, 서한은 군사 계약이 회사의 윤리적 AI 가이드라인에 위배된다는 우려를 담고 있다. 직원들은 딥마인드의 기술이 미국과 이스라엘 군과의 파트너십을 포함한 클라우드 계약을 통해 군사 기관에 판매될 가능성을 우려하고 있다. 이러한 계약은 딥마인드가 개발한 AI 서비스에 대한 접근을 허용한다고 전해진다.
특히 서한은 특정 군사 조직에 집중하기보다는 이 문제가 “특정 갈등의 지정학적 이슈와 관련이 없다”고 주장하고 있다. 2021년부터, 구글과 아마존이 이스라엘 정부에 제공한 기술의 범위가 드러나는 여러 보고서가 있었으며, 이는 '프로젝트 님버스'로 알려진 파트너십을 통해 이루어졌다. 구글 직원들이 군사적 목적에 자신의 작업이 사용되는 것에 반대하는 목소리를 내는 것은 이번이 처음이 아니다. 올해 초, 회사는 프로젝트 님버스에 반대하는 다수의 직원을 해고한 바 있다.
서한은 군사 및 무기 제조와의 연관성이 구글의 윤리적 AI 리더십을 약화시키고 회사의 미션과 AI 원칙에 부합하지 않음을 강조했다. 이는 구글의 과거 슬로건인 “악이 되지 않자”를 고려할 때 더욱 중요한 의미를 가진다.
직원들은 딥마인드의 지도자들에게 AI 기술의 군사적 접근을 제한하고 향후 군사적 응용을 방지하기 위한 새로운 관리 기관을 설립할 것을 요청하고 있다. 그러나 익명을 요구한 네 명의 직원에 따르면, 구글은 서한에 대한 실질적인 반응을 보이지 않고 있다. 한 직원은 “우리는 리더십으로부터 의미 있는 반응을 받지 못했다”는 불만을 토로했다.
타임의 문의에 대해 구글은 AI 원칙을 준수하고 있다고 주장하며, 이스라엘 정부와의 계약이 “무기 또는 정보 서비스와 관련된 고도로 민감하고 기밀인 작업에 대한 것이 아니다”라고 밝혔다. 그럼에도 불구하고, 이 파트너십을 둘러싼 논란은 최근 몇 달 동안 심화되고 있다.
2014년 딥마인드를 인수한 이후, 구글은 그 AI 기술이 군사적 또는 감시 목적으로 사용되지 않겠다고 약속했다. 초기에는 어느 정도의 독립성을 누렸던 딥마인드이지만, 최신 AI 환경의 변화로 인해 그 균형이 깨졌다. 연구소의 지도자들은 2021년 이후 더 많은 자율성을 추구해 왔지만 모회사로부터 저항을 받고 있다.