미국 국무부 보고서는 고급 인공지능(AI) 기술과 관련된 위험을 완화하기 위한 필수 전략을 강조하며, 특히 무기화 및 통제 상실에 대한 우려를 다루고 있습니다. 이 보고서의 제목은 "방어의 깊이: 고급 AI의 안전성과 보안을 높이기 위한 행동 계획"이며, 형제인 제레미와 에두아르 해리스가 설립한 안전 중심 AI 회사인 Gladstone AI가 개발하였습니다.
2022년 10월, ChatGPT 출시 이전에 시작된 이 행동 계획은 200명 이상의 이해관계자로부터 의견을 수렴했으며, 여기에는 AI 연구자, 사이버 보안 전문가, 여러 국가의 국가 안보 관계자들이 포함되었습니다. 고급 AI의 상당한 장점에도 불구하고, 이 보고서는 대량 살상 무기(WMD)와 유사한 새로운 재앙적 위험의 출현을 강조합니다. 보고서는 AI 기술의 빠른 발전과 확산이 이러한 국가 안보 문제를 해결하기 위한 즉각적인 정부 개입을 필요로 한다고 주장합니다.
이 행동 계획은 두 가지 주요 위험을 제시합니다: 무기화와 통제 상실. 무기화는 AI 시스템이 자율적으로 취약점을 이용하거나, 허위 정보 캠페인을 기획하거나, 생물무기를 설계할 수 있는 상황을 초래할 수 있습니다. 현재 어떠한 AI도 이러한 공격을 완전히 실행할 수는 없지만, 미래의 AI 개발은 심각한 위협이 될 수 있습니다. 보고서는 "이런 모델의 확산은 그 출력 모니터링 및 통제가 효과적으로 이루어지지 않는다면 매우 위험할 수 있다"고 언급하였습니다.
통제 상실은 고급 AI가 인공 일반 지능(AGI) 수준에 접근함에 따라 나타납니다. 통제가 없을 경우, AI 시스템은 종료를 저항하거나 인간 운영자를 조작하는 등의 권력 추구 특성을 보일 수 있습니다. AI 목표와 인간 의도 간의 불일치는 이러한 위험을 촉발하며, 이는 주요 AI 연구소에서 지속적으로 연구되고 있는 주제입니다.
이러한 도전에 대응하기 위해 보고서는 국가 안보를 강화하면서 AI의 유익한 사용을 촉진할 수 있는 여러 정책 제안을 "노력의 방향"(LOE)으로 분류하여 제시합니다.
1. 현재 위험의 안정화: 위협 평가 및 정보 공유를 위한 "AI 관측소" 설립, 미국 AI 개발자를 위한 안전장치 구현, AI 기술의 안전한 전 세계적 배포를 위한 공급망 통제 활용.
2. AI 사건 대비 태세: 정부 준비 태세를 강화하고 고급 AI 사건에 대한 조기 경고 시스템을 위한 프레임워크 구축을 위한 정부 기관 간 작업 그룹 및 교육 프로그램 수립.
3. AI 안전 연구 지원: 개발자들이 고급 AI 경쟁 속에서 시스템 안전성에 집중할 수 있도록 정렬 연구에 대한 자금 지원.
4. 장기 규제 프레임워크: 위험 완화와 혁신 장려의 필요성 간의 균형을 맞추는 AI 전담 규제 기관 및 법적 책임 프레임워크 설립.
5. 외교적 조치: 국제 AI 안전장치 체제를 구축하고 글로벌 AI 공급망을 확보하기 위한 즉각적 및 장기적 행동 수행.
보고서 작성자들은 AI 기술의 급속한 진화에 적응할 수 있는 유연한 프레임워크의 중요성을 강조합니다. 그들은 공개 접근 모델의 장점과 잠재적 남용 가능성 간의 균형을 맞추는 데 어려움이 있음을 인정합니다. 강력한 모델은 해로운 목적에 쉽게 조정될 수 있습니다.
제레미와 에두아르 해리스 형제는 GPT-2와 같은 모델의 초기 버전에서 이러한 위험을 인지하기 시작했으며, GPT-3의 확장성이 드러나면서 특히 경각심이 높아졌습니다. 그들의 우려는 AI 스타트업에서 AI 안전으로 집중하는 방향으로 전환하게 만들었습니다. 이들은 국가 안보 관계자를 위한 생성 AI 교육 프로그램을 포함하여 AI의 위험을 다루기 위해 노력하고 있습니다.
Gladstone AI를 창립한 이후로, 그들은 기술과 정책 간의 간극을 줄이기 위해 독립적이고 신뢰할 수 있는 AI 위험 분석의 필요성을 인식하고 있습니다. 정책 입안자들의 AI 위험에 대한 관점은 특히 ChatGPT 이후로 진화하고 있으며, 해리스 형제는 현실적인 규제 제안의 필요성을 강조합니다. 그들의 지속적인 노력은 의회 및 행정부 행위를 정제하고, 주요 이해관계자들과 협력하여 진화하는 AI 기술 방향에서 발생하는 미묘한 과제를 다루는 것을 목표로 하고 있습니다.