바이든 행정부, 미국 AI 안전 연구소 컨소시엄 출범
바이든 행정부가 국가표준기술연구소(NIST) 내에 새로 설립된 미국 AI 안전 연구소(USAISI)의 소장으로 백악관 고위 보좌관을 임명한 뒤, "AI 안전 전담 최초의 컨소시엄"으로 불리는 미국 AI 안전 연구소 컨소시엄(AISIC)을 공개했습니다.
이 협력체는 Google, Microsoft, Amazon과 같은 주요 기술 기업과 OpenAI, Cohere, Anthropic와 같은 대형 언어 모델(LLM) 기업을 포함하여 200개 이상의 회원 조직으로 구성되어 있으며, 연구소, 학계, 시민 사회 단체, 주 및 지방 정부, 비영리 단체도 포함됩니다.
NIST 블로그에 따르면, AISIC은 지금까지 가장 큰 시험 및 평가 팀의 집합체로, AI 안전에 대한 기초 측정 과학을 확립하는 목표를 가지고 있습니다. USAISI 산하에서 운영되는 이 컨소시엄은 바이든 대통령의 행정명령에 명시된 주요 이니셔티브를 지원하며, 여기에는 레드팀, 능력 평가, 위험 관리, 안전 및 보안 프로토콜, 합성 콘텐츠 워터마킹 가이드라인 개발 등이 포함됩니다.
형성 세부사항
이 컨소시엄은 2023년 10월 31일, 바이든 대통령의 AI 행정명령과 함께 발표되었습니다. NIST 웹사이트에 따르면, 전문 지식, 제품, 데이터 또는 모델을 기여할 수 있는 조직은 모두 참여할 수 있습니다. 선정되는 참가자는 연간 1,000달러의 수수료를 납부해야 하며, NIST와 컨소시엄 협력 연구 및 개발 계약(CRADA)을 체결해야 합니다.
AI 안전을 위한 가이드라인
컨소시엄 회원들은 다음과 같은 주요 가이드라인에 초점을 맞출 것입니다:
1. AI를 안전하고 신뢰할 수 있게 개발하고 배포하기 위한 도구와 모범 사례를 개발합니다.
2. 잠재적으로 해로운 AI 기능을 식별하고 평가하기 위한 지침을 마련합니다.
3. 생성형 AI의 안전한 개발 관행을 촉진하고, 개인 정보 보호를 보장하는 머신러닝 기술을 다룹니다.
4. 시험 환경을 구축 및 유지하기 위한 자원을 제공합니다.
5. 효과적인 레드팀 활동 및 개인 정보 보호 머신러닝 기법을 발전시킵니다.
6. 디지털 콘텐츠 인증 도구를 설계합니다.
7. 위험 식별, 관리, 시험 및 검증 등 AI 인력에게 필요한 기술 기준을 정의합니다.
8. 다양한 맥락에서 AI와 상호작용하는 사람들의 방식에 대한 사회와 기술 간의 상호작용을 탐구합니다.
9. AI 생태계 라이프사이클 수명 전반에 걸쳐 상호 의존성을 관리하기 위한 지침을 제공합니다.
자금 불확실성
발표에도 불구하고, USAISI의 자금 지원에 대한 질문이 남아 있습니다. 보도에 따르면, 백악관의 초기 발표 이후 운영 틀이나 자금 출처에 대한 정보가 거의 공유되지 않고 있으며, NIST의 연간 예산이 16억 달러 이상이라는 점과 자원 제약으로 인해 우려가 제기되고 있습니다.
1월에 양당 상원의원 그룹은 USAISI 설립을 위해 상원 세출위원회에 1천만 달러를 요청했으나, 이 자금 요청의 상태는 불확실합니다. 또한 하원 과학위원회의 의원들은 NIST의 투명성과 새로운 연구소와 관련된 연구 자금의 경쟁적 배분 부족에 대한 우려를 표명했습니다.
자금 문제에 대해 AI 윤리 분야의 선두주자인 루만 차우드리(Rumman Chowdhury)는 USAISI가 행정명령에 따라 자금 지원이 없는 의무 아래 운영된다고 강조했습니다. 그녀는 입법적 조치를 방해하는 정치적 복잡성을 이해한다고 하면서도 이니셔티브에 대한 상당한 자금 부족을 지적했습니다.