MIT 연구자들과 학자들이 미국 정부에 인공지능(AI) 규제 프레임워크를 확장할 것을 촉구하는 정책 보고서를 발표했습니다. "안전하고 번영하는 AI 부문 만들기"라는 제목의 10페이지 분량의 문서는 기존 법적 틀을 AI 기술에 포함시킬 필요성을 강조하고 있습니다. 이 보고서에서는 특히 AI 지원 진단과 관련하여 AI가 의료 규제에 통합될 수 있는 방안도 제안하고 있습니다. 또한, 저자들은 AI가 경찰 관행, 보석 결정, 채용 프로세스 등 정부 운영을 규제하는 현재의 감 oversight를 받아야 한다고 주장합니다.
연구자들은 인간 활동을 규제하는 모든 법률이 AI 시스템에도 적용되어야 한다고 강조하며, "AI를 사용하지 않는 인간 활동이 규제된다면 AI 사용도 마찬가지로 규제되어야 한다"고 주장합니다. 이러한 원칙은 AI 시스템의 개발, 배포 및 활용이 관련 분야에서 정해진 인간 행동 기준에 부합하도록 보장할 것입니다.
정책 보고서는 이미 기존 법률로 검토되고 있는 고위험 AI 응용 프로그램들을 주요 초점으로 삼고 있습니다. 예를 들어, 자율주행차의 규제는 인간이 운전하는 차량과 동일한 기준을 충족해야 하며, 이는 기존 프레임워크가 효과적으로 적용될 수 있음을 보여줍니다.
저자들은 ChatGPT와 같은 범용 AI 시스템의 개발자들이 기술을 출시하기 전에 그 목적을 명확히 정의해야 한다고 주장합니다. 이러한 책임은 규제 기관들이 의도된 사용에 대한 구체적인 지침을 설정하는 데 도움이 되어, 개발자들이 이 정의된 매개변수에 맞춰 시스템을 조정할 수 있도록 합니다.
문서의 중요한 측면 중 하나는 AI와 관련된 지적 재산권 문제를 명확히 하는 것입니다. 저자들은 창작자가 잠재적인 침해로부터 보호받을 수 있는 메커니즘을 개발해야 하며, AI 생성 콘텐츠에 대한 필수 라벨링이 해결책이 될 수 있다고 주장합니다.
이 보고서는 AI가 관련될 때 기존 규제 및 법적 프레임워크가 어떻게 적용되는지에 대한 현재의 모호성을 강조합니다. 저자들은 "AI가 관련될 때 현재 규제 및 법적 프레임워크가 어떻게 적용되는지 불확실하다"고 언급하며, 이는 AI 기술과 관련된 위험성에 대한 불확실성으로 인해 제공자, 사용자 및 일반 대중에게 도전적인 환경을 만든다고 경고합니다. 저자들은 AI의 책임 있는 개발과 사용을 장려하기 위해 추가적인 명확성과 감독의 중요성을 강조하며, 궁극적으로 모든 미국인에게 이익을 극대화할 것을 촉구합니다.
MIT 슈바르츠만 컴퓨팅 대학의 학장인 댄 후텐로처는 "우리나라는 이미 많은 고위험 사안들을 규제하고 있으며, 이에 대한 거버넌스를 제공하고 있다. 이는 충분하다고 말하는 것은 아니지만, 인간 활동이 이미 규제되고 있으며 사회가 고위험으로 간주한 영역부터 시작하자"며, AI 규제를 이러한 방식으로 접근하는 것이 실질적인 방안이라고 강조합니다.
이 정책 보고서는 대규모 언어 모델 관리, 노동자 친화적 AI 전략, AI 생성 콘텐츠 라벨링 등 AI의 다양한 측면을 탐구하는 다른 여러 보고서와 맞물리며, 잘 규제된 AI 환경 구축에 대한 광범위한 의지를 드러내고 있습니다.