생성적 AI와 발화 논쟁: 법적 관점 및 위험
생성적 AI는 점점 더 정교해지며, 표현력 있고 정보 제공이 뛰어나며 종종 설득력 있는 콘텐츠를 생산합니다. 미국의 법률 전문가들은 대형 언어 모델(LLMs)의 결과물이 수정헌법 제1조에 의해 보호될 수 있다고 주장하고 있으며, 이는 잠재적으로 해로운 콘텐츠도 포함될 수 있어 정부의 감독을 피하게 됩니다.
규제 필요성 제기
휴스턴 대학교 법학센터의 피터 살리브 조교수는 AI가 생성한 콘텐츠로 인한 재앙적인 결과를 방지하기 위해 효과적인 규제가 필수적이라고 주장합니다. 그의 통찰은 곧 발표될 워싱턴 대학교 법학 리뷰에 다뤄질 예정입니다. 살리브는 “보호받는 발언은 신성한 헌법적 범주”라고 설명하며, GPT-5와 같은 고급 모델의 출력물이 보호받는 경우의 함의에 대한 우려를 표명합니다. 이러한 상황은 이러한 기술들을 규제할 능력을 심각하게 저해할 수 있습니다.
AI를 보호받는 발언으로 보는 주장
1년 전, 법률 기자 벤자민 비테스는 우리가 ChatGPT와 같은 기계에 “수정헌법 제1조의 권리”를 부여했을 수 있다고 주장했습니다. 그는 이러한 AI 시스템이 “부인할 수 없는 표현적”이며, 텍스트와 이미지 생성, 대화 참여를 통해 발언하는 콘텐츠를 생산한다고 설명했습니다. 비테스는 AI 콘텐츠가 파생적일 수는 있지만, 수정헌법 제1조는 표현을 보호한다고 강조했습니다. 살리브는 점차 많은 학자들이 AI의 출력물이 발언과 유사해 보호받을 가치가 있다고 인식하고 있다고 언급합니다.
일부는 이러한 출력물이 관련된 인간 프로그래머의 보호받는 발언이라고 주장하며, 다른 이들은 이 출력물이 ChatGPT와 같은 AI 시스템의 기업 소유자에 속한다고 주장합니다. 그러나 살리브는 “AI 출력은 수정헌법 제1조의 권리를 가진 화자의 의사소통을 대표하지 않으며, 인간의 표현이 아니다”라고 주장합니다.
AI 출력의 새로운 위험
AI의 발전 속도가 빠르며, 자율적이고 예측 불가능한 방식으로 사용되는 훨씬 더 강력한 시스템이 등장하고 있습니다. AI 안전 센터의 자문을 맡고 있는 살리브는 생성적 AI가 치명적인 화학 무기 합성 및 중요한 인프라 공격 등 심각한 위험을 초래할 수 있다고 경고합니다. 그는 “근미래의 생성적 AI 시스템이 인간 생명에 중대한 위험을 초래할 강력한 경험적 증거가 있다”고 밝히며, 생물테러리즘과 자동화된 정치 암살과 같은 잠재적 시나리오를 예측합니다.
AI: 발언이지만 인간의 발언 아님
전 세계의 지도자들은 안전하고 윤리적인 AI 운영을 보장하기 위한 규제를 시행하기 시작하고 있습니다. 이러한 법은 AI 시스템이 해로운 콘텐츠 생성을 자제하도록 요구할 수 있으며, 이는 발언 검열처럼 보일 수 있습니다. 살리브는 AI 출력물이 보호받는 발언이라면, 모든 규제는 엄격한 헌법적 검토를 받게 되고, 임박한 위협이 있는 경우에만 규제를 허용한다고 지적합니다. 그는 AI 출력과 인간 발언 간의 구별을 강조합니다. 전통적인 소프트웨어는 종종 인간의 의도를 반영하지만, 생성적 AI는 특정한 의사소통 의도 없이 어떤 콘텐츠든 생성하는 것을 목표로 합니다.
기업의 발언 권리와 규제
비록 기업은 인간이 아니지만, 파생적인 발언 권리를 가지고 있습니다. 살리브는 기업의 권리가 인간 창작자의 권리에 의존한다고 주장합니다. LLM의 출력물이 보호받는 발언에 해당하지 않는다면, 기업이 배포할 때 보호받는 것은 비논리적일 것입니다. 그는 효과적인 위험 완화를 위해 AI 출력을 규제해야 하며, 시스템의 생성 과정 제한 대신 출력을 규제해야 한다고 주장합니다. 현재 LLM은 그 복잡성과 예측 불가능성으로 인해 해로운 출력을 피하도록 완전히 제어하거나 프로그래밍할 수 없습니다.
성공적인 규제는 AI 출력의 특성에 초점을 맞춰 모델의 콘텐츠가 출시하기에 안전한지 여부를 판단해야 합니다. 이 접근 방식은 AI 기업이 안전성을 개발의 우선사항으로 삼도록 유도할 것입니다. 궁극적으로 살리브는 “법은 사람들이 속거나 해를 입는 것을 방지하도록 설계되어야 한다”고 강조하며, 발전하는 AI 능력에 직면한 신중한 입법 조치의 필요성을 일깨웁니다.