최근 23명의 AI 연구자, 학계, 창작자들에 의해 발표된 논문은 AI 제품의 독립 평가를 가능하게 하기 위해 ‘안전한 항해지대’ 법적 및 기술적 보호의 필요성을 강조합니다. 이러한 보호는 “선의의” 조사를 수행하는 연구자, 언론인, 예술가들에게 필수적입니다.
이 논문은 주요 AI 제공업체의 서비스 약관이 AI 취약성에 대한 연구를 법적으로 제한하는 중대한 장벽이 됨을 지적합니다. OpenAI, Google, Anthropic, Inflection, Meta, Midjourney와 같은 기업들이 연구자들을 위해 계정 중단 및 법적 결과에 대한 면책을 제공해야 한다고 저자들은 촉구합니다.
“이러한 약관은 악용을 방지하기 위한 것이지만, 동시에 AI 안전 연구를 방해하는 부작용을 초래하고 있다”라는 블로그 게시물의 언급이 있습니다. 기업들은 이러한 정책을 엄격히 시행할 수 있으며, 이는 중요한 연구가 진행되는 데 큰 장애가 될 수 있습니다.
MIT 미디어랩의 Shayne Longpre와 프린스턴 대학의 Sayash Kapoor는 최근 뉴욕 타임즈 소송 맥락에서 이 문제의 중요성을 강조했습니다. OpenAI는 타임즈의 ChatGPT 평가를 “해킹”으로 간주했으며, 이에 대해 타임즈의 수석 변호사는 OpenAI의 해석이 정당한 조사를 악의적 활동으로 잘못 묘사했다고 반박했습니다.
Longpre는 소셜 미디어를 조사하는 언론인을 보호하기 위해 Knight First Amendment Institute가 이전에 했던 활동을 언급했습니다. “우리는 AI 연구를 위한 안전한 항해지대를 제안할 때 그 이니셔티브로부터 배울 것을 목표로 했습니다.”라고 그는 설명했습니다. "AI의 사용 및 관련 위험에 대한 명확성이 부족하여 연구 접근이 필수적입니다."
“A Safe Harbor for AI Evaluation and Red Teaming”이라는 제목의 논문은 OpenAI, Anthropic, Inflection, Midjourney와 같은 기업에서 공익 연구 중 계정 정지 사례를 언급하며, 특히 Midjourney는 잦은 정지 사례로 주목받고 있습니다. 공동 저자이자 예술가인 Reid Southen은 Midjourney의 결과물에서 잠재적인 저작권 침해를 조사한 후 여러 차례 금지를 당했으며, 이 플랫폼이 사용자의 의도 없이 저작권을 침해할 수 있음을 드러냈습니다.
“Midjourney는 저를 세 번 금지시켰고, 그로 인해 거의 300달러의 개인적 비용이 발생했습니다.”라고 Southen은 회상했습니다. “첫 번째 정지는 제가 결과를 게시한 지 8시간 이내에 발생했으며, 그들은 사용자에게 통지 없이 약관을 수정하여 침해 콘텐츠에 대한 책임을 전가했습니다.”
Southen은 기업들이 스스로 평가하려는 의지가 부족하여 저작권 소유자에게 피해를 주고 있다고 주장하며 독립 평가의 필요성을 강조합니다.
이 논의의 핵심은 투명성입니다. Longpre는 독립 연구자들이 책임감 있는 사용을 입증할 수 있다면 AI 제품의 능력과 결함을 조사할 수 있도록 허용하는 것의 중요성을 주장했습니다. 그는 기업들과 협력하여 투명성을 개선하고 안전성을 높이고 싶다고 표현했습니다.
Kapoor는 기업들이 서비스 남용에 대해 정당한 우려를 가지고 있지만, 정책이 악의적 사용자가 아니라 중요한 안전 작업을 수행하는 연구자에게 일률적으로 적용되어서는 안 된다고 언급했습니다. 그는 영향을 받는 기업들과의 지속적인 대화가 있으며, “대부분의 기업이 우리의 제안에 참여했고, 일부는 특히 OpenAI와 같이 우리의 초기 초안 이후 약관을 수정하기 시작했다”고 밝혔습니다.
전체적으로 이 논문은 명확하고 보호적인 조치를 통해 AI 안전을 촉진하고 연구를 지원하는 균형 잡힌 접근 방식을 강조합니다.