책임 있는 AI: 기술 분야의 중요한 논의
책임 있는 AI는 오늘날 기술 환경에서 핵심 주제입니다. 모델 개발자들은 생성 AI와 대규모 언어 모델(LLM)의 부주의하거나 악의적인 사용을 방지하기 위해 노력하고 있으며, 전 세계적인 AI 규제도 진화하고 있습니다. 그러나 AI 개발자와 조직은 지금 바로 효과적인 솔루션이 필요합니다.
이러한 걱정이 커짐에 따라, 비영리 책임 있는 AI 라이센스(RAIL)와 같은 특정 행동 사용 조항이 포함된 라이센스가 채택되고 있습니다. 이러한 라이센스는 AI 모델, 코드 및 훈련 데이터가 공유될 때 사용 방법을 법적으로 제한합니다.
RAIL은 생성 AI의 빠른 확산 속에서 맞춤화와 표준화를 촉진하기 위해 Rail License Generator를 출시했습니다. 이 혁신적인 도구를 통해 AI 개발자는 라이센스 부여를 위한 관련 아티팩트를 선택하고, 큐레이션된 카탈로그에서 사용 제한을 설정할 수 있습니다.
“기초 모델은 다양한 언어를 해석할 수 있으며 최소한의 미세 조정으로 하위 애플리케이션에 적용될 수 있는 광범위한 다목적성을 제공합니다,” 라고 RAIL의 공동 의장인 다니엘 맥더프가 설명했습니다. 그는 “이전에는 애플리케이션 제한이 덜 필요했으나, 오늘날에는 이러한 다양한 모델이 쉽게 재사용될 수 있어 이러한 라이센스가 필수적이다”라고 덧붙였습니다.
법적 권한으로 윤리적 원칙을 규명하다
2018년에 시작된 RAIL 이니셔티브는 현재 41,700개의 모델 리포지토리를 포함하고 있으며, RAIL 라이센스를 가지고 있습니다. 행동 사용 조항이 포함된 저명한 모델로는 Hugging Face의 BLOOM, Meta의 Llama 2, Stable Diffusion, Grid가 있습니다.
Rail License Generator는 접근 장벽을 낮춰 이 숫자를 증가시키는 것을 목표로 합니다. 제시 조슈아 벤자민, 스콧 캄보, 팀 코르야코프가 이끄는 RAIL 도구 개발 및 절차 거버넌스 워킹 그룹이 개발한 이 도구는 맞춤형 라이센스를 생성하는 간소화된 프로세스를 제공합니다.
사용자는 라이센스 유형을 선택하면서 초기 템플릿을 생성합니다. 가능한 라이센스 유형은 다음과 같습니다:
- Open RAIL: 개발자가 승인된 행동 제한을 준수하는 경우, 라이센스 아티팩트를 사용, 배포 및 수정할 수 있도록 허용합니다.
- Research RAIL: 라이센스 아티팩트의 사용을 연구 목적으로만 제한하며 상업적 사용을 금지하고 행동 제한을 준수해야 합니다.
- RAIL: 행동 사용 조항을 제외하지만, 라이센스 아티팩트의 사용 및 방법에 대한 추가 조건이 포함될 수 있습니다.
다음 단계에서는 사용자가 라이센스하거나 공유할 아티팩트를 선택하고, 종종 AI와 관련된 코드, 알고리즘 또는 모델의 신중한 공개를 포함합니다. 이후 시스템 특정 제한을 선택할 수 있습니다.
최종 라이센스는 LaTeX, 원본 텍스트, Markdown 형식으로 내보낼 수 있으며, 도메인 아이콘과 전체 라이센스에 연결된 QR 코드의 PNG 다운로드 옵션도 포함됩니다.
Rail License Generator는 법무 팀에 접근할 수 없는 개인을 지원하나, 대규모 및 소규모 조직 모두에서 사용됩니다. 맥더프는 라이센스 문서를 작성하는 데 따르는 “불안감”이 일반적이라고 지적하며, 언어가 특정 도메인, 맥락 및 AI 유형에 맞춰 조정되어야 한다고 강조했습니다. 많은 개발자들이 컴퓨터 과학이나 연구 배경으로 인해 법적 용어를 작성하는 자신이 없다고 느끼며 주저합니다.
“원하는 조항을 식별하면 라이센스를 만드는 데 몇 분밖에 걸리지 않습니다,” 라고 맥더프가 말했습니다. “이 도구는 윤리적 원칙을 법적 권한으로 규명합니다.”
AI가 전통적인 과학적 프로세스에 미치는 영향
개방성과 오픈소스 이니셔티브는 과학 연구와 기술 발전의 기초로 연구 결과를 검증하고 감사할 수 있게 합니다. 이러한 개방성은 AI에도 상당한 이점을 제공합니다. 하지만 기초 모델은 적응성이 뛰어난 특성으로 인해 독특한 도전 과제를 제공합니다.
개발자들이 종종 좋은 의도로 강력한 모델을 만들지만, 이러한 모델의 다재다능함은 의도치 않은 또는 해로운 응용 프로그램으로 이어질 수 있습니다. 분산화는 이러한 위험을 악화시켜 하위 사용자의 책임성과 구제를 복잡하게 만듭니다.
“오픈소스는 유리합니다. 하지만 특정 작가가 신뢰성 저해를 퍼뜨리는 등 하위 사용자에게 큰 영향을 미칠 수 있을 때 더 복잡해집니다,” 라고 맥더프가 경고했습니다.
다니시 계약자, RAIL 공동 의장은 사용 제한에 대한 개발자들의 혼란을 강조했습니다. “많은 사람들은 ‘AI가 X를 할 수 있다면 Y도 할 수 있다’고 가정합니다,” 라고 그는 설명했습니다. 예를 들어, 의료 모델이 로봇 공학이나 군사 응용분야에서 의도적으로 또는 의도치 않게 오용될 수 있습니다.
효과적인 소통과 라이센스 위반 추적 및 집행 도구에 대한 접근이 필수적이라고 계약자는 강조했습니다. 행동 제한은 적용되는 조항에서 일관성과 다양성의 균형을 제공할 수 있습니다. 때문에 차별이나 허위 정보에 반대하는 조항과 같이 보편적으로 적용될 수 있는 조항이 필요합니다. 표준화는 매우 중요합니다.
“일정 수준의 법적 언어가 포함된 익숙하고 유연한 라이센스를 만드는 데 도움이 되는 도구가 필요합니다,” 라고 맥더프가 다시 강조했습니다. 그는 “오픈소스 코드를 잘못 사용할 경우의 위험은 Google이나 Microsoft와 같은 회사들이 간과하기에는 너무나 큽니다”라고 결론지었습니다.