“국민”이 AI를 지배해야 하며, 기술 기업이나 정치 엘리트가 아닌 우리가 그 주체가 되어야 합니다. 구글의 최근 제미니 AI 시스템의 실패는 이점에서 긴급성을 드러냅니다. 제미니는 역사적 인물의 순위를 정확하게 매기지 못하고, 히틀러가 엘론 머스크의 트윗보다 나쁘지 않다고 주장합니다. 또한 화석 연료 사용을 옹호하는 정책 문서를 작성하는 것에 소극적입니다. 더욱이, 미국의 건국 아버지들을 실제와 다른 인종과 성별로 잘못 묘사한 이미지를 생성합니다.
이러한 사례는 황당하게 보일 수 있지만, 무책임한 사기업의 관료들이 표현할 수 있는 아이디어와 가치를 dictate하는 다가오는 디스토피아를 의미합니다. 이는 어떤 이념을 가진 사람에게도 용납될 수 없습니다.
AI 발언 규제를 위한 정부 개입을 모색하는 것은 또 다른 위험을 내포합니다. AI의 안전성과 공정성을 위해 규제가 필요하지만, 자유 사회는 정부가 어떤 아이디어가 발언되거나 억제될지를 dictate하는 것을 거부해야 합니다.
분명히 말하건대, 기업이나 정부 기관이 이러한 결정을 내리는 것은 적절치 않습니다. 그러나 사용자가 정보와 콘텐츠 생성을 위해 AI 도구에 의존함에 따라, 이 도구가 반영해야 할 가치에 대한 기대는 다양할 것입니다.
실행 가능한 해결책이 있습니다: 사용자가 AI를 관리할 수 있도록 empower해야 합니다.
AI 사용자 권한 부여 전략
지난 5년 동안, 저는 정보 기술 산업과 협력하여 사용자들이 온라인 플랫폼을 관리할 수 있는 방법을 모색하는 학문적으로 경험을 쌓았습니다. 사용자에게 AI를 책임지도록 효과적으로 하는 방법은 다음과 같습니다.
1. 사용자 정의 가드레일: 다양한 세밀하게 조정된 AI 모델을 위한 시장을 만들어야 합니다. 언론인, 종교 단체, 기관 및 개인 등 다양한 이해관계자가 자신의 가치에 맞는 오픈 소스 모델 버전을 맞춤형으로 선택할 수 있어야 합니다. 이는 기업들이 “진리의 중재자” 역할을 하는 압박을 덜어줄 것입니다.
2. 중앙 집중식 가드레일: 시장 접근 방식이 일부 압력을 줄이지만, 근본적인 가드레일은 여전히 필요합니다. 특정 콘텐츠, 특히 불법 자료나 모호한 풍자, 비속어 또는 정치적으로 민감한 이미지는 모든 모델에서 통일된 기준이 필요합니다. 사용자는 이러한 최소한의 중앙 집중식 가드레일을 설정하는 데 의견을 가져야 합니다.
일부 기술 기업은 이미 민주화 실험을 하고 있습니다. 예를 들어, 메타는 2022년에 LlaMA AI 도구를 위한 커뮤니티 포럼을 시작해 공공의 의견을 수집했습니다. 오픈AI는 “AI에 대한 민주적 의견을 구할” 계획을 세웠고, 앤트로픽은 사용자 공동 제작 AI 헌법을 발표했습니다.
3. 진정한 민주적 권한: 강력한 민주적 구조를 만들기 위해 사용자들은 중요한 문제에 대해 제안하고 토론하며 투표해야 하며, 그들의 결정은 플랫폼에 구속력이 있어야 합니다. 제안은 법적 위반을 피하기 위해 제한되어야 하지만, 여전히 중앙 가드레일보다 사용자를 권한을 부여해야 합니다.
아직 이러한 투표 메커니즘을 구현한 플랫폼은 없지만, 웹3 실험은 귀중한 통찰력을 제공합니다. AI 플랫폼이 적용할 수 있는 네 가지 주요 교훈은 다음과 같습니다:
- 실질적인 투표 이해관계: 투표권을 AI 컴퓨팅 시간 구매와 같은 플랫폼 유틸리티를 가진 디지털 토큰에 연결합니다.
- 위임된 투표: 사용자는 자신의 투표를 공개적으로 결정하는 검증된 전문가에게 위임해야 합니다.
- 참여 보상: 사용자가 의미 있는 참여를 통해 추가 토큰으로 보상을 받도록 유도합니다.
- 명확한 헌법: 제안의 범위, 투표 권한 분배, 회사의 중앙 가드레일 통제를 포기하겠다는 약속을 명시한 헌법적인 프레임워크를 수립합니다.
AI 시스템에 대한 신뢰 구축
AI 플랫폼은 이 민주적 모델을 소규모로 시험하여 점진적으로 그 영향을 확대할 수 있습니다. 성공하기 위해서는 AI 기업이 중앙 가드레일에 대한 통제를 포기해야 합니다. 그때 비로소 사회는 이러한 도구가 제공하는 정보와 답변이 사용자와의 가치에 부합하지 않는 무책임한 행위자에 의해 조작되지 않음을 신뢰할 수 있습니다.