私たち「市民」が、AIを支配すべきです。それは技術企業や政治エリートではありません。最近のGoogleのGeminiAIシステムのトラブルは、この問題の緊急性を示しています。
Geminiは歴史上の人物の評価を誤り、ヒトラーがElon Muskのツイートよりも悪くないと主張しています。また、化石燃料の使用を支持する政策文書の作成から逃げています。さらに、アメリカの建国の父たちを実際とは異なる人種や性別で描いた画像を生成しています。
これらの例は一見ばかげていますが、これは無責任な民間AI企業の官僚が、表現できるアイデアや価値を決めるディストピアの兆しを示しています。この状況は、イデオロギーに関係なく誰にとっても受け入れられません。
AIの発言を規制するための政府の介入を求めることには自身のリスクがあります。AIの安全性と公平性を確保するための規制は重要ですが、自由な社会では、政府がどのアイデアを声に出したり抑圧したりするかを決定することを拒む必要があります。
したがって、企業も政府機関もこの決定を支配すべきではありません。しかし、ユーザーがAIツールを情報やコンテンツ生成に利用する際、これらのツールが反映すべき価値に対する期待は多様です。
有効な解決策は、ユーザーにAIを管理させることです。
ユーザーによるAIの管理戦略
過去5年間、私は学術的政治学者として技術業界と協力し、オンラインプラットフォームのユーザー主導の管理を行う方策を探求してきました。以下は、効果的にユーザーをAIの主導権に置くために学んだことです。
1. ユーザー定義のガードレール: 多様で微調整されたAIモデルの市場を創出すべきです。ジャーナリスト、宗教団体、組織、個人などの異なる利害関係者が、自らの価値観に合ったオープンソースモデルのバージョンをカスタマイズし選択できるようにすることで、企業が「真実の仲裁者」としての負担を軽減します。
2. 中央集権化されたガードレール: 市場アプローチで一部の圧力は軽減されますが、基本的なガードレールは依然として必要です。違法なコンテンツや曖昧な風刺、侮辱的な言葉、政治的に敏感なイメージなど、特定のコンテンツにはすべてのモデルで統一された基準が必要です。ユーザーはこれらの最小限の中央ガードレールを設定する権利を持つべきです。
いくつかのテクノロジー企業はすでに民主化の実験を開始しています。例えば、Metaは2022年にLlaMA AIツールのために公的意見を集めるコミュニティフォーラムを立ち上げ、OpenAIは「AIへの民主的な意見」を求め、Anthropicはユーザー共同作成のAI憲法を発表しました。
3. 真の民主的権力: 強固な民主的構造を構築するために、ユーザーは重要な問題に対して提案を行い、議論し、投票を行うべきであり、その決定はプラットフォームに対して拘束力を持つ必要があります。提案は法的違反を避けるために制限すべきですが、ユーザーが中心的ガードレールを超える権限を持つことが重要です。
まだどのプラットフォームもそのような投票メカニズムを実装していませんが、Web3の実験は貴重な洞察を提供します。AIプラットフォームが採用できる4つの重要な教訓は次の通りです。
- 具体的な投票権の付与: 投票権をプラットフォームのユーティリティを持つデジタルトークンに結びつけ、AI計算時間の購入などに使用できるようにします。
- 委任投票: ユーザーは実績のある専門家に自分の投票を委任でき、その決定を公に説明してもらいます。
- 参加の報酬: 有意義な関与を通じて積極的なガバナンスへの参加を奨励し、ユーザーに対して追加のトークンで報いる仕組みを作ります。
- 明確な憲法: 提案の範囲、投票権の分配、および企業が中央ガードレールの支配を放棄することへのコミットメントを定めた憲法的枠組みを確立します。
AIシステムへの信頼構築
AIプラットフォームは、この民主的モデルを小規模で試験的に導入し、徐々にその影響を拡大できます。その成功のためには、AI企業が中央ガードレールに対する支配を放棄することを誓約する必要があります。そうなれば、これらのツールが提供する情報や回答が、ユーザーの価値観に合わない無責任な行為者によって操作されていないと社会が信頼できるようになります。