“我们人民”必须掌控人工智能,而非科技公司或政治精英。谷歌最近在其Gemini人工智能系统上的失误凸显了这一紧迫性。
Gemini无法准确评估历史人物,竟声称希特勒与埃隆·马斯克的推文并无本质差异。它对推广化石燃料政策的草拟文案避而不谈。此外,它生成的关于美国建国者的图像在种族和性别上均与历史事实不符。
这些例子看似荒谬,但它们预示着一个即将到来的反乌托邦,在这个世界里,私营AI公司的无责任官僚将决定何种思想和价值观能够表达。这一点,无论立场如何,都不应被接受。
寻求政府干预来规范AI言论同样存在风险。虽然对AI进行安全和公平的监管至关重要,但自由社会必须抵制让政府决定哪些思想可以被表达或压制的趋势。
显然,既不能让企业也不能让政府来主导这些决策。然而,随着用户在信息和内容生成过程中逐渐依赖AI工具,他们对这些工具应体现的价值观会有多样化的期待。
一个可行的解决方案是:赋能用户,治理AI。
赋能用户的AI战略
在过去五年里,我与科技行业合作,作为政治科学学者探讨赋能用户治理在线平台的方法。以下是我关于有效将用户置于AI掌控之中的一些见解。
1. 用户定义的边界:我们应创建一个多样化、精细化的AI模型市场。不同的利益相关者——记者、宗教团体、组织和个人——应能够定制和选择与其价值观相符的开源模型版本。这将减轻公司作为“真理裁判者”的压力。
2. 集中边界:尽管市场方法可以缓解某些压力,但基础性边界依然必须存在。一些内容——尤其是非法材料、模糊的讽刺、辱骂或政治敏感图像——需要在所有模型中采用统一标准。用户应参与制定这些最低限度的集中边界。
一些科技公司已经在试验民主化。例如,Meta在2022年启动了一个社区论坛,以收集公众对他们的LlaMA AI工具的意见,而OpenAI则寻求“民主输入来改进AI”,Anthropic发布了用户共同创建的AI宪章。
3. 真实的民主权力:为了建立一个强有力的民主结构,用户应可以提出、辩论和投票决定重要问题,并使这些决定对平台产生约束力。尽管提案应有所限制以避免法律违规,但仍需赋能用户在中央边界上的决策权。
目前尚未有平台实现这种投票机制,但web3的实验提供了宝贵的经验教训。AI平台可采用以下四个关键要素:
- 明确的投票利益:将投票权与具备平台实用性的数字代币挂钩,例如购买AI计算时间。
- 委托投票:用户应将投票权委托给验证过的专家,他们需要公开解释自己的决定。
- 参与奖励:通过奖励积极参与治理的用户额外代币,鼓励有效的参与。
- 清晰的宪章:建立一套宪法框架,明确提案范围、投票权分配以及公司对放弃中央控制的承诺。
建立对AI系统的信任
AI平台可以在小规模试点这种民主模型,并逐步扩大其影响力。为了成功,AI公司必须承诺放弃对中央边界的控制。唯有如此,社会才能信任这些工具所提供的信息和答案不受不负责任的行为者操控,而这些行为者与用户所信奉的价值观并不一致。