如何確保人類掌握人工智慧的控制權

「我們這些人民」必須掌握人工智慧的主導權,而非科技公司或政治精英。Google近期在其Gemini AI系統中的失誤急切地凸顯了這一點。Gemini未能準確評價歷史人物,竟聲稱希特勒並不比伊隆·馬斯克的推文更糟。它也不願草擬支持化石燃料使用的政策文件。此外,它生產的圖像錯誤地描繪了美國開國元勳與實際身份不符的種族和性別。

這些例子雖然荒謬,但指向了一種日益逼近的反烏托邦,在這裡,無法負責的私營AI公司官僚決定能夠表達哪些思想與價值觀。無論意識形態為何,這都是不可接受的。尋求政府介入以規範AI言論也存在風險。雖然規範對於確保AI安全與公平至關重要,但自由社會必須抵制讓政府決定哪些思想可以表達或壓制。

顯然,無論是企業還是政府機構都不應該主導這些決策。然而,隨著用戶日益依賴AI工具來獲取信息和生成內容,他們對這些工具應該反映的價值觀有著多樣化的期望。一個可行的解決方案是:賦能用戶治理AI。

用戶賦權的策略

在過去五年中,我作為學術政治學家與科技行業合作,探討如何賦予用戶在網絡平台上治理的能力。以下是我對有效賦權用戶治理AI的了解:

1. 用戶定義的護欄:我們應該為多樣化、精細調整的AI模型創建市場。不同利益相關者—記者、宗教團體、機構和個人—應有能力自定義和選擇符合其價值觀的開源模型版本。這將減輕公司作為「真相仲裁者」的壓力。

2. 集中護欄:雖然市場方法減少了一些壓力,但仍需存在基本護欄。某些內容—特別是非法材料或模糊的諷刺、侮辱或政治敏感圖像—需要在所有模型中制定統一標準。用戶應有權參與建立這些最小的集中護欄。

一些科技公司已在民主化上進行實驗。例如,Meta在2022年啟動了一個社區論壇,收集公眾對其LlaMA AI工具的意見;OpenAI尋求「民主化AI的意見」,而Anthropic則發布了一個由用戶共同創建的AI憲法。

3. 真正的民主權力:為了建立健全的民主結構,用戶應能對重大議題提出建議、辯論和投票,其決策對平台具有約束力。雖然建議應有限制以避免法律違規,但仍必須讓用戶在中央護欄上擁有更大的主導權。

雖然尚未有平台實施如此投票機制,但web3的實驗提供了寶貴的見解。以下是AI平台可以採納的四個關鍵教訓:

- 具體的投票權益:將投票權與具有平台實用性的數位代幣掛鉤,例如購買AI計算時間。

- 委托投票:用戶應將投票權委托給經過驗證的專家,並由專家公開解釋其決策。

- 參與獎勵:通過對有意義的參與獎勵用戶額外代幣,促進積極治理的參與。

- 明確的憲法:建立憲法框架,明確提案範圍、投票權分配以及公司對放棄中央護欄控制的承諾。

建立對AI系統的信任

AI平台可以小規模試點這一民主模式,逐步擴大其影響力。若要成功,AI公司必須承諾放棄對中央護欄的控制。只有這樣,社會才能信任這些工具提供的信息和答案不會被與用戶價值觀不符的無責任行為者操控。

Most people like

Find AI tools in YBX