解鎖大型語言模型:駕馭在線實驗的混亂

在傳統做法的重大轉變中,生成式人工智慧公司將大型語言模型(LLMs)直接部署到網絡這一不可預測的環境中,進行質量保證。既然在線社區可以集體識別錯誤和故障,為何還要花時間進行徹底測試?這一大膽的實驗邀請用戶參與廣泛的非計劃性測試,每次提示都揭示了LLMs的獨特特性,同時廣大的互聯網作為錯誤的聚集地,只要用戶同意條款和條件即可。

倫理與準確性:選擇性?

推動生成式AI LLM模型的迅速釋放,宛如放煙火——雖然娛樂,但潛藏危險。例如,Mistral最近以Apache 2.0許可證推出了其7B模型。但是,明確使用限制的缺乏引發了對潛在濫用的擔憂。基礎參數的微小調整可能導致截然不同的結果。此外,算法和訓練數據集中的偏見將社會不平等問題延續下去。CommonCrawl為LLMs提供了大量的訓練數據——GPT-3佔60%,LLaMA佔67%——而運行該平台的質量控制不嚴格,將數據選擇的責任轉移給開發者。識別並解決這些偏見,對於確保AI道德應用至關重要。

開發倫理軟體應成為強制性,而非選擇性。然而,若開發者選擇忽視倫理指導,則可用的保障措施有限。因此,政策制定者和機構必須確保生成式AI的負責任和無偏應用。

誰該負責?

圍繞LLMs的法律環境模糊不清,常常引發對問責制的關鍵疑問。生成式AI的服務條款並不保證準確性或承擔責任,反而依賴用戶的判斷。許多用戶使用這些工具進行學習或工作,但他們可能缺乏辨識可靠信息和幻覺內容的能力。錯誤的影響可能蔓延至現實世界。例如,阿爾法貝特公司的股票在Google的Bard聊天機器人錯誤聲稱詹姆斯·韋伯太空望遠鏡捕捉到了首張太陽系外行星照片後急劇下跌。

隨著LLMs逐漸融入重要決策應用,出現了一個問題:如果發生錯誤,責任應由LLM提供者、採用LLMs的服務提供者,還是未能驗證信息的用戶承擔?考慮兩種情境:情境A涉及一輛故障的車輛導致事故,而情境B則展示了魯莽駕駛造成同樣結果。結果令人遺憾,然而責任卻不同。對於LLMs而言,錯誤可能源於提供者的失誤和用戶的疏忽,導致問責變得複雜。

需要‘無LLM索引’

現行的「noindex」規則允許內容創作者選擇退出搜尋引擎索引。類似的選項「no-llm-index」可以賦予創作者防止其內容被LLMs處理的權利。目前的LLMs不遵守加州消費者隱私法(CCPA)或GDPR的刪除權,使得數據刪除請求變得複雜。與傳統數據庫不同,LLMs根據學習的模式生成輸出,幾乎無法針對特定數據進行刪除。

駕馭法律環境

2015年,美國上訴法院裁定谷歌對書籍進行掃描以用於Google Books屬於「合理使用」,因其具有變革性。然而,生成式AI超越了這些界限,引發了對於補償LLM所用內容創作者的法律挑戰。OpenAI、微軟、GitHub和Meta等大公司面臨與開源軟體中的計算機代碼重複使用相關的訴訟。社交平台上的內容創作者應該有權選擇退出將其作品貨幣化或讓其進入LLMs的過程。

展望未來

各行各業的質量標準差異甚大;例如,Amazon Prime Music應用程序每天都會崩潰,而即使是醫療或公共服務中2%的崩潰率也可能是災難性的。與此同時,對LLMs性能的期望仍然不穩定。與輕易識別的應用失敗不同,確定AI何時故障或產生幻覺變得複雜。

隨著生成式AI的進步,在創新與基本權利之間取得平衡對於政策制定者、技術人員和社會至關重要。中國國家信息安全標準化技術委員會的最新提案以及拜登總統的行政命令均呼籲確立管理生成式AI問題的框架。

這些挑戰並不新鮮;過去的經驗表明,儘管假新聞等問題持續存在,平台的回應卻常常是微不足道的。LLMs需要大量的數據集,這些數據集通常是從互聯網免費獲得的。儘管可以針對質量進行整理,然而界定「質量」仍然是主觀的。

關鍵問題是,LLM提供者是否會真的解決這些問題,還是會繼續推卸責任。做好準備,這將會是一段驚心動魄的旅程。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles