最近,OpenAI 的競爭對手 Anthropic 在生成式 AI 行業設立了透明度的新標準,公開發布了其 Claude 系列 AI 模型的系統提示。業內觀察人士指出,這一舉措顯著提升了對 AI 系統運作方式的理解。
系統提示作為大型語言模型(LLMs)的操作指令,概述了這些模型在用戶互動中應遵循的一般指南,同時也顯示出模型訓練所用信息的知識截止日期。雖然許多 LLM 會使用系統提示,但並非所有 AI 公司都會公開這些信息,導致越來越多的 AI “越獄者”試圖揭開其神秘面紗。Anthropic 率先在其網站的發布說明部分公布了 Claude 3.5 Sonnet、Claude 3 Haiku 和 Claude 3 Opus 模型的操作指令,從而抵消了這些努力。
此外,Anthropic 的開發者關係負責人 Alex Albert 在 X(前身 Twitter)上承諾將持續向公眾通報 Claude 系統提示的更新,並表示:“我們將在 Claude dot ai 和我們的移動應用上記錄對默認系統提示所做的更改。”
Anthropic 系統提示的見解
Claude 3.5 Sonnet、Claude 3 Haiku 和 Claude 3 Opus 的系統提示揭示了每個模型的能力、知識截止日期和獨特的人格特徵。
- Claude 3.5 Sonnet 是最先進的模型,知識庫更新至 2024 年 4 月,能夠熟練地回答複雜問題,並對簡單問題給予簡潔的回答。該模型在處理爭議話題時保持謹慎,不將信息標記為敏感,也不聲稱中立。值得注意的是,它避免使用填充語句,且從不聲明能識別圖片中的面孔。
- Claude 3 Opus 的知識截止日期為 2023 年 8 月,擅長處理複雜任務和寫作。與 Sonnet 一樣,它為基本查詢提供簡潔回答,對複雜問題則給予詳盡回應。Opus 在處理爭議話題時保持多元觀點,避免刻板印象,確保觀點平衡。然而,它在行為指導方面不如 Sonnet 詳盡,如對歉意和肯定的表達有所欠缺。
- Claude 3 Haiku 是 Claude 家族中速度最快的成員,同樣更新至 2023 年 8 月。它優先提供對簡單問題的快速簡潔回答,並為更複雜的問題給出深入解答。其提示結構簡單明瞭,專注於速度和效率,缺乏 Sonnet 中的高級行為細節。
AI 透明度的重要性
生成式 AI 系統的一大主要批評是 "黑箱" 現象,這使模型決策的背後推理變得不透明。這個問題促使了對 AI 解釋性研究的進展,以增強對模型如何做出預測的理解。通過公開系統提示,Anthropic 在彌補這一透明度缺口上邁出了重要一步,讓用戶得以理解規範模型行為的規則。
Anthropic 的發布獲得了 AI 開發社區的好評,強調 AI 公司在透明度方面的進步。
開放性的限制
儘管 Anthropic 已經發布了 Claude 模型的系統提示,但並未將整個模型開源。實際的源代碼、訓練數據集和模型權重仍然屬於 Anthropic 的專有財產。儘管如此,這一舉措為其他 AI 公司增強透明度展示了發展路徑,讓用戶更清楚其 AI 聊天機器人的設計運作。