Anthropic 發布 AI 系統提示,因其透明度和創新性獲得讚譽

最近,OpenAI 的競爭對手 Anthropic 在生成式 AI 行業設立了透明度的新標準,公開發布了其 Claude 系列 AI 模型的系統提示。業內觀察人士指出,這一舉措顯著提升了對 AI 系統運作方式的理解。

系統提示作為大型語言模型(LLMs)的操作指令,概述了這些模型在用戶互動中應遵循的一般指南,同時也顯示出模型訓練所用信息的知識截止日期。雖然許多 LLM 會使用系統提示,但並非所有 AI 公司都會公開這些信息,導致越來越多的 AI “越獄者”試圖揭開其神秘面紗。Anthropic 率先在其網站的發布說明部分公布了 Claude 3.5 Sonnet、Claude 3 Haiku 和 Claude 3 Opus 模型的操作指令,從而抵消了這些努力。

此外,Anthropic 的開發者關係負責人 Alex Albert 在 X(前身 Twitter)上承諾將持續向公眾通報 Claude 系統提示的更新,並表示:“我們將在 Claude dot ai 和我們的移動應用上記錄對默認系統提示所做的更改。”

Anthropic 系統提示的見解

Claude 3.5 Sonnet、Claude 3 Haiku 和 Claude 3 Opus 的系統提示揭示了每個模型的能力、知識截止日期和獨特的人格特徵。

- Claude 3.5 Sonnet 是最先進的模型,知識庫更新至 2024 年 4 月,能夠熟練地回答複雜問題,並對簡單問題給予簡潔的回答。該模型在處理爭議話題時保持謹慎,不將信息標記為敏感,也不聲稱中立。值得注意的是,它避免使用填充語句,且從不聲明能識別圖片中的面孔。

- Claude 3 Opus 的知識截止日期為 2023 年 8 月,擅長處理複雜任務和寫作。與 Sonnet 一樣,它為基本查詢提供簡潔回答,對複雜問題則給予詳盡回應。Opus 在處理爭議話題時保持多元觀點,避免刻板印象,確保觀點平衡。然而,它在行為指導方面不如 Sonnet 詳盡,如對歉意和肯定的表達有所欠缺。

- Claude 3 Haiku 是 Claude 家族中速度最快的成員,同樣更新至 2023 年 8 月。它優先提供對簡單問題的快速簡潔回答,並為更複雜的問題給出深入解答。其提示結構簡單明瞭,專注於速度和效率,缺乏 Sonnet 中的高級行為細節。

AI 透明度的重要性

生成式 AI 系統的一大主要批評是 "黑箱" 現象,這使模型決策的背後推理變得不透明。這個問題促使了對 AI 解釋性研究的進展,以增強對模型如何做出預測的理解。通過公開系統提示,Anthropic 在彌補這一透明度缺口上邁出了重要一步,讓用戶得以理解規範模型行為的規則。

Anthropic 的發布獲得了 AI 開發社區的好評,強調 AI 公司在透明度方面的進步。

開放性的限制

儘管 Anthropic 已經發布了 Claude 模型的系統提示,但並未將整個模型開源。實際的源代碼、訓練數據集和模型權重仍然屬於 Anthropic 的專有財產。儘管如此,這一舉措為其他 AI 公司增強透明度展示了發展路徑,讓用戶更清楚其 AI 聊天機器人的設計運作。

Most people like

Find AI tools in YBX