OpenAI竞争对手Anthropic最近通过公开发布其Claude系列AI模型的系统提示,树立了生成性AI行业透明度的新标准。业内观察人士认为,这是朝着揭开AI系统内部运作的重要一步。
系统提示是大型语言模型(LLM)的操作说明,概述了这些模型在与用户互动时应遵循的基本准则,同时指明了模型训练所用信息的知识截止日期。虽然许多LLM使用系统提示,但并非所有AI公司都公开分享这些信息,这导致了越来越多的AI“越狱者”试图揭露这些内容。Anthropic则通过在其网站的发布说明部分提前发布Claude 3.5 Sonnet、Claude 3 Haiku和Claude 3 Opus模型的操作指令,抢先应对了这一趋势。
此外,Anthropic开发者关系负责人亚历克斯·阿尔伯特(Alex Albert)在X平台(前身为Twitter)上表示,未来会定期更新Claude系统提示,并称:“我们将在Claude网站和移动应用上记录默认系统提示的更改。”
Anthropic的系统提示洞察
Claude 3.5 Sonnet、Claude 3 Haiku和Claude 3 Opus的系统提示揭示了各模型的能力、知识截止日期和独特性格特征:
- Claude 3.5 Sonnet是最先进的模型,其知识库更新至2024年4月。它能够详细回答复杂问题,同时对简单问题给出简洁的回应。该模型对争议话题持谨慎态度,呈现信息时并不标记为敏感,也不声称中立。值得注意的是,它避免使用废话,并且从不承认在图像输入中识别面孔。
- Claude 3 Opus的知识更新至2023年8月,擅长处理复杂任务和写作。和Sonnet类似,它针对基本问题提供简洁回答,而对复杂问题则给出详尽的回应。Opus从多个角度探讨争议话题,避免刻板印象,确保观点平衡。然而,相较于Sonnet,它在一些细致的行为指导上有所欠缺,例如减少道歉和肯定的语句。
- Claude 3 Haiku是Claude系列中反应最快的成员,同样更新至2023年8月。它优先提供快速、简洁的回答,对于复杂问题也能给出详尽的解答。其提示结构简单明了,专注于速度和效率,而不具备Sonnet中的高级行为细微差别。
AI透明度的重要性
生成性AI系统的一大批评是“黑箱”现象,这使得模型决策背后的推理变得不透明。这一问题促使对AI可解释性的研究,以增强对模型如何做出预测的理解。通过公开系统提示,Anthropic在填补这一透明度缺口方面迈出了重要一步,使用户能够理解模型行为的规则。
Anthropic的发布受到了AI开发社区的热烈欢迎,强调了AI公司在提升透明度方面的积极发展。
透明度的局限性
尽管Anthropic公开了Claude模型的系统提示,但并未将整个模型开源。其源代码、训练数据集和模型权重仍然为Anthropic所拥有。然而,这一举措为其他AI公司提供了增强透明度的方向,利益用户更好地理解他们的AI聊天机器人是如何设计和运作的。