上周,OpenAI 推出了 GPT 商店,允许第三方创作者展示并盈利于定制聊天机器人(GPTs)。然而,随着 2024 年 1 月的到来,该公司的创新并未止步。
在周一发布的博客文章中,OpenAI 概述了其人工智能工具的新安全措施,特别聚焦于图像生成模型 DALL-E 和 ChatGPT 中的引用实践。此举旨在应对今年全球众多选举前的虚假信息问题。博客中指出:“保护选举的完整性需要民主过程各方的合作,我们希望确保我们的技术不会以任何可能破坏该过程的方式使用。”
当前的安全措施之一是“举报”功能,让用户能够标记与定制 GPTs 相关的潜在违规行为,包括冒充真实个人或机构的行为,这违反了 OpenAI 的使用政策。
预期的新措施
OpenAI 的博客透露,用户不久将能够访问全球实时新闻报道,配有引用和链接,从而增强通过 ChatGPT 访问的信息的可信度。这一创新与 OpenAI 与诸如美联社 (Associated Press) 和 Axel Springer(包括《Politico》和《Business Insider》)等尊重媒体的合作相一致。
值得注意的是,OpenAI 将实施来自内容来源和真实性联会(C2PA)的图像凭证。该计划旨在对 AI 生成内容应用加密数字水印,确保未来能被识别。OpenAI 计划在今年早些时候将 C2PA 凭证与 DALL-E 3 图像集成,但具体日期尚未确定。
此外,OpenAI 还预览了其“来源分类器”,该工具旨在检测 DALL-E 生成的图像。此工具在 2023 年秋季 DALL-E 3 发布时首次提及,用户将能够上传图像以确定其 AI 来源。“我们的内部测试显示出令人鼓舞的结果,即使图像经过了常规修改,”博客提到。“我们计划很快将其推出给首批测试者,包括记者、平台和研究人员,以获取反馈。”
人工智能在政治活动中的作用
随着美国共和党全国委员会(RNC)等政治组织越来越多地使用 AI 进行信息传播,包括冒充对手,OpenAI 的安全措施在抑制预期的数字虚假信息浪潮中的有效性仍然不确定。尽管如此,OpenAI 显然在其工具被误用的担忧中,积极定位自己为真相和准确性的倡导者。