解锁大型语言模型:掌握在线实验的混乱与机遇

在一场颠覆传统的变革中,生成性人工智能公司将大型语言模型(LLM)直接应用于互联网这一不可预测的环境,以进行质量保证。与其花费时间进行全面测试,不如让网络社区共同识别程序中的错误和漏洞?这一大胆的实验邀请用户参与一个广泛且无计划的测试。每一个提示都揭示了LLM的独特特性,而广阔的互联网则成为错误的汇聚地——只要用户同意相关条款和条件。

伦理与准确性:可选的吗?

迅速推出生成性AI LLM模型的做法有点像燃放烟花——带来乐趣,却也潜藏风险。例如,Mistral最近在Apache 2.0许可下推出了其7B模型,但缺乏明确的使用限制引发了对潜在滥用的担忧。基本参数的微小调整可能导致截然不同的结果。此外,算法和训练数据集中的偏见会延续社会不平等。提供LLM训练数据的大部分数据来源CommonCrawl——GPT-3的60%和LLaMA的67%——在质量控制方面运作不严,导致数据选择的责任落在开发者身上。因此,识别和解决这些偏见,对于确保AI的伦理应用至关重要。

开发符合伦理的软件应当是必须的,而非可选的。然而,如果开发者选择无视伦理指南,保障措施则相对有限。因此,政策制定者和组织必须确保生成性AI的负责任和无偏应用。

谁来承担责任?

围绕LLM的法律框架并不清晰,因此常常引发关于责任重大问题的讨论。生成性AI的服务条款并不保证准确性,也不承担责任,而是将信任度放在用户的判断上。许多用户利用这些工具学习或工作,却可能缺乏辨别可靠信息与虚假内容的能力。

不准确性可能会在现实世界中产生连锁反应。例如,在谷歌的Bard聊天机器人错误地声明詹姆斯·韦布太空望远镜捕捉到第一张太阳系外行星图像后,Alphabet的股价急剧下跌。随着LLM被广泛应用于重要决策领域,问题随之而来:如果发生错误,责任应由LLM提供商、使用LLM的服务提供商,还是未能验证信息的用户来承担?

考虑两个场景:场景A是汽车故障导致事故,场景B是鲁莽驾驶造成同样后果。尽管结果都不幸,问责却有所不同。对于LLM而言,错误可能源于提供商的失职和用户的疏忽,这让责任追溯变得复杂。

“无LLM索引”的必要性

现行的“noindex”规则允许内容创作者选择退出搜索引擎索引。类似的“no-llm-index”选项,将使创作者能够防止其内容被LLM处理。目前的LLM未能遵循加州消费者隐私法(CCPA)或GDPR的被删除权,给数据删除请求带来了挑战。与传统数据库不同,LLM根据学习的模式生成输出,几乎无法针对特定数据进行删除。

应对法律挑战

2015年,美国上诉法院裁定谷歌扫描书籍用于Google Books构成“合理使用”,并指出其转化性质。然而,生成性AI超越了这些边界,引发了关于补偿使用LLM的内容创作者的法律挑战。OpenAI、微软、GitHub和Meta等大型科技公司面临与开源软件代码再现有关的诉讼。社交平台上的内容创作者应当有权选择不让他们的作品被用于LLM的盈利。

展望未来

不同领域的质量标准差异显著;例如,亚马逊Prime音乐应用每天崩溃,而在医疗或公共服务中,即便是2%的崩溃率也可能造成灾难。同时,对于LLM性能的期望仍在快速变化。与容易识别的应用程序失败不同,判断AI何时发生故障或输出虚假信息是复杂的。

随着生成性AI的发展,在技术创新与基本权利之间取得平衡对政策制定者、技术人员和社会至关重要。近日,中国国家信息安全标准化技术委员会的提案及拜登总统的行政命令,皆呼吁建立管理生成性AI问题的框架。

这些挑战并不新颖;以往的经验表明,尽管假新闻等问题持续存在,各个平台的反应往往微弱。LLM需要广泛的数据集,而这些数据集大多来源于互联网免费获取。虽然对这些数据进行质量监控是可能的,但“质量”的定义依然主观。一大关键问题是,LLM提供商是否真的会重视这些问题,抑或继续推卸责任。

准备好迎接挑战吧,这将是一场跌宕起伏的旅程。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles