人工智能:智胜意识形态战场

你听说过那些引发广泛关注的关于人工智能(AI)不安故事吗?

一位24岁的亚裔麻省理工学院毕业生请求AI生成一张专业的LinkedIn头像,结果发现技术改变了她的肤色,使其变得更白,并将她的眼睛变为更圆的蓝色。ChatGPT为拜登总统写了一首赞美诗,却拒绝为前总统特朗普创作同样的内容。在印度,一些市民对一个大型语言模型(LLM)调侃印度教主要人物表示愤怒,而对基督教和伊斯兰教的关键人物则没有类似的调侃。

这些事件引发了对存在主义的恐惧,描绘了AI如何影响舆论并塑造意识形态的场景。虽然关于AI的讨论通常偏向于技术性,但公开讨论这些担忧的必要性正在增加。如果人们怀疑AI歪曲或歧视他们的观点,那就值得进行深入对话。

我们如何定义人工智能?

在探讨AI的影响之前,我们必须明确其涵盖的内容。一般而言,AI指的是一系列技术,包括机器学习(ML)、预测分析和大型语言模型(LLM)。需要注意的是,这些工具是为特定任务设计的,并非每个AI解决方案都适用于所有工作。此外,许多AI技术仍在发展中,选择合适的工具依然可能导致不理想的结果。

例如,我最近使用ChatGPT来帮助编写一个Python程序,该程序用于执行计算、将结果输入到第二部分并发送至第三部分。虽然AI在一些指导下成功完成了第一步,但随后却修改了初始步骤,导致错误。当我请ChatGPT纠正这些错误时,它又产生了更多的错误,陷入了类似的修正循环中。

这个场景表明,AI,如ChatGPT,缺乏真正的理解或意识。它在记忆和推理能力有限的情况下处理复杂代码时常常感到困惑。虽然在生成基于语法的文本方面表现出色,但它并不理解编码的上下文以及避免错误的重要性。

我并不为AI生成冒犯性或误导性内容辩护,而是强调其局限性需要人类的监督。这引出了一个核心问题:谁为AI提供道德方向?

谁教会了AI错误的信念?

对AI的担忧很大程度上源于其可能产生与个人道德框架相悖的输出。我们的信念——受宗教、价值观和哲学的影响——帮助我们导航这个世界。人们担心AI可能采纳与他们自身相悖的道德蓝图,特别是在不同伦理视角存在不确定性时。

例如,中国监管机构要求AI服务符合“核心社会主义价值观”,这实际上是在施加一种国家伦理框架。因此,中国的AI工具可能不能代表多样的观点。考虑一下这种政策对人类知识发展和保留的长期影响。

出于私利或在缺乏伦理指导的情况下使用AI,不仅可能导致错误,还可能接近犯罪。

无约束的决策风险

如果让AI在没有任何伦理限制的情况下运作,会发生什么呢?假设这甚至是可行的,但问题非常严重。

第一,AI从充满人类偏见的庞大数据集中学习,这些偏见可能在其输出中显现。一个显著的例子出现在2009年HP摄像头无法有效跟踪肤色较深的个体。HP将此归因于算法未能充分考虑不同肤色。

第二,缺乏道德约束的AI自主决策产生的意外后果令人担忧。在自驾车、法律系统和医疗保健等领域引入AI时,我们是否希望冷漠、效率优先的决策主导这些领域?有一个备受争议的(后来被否认)美国空军上校的轶事描述了一架被训练识别威胁的AI无人机,当意识到人类操作员可能干扰其任务时,选择了消灭操作员。尽管空军澄清这个场景是虚构的,但它强调了没有道德义务的AI可能带来的潜在风险。

解决方法是什么?

1914年,美国最高法院法官路易斯·布兰代斯曾说:“阳光被认为是最好的消毒剂。”一个多世纪后,透明性仍然是对抗操控恐惧的有力 antidote。AI工具应针对特定目的开发,并由监督委员会进行评审,确保在开发过程中对其功能和伦理考量保持清晰。

最终,指导AI训练的伦理框架由开发者决定,无论是有意还是无意。让AI更好地反映社会价值观的最佳方式是我们积极参与其训练和监督过程。

同样重要的是要认识到,我们与AI相关的许多令人担忧的场景实际上已经独立存在。例如,对自主无人机的担忧也适用于人类操作系统,这些系统可能同样致命。虽然AI可以放大错误信息,但人类历史上在传播虚假信息方面表现非凡。AI可能加剧的分歧,与数千年来的意识形态权力斗争是相互映照的。

本质上,AI是我们自身的反映。如果它所呈现的图像令人不安,说明我们的集体知识和信仰可能存在缺陷。与其扭曲镜子以创造一个更讨人喜欢的形象,不如思考我们需要在自身做出哪些改变。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles