人工智能悖论:通往乌托邦还是反乌托邦?探索人工智能的双重未来

最近的头条新闻,例如人工智能建议人们吃石头,以及首个AI生成选手的美丽大赛“Miss AI”的推出,再次引发了关于人工智能技术负责任开发和应用的重要讨论。虽然“吃石头”的建议暴露了AI算法的缺陷,但美丽大赛反映了人类继续维持狭隘审美标准的倾向。在关于AI可能带来的灾难的警告声中——一位AI研究者估计世界末日的概率高达70%——这些问题显得突出,但并未暗示会偏离当前的发展轨迹。

人工智能的恶意使用案例,如利用深度伪造技术进行金融诈骗或对个人的不当描绘,展示了技术带来的潜在危害。然而,这些行为是人类恶意的驱动,而非AI的自主行为。此外,关于AI可能造成就业结构变化的担忧目前尚未显著显现。

人工智能面临的风险包括技术的潜在武器化、固有的社会偏见、隐私侵犯,以及理解AI系统的持续困难。尽管如此,目前几乎没有证据表明AI本身构成对人类的威胁。

尽管缺乏实质性证据,来自顶尖AI公司的13名现任和前任员工近期发出了一封泄密信,表达对技术风险的严重担忧,包括对人类生命的威胁。这些曾与先进AI系统密切合作的举报者增强了其忧虑的可信度。AI研究者Eliezer Yudkowsky的早期警告加剧了人们的恐惧,认为像ChatGPT这样的AI可能演变为超越人类智慧,从而对人类造成伤害。

然而,正如Casey Newton在《Platformer》上所指出的,寻求泄密信中的耸人听闻内容的人可能会失望。这可能源于雇主施加的限制或缺乏超出推测性叙述的实质性证据。

好消息是,“前沿”生成AI模型在不断改进,其在标准测试基准上的表现令人鼓舞。然而,过度拟合的现象——模型在训练数据上表现优秀但在其他数据上差强人意——可能夸大了这些声明的可信度,正如对全国律师考试表现的误导性评估所示。

尽管存在担忧,顶尖AI研究人员,包括被称为“AI教父”的Geoffrey Hinton,认为人类通用人工智能(AGI)有可能在五年内实现。AGI是指能够在各种任务上匹敌或超越人类智慧的AI系统,这也是引发生存焦虑的时刻。Hinton最近对AGI的看法发生转变,从认为这是一个遥远的现实,到强调其紧迫性,进一步加剧了这一辩论。

此外,前OpenAI研究员Leopold Aschenbrenner最近因被指控泄露信息而被解雇,他发布的预测显示,如果持续保持进展,AGI有可能在2027年实现。

尽管一些专家对AGI的即将到来持怀疑态度,但即将推出的模型——如OpenAI的GPT-5以及Claude和Gemini的下一代——预计将带来显著的技术进展。然而,如果未来的技术增长停滞,存在的恐惧可能最终会消散。

受关注的专家如Gary Marcus对AI模型的可扩展性提出质疑,表示新的“AI寒冬”的初步迹象可能正在出现。AI寒冬是指由于未能满足预期而导致的兴趣和资金减少的历史时期,通常出现在AI能力受到夸大宣传的阶段。

最近的报告显示,Pitchbook的数据显示,生成AI相关的交易活动从2023年第三季度的峰值下降了76%,投资者重新评估他们的策略。这一投资下滑可能导致现有公司的财务困境,并抑制新兴AI项目的创新。然而,参与开发尖端模型的大型企业可能会避免这些趋势的影响。

Fast Company进一步强调,缺乏证据表明AI正在创造足够的生产力提升,从而对公司盈利或股价产生积极影响。因此,新的AI寒冬的威胁可能将在2024年下半年主导讨论。

尽管面临这些挑战,许多专家仍然保持乐观。Gartner将AI的影响比作印刷机和电力等变革性发明,强调其重塑社会的潜力。沃顿商学院教授Ethan Mollick倡导立即将生成AI整合进工作流程。

关于生成AI能力的证据持续增加;例如,AI系统在辩论中据报道能比一般人高效87%地说服他人。此外,研究表明,AI模型在通过认知重评等技巧提供情感支持方面,可能超越人类。

核心问题依然是:AI能否帮助解决重大全球挑战,还是最终导致人类的灭亡?结果可能是先进AI带来的非凡进展与可惜的失误交织在一起。考虑到技术进步的两极分化,连行业领袖对AI的风险与回报也存在不同看法。

个人而言,在评估近期AI安全方面的进展后,我对人类末日的概率保持在较低的5%左右。像Anthropic等组织在阐明大型语言模型(LLMs)运行机制方面取得的积极进展,可能增强我们有效降低风险的能力。

最终,人工智能的未来面临十字路口,亟需在前所未有的机会与显著风险之间找到平衡。进行知情讨论、确保道德开发以及实施主动监督,对于最大化AI带来的社会益处至关重要。虽然存在丰盈未来的可能,但也面临滑向反乌托邦的风险。负责任的AI开发必须优先考虑明确的道德准则、严格的安全协议、人类监督及强有力的控制机制,以应对这一快速发展的领域。

Most people like

Find AI tools in YBX