新科技军备竞赛:十亿美元追逐先进人工智能的旅程

在最近的测试中,一款新发布的大型语言模型(LLM)展现出对其评估过程的自我意识,暗示其可能具备自我认知的能力。这引发了关于AI自我意识的讨论。然而,关键要点仍然是该模型的出色能力,反映了大型LLM不断发展的进步。

随着LLM的不断壮大,它们的突然能力和开发成本也在上升。目前,顶尖模型的训练成本约为2亿美元,这引发了对未来行业可及性的担忧。就像半导体行业一样,只有少数公司能够承受尖端芯片制造厂的投资,AI领域可能很快也会被具备资源的大型科技公司主导,这些公司能够开发出领先的基础模型,例如GPT-4和Claude 3。

训练成本和能力的快速增加,尤其是那些接近或超过人类表现的模型,带来了显著的挑战。知名公司Anthropic报告称,其旗舰模型Claude 3的训练费用约为1亿美元。预计在2024年或2025年初推出的未来模型或将达到十亿美金的价格。

理解这些成本上升,需要考量LLM日益复杂的结构。每一代新模型都具有更多参数,以实现更深层次的理解,这意味着需要更大的数据和计算资源。到了2025或2026年,训练费用可能会达到50到100亿美元,开发将局限于少数大型公司及其合作伙伴之间。

AI行业的发展轨迹与半导体行业相似,后者早期的公司往往自行制造芯片,而随着成本飙升,逐步外包生产。目前,仅有三家公司——台积电、英特尔和三星——能够建设先进的制造厂,台积电预计新一代半导体厂的建造成本可能达到约200亿美元。

虽然并非所有AI应用都需要尖端的LLM,但成本的增加对不同应用的影响有所不同。在计算领域,中央处理器(CPU)通常使用高端半导体,但也会与对技术要求不高的慢速芯片一起运行。同样,小型LLM替代品如Mistral和Llama3,虽然参数在数十亿级别,却能以较低的成本提供有效解决方案。微软的Phi-3作为一个拥有38亿参数的小型语言模型,展示了这种方法,通过依赖较小的数据集降低了成本。

这些小型模型可能更适合特定任务,而无需广泛的领域知识。例如,它们可以专门针对公司数据或行业需求进行定制,从而生成准确的答案或详细的研究结果。正如Forrester Research的首席AI分析师罗温·卡兰所说:“你并不总是需要跑车,有时你需要的是一辆厢型车或皮卡。”

然而,AI开发成本的上升风险在于形成由少数大型企业主导的格局,这与高端半导体的情况相似。这种整合可能会抑制创新和多样性,限制初创公司和小型公司的贡献。为了解决这一趋势,促进专业语言模型的开发至关重要,这些模型对小众应用至关重要,同时支持开源项目和协作努力。采取包容性的方法将确保AI技术的可获取性及对更广泛社区的益处,推动公平的创新机会。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles