Meta AI 发布针对移动设备优化的紧凑型语言模型

Meta AI 研究人员推出了 MobileLLM,这是一种为智能手机和其他资源受限设备开发高效语言模型的创新方法。该研究于 2024 年 6 月 27 日发布,挑战了“有效的 AI 模型需要庞大”的传统观念。

Meta Reality Labs、PyTorch 及 Meta AI Research(FAIR)的专家团队专注于优化具有不到 10 亿参数的模型,这比被评估为拥有超过万亿参数的 GPT-4 小得多。

Meta 首席 AI 科学家扬·勒昆 (Yann LeCun) 在 X(前 Twitter)上分享了有关该研究的重要见解:

MobileLLM 的关键创新:

- 更注重模型深度,而非宽度

- 实施嵌入共享和分组查询注意力机制

- 引入创新的分块权重共享技术

这些战略决策使得 MobileLLM 在关键基准任务上,相比于同类规模的旧模型,提升了 2.7% 至 4.3%。虽然这些改进看似不大,但在语言模型开发的竞争格局中,实质上是重要的进步。

值得注意的是,350 万参数的 MobileLLM 版本在特定 API 调用任务上的表现,达到了 70 亿参数的 LLaMA-2 模型的准确率。这表明,紧凑型模型可以在需求的计算资源大幅减少的情况下,提供类似的性能。

由刘泽春等人发布的论文《MobileLLM:为设备端应用案例优化子十亿参数语言模型》进一步强调了这一进展。

MobileLLM 的开发反映了对创造更高效 AI 模型日益增长的兴趣。随着超大规模语言模型的发展开始趋于平稳,研究人员越来越多地转向紧凑且专门设计的模型。MobileLLM 强调的效率和设备端的应用,使其也符合一些专家所称的“小型语言模型”(SLM)。

尽管 MobileLLM 尚未公开发布,Meta 已将预训练代码开源,为研究人员提供了进一步发展的基础。随着这一技术的演进,它有潜力增强个人设备上的 AI 功能,尽管具体的时间框架和能力尚不确定。

总的来说,MobileLLM 的推出标志着智能 AI 更加可接触和可持续的重大进步,挑战了“有效的语言模型必须庞大”的观念。此项创新可能为个人设备上的新型 AI 应用铺平道路。

Most people like

Find AI tools in YBX