Meta最近推出了一款新的预训练模型“LLM Compiler”,旨在提升代码优化能力。该模型在现有的Code Llama基础上进行了升级,展示了Meta在人工智能编程领域的最新进展,为开发者提供了强大的工具,以改善代码生成和编译性能。
LLM Compiler经过大规模数据集训练,包含5460亿个LLVM-IR(低级虚拟机中间表示)和汇编代码标记。这让它具备了模拟编译器的能力,能够优化代码并将优化后的代码转换回原始语言。尽管目前有许多语言模型在编程任务上表现优异,但代码优化仍有待提高。LLM Compiler的推出正好填补了这一空白,为开发者提供了专业高效的代码增强解决方案。
该模型提供两种版本——70亿和130亿参数,满足不同项目需求,目前已在Hugging Face平台上线,供学术和商业使用,进一步扩展了开发者的选择。
Meta强调,LLM Compiler在训练过程中显示出77%的代码优化潜力,显著提高了代码的性能和效率,为开发者提供了卓越的编程体验。此外,该模型具备出色的兼容性和可扩展性,能够与其他人工智能模型集成,进一步提升代码质量。
随着人工智能技术的发展,代码生成和编译能力已成为评估AI编程水平的重要标准。Meta的LLM Compiler预计将在这一领域发挥关键作用,推动人工智能在编程方面的进步。