Meta 最近推出了一款名為「LLM Compiler」的新模型,基於現有的 Code Llama 平台,專注於代碼優化。目前,LLM Compiler 已在 Hugging Face 上推出,提供 70 億和 130 億參數的兩個版本,支持學術和商業用途。
儘管許多語言模型在編程任務上表現出色,但 Meta 認識到在代碼優化方面仍有改進的空間。LLM Compiler 專為此目的設計,作為一個預訓練模型,能夠模擬編譯器如何優化代碼或將「優化代碼轉換回其原始語言」。
LLM Compiler 在 5460 億個 LLVM-IR 和組合語言代碼標記的龐大語料庫上進行訓練,聲稱能實現 77% 的「代碼優化潛力」。開發者可以將此模型與其他 AI 工具集成,以提升生成代碼的質量。