메타는 최근 기존의 Code Llama 플랫폼을 기반으로 한 새로운 모델 "LLM Compiler"를 출시했습니다. 이 모델은 코드 최적화에 중점을 두고 있으며, 현재 Hugging Face에서 70억 및 130억 파라미터의 두 가지 버전을 제공합니다. 학술 및 상업적 용도로 모두 사용 가능합니다.
많은 언어 모델이 프로그래밍 작업에서 우수한 성능을 보이고 있지만, 메타는 코드 최적화에서 여전히 개선의 여지가 있음을 인식하고 있습니다. LLM Compiler는 이를 위해 특별히 설계된 사전 훈련 모델로, 컴파일러가 코드를 최적화하는 방식을 시뮬레이션하거나 "최적화된 코드를 원래 언어로 다시 변환"할 수 있습니다.
5460억 개의 LLVM-IR 및 어셈블리 코드 토큰으로 훈련된 LLM Compiler는 "코드 최적화 잠재력"의 77%를 달성한다고 주장합니다. 개발자들은 이 모델을 다른 AI 도구와 통합하여 생성된 코드의 품질을 향상시킬 수 있습니다.