Meta недавно представила новую модель под названием "LLM Compiler", созданную на базе существующей платформы Code Llama и ориентированную на оптимизацию кода. В данный момент LLM Compiler доступен на Hugging Face и предлагает две версии с 7 миллиардами и 13 миллиардами параметров. Он поддерживает как академическое, так и коммерческое использование.
Несмотря на то что многие языковые модели превосходно справляются с программированием, Meta осознает, что в области оптимизации кода есть возможности для улучшения. LLM Compiler разработан как предобученная модель для этой цели, позволяя имитировать процесс оптимизации компилятора или преобразовывать "оптимизированный код обратно в оригинальный язык."
Обученная на обширном корпусе из 546 миллиардов токенов LLVM-IR и ассемблерного кода, LLM Compiler заявляет, что достигает 77% "потенциала оптимизации кода." Разработчики могут интегрировать эту модель с другими AI инструментами для повышения качества создаваемого кода.