Meta недавно представила новый предобученный модель "LLM Compiler", ориентированную на оптимизацию кода. Эта модель, разработанная на основе существующего Code Llama, демонстрирует последние достижения Meta в области ИИ-программирования, предоставляя разработчикам мощные инструменты для улучшения генерации кода и его компиляции.
LLM Compiler была обучена на огромном наборе данных, содержащем 546 миллиардов токенов LLVM-IR (представление промежуточного кода виртуальной машины низкого уровня) и ассемблерного кода. Это позволяет ей имитировать компиляторы, оптимизировать код и преобразовывать оптимизированный код обратно в его первоначальный формат. Несмотря на наличие множества языковых моделей, успешно справляющихся с программными задачами, возможности оптимизации кода все еще требуют улучшения. Появление LLM Compiler заполняет этот пробел, предлагая разработчикам специализированное и эффективное решение для улучшения кода.
Модель доступна в двух версиях — на 70 миллиардов и 130 миллиардов параметров, что позволяет адаптироваться к различным требованиям проектов. Она уже доступна на платформе Hugging Face как для академического, так и для коммерческого использования, что расширяет возможности разработчиков.
Meta отмечает, что LLM Compiler демонстрирует впечатляющие 77% потенциала для оптимизации кода в процессе обучения, что значительно улучшает производительность и эффективность кода, обеспечивая превосходный опыт программирования. Более того, модель обеспечивает отличную совместимость и масштабируемость, позволяя интегрироваться с другими ИИ-моделями для дальнейшего повышения качества кода.
С развитием технологий ИИ способность генерировать и компилировать код становится важным критерием оценки уровня программирования на основе ИИ. Модель LLM Compiler от Meta готова сыграть ключевую роль в этой области, способствуя прогрессу ИИ в программировании.