Meta a récemment lancé un nouveau modèle appelé "LLM Compiler", basé sur la plateforme Code Llama, avec un accent particulier sur l'optimisation du code. Actuellement, le LLM Compiler est disponible sur Hugging Face, proposant deux versions avec 7 milliards et 13 milliards de paramètres, et il est compatible avec des usages académiques et commerciaux.
Bien que de nombreux modèles de langage excellent dans les tâches de programmation, Meta reconnaît qu'il reste des opportunités d'amélioration en matière d'optimisation du code. Le LLM Compiler est spécifiquement conçu comme un modèle pré-entraîné pour cet objectif, capable de simuler comment les compilateurs optimisent le code ou de convertir un "code optimisé de nouveau dans son langage d'origine."
Formé sur un vaste corpus de 546 milliards de tokens de code LLVM-IR et d'assemblage, le LLM Compiler revendique atteindre 77 % du "potentiel d'optimisation du code." Les développeurs peuvent intégrer ce modèle avec d'autres outils d'IA pour améliorer la qualité du code généré.