Meta ha lanzado recientemente un nuevo modelo llamado "LLM Compiler", basado en la plataforma Code Llama, con un enfoque en la optimización del código. Actualmente, el LLM Compiler está disponible en Hugging Face, ofreciendo dos versiones con 7 mil millones y 13 mil millones de parámetros, y es compatible con usos académicos y comerciales.
Si bien muchos modelos de lenguaje destacan en tareas de programación, Meta reconoce que aún hay margen de mejora en la optimización del código. El LLM Compiler ha sido diseñado específicamente como un modelo preentrenado para este propósito, capaz de simular cómo los compiladores optimizan el código o convertir “código optimizado de vuelta a su lenguaje original”.
Entrenado en un extenso corpus de 546 mil millones de tokens de LLVM-IR y código ensamblador, el LLM Compiler afirma alcanzar el 77% del "potencial de optimización del código". Los desarrolladores pueden integrar este modelo con otras herramientas de inteligencia artificial para mejorar la calidad del código generado.