أطلقت شركة ميتا مؤخرًا نموذجًا جديدًا يُدعى "LLM Compiler"، وهو مبني على منصة Code Llama الحالية ويركز على تحسين الشيفرة البرمجية. النموذج متوفر حاليًا على Hugging Face، مع إصدارين يضمان 7 مليارات و13 مليار معامل، ويدعم الاستخدام الأكاديمي والتجاري على حد سواء.
بينما تتفوق العديد من نماذج اللغة في مهام البرمجة، تدرك ميتا أن هناك مجالًا لتحسين عمليات تحسين الشيفرة. تم تصميم LLM Compiler كنموذج مدرب مسبقًا لهذا الغرض، حيث يمكنه محاكاة كيفية تحسين المترجمات للشيفرة أو تحويل "الشيفرة المحسنة إلى لغتها الأصلية".
تم تدريب LLM Compiler على مجموعة بيانات ضخمة تحتوي على 546 مليار رمز من LLVM-IR والشيفرة التجميعية، ويزعم أنه يحقق 77% من "القدرة على تحسين الشيفرة". يمكن للمطورين دمج هذا النموذج مع أدوات الذكاء الاصطناعي الأخرى لتعزيز جودة الشيفرة المنتجة.