NVIDIA 推出 Mistral-NeMo-Minitron 8B:一款緊湊的語言 AI 模型
在 8 月 21 日,NVIDIA 宣布推出 Mistral-NeMo-Minitron 8B,這是一款旨在提供卓越準確性和計算效率的緊湊型語言 AI 模型。此模型經過優化,專為 GPU 加速的數據中心、雲計算環境及工作站所設計。
繼上個月與 Mistral AI 合作推出的開源 Mistral NeMo 12B 模型後,新的 Mistral-NeMo-Minitron 8B 擁有 80 億個參數,特別針對配備 NVIDIA RTX 顯示卡的系統進行設計。NVIDIA 對 Mistral NeMo 12B 模型的改進採用了寬度修剪和知識蒸餾,相關研究結果在論文《透過修剪和知識蒸餾實現緊湊語言模型》中詳細說明。
修剪過程中,去除對準確性貢獻不大的模型權重,從而有效簡化神經網絡的規模。在蒸餾階段,研究團隊使用較小的數據集重新訓練修剪後的模型,成功減輕了修剪所帶來的準確性下降。
在性能方面,Mistral-NeMo-Minitron 8B 在九項流行語言模型基準測試中展現出顯著優勢,展現其在語言理解、常識推理、數學推理、摘要生成及精確回答方面的能力。