Meta AI 研究團隊推出了 MobileLLM,一種專為智能手機及其他資源有限設備開發的高效語言模型的創新方法。此研究於 2024 年 6 月 27 日发布,挑戰了有效 AI 模型必須大型的既有觀念。
該團隊由 Meta Reality Labs、PyTorch 和 Meta AI Research (FAIR) 的專家組成,專注於優化少於 10 億個參數的模型,這比估計包含超過 1 兆參數的 GPT-4 小得多。
Meta 的首席 AI 科學家 Yann LeCun 在 X(前身為 Twitter)上分享了該研究的關鍵見解:
MobileLLM 的主要創新包括:
- 更加注重模型的深度而非寬度
- 實施嵌入共享和分組查詢注意力機制
- 引入創新的區塊權重共享技術
這些策略性決策使 MobileLLM 在關鍵基準任務上超越同比例之前的模型,表現提高了 2.7% 至 4.3%。儘管這些改進看似輕微,但在語言模型開發的競爭格局中,已代表了重要進步。
值得注意的是,擁有 3.5 億參數的 MobileLLM 版本在特定 API 調用任務中達到了 70 億參數的 LLaMA-2 模型的準確度,顯示精簡模型可以在需求相對較少的計算資源下提供相似的效能。
Zechun Liu 等人發表的論文《MobileLLM:針對設備使用案例優化少於 10 億參數的語言模型》強調了這一進展。
MobileLLM 的開發反映了對創建更高效 AI 模型的日益興趣。隨著大型語言模型的發展開始趨於平穩,研究人員越來越轉向緊湊和專門化的設計。MobileLLM 對效率及在設備上部署的重視,將其與一些專家所稱的“小型語言模型”(SLMs)相提並論。
儘管 MobileLLM 尚未公開,但 Meta 已開源預訓練代碼,允許研究人員在此基礎上進行研究。隨著這一技術的演進,它有潛力加強個人設備上的 AI 功能,雖然具體的時間表和能力仍不確定。
總的來說,MobileLLM 是使複雜 AI 更加可接近和可持續的重要進步,挑戰了有效語言模型必須龐大的理念。這項創新有望為個人設備上的新 AI 應用鋪平道路。