隨著 Microsoft Build 和 Google I/O 的結束,Apple 在 2024 年全球開發者大會上面臨著展示其裝置內 AI 能力的重大期望。Apple 成功地將生成型 AI 融入所有設備的用戶體驗中,顯示出在這一領域的令人矚目的進展。
Apple 演示中的一大亮點是其廣泛的裝置內處理能力。透過利用先進的處理器與豐富的開放研究,Apple 在其手機和電腦上提供了高品質、低延遲的 AI 功能。以下是我們了解的 Apple 裝置內 AI 相關內容:
Apple 模型概述
在 6 月 10 日的 Apple State of the Union 演講及博文中,Apple 公布其採用 30 億參數模型。儘管未透露具體的基礎模型,該公司近期推出的多個開放模型,例如 OpenELM 語言模型家族,提供為資源受限設備優化的 30 億參數版本。
OpenELM 針對模型質量進行了改良,未增加參數,顯示 Apple 的基礎模型可能是 OpenELM-3B 的專用變種。該模型在 1.8 兆個開放數據的資料集上進行訓練,這些資料包括由 AppleBot 收集的授權和公開數據。
授權數據夥伴關係
Apple 已與多家機構建立授權數據合作,包括與 Shutterstock 簽訂的價值從 2500 萬到 5000 萬美元的圖片協議,以及可能與主要新聞和出版組織達成的 5000 萬美元協議。
訓練與優化技術
該模型通過來自人類反饋的強化學習 (RLHF) 和涉及教師小組的拒絕採樣微調算法,進行了有效指令遵循的微調。RLHF 利用人工標註的數據根據用戶偏好細化語言模型,自 ChatGPT 發布以來越來越受歡迎。拒絕採樣則生成多個訓練樣本,挑選最佳結果以更新模型,這一技術同樣由 Llama-2 團隊使用。
技術優化
Apple 實施了多種技術以提高模型性能,同時保持資源效率。該基礎模型採用了 Google 研究開發的“分組查詢注意力” (GQA),以在記憶體和計算影響最小的情況下加快推理速度。此外,模型運用了“佈景色彩化”技術,即使用查詢表壓縮權重,以及量化技術以減少每個參數的位數。
這些模型針對搭載 M1 及更新晶片的設備以及配備 A17 Pro 晶片的 iPhone 15 Pro 和 Pro Max 進行了優化,顯示出針對 Apple 晶片的優化技術,例如去年推出的快閃大型語言模型 (LLM)。
性能指標
在 iPhone 15 Pro 上的報告顯示,每次提示標記的首次令牌延遲約為 0.6 毫秒,生成速率為每秒 30 個標記。例如,提交一個 1000 標記的提示將在 0.6 秒內獲得回應,隨後以每秒 30 個的速率生成標記,顯示出令人印象深刻的性能。
透過低秩適配進行定制
為了提升功能而不重複模型,Apple 工程師使用低秩適配 (LoRA) 適配器開發了經調整的版本。LoRA 針對特定任務更新少量權重,而每個適配器均在 100MB 以下,允許設備儲存多個選項以應用於校對、摘要和電子郵件回覆等功能。
性能評估
根據 Apple 的評估,其模型在通常情況下超越同類大小甚至更大型的模型,包括 Gemma-2B、Mistral-7B 和 Phi-3B-Mini。
總結而言,Apple 的裝置內 AI 展現了將緊湊模型與有效優化技術、優質數據及強大硬體結合的潛力。該公司在準確性與用戶體驗之間取得了顯著進展。隨著這項技術於今秋向消費者推出,未來的表現將令人期待。