如今,幾乎每家企業都在探索大型語言模型(LLMs)和生成式人工智慧對其業務運營的好處。然而,許多顧慮依然存在,這些問題回蕩著雲端運算和大數據分析的早期日子:他們該如何開始實施?如何保護敏感的專有資訊?又該如何管理資源密集的微調過程?
今天,Dell 和 Hugging Face 正攜手應對這些挑戰,簡化定製 LLM 的內部部署,以便企業能夠最大化利用這一不斷發展的技術。Dell AI 策略的高級副總裁 Matt Baker 在最近的新聞發布會上強調了生成式 AI 的變革影響,他表示:“如今無法談論生成式 AI 或人工智慧。”他也承認這項技術的複雜性讓人畏懼。
Dell 和 Hugging Face 的合作
透過此次合作,Dell 和 Hugging Face 將在 Hugging Face 平台上推出專屬入口,提供定製容器、腳本及技術文檔,以在 Dell 伺服器和儲存系統上部署開源模型。此服務初步僅限於 Dell PowerEdge 伺服器,並將透過 APEX 控制台提供,未來會擴展至 Precision 運算工作站等其他 Dell 工具。該入口將定期更新優化模型容器,以支持最新的生成式 AI 應用案例。Hugging Face 產品負責人 Jeff Boudier 表示:“掌控你的 AI 命運的唯一方法是成為建構者,而不僅僅是使用者。這只能通過開源實現。”
這一聯盟是 Dell 鞏固生成式 AI 領導地位的持續承諾的一部分,近期推出的 ObjectScale XF960 便是為 AI 和分析工作流專門設計的 ObjectScale 工具系列中的新成員。Baker 幽默地評論道:“我試著避免玩笑 Dell 和 Hugging Face 在‘擁抱’用戶,但是這正是我們在做的。”
採納生成式 AI 的挑戰
Baker指出,企業採用生成式 AI 面臨的幾個障礙,包括複雜性、價值實現時間、供應商可靠性、投資回報率及成本管理。與大數據早期的挑戰類似,許多企業在保護其知識產權的同時,努力將項目從概念驗證推進至生產階段。Boudier 指出:“許多企業受到需要回應生成式 AI 趨勢的壓力,同時也要保護其獨特資料,”他強調像 GitHub Copilot 等流行工具帶來的代碼暴露風險。Dell 的研究顯示,83% 的企業偏好內部或混合實施,以增強對其知識產權的安全防護。Baker 指出:“內部部署對於處理最有價值的資產至關重要。”
針對性能和準確性精選的模型
Dell-Hugging Face 入口將提供針對性能、準確性和應用案例優化的精選模型。組織將能夠選擇所需模型和 Dell 配置,以便在其基礎設施中輕鬆部署。Baker 說:“想像一下,一個專為你的平台微調的 LLama 2 模型,隨時可用。”他指出,潛在的應用包括市場內容生成、聊天機器人和軟件開發。
Baker 旨在為用戶消除複雜性,將其描述為“簡易按鈕”,以便從 Hugging Face 部署所需的能力。這一倡議與許多其他方案的不同之處在於,Dell 能夠校準各種配置,迅速部署最佳模型設置,而不需與公共模型共享數據。“你的數據仍然屬於你,”Baker 強調,補充道:“一旦微調,該模型便是你自己的。”
AI 的垂直化
微調模型以達到最佳性能可能需要耗時。許多正在研究生成式 AI 的企業,如今已經在標準 LLM 之上使用檢索增強生成(RAG)技術,這種技術通過整合外部知識來源來提供必要的上下文,以增強生成任務。Baker 解釋道:“RAG 讓用戶能夠生成精確的指令,而無需從頭開始構建新模型。”
為了進一步簡化微調過程,Dell 計劃推出利用參數高效方法(如 LoRA 和 QLoRA)的容器化工具。隨著企業越來越專注於自身特定領域,Baker 指出:“所有企業本質上將成為利用其特定數據的垂直實體。”這一趨勢不僅標誌著領域特定模型的出現;更在於將專有數據與模型結合,以實現量身定制的生成成果。