隨著企業日益重視開發 AI 應用和代理,利用各種語言模型和資料庫以達到最佳成果的重要性愈加明顯。將一個應用從 Llama 3 切換到 Mistral 可能需要精湛的技術技巧。關鍵在於協同層,這是將基礎模型連接到應用之間的重要中介,負責管理 API 調用以高效執行任務。
這個協同層主要由如 LangChain 和 LlamaIndex 等軟體解決方案組成,旨在促進資料庫的整合。然而,一個重要問題隨之而來:這一層僅僅依賴軟體嗎,還是硬體在 AI 模型的運行中也起著重要作用?
答案明確:硬體對支持如 LangChain 的架構以及基礎的 AI 應用資料庫至關重要。企業需要強大的硬體組合,能夠處理高流量數據,同時考慮到可以在現場執行大量數據中心任務的設備。
“雖然 AI 中層主要是軟體問題,但硬體供應商可以顯著影響其性能和效率,”InterSystems 的數據平台負責人 Scott Gnau 說。AI 基礎設施專家強調,儘管軟體對於 AI 協同至關重要,其效率又依賴於伺服器和 GPU 處理大量數據流動的能力。因此,為了使協同層能夠高效運作,其基礎硬體必須具備智能和高效,專注於高帶寬、低延遲的連接,以處理重負載。
“這個協同層需要快速的晶片,”IBM Consulting 的生成式 AI 管理合夥人 Matt Candy 解釋說。“我設想未來,矽晶片和伺服器可以根據模型的類型和大小進行優化,協同層能夠動態切換任務。”
目前已有的 GPU 能夠有效支持這些需求。戴爾的全球首席技術官及首席 AI 官 John Roese 指出:“這是硬體和軟體的問題。人們常常忘記 AI 以軟體的形式出現,而這些軟體則在硬體上運行。AI 軟體是我們創造過的最具挑戰性的,必須理解性能指標和計算需求。”
儘管 AI 中層需要快速而強大的硬體,但在現有的 GPU 和晶片外並不需要新型專用設備。Gnau 指出:“毫無疑問,硬體是推動進步的重要因素,但除了 GPU,專用硬體驅動重大進展的可能性不大。優化將來自軟體和架構,並減少數據移動。”
AI 代理的出現進一步加強了對這一中層的需求。當 AI 代理彼此通信並發起多個 API 調用時,有效的協同層對於管理這些流量至關重要。Candy 表示:“這一層確保所有類型的 AI 模型和技術都能無縫訪問 API,提升整體用戶體驗。我將其稱為中介堆疊中的 AI 控制器。”
AI 代理在行業中引起熱議,未來幾年可能會影響企業 AI 基礎設施的發展。Roese 為企業提出另一個考量:在設備上的 AI。企業必須計劃 AI 代理需要本地運行的情況,特別是在失去連接的情況下。
“關鍵問題在於操作發生的地點,”Roese 建議。“這是 AI PC 等概念發揮作用的地方。當一組代理代表你協作時,它們是否都需要集中管理?”他談到戴爾正在探索本地的 “管家” 代理,以便在網絡中斷時保持操作。
生成式 AI 促成了技術堆疊的激增,新的服務提供商不斷湧現,提供 GPU 空間、數據庫和 AIOps 服務。然而,Uniphore 首席執行官 Umesh Sachdev 警告,這一擴展不一定會持久。“儘管技術堆疊激增,我相信我們將會經歷一個正常化的階段,”Sachdev 預測。“最終,組織將在內部整合資源,GPU 的需求將穩定下來。層級和供應商的激增是新技術的典型特徵,我們將會見到類似的趨勢於 AI。”
對於企業來說,最佳實踐是考慮整個 AI 生態系統——從硬體到軟體——以確保有效的 AI 工作流程。