HPE 發表下一代 AI 原生架構的創新願景

惠普企業(HPE)正在顯著推進其人工智慧(AI)計畫,在2023年HPE Discover Barcelona活動中揭示了一系列增強功能。

此次更新的一個重要亮點是與Nvidia的擴展合作,專注於硬體和軟體的整合,以優化企業工作負載下的AI。HPE的機器學習開發環境(MLDE),首次於2022年推出,已升級新功能,以促進AI模型的使用、自訂和創建。此外,HPE還在AWS和Google Cloud上以託管服務形式推出了MLDE,同時在HPE GreenLake增強其雲端能力,引入針對AI任務的新AI優化實例和改進的文件儲存性能。

這些最新改進符合HPE對全面AI原生架構的願景,從硬體到軟體進行優化。現代企業的AI工作負載計算密集型,需依賴數據作為主要輸入,並要求具備大規模處理能力。

HPE AI解決方案與超級計算雲的副總裁暨總經理Evan Sparks強調,AI需要根本不同的架構,他表示:「這些工作負載本質上與過去幾十年主導計算的經典交易處理和網路服務工作負載根本不同。」

為企業賦能生成式AI工作流程

對HPE MLDE的增強旨在簡化AI工作負載與企業運營的整合。Sparks強調,這些新功能將使客戶能夠採用生成式AI工作流程,提供提示工程、檢索增強生成(RAG)及微調預訓練模型的工具,旨在彌合尖端研究與實際應用之間的差距。此外,HPE Ezmeral統一分析軟體套件也將通過與MLDE的深度整合受益於模型訓練和優化。Sparks指出:「我們的目標是加速尋求部署AI解決方案組織的價值實現。」

數據驅動的企業AI

要有效運用AI,企業必須利用自身數據進行模型訓練和洞見,這需要支持AI所需速度和規模的最佳數據儲存。HPE GreenLake的文件儲存服務升級滿足了這些需求,提升了性能、密度和吞吐量。HPE儲存部門的資深副總裁暨總經理Patrick Osborne表示:「我們宣佈擴大1.8倍的容量,計畫在第二季度支援高達250 petabytes的數據。」這一大幅增長將滿足開發大型語言模型的組織需求,HPE也指出這一需求日益普遍。

深化與Nvidia的合作

HPE還擴大與Nvidia的合作,包括新集成的硬體解決方案。這一合作最初於六月宣布,旨在優化HPE硬體系統在使用Nvidia GPU進行AI推斷時的效能,目前已擴展到訓練工作負載。HPE計算部門的執行副總裁暨總經理Neil MacDonald解釋,絕大多數組織不會自行創建基礎模型,而是利用現有模型來轉型業務流程。他指出,建立及部署所需基礎設施以進行微調和實驗是面臨的挑戰。

作為此合作擴展的一部分,HPE推出了專為AI設計的系統,包括集成Nvidia L40S GPU、Nvidia BlueField-3 DPU和Nvidia Spectrum-X技術的HPE ProLiant Compute DL380a。HPE MLDE和Ezmeral軟體也將進行針對Nvidia GPU的優化,並將與Nvidia AI Enterprise及NeMo框架展開合作。

MacDonald總結道:「企業必須演變為以AI為動力,否則將面臨過時的風險。」

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles