惠普企业公司(HPE)在其人工智能(AI)战略方面取得了重大进展,今天在2023年惠普发现巴塞罗那活动中发布了一系列新动态。
其中一个重要更新是与英伟达(Nvidia)的合作伙伴关系扩展,专注于硬件和软件的整合,以优化企业工作负载下的AI应用。HPE的机器学习开发环境(MLDE)自2022年推出以来,增加了新功能,旨在简化AI模型的使用、定制和创建。此外,HPE还将在AWS和Google Cloud上推出MLDE作为托管服务,同时为HPE GreenLake引入新的AI优化实例,并提升AI任务的文件存储性能。
这些最新改进与HPE的全面AI原生架构愿景相一致,涵盖从硬件到软件的优化。现代企业的AI工作负载计算需求极高,主要依赖数据输入,并需要大规模处理能力。
HPE人工智能解决方案与超级计算云副总裁Evan Sparks强调,AI需要一种根本不同的架构,他指出,“这种工作负载与过去几十年主导计算的传统事务处理和网络服务工作负载截然不同。”
赋能企业生成式AI工作流
HPE MLDE的增强旨在简化AI工作负载的整合。Sparks强调,新功能将使客户能够轻松采用生成式AI工作流,提供快速工程、检索增强生成(RAG)和微调预训练模型的工具,旨在缩短尖端研究与用户实际应用之间的距离。
此外,HPE Ezmeral统一分析软件套件将通过与MLDE的深度集成,获得模型训练和优化的提升。Sparks指出,“我们的目标是加速希望部署AI解决方案的组织实现价值的时间。”
数据驱动的企业AI
为了有效利用AI,企业必须利用自身数据进行模型训练和洞察。这需要支持速度和规模的最佳数据存储。
HPE GreenLake文件存储服务的改进满足了这些需求,提供了更高的性能、密度和吞吐量。HPE存储高级副总裁Patrick Osborne表示,“我们宣布容量扩大1.8倍,计划在第二季度支持高达250PB的数据。”这一显著提升满足了开发大型语言模型的组织日益增长的需求。
加强与英伟达的合作关系
HPE还扩展了与英伟达的合作,包括新集成硬件解决方案。此次合作最初在6月宣布,旨在使用英伟达GPU优化HPE硬件系统的AI推理,并扩展至训练工作负载。
HPE计算部门执行副总裁Neil MacDonald解释说,大多数组织不会自己创建基础模型,而是会部署已有模型以转型业务流程。他指出,构建和部署所需的基础设施以进行微调和试验是一大挑战。
在此次合作关系扩展中,HPE推出了专为AI设计的系统,包括集成了英伟达L40S GPU、英伟达BlueField-3 DPU和英伟达Spectrum-X技术的HPE ProLiant Compute DL380a。HPE MLDE和Ezmeral软件也将针对英伟达GPU进行优化,同时与英伟达AI企业和NeMo框架展开合作。
MacDonald总结道:“企业必须转型为AI驱动型,否则将面临被淘汰的风险。”