从谷歌到IBM:科技巨头如何利用Nvidia最新硬件与软件解决方案

英伟达在正在进行的圣荷西GTC大会上取得了重大进展。首席执行官黄仁勋身穿黑色皮夹克,在主题演讲中吸引了如同音乐会般的观众。他推出了备受期待的GB200 Grace Blackwell超级芯片,承诺为大型语言模型(LLM)推理工作负载提供高达30倍的性能提升。黄仁勋还强调了在汽车、机器人、Omniverse和医疗领域的最新进展,引发了广泛关注。

您准备好迎接人工智能代理了吗?

没有展示行业合作关系的GTC活动是不完整的。英伟达宣布正在加强与主要科技公司的合作,集成其新的AI计算基础设施、软件和服务。以下是关键合作伙伴关系的总结:

AWS

英伟达宣布AWS将提供其新的Blackwell平台,包含72个Blackwell GPU和36个Grace CPU的GB200 NVL72实例。这一集成将使客户能够高效地构建和运行多万亿参数的LLM实时推理,比早期的英伟达GPU在规模和成本上都更具优势。此外,双方将把20,736个GB200超级芯片引入由AWS独家开发的AI超级计算机Project Ceiba,并将Amazon SageMaker与英伟达NIM推理微服务进行集成。

谷歌云

紧随其后,谷歌云将把英伟达的Grace Blackwell平台和NIM微服务整合到其云基础设施中。公司还宣布支持JAX,这是一个用于高性能LLM训练的Python原生框架,能够在英伟达H100 GPU上便捷部署Nvidia NeMo框架,并通过谷歌Kubernetes Engine(GKE)和谷歌云HPC工具包实现。此外,Vertex AI将支持由NVIDIA H100 GPU和G2 VMs驱动的Google Cloud A3 VMs。

微软

微软确认计划将在Azure中添加NIM微服务和Grace Blackwell,同时引入新的Quantum-X800 InfiniBand网络平台。此外,该公司正在将DGX云与Microsoft Fabric进行集成,以简化自定义AI模型开发,并将在Azure Power平台上提供新推出的Omniverse Cloud API。在医疗领域,Azure将利用英伟达的Clara微服务套件和DGX云支持临床研究和护理服务的快速创新。

甲骨文(Oracle)

甲骨文计划在OCI超级集群和OCI计算实例中利用Grace Blackwell计算平台,采用英伟达的GB200超级芯片和B200张量核心GPU。他们还宣布,英伟达NIM和CUDA-X微服务,包括用于RAG推理部署的NeMo Retriever,将提升OCI客户生成AI应用的洞察力和准确性。

SAP

SAP与英伟达合作,将生成AI嵌入其云解决方案中,包括SAP Datasphere、SAP商业技术平台和与SAP的RISE。该公司还利用英伟达的生成AI创作服务,在SAP BTP中开发额外的生成AI能力,涵盖DGX云AI超级计算和英伟达AI企业软件。

IBM

IBM咨询计划将其技术和行业专长与英伟达的AI企业软件堆栈相结合,包括新创建的NIM微服务和Omniverse技术。这项合作旨在加速客户的AI工作流程,提升用例优化,并促进基于行业的AI解决方案开发,包括供应链和制造业的数字孪生应用。

Snowflake

Snowflake扩展了与英伟达的合作,整合了NeMo Retriever,这是一个连接自定义LLM与企业数据的生成AI微服务。这一增强将提升使用Snowflake Cortex开发的聊天机器人应用的性能和可扩展性。此外,合作还包括低延迟的Nvidia TensorRT软件,用于深度学习推理应用。

除了Snowflake,其他数据平台提供商,包括Box、Dataloop、Cloudera、Cohesity、Datastax和NetApp,也承诺使用英伟达微服务,特别是新的NIM技术,以优化RAG管道并将专有数据集成到生成AI应用中。

英伟达GTC 2024将于3月18日至3月21日在圣荷西及在线举行。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles