英伟达在正在进行的圣荷西GTC大会上取得了重大进展。首席执行官黄仁勋身穿黑色皮夹克,在主题演讲中吸引了如同音乐会般的观众。他推出了备受期待的GB200 Grace Blackwell超级芯片,承诺为大型语言模型(LLM)推理工作负载提供高达30倍的性能提升。黄仁勋还强调了在汽车、机器人、Omniverse和医疗领域的最新进展,引发了广泛关注。
您准备好迎接人工智能代理了吗?
没有展示行业合作关系的GTC活动是不完整的。英伟达宣布正在加强与主要科技公司的合作,集成其新的AI计算基础设施、软件和服务。以下是关键合作伙伴关系的总结:
AWS
英伟达宣布AWS将提供其新的Blackwell平台,包含72个Blackwell GPU和36个Grace CPU的GB200 NVL72实例。这一集成将使客户能够高效地构建和运行多万亿参数的LLM实时推理,比早期的英伟达GPU在规模和成本上都更具优势。此外,双方将把20,736个GB200超级芯片引入由AWS独家开发的AI超级计算机Project Ceiba,并将Amazon SageMaker与英伟达NIM推理微服务进行集成。
谷歌云
紧随其后,谷歌云将把英伟达的Grace Blackwell平台和NIM微服务整合到其云基础设施中。公司还宣布支持JAX,这是一个用于高性能LLM训练的Python原生框架,能够在英伟达H100 GPU上便捷部署Nvidia NeMo框架,并通过谷歌Kubernetes Engine(GKE)和谷歌云HPC工具包实现。此外,Vertex AI将支持由NVIDIA H100 GPU和G2 VMs驱动的Google Cloud A3 VMs。
微软
微软确认计划将在Azure中添加NIM微服务和Grace Blackwell,同时引入新的Quantum-X800 InfiniBand网络平台。此外,该公司正在将DGX云与Microsoft Fabric进行集成,以简化自定义AI模型开发,并将在Azure Power平台上提供新推出的Omniverse Cloud API。在医疗领域,Azure将利用英伟达的Clara微服务套件和DGX云支持临床研究和护理服务的快速创新。
甲骨文(Oracle)
甲骨文计划在OCI超级集群和OCI计算实例中利用Grace Blackwell计算平台,采用英伟达的GB200超级芯片和B200张量核心GPU。他们还宣布,英伟达NIM和CUDA-X微服务,包括用于RAG推理部署的NeMo Retriever,将提升OCI客户生成AI应用的洞察力和准确性。
SAP
SAP与英伟达合作,将生成AI嵌入其云解决方案中,包括SAP Datasphere、SAP商业技术平台和与SAP的RISE。该公司还利用英伟达的生成AI创作服务,在SAP BTP中开发额外的生成AI能力,涵盖DGX云AI超级计算和英伟达AI企业软件。
IBM
IBM咨询计划将其技术和行业专长与英伟达的AI企业软件堆栈相结合,包括新创建的NIM微服务和Omniverse技术。这项合作旨在加速客户的AI工作流程,提升用例优化,并促进基于行业的AI解决方案开发,包括供应链和制造业的数字孪生应用。
Snowflake
Snowflake扩展了与英伟达的合作,整合了NeMo Retriever,这是一个连接自定义LLM与企业数据的生成AI微服务。这一增强将提升使用Snowflake Cortex开发的聊天机器人应用的性能和可扩展性。此外,合作还包括低延迟的Nvidia TensorRT软件,用于深度学习推理应用。
除了Snowflake,其他数据平台提供商,包括Box、Dataloop、Cloudera、Cohesity、Datastax和NetApp,也承诺使用英伟达微服务,特别是新的NIM技术,以优化RAG管道并将专有数据集成到生成AI应用中。
英伟达GTC 2024将于3月18日至3月21日在圣荷西及在线举行。