安培计算扩展CPU系列,专注于AI效率
安培计算公司宣布,其AmpereOne芯片系列将在明年扩展至256核心。同时,该公司还与高通合作,开发云端AI加速器。
根据首席产品官杰夫·维蒂奇(Jeff Wittich)的介绍,新型中央处理器(CPU)将提供比当前市场上任何其他CPU高出40%的性能。
与高通的合作
总部位于加利福尼亚州圣克拉拉的安培计算,将与高通科技合作,利用高通高性能、低功耗的Cloud AI 100推理解决方案,结合安培CPU,创建AI推理的解决方案。
安培首席执行官蕾妮·詹姆斯(Renee James)强调了AI进展所带来的能源挑战。她表示:“六年前我们便开始了这项工作,因为我们认识到其重要性。低功耗不再意味着低性能。安培重新定义了计算效率的边界,在高效框架内提供卓越性能。”
解决数据中心能效问题
数据中心的能源消耗日益成为关注焦点。詹姆斯指出,AI的快速普及加剧了行业的能源挑战。她指出:“目前的趋势不可持续。未来的数据中心基础设施必须对现有的空气冷却系统进行升级,同时建设与电网供电相兼容的环保新设施。”
维蒂奇补充道,新的CPU开发需求源于数据中心中日益增加的电力消耗,尤其是由于AI的影响。他表示:“我们必须开发提高通用计算和AI效率的解决方案。”
安培的AI计算愿景
安培正在推动一种名为“AI计算”的综合方法,涵盖云原生功能和AI能力。维蒂奇解释道:“我们的CPU可以支持从流行的云原生应用到AI的广泛工作负载,将AI集成到传统应用中,例如数据处理和媒体传输。”
未来计划
安培为其数据中心CPU制定了雄心勃勃的路线图。即将推出的关键开发包括使用TSMC N3技术制造的12通道256核心CPU。之前宣布的192核心CPU已进入生产,并在市场上可用。
安培与高通的合作旨在提升他们的联合解决方案,结合安培CPU与高通Cloud AI 100 Ultra,针对生成式AI中的大语言模型(LLM)推理。
维蒂奇将这次合作描述为致力于创建针对AI应用优化的高效CPU。“该解决方案将简化客户的采用过程,并为AI推理提供创新能力,”他强调道。
性能提升
随着12通道平台扩展至新款256核心AmpereOne CPU,用户可以期待显著的性能提升,而无需复杂的设计。现有的192核心型号预计将在今年晚些时候推出,展示了从八通道到十二通道内存的演变。
值得注意的是,安培的CPU技术已被Meta的Llama 3在Oracle Cloud上使用。Llama 3在不配备GPU的情况下,运行在128核心的Ampere Altra CPU上,与Nvidia A10 GPU和x86 CPU组合相比,功耗仅为其三分之一。
UCIe工作组与竞争优势
最近,安培成立了一个UCIe工作组,作为AI平台联盟的一部分,以增强其CPU的灵活性,并允许未来设计中集成客户的知识产权。
安培与AMD直接竞争,突出其性能优势。AmpereOne CPUs在每瓦性能上领先,超越AMD的Genoa 50%和Bergamo 15%。对于希望升级基础设施的数据中心,AmpereOne可以提供每机架34%的性能提升。
新的AmpereOne OEM和ODM平台将在未来几个月发货。此外,安培还与NETINT合作,开发基于其Quadra T1U视频处理芯片的解决方案,支持360个直播频道的同时转码和40个频道的实时字幕,利用OpenAI的Whisper模型。
安培的目标是成为AI时代计算的基石。近期的增强功能,包括内存标记、QOS执行和网状拥塞管理, culminate in the introduction of the FlexSKU feature, allowing customers to leverage the same SKU for both scale-out and scale-up use cases.
通过与Oracle的合作,安培成功地将运营成本降低了28%,同时仅使用竞争对手Nvidia解决方案三分之一的电力。这种做法使用户能够减少15%的服务器、33%的机架空间和35%的电力消耗,符合安培对AI计算效率和性能的承诺。