解锁生成式人工智能的投资回报:成功的策略
生成式人工智能(AI)为各行业提供了显著的投资回报(ROI)潜力,估计每年可达2.6万亿至4.4万亿美元。然而,这项技术需要大量的计算资源和基础设施。请加入NVIDIA和Supermicro的专家,了解如何识别关键的应用场景,并建立一个适合AI的成功平台。
生成式AI在商业运营中的应用不仅具有重要意义,更是资源密集型的,要求比以往技术更多的计算、网络和存储资源。有效的数据访问、定制预训练模型以及大规模运行这些模型都需要一个全面的AI硬件和软件生态系统,以及专业的技术支持。
行业专家的见解
NVIDIA的高级产品营销经理安东尼·拉里贾尼(Anthony Larijani)和Supermicro的高级产品营销经理近藤祐介(Yusuke Kondo),在OctoML联合创始人兼首席执行官路易斯·塞泽(Luis Ceze)的主持下,讨论了如何利用生成式AI的策略。他们探讨了关键的基础设施决策、工作负载和优化AI策略的方法。
基础设施与工作负载对齐
将基础设施与组织需求对齐至关重要。拉里贾尼提到,首要步骤是设想最终目标。“要了解基础设施将支持哪些工作负载。大型基础模型与实时应用的计算要求有显著区别。”
在评估工作负载时,应考虑可扩展性。评估应用需求,无论是批处理还是实时交互(如聊天机器人)。
云解决方案与本地部署
生成式AI应用通常需要扩展,因而引发云与本地部署解决方案的讨论。近藤强调,这取决于具体的应用场景和所需的规模。云服务提供更大的灵活性,但本地解决方案则需要前瞻性规划和大量初期投资。
“评估项目的潜在规模。使用GPU云计算是否比自行构建基础设施更具成本效益?”他指出,云计算成本在下降,而计算能力在增加。
开源与专有模型
企业内对定制化、专业模型的需求日益增长。拉里贾尼表示,检索增强生成(retrieval-augmented generation)等技术使企业能够高效利用专有数据,从而影响基础设施的选择。定制模型有助于降低培训成本和时间。
“根据特定需求微调基础模型,提高了成本效率和GPU的利用率,”近藤补充道。
通过全面的软件堆栈最大化硬件使用
优化硬件也涉及复杂的软件堆栈。近藤提到:“大规模基础设施复杂,需要与NVIDIA专家从设计阶段开始紧密合作,以确保兼容性。”
构建完整的AI软件堆栈资源需求很高,这就是为什么NVIDIA已经转型为全栈计算公司。NVIDIA AI Enterprise平台中的Nemo框架帮助企业在广泛的基础设施上构建、定制和优化生成式AI模型的部署。
应对大型语言模型(LLM)的复杂性
随着大型语言模型(LLM)的发展,它们对能源的需求也在增加。近藤指出,“GPU的功率需求正在迅速上升,”这促使冷却解决方案的创新以优化能源效率。此外,拉里贾尼提到,新兴的软件开发技术提升了部署效率,同时保持成本效益和可持续性。
“对优化系统的需求在不断上升,无论企业规模如何,新的AI应用场景也在不断涌现,”他说,这进一步强调了持续优化软件的必要性。