DataStax 利用 Nvidia 支持,助力企业摆脱 AI 开发困境

DataStax一直在扩展其数据平台,以满足企业AI开发者日益增长的需求。今天,该公司推出了DataStax AI平台,该平台是与Nvidia AI合作构建的。这一新平台将DataStax现有的数据库技术整合在一起,包括面向云的DataStax Astra和用于自我管理部署的DataStax超融合数据库(HCD)。此外,还引入了Langflow技术,简化了自主AI工作流的创建过程。Nvidia的企业AI组件增强了这一解决方案,使组织能够快速构建和部署模型,提升效率。集成内容包括NeMo Retriever、NeMo Guardrails和NIM Agent Blueprints。

根据DataStax的说法,该平台能够将AI开发时间缩短60%,并以现有解决方案的19倍速度管理AI工作负载。DataStax首席产品官Ed Anuff表示:“生产时间至关重要,因为构建这些系统可能非常耗时。许多组织往往陷入开发的困境中。”

Langflow赋能自主AI

Langflow是DataStax的可视化AI编排工具,在新AI平台中扮演了关键角色。它允许开发者通过拖放组件在画布上直观构建AI工作流。这些组件包括DataStax和Nvidia的各种功能,例如数据源、AI模型和处理步骤,从而简化复杂AI应用的创建过程。“Langflow将DataStax的所有功能和API与Nvidia的组件及微服务以可视化的形式呈现,用户可以将其互连并进行交互式运行,”Anuff解释道。

Langflow支持在DataStax平台上实现自主AI。Anuff提到,该平台支撑三种关键的自主代理类型:

- 面向任务的代理:这些代理根据用户偏好处理特定任务,例如在旅游应用中组装假期套餐。

- 自动化代理:在后台操作的这些代理通过API通信管理任务,实现无需用户直接输入的自动化工作流。

- 多代理系统:该方法将复杂任务拆分成由专门代理处理的子任务。

Nvidia与DataStax整合的企业AI优势

Nvidia的能力与DataStax的技术结合,并通过Langflow增强,为企业AI用户提供了显著的优势。Anuff表示,Nvidia的集成使用户能够通过标准化的NIM微服务架构更轻松地调用自定义语言模型和嵌入,充分利用Nvidia的硬件和软件以高效执行模型。

此外,引入的保护机制能够保障用户安全,防止不当内容和输出。Anuff强调:“保护机制是一个侧边模型,能够拦截来自用户或数据库的不安全内容。”该集成还支持模型的持续改进。Anuff提到,NeMo Curator可以帮助企业AI用户识别需要进一步微调的内容。

总的来说,这一整合加速了企业AI的采用,同时提供了一种成本效益高的解决方案。Anuff强调,这一方案并不单独依赖GPU:“Nvidia的企业技术栈可以在CPU和GPU上执行工作负载。虽然GPU通常更快,但在不那么关键的领域,将任务转移到CPU上可以节省成本。”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles