几乎所有企业都在探索大型语言模型(LLM)和生成性人工智能在业务运营中的好处。然而,许多顾虑依然存在,类似于云计算和大数据分析的早期阶段:如何开始实施?如何保护敏感的专有信息?以及如何管理资源密集型的微调过程?
您准备好迎接人工智能代理了吗?
今天,戴尔与Hugging Face携手合作,致力于解决这些挑战,简化定制LLM的本地部署,让企业能够最大限度地利用这一不断发展的技术。戴尔人工智能战略高级副总裁Matt Baker在最近的新闻发布会上强调了生成性人工智能的变革性影响,他表示:“没有人可以避免讨论生成性人工智能。” 他也承认,这项技术的复杂性令人生畏。
戴尔与Hugging Face的合作
通过此次合作,戴尔和Hugging Face将在Hugging Face平台上推出专门的门户,提供定制的容器、脚本和技术文档,以便在戴尔服务器和存储系统上部署开源模型。该服务最初将通过APEX控制台对戴尔PowerEdge服务器开放,最终将扩展到Precision和其他戴尔工作站工具。门户将定期更新,以提供优化的模型容器,支持最新的生成性人工智能应用场景。
Hugging Face的产品主管Jeff Boudier指出:“掌控您的人工智能命运的唯一方法是成为建设者,而不仅仅是用户。这只能通过开源实现。” 这次合作是戴尔致力于成为生成性人工智能领导者的持续承诺的一部分,最近增加的ObjectScale XF960就是专为AI和分析工作流程设计的ObjectScale工具系列的一部分。
Baker幽默地评论道:“我正努力避免关于戴尔和Hugging Face‘拥抱’从业者的双关,但这正是我们所做的。”
采用生成性人工智能的挑战
Baker指出,企业在采用生成性人工智能时面临多重障碍,包括复杂性、价值实现的时间、供应商可靠性、投资回报率和成本管理。与早期大数据面临的挑战类似,公司在保证知识产权的同时,往往难以将项目从概念验证转向生产。
“许多公司在面临保护独特数据压力的同时,感到被生成性人工智能趋势压倒,”Boudier指出,强调流行工具如GitHub Copilot所带来的代码暴露风险。戴尔的研究显示,83%的企业倾向于选择本地或混合实施,以增强其知识产权的安全性。Baker强调:“在处理最有价值的资产时,本地部署至关重要。”
精选模型以提升性能与准确性
戴尔与Hugging Face的门户将提供经过优化的模型精选,支持性能、准确性和应用案例的需求。组织可以选择所需的模型和戴尔配置,以便在其基础设施内轻松部署。
“想象一个专为您的平台微调的LLama 2模型,随时可用,”Baker指出,这在市场内容生成、聊天机器人和软件开发等应用场景中具有广阔的潜力。
Baker希望为用户消除复杂性,将其形容为“轻松按钮”,让用户更便捷地从Hugging Face获取所需功能。与其他众多倡议不同的是,戴尔能够在各个方面校准配置,以便快速部署最佳模型设置,并确保无数据共享于公共模型。“您的数据仍然属于您,”Baker强调,并补充道:“一旦微调完成,该模型便是您的专属。”
人工智能的垂直化趋势
对模型进行微调虽然可以提升性能,但往往耗时较长。许多试验生成性人工智能的企业现在正在与标准LLM一同使用增强检索生成(RAG)技术。此技术通过结合外部知识源来为生成任务提供必要的上下文,从而提高准确性。
Baker解释说:“RAG让用户能够生成精确的指令,而无需从零开始构建新模型。”
为了进一步简化微调过程,戴尔计划推出利用参数高效方法(如LoRA和QLoRA)的容器化工具。随着企业越来越关注其特定垂直领域,Baker指出:“所有企业基本上都会成为利用其特定数据的垂直实体。” 这一趋势不仅仅意味着领域特定的模型;而是将专有数据与模型集成,以实现个性化的生成结果。