Cloudflare正在通过与Hugging Face的集成来提升其平台,允许更多开发人员整合AI应用程序。同时,Cloudflare的无 Serverless GPU 推动的推理解决方案 Workers AI 也已广泛推出。
七个月前首次宣布的Cloudflare-Hugging Face集成,简化了在Workers AI上部署模型的过程。开发人员只需一键即可快速分发他们的模型。目前,Cloudflare支持包括文本生成、嵌入和句子相似度在内的14个精选Hugging Face模型。
Cloudflare首席执行官马修·普林斯(Matthew Prince)表示:“最近生成性AI的迅速增长促使各行业的公司进行大规模投资。虽然演示相对简单,但将AI转化为生产环境的过程却非常复杂。我们希望通过降低AI应用开发的成本和复杂性来解决这一问题。”
他继续说道:“Workers AI作为一个经济实惠且易于访问的推理解决方案脱颖而出。与Hugging Face的合作,体现了我们共同推动AI民主化的愿景,使开发人员能够快速选择模型,全球范围内无缝扩展其AI应用。”
通过Hugging Face,开发人员可以选择他们喜欢的开源模型,选择“部署到Cloudflare Workers AI”,并立即分发。这确保了在最佳位置的实时交付,消除延迟,提升用户体验。
Hugging Face联合创始人兼首席技术官朱利安·肖蒙(Julien Chaumond)表示:“为Hugging Face社区提供受欢迎的开源模型的无服务器API,并由全球GPU网络支持,这是改变游戏规则的做法。”
借助Workers AI,开发人员可以利用遍布全球150多个城市的GPU,包括开普敦、德班、约翰内斯堡、拉各斯、安曼、布宜诺斯艾利斯、墨西哥城、孟买、新德里和首尔。此外,Cloudflare正在增强对微调模型权重的AI支持,使开发人员能够创建和部署专业化的领域特定应用。