随着企业竞争加剧争夺人工智能(AI)市场,一个重大挑战浮现:如何快速大规模开发和部署AI应用。新兴初创公司RunPod专注于为AI开发和部署提供全球分布的GPU云平台,最近获得了来自戴尔科技资本和英特尔资本的2000万美元种子资金,旨在直接解决这一问题。
专用AI云平台的崛起
RunPod的增长反映了一个更广泛的趋势:专为AI量身定制的云服务日益崛起。随着AI融入商业运营,通用云基础设施的局限性愈加明显,延迟问题、扩展灵活性不足以及缺乏专用AI工具都妨碍了AI应用的部署。这一缺口促使了优化AI云平台的涌现,这些平台提供卓越的计算资源、灵活性以及适合高要求AI工作负载的开发者友好环境。
最近,专注于AI云领域的投资显著上升,多家初创公司获得了可观的资金支持。例如,总部位于新泽西州的GPU基础设施提供商CoreWeave融资11亿美元,估值达到190亿美元;而位于旧金山的Together Computer计划融资超过1亿美元,估值超10亿美元。Lambda Inc. 最近也宣布其AI优化云平台融资3.2亿美元,估值达15亿美元。这些重要投资充分表明专用AI基础设施需求的上升以及RunPod所面临的竞争压力。
以开发者为中心
RunPod已吸引超过10万名开发者,注重用户体验和快速迭代被视为释放AI商业价值的关键因素。RunPod的联合创始人兼首席执行官卢震表示:“如果开发者满意并感到装备充足,这才是最重要的。有很多公司忽视了这点,认为堆叠GPU就能吸引开发者,真正的价值在于促进快速迭代。”
RunPod对于开发者体验的承诺促进了广泛的接受度,最初针对独立开发者的草根努力,逐步吸引了专业用户以及中小型企业。如今,RunPod正迈向企业市场,通过灵活的计算实例和无服务器功能,提供Nvidia GPU的访问。“我们两年前开始支持那些需要经济实惠GPU资源的黑客和开发者,”卢回忆道。“最初,我们在Reddit上列出我们的服务,为那些负担不起计算资源的用户提供免费访问。随着时间推移,我们吸引了多样化的客户群体,包括初创企业和成熟企业。”
RunPod所解决的一个关键挑战是,企业需要部署能够控制和迭代的自定义模型。许多企业开发者依赖通用API模型,这些模型无法满足他们的具体需求。卢表示:“许多供应商简化了不充分解决方案的部署,同时让客户真正想要的变得复杂。我们的客户寻求更大的控制和定制。”
RunPod分享了其以开发者为中心的成功案例。语音生成初创公司LOVO AI称赞RunPod提供的用户友好存储和开发者体验,而自我优化数字界面Creator Coframe则表示,在一周内便轻松在无服务器GPU上部署了自定义模型。
克服Kubernetes的局限性
为了实现大规模定制,RunPod选择开发自有的调度层,而不是依赖Kubernetes。初步架构测试显示,Kubernetes是为传统工作负载设计的,无法满足AI任务的速度要求。“许多用户只想要最终结果,而不想涉及Kubernetes的复杂性,”卢强调。“虽然Kubernetes对专家有帮助,但对于需要快速价值的用户来说却可能令人沮丧。”
RunPod构建专有调度层的策略源于对Kubernetes不适应AI工作负载独特需求的认识。卢指出:“AI/ML工作负载与传统应用从根本上不同。它们需要专用资源、快速调度和灵活扩展,而Kubernetes无法快速支持我们的客户。”
这种能力对需要快速部署和迭代自定义AI模型的企业至关重要。Kubernetes的复杂性可能会扼杀开发周期和实验,阻碍AI的广泛采用。卢表示:“许多托管AI平台对初学者有用,但会限制更高级的部署。RunPod为企业提供了建立和扩展AI所需的基础设施,而不妨碍速度或可用性。”
为未来增长铺路
凭借新获得的资金,RunPod计划扩大员工队伍,以满足日益增长的企业需求,并增强CPU支持等功能。公司报告称,在过去一年里,收入和员工人数均增长了十倍。
在稳固的市场支持和投资的助力下,RunPod展望美好未来。然而,在竞争激烈的市场中,保持对开发者需求的关注至关重要。卢总结道:“开发者正在寻找量身定制的解决方案;他们需要能简化入门流程并帮助他们优化结果的工具。这正是我们追求的愿景。”