隨著企業競相利用人工智慧(AI),一個顯著挑戰依然存在:快速地在大規模上開發和部署AI應用程序。RunPod,一家提供全球分布式GPU雲端平台以支援AI開發與部署的初創公司,最近從Dell Technologies Capital和Intel Capital籌集了2000萬美元的種子資金,旨在直接應對這一問題。
專門打造的AI雲端平台的興起
RunPod的成長反映了一個更廣泛的趨勢:專為AI量身定制的雲端服務崛起。隨著AI成為企業運營的重要組成部分,一般雲端基礎設施的局限性愈加明顯。延遲問題、擴展靈活性不足,以及缺乏針對AI的專用工具,使得AI應用的部署受到阻礙。這一缺口促成了優化的AI雲端平台的出現,這些平台提供了優越的計算資源、靈活性和友好的開發環境,適合要求嚴格的AI工作負載。RunPod的資金進入正值投資專注於AI雲端領域的浪潮中。隨著對GPU加速基礎設施需求的增加,許多初創企業獲得了巨額資金支持。例如,來自新澤西的CoreWeave獲得了11億美元的資金,估值達到190億美元,而位於舊金山的Together Computer則計劃在超過10億美元估值的情況下籌集超過1億美元。Lambda Inc.最近也宣布為其AI優化雲端平台籌集3.2億美元,估值為15億美元。這些重大的投資突顯了對專用AI基礎設施的需求上升以及RunPod所面臨的競爭格局。
聚焦開發者需求
RunPod已經超越了10萬名開發者,通過將用戶體驗和快速迭代作為釋放AI商業價值的關鍵要素。RunPod的聯合創始人及CEO盧震表示:「如果開發者對我們的服務感到滿意並且擁有良好的工具,這是最重要的。許多公司忽視了這一點,他們以為簡單堆疊GPU就能吸引開發者。真正的價值在於促進快速迭代。」
這種對開發者體驗的承諾驅動了廣泛的採用,從最初支持獨立開發者的基層努力開始,再吸引到專業用戶和中小企業。RunPod現在致力於向企業市場擴展,通過靈活的計算實例和無伺服器功能提供Nvidia GPU的訪問權限。盧震回憶:「兩年前,我們開始支持需要經濟實惠GPU資源的黑客和開發者。最初,我們將產品陳列在Reddit上,提供免費訪問給那些無法負擔計算資源的用戶。隨著時間推移,我們吸引了包括初創企業和成熟企業在內的多樣化客戶。」
RunPod面臨的重要挑戰之一是企業需要部署可控和可迭代的自定義模型。許多企業開發者依賴於無法滿足其特定需求的通用API模型。盧震表示:「許多供應商簡化了不合格解決方案的部署,同時使客戶真正想要的過程變得複雜。我們的客戶尋求更多的控制和定制。」
RunPod展示了其以開發者為中心的方法所帶來的成功案例。語音生成初創企業LOVO AI讚揚RunPod的用戶友好存儲和開發者體驗,而創建自我優化數位介面的Coframe則強調了如何在一周內輕鬆部署自定義模型於無伺服器GPU上。
克服Kubernetes的局限性
為了促進大規模定制,RunPod選擇開發自己的協調層,而不依賴Kubernetes。初步架構測試顯示,Kubernetes設計於傳統工作負載,對AI任務而言速度過慢。盧震強調:「許多用戶僅需最終結果,而不想深入Kubernetes的複雜性。雖然Kubernetes對專家來說可用,但對於需要快速價值的用戶來說,它可能會造成挫折。」
RunPod的建立專有協調層的策略源於認識到Kubernetes無法應對AI工作負載的獨特需求。盧震指出:「AI/機器學習工作負載與傳統應用根本不同。它們需要專用資源、快速調度和靈活擴展,而Kubernetes無法滿足我們客戶的快速需求。」
這種能力對於需要快速部署和迭代自定義AI模型的企業至關重要。Kubernetes的複雜性可能會抑制開發周期和實驗,從而阻礙AI的採用。盧震表示:「許多管理AI平台對初學者有用,但對於進階部署可能會造成限制。RunPod提供企業所需的基礎設施,讓他們以不妥協速度或可用性的方式構建和擴展AI。」
為未來增長擴展
隨著新一輪資金的到位,RunPod計劃擴大其工作團隊,以滿足日益增長的企業需求,並增強對CPU的支持以及GPU的功能。該公司報告表示,過去一年其收入和人員數量均增長了十倍。
憑藉穩固的市場表現和投資支持,RunPod的未來充滿希望。然而,在這個競爭激烈的市場中,持續專注於開發者需求將是關鍵。盧震總結道:「開發者正在尋找量身定制的解決方案,他們需要能促進入門並賦能他們完善和優化結果的工具。這就是我們追求的願景。」