AWS推出了一項創新的解決方案,專為需要可靠計算資源的機器學習開發者設計。全新的Amazon EC2容量區塊服務,讓用戶能夠專門預留GPU資源,進行生成AI和大型語言模型的訓練與部署。此服務類似於酒店預訂系統,客戶可根據需求指定GPU實例數量及所需時長,確保機器學習項目能夠不間斷進行,再也不受計算能力短缺的限制。
藉此新服務,企業能高效地訓練或微調模型,進行實驗,或者在災難恢復場景中按需使用服務。AWS的首席開發者倡導者Channy Yun強調:「當你需要確保容量以訓練或微調機器學習模型、進行實驗或計劃未來的需求激增時,可以使用EC2容量區塊。」
目前,該服務在AWS美國東部地區已可用於搭載Nvidia H100 Tensor Core GPU的Amazon EC2 P5實例。定價結構動態調整,受供需影響,為用戶提供了從一天到14天的GPU實例區塊購買靈活性,有時甚至可提前八週預訂。
進軍GPU租賃市場的這一舉措反映了更廣泛的趨勢,越來越多的公司希望利用對高效能計算解決方案日益增長的需求。值得注意的是,NexGen Cloud計劃推出「AI超雲」服務,讓開發者能夠租用資源進行模型訓練。此外,Hugging Face今年早些時候推出了訓練集群即服務解決方案,而美國政府也已大幅降低其Perlmutter超級計算機的租賃價格。
在AI晶片生產的競爭格局中,Nvidia持續領先。在第二季度,Nvidia出貨約900噸H100 GPU,但AMD、IBM和SambaNova等競爭對手正積極尋求在這個快速發展的市場中搶佔份額。