GPU在AI革命中的角色
圖形處理單元(GPUs)在AI革命中處於前沿,驅動著支持聊天機器人及各種AI應用的大型語言模型(LLMs)。隨著這些晶片價格波動,企業必須學會應對這一關鍵技術的變動成本。
理解成本波動性
例如,採礦等行業有應對成本波動的經驗,通過平衡能源來源以獲得最佳可用性和定價。類似地,物流公司也在調整,因為主要運輸通道的近期混亂導致了運輸成本的劇烈變化。然而,如金融服務和製藥等行業則會面臨挑戰,因為它們較少經歷成本波動的管理,將需要快速適應。這些領域在AI進步中將獲得顯著利益,因此需迅速學習。
英偉達的主導地位
英偉達仍然是GPU的主要供應商,今年因需求增加而市值飆升。這些晶片因能夠同時處理大量計算而受到青睞,對於訓練和部署LLMs至關重要。值得注意的是,一些公司甚至安排裝甲車運送英偉達高需求的H100晶片,顯示其重要性。
GPU成本波動的驅動因素
預計GPU的需求將呈指數增長,投資公司估計,在未來五年內市場可能超過4000億美元,隨著企業急於實現新的AI應用。然而,供應受製造能力和地緣政治緊張等不可預測因素的影響,特別是在對GPU生產至關重要的台灣等地區。當前的供應短缺導致英偉達H100晶片的等待時間延長,使企業不得不適應這一新現實並有效管理變動成本。
管理GPU成本的策略
為了減輕成本波動,企業可以選擇自行管理GPU伺服器,而不是依賴雲供應商的租賃服務。儘管這種方法會產生額外的運營成本,但能讓企業更好地控制並隨時間節省成本。企業也可能考慮防禦性地購買GPU,以確保未來需求的可及性,即使其具體應用還不確定。
並非所有GPU都相同;企業應根據具體需求選擇合適的GPU類型。高效能的GPU對於訓練大型基礎模型,如OpenAI的GPT至關重要,而大多數企業可以受益於用於高效率推斷任務的低效能GPU。此外,地理位置在管理成本中扮演重要角色,像挪威這樣電力充沛且便宜的地區,能顯著降低運營成本,相較於電價較高的美國東部地區。CIO應該評估AI應用中的成本與質量平衡,對於需要較低精度的專案,或許可以使用較少的計算能力。
通過靈活性優化成本
企業可以通過在不同的雲供應商和AI模型之間切換進一步降低成本,類似於物流公司優化運輸方式。提升LLM操作效率的技術將有助於成本管理。
需求預測的挑戰
AI技術的快速演變增加了GPU需求預測的難度。新興的LLM架構,例如Mistral的“專家混合”設計,可以根據特定任務只激活必要的模型部分,以節省晶片使用。同時,創新的應用程序不斷演變,使大多數公司準確預測需求變得更加困難。
為未來成本做好準備
AI領域正在擴展,預計相關行業的年收入增長將達19%,到2026年達到9000億美元。雖然這一趨勢為英偉達等生產商帶來機遇,但也要求企業採納新的成本管理策略。組織應該從今天開始為這一變化做好準備。