革命性晶片設計提升人工智能工作負載處理效能

革命性人工智慧晶片設計的進展:驅動機器學習的未來

近期晶片設計的突破即將徹底改變人工智慧(AI),透過更高效的方式管理生成性工作負載。Quantiphi 的全球 Nvidia 業務負責人 Siddharth Kotwal 強調,適應硬體和軟體以應對日益增加的 AI 和機器學習(ML)工作負載是至關重要的。他表示:「潛在的硬體機會主要集中在開發針對特定工作負載的 AI 加速器和 GPU,以滿足企業的獨特需求。」

儘管來自行業領導者如 Intel 和 AMD 的通用微處理器在各種應用中性能強勁,但專為特定領域設計的專用晶片,特別是 AI 領域,卻能提供更高的性能和能效。賓夕法尼亞大學的 Ben Lee 教授指出,定制晶片能優化數據傳輸並減少高耗能數據傳遞。他提到:「通過創建大型自定義指令,這些晶片每次調用可以執行更多任務,從而提高能效。」在計算機工程界普遍認為,針對某些應用設計的晶片可以提高性能和能源效率高達 100 倍。

記憶體內處理技術的創新

最具潛力的研究領域之一是記憶體內處理(PIM)技術,這項技術結合了先進的記憶體解決方案與類比計算。Lee 進一步闡述說,程式控制的電阻可以代表機器學習模型的參數或權重。他解釋:「當電流通過這些程式控制的電阻時,記憶體可以執行許多機器學習計算所需的重要乘法和加法。」這種設計使得計算在數據內部進行,大幅減少數據傳輸到處理器所需的距離。

此外,隨著邊緣 GPU 需求的上升,特別是在邊緣推斷方面,Nvidia、Arm 和 Qualcomm 等公司處於前沿地位。這些專用 GPU 對於處理網絡邊緣的本地 AI 任務至關重要,進一步降低延遲並提升性能。

降低 AI 任務干擾的努力

南加州大學的研究人員在降低 AI 操作的干擾方面取得了進展,開發出一種高密度記憶體技術,擁有前所未有的每個元件 11 位元的信息密度。如果成功整合到行動裝置中,這項尖端創新將顯著增強其處理能力而不佔用額外空間。

此外,Lenovo 的全球 AI 總監 Robert Daigle 指出,針對 AI 任務設計的新型神經處理單元(NPU)、應用特定集成電路(ASIC)和現場可編程閘陣列(FPGA)更為高效且具有成本效益。他預測,將出現針對特定應用(如計算機視覺推斷和生成 AI 任務)微調的 AI 加速器的趨勢。

可持續的晶片設計未來

最新的晶片設計正在為液冷環境而設計,這標誌著向能源高效和環保實踐的重要轉變。Daigle 指出,降低能耗和改善熱散發是重要目標。AI 加速器的演變沿著兩個方向發展:一方面是專用的離散加速器,另一方面是多用途矽晶片(如 CPU)中集成 AI 核心。

隨著矽技術與創新冷卻方法和流線型 AI 框架的融合,新一代晶片設計有潛力催生 AI 的重大進步。Daigle 堅稱:「晶片將領導可持續努力,實現最佳 AI 性能,同時降低能耗。」未來將見證電力消耗的大幅降低、聲學性能的改善,以及顯著的成本節省。

計算機視覺的突破成就

在一項驚人的發展中,中國清華大學的研究團隊打造了一款全類比光電晶片,將光學與電子計算結合在一起,提升計算機視覺處理速度和能效,這是一個重要的飛躍。

類比信號以持續的方式傳輸信息,如光影形成圖像,與數字信號(如二進制數字)根本不同。在許多計算機視覺應用中,初步處理通常從環境中的類比信號開始,必須轉換為數字形式供神經網絡分析。這一轉換過程常常因時間和能源成本而降低了效率。

為了解決這一問題,清華團隊推出了創新的 ACCEL 晶片,旨在繞過類比轉數字轉換的瓶頸。清華團隊的研究員 Fang Lu 分享道:「ACCEL 最大限度地發揮光信號和電信號的優勢,同時避免轉換瓶頸。」這一進展有望在快速、高效能的計算機視覺應用中開拓新可能,並顯著提升各領域的機器學習系統。

結論

前沿晶片技術與 AI 的融合為效率和性能開辟了新途徑,可能會重新定義我們如何利用機器學習。隨著專業硬體設計的出現,各行業將受益於更快、更可持續的 AI 解決方案,革新當前的能力。擁抱這些進步將引領我們邁向一個智能系統以無與倫比的效率運行的未來。

Most people like

Find AI tools in YBX