英偉達探索COPA多芯片GPU模塊架構 以滿足不斷變化的數據需求

當前的深度學習應用,正收到複雜性增長、資源需求多樣化、以及現有硬件架構的限制。不過近日,英偉達研究人員發表了一篇技術文章,概述了該公司對多芯片模塊(MCM)的探索。具體說來是,該團隊講述了“可組合封裝”(COPA)GPU 的各項優勢,尤其是能夠適應各種類型的深度學習工作負載。

英偉達探索COPA多芯片GPU模塊架構 以滿足不斷變化的數據需求

資料圖(via Nvidia 官網)

得益於固有的功能和優化,圖形處理單元(GPU)已成為大量深度學習(DL)研究項目的首選。但由於傳統融合 GPU 解決方案正迅速變得不太實用,研究人員才想到到 COPA-GPU 的理念。

這些融合 GPU 解決方案依賴於由傳統芯片組成的架構,輔以高帶寬內存(HBM)、張量核心(NVIDIA)/ 矩陣核心(Matrix Cores)、光線追蹤(RT)等專用硬件的結合。

此類硬件或在某些任務下非常合適,但在面對其它情況時卻效率低下。與當前將所有特定執行組件和緩存組合到一個包中的單片 GPU 設計不同,COPA-GPU 架構具有混合 / 匹配多個硬件塊的能力。

如此一來,它就能夠更好地適應當今高性能計算(HPC)只能夠呈現的動態工作負載、以及深度學習(DL)環境。

英偉達探索COPA多芯片GPU模塊架構 以滿足不斷變化的數據需求

(來自:ACM.org | PDF)

這種整合更多功能和適應多種類型工作負載的能力,可帶來更高水平的 GPU 重用。更重要的是,對於數據科學家們來說,這使得他們更有能力利用現有資源,來突破潛在的界限。

儘管經常混為一談,但人工智能(AI)、機器學習(ML)和深度學習的概念,卻有着明顯的區別。DL 可視作 AI 和 ML 的子集,主要通過各種過濾器來預測和分類信息,來模擬人腦的信息處理方式。

作為諸多自動化 AI 功能背後的技術支撐,深度學習可助力其實現各項功能 —— 涵蓋從自動駕駛、到監控金融系統的欺詐活動等領域。

另一方面,MCM 概念已於過去幾年被炒得火熱(其實可追溯到 70~80 年代的 IBM 氣泡內存 / 3081 大型機),且 AMD 等廠商早已將小芯片 / 芯片堆疊技術作為其下一代產品的重要演變。

(0)
上一篇 2022-01-10 12:30
下一篇 2022-01-10 13:30

相关推荐