英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

訪問原網址

芯東西3月23日凌晨報道,今日,NVIDIA(英偉達)攜基於最新Hopper架構的H100 GPU系列新品高調回歸! 

英偉達創始人兼CEO黃仁勛依然穿着皮衣,不過這次他沒有出現在幾乎已成GTC大會“標配”的廚房場景中,而是在一個更具科幻感的虛擬空間。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

延續以往風格,黃仁勛在主題演講中繼續秒天秒地秒空氣,公布多個“全球首款”。這次他帶來一系列堪稱“地表最強”的AI重磅新品,隨便一個精度的AI性能,都比上一代A100高出3~6倍。 

雖然英偉達併購Arm的計劃剛剛告吹,但它的數據中心“三芯”總路線(GPU+DPU+CPU)依然不動搖——繼去年推出其首款數據中心CPU后,今天,英偉達又亮出一款基於Arm架構的Grace CPU超級芯片。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

此外,黃仁勛再次派出自己的虛擬數字人化身“玩偶老黃”Toy Jensen,並跟這個表情生動的玩偶進行了一番流暢的實時問答對話。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

憑藉押中圖形處理和人工智能(AI)兩大賽道,英偉達已經成為全球半導體市值TOP1。截至文章發布時間,英偉達的市值超過6600億美元,比第二名台積電足足多了近1100億美元。 

下面就讓我們來看看本場GTC大會的完整乾貨: 

1、H100 GPU:採用台積電4N工藝,擁有800億個晶體管,實現了首個GPU機密計算,相比A100,FP8性能提升6倍,FP16、TF32、FP64性能各提升3倍。 

2、全新NVLink Switch系統:高度可擴展,支持256塊H100 GPU互連。 

3、融合加速器H100 CNX:耦合H100 GPU與ConnectX-7和以太網智能網卡,可為I/O密集型應用提供更強勁的性能。 

4、DGX H100:配備8塊H100 GPU,總計有6400億個晶體管,在全新的FP8精度下AI性能比上一代高6倍,可提供900GB/s的帶寬。 

5、DGX SuperPOD:最多由32個DGX H100組成,AI算力可達1EFLOPS。 

6、Eos超級計算機:全球運行速度最快的AI超級計算機,配備576台DGX H100系統,FP8算力達到18EFLOPS,PF64算力達到275PFLOPS。 

7、Grace CPU超級芯片:由兩個CPU芯片組成,採用最新Armv9架構,擁有144個CPU核心和1TB/s的內存帶寬,將於2023年上半年供貨。 

8、為定製芯片集成開放NVLink:採用先進封裝技術,與英偉達芯片上的PCIe Gen 5相比,能源效率高25倍,面積效率高90倍。英偉達還將支持通用小芯片互連傳輸通道UCIe標準。

9、CUDA-X:60多個針對CUDA-X的一系列庫、工具和技術的更新。 

10、Riva 2.0:對話式AI服務Riva全面發行,2.0版本支持識別7種語言,可將神經文本轉換為不同性別發聲的語音。 

11、Merlin 1.0:可幫助企業快速構建、部署和擴展先進的AI推薦系統。 

12、Sionna:一款用於6G通信研究的AI框架。 

13、OVX與OVX SuperPod:面向工業數字孿生的數據中心級服務器和超級集群。

14、Spectrum-4:全球首個400Gbps端到端網絡平台,交換吞吐量比前幾代產品高出4倍,達到51.2Tbps。 

15、Omniverse Cloud:支持協作者們隨時隨地實現遠程實時協同工作。 

16、DRIVE Hyperion 9:汽車參考設計,擁有14個攝像頭、9個雷達、3個激光雷達和20個超聲傳感器,總體傳感器數量是上一代的兩倍。 

17、DRIVE Map:多模態地圖引擎,包含攝像頭、激光雷達和雷達的數據,同時兼顧安全性。 

18、Clara Holoscan MGX:可供醫療設備行業在邊緣開發和部署實時AI應用的計算平台,AI算力可達每秒254~610萬億次運算。 

19、Isaac for AMR:提供自主移動機器人系統參考設計。 

20、Jetson AGX Orin開發者套件:在邊緣實現服務器級的AI性能。 

黃仁勛還介紹了英偉達創建的NVIDIA AI加速計劃,通過與AI生態系統中的開發者合作,開發工程化解決方案,以確保客戶放心部署。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

01 H100 GPU:800億晶體管、六大創新

每次英偉達的GPU新架構都會以一位科學家的名字來命名,這次同樣如此。 

新Hopper架構的命名取自美國計算機科學家格蕾絲·赫柏(Grace Hopper),她是耶魯大學第一位數學女博士、世界上第三位程序員、全球首個編譯器的發明者,也是第一個發現“bug”的人。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

▲格蕾絲·赫柏正在教學COBOL編程語言

1945年9月9日,格蕾絲使用的Mark Ⅱ機出現故障,經過近一天的排查,她找到了故障的原因:繼電器中有一隻死掉的蛾子。後來,“bug”(小蟲)和“debug”(除蟲)這兩個詞彙就作為計算機領域的專用詞彙流傳至今。 

基於Hopper架構的一系列AI計算新品,被冠上各種“全球首款”。按行業慣例,但凡比較AI算力,必會拿英偉達最新旗艦GPU作為衡量標準。 

英偉達也不例外,先“碾壓”一下自己兩年前發布的上一代A100 GPU。 

作為全球首款基於Hopper架構的GPU,英偉達 H100接過為加速AI和高性能計算(HPC)扛旗的重任,FP64、TF32、FP16精度下AI性能都達到A100的3倍。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

可以看到, NVIDIA 越來越熱衷於走 稀疏化路線 。過去六年,英偉達相繼研發了使用FP32、FP16進行訓練的技術。 此次H100的 性能介紹又出現了 新的 Tensor 處理格式FP8,而FP8精度下的AI性能可達到4PFLOPS,約為A100 FP16的6倍。 

從技術進展來看,H100有6項突破性創新: 

1)先進芯片:H100採用台積電4N工藝、台積電CoWoS 2.5D封裝,有800億個晶體管(A100有540億個晶體管),搭載了HBM3顯存,可實現近5TB/s的外部互聯帶寬。 

H100是首款支持PCIe 5.0的GPU,也是首款採用HBM3標準的GPU,單個H100可支持40Tb/s的IO帶寬,實現3TB/s的顯存帶寬。黃仁勛說,20塊H100 GPU便可承托相當於全球互聯網的流量。

2)新Transformer引擎:該引擎將新的Tensor Core與能使用FP8和FP16數字格式的軟件結合,動態處理Transformer網絡的各個層,在不影響準確性的情況下,可將Transformer模型的訓練時間從數周縮短至幾天

3)第二代安全多實例GPU:MIG技術支持將單個GPU分為7個更小且完全獨立的實例,以處理不同類型的作業,為每個GPU實例提供安全的多租戶配置。H100能託管7個雲租戶,而A100僅能託管1個,也就是將MIG的部分能力擴展了7倍。 每個H100實例的性能相當於兩個完整的英偉達雲推理T4 GPU。 

4)機密計算:H100是全球首款具有機密計算功能的GPU加速器,能保護AI模型和正在處理的客戶數據,可以應用在醫療健康和金融服務等隱私敏感型行業的聯邦學習,以及共享雲基礎設施。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

5)第4代英偉達NVLink: 為了加速大型AI模型,NVLink結合全新外接NVLink Switch,可將NVLink擴展為服務器間的互聯網絡, 最多連接多達256個H100 GPU ,相較於上一代採用英偉達 HDR Quantum InfiniBand網絡, 帶寬高出9倍 。 

6)DPX指令:Hopper引入了一組名為DPX的新指令集,DPX可加速動態編程算法,解決路徑優化、基因組學等算法優化問題,與CPU和上一代GPU相比,其速度提升分別可達40倍和7倍。 

總體來說,H100的這些技術優化,將對跑深度推薦系統、大型AI語言模型、基因組學、複雜數字孿生、氣候科學等任務的效率提升非常明顯。 

比如,用H100支持聊天機器人使用的monolithic Transformer語言模型Megatron 530B,吞吐量比上一代產品高出30倍,同時能滿足實時對話式AI所需的次秒級延遲。

再比如用H100訓練包含3950億個參數的混合專家模型,訓練速度可加速高達9倍,訓練時間從幾周縮短到幾天。

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

H100將提供SXM和PCIe兩種規格,可滿足各種服務器設計需求。 

其中H100SXM 提供4 GPU和8 GPU配置的HGX H100服務器主板; H 100 PCIe通過NVLink連接兩塊GPU,相較PCIe 5.0可提供7倍以上的帶寬。 PCIe規格便於集成到現有的數據中心基礎設施中。 

這兩種規格的電力需求都大幅增長。 H100 SXM版的散熱設計功耗(TDP) 達到700W,比A100的400W高出75%。據黃仁勛介紹,H100採用風冷和液冷設計。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

這款產品預計於今年晚些時候全面發售。阿里雲、AWS、百度智能雲、谷歌雲、微軟Azure、Oracle Cloud、騰訊雲和火山引擎等雲服務商均計劃推出基於H100的實例。 

為了將Hopper的強大算力引入主流服務器,英偉達推出了全新的融合加速器H100 CNX。它將網絡與GPU直接相連,耦合H100 GPU與英偉達ConnectX-7 400Gb/s InfiniBand和以太網智能網卡,使網絡數據通過DMA以50GB/s的速度直接傳輸到H100,能夠避免帶寬瓶頸,為I/O密集型應用提供更強勁的性能。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

02 更強企業級AI系統,全球最快AI超算

基於A100,英偉達最先進的企業級AI基礎設施DGX H100系統、DGX POD、DGX SuperPOD以及一一登場。它們將從今年第三季度開始供應。 

黃仁勛稱,在財富10強企業和100強企業中,分別有8家和44家企業使用DGX作為AI基礎架構。 

英偉達DGX系統現在包含英偉達AI Enterprise軟件套件,該套件新增了對裸金屬基礎設施的支持。DGX客戶可使用軟件套件中的預訓練AI平台模型、工具包和框架來加快工作速度。 

1、DGX H100:最先進的企業級AI基礎設施

第四代英偉達DGX系統DGX H100是一款基於英偉達H100 Tensor Core GPU的AI平台。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

每個DGX H100系統配備8塊H100 GPU,總計有6400億個晶體管,由NVLink連接,在全新的FP8精度下AI性能可達32Petaflops,比上一代系統性能高6倍。 

DGX H100系統中每塊GPU都通過第四代 NVLink連接,可提供900GB/s的帶寬,是上一代系統的1.5倍。DGX H100的顯存帶寬可達24TB/s。 

該系統支持雙x86 CPU,每個系統還包含2個英偉達BlueField-3 DPU,用於卸載、加速和隔離高級網絡、存儲及安全服務。 

8個英偉達ConnectX-7 Quantum-2 InfiniBand網卡能夠提供400GB/s的吞吐量,可用於連接計算和存儲,這一速度比上一代系統提升了1倍。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

2、DGX SuperPOD:FP8 AI性能達1Exaflops

DGX H100系統是新一代英偉達DGX POD和DGX SuperPOD超級計算機的構建模塊。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

藉助NVLink Switch系統,擁有32個節點、256個GPU的DGX Pod,其HBM3顯存達20.5TB,顯存帶寬高達768TB/s。 

“相比之下,整個互聯網不過只有100TB/s。”黃仁勛感慨道。 每個DGX都可藉助4端口光學收發器連接到NVLink Switch,每個端口都有8個100G-PAM4通道,每秒能夠傳輸100GB,32個NVLink收發器連接到1個機架單元的NVLink Switch系統。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

新一代DGX SuperPOD可提供1Exaflops的FP8 AI性能,比上一代產品性能高6倍,能夠運行具有數萬億參數的大型語言模型工作負載;還有20TB的HBM3顯存、192TFLOPS的SHARP網絡計算性能。 

通過採用Quantum-2 InfiniBand連接及NVLink Switch系統,新DGX SuperPOD架構在GPU之間移動數據的帶寬高達70TB/s,比上一代高11倍。 

Quantum-2 InfiniBand交換機芯片擁有570億個晶體管,能提供64個400Gbps端口。多個DGX SuperPOD單元可組合使用。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

此外,英偉達推出新的DGX-Ready託管服務計劃,以助力簡化AI部署。其DGX Foundry託管的開發解決方案正在全球擴展,北美、歐洲和亞洲的新增地點支持遠程訪問DGX SuperPOD。 

DGX Foundry中包含英偉達Base Command軟件,該軟件能夠使客戶基於DGX SuperPOD基礎設施,輕鬆管理端到端AI開發生命周期。 

3、Eos:全球運行速度最快的AI超算

黃仁勛還透露說,英偉達正在打造Eos超級計算機,並稱這是“首個Hopper AI工廠”,將於數月後推出。 

該超算包含18個DGX POD、576台DGX H100系統,共計4608塊DGX H100 GPU,預計將提供18.4Exaflops的AI算力,這比目前運行速度最快的日本富岳(Fugaku)超級計算機快4倍。在傳統科學計算方面,Eos預計可提供275Petaflops的性能。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

03 由兩個CPU組成的超級芯片

除了GPU外,英偉達數據中心“三芯”戰略中另一大支柱CPU也有新進展。 

今日,英偉達推出首款面向HPC和AI基礎設施的基於Arm Neoverse的數據中心專屬CPU——Grace CPU超級芯片。

這被黃仁勛稱作“AI工廠的理想CPU”。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

據介紹,Grace Hopper超級芯片模組能在CPU與GPU之間進行芯片間的直接連接,其關鍵驅動技術是內存一致性芯片之間的NVLink互連,每個鏈路的速度達到900GB/s。 

Grace CPU超級芯片也可以是由兩個CPU芯片組成。它們之間通過高速、低延遲的芯片到芯片互連技術NVLink-C2C連在一起。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

基於最新的Armv9架構,單個socket擁有144個CPU核心, 具備最高的單線程核心性能,支持Arm新一代矢量擴展

在SPECrate®2017_int_base基準測試中,Grace CPU超級芯片的模擬性能得分為740, 據英偉達實驗室使用同類編譯器估算,這一結果 相比當前DGX A100搭載的雙CPU高1.5倍以上 。 

此外,Grace CPU超級芯片可實現當今領先服務器芯片內存帶寬和能效的2倍。 

其依託帶有糾錯碼的LPDDR5x內存組成的創新的內存子系統,能實現速度和功耗的最佳平衡。LPDDR5x內存子系統提供兩倍於傳統DDR5設計的帶寬,可達到1TB/s,同時功耗也大幅降低,CPU加內存整體功耗僅500瓦

Grace CPU超級芯片可運行所有的英偉達計算軟件棧,結合英偉達ConnectX-7網卡,能夠靈活地配置到服務器中,或作為獨立的純CPU系統,或作為GPU加速服務器,可以搭配1塊、2塊、4塊或8塊基於Hopper的GPU。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

也就是說,用戶只維護一套軟件棧,就能針對自身特定的工作負載做好性能優化。 

黃仁勛說,Grace超級芯片有望明年開始供貨。 

04 為定製芯片集成開放NVLink,將支持UCIe小芯片標準

我們單獨來說一下NVLink-C2C技術。 

前面說的Grace CPU超級芯片系列、去年發布的Grace Hopper超級芯片都採用了這一技術來連接處理器芯片。 

NVIDIA超大規模計算副總裁Ian Buck認為:“為應對摩爾定律發展趨緩的局面,必須開發小芯片和異構計算。” 

因此,英偉達利用其在高速互連方面的專業知識開發出統一、開放的NVLink-C2C互連技術。 

該技術將支持定製裸片與英偉達GPU、CPU、DPU、NIC和SoC之間實現一致的互連,從而通過小芯片構建出新型的集成產品,助力數據中心打造新一代的系統級集成。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

NVLink-C2C現已為半定製芯片開放,支持其與NVIDIA技術的集成。 

通過採用先進的封裝技術,英偉達NVLink-C2C互連鏈路的能效最多可比NVIDIA芯片上的PCIe Gen 5高出25倍,面積效率高出90倍,可實現每秒900GB乃至更高的一致互聯帶寬。 

NVLink-C2C支持Arm AMBA一致性集線器接口(AMBA CHI)協議,或CXL工業標準協議,可實現設備間的互操作性。 當前英偉達和Arm正在密切合作,以強化AMBA CHI來支持與其他互連處理器完全一致且安全的加速器。 

NVIDIA NVLink-C2C依託於英偉達的SERDES和LINK設計技術,可從PCB級集成和多芯片模組擴展到硅插入器和晶圓級連接。這可提供極高的帶寬,同時優化能效和裸片面積效率。 

除NVLink-C2C之外,NVIDIA還將支持本月早些時候發布的通用小芯片互連傳輸通道UCIe標準。

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

▲UCIe標準

與NVIDIA芯片的定製芯片集成既可以使用UCIe 標準,也可以使用NVLink-C2C,而後者經過優化,延遲更低、帶寬更高、能效更高。

05 AI軟件:對話式AI服務全面發行,推出推薦系統AI框架1.0版本

如今英偉達已經能提供全棧AI,除了AI計算硬件外,其AI軟件也有不少進展。 

黃仁勛說,AI已經從根本上改變了軟件的能力以及開發軟件的方式,過去十年,英偉達加速計算在AI領域實現了百萬倍的加速。 

今日,英偉達發布了60多個針對CUDA-X的一系列庫、工具和技術的更新,以加速量子計算和6G研究、網絡安全、基因組學、藥物研發等領域的研究進展。 

英偉達將使用其首台AI數字孿生超級計算機Earth-2來應對氣候變化挑戰,並創建了Physics-ML模型來模擬全球天氣模式的動態變化。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

英偉達還與來自加州理工學院、伯克利實驗室等高校及科研機構的研究人員們開發了一個天氣預報AI模型FourCastNet,該模型基於10TB的地球系統數據進行訓練,首次在降水預測上達到比先進的數值模型更高的準確率,並使預測速度提高了4~5個數量級。 以前,傳統的數值模擬需要一年時間,而現在只需幾分鐘。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

NVIDIA Triton是一款開源的、超大規模的模型推理服務器,是AI部署的“中央車站”,它支持CNN、RNN、GNN、Transformer等各種模型、各類AI框架及各類機器學習平台,支持在雲、本地、邊緣或嵌入式設備運行。 

同時,黃仁勛宣布英偉達對話式AI服務Riva全面發行,Riva 2.0版本支持識別7種語言,可將神經文本轉換為不同性別發聲的語音,用戶可通過其TAO遷移學習工具包進行自定義調優。 

Maxine是一個AI模型工具包,現已擁有30個先進模型,可優化實時視頻通信的視聽效果。比如開遠程視頻會議時,Maxine可實現說話者與所有參會者保持眼神交流,並能將說的語言實時切換成另一種語言,而且音色聽起來不變。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

本次GTC發布的版本增加了用於回聲消除和音頻超分辨率的新模型。 

此外,黃仁勛也宣布推出英偉達面向推薦系統的AI框架Merlin的1.0版本。 

Merlin可幫助企業快速構建、部署和擴展先進的AI推薦系統。比如,微信用Merlin將短視頻推薦延遲縮短為原來的1/4,並將吞吐量提升了10倍。從CPU遷移至GPU,騰訊在該業務上的成本減少了1/2。 

在醫療健康領域,黃仁勛談道,過去幾年,AI葯研初創公司獲得了超400億美元的投資,數字生物學革命的條件已經成熟,他稱這將是“NVIDIA AI迄今為止最偉大的使命”。 

6G標準於2026年左右問世,一些相關基礎技術逐漸成形。對此,黃仁勛宣布推出了一款用於6G通信研究的AI框架Sionna。 

06 Omniverse:首推數字孿生專用服務器和超級集群

黃仁勛認為,第一波AI學習是感知和推理,下一波AI的發展方向是機器人,也就是使用AI規劃行動。英偉達Omniverse平台也正成為製造機器人軟件時必不可少的工具。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

作為虛擬世界的仿真引擎,Omniverse平台能遵循物理學定律,構建一個趨真的數字世界,可以應用於使用不同工具的設計師之間的遠程協作,以及工業數字孿生。 

黃仁勛認為,工業數字孿生需要一種專門構建的新型計算機,因此英偉達打造了面向工業數字孿生的OVX服務器和OVX SuperPOD超級集群。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

OVX是首款Omniverse計算系統,由8個英偉達A40 RTX GPU、3個ConnectX-6 200Gbps網卡(NIC)和2個英特爾至強Ice Lake CPU組成。 

32台OVX服務器可構成OVX SuperPOD超級集群,實現這一連接的關鍵設施是英偉達今日新推出的Spectrum-4以太網平台。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

據悉,這是全球首個400Gbps端到端網絡平台,其交換吞吐量比前幾代產品高出4倍,聚合ASIC帶寬達到51.2Tbps,支持128個400GbE端口。 

Spectrum-4實現了納秒級計時精度,相比典型數據中心毫秒級抖動提升了5~6個數量級。這款交換機還能加速、簡化和保護網絡架構。與上一代產品相比,其每個端口的帶寬提高了2倍,交換機數量減少到1/4,功耗降低了40%。

該平台由英偉達Spectrum-4交換機系列、ConnectX-7智能網卡、BlueField-3 DPU和DOCA數據中心基礎設施軟件組成,可提高AI應用、數字孿生和雲基礎架構的性能和可擴展性,大幅加速大規模雲原生應用。 

Spectrum-4 ASIC和SN5000交換機系列基於4nm工藝,有1000億個晶體管,並經過簡化的收發器設計,實現領先的能效和總擁有成本。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

Spectrum-4可在所有端口之間公平分配帶寬,支持自適應路由選擇和增強擁塞控制機制,能顯著提升數據中心的應用速度。 

Spectrum-4 ASIC具有12.8Tbp加密帶寬和領先的安全功能,例如支持MACsec和VXLANsec,並通過硬件信任根將安全啟動作為默認設置,幫助確保數據流和網絡管理的安全性和完整性。 

現在各大計算機製造商紛紛推出OVX服務器,對於想在OVX試用Omniverse的客戶,英偉達在全球多地提供LaunchPad計劃,第一代OVX正由英偉達和早期客戶運行,第二代OVX正被構建中。 Spectrum-4的樣機將在今年第四季度末發布。 

隨後,曾在往屆GTC大會展示過的黃仁勛虛擬化身“玩偶老黃”Toy Jensen再度現身。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

它不是錄像,而能做到完全實時地進行眼神交流與對話。黃仁勛現場問它“什麼是合成生物學”、“你是如何製作出來的”等問題,它都對答如流。 

使用英偉達Omniverse Avatar框架,企業就能快速構建和部署像Toy Jensen這樣的虛擬形象,從模仿聲音到細微的頭部及身體運動,乃至高保真度的形象塑造,都讓虛擬人更加靈動。 

最後,得益於Riva中的最新對話式AI技術和超大語言模型Megatron 530B NLP,虛擬人可以聽懂你問的問題,也能跟你實時聊天互動。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

在此基礎上,英偉達宣布將推出Omniverse Cloud。通過Omniverse Cloud連接,協作者們使用英偉達RTX PC、筆記本電腦和工作站,均可實現遠程實時協同工作。 

用戶如果沒有RTX計算機,只需點擊一下,即可從GeForce Now上啟動Omniverse。 

07 汽車:預告DRIVE Hyperion 9,推出多模態地圖引擎

Omniverse平台是整個工作流程的核心,DRIVE平台則相當於AI司機。 

黃仁勛宣布下一代DRIVE Hyperion 9將從2026年起搭載到汽車中,它將擁有14個攝像頭、9個雷達、3個激光雷達和20個超聲傳感器,總體傳感器數量將是Hyperion 8的兩倍。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

此外,英偉達推出了一種多模態地圖引擎NVIDIA DRIVE Map,包含攝像頭、激光雷達和雷達的數據,同時兼顧安全性。 

DRIVE Map有兩個地圖引擎,真值測繪地圖引擎和眾包車隊地圖引擎。黃仁勛談道,到2024年,他們預計繪製並創建北美、西歐和亞洲所有主要公路的數字孿生,總長度約為50萬公里。

“我們正在構建地球級別的自動駕駛車隊數字孿生。”黃仁勛說。 

合作方面,全球第二大電動汽車製造商比亞迪將在2023年上半年開始投產的汽車中搭載DRIVE Orin計算平台。自動駕駛獨角獸企業元戎啟行、中國自動駕駛創企雲驥智行也宣布將在其L4級自動駕駛車規級量產方案中搭載NVIDIA DRIVE Orin SoC芯片。 

美國電動汽車公司Lucid Motors、中國L4級自動駕駛科技公司文遠知行、中國新型電動車公司悠跑科技均宣布將應用英偉達DRIVE Hyperion自動駕駛汽車平台。 

08 機器人平台:從醫療設備到自主移動機器人

黃仁勛認為下一波AI浪潮是機器人,英偉達正在構建多個機器人平台,包括用於自動駕駛汽車的DRIVE、用於操縱和控制系統的Isaac、用於自主式基礎架構的Metropolis、用於醫療設備的Holoscan等。 

他將機器人系統的工作流程簡化為真值數據生成、AI模型訓練、Omniverse數字孿生、機器人技術棧四大支柱。 

Clara Holoscan MGX是一個開放可擴展的機器人平台,其設計符合IEC-62304醫療級規格,核心計算機為Jetson AGX Orin和ConnectX-7智能網卡,並可選配NVIDIA RTX A6000 GPU。 

該平台AI算力可達每秒254~610萬億次運算,目前向早期體驗客戶開放,正式上市時間是5月,並將於2023年第一季度完成醫療級準備。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

Metropolis平台的下載量已經達到30萬次,擁有1000多個生態系統合作夥伴,並在超過100萬個設施中運營。 

機器人發展最快的領域之一是自主移動機器人(AMR),它本質上是室內無人駕駛,速度偏低但環境高度非結構化。 

今天,英偉達推出Isaac for AMR,它有四大核心:用於真值生成的NVIDIA DeepMap、用於訓練模型的NVIDIA AI、搭載Orin的AMR機器人參考設計、Isaac機器人技術堆棧中的新Gem及基於Omniverse的新版Isaac Sim,每個都單獨可用且完全開放。 

與DRIVE Hyperion類似,Isaac Nova是一個AMR機器人系統參考設計,整個Isaac堆棧都基於此構建。Nova有2個攝像頭、2個激光雷達、8個超聲波雷達和4個魚眼攝像頭。

英偉達還宣布推出Jetson Orin開發者套件以在邊緣實現服務器級的AI性能。

Nova AMR將於第二季度上市,它將配備英偉達新的DeepMap雷達製圖系統,可以掃描和重建環境,以進行路線規劃和數字孿生仿真。 

英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發

09 結語:AI開發者的前沿技術盛宴

這些年來,英偉達GTC大會已經成為一場面向AI、HPC、科學計算、數字孿生及自動駕駛等諸多前沿領域的技術盛宴。 

在這場盛宴中,我們不僅看到技術突破如果改變各行各業的生產效率和工作方式,也看到英偉達圍繞計算世界的最新布局。 

隨着新一代大規模雲技術的出現,數據中心架構有待轉型。在穩擁GPU基本盤的基礎之上,英偉達的角色正從圖形顯示和加速計算“偏科學霸”,轉向圍繞數據中心三大芯片支柱全面發展。 

黃仁勛認為,數據中心正在轉變成“AI工廠”,它通過處理海量的數據來實現智能,而今日推出的H100便是實現企業AI業務加速的引擎。 

H100的多項技術創新,數據中心專屬Grace CPU超級芯片的特殊設計,以及AI和Omniverse平台的持續升級,進一步擴大了英偉達在加速AI訓練及推理領域的領導地位。 

在為期4天的英偉達GTC大會上,我們還將看到更多不同細分領域的專家,分享他們如何利用AI和加速計算領域的技術創新,來開展各類開創性的研究或解決正面臨的挑戰。 

本文來自微信公眾號“芯東西”(ID:aichip001),作者:ZeR0 ,編輯:漠影 ,36氪經授權發布。

媒體報道

      36Kr  36Kr  品玩  TechCrunch  Digital Trends  Digital Trends

事件追蹤

  • 2022-03-22  英偉達稱不會啟動更多股票回購 專註數據中心等新產品開發
  • 2021-05-27  英偉達一季度凈利同比增109%,黃仁勛稱推出礦卡意在保護遊戲玩家
  • 2020-10-05  英偉達宣布將與Arm公司合作推出PC平台產品
  • 2020-09-22  理想汽車與英偉達達成合作,將搭載其Orin系列芯片
  • 2020-05-14  英偉達發布新款AI芯片Ampere
(0)
上一篇 2022-03-23 11:49
下一篇 2022-03-23 11:50

相关推荐