作者 | ZeR0
編輯 | 心緣
智東西美國(guó)圣何塞3月18日現(xiàn)場(chǎng)報(bào)道,時(shí)隔5年,全球頂尖AI計(jì)算技術(shù)盛會(huì)、年度NVIDIA GTC大會(huì)重磅回歸線下,就在剛剛,英偉達(dá)創(chuàng)始人兼CEO黃仁勛發(fā)表長(zhǎng)達(dá)123分鐘的主題演講,發(fā)布AI芯片最新震圈之作——Blackwell GPU,智東西受邀參會(huì)并從現(xiàn)場(chǎng)發(fā)來完整的干貨報(bào)道。

在這場(chǎng)大會(huì)上,英偉達(dá)展現(xiàn)出堪稱恐怖的行業(yè)號(hào)召力,將AI圈的頂尖技術(shù)大牛和行業(yè)精英匯聚在一起?,F(xiàn)場(chǎng)盛況空前,線下參會(huì)者逾萬人。智東西此行遇到許多來自國(guó)內(nèi)的參展商或觀眾,明顯感受到國(guó)內(nèi)企業(yè)和開發(fā)者對(duì)這場(chǎng)AI盛會(huì)的熱情。

當(dāng)?shù)貢r(shí)間3月18日13點(diǎn),北京19日凌晨4點(diǎn),GTC最重磅的主題演講正式開始,在播放一段AI主題短片后,黃仁勛穿著標(biāo)志性的黑色皮衣從圣何塞SAP中心場(chǎng)館主舞臺(tái)登場(chǎng),與觀眾寒暄。

他首先回顧了英偉達(dá)30年來追求加速計(jì)算旅程的開端,歷數(shù)研發(fā)革命性計(jì)算模式CUDA、將首臺(tái)AI超級(jí)計(jì)算機(jī)DGX交給OpenAI等一系列里程碑事件,然后將話題自然地聚焦到生成式AI上。

在宣布與多家EDA龍頭的重要合作伙伴關(guān)系后,他談到快速演進(jìn)的AI模型帶動(dòng)訓(xùn)練算力需求暴漲,需要更大的GPU,“加速計(jì)算已達(dá)到臨界點(diǎn),通用計(jì)算已失去動(dòng)力”,“在每一個(gè)行業(yè),加速計(jì)算都比通用計(jì)算有了巨大的提升”。
緊接著,大屏幕上過電影般快速閃現(xiàn)從GPU、超級(jí)芯片到超級(jí)計(jì)算機(jī)、集群系統(tǒng)的一系列關(guān)鍵組件,然后黃仁勛重磅宣布:全新旗艦AI芯片Blackwell GPU,來了!

這是GPGPU領(lǐng)域最新的震圈之作,從配置到性能都將前輩Hopper GPU拍倒在沙灘上。他舉起雙手展示了Blackwell和Hopper GPU的對(duì)比,Blackwell GPU明顯大了一圈。
畢竟手心手背都是肉,對(duì)比完后,黃仁勛馬上開始安慰:“It’s OK, Hopper. You’re very good, good boy, or good girl.”
但也不能怪老黃喜新厭舊,因?yàn)锽lackwell的性能,實(shí)在是太強(qiáng)了!無論是FP8,還是全新的FP6、FP4精度,以及HBM能塞下的模型規(guī)模和HBM帶寬,都做到“倍殺”前代Hopper。

8年,從Pascal架構(gòu)到Blackwell架構(gòu),英偉達(dá)將AI計(jì)算性能提升了1000倍!

這還只是開胃小菜,黃仁勛真正的“胃口”,是打造足以優(yōu)化萬億參數(shù)級(jí)GPU計(jì)算的最強(qiáng)AI基礎(chǔ)設(shè)施。
總體來看,英偉達(dá)在本屆GTC大會(huì)上連發(fā)6個(gè)大招:
1、發(fā)布Blackwell GPU:訓(xùn)練性能提升至2.5倍,F(xiàn)P4精度推理性能提升至前代FP8的5倍;升級(jí)第五代NVLink,互連速度是Hopper的2倍,可擴(kuò)展到576個(gè)GPU,能夠解決萬億參數(shù)混合專家模型通信瓶頸。
2、Blackwell平臺(tái)“全家桶”登場(chǎng):既面向萬億參數(shù)級(jí)GPU計(jì)算優(yōu)化,推出全新網(wǎng)絡(luò)交換機(jī)X800系列,吞吐量高達(dá)800Gb/s;又發(fā)布GB200超級(jí)芯片、GB200 NVL72系統(tǒng)、DGX B200系統(tǒng)、新一代DGX SuperPOD AI超級(jí)計(jì)算機(jī)。

3、推出數(shù)十個(gè)企業(yè)級(jí)生成式AI微服務(wù),提供一種封裝和交付軟件的新方式,方便企業(yè)和開發(fā)者用GPU部署各種定制AI模型。
4、宣布臺(tái)積電、新思科技將突破性的光刻計(jì)算平臺(tái)cuLitho投入生產(chǎn):cuLitho將計(jì)算光刻加速40-60倍,并采用了增強(qiáng)的生成式AI算法,將為2nm及更先進(jìn)制程開發(fā)提供“神助攻”。
5、發(fā)布人形機(jī)器人基礎(chǔ)模型Project GR00T、新款人形機(jī)器人計(jì)算機(jī)Jetson Thor,對(duì)Isaac機(jī)器人平臺(tái)進(jìn)行重大升級(jí),推動(dòng)具身智能突破。黃仁勛還將一對(duì)來自迪士尼研究公司的小型英偉達(dá)機(jī)器人帶上臺(tái)互動(dòng)。
6、與蘋果強(qiáng)強(qiáng)聯(lián)手,將Omniverse平臺(tái)引入蘋果Vision Pro,并宣布為工業(yè)數(shù)字孿生軟件工具提供Omniverse Cloud API。
不過或許是被預(yù)期到的內(nèi)容太多,市場(chǎng)情緒并沒有被刺激到瘋長(zhǎng)。截至美股收盤,英偉達(dá)最新股價(jià)為884.55美元/股,漲幅0.70%,最新市值為22114億美元。

01.
AI芯片新皇登場(chǎng):2080億顆晶體管,
2.5倍訓(xùn)練性能、5倍推理性能
進(jìn)入生成式AI新紀(jì)元,AI計(jì)算需求爆發(fā)式增長(zhǎng),而一路演進(jìn)的英偉達(dá)GPU憑借傲視群雄的實(shí)戰(zhàn)算力,令全球AI行業(yè)患上“英偉達(dá)GPU饑渴癥”,一眾AI巨頭重金難買黃仁勛點(diǎn)頭。

當(dāng)Hopper GPU還是AI競(jìng)賽爭(zhēng)搶的重點(diǎn)資源,超越它的繼任者——Blackwell GPU正式發(fā)布!
每一代英偉達(dá)GPU架構(gòu)都會(huì)以一位科學(xué)家的名字來命名。新架構(gòu)取名Blackwell是為了致敬美國(guó)科學(xué)院首位黑人院士、杰出統(tǒng)計(jì)學(xué)家兼數(shù)學(xué)家David Blackwell。Blackwell擅長(zhǎng)將復(fù)雜的問題簡(jiǎn)單化,他獨(dú)立發(fā)明的“動(dòng)態(tài)規(guī)劃”、“更新定理”被廣泛多個(gè)科學(xué)及工程學(xué)領(lǐng)域。

▲David Blackwell舊照
黃仁勛說,生成式AI是這個(gè)時(shí)代的決定性技術(shù),Blackwell是推動(dòng)這場(chǎng)新工業(yè)革命的引擎。
Blackwell GPU有6大核心技術(shù):

1、號(hào)稱是“世界最強(qiáng)大的芯片”:集成2080億顆晶體管,采用定制臺(tái)積電4NP工藝,承襲“拼裝芯片”的思路,采用統(tǒng)一內(nèi)存架構(gòu) 雙芯配置,將2個(gè)受光刻模板(reticle)限制的GPU die通過10TB/s芯片間NVHyperfuse接口連一個(gè)統(tǒng)一GPU,共有192GB HBM3e內(nèi)存、8TB/s顯存帶寬,單卡AI訓(xùn)練算力可達(dá)20PFLOPS。

跟上一代Hopper相比,Blackwell因?yàn)榧闪藘蓚€(gè)die,面積變大,比Hopper GPU足足多了1280億個(gè)晶體管。對(duì)比之下,前代H100只有80GB HBM3內(nèi)存、3.35TB/s帶寬,H200有141GB HBM3e內(nèi)存、4.8TB/s帶寬。
2、第二代Transformer引擎:將新的微張量縮放支持和先進(jìn)的動(dòng)態(tài)范圍管理算法與TensorRT-LLM和NeMo Megatron框架結(jié)合,使Blackwell具備在FP4精度的AI推理能力,可支持2倍的計(jì)算和模型規(guī)模,能在將性能和效率翻倍的同時(shí)保持混合專家模型的高精度。

在全新FP4精度下,Blackwell GPU的AI性能達(dá)到Hopper的5倍。英偉達(dá)并未透露其CUDA核心的性能,有關(guān)架構(gòu)的更多細(xì)節(jié)還有待揭曉。

3、第五代NVLink:為了加速萬億參數(shù)和混合專家模型的性能,新一代NVLink為每個(gè)GPU提供1.8TB/s雙向帶寬,支持多達(dá)576個(gè)GPU間的無縫高速通信,適用于復(fù)雜大語言模型。

單顆NVLink Switch芯片有500億顆晶體管,采用臺(tái)積電4NP工藝,以1.8TB/s連接4個(gè)NVLink。

4、RAS引擎:Blackwell GPU包括一個(gè)確??煽啃浴⒖捎眯?、可維護(hù)性的專用引擎,還增加了芯片級(jí)功能,可利用基于AI的預(yù)防性維護(hù)來進(jìn)行診斷和預(yù)測(cè)可靠性問題,最大限度延長(zhǎng)系統(tǒng)的正常運(yùn)行時(shí)間,提高大規(guī)模AI部署的彈性,一次可不間斷地運(yùn)行數(shù)周甚至數(shù)月,并降低運(yùn)營(yíng)成本。
5、安全AI:先進(jìn)的機(jī)密計(jì)算功能可保護(hù)AI模型和客戶數(shù)據(jù),而不會(huì)影響性能,支持新的本地接口加密協(xié)議。
6、解壓縮引擎:支持最新格式,加速數(shù)據(jù)庫查詢,以提供數(shù)據(jù)分析和數(shù)據(jù)科學(xué)的最高性能。
AWS、戴爾、谷歌、Meta、微軟、OpenAI、甲骨文、特斯拉、xAI都將采用Blackwell產(chǎn)品。特斯拉和xAI共同的CEO馬斯克直言:“目前在AI領(lǐng)域,沒有比英偉達(dá)硬件更好的?!?/span>
值得注意的是,相比以往強(qiáng)調(diào)單芯片的性能表現(xiàn),此次Blackwell系列發(fā)布更側(cè)重在整體系統(tǒng)性能,并對(duì)GPU代號(hào)稱謂模糊,大部分都統(tǒng)稱為“Blackwell GPU”。
按此前市場(chǎng)傳言,B100價(jià)格可能大約是3萬美元,B200售價(jià)約為3.5萬美元,這樣來算,價(jià)格只比前代提升不到50%,訓(xùn)練性能卻提高2.5倍,性價(jià)比明顯更高。
如果定價(jià)漲幅不大,Blackwell系列GPU的市場(chǎng)競(jìng)爭(zhēng)力將強(qiáng)到可怕,性能提升足夠兇猛,性價(jià)比相較上一代Hopper變更高,這讓同行怎么打?
02.
面向萬億參數(shù)級(jí)GPU計(jì)算優(yōu)化,
推出全新網(wǎng)絡(luò)交換機(jī)、AI超級(jí)計(jì)算機(jī)
Blackwell平臺(tái)除了基礎(chǔ)的HGX B100外,還包括NVLink Switch、GB200超級(jí)芯片計(jì)算節(jié)點(diǎn)、X800系列網(wǎng)絡(luò)交換機(jī)。

其中,X800系列是專為大規(guī)模AI量身訂制的全新網(wǎng)絡(luò)交換機(jī),以支持新型AI基礎(chǔ)設(shè)施輕松運(yùn)行萬億參數(shù)級(jí)生成式AI業(yè)務(wù)。
英偉達(dá)Quantum-X800 InfiniBand網(wǎng)絡(luò)和Spectrum-X800以太網(wǎng)絡(luò)是全球首批端到端吞吐量高達(dá)800Gb/s的網(wǎng)絡(luò)平臺(tái),交換帶寬容量較前代產(chǎn)品提高5倍,網(wǎng)絡(luò)計(jì)算能力通過英偉達(dá)第四代SHARP技術(shù)提高了9倍,網(wǎng)絡(luò)計(jì)算性能達(dá)到14.4TFLOPS。早期用戶有微軟Azure、甲骨文云基礎(chǔ)設(shè)施、Coreweave等。

Spectrum-X800平臺(tái)專為多租戶環(huán)境打造,可實(shí)現(xiàn)每個(gè)租戶的AI工作負(fù)載的性能隔離,為生成式AI云和大型企業(yè)級(jí)用戶帶來優(yōu)化的網(wǎng)絡(luò)性能。
同時(shí),英偉達(dá)提供網(wǎng)絡(luò)加速通信庫、軟件開發(fā)套件和管理軟件等全套軟件方案。
英偉達(dá)稱GB200 Grace Blackwell超級(jí)芯片是為萬億參數(shù)規(guī)模生成式AI設(shè)計(jì)的處理器。該芯片通過900GB/s第五代NVLink-C2C互連技術(shù)將2個(gè)Blackwell GPU連接到1個(gè)英偉達(dá)Grace CPU。但英偉達(dá)并沒有明確Blackwell GPU的具體型號(hào)。

黃仁勛拿起GB200超級(jí)芯片展示,說這是同類計(jì)算機(jī)中第一個(gè)做到在這么小空間里容納如此多的計(jì)算,因此內(nèi)存相連,它們“就像個(gè)快樂的大家庭,一起開發(fā)一個(gè)應(yīng)用程序”。

一個(gè)GB200超級(jí)芯片計(jì)算節(jié)點(diǎn)可內(nèi)置2個(gè)GB200超級(jí)芯片。一個(gè)NVLink交換機(jī)節(jié)點(diǎn)可支持2個(gè)NVLink交換機(jī),總帶寬達(dá)到14.4TB/s。

一個(gè)Blackwell計(jì)算節(jié)點(diǎn)包含2個(gè)Grace CPU和4個(gè)Blackwell GPU,AI性能達(dá)到80PFLOPS。

有了更強(qiáng)的GPU和網(wǎng)絡(luò)性能,黃仁勛宣布推出一款全新計(jì)算單元——多節(jié)點(diǎn)、液冷、機(jī)架級(jí)系統(tǒng)英偉達(dá)GB200 NVL72。

GB200 NVL72像一個(gè)“巨型GPU”,能像單卡GPU一樣運(yùn)作,AI訓(xùn)練性能達(dá)到720PFLOPS,AI推理性能高達(dá)1.44EFLOPS,擁有30TB快速顯存,可處理高達(dá)27萬億個(gè)參數(shù)的大語言模型,是最新DGX SuperPOD的構(gòu)建模塊。

GB200 NVL72可組合36個(gè)GB200超級(jí)芯片(共有72個(gè)B200 GPU和36個(gè)Grace CPU),通過第五代NVLink互連,還包括BlueField-3 DPU。

黃仁勛說,目前全球只有幾臺(tái)EFLOPS級(jí)的機(jī)器,這臺(tái)機(jī)器由60萬個(gè)零件組成,重達(dá)3000磅,是一個(gè)“在單個(gè)機(jī)架上的EFLOPS AI系統(tǒng)”。
據(jù)他分享,以前用H100訓(xùn)練GPT-MoE-1.8T大模型需要90天、消耗大約8000個(gè)GPU、15MW的電力。而現(xiàn)在用GB200 NVL72只需要2000個(gè)GPU、4MW的電力。

在跑萬億參數(shù)模型時(shí),GB200經(jīng)過多維度的優(yōu)化,單個(gè)GPU每秒Tokens吞吐量能多達(dá)H200 FP8精度的30倍。

對(duì)于大語言模型推理,與相同數(shù)量的H100相比,GB200 NVL72可提供30倍的性能提升,并將成本和能耗降低為前代的1/25。
AWS、谷歌云、微軟Azure、甲骨文云基礎(chǔ)設(shè)施等主流云均支持訪問GB200 NVL72。
此外,英偉達(dá)推出用于AI模型訓(xùn)練、微調(diào)和推理的統(tǒng)一AI超級(jí)計(jì)算平臺(tái)DGX B200系統(tǒng)。
DGX B200系統(tǒng)是DGX系列的第六代產(chǎn)品,采用風(fēng)冷傳統(tǒng)機(jī)架式設(shè)計(jì),包括8個(gè)B200 GPU、2個(gè)第五代英特爾至強(qiáng)處理器,在FP4精度下可提供144PFLOPS的AI性能、1.4TB超大容量GPU顯存、64TB/s顯存帶寬,能使萬億參數(shù)模型的實(shí)時(shí)推理速度快至上一代的15倍。
該系統(tǒng)包含帶有8個(gè)ConnectX-7網(wǎng)卡和2個(gè)BlueField-3 DPU的先進(jìn)網(wǎng)絡(luò),每個(gè)連接帶寬高達(dá)400Gb/s,可通過Quantum-2 InfiniBand和Spectrum-X以太網(wǎng)網(wǎng)絡(luò)平臺(tái)提供更高AI性能。
英偉達(dá)還推出了采用DGX GB200系統(tǒng)的下一代數(shù)據(jù)中心級(jí)AI超級(jí)計(jì)算機(jī)DGX SuperDOD,可滿足處理萬億參數(shù)模型,確保超大規(guī)模生成式AI訓(xùn)練和推理工作負(fù)載的持續(xù)運(yùn)行。
新一代DGX SuperPOD由8個(gè)或更多DGX GB200系統(tǒng)構(gòu)建而生,具有全新高效液冷機(jī)架級(jí)擴(kuò)展架構(gòu),在FP4精度下可提供11.5EFLOPS的AI算力和240TB快速顯存,并能通過機(jī)架來擴(kuò)展性能。
每個(gè)DGX GB200系統(tǒng)有36個(gè)GB200超級(jí)芯片。與H100相比,GB200超級(jí)芯片在跑大語言模型推理的性能可提升高達(dá)45倍。
黃仁勛說,未來數(shù)據(jù)中心將被認(rèn)為是AI工廠,整個(gè)行業(yè)都在為Blackwell做準(zhǔn)備。

03.
推出數(shù)十個(gè)企業(yè)級(jí)生成式AI微服務(wù),
方便企業(yè)定制和部署Copilots
硬件是殺手锏,軟件則是護(hù)城河。
今天,英偉達(dá)繼續(xù)擴(kuò)大憑借CUDA和生成式AI生態(tài)積累的優(yōu)勢(shì),推出數(shù)十個(gè)企業(yè)級(jí)生成式AI微服務(wù),以便開發(fā)者在英偉達(dá)CUDA GPU安裝基礎(chǔ)上創(chuàng)建和部署生成式AI Copilots。

黃仁勛說,生成式AI改變了應(yīng)用程序編程方式,企業(yè)不再編寫軟件,而是組裝AI模型,指定任務(wù),給出工作產(chǎn)品示例,審查計(jì)劃和中間結(jié)果。
英偉達(dá)NIM是英偉達(dá)推理微服務(wù)的參考,是由英偉達(dá)的加速計(jì)算庫和生成式AI模型構(gòu)建的。微服務(wù)支持行業(yè)標(biāo)準(zhǔn)的API,在英偉達(dá)大型CUDA安裝基礎(chǔ)上工作,并針對(duì)新的GPU進(jìn)行優(yōu)化。

企業(yè)可使用這些微服務(wù)在自己的平臺(tái)上創(chuàng)建和部署自定義應(yīng)用程序,同時(shí)保留對(duì)其知識(shí)產(chǎn)權(quán)的完全所有權(quán)和控制權(quán)。NIM微服務(wù)提供由英偉達(dá)推理軟件支持的預(yù)構(gòu)建生產(chǎn)AI容器,使開發(fā)人員能夠?qū)?/span>部署時(shí)間從幾周縮短到幾分鐘。
NIM微服務(wù)可用于部署來自英偉達(dá)、AI21、Adept、Cohere、Getty Images、Shutterstock的模型,以及來自谷歌、Hugging Face、Meta、微軟、Mistral AI、Stability AI的開放模型。

用戶將能夠訪問來自亞馬遜SageMaker、谷歌Kubernetes引擎和微軟Azure AI的NIM微服務(wù),并與Deepset、LangChain和LlamaIndex等流行AI框架集成。
為加速AI應(yīng)用,企業(yè)可使用CUDA-X微服務(wù),包括定制語音和翻譯AI的英偉達(dá)Riva、用于路徑優(yōu)化的英偉達(dá)cuOpt、用于高分辨率氣候和天氣模擬的英偉達(dá)Earth-2等。一系列用于定制模型開發(fā)的英偉達(dá)NeMo微服務(wù)即將推出。

開發(fā)者可在ai.nvidia.com免費(fèi)試用英偉達(dá)微服務(wù)。企業(yè)可使用運(yùn)英偉達(dá)AI Enterprise 5.0部署生產(chǎn)級(jí)NIM微服務(wù)。
04.
推生成式AI算法,聯(lián)手兩大芯片界頂流,
英偉達(dá)要掀起光刻計(jì)算新革命!
在去年的GTC大會(huì)上,英偉達(dá)面向芯片制造行業(yè)甩出一項(xiàng)秘密研發(fā)4年的大招:通過突破性的光刻計(jì)算庫cuLitho,將計(jì)算光刻加速40-60倍,加速突破生產(chǎn)2nm及更先進(jìn)芯片的物理極限。(黃仁勛向臺(tái)積電放核彈!干掉40000臺(tái)CPU服務(wù)器,計(jì)算光刻提速40倍)
這個(gè)項(xiàng)目的合作者,都是芯片產(chǎn)業(yè)鏈最鼎盛的存在——全球最大AI芯片巨頭英偉達(dá)、全球最大晶圓代工商臺(tái)積電、全球最大EDA巨頭新思科技。

計(jì)算光刻技術(shù)是芯片制造的基石。今天,在cuLitho加速流程的基礎(chǔ)上,通過生成式AI算法將工作流的速度又提升了2倍。
具體來說,晶圓廠工藝的許多變化需修正OPC(光學(xué)鄰近校正),會(huì)增加計(jì)算量,造成開發(fā)瓶頸。cuLitho提供的加速計(jì)算和生成式AI則能緩解這些問題。應(yīng)用生成式AI可創(chuàng)建近乎完美的反掩?;蛳蚪鉀Q方案來解決光衍射問題,然后再通過傳統(tǒng)的物理嚴(yán)格方法推導(dǎo)出最終的光掩模,從而將整個(gè)OPC過程加快2倍。
在芯片制造過程中,計(jì)算光刻是計(jì)算最密集的工作負(fù)載,每年在CPU上消耗數(shù)百億小時(shí)。相比基于CPU的方法,基于GPU加速計(jì)算光刻的庫cuLitho能夠大大改進(jìn)了芯片制造工藝。
通過加速計(jì)算,350個(gè)英偉達(dá)H100系統(tǒng)可取代40000個(gè)CPU系統(tǒng),大幅提高了吞吐量,加快生產(chǎn),降低成本、空間和功耗。
“我們正在將英偉達(dá)cuLitho在臺(tái)積電投入生產(chǎn)?!迸_(tái)積電總裁魏哲家說,雙方合作將GPU加速計(jì)算整合到臺(tái)積電的工作流程中,實(shí)現(xiàn)了性能的巨大飛躍。在共享工作流程上測(cè)試cuLitho時(shí),兩家公司共同實(shí)現(xiàn)了曲線流程45倍的加速以及傳統(tǒng)曼哈頓流程近60倍的改進(jìn)。
05.
全新人形機(jī)器人基礎(chǔ)模型、計(jì)算機(jī)來了!
Isaac機(jī)器人平臺(tái)重大更新
除了生成式AI,英偉達(dá)還相當(dāng)看好具身智能,并發(fā)布了人形機(jī)器人通用基礎(chǔ)模型Project GR00T、基于Thor SoC的新型人形機(jī)器人計(jì)算機(jī)Jetson Thor。
黃仁勛說:“開發(fā)通用人形機(jī)器人基礎(chǔ)模型是當(dāng)今AI領(lǐng)域中最令人興奮的課題之一。”
GR00T驅(qū)動(dòng)的機(jī)器人能理解自然語言,并通過觀察人類行為來模仿快速學(xué)習(xí)協(xié)調(diào)、靈活性和其它技能,以適應(yīng)現(xiàn)實(shí)世界并與之互動(dòng)。黃仁勛展示了多臺(tái)這樣的機(jī)器人是如何完成各種任務(wù)的。

Jetson Thor具有針對(duì)性能、功耗和尺寸優(yōu)化的模塊化架構(gòu)。該SoC包括一個(gè)帶有Transformer引擎的下一代Blackwell GPU,以運(yùn)行GR00T等多模態(tài)生成式AI模型。
英偉達(dá)正為領(lǐng)先的人形機(jī)器人公司開發(fā)一個(gè)綜合的AI平臺(tái),如1X、Agility Robotics、Apptronik、波士頓動(dòng)力、Figure AI、傅利葉智能、Sanctuary AI、宇樹科技和小鵬鵬行等。
此外,英偉達(dá)對(duì)Isaac機(jī)器人平臺(tái)進(jìn)行了重大升級(jí),包括生成式AI基礎(chǔ)模型和仿真工具、AI工作流基礎(chǔ)設(shè)施。新功能將在下個(gè)季度推出。
英偉達(dá)還發(fā)布了一系列機(jī)器人預(yù)訓(xùn)練模型、庫和參考硬件。比如Isaac Manipulator,為機(jī)械臂提供了靈活性和模塊化AI功能,以及一系列基礎(chǔ)模型和GPU加速庫;Isaac Perceptor,提供了先進(jìn)的多攝像頭、3D重建、深度感知等功能。
06.
Omniverse平臺(tái)新進(jìn)展:
挺進(jìn)蘋果Vision Pro,發(fā)布云API
英偉達(dá)宣布將Omniverse平臺(tái)引入蘋果Vision Pro。

面向工業(yè)數(shù)字孿生應(yīng)用,英偉達(dá)將以API形式提供Omniverse Cloud。開發(fā)人員可借助該API將交互式工業(yè)數(shù)字孿生流傳輸?shù)絍R頭顯中。

通過使用API,開發(fā)者能輕松地將Omniverse的核心技術(shù)直接集成到現(xiàn)有的數(shù)字孿生設(shè)計(jì)與自動(dòng)化軟件應(yīng)用中,或是集成到用于測(cè)試和驗(yàn)證機(jī)器人或自動(dòng)駕駛汽車等自主機(jī)器的仿真工作流中。
黃仁勛相信所有制造出來的產(chǎn)品都將擁有數(shù)字孿生,Omniverse是一個(gè)可以構(gòu)建并操作物理真實(shí)的數(shù)字孿生的操作系統(tǒng)。他認(rèn)為:“Omniverse和生成式AI都是將價(jià)值高達(dá)50萬億美元的重工業(yè)市場(chǎng)進(jìn)行數(shù)字化所需的基礎(chǔ)技術(shù)?!?/span>

5款全新Omniverse Cloud API即可單獨(dú)使用,又可組合使用:USD Render(生成OpenUSD數(shù)據(jù)的全光線追蹤RTX渲染),USD Write(讓用戶能夠修改OpenUSD數(shù)據(jù)并與之交互),USD Query(支持場(chǎng)景查詢和交互式場(chǎng)景),USD Notify(追蹤USD變化并提供更新信息),Omniverse Channel(連接用戶、工具和世界,實(shí)現(xiàn)跨場(chǎng)景協(xié)作)。

Omniverse Cloud API將于今年晚些時(shí)候在微軟Azure上以英偉達(dá)A10 GPU上的自托管API,或是部署在英偉達(dá)OVX上的托管服務(wù)的形式提供。
07.
結(jié)語:重頭戲結(jié)束了,但好戲才剛剛開始
除了上述重要發(fā)布外,黃仁勛還在演講中分享了這些進(jìn)展:
在電信領(lǐng)域,英偉達(dá)推出6G研究云平臺(tái),這是一個(gè)生成式AI和Omniverse驅(qū)動(dòng)的平臺(tái),旨在推進(jìn)無線通信技術(shù)開發(fā)。
英偉達(dá)的地球氣候數(shù)字孿生云平臺(tái)Earth-2現(xiàn)已可用,可實(shí)現(xiàn)交互式高分辨率模擬,以加速氣候和天氣預(yù)測(cè)。
黃仁勛認(rèn)為,AI的最大影響將是在醫(yī)療健康領(lǐng)域,英偉達(dá)已經(jīng)在成像系統(tǒng)、基因測(cè)序儀器和與領(lǐng)先的手術(shù)機(jī)器人公司合作,并正在推出一種新型生物軟件。

在汽車行業(yè),全球最大的自動(dòng)駕駛汽車公司比亞迪未來電動(dòng)汽車將搭載英偉達(dá)采用Blackwell架構(gòu)新一代自動(dòng)駕駛汽車(AV)處理器DRIVE Thor。DRIVE Thor預(yù)計(jì)最早將于明年開始量產(chǎn),性能高達(dá)1000TFLOPS。

黃仁勛說:“英偉達(dá)的靈魂是計(jì)算機(jī)圖形學(xué)、物理學(xué)和人工智能的交集。”在演講結(jié)束時(shí),他劃了5個(gè)重點(diǎn):新工業(yè)、Blackwell平臺(tái)、NIM微服務(wù)、NEMO和AI代工廠、Omniverse和Isaac機(jī)器人。

今天,英偉達(dá)再度刷新AI硬件和軟件天花板,并帶來了一場(chǎng)圍繞AI、大模型、元宇宙、機(jī)器人、智能駕駛、醫(yī)療健康、量子計(jì)算等前沿科技的饕餮盛宴。
黃仁勛的主題演講無疑是GTC大會(huì)的重頭戲,但對(duì)于現(xiàn)場(chǎng)和遠(yuǎn)程的參會(huì)者來說,精彩才剛剛拉開序幕!接下來,超1000場(chǎng)圍繞英偉達(dá)最新進(jìn)展以及熱門前沿技術(shù)的演講、對(duì)話、培訓(xùn)和圓桌討論將展開。多位參會(huì)觀眾表達(dá)了對(duì)“分身乏術(shù)”的無奈,他們不得不在有限的時(shí)間里精挑細(xì)選,忍痛割愛,沒法一口氣參與所有感興趣的內(nèi)容。
作為AI產(chǎn)業(yè)的重要風(fēng)向標(biāo),GTC 2024為技術(shù)交流搭建了一個(gè)空前盛大的平臺(tái),期間的新品發(fā)布和技術(shù)分享有望給學(xué)術(shù)研究和相關(guān)產(chǎn)業(yè)鏈帶來積極影響。新一代Blackwell架構(gòu)的更多技術(shù)細(xì)節(jié)還有待進(jìn)一步挖掘。智東西和芯東西將從現(xiàn)場(chǎng)持續(xù)發(fā)來一手報(bào)道,敬請(qǐng)關(guān)注。




