黃仁勛:英偉達將一年推一款全新芯片,沒有英偉達就沒有今天AI的一切(附最新演講全文)

0 評論 1639 瀏覽 2 收藏 76 分鐘

英偉達是今天生成式AI浪潮里最大的贏家,而黃仁勛要告訴世界,這一切跟運氣無關,是英偉達預見并用實力創造了今天的一切。

6月2日晚,英偉達創始人和CEO黃仁勛在COMPUTEX開幕前發表了最新的主題演講,距離上一場在GTC上的重磅發布會僅僅三個月后,這場發布會依然干貨滿滿,甚至驚喜不斷。

除了更系統全面的梳理和展示了英偉達在加速計算和生成式AI上的最新成果,黃仁勛還劇透了下一代GPU架構——

是的,“史上最強”的Blackwell剛剛公布三個月,而且還沒有開始量產發貨,下一代就在路上了。

黃仁勛表示,2025年英偉達會推出Blackwell Ultra,而2026年下一代架構名字為Rubin,2027年繼續推出Rubin Ultra。

一年一款大更新,這節奏,已經趕上手機廠商的發布節奏。

而且,這些大更新會繼續把推理成本指數級的打下來。這個路線圖的劇透,就像是黃式定律在秀肌肉。

一切盡在掌握。你們盡管買英偉達的卡就行了。

而在演講中,黃仁勛梳理英偉達從GPU,到CUDA,到最新的NIM,再到機器人和數字孿生平臺的一系列產品線的歷史時,明顯的改變了講述風格。

黃仁勛形容英偉達早就看到了CPU的瓶頸,因而走了GPU和加速計算的路——過往提到英偉達GPU產品線的誕生他還總是會謙虛,而業內也總是把GPU形容為碰巧適合人工智能計算需求的芯片。但今天黃仁勛給出的因果關系變了。

“CUDA是英偉達和人工智能的第一次親密接觸。而那之后我們深入理解深度學習的本質,有意識的重新發明了一切。改變了GPU架構,增加Tensor核,發明NV link,推出cuDNN,TensorRT,Nickel,收購Mellanox推出Triton等等。”這是英偉達的新敘事。

而其中,CUDA被黃仁勛大夸特夸。“如果沒有我們精心打造的打造的各類特定領域的庫,全球深度學習科學家們就無法充分利用潛力。CUDA就像OpenGL之于計算機圖形學,SQL之于數據分析?!彼f。

“一個新的開發平臺和擁有大量的開發者,這是個雞生蛋的問題。它很少被打破。而我們把它打破了。我們花了20年的時間,一個個的域庫,一個個加速庫的做,現在我們擁有500萬開發人員?!秉S仁勛不再需要謙虛。“CUDA已經到了一個臨界點,開始實現良性循環?!?/p>

黃仁勛在演講里,干脆不藏著掖著了,他把英偉達定義為今天世界上生成式AI浪潮的來源。

“人工智能崛起之所以有可能,完全因為我們相信只要讓強大的計算變得越來越便宜,總會有人找到巨大的用途?!彼f?!罢驗槲覀兝锰囟ㄋ惴▽⒂嬎氵呺H成本降低了100萬級別,今天使用互聯網上的所有數據來訓練大模型才成為了所有人默認合乎邏輯的選擇,不再有人懷疑和質疑這個做法?!?/p>

而在英偉達這么做之前,“沒有人預料到,沒有人提出這樣的需求。甚至沒有人理解全部潛力?!?/p>

在這場演講里,黃仁勛也不時說幾句中文。他給token提供了一個翻譯:詞元。

“今天我們可以為任何有價值的事物生成它的token。就像特斯拉發明交流電機給我們不斷產生電子,英偉達發明的是人工智能生成器,在不斷產生token?!?/p>

一切都與token有關,而英偉達制造和掌握了這一切。

以下為這場發布會的核心要點和全文實錄。

核心要點整理:

  • 新的架構路線圖:2025年是Blackwell Ultra,2026年會有新架構Rubin,2027年則是Rubin Ultra。
  • 我們現在所處的不是AI時代,而是一個生成式AI時代。
  • 幾乎世界萬物都可以轉換成Token(詞元)。
  • 價值3萬億美元的IT產業將成為 AI 工廠,為每個行業制作 AI 產品。
  • 我們需要基于物理并理解物理定律的AI。
  • 每個裝有 RTX 顯卡的 PC,都是 AIPC。
  • CUDA不僅達到了重要的成熟階段,還進入了一個自我強化的良性循環,不斷提升其性能和應用價值。
  • 隨著CPU性能增長放緩,利用CUDA等技術加速計算任務是應對計算需求指數級增長的關鍵策略,未來所有處理密集型應用和數據中心都將采用這一策略以保持效率和成本效益。
  • 這 60 年來,我們只見證了兩三次主要的技術變革,如今生成式 AI 使我們得以再次見證一次技術變革。

以下為全文實錄:

 

大家好!很高興再次來到這里。今晚我將在此舉辦一場“Don’t Walk”演講。因為我們要談論的事情很多,時間緊迫,所以不能慢慢走,得用跑的。

今晚我將談論以下幾個方面:

  • 當前的行業動態、我們正在共同努力的方向是什么?
  • 什么是生成式AI、它對我們及各行各業的影響?
  • 以及我們將如何把握這個難得的機遇。接下來會發生什么?
  • 生成式AI及其影響、我們的藍圖以及未來的展望。這些都是令人無比興奮的時刻。

一、重新梳理英偉達的歷史:沒有英偉達就沒有今天AI的一切

英偉達目前正處于計算機圖形模擬的交叉點上,這是我們的靈魂所在。我今天展示的一切都是模擬,是數學,是科學,是計算機科學,是令人驚嘆的計算機體系結構。所有內容都不是動畫制作的。這是英偉達的靈魂,我們把所有東西都放在了這個我們稱之為“Omniverse”的虛擬世界中。

你所看到的一切都基于兩項基本技術:加速計算和人工智能。這兩種技術將重塑計算機行業。計算機行業從誕生至今已有60年的歷史。從很多方面來看,我們今天所做的一切都源于1964年,IBM System 360在那一年發明,引入了中央處理單元、通用計算,并通過操作系統實現了軟硬件分離。

多任務處理、I/O、子系統、DMA,我們今天使用的各種技術、架構兼容性、向后兼容性以及我們今天所知道的關于計算的一切,主要是在1964年后誕生的。當然,PC革命使計算民主化,并將其掌握在每個人手中。2007年,iPhone推出了移動計算功能,并將電腦放進了我們的口袋。從那時起,一切都通過移動云始終連接和運行。

在過去的60年里,我們看到兩三個主要的技術轉變,兩三個計算領域的結構性轉變,一切都發生了變化。而這種情況即將再次發生。

第一個問題是處理器,計算機行業在中央處理單元上運行的引擎,其性能擴展已經大大放緩。

然而,我們需要的計算量仍然以指數級的速度翻倍。如果我們需要處理的數據繼續呈指數級增長,但性能卻沒有,我們將經歷計算膨脹。事實上,就在我們說話的時候,世界各地的數據中心電力數量正在大幅增長,計算機的成本也在不斷增長。我們看到了計算通貨膨脹。

當然,這種情況無法繼續,數據將繼續呈指數級增長,而CPU性能擴展永遠不會恢復。近二十年來,我們一直致力于加速計算,利用CUDA增強CPU,卸載和加速專用處理器可以做得更好的工作?,F在很明顯,隨著CPU擴展速度的減緩并最終大幅停止,我們應該加速一切。

我預測,每個處理密集型的應用程序都將加速,并且每個數據中心都將在不久的將來加速?,F在,加速計算是非常明智的一件事。如果你看一下應用程序,這里的100t意味著100個時間單位,它可能是100秒,也可能是100個小時。我們現在正在開發可以運行100天的人工智能應用程序。1t是需要順序處理的代碼,其中單線程CPU非常重要。

操作系統控制邏輯對于一條指令接著另一條指令執行非常重要。然而,計算機圖形是一種可以完全并行操作的圖形。計算機圖形學、圖像處理、物理模擬、組合優化、圖形處理、數據庫處理,當然還有非常著名的深度學習線性代數,有許多類型的算法非常有助于通過并行處理加速。

因此,我們發明了一種架構來實現這一點,通過向CPU添加GPU,讓專用處理器花費大量時間并將其加速到令人難以置信的速度。因為這兩個處理器可以并排工作,所以它們都是自主的,并且都是獨立的。也就是說,我們可以將過去需要100個單位時間的東西加速到一個單位時間。

嗯,速度提升聽起來難以置信,但今天我將為您展示許多例子。好處是非常非凡的,它速度提升100倍,但功率只增加了大約3倍,而你只增加了約50%的成本。我們在個人電腦行業一直在這樣做,我們增加了一個GPU,一個500美元的GeForce GPU,到1000美元的電腦,性能大大提高。我們在一個十億美元的數據中心里這樣做,我們增加了價值5億美元的GPU,突然間它變成了一個AI工廠。

這在當今世界各地都在發生。嗯,節省的成本是非常非凡的,您每美元可以獲得60倍的性能,100倍的速度,加速,您只需要將功率增加3倍,100倍的速度,您只需要將成本增加1.5倍。節省的成本令人難以置信。很明顯,許多公司花費數億美元在云端處理數據。如果它被加速,你可以節省數億美元,這并不出乎意料。

現在為什么呢?原因很清楚。

我們在通用計算領域已經經歷了很長時間的通貨膨脹?,F在我們終于決心加速,這可以幫我們挽回巨大的損失。大量捕獲的廢數據現在可以將其從系統中釋放出來,這將轉化為儲蓄,儲蓄和金錢,儲蓄和能源。這就是為什么你聽我說你買的越多,你說的就越多。你買的越多,就越安全。加速計算確實提供了非凡的結果,但這并不容易。

沒有所謂的軟件可以通過交流編譯器運行,然后突然之間該應用程序的運行速度提高了100倍。這甚至不符合邏輯。如果可以做到這一點,他們只需要更改CPU。要做到這一點,實際上你必須重寫軟件,以便您可以重構在CPU上編寫的算法,以便它可以被加速、卸載、加速和并行運行。計算機科學練習非常難,在過去的20年里,我們已經讓它變得容易了。

當然,非常著名的cuDNN,即處理神經網絡的深度學習庫,我們有一個人工智能物理學庫,您可以將其用于流體動力學和許多其他應用,其中神經網絡必須遵守物理定律。

我們有一個很棒的新項目,叫做Aerial,它是一個CUDA加速的5G無線電,這樣我們就可以用軟件定義和加速電信網絡,就像我們解決軟件定義世界網絡互聯網一樣。因此,我們加速的能力使我們能夠將所有電信變成基本上相同類型的平臺、計算平臺事業部,就像我們在云端一樣。

cuLitho是一個計算光刻平臺,使我們能夠處理芯片制造中計算密集型的部分,使得臺積電(TSMC)掩模使用cuLitho進行生產,節省了大量的能源和資金。但是臺積電的目標是加速他們的堆棧,以便他們為算法的進一步進步和更深入的網絡和窄晶體管的更多計算做好準備。

這是我們的基因測序庫。它是世界上最高通量的基因測序庫。cuOpt 是一個令人難以置信的庫,用于組合優化、路線規劃優化等問題??茖W家們已經得出結論,你需要一臺量子計算機來做這件事,我們創建了一個運行在加速計算上的算法,它運行得像閃電一樣快,創造了23項世界紀錄。我們今天保持著每一項主要的世界紀錄。

cuQuantum是量子計算機的仿真系統。如果你想設計一臺量子計算機,你需要一個模擬器來完成。如果你想設計量子算法,你需要一個量子模擬器來實現。如果量子計算機不存在,你將如何設計這些量子計算機,創建這些量子算法?你可以使用當今世界上最快的計算機,我們稱之為NVIDIA CUDA,并且在其上我們有一個模擬量子計算機的模擬器,它被世界各地的數十萬研究人員使用。它被集成到所有領先的量子計算框架中,并在世界各地的科學超級計算中心中使用,是一個令人難以置信的數據處理庫。

數據處理消耗了絕大多數的云指出,而僅靠CUDA是不可能的,世界各地的深度學習科學家都無法使用,CUDA、TensorFlow和PyTorch中使用的算法、深度學習算法分離得太遠了。

這幾乎就像嘗試在沒有OpenGL的情況下進行計算機圖形處理一樣,就像在沒有SQL的情況下進行數據處理一樣。這些特定領域的庫真的是我們公司的財富。我們有350個庫,正是它們使我們能夠擁有如此開放的市場的原因。

今天我會給你看一些其他的例子。就在上周,谷歌宣布他們已經將cuDF放入云端并加速Pandas。Pandas是世界上最受歡迎的數據科學庫。在座的許多人可能已經在使用Pandas了。它被全球1000萬數據科學家使用,每月被下載1.7億次。Excel是數據科學家的電子表格。只需單擊一下,您現在就可以在Colab中使用Pandas,這是谷歌的云數據中心平臺,由cuDF加速。速度真的令人難以置信。那是個很棒的演示,對吧?

當您加快數據處理速度時,演示不需要很長時間。CUDA現在已經達到了人們所說的臨界點,但它甚至比這更好,CUDA現在已經達到了一個良性循環。如果你回顧歷史和所有的計算架構、計算平臺,這種情況很少發生。

在微處理器CPU的情況下,它已經存在了60年。在這個水平上60年沒有改變。

加速計算已經出現,創建一個新的平臺非常困難,因為這是一個先有雞還是先有蛋的問題。如果沒有開發人員使用您的平臺,那么當然就沒有用戶,但是如果沒有用戶,就沒有安裝基礎。如果沒有基于安裝的開發人員對它不感興趣。開發人員希望為大型安裝基礎編寫軟件,但大型安裝基礎需要大量應用程序,以便用戶可以創建該安裝基礎。

這個雞或蛋的問題很少被打破,現在已經花了我們20年的時間。一個個的域庫,一個個加速庫,現在我們在全球擁有500萬開發人員。我們服務于每一個行業,包括醫療保健、金融服務、計算機行業、汽車行業,以及世界上幾乎每一個主要行業,幾乎每一個科學領域。因為我們的建筑有很多客戶。OEM和云服務提供商對構建我們的系統感興趣。

系統制造商對構建我們的系統感興趣,然后將更多的系統推向市場,這當然為我們創造了更大的機會,這使我們能夠增加我們的研發規模,從而進一步加快應用程序的速度。嗯,每一次我們加速應用程序,計算成本就會下降。

就像我在幻燈片里演示的一樣,100倍加速比轉化為97%、96%、98%,因此當我們從100倍速度提高到200倍速度提高到1000倍速度時,計算的邊際成本節省將繼續下降。

當然,我們相信通過令人難以置信地降低計算成本,市場開發者、科學家、發明家將繼續發現新的算法,這些算法消耗越來越多的計算資源,這樣總有一天會發生面部表情的變化。計算的邊際成本如此之低,以至于出現了一種新的使用計算機的方式。

事實上,這就是我們多年來所看到的,在過去10年中,我們已經將一個特定算法的邊際計算成本降低了一百萬倍。因此,現在使用互聯網上的所有數據來訓練大型語言模型是其實是非常合乎邏輯的一件事。沒有人會三思而后行,認為你可以創建一臺能夠處理如此多數據的計算機來編寫自己的軟件。

人工智能的出現之所以成為可能,是因為我們完全相信,如果我們讓計算變得越來越便宜,就會有人發現它有很大的用處。

好的,今天,CUDA已經實現了良性循環,安裝基礎正在增長,計算成本正在下降,這使得更多的開發人員提出更多的想法,從而推動更多的需求。

現在我們正處于一件非常重要的事情的開始。但在我公布之前,我想先說下什么是不可能的,如果不是因為我們創造了現代版本的通用AI,生成AI。那我們的新產品將不可能實現。

這個是地球2號,我們將創建地球的數字孿生體,我們將前往模擬地球,以便我們可以預測地球的未來,幫助我們更好地避免災難或更好地了解氣候變化的影響,讓我們可以更好地適應新環境,改變生活習慣。

這個地球的數字孿生體,可能是世界上有史以來最雄心勃勃的項目之一。我們每年都在向前邁出一大步。今年,我們取得了一些重大突破,舉例來說。

周一,風暴將再次向北并接近。它的路徑存在很大的不確定性,不同的路徑將對頂部產生不同程度的影響。想象一個我們能夠預測未來的世界——數字孿生,一個反映真實情況的虛擬世界,讓我們看見未來。數字孿生是一種反映真實世界的虛擬模型,讓我們能夠從今天的行為來預測對未來世界的影響。

介紹一下NVIDIA Earth-2,一個利用AI物理模擬和電腦圖形技術來預測全球氣候的數字孿生。FourCastNet是NVIDIA的生成式AI模型,它在WRF數值模擬的基礎上訓練而成,能夠以12倍更高的分辨率生成天氣模式,從25公里提高到2公里,這代表了區域天氣預測的一個巨大飛躍。

令人驚訝的是,FourCastNet比傳統的物理模擬方法快1000倍,且能源效率高3000倍。在氣象局,我們使用這些模型來更精確地預測臺風登陸點。

但我們并不止步于此。

下一個前沿是超本地預測,能精確到數十米,并考慮到城市基礎設施的影響。FourCastNet AI還在使用像是PALM生成的高分辨率數據進行訓練。一個極高分辨率的物理模型用于模擬大氣和海洋邊界層。當與天氣模擬風場結合一起時,它可以模擬建筑物周圍的氣流。當強風匯聚的情況,我們預計能夠預測下沖這樣的現象。當強風匯聚到街道上,有可能造成損壞并影響行人。

NVIDIA Earth-2是一個絕佳范例,它融合了人工智能、物理模擬和觀測數據,可以幫助國家和公司預見未來并應對極端天氣的影響。

不久的將來,我們可以隨時隨地提出我們的氣象預報。我們可以隨時掌握當地的氣候變化。而且它是連續性的預測,為什么呢?因為我們已經把這個AI都訓練好了,而且它不需要消耗太多的電力。

希望大家喜歡剛才我們的這個例子,我的國語講得標準嗎?但這不是我說的,這個是Jason AI說的,我給他寫了這個臺詞,由Jason AI也就是我的數字孿生體幫我做旁白的,所以我的國語不夠好,但我有孿生幫我做的旁白,這真的是一個奇跡。

之前在2012年,我們正致力于推進CUDA,致力于不斷提高驅動器的性能并降低成本,此時研究人員發現了AI,這是英偉達與AI的第一次接觸。

這是一個非常重要的時間。我們與優秀科學家合作,使深度學習發生成為可能。當然,AlexNet實現了計算機視覺方面的巨大突破。但我們還需要了解背景是什么,深度學習的基礎是什么,它的長期影響是什么,它的潛力是什么?

我們意識到這項技術具有巨大的潛力,可以擴展幾十年前發明并發現的算法。突然之間,我們需要更多的數據,更大的網絡,非常重要的是,更多的計算。突然間,深度學習能夠實現人類算法現在無法想象的目標。如果我們進一步擴展架構,使用更大的網絡,更多的數據和更多的計算,會發生什么呢?所以我們致力于重新發明一切。

在2012年之后,我們改變了GPU的架構以添加Tensor Core,我們發明了10年前的NVLink,現在可以使用TensorRT。我們購買了Mellanox,TensorRT,以嘗試推理服務器,所有這些都整合在一臺全新的計算機上。

沒有人理解,事實上,我確信沒有人想買它,所以我們在GTC上和OpenAI介紹它,它當時還是舊金山的一家小公司,他們要求我給他們送一個。我在2016年向OpenAI交付了第一臺DGX,世界上第一臺AI超級計算機。

好的,在那之后,我們繼續從1臺AI超級計算機、1臺AI設備擴展到大型超級計算機,到2017年甚至有了Transformer,這樣我們就可以訓練大量數據并識別和學習在很長一段時間內順序排列的模式?,F在我們可以訓練這些大型語言模型來理解并實現自然語言理解突破,之后我們繼續努力,建造了更大的模型。

然后在2020年10月22日,在一臺非常大的AI超級計算機上訓練了數千、數萬個NVIDIA GPU。OpenAI五天后宣布ChatGPT達到100萬用戶,五天后增加100萬用戶,兩個月后增加1億用戶,這是歷史上增長最快的應用程序。

這背后的原因非常簡單,它非常易于使用,使用起來非常神奇,能夠像人類一樣與計算機交互,而且清楚地知道你想要什么,就像計算機理解你的意思。

二、未來一切都與Token有關,而一切Token都由英偉達來生成

ChatGPT還沒有跟大家見面之前,所謂的人工智能都是需要如何理解自然語言、電腦視覺、語音的識別。換句話說是感知的能力,偵測的能力。

這是我們第一次看到有生成式的人工智能系統出現,它可以產生我們所謂的詞元(token),一次產生一個詞元,而這些詞元就變成是我們的文字。當然有些詞元它可能是影像,它可能是線圖,可能是表格、歌曲、演講、視訊、影片,有可能是任何形式,只要是有意義的,都算是,甚至包括蛋白質、化學分子等等。

你之前在NVIDIA Earth-2中看到的,我們正在生成天氣的詞元。我們可以理解,我們可以學習物理。如果你能學習物理,你可以教一個AI模型物理知識。AI模型可以學習物理學的含義,并且可以生成物理學。我們用的不是過濾的方法,我們用的是深層次的人工智能,讓我們的分辨率,氣候預報的分辨率不斷的提高。所以幾乎所有的事情都可以把它轉換成Token,Token是非常有價值的。

我們現在所處的不是AI時代,而是一個生成式AI時代。那它的重要性在哪里呢?原本我們說這是一部超級電腦,可是它現在不斷的進化,它已經變成了資料中心。而且它生產的東西是什么?就是資源。這就是一個人工智能工廠。他們產生的是新形態的大宗商品,每個產業都用得到,具有無比的價值。而他更好的是,他這種方法是可以復制的,是可以擴展的。因此你們有沒有注意到,現在我們每一天都有一些新的生成式的AI模型被打造出來。

價值3萬億美元的IT產業,即將創造一些可以直接服務于價值100萬億美元的產業的東西,不再僅僅是信息存儲或數據處理的工具。而是一個為每個行業生成智能的工廠。AI 將帶來一個全新的制造業,不是計算機制造業,而是在制造業中使用計算機。

這是一場工業革命,而不僅僅是對我們行業的影響。我們可以為許多行業創造一種新的商品,一種我們稱之為“詞元”(token)的新產品。

正如我之前所說,60年來,不同的運算方式都在改變。從CPU到通用目的的運算,到加速的GPU運算。以前電腦需要指令命令,現在它可以去處理大型語言模型、AI模型。

現在計算機處理大型語言模型、AI模型,而過去的計算模型是基于檢索的,幾乎每次你觸摸手機時,一些預先錄制的文本、預先錄制的圖像或預先錄制的視頻會為您檢索,并根據推薦系統重新合成,以根據您的習慣呈現給您。

但在未來,你的計算機將盡可能多地生成,只檢索必要的內容。其原因是生成的數據需要較少的能量來獲取信息。生成的數據也更具上下文相關性。它將對知識進行編碼,它將編碼你對你的理解,而不是為我獲取這些信息或為我獲取那個文件。

在未來,你只需要問電腦,它就能提供你需要的檔案和信息。未來的電腦不再只是我們所使用的工具了。未來電腦它甚至能夠生成新的技能,它會幫你做一些工作。所以未來這個產業它不再只是去設計軟件,設計應用程序。

當你使用ChatGPT時,在它們的堆棧下面是一堆軟件,在提示符下面是軟件,這是非常復雜的,因為模型有數十億到萬億個參數。它不是只在一臺計算機上運行,而是在多臺計算機上運行。它必須將工作負載分布在多個GPU上,張量并行,管道并行數據,各種并行,專家并行,各種并行,將工作負載分布在多個GPU上,盡可能快地處理它。

當然,這在90年代是非常了不起的。大家別忘記當時微軟他們有這個套裝軟件,可以說是改變了整個電腦的產業。

因為如果沒有這些套裝軟件的話,我們干嘛要電腦呢?我們電腦能拿來做什么呢?

所以這些套裝軟件當然推動了整個產業。但是現在我們有新的工廠,新的電腦,我們現在也會有新的軟件,我們就把它叫做NIM,NVIDIA的推理即服務。這個NIM它是在工廠里頭運行的,而這個NIM它是一個預先訓練的模型,它是一個AI。這個AI當然本身是非常的復雜,但是去運行這個AI的運算堆疊,它非常的復雜。

你去使用ChatGPT, 它底下有非常非常多軟件。你下一個指令,你下一個提示,背后其實有非常多的軟件正在跑。所以它不只是在一個參數上面跑,是數以萬計、數以億計的這個運算參數在跑。它需要做Tensor的各式各樣的并行、不同的平行等等平行運算。所以它有各式各樣的平行在走,它在不同的GPU上分配它的這個作業負載,它的速度也非常的快。

如果我們今天要經營工廠的話,你的這個產量是多少?跟你的服務品質,跟你的營收,跟有多少人可以使用你的服務有非常正向的關系。

我們現在的這個資料中心,它的傳輸量非常的大,所以傳輸量的使用率就很重要了。以前也很重要,只是沒那么重要。以前很重要,但是大家不會去測量它?,F在每一個參數都必須要測量起始時間、使用時間、利用率、idle的時間等等。因為現在它就變成是一座工廠了。它一旦它變成工廠,它的一切的運行就會跟這家公司它的財務表現有很密切的關系。我們知道對于大部分的公司來說,這都是非常復雜的事情。

三、你在AI時代需要的,英偉達全都有

所以我們就去把這個AI裝進了一個盒子里頭,這些容器,這些container里頭有非常多很棒的軟件。

在這個容器里頭有CUDA、cuDNN、TensorRT Triton,它是推理即服務,它是在云端上的一個堆疊。

除此之外它也有各式各樣的管理的服務,還有hooks可以去讓大家監督自己的AI,它有通用的API、標準的API,所以基本上你就可以跟這個盒子來對話,你把這個推理即服務下載,你可以跟他對話。所以你在只要你的電腦上有CUDA,基本上現在基本上每一組每每一朵云上面都有,有數億臺電腦上面都有。大家把它下載之后,你就有AI你可以跟他對話,就像你跟ChatGPT對話一樣。所有的軟件現在都整合在一起了,四百多個dependency都把它整合在一起。

我們測試了這些NIM,每一個都是預先訓練的,是他們都是可以安裝的。在各種云上面,不管是Pascal或者是Ampere,各種不同的版本,Hopper也可以各式各樣不同的版本。我甚至還會忘記有哪一些。所以NIM這個NVIDIA的推理即服務,真的是很棒的一個發明,我真的非常的喜歡。我想大家也知道,我們現在可以創造各式各樣的大型語言模型,還有預先訓練的模型。我們有各式各樣不同的版本,不管它是語言版本的,或者視覺,或者是圖片版本為主的,或者是說針對這個醫療保健產業的、數字生物產業的。

我們還有是所謂的數字人。甚至我們可以請大家去看一下,我們今天才貼了Hugging Face這個Llama 2 NIM,它是完全優化的,大家可以去試試看,甚至可以帶著走,那是免費的。所以大家可以在云上面來運行,然后可以下載這個容器放在自己的資料中心里頭,你可以放在自己的資料中心提供給你的客戶使用。

使用它的方式是將這些微服務連接到大型應用程序中。當然,未來最重要的應用之一是客戶服務代理。幾乎每個行業都需要客戶服務代理。它代表著全球數萬億美元的客戶服務。護士在某些方面是客戶服務代理,其中一些是非處方或非診斷性質的。

現在可以通過語言模型和AI增強數千萬的客戶服務,所以你看到的基本上是NIM,其中一些NIM是給定任務的推理代理,找出任務是什么,將其分解成一個計劃。一些NIM檢索信息,一些NIM可能會去搜索,可能一些NIM會使用我之前提到的cuDF工具,他們可以使用一種可以在SAP上運行的工具,因此它必須學習一種名為ABAP的特定語言。也許一些NIM必須進行SQL查詢。

因此,所有這些NIM都是現在組成一個團隊的專家。應用層已經發生了變化,曾經用指令編寫的應用程序現在變成了組裝團隊的應用程序,很少有人知道如何編寫程序。幾乎每個人都知道如何分解問題并組建團隊。

我相信未來的每家公司都將擁有大量的NIM團隊,你可以帶下你想要的專家,將他們連接成一個團隊,你甚至不需要弄清楚如何連接他們,你只需將任務交給代理人。給一個名字,以找出誰來分解任務以及將任務交給誰。然后,應用程序的領導者,如果你愿意,團隊的領導者會分解任務并將其交給各個團隊成員,團隊成員將執行他們的任務,并將其帶回團隊領導者。

團隊領導會對此進行推理,并向您反饋信息,就像人類一樣。在不久的將來,這就是應用程序的外觀?,F在我們可以通過文本提示和語音提示與這些大型AI服務進行交互,但是,在許多應用程序中,我們希望與其他類似人類的形式進行交互。我們稱它們為數字人類。英偉達研究數字人類技術已經有一段時間了。

數字人類有潛力成為一個偉大的互動代理,與你互動,他們可以讓你更有吸引力,更有同理心。當然,我們必須跨越這個令人難以置信的鴻溝,這個不可思議的現實主義鴻溝,這樣數字人類就會顯得更加自然。這當然是我們的愿景,這是我們喜歡去的地方的愿景,但讓我向您展示我們現在的位置。

想象一下,未來的計算機可以像人類一樣與我們互動。這就是數字人類令人難以置信的潛力。數字人類將徹底改變從客戶服務到廣告和游戲的各個行業。

利用手機掃描廚房,AI室內設計師就能生成照片級逼真的設計建議,并采購材料和家具。我們已經為您生成了幾種設計方案。數字人類還可以成為AI客戶服務代理,提供更具吸引力的互動體驗,或化身數字醫療保健工作者,提供及時、個性化的護理。他們甚至可以成為AI品牌大使,引領營銷和廣告的新潮流。

生成式人工智能和計算機圖形學的新突破,讓數字人類能夠以人類的方式看、聽、理解和與我們互動。從我看到的,您似乎正在進行某種錄音或制作。數字人類的基礎是基于多語言語音識別和合成的人工智能模型,以及能夠理解和生成對話的人工智能模型。

AI連接到另一個生成式AI,動態制作逼真的3D面部網格動畫。最后,能夠重現逼真外觀的人工智能模型實現了實時路徑追蹤和次表面散射,模擬光線穿透皮膚、散射并在不同點離開的方式,使皮膚呈現出柔軟和半透明的外觀。

NVIDIA Ace是一套數字人類技術,打包成易于部署、完全優化的微服務或“Nim”。開發人員可以將Ace Nim集成到他們現有的框架、引擎和數字人類體驗中。NIM Tron SLM和LM Nim可以理解我們的意圖并協調其他模型。Riva語音Nim用于交互式語音和翻譯;音頻到面部和身體動畫的面部和手勢Nim;以及Omniverse RTX與DLSS用于皮膚和頭發的神經渲染。Nim運行在NVIDIA GDM之上,這是一個全球性的NVIDIA加速基礎設施網絡,為100多個地區提供低延遲的數字人類處理。

我們一直在研發AI GPU,為這一天做好準備。原因很簡單,我們一直都知道,要創建一個新的計算平臺事業部,首先需要一個已安裝的基礎。最終,應用程序會隨之而來。如果你不創建已安裝的基礎,應用程序從何而來?因此,如果你建造它,它們可能會來,但如果你不建造它,它們就一定不會來。因此,我們安裝了每個帶有張量核心處理的RTX GPU?,F在,我們在全球擁有1億個GeForce RTX AIPC。

在這次發布會上,我們展示了4款令人驚嘆的新筆記本電腦。它們都能夠運行AI。你未來的筆記本電腦,你未來的電腦都將融入AI。它會不斷地幫助你,在后臺協助你。PC還將運行由AI增強的應用程序。當然,你所有的照片編輯、寫作和工具,以及你使用的所有東西都將通過AI得到增強。你的電腦也將托管帶有數字人類的應用程序。

AI將以不同的方式在個人電腦上呈現和使用,但個人電腦將成為一個非常重要的AI平臺。那么我們從這里走向哪里呢?我之前談到了我們數據中心的擴展。每一次擴展,當我們從DGX擴展到大型AI超級計算機時,我們發現了一個新的拐點,我們讓Transformer能夠在非常大的數據集上進行訓練。

嗯,一開始發生的事情是,數據是由人類監督的。需要人工標記來訓練人工智能系統。不幸的是,人類標簽的數量是有限的。Transformers使無監督學習成為可能。現在,Transformers只需查看大量數據或查看大量視頻,或查看更大量的圖像,它們可以從研究大量數據中學習,找到模式和關系本身。

雖然下一代AI需要基于物理,但今天大多數AI都不理解物理定律。它不是植根于物理世界,無法生成圖像、視頻、3D圖形和許多物理現象。我們需要基于物理并理解物理定律的AI。當然,從視頻中學習是一個來源。另一種方式是合成數據、模擬數據,另一種方式是使用計算機相互學習。這與使用AlphaGo沒有什么不同,讓AlphaGo自己玩自己的游戲,在這兩種能力之間,將相同的能力相互玩很長一段時間,它們變得更加聰明。

你開始看到這種類型的AI崛起,如果任何數據都是合成生成并使用強化學習,那么數據生成速度將繼續提高是合理的。每一次數據生成的增長,我們所提供的計算量也需要隨之增長。我們即將進入一個階段,在這里,AI可以學習物理和理解定律,并以物理世界的數據為基礎,因此我們預計模型將繼續增長,我們需要更大的GPU。Blackwell就是為這一代人設計的。

這是Blackwell,擁有幾項非常重要的技術。當然,這只是芯片的大小。我們拿了兩個最大的芯片,一個是TSMC所能做到的最大的芯片,我們將其中兩個連接在一起,每個第二個環節10TB,將世界上最先進的GPU連接在一起。將這兩個連接在一起,然后我們將其中兩個放在一個計算機節點上,用一個Grace CPU連接它。

在訓練情況下,Grace CPU可以用于幾件事情。它可以使用,它可以用于快速檢查點和在推理和生成的情況下重新啟動。它可以用于存儲上下文記憶,以便AI具有記憶并理解我們想要的對話的上下文。這是我們的第二代Transformer引擎。Transformer引擎允許我們根據該計算層所需的精度和范圍動態適應較低的精度。這是我們的第二代GPU,具有安全的AI,因此您可以要求服務提供商保護您的AI免遭竊取、盜竊或篡改。這是我們的第五代NVLink。

NVLink允許我們將多個GPU連接在一起。這也是我們第一代具有可靠性和可用性引擎的產品。這個RAS系統,允許我們測試每一個晶體管片上存儲器觸發器、片外存儲器,這樣我們就可以在現場確定某個芯片是否沒有MTBF。與此同時,一臺擁有10000個GPU的超級計算機發生故障之間的間隔是以小時為單位測量的。超級計算機故障之間的時間間隔是100000個GPU的間隔。它以分鐘為單位測量。

如果我們不發明技術來增強其可靠性,超級計算機能夠長期運行并訓練可能持續數月的模型的能力實際上是不可能的??煽啃援斎粫黾诱_\行時間,這直接影響成本。最后,減壓。引擎數據處理是我們必須做的最重要的事情之一。我們添加了數據壓縮引擎解壓縮引擎,以便我們可以以比今天更快的速度20倍的速度從存儲中提取數據。

所有這些都代表了Blackwell。我們在GTC期間展示了Blackwell的原型。這是世界上有史以來最復雜、最高性能的計算機。這是灰色的CPU。這些是Blackwell模具,其中兩個連接在一起。

這是世界上最大的芯片。我們用10TB/s的NVLink將兩個GPU連接在一起。這使得Blackwell計算機的性能令人難以置信。我們在八年內將計算量和人工智能模型規模提高了一千倍。我們通過計算能力的提升降低了能耗。用于訓練GPT-4的2萬億參數、8萬億token,能耗下降了350倍。以前用Pascal架構需要1000吉瓦時,這意味著需要一個千兆瓦的數據中心。世界上沒有千兆瓦的數據中心,即使有,訓練也需要一個月的時間。

這就是為什么僅在八年前,我們通過不斷提高性能和能效來實現ChatGPT這樣的大型語言模型。如果一臺超級計算機有1萬個GPU,平均無故障時間是1萬小時。但現在是用分鐘來衡量的,所以一臺超級計算機要能夠運行很長一段時間,才能長期訓練一個模型。這就要求我們的技術非常可靠,不能中斷運行。持續運行需要花費很多時間和金錢。所以我們加入了數據壓縮和解壓縮引擎,讓數據訪問速度提高20倍。

四、展示Blackwell,劇透它的替代者

這就是Blackwell,我們這里有一個已經在生產中的Blackwell。在GTC,我給大家看了Blackwell的原型。這就是我們正式生產的Blackwell,里面有最尖端的技術。這是我們實際生產的版本,可以說是功能和性能最強大的芯片。這是我們的CPU。每個裸晶包含兩個GPU,這可以說是世界上我們可以生產出來的最大的芯片。它兩個串聯起來的時候,連接的速度是10TB/s。Blackwell電腦的性能非常強大。

這是一個DGX Blackwell,氣冷式,里面有八個這樣的GPU??纯催@些GPU上的散熱片大小。大約15千瓦,完全氣冷式。這個版本支持x86,并且進入了我們一直在運輸的Hopper基礎設施。但是,如果您想要液體冷卻,我們有一個新系統。這個新系統基于模塊化的MGX。這是兩個Blackwell板。所以這個節點有四個Blackwell芯片,這是一個兩層的系統。九個這樣的節點加在一起,總共有72個GPU,用新的NVLink連接在一起。這是我們的NVLink交換器,是我們第五代NVLink產品。

NVLink交換器可以說是科技上的一種奇跡,它的數據傳輸速率真的太快了。

如果把所有Blackwell芯片串聯在一起,就可以有一個72個GPU的Blackwell系統。這樣做的好處是,在每個GPU的領域中,看起來就像一個GPU,但實際上有72個。與上一代相比,數量是9倍,帶寬是18倍,浮點運算能力是45倍,但功耗只有10倍。這是一個100千瓦的系統,之前是10千瓦。當然你可以把更多的芯片串聯在一起。

為什么說NVLink芯片是一個科技上的奇跡呢?

因為NVLink把所有芯片串聯在一起,大型語言模型不能只有一個節點,不能只有一個GPU。我們必須把整個機架里頭所有的GPU全部都連接在一起,這樣才能有一個可以處理十兆參數以上的大型語言模型。它有500億個晶體管,72個端口,4個NVLink,每秒速度是1.8TB。

這就是我們現在的DGX。很多人都在問我們,NVIDIA到底是做什么的,為什么單憑GPU就能變得這么大?這就是GPU,這可以說是世界上最先進的GPU,不過這是打電話用的GPU。我旁邊的這個也是一個GPU,各位女士,各位先生,這就是我們的DGX,GPU跟過去已經截然不同了。

這個GPU的后面就是NVLink所組成的一個背板。這個背板當中有5000條線,加起來有兩英里這么長。這就是我們所謂的NVLink背板,可以連接72個GPU。把70個GPU連接在一起,這可以說是在電機學上面的一種奇跡。它通過銅線讓NVLink交換器,透過背板當中的銅線,讓我們一個機架可以節省20千瓦。我們可以把節省下來的20千瓦用來進行數據處理,這就是NVLink背板。

我們要打造AI工廠,所以我們必須要有更高速的網絡技術。我們有兩種InfiniBand。第一種InfiniBand用在AI工廠和超級電腦當中,而且它成長的速度非常的快??墒遣⒉皇敲總€資料中心都可以用InfiniBand,因為他們以前已經采用了以太網絡了。實際上,管理InfiniBand是需要一些特別的技術。因此我們就把InfiniBand的一些功能,放到以太網絡的架構當中。這其實非常的困難,為什么呢?

道理很簡單。以太網絡當初設計的時候,它是針對平均傳輸量比較高的系統。每個電腦、每個節點都是連接到一個不同的人,大部分是資料中心跟另外一端的人在進行溝通??墒茿I工廠當中的深度學習系統GPU并不是跟人來做溝通。GPU是他們彼此之間在做溝通,因為他們在收集數據,也就是把產品的部分數據收集起來,然后進行縮減,然后再重新的來進行分配。所以重點不是平均的傳輸量,而是最后一個接收到信息的那個GPU。

因為你是從每個人那邊去收集一些資料,看誰的速度最慢。這個系統的速度就決定于哪一個人給資料的時候速度最慢。那個人就決定了這樣的一個速度。過去以太網絡是辦不到的,所以我們必須要有端到端的架構。這當中有四個不同的技術。NVIDIA有世界上最先進的NVLink和RDMA。

RDMA是專門針對以太網絡所做的設計。除此之外,我們還有擁塞控制系統,它很快的在處理這些參數的數值。每次假如有任何GPU送出太多的資料,我們就叫他們慢一點,這樣才不會產生瓶頸。第三個就是自適應路由,以太網絡必須要傳送和接收資料的時候,必須要按順序來。假如我們看到有任何端口沒有使用,或者是有塞車的情形,我們就把這個信息送到沒有使用的端口,這樣我們就可以把工作的順序重新安排好。

還有一個很重要,就是流量隔離。因為我們在訓練的模組不止一個,所以資料中心里頭一定都會有一些其他流量。一旦進入我們的工作流程當中,就會產生噪音。這樣就會影響數據傳遞的速度,就會使訓練的速度變慢。我們已經打造了一個50億或者30億美金造價的資料中心來做訓練。假如網絡的利用率降低40%,培訓時間延長了20%,那么50億美元的數據中心實際上花費了60億美元。因此成本影響相當大。

使用Spectrum-X以太網基本上允許我們大大提高性能,因此網絡基本上是免費的。所以這真的是一個相當大的成就。我們非常,我們擁有完整的以太網產品管道。這是Spectrum-X 800,它是51.2 Tb每秒和256個端口。

接下來即將到來的是512端口的Spectrum-X,即一年之后的Spectrum-X 800 Ultra。之后的那個是X 1600。重要的是,X 800是為成千上萬個GPU設計的,X 800 Ultra也是為成千上萬個GPU設計的,而X 1600是為數百萬個GPU而設計的。數百萬GPU數據中心的日子即將到來。

原因很簡單。當我們希望訓練更大的模型時,在未來,幾乎你與互聯網或計算機的每次互動都可能在云端運行生成式AI。生成式AI正在與你合作,與你互動,生成視頻、圖像或文本,或者可能是數字人。因此,你幾乎一直在與計算機進行交互,并且總是有一個生成式AI與之相連。有些在本地,有些在你的設備上,其中很多可能在云端。

這些生成式AI還將具有大量的推理能力,而不僅僅是一次性答案,它們可能會對答案進行迭代,以便在將答案提供給您之前提高答案的質量。因此,未來我們將要處理的生成內容的數量將是非凡的。

讓我們現在來看看今晚所有這些,這是我們的第一個夜間主題演講。你不能在早上的主題演講中這樣做。我認為這種基調風格在Computex中從未做過,可能是最后一次。只有媒體才能做到這一點,只有我能做到。當然,Blackwell是最初推出的第一代媒體平臺。

正如世界所知,生成式AI時代已經到來。正如世界意識到AI工廠的重要性一樣,正如這場新工業革命的開始。我們有如此多的支持者,幾乎每個OEM、每個計算機制造商、每個CSP、每個GPU云、主權云,甚至電信公司,世界各地的企業,成功的數量,采用率,對Blackwell的熱情程度都非常令人興奮。我想為此感謝大家。

我們不會止步于此。在這個令人難以置信的增長時期,我們希望確保繼續提高性能,繼續降低成本,包括培訓成本、推理成本,并繼續擴展AI能力,以使每家公司都能接受。我們走的越遠,性能越強,成本下降就越大。當然,Hopper平臺可能是歷史上最成功的數據中心處理器。這只是一個令人難以置信的成功故事。

然而,Blackwell就在這里,正如你所注意到的,每個平臺都有幾件事情。你有CPU,有GPU,有NVLink,有NIC,還有這個交換器。NVLink交換器會把所有的GPU連接在一起,把它變成一個最大的領域。我們因此可以用非常高速的交換器。但其實它是一整個平臺,我們打造一整個平臺,我們把整平臺整合成一個AI工廠的超級電腦,我們再把它分散,讓全世界都可以使用。

在座各位都有能力去創造非常有趣、非常有創意的一個設置配置,可以用不同的風格,不同的數據中心,不同的顧客。你們可以在不同的地方,不同的邊緣,甚至是有一些是電商等等。所以我們盡量讓它有彈性,讓大家可以有最有創意的方式來進行建構。

關于Blackwell平臺,我們公司按照一年一個的節奏推出。我們的基本理念非常簡單,我們要建立整個數據中心,再將它分解,并以一年的節奏部分賣給用戶。我們將一切推向技術極限。無論是什么TSMC工藝,技術都會把它推向絕對極限,無論是什么封裝技術,都將它推向絕對極限,無論是什么存儲技術,都將它推向絕對極限,無論是網絡技術,光學技術,一切都將被推向極限。

然后在那之后,以這樣的方式做所有事情,以便我們所有的軟件都能在整個安裝的基礎上運行。軟件慣性是計算機中最重要的事情。當計算機向后兼容并且在架構上與已經創建的所有軟件兼容時,您進入市場的能力將更快。因此,當我們可以利用整個軟件安裝基礎時,速度是令人難以置信的。這就是我們在Blackwell在場時所創造的一切。

明年我們將推出Blackwell Ultra,就像我們有H-100和H-200一樣,你可能會看到我們的一些非常令人興奮的新一代,Blackwell Ultra再次挑戰極限,推出我提到的下一代Spectrum交換器。

下一個是我們的另一個開發平臺,代號Rubin。我不會用太長時間介紹Rubin,大家肯定會拍照來看細節內容。我們有了Rubin平臺,一年后我們會有Rubin Ultra平臺。到時候所有的產品都將會百分百兼容。

過去的12年里,從ImageNet讓我們意識到計算的未來將發生根本性變化,到今天,就像2012年之前的早期GeForce和今天的NVIDIA一樣,這家公司確實發生了巨大的變化。我要感謝所有在這里支持我們每一步的合作伙伴。

五、機器人與數字孿生及其他

接下來,我想談談下一波AI浪潮——物理AI,即理解物理定律的AI。

AI可以在我們之間工作,因此它們必須理解世界模型,以便解釋和感知世界。當然,它們還必須具備出色的認知能力,這樣才能理解我們的要求,并在未來執行任務。

機器人技術是一個更普遍的概念。當我說機器人時,通常指人形機器人,但事實并非如此。所有的工廠都將是機器人員工,工廠將安排機器人工作,這些機器人將建造機器人產品,并與機器人互動。為了實現這一點,我們需要取得一些突破。

總有一天,所有移動的東西都將是自主的。世界各地的研究人員和公司正在開發由物理人工智能驅動的機器人。物理AI是能夠理解指令的模型,一個自主機器人在現實世界中執行復雜的任務。多模態大型語言模型是使機器人能夠學習、感知和理解周圍世界,并持續突破、計劃如何行動的關鍵。

機器人現在可以學習使用粗略和精細的運動技能與世界互動。推進機器人技術的一項重要技術是強化學習,就像大型語言模型需要從人類反饋中獲取RLHF(Reinforcement Learning from Human Feedback,即基于人類反饋的強化學習)來學習特定技能一樣,物理AI可以利用模擬世界中的物理反饋強化學習來學習技能。這些模擬環境是機器人通過在遵循物理定律的虛擬世界中執行行動來學習決策的地方。機器人可以學習復雜而安全的日常任務,并通過數百萬次的嘗試和行動來完善他們的技能。

在操作系統上,典型的AI模擬并重新創建。

這是一種發展嗎?

世界模擬結合了實時、基于Omniverse的物理模擬和生成式AI技術。機器人可以學習如何成為機器人,他們學習如何自主操縱物體,例如抓取和處理物體,或自主導航環境,在避開障礙物的同時找到最佳路徑。在Omniverse中學習,將模擬與現實的差距最小化,最大化學習行為的遷移。

建造具有這種能力的機器人需要三臺英偉達AI超級計算機來訓練模型。因此,我們推出了NVIDIA Omniverse,讓機器人可以學習和完善他們的技能。我們構建開發人員和公司所需的平臺、加速庫和AI模型,并允許他們使用。

對他們來說,這就是下一波人工智能機器人的浪潮,人工智能的時代和工業革命。

我們有幾種方式來服務市場。

首先,我們將為每種類型的機器人系統創建平臺,一個用于機器人工廠和倉庫,一個用于操縱事物的機器人,一個用于移動的機器人,一個用于人形機器人。這些機器人平臺包括計算機加速庫和預訓練模型,我們測試一切,訓練一切,整合一切。

這里是機器人學習如何成為機器人的地方。當然,現在機器人倉庫的生態系統真的非常復雜。需要很多公司、很多工具、很多技術來建造一個現代化的倉庫。倉庫越來越趨向自動化,直到某一天將會完全自動化。因此,在每個生態系統中,我們都有SDKs和APIs連接到軟件行業,SDKs和APIs連接到邊緣AI行業和公司。當然,還有為PLC設計的系統和用于ODM的機器人系統。然后由集成商集成,最終為客戶建立倉庫。

工廠擁有完全不同的生態系統,富士康正在建造一些世界上最先進的工廠。他們的生態系統包括用于設計工廠、工作流程、為機器人編程的邊緣計算機和機器人軟件,當然還有協調數字工廠和人工智能工廠的PLC計算機。我們也有連接到每個生態系統的SDKs。這正在各地發生。富士康已經建立了他們工廠的數字孿生,Delta也正在建立他們工廠的數字孿生。

Pigatron正在建立他們的機器人工廠的數字孿生,Wistron也正在建立他們的機器人工廠的數字孿生。這真的很酷。讓我們來看一看富士康新工廠的視頻。隨著世界將傳統數據中心現代化為生成式AI工廠,對英偉達加速計算的需求正在飆升。富士康,世界上最大的電子產品制造商,正準備通過使用英偉達Omniverse構建機器人工廠來滿足這一需求。

霓虹燈工廠規劃人員使用Omniverse來整合來自領先行業應用程序(如西門子Teamcenter)的設施和設備數據,這些數據在數字孿生中得到充分利用。他們優化了地板布局和線路配置,并找到最佳的攝像頭放置位置,以使用英偉達Metropolis的視覺AI監控未來的運營。虛擬集成為規劃人員節省了施工期間物理變更單的巨大成本。富士康團隊使用數字孿生作為真相的來源,以溝通和驗證準確的設備布局。

Omniverse數字孿生也是機器人訓練館,在這里,富士康開發人員培訓和測試Nvidia Isaac AI應用程序,用于機器人感知和操作,以及Metropolis AI應用程序,用于Omniverse中的傳感器融合。富士康在將運行時部署到裝配線上的Judson計算機之前,模擬了2個機器人AI。他們模擬了用于物體識別、缺陷檢測和軌跡規劃的自動光學檢測的Isaac機械手庫和AI模型。

為了轉移到測試機器人,他們模擬Isaac感知器驅動的Farab AMR,他們通過3D映射和重建感知并在環境中移動。富士康建造了他們的機器人工廠,這些工廠協調運行在Nvidia Isaac上的機器人,以構建視頻AI 2計算機,從而控制起重機Vox。所以一個機器人工廠設計有三臺計算機:在Nvidia AI上訓練AI,讓機器人在PLC系統上運行,以協調工廠,然后,當然,你在Omniverse中模擬一切。

機械手臂和機器人的AMRs也是一樣的,三個計算機系統,不同之處在于兩個Omniverse將會結合在一起。所以這些共享一個虛擬空間。當他們共享一個虛擬空間時,這個機械手臂將進入機器人工廠。

再一次,三臺計算機,我們為計算機提供加速層和預訓練的AI模型。我們已經將Nvidia的機械手和Nvidia Omniverse與世界領先的工業自動化軟件和系統公司西門子連接起來。這真的是一個非常棒的合作關系。

他們在世界各地的工廠工作。語義拾取AI現在集成了Isaac機械手和語義拾取AI運行,操作ABB、KUKA、Yaskawa、FANUC、Universal Robots和Techman。

我們還有各種其他的集成,例如,Arcbest正在將Isaac感知器集成到Foxx智能自主機器人中,以增強物體識別和人類運動跟蹤。電子產品的運動跟蹤和材料處理正在將Isaac操縱器和感知器集成到他們的人工智能機器人中,以提高全球制造效率。

Idealworks正在將Isaac感知器構建到他們的iWMS軟件中,用于工廠物流內在的AI機器人。Kivnon正在整合Isaac感知器,以推進AI驅動的運動,以推進AI啟用的物流。Argo機器人正在將Isaac感知器應用于基于高級視覺的感知引擎中。Solomon在他們的AcuPick中使用Isaac操縱器AI模型。

Tattile機器人正在將Isaac Sim和機械手引入TMF Web加速自動光學檢測。Teradyne機器人正在將Isaac機械手集成到協作機器人的PolyScope X中,并將Isaac感知器集成到MiR AMRs中。Mech-Mind正在將Isaac操作器集成到Mech-Eye工業3D相機中,用于AI操作機器人。

機器人來了,物理AI在這里。

這不是科幻小說,它正在各地使用,真的非常令人興奮。那就是工廠,里面的機器人,所有的產品都將是機器人。

其中之一是自動駕駛汽車或具有大量自主能力的汽車。英偉達再次構建整個堆棧。明年,我們將與奔馳車隊一起投入生產。

之后,在2026年,我們向全世界提供完整的JLR艦隊堆棧。但是,歡迎您取用我們堆棧的任何部分或任何層,就像整個驅動器堆棧打開一樣。下一個大批量機器人產品將由機器人工廠制造,內部有機器人,可能是人形機器人。

近年來,由于基礎模型的出現,這在認知的能力和我們正在開發的世界理解能力方面都有了很大的進步。我對這個領域感到非常興奮,最容易適應這個世界的機器人是人類機器人,因為我們為我們建造了這個世界。

我們還需要比其他類型的機器人更大量的數據來訓練這些機器人,因為我們擁有相同的生理學。訓練數據,我們可以通過演示功能和視頻功能提供,這將是非常棒的。

因此,我們將在這個領域看到很多進展。事實證明,這項技術與當今已經構建的所有其他計算機的構建技術非常相似。所以這對我們來說將是一段非常非凡的旅程。

本文由人人都是產品經理作者【硅星人】,微信公眾號:【硅星人Pro】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自黃仁勛演講現場照片

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!