337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

黃仁勛最新2萬字演講全文,GTC2026演講完整實錄 | 前沿在線

0
分享至

  

  整理:前沿在線 編輯部

  歡迎來到GTC,我只是想提醒你這是個技術會議,這些人一大早就排著隊,在座的各位很高興見到你們。

  

  

  GTC,我們要談談技術,我們要談談平臺,NVIDIA有三個平臺,你認為我們經常談論他們中的一個,它和CUDA有關,我們的系統是另一個平臺,現在我們有了一個名為AI工廠的新平臺,我們要談談他們所有人,最重要的是,我們要談談生態系統。

  但在我開始之前,讓我感謝我們賽前節目的主持人,我覺得他們做得很好,Sarah、Alfred Lin,紅杉資本英偉達的第一位風險投資家,Gavin Baker,英偉達的第一個主要機構投資者,這三個人技術很深,在正在發生的事情中,當然還有他們擁有非常廣泛的技術生態系統,當然還有我今天挑選的所有貴賓都加入了我們全明星隊,我要為此感謝你們所有人。

  

  我還要感謝所有到場的公司,如你所知英偉達是一家平臺公司,我們有技術,我們有平臺,我們有豐富的生態系統,今天可能有這里100萬億美元的工業的100%,450家公司贊助了這次活動,我想謝謝你。

  

  這次技術會議有2000名發言者,這次會議將涵蓋每一層,人工智能的五層蛋糕

  

  CUDA 二十周年回顧

  這次會議將涵蓋人工智能五層蛋糕的每一層,從陸地電力外殼,基礎設施,到芯片,到平臺,模型,當然還有。而歸根結底,推動這個行業真正騰飛的,正是各種應用場景。當一切開始時,一切都從這里開始。這是CUDA成立二十周年。我們為CUDA工作了二十年。

  

  二十年來,我們一直致力于這種架構,這項革命性的發明,SIMT(單指令多線程)執行標量代碼。代碼可以生成多線程應用程序,比SIMD更容易編程。我們最近新增了Tile,以便幫助開發者編程張量核心以及那些對當今人工智能至關重要的數學結構。數以千計的工具和編譯器、框架和庫。在開源領域,有幾十萬個公開項目

  CUDA確實已經深度集成到每一個生態系統中。這張圖表。基本上描述了你一直在看我從一開始就談論這張幻燈片的100%策略,最終最難實現的是底部的東西,安裝基礎

  我們花了20年的時間才在世界各地建立了數億個運行CUDA的GPU和計算系統。我們在每個云,我們在每個計算機公司。我們幾乎服務于所有行業。CUDA的龐大用戶基數正是飛輪效應加速的原因。安裝的基礎吸引了開發人員,然后開發人員創建了實現突破的新算法。例如,深度學習。還有好多呢。這些突破性進展催生了全新的市場,并在其周邊構建起由多家企業共同參與的新生態系統,從而形成更大的用戶基礎。

  這個飛輪,這個飛輪現在正在加速,CUDA庫的下載數量正在加速。規模非常龐大,且增長速度前所未有。正是這個飛輪機制,使得該計算平臺能夠支撐如此眾多的應用和層出不窮的創新突破,而最為關鍵的是……它也使這些基礎設施具有非凡的使用壽命。而原因非常明顯。有這么多的應用程序,你可以在NVIDIA CUDA上運行。

  我們支持AI生命周期的每個階段。我們覆蓋每一個數據處理平臺。我們加速了各種類型的科學原理性求解器。因此,其應用范圍非常廣泛,一旦安裝了NVIDIA顯卡,它的使用壽命就會非常長。這也是原因之一。我們大約六年前運送它們的AmpereAmpere在云中的價格正在上漲,因此所有這些從根本上成為可能,因為安裝的基礎很高,飛輪很高,開發人員的影響力很大。

  而當這一切發生,并且我們持續更新軟件時,計算成本就會……減少加速計算的組合,極大地加快了應用程序的速度。與此同時,我們仍在持續維護并不斷更新軟件。您不僅可以獲得首次提升,還可以隨著時間的推移不斷降低加速計算的成本。我們愿意培育,愿意支持世界上的每一個GPU,因為它們在架構上都是兼容的。

  我們愿意這樣做,是因為我們的用戶基數非常龐大。如果我們推出一項新的優化,它將惠及數百萬用戶。這適用于世界上每一個人。這種動態組合使NVIDIA架構擴大了其覆蓋范圍,加速了其增長,同時降低了計算成本,最終鼓勵了新的增長。

  

  從GeForce到CUDA的25年旅程

  所以,CUDA是其中的核心。但我們的旅程,CUDA實際上是二十五年前開始的GeForce。我知道你們當中有多少人是伴隨著……長大的。

  

  "GeForce是NVIDIA最偉大的營銷活動。我們會在您尚無力承擔之前,就著手吸引未來的客戶。你父母付錢。你父母付的錢。你的父母付錢讓你成為NVIDIA客戶。每年,他們年復一年地付錢,直到有一天你成為一名了不起的計算機科學家,成為一個合適的客戶,一個合適的開發商。但這是,這是GeForce 25年前制造的房子

  25年前,我們開始了通往CUDA的旅程。我們發明了可編程的著色器,一個完美的。使加速器可編程的不明顯的發明。25年前,世界上第一個可編程加速器Pixel Shader使我們進行了進一步的探索。

  二十年后,五年后,CUDA的發明。我們做的最大的投資之一,我們當時負擔不起,它消耗了我們公司的絕大部分利潤,就是把GeForce背后的CUDA帶到每一臺電腦上。我們致力于創建這個平臺,因為我們對它的潛力感到非常強烈。但最終,該公司的奉獻精神盡管。一開始的艱辛,每天都相信它十三代或二十年,我們現在到處都安裝了CUDA,Pixel Shader

  當然,導致了GPU革命。然后十年前,我們介紹了大約十年前,它是什么?八年前,我們推出了RTX。為現代計算機圖形學時代對我們的體系結構進行了全面的重新設計。GeForce將CUDA帶到了世界。因此,GeForce使Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton、Andrew Ng和其他許多人發現GPU可以成為他們加速深度學習的朋友。它開始了人工智能的大爆炸

  十年前,我們決定融合。可編程著色和引入兩個新的想法:光線跟蹤,硬件光線跟蹤,這是非常困難的,和一個新的想法。想象一下,大約十年前,我們曾認為人工智能將會徹底變革計算機圖形學。就像首席搜查令一樣。如今,人工智能將重塑并徹底革新計算機圖形學的整個制作流程

  今天我要給大家展示一些未來的東西。這是我們新一代的圖形技術。我們稱之為神經渲染,融合,三維圖形和人工智能的融合。這就是DLSS 5。看看吧。

  

  

  

  

  那是不是太棒了?那第二。現在我們做了什么?我們融合了可控的3D圖形,虛擬世界的真實情況,結構化數據

  記住這個詞:虛擬世界的結構化數據,以及生成世界的結構化數據。我們結合了3D圖形。有了生成式人工智能,概率計算,其中一個是完全預測的,另一個是概率但高度現實的。

  我們結合了這兩個想法,結合了這兩個想法,通過結構化數據進行控制,完美控制,同時又生成。因此,內容是美麗的,驚人的,以及可控的。將結構化信息與生成式人工智能相融合這一理念,將在一個又一個行業中不斷涌現。

  

  結構化數據與非結構化數據

  結構化數據是可信人工智能的基礎。這會嚇你一小跳。我要翻下一張幻燈片,別驚呼哦。那么接下來的時間里,我們就來過一遍原理圖。這就是我最好的了。每次我問我。一次又一次,這就是了。他們說,不要這樣做,Jensen。別這么做。我說:"不,這些座位是免費的。"對你們中的一些人來說。所以,這就是你的任務代價。

  

  所以,這就是結構化數據。你聽說過它,SQL,Spark,pandas,Velox,其中一些非常非常重要,非常大的平臺,Snowflake,Databricks,EMR,亞馬遜EMR,Azure FabricGoogle Cloud BigQuery,所有這些平臺都在處理數據幀。這些數據幀是巨大的電子表格,它們保存著所有的生命。這就是結構化數據,是業務的真值。這就是企業計算的真相。那么,現在我們要讓人工智能使用結構化數據,而且最好趕緊把這事推進得飛快。

  以前還好,我們當然也會啊,你知道的。我們會加速結構化數據,這樣我們就可以做更多的事情,我們可以更便宜地做,我們可以每天更頻繁地做,讓公司以更同步的方式運行。然而,未來將會發生的是,這些數據結構將被使用。它會很多。未來的Agent數據庫也是,當然。結構化數據庫,即生成式數據庫

  此數據庫表示。世界上大多數矢量數據庫非結構化數據,PDF,視頻,演講,世界上所有的信息。關于90%產生的東西。這個開著呢。直到現在,這些數據對世界來說都毫無用處。我們讀取它,把它存入我們的文件系統,就完成了。不幸的是,我們無法查詢它,也無法搜索它。那很難做到。而其原因在于。輕松索引非結構化數據。你必須了解他們的需求。

  所以現在我們有了。就像人工智能能夠解決多模態感知一樣,你可以連接并理解它。多模態感知和理解去閱讀。這個意思和發現這個意思嵌入到一個更大的結構中,我們可以搜索,我們可以查詢。NVIDIA創建了兩個基礎庫。cuDF,我們為數據幀、結構化數據創建了cuDF。我們為向量存儲創建了cuVS,語義。非結構化數據,AI數據,這兩個平臺。

  兩個最重要的因素。非常激動地看到它在整個網絡中的廣泛應用。這個復雜的網絡。一個過程。在很長一段時間內,因此有許多不同的公司和平臺。一直深入融入這個生態系統。我為我們在這里所做的工作感到非常自豪。

  

  合作伙伴宣布:IBM、戴爾、谷歌云

  然后今天,我們宣布了幾項。SQL是有史以來最重要的領域特定語言之一,它的發明者正在使用cuDF加速Watson X數據。讓我們來看一下吧。

  60年前,IBM推出了系統360,這是第一個用于通用計算的現代平臺,開啟了計算時代。然后SQL一種聲明性語言來查詢數據,而無需逐步指示計算機。和數據倉庫,每一個都是現代企業計算的基礎。今天,IBM與NVIDIA正通過利用NVIDIA GPU計算庫加速IBM Watson X的數據SQL引擎,重新定義人工智能時代的數據處理方式。

  

  數據是為人工智能提供上下文和意義的客觀事實。人工智能需要快速訪問海量數據集。

  當今的CPU數據處理系統已經難以勝任雀巢每天做出數千項供應鏈決策。他們的訂單到現金數據市場匯總了每一次供應、訂單和交付。在180個五的全球業務中。在CPU上,雀巢通過在NVIDIA GPU上運行的加速Watson X數據,每天刷新幾次數據標記。雀巢可以以83%更低的成本運行相同的工作負載,速度提高五倍。下一代計算平臺已經到來。面向人工智能時代的加速計算

  然后加速云中的數據處理。我們還在本地環境中加速數據處理。如您所知,戴爾是世界領先的計算機系統制造商,也是世界領先的存儲提供商之一。他們與我們合作創建了集成了cuDF和cuVS的戴爾AI數據平臺,以創建加速數據。嗯,對于人工智能時代來說。這是他們對NTT數據所做的一個例子,巨大的加速。

  這是云,谷歌云。而Google Cloud,如你所知,我們已經與Google Cloud合作了很長時間。我們加速谷歌的Vertex AI。我們現在加速BigQuery,這是非常重要的框架和非常重要的平臺。這就是一個例子。

  有了Snapchat,我們將他們的計算成本降低了近8%。當你加速數據處理、加速計算時,不僅能獲得速度和規模帶來的優勢,更重要的是,還能降低總體成本。所以所有這些都來了。

  

  加速計算與摩爾定律

  它最初被稱為摩爾定律。摩爾定律的核心在于使性能每隔幾年就能翻一番。這只是另一種說法,意思是只要價格大致保持不變。你每年也會得到兩倍的性能,或者你。計算的成本。盡管摩爾定律已難以為繼,我們亟需一種新的方法加速計算使我們能夠采用這些。而正如你將會看到的。因為我們繼續。這是一家算法公司,因為我們繼續優化算法,因為我們的覆蓋面如此之大,我們的安裝基數如此之大,我們可以降低計算成本,增加計算成本。對于每個人來說,這就是Google Cloud。

  

  你可以看到我剛才提到的這種模式。我只是想給你展示三個版本而已。英偉達構建了加速計算平臺。它上面有一堆庫。我給了你三個。cuDNN是其中之一。cuDF是另一種cuVS,我們將向您展示更多。這些庫位于我們的平臺之上,但最終我們融入了世界的云服務,融入了世界的OEM。一起和其他平臺,我將一起向您展示,我們能夠走向世界。NVIDIA,Google Cloud,Snapchat中的這種模式會一遍又一遍地重復,看起來像這樣。

  因此,這是NVIDIA與Google Cloud的一個示例。我們加速Vertex AI,我們加速BigQuery,我們加速。我為我們使用JAX和XLA所做的工作感到非常自豪。我們在PyTorch上令人難以置信。我們是世界上唯一令人難以置信的加速器。令人難以置信的JAX和XLA和我們支持的客戶,Base TenPuma銷售人員,他們不是我們的客戶,但他們是我們的客戶,我們的開發商。技術,然后我們可以降落在云上,我們與云服務提供商的關系。本質上是我們帶來客戶。我們整合我們的庫,我們加速。于是我們去了。在云里。正如你所看到的,我們的大多數云服務提供商都喜歡與我們合作,他們總是要求我們將下一個客戶放在他們的云上。而我只是想。有很多顧客。我們要加速所有人。所以他們會是一個。在你的云里,對我們耐心點。

  

  與AWS、微軟Azure、Oracle等合作

  這是Google Cloud,這是AWS。我們與AWS合作已經很長時間了。其中一個領域。今年我非常興奮的一件事是我們將把OpenAI引入AWS,這將推動云計算的巨大消費,AWS將擴大OpenAI的覆蓋范圍,擴大OpenAI的計算,正如你所知,它們完全受計算限制。因此,AWS,我們加速EMR,我們加速SageMaker,我們加速Bedrock,NVIDIA真正深入集成到AWS中。他們是我們的首家云合作伙伴

  微軟AzureNVIDIA的A100超級計算機是我們為NVIDIA建造的第一臺。我們在Azure安裝了一個,這導致了與OpenAI的巨大成功合作。不過,我們與Azure合作已經很長時間了。我們加速Azure云。如今,我們與他們的AI晶圓廠展開了深度合作。我們加速Bing搜索。我們與他們在Azure區域上合作。在我們持續在全球范圍內推廣人工智能的過程中,這正是一個極其重要的領域之一。

  

  在世界范圍內,我們提供的功能之一是機密計算。在機密計算中,您要確保即使操作員也看不到您的數據。即使操作員不能觸摸或看到你的模型。機密計算,NVIDIA的GPU是世界上第一個做到這一點的GPU。它現在能夠支持這些非常有價值的開源的機密計算和受保護的部署。整個云和不同區域的人工智能模型和人類模型,所有這些都是因為我們的機密計算。

  機密計算非常重要。這里有一個例子,我們有不同的客戶,我們的工作。Synopsys,我們的偉大合作伙伴,我們正在加速他們所有的EDA和CAE工作流程。在微軟,是的。

  我們是Oracle。大多數人會認為我們是他們的第一個供應商。我們也是他們的第一個供應商,但我們是他們的第一個AI客戶。我很自豪我第一次向Oracle解釋了AI云,我們是他們的第一個客戶。從那以后,他們真的起飛了。我們在那里找到了一大堆合作伙伴,Cohere Fireworks,當然還有非常著名的Oracle。我和Larry是很好的伙伴關系。

  

  CoreWeave,他們是世界上第一個人工智能原生云,這是一家只有一個單一的公司。隨著加速計算時代的到來,提供主機GPU,并為AI云提供主機。他們擁有一批非常優秀的客戶,而且業務正以驚人的速度增長。

  讓我感到非常興奮的平臺之一就是Palantir和戴爾。我們三家公司共同打造了一種全新的AI平臺——Palantir本體平臺,這是一款人工智能平臺。我們可以站起來。任何地區的任何國家。完全在本地部署,完全。完全在現場,人工智能可以部署在任何地方,沒有我們的機密計算能力,沒有我們構建端到端系統的能力。提供全部。來自數據處理的加速計算和AI堆棧。或者一直到AI的結構。這是可能的。

  

  全球云服務合作伙伴關系

  我想給你看看這些。這是我們與全球云服務提供商的特殊合作關系。很多人,嗯,都在這里。我受益于在靴子巡回演出中看到它們。真是難以置信。我只想感謝你們所有人的辛勤工作。你會一遍又一遍地看到這件事。NVIDIA是。全球第一家縱向一體化但橫向開放的公司

  而之所以有必要,原因非常簡單。加速計算并不是芯片問題。加速計算并不是一個系統性問題。加速計算中少了一個詞。我們就是再也不說了。應用,加速。如果我可以讓計算機更快地運行所有內容,那就稱為CPU。但那已經沒有動力了。我們加速應用程序向前發展并繼續帶來巨大速度的唯一方法,就是通過特定于應用程序或領域的加速來大幅降低成本。

  

  我掉了那個。短語在前面,因此剛剛成為加速計算,這就是為什么NVIDIA必須是庫后庫,域后域,垂直后垂直的原因。我們是一家垂直整合的計算公司。沒有別的辦法。我們必須理解應用程序,我們必須理解領域,我們必須從根本上理解算法,我們必須弄清楚如何部署算法。無論它想要部署什么場景,無論是數據中心、云、邊緣的本地、機器人系統,所有這些計算系統都是不同的。最后,是系統和芯片。我們實行垂直一體化

  是什么讓它如此強大,以及為什么你看到所有的幻燈片,特別是在拉斯維加斯,水平開放的原因。以及您希望我們集成到的任何平臺上的最大技術。我們為您提供軟件,我們為您提供。我們與您的技術進行集成,以便我們能夠……。計算給世界上的每個人。

  

  GTC生態系統與行業覆蓋

  好吧。這個GTC確實是一個很好的證明。你知道,大多數時候,大多數時候你會看到我談論這些垂直行業,我會用一些例子,但在每一個例子中。無論是汽車,順便說一句,金融服務,在這個GTC的與會者中,來自金融服務行業的比例最大。我知道,我希望是開發者而不是交易員。

  各位。這里是。有一件事我想說。在觀眾中。NVIDIA的生態系統位于我們供應鏈的上游和下游,我們在工作。觀察上游和下游,這太令人興奮了。我們的整個。Fly去年改變了這一點。不管怎樣。一年的公司,我們有七年的公司,我們有100。公司現在是NVIDIA供應鏈的一部分,并在上游或下游與我們合作。去年,你有創紀錄的一年,不是嗎?恭喜你。我們有所發現。這是非常非常大的事情的開始。

  

  所以如果你看看加速計算,我們現在已經設置了計算平臺,但是為了讓我們激活這些計算平臺,我們需要有特定領域的庫來解決我們所處理的每個垂直領域中非常重要的問題。您會看到我們正在逐一解決這些問題。自動駕駛汽車,我們的范圍,我們的廣度,我們的影響。難以置信。我們剛才提到的金融服務領域有一條賽道。算法交易正在從經典的機器學習與稱為quant的人類特征工程,quants做到了現在的超級計算機研究大量數據,發現洞察力和。所以這是通過它的。這是真的。

  

  醫療保健正在經歷他們的聊天GPT時刻。一些非常令人興奮的工作,我們在那里。我們這里有一條非常精彩的主旨演講議程。我們有一個很棒的主題曲目,Kimberly Powell,一個很棒的醫療保健主題曲目。

  我們談論的是用于藥物發現的AI物理學或AI生物學,用于客戶服務和支持診斷,診斷的AI代理,當然還有物理AI機器人系統。所有這些不同。人工智能的載體有不同的平臺,NVIDIA提供工業。我們完全是。開始人類歷史上最大的建筑。世界上大多數建造人工智能工廠、建造芯片工廠、建造計算機工廠的行業今天都在這里代表。

  媒體娛樂,游戲,當然,實時AI植物。這樣我們就可以翻譯和播放支持直播游戲和直播視頻。大量的AI將會增強。我們有一個叫做"全息量子"的平臺。這里有35家不同的公司與我們一起構建下一代量子GPU混合系統零售和CPG使用NVIDIA進行供應鏈,使用創意。客戶支持的人工智能代理,這里正在做很多工作,35萬億美元的行業機器人,50萬億美元的制造業

  NVIDIA在這一領域已經工作了十年,制造了三臺計算機,基礎計算機。構建機器人系統。我們已與我們所知的每一家機器人制造企業實現了無縫對接和深度合作。我們在展會上有110機器人,然后是電信,大約與世界IT行業的2萬億美元一樣大。

  當然,我們到處都可以看到基站。基礎設施。正是上一代計算基礎設施,將被徹底重塑。那個基站是。它做一件事,那就是基站。未來它將成為一個AI基礎設施平臺人工智能將在邊緣運行。那里有很多很棒的討論。我們的AI與諾基亞建立了大型合作伙伴關系,與T-Mobile以及其他許多合作伙伴關系。

  

  CUDA X 庫與算法創新

  我們業務的核心。我剛才提到的一切,計算平臺,但非常重要的是,我們的CUDA X庫,我們的CUDA X。算法,激發事件的算法,我們是一個。是什么讓我們與眾不同,這就是。這就是使我能夠進入這些行業中的每一個行業,想象未來并擁有世界的原因。描述和解決問題,重構它,重新表達它。把它變成庫。我們有很多。

  我想我們在這個展會上,我們宣布了100個庫做四十個模型,那只是在展會上。我們一直在更新這些內容。我們一直在更新它們。庫。我們公司的皇冠上的寶石。正是它使得那個平臺——計算平臺——成為可能。在服務中。使影響成為最大,最重要的之一。

  cuDNNCUDA深度神經網絡。它徹底革新了人工智能。它引起了現代人工智能的大爆炸。讓我給你看一個關于CUDA的簡短視頻。

  二十年前,我們為CUDA構建了一個用于加速計算的單一架構。今天,我們重新發明了計算機一千個CUDA X庫幫助開發人員在科學和工程的各個領域取得突破。選擇決策優化的人。cuLitho用于計算光刻。直接的QDSS。"幾何感知神經網絡的等方差"。AI RAN的天線Warp微分物理基因組學的配對磚塊。它們的基礎是算法,而算法本身十分優美。

  你看到的一切都只是模擬。其中一些是主要的解決者,基礎物理解決者。其中一些是AI代理AI物理模型,還有一些是物理AI機器人模型。一切都進行了模擬。什么都沒有動起來。什么也沒有闡明。一切都完全模擬了。這正是英偉達的核心業務所在。正是通過對……的理解與連接,我們的計算平臺能夠打開這些機會。與世界開放橫向集成的集成計算公司。這就是CUDA X

  

  AI原生企業與行業變革

  嗯,剛才你看到了一大堆公司。你看到了沃爾瑪,你知道,有歐萊雅和令人難以置信的公司,成熟的公司。這些公司中的公司已經定義了今天的社會。豐田在這里。這些是一些最大的公司。這也是真的。

  

  有一大堆你從未聽說過的公司。這些是我們稱之為AI原住民的公司,一大堆小公司。這個名單是巨大的。我不能,這只是一點點,一點點。而我始終拿不定主意,到底是多給你看一些,還是少給你看一些。于是我就把它設置成讓你一個都看不見。

  然而,在這份名單中,有一群全新的公司。你可能聽說過其中的幾個OpenAI Anthropic,但有一個。還有一大堆其他人。過去兩年發生了一些事情,特別是去年。我們一直在合作。去年。我會向你解釋的。

  這個行業被搞砸了。數十億美元的投資進入創業公司的風險投資是人類歷史上最大的。這也是投資規模第一次從數百萬美元、數千萬美元,到數億美元、數十億美元。

  原因是這是歷史上第一次,這些公司中的每一家都需要計算和大量的計算。他們需要token,很多很多。他們要么需要,要么創建、構建和創建token并生成token,要么他們將進入。

  為Anthropic和OpenAI和其他人創建的可用token增加價值。所以這個行業在很多不同的方面是不同的,但有一件事是非常清楚的,他們正在產生的影響,他們已經提供的令人難以置信的價值是相當明顯的。AI原住民

  這一切都是因為我們重新發明了計算機。就像PC革命期間一樣,創建了一大堆新公司。就像在互聯網革命期間,在移動云中創建了一大堆公司一樣,也創建了一大堆公司。

  他們每個人都有自己的標準。而我們正在討論的,正是剛剛出臺的一項重大標準,其重要性不言而喻。而這一代人,我們也擁有一大批非常、非常特別的企業。我們重新定義了計算。

  很顯然,將會涌現出一大批全新的、至關重要的企業。世界未來的重要公司,谷歌,亞馬遜,Meta,這些公司都是由于上一次計算平臺轉變而產生的重要公司。我們現在正處于新平臺轉變的開始

  

  生成式AI與推理拐點

  但是發生了什么。正如你所知,我們一直在關注,我們一直在研究深度學習和人工智能,現代人工智能的大爆炸。我們就在現場,我們已經推進這個領域很長一段時間了。

  為什么是過去兩年?發生了什么。當然,ChatGPT開啟了生成AI時代。它不僅能夠理解,感知和理解,還能夠翻譯和生成獨特的內容。我向你展示了生成人工智能的融合。它帶來了計算機圖形。你們,世界上的每個人都應該使用ChatGPT。我知道我每天早上都會用它。

  因此,ChatGPT是生成AI時代。順便說一句,這是第二種生成計算與我們使用的方式。并非如此。生成式人工智能是一種軟件能力,但它已深刻改變了計算的方式。計算過去是基于檢索的

  現在它是生成的。當我談論某些事情時,請記住這個想法,您會意識到為什么我們所做的一切都將改變計算機的架構方式,計算機的提供方式,計算機的構建方式。計算的意義是什么?

  《人工智能二十三》和《二十二二十三》雜志。下一個推理AI零一,其中。三個推理。允許它自己思考,允許它計劃,分解,分解問題并將它無法理解的問題分解為它可以理解的步驟或部分。它可以立足于研究。零一使生成性AI值得信賴和扎根。這導致ChatGPT簡單地起飛了。那是一個非常非常重要的時刻。

  為了產生所需的輸入token的數量和為了推理而產生的輸出token的數量,模型有點大。當然,你可以有更大的模型。模型零一有點大,沒有太大。但它是上下文的輸入token使用。它的輸出token用于思考極大地增加了計算量,然后是第一個模型的四代碼。代碼編譯它,測試它,評估它,返回并迭代它。眾所周知,AI代碼已經徹底改變了軟件工程。NVIDIA的100%正在使用代碼的組合,或者通常是所有這三個組合,AI代碼,Codex和Cursor遍布NVIDIA。

  如今,沒有哪位軟件工程師不是在一位或多位AI助手的輔助下進行編碼的完全AI代碼。新的拐點和第一次。你不會問AI什么,在哪里,何時,如何。你問吧。創建,執行,構建。你讓它使用工具、獲取你的上下文、讀取文件。它能夠在發育上。一個問題,關于它的原因,反思它。它能夠解決問題并實際執行任務。一個能夠感知的AI變成了一個。一個可以產生的AI變成了一個可以推理的AI。一個可以推理的人工智能現在變成了一個可以實際工作的人工智能,非常有生產力的工作。

  過去兩年的計算量,我們知道在座的每個人都知道NVIDIA GPU的計算需求是超標準的。現貨價格飛漲。如果你嘗試過,你找不到GPU,但與此同時,我們正在推出GPU。令人難以置信的數量。需求一直在上升。這是有原因的,這種基本的變化。最后,人工智能能夠做富有成效的工作,因此是推理的拐點

  人工智能現在必須思考了。為了思考,它必須推理人工智能現在必須做了。為了做到這一點,它必須。人工智能必須閱讀,為了做到這一點,它必須推理,它必須推理,它有。AI的每個部分,每次都必須思考,必須推理,必須做。它必須跳躍。過去的推理,現在已經過去了。它在推理領域,所以。已經到達。在token的數量時,計算的數量。大約增加了10,000倍

  現在,當我將這兩個結合起來時,事實是自過去兩年以來的計算需求。已經上升了10,000倍和使用量。使用量可能增加了一百倍。人們聽到我說,我相信計算需求。在過去的兩年里,我們都有100萬次這樣的感覺。就是那種感覺。這是OpenAI的感覺,這是Anthropic的感覺。如果他們能夠獲得更多的容量,他們可以產生更多的token,他們的收入就會增加。更多的人可以使用它,更先進的人工智能可以成為。我們現在正處于那個正向的飛輪效應系統中。我們已抵達那個時刻——轉折點,推論之處

  

  萬億美元AI工廠愿景

  去年這個時候,我說。我當時站在哪里,我們看到了。5000億美元。我們看到了5000億美元。對采購訂單的信心非常高。Blackwell和Rubin 2026年。我去年就說過這話。

  現在,我不知道你們是否有同樣的感覺,但是5000億美元是一筆巨大的收入。一個都沒被打動。我知道你們為什么不太激動,因為去年對大家來說都是創紀錄的一年。

  嗯,我就是來告訴你這件事的。但現在我站在GTC DC后短短幾個月。上一次GTC一年后,就在我站的地方。我能看到2027年。1萬億美元。這就是我們在剩下的時間里談論的。

  

  事實上,我們會短缺。我確定。計算需求將比這高得多,這是有原因的。所以第一件事是。我們確實這樣。當然,如你所知,二十五五年是NVIDIA的推理年。我們希望確保我們不僅擅長培訓和后期培訓,而且我們在人工智能的每個階段都非常擅長,這樣我們對基礎設施的投資就可以盡可能長時間地擴展。而英偉達的基礎設施使用壽命很長,因此其成本將非常低廉。使用時間越長,成本就越低。

  在我心里毫無疑問。英偉達的系統是目前全球人工智能基礎設施中成本最低的方案。因此,第一部分是去年關于基礎設施的AI。它推動了這個拐點。同時,我們很高興去年Anthropic來到Nvidia,Mistral AI,Meta AI選擇了Nvidia。與此同時,作為一組整體,這些模型占全球人工智能計算開源模型的三分之一

  開源模型已逼近技術前沿,幾乎無處不在。而英偉達,如你所知,今天,我們是當今世界上唯一一個運行人工智能每個領域的平臺。這些人工智能模型中的每一個。在語言和生物學和計算機圖形學,計算機視覺和語音。蛋白質和化學機器人。邊緣或云,任何語言,Nvidia的架構都是可替代的,我們在所有這些方面都令人難以置信。這使我們能夠以最低的成本提供最高的可靠性

  因為當你建造這些系統時,正如我提到的,一萬億美元是。你必須完全有信心,你放下的萬億美元將被利用,將是高性能的,將是令人難以置信的成本效益,并具有使用壽命。

  您可以看到您可以在NVIDIA上進行的基礎設施投資,您可以完全放心地進行。如今,我們已證明,它是全球唯一一種無論在世界何處建設,都能讓人充滿信心的基礎設施。你想把它放進去。你想把它放到預發布環境。我們對此感到非常高興。你想把它放在任何有主權支持你的國家。我們現在就是。一個運行所有AI的計算平臺

  

  業務構成與市場擴展

  現在說說我們的業務。開始顯示我們的60%業務是超大規模,前五名超大規模。然而,即使在那五大超大規模云服務商之中,也有部分是其內部的AI資源消耗。像推薦系統這樣的內部人工智能消費真正重要的工作是從表格、協作過濾和內容過濾的推薦系統轉移過來。

  它正朝著深度學習和大規模方向發展。搜索轉向深度學習,大型語言模型,幾乎所有這些不同的超大規模工作負載現在都在移動,轉向NVIDIA GPU非常擅長的工作負載

  但最重要的是,因為我們與每個人工智能實驗室合作,因為我們與每個人工智能合作,我們加速了每個人工智能模型。我們與之合作的人工智能原住民的大型生態系統,我們可以將其帶到云端,無論投資規模有多大,無論計算消耗的速度有多快。這代表了我們業務的60%

  另一個40%到處都是。區域云,主權云,企業工業機器人。大型系統、超級計算系統、小型服務器、企業服務器。系統的數量令人難以置信,人工智能的多樣性也是它的彈性。人工智能的覆蓋范圍是它的彈性。

  毫無疑問,這不是一個應用程序技術。現在這是基本的。這絕對是一個新的計算平臺轉變

  

  Blackwell架構與推理優化

  那么,我們的任務就是繼續推動技術進步。而我在去年提到的最重要的事情之一就是:去年是我們的推理年。我們傾盡了一切。我們冒了極大風險,在Hopper還處于巔峰、勢頭正勁的時候進行了徹底革新。

  我們決定,Hopper架構——即每八個核心共享一個NVLink——必須提升到一個新的水平。我們完全重新構建了系統,完全分解了計算系統,并創建了NVLink 72。它的建造方式,制造方式,編程方式完全改變了。

  Blackwell NVLink 72是一個巨大的賭注,對任何人來說都不容易。還有在座的許多伙伴,我要感謝你們所有人的辛勤工作。謝謝。NVLink七十二NV FP4,而不僅僅是精度FP4。

  FP4是一個完全不同類型的張量核心和計算單元。我們現在已經證明,我們可以在不損失精度的情況下推斷NV FP4。提高性能和能源效率。我們還能夠使用NVFP4進行培訓

  所以NVLink七十二,NVFP四,生成器的發明,TensorRT-LLM,一大堆新算法。我們甚至搭建了一臺超級計算機,用于優化內核以及整個軟件棧。我們稱之為DGX Cloud。我們投資了數十億美元的超級計算能力,幫助我們創建內核,即制造的軟件。有可能推斷。

  結果都在一起,人們告訴人們曾經告訴我,但Jensen推論是如此簡單。推理是最難的。推理是終極難題。這一點也至關重要,因為它直接驅動你的收入。所以,這就是結果。

  這是來自類似分析。這是有史以來最大,最全面的AI推理。你在左邊看到的,在這一邊。在這一邊是token每瓦每瓦特的token很重要,因為根據定義,每個數據中心、每個工廠都受到功率限制。

  一個千兆瓦的工廠永遠不會變成兩個。身體受到限制。原子定律,物理定律。所以,一個千兆瓦的數據中心,你要驅動的最大數量的token,這是生產,該工廠的產品。所以你想要那個。

  你想讓自己處在那條曲線的最高點,想多高就多高。這個,x軸是交互性推理速度,每個推理的速度。你推理得越快,當然,你可以更快地響應,但非常重要的是,你可以更快地推理,模型越大,你可以處理的上下文越多,你可以思考的token越多,這個軸與人工智能的智能是一樣的

  這就是人工智能的吞吐量,這就是人工智能的智能。通知。人工智能越智能,你的吞吐量就越低,這反而更有意義。你在想得更久,對吧?所以,這條軸代表速度,我稍后再回到這一點。這很重要。

  

  Token經濟學與AI工廠

  這里就是我折磨你們的地方。但這件事太重要了。從現在開始,世界上的每一位CEO都會以我將要描述的方式研究他們的業務。因為這是你的。Token工廠。這就是你的AI工廠。這是你的收入。對此,今后毫無疑問。所以這就是吞吐量。這就是情報。對于給定的數據中心功率,每瓦性能更好,吞吐量越多,您可以生產的token就越多。

  這一邊是成本。請注意,NVIDIA是世界上性能最高的。對此沒人會感到驚訝。他們會驚訝地發現,僅用一代時間,按照摩爾定律的預測,晶體管的數量就已翻了兩番,即增長了五倍。摩爾定律可能會給我們帶來一倍半的性能。你會期望H200,高出一倍半。沒有人會期望高出35倍。我去年這個時候說過,Nvidia的Grace Blackwell,NVL 72,每瓦35倍。沒有人相信我。

  

  隨后,一份半分析報告出爐,Dylan Patel也發表了一段引言。他指責我故意放水。他指責我故意放水。他說Jensen沙袋實際上是五十次,他沒有錯。他沒說錯。于是,我們的每token成本

  我們的每token成本是全球最低的。你沒法打敗它。我之前就說過,如果架構選錯了,就算它是免費的,也依然不夠劃算。而原因在于,無論發生什么情況,你都仍然需要建設一座千兆瓦級的數據中心

  你仍然需要建造一座千兆瓦級的工廠。那個千兆瓦的工廠攤銷了15年,那個千兆瓦的工廠大約是400億美元。即使你什么都沒穿,也要花400億美元。你最好確保你把最好的計算機系統放在那東西上,這樣你就可以了。有最好的token成本英偉達的算力成本處于世界級水平,目前幾乎無人能及

  而之所以如此,是因為極致。所以我很高興他提到了我們。從前有個猴王,也就是齊天大圣。嗯,我們采取,我們采取我們所有的軟件,正如我告訴你的,我們垂直整合,但我們水平開放

  

  我們是橫向開放的縱向整合。我們集成了我們所有的軟件和技術,但是我們可以將其打包并集成到世界各地的推理服務提供商中。這些,這些公司發展得如此之快。他們長得好快啊。Fireworks,Together AI在這里一起。它們增長得如此之快,在過去的一年里增長了100倍

  他們就是token工廠,對他們而言,工廠的效率、性能以及token的生產成本才是最重要的。這就是發生的事情。這是我們為他們更新的軟件,還是同一個系統。而且請注意,他們的服務速度簡直令人難以置信。

  

  之前,在NVIDIA更新我們所有的算法和軟件以及我們帶來的所有技術之前,大約每秒700個token的平均值高出近5000,7倍。這就是極致代碼設計的驚人力量

  我早些時候提到過工廠的重要性。這就是工廠的重要性。您的數據中心,它曾經是文件的數據中心。現在它已經變成了一家token生成工廠。無論如何,你的工廠都是有限的。每個人都在尋找土地,電力和外殼。一旦你把它搭建起來,就會受到功率限制。

  在這個功率有限的基礎設施中,你最好確保你的推理,因為你知道推理是你的工作負載,token是你的新商品,計算是你的收入,你想要確保。該架構是盡可能優化。

  未來,每一家云服務提供商、每一家計算機公司、每一家云計算公司、每一家人工智能公司,乃至所有企業,都將圍繞這些領域的"token工廠效應"進行思考。這就是你未來的工廠。

  而我知道這一點的原因,是因為在座的每一位都靠智慧驅動。而在未來,那項智能將會得到增強。順便說一下,讓我告訴你我們是怎么到這里的。十年前,二十六年的4月6日,我們推出了DGX-1世界上第一臺電腦與第一代相連的八個Pascal GPU一臺計算機中的170 teraflops,這是世界上第一臺為AI研究人員設計的計算機。

  通過Volta,我們引入了NVLink Switch十六個GPU以全帶寬連接,作為一個巨型GPU運行。向前邁出了一大步,但模型尺寸仍在繼續增長。數據中心需要成為一個單一的計算單元,因此Mellanox加入了NvidiaDGX A100

  成為第一臺結合了擴展和擴展架構的GPU超級計算機。NVLink 3用于擴展,ConnectX-6和Quantum InfiniBand用于擴展。然后Hopper第一個帶有FP8 transformer引擎的GPU啟動了生成AI時代NVLink 4,ConnectX-7,Bluefield-3 DPU,第二代Quantum InfiniBand,它徹底改變了計算。

  你。Blackwell用NVLink 72 (NV連接的72個GPU) 重新定義了AI超級計算系統架構每秒130 TB。計算托盤集成了Blackwell GPU、Grace CPU、ConnectX-8和Bluefield-3。擴展在以太網的頻譜上運行,具有三個擴展定律,即訓練前,訓練后和推理。而如今,智能體系統的算力需求仍在呈指數級增長

  

  Vera Rubin架構發布

  現在,Vera Rubin為agentic AI的每個階段構建了架構,推進了計算的每個支柱,包括CPU,存儲,網絡和安全性。Vera Rubin NVLink七十二計算的3.6 exaflops每秒260 TB到所有NVLink帶寬。推動智能體式人工智能時代發展的引擎。

  

  Vera CPU機架STX Rack AI原生存儲專為編排和代理工作負載而設計,采用Bluefield-4構建。利用Spectrum X共封裝光學器件進行橫向擴展,提高能效和彈性。

  還有一個令人難以置信的新增加,Groq LPU機架,與Vera Rubin緊密相連。Groq的LPU的massive on chip SRAM,是已經非常快的Vera Rubin的token加速器加在一起35倍以上

  "新的Vera Rubin平臺: 七艘船"。Scale computers,一臺革命性的人工智能超級計算機,用于人工智能。在短短十年內增加了4000萬倍的計算

  現在,在過去的好日子里,當我說Hopper時,我會舉起芯片。那也太可愛了吧。這是Vera Rubin。當我們想得很……。

  當我們想到Vera Rubin時,我們認為整個系統垂直集成,完全與軟件集成,端到端擴展,優化為一個巨大的系統

  之所以將其設計用于智能體系統,原因非常明確:對于智能體而言,其最重要的工作負載無疑就是由大語言模型進行的推理與思考

  大型語言模型將會越來越龐大。它將更快地生成越來越多的token,從而能夠更快地思考。但它也必須訪問內存。它會很難記憶。KV緩存,結構化數據,cuDF,非結構化數據,cuVS。它將會對存儲系統上的內存造成非常非常大的沖擊,這就是我們重新發明存儲系統的原因。

  它也將使用工具。與人類不同,人類對速度較慢的計算機更寬容。人工智能希望工具盡可能快。這些工具,將來的web瀏覽器,也可能是云中的虛擬PC。這些PC必須盡可能快,而這些計算機必須盡可能快。

  我們打造了一款全新的CPU,這款CPU專為極致的單線程性能而設計。令人難以置信的高數據輸出,令人難以置信的數據處理和極端的能源效率。它是全球唯一一款采用LPDDR5內存的數據中心CPU,兼具卓越的單線程性能和無與倫比的每瓦性能。

  所以我們就那樣做了,讓它能和其他這些機架配套使用。代理加工。所以,這就是了。這就是。

  Grace Blackwell,沒有Vera Rubin,它在哪里?就在這里。好吧,這就是Vera Rubin星系。注意,自從上次100%液體冷卻后,所有的電纜都消失了。過去需要什么,過去需要什么。兩天安裝現在需要兩個小時

  

  難以置信。因此,制造周期時間將大幅縮短。這也是一臺超級計算機,它被熱水冷卻,四十五度,這減輕了數據中心的壓力,帶走了所有的成本和所有用于冷卻數據中心的能量,并使其可用于系統。這就是秘訣。

  我們是目前全球唯一一家已成功構建第六代大規模交換系統的公司。這不是以太網,這不是InfiniBand,這是NVLink。這是第六代NVLink

  要做到這一點難到離譜。很難做到時期。我為團隊感到無比自豪。NVLink,完全液體冷卻。這是全新的Groq系統。接下來我再給大家多介紹一點。

  系統八個四核芯片。這是LPU 30,世界上從未見過。世界上見過的任何東西都是V1。這是第三代產品,目前我們已進入批量生產階段。稍后我再詳細跟您介紹。世界第一CPO Spectrum X交換機。這也已全面投產共封裝光學器件。光學直接進入這個芯片,直接接口到硅。

  

  電子被轉化為光子,并直接連接到這個芯片。我們與臺積電共同發明了這項工藝技術。目前只有我們還在生產線上使用它。它叫COUPE。這完全是革命性的。正在與Spectrum X進行全面生產

  這是Vera系統每瓦性能是當今世界上任何CPU的兩倍。它也在生產中。嗯,你知道吧,我們從來沒想過會單獨銷售CPU。我們正在大量單獨銷售CPU。這無疑將成為我們一項規模達數十億美元的業務

  所以我對我們的CPU架構師非常非常滿意。我們設計了一個革命性的CPU。這是CX-9。采用Vera CPU,Bluefield-4 STX,我們的新存儲平臺。

  好的,這是四個,這些是機架,并且已連接。這些機架中的每一個,NVLink機架。這是我以前給你們看過的。這是一個超級重。它似乎每年都變得越來越重。因為我認為每年都有更多的電纜。

  所以,這是NVLink機架。我們之所以采用這項技術,也是因為它確實如此。使用這些布線系統和結構化電纜搭建數據中心非常高效。所以我們決定為以太網做這件事。因此,這是在一個機架中256液冷節點的以太網,它還與這些令人難以置信的連接器連接。

  

  你們想看吧。Rubin超級。這就是Rubin Ultra Compute節點。與水平滑動的Rubin不同,Rubin Ultra進入了一個全新的機架。它被稱為Kyber,使我們能夠在一個NVLink域中連接144個GPU

  所以Kyber機架,我可以舉起它,我敢肯定,但我不會。它很重。這是一個計算節點,它垂直滑入Kyber機架。這是它連接的地方。這是中平面Kyber機架,這四個頂部NVLink連接器滑入并連接到此。

  而這就成為其中一個節點。這些機架中的每一個都是不同的計算節點。

  這是令人驚奇的部分。這是中間平面和中間平面的背面,而不是布線系統,布線系統在我們可以驅動電纜,銅電纜的距離方面有其局限性。

  我們現在有這個系統來連接144個GPU。這是新的NVLink。這也是垂直的,它連接在。進入背部的中板。計算機在前面,NVLink開關在后面,一臺巨型計算機。好吧,這就是Rubin Ultra

  

  

  產品路線圖與演示插曲

  正如我所提到的,正如我所提到的。我們把這個拿回去怎么樣?我需要剩下的幻燈片。它下來了。好的,謝謝你,Jenny。這就是當你……時會發生的事。這就是不練習的結果。好吧,好的。所以你看見了你自己。慢慢來,別受傷。

  你看到了,你看到了這張幻燈片,你知道,只在Nvidia的主題演講中,你看到去年的幻燈片再次出現。原因是我只是想讓你知道,去年我告訴你一些非常非常重要的事情,它是如此重要,值得再次告訴你。

  這可能是人工智能工廠未來最重要的一張圖表,世界上每一位首席執行官都將跟蹤它,將非常深入地研究它。比這復雜得多。多維,但您將研究AI工廠的吞吐量和此token速度,即等功率(iso-power)的吞吐量token速度,因為這是您擁有的所有功能,工廠的吞吐量和token速度永遠。

  

  這種分析將直接導致你的收入。你今年所做的事情將在明年準確地顯示為你的收入。這張圖表就是它的全部。

  我在垂直軸上說,在垂直軸上,謝謝你們,在垂直軸上是吞吐量,在水平軸上是token速率

  今天,我要給你看這個。因為我們能夠,因為我們現在能夠提高token速度,并且因為模型大小正在增加,因為token長度,上下文長度,取決于不同應用程序用例的不同等級,繼續從100,000個token輸入長度增長到數百萬個輸入token長度在增長,輸出token長度也在增長。于是,所有這些最終都相互作用。未來token的營銷和定價

  Token是新的大宗商品。與所有大宗商品一樣,一旦達到拐點、走向成熟或步入成熟階段,它就會進一步細分為不同的領域。高吞吐、低速度可用于免費tier。下一層可以是中層。更大的模型可能,更高的速度肯定,更大的輸入上下文長度。這意味著不同的價格點。

  從所有不同的服務來看,這一項是免費的。這是一個免費層級。第一檔可以設定為每百萬個token三美元。下一檔可能是每百萬個token六美元。你希望不斷突破這一邊界,因為模型越大、越智能,輸入token的上下文長度越長、相關性越高,推理速度越快、延遲越低,你就能夠構建和迭代出更加智能的人工智能模型

  所以,這關乎更智能的AI模型。而當你擁有更智能的AI模型時,每一次點擊都能讓你提高出價。這是45美元。也許有一天,會推出一款高級版產品,為您提供更優質的服務,讓您在關鍵業務路徑上或進行長時間科研工作時,實現極高的token生成速率。每百萬token150美元并不是一件事

  那么,我們來翻譯一下吧。假設你每天使用5000萬個token作為研究人員,每百萬個token150美元。結果表明,作為一個研究團隊,根本不存在這么一回事。所以我們相信這就是未來。

  這就是人工智能想要發展的方向。這就是它現在的樣子。它必須從這里起步,才能確立自身的價值與實用性,并且不斷改進、愈來愈好。未來,你將會看到大多數服務都會涵蓋所有這些內容。

  這是Hopper。Hopper開始了,我移動了圖表。這是50。這是100。Hopper看起來是這樣的。你原本會預期下一代的Hopper性能會有提升,但誰也沒想到會提升得如此之多。這是Grace Blackwell。Grace Blackwell所做的事情就在你的免費層級范圍內,就能極大地提升你的吞吐量。

  然而。在您主要通過服務獲利的地方,它將您的吞吐量提高了35倍。這和任何一家公司生產的產品沒什么不同。等級越高,品質越高、性能越好、體積越小、容量越低。因此,它與其他任何企業并無不同。

  

  所以現在我們可以將這一層增加35倍。并且我們推出了一整個全新等級。這是Grace Blackwell的好處,一個巨大的跳躍。Hopper。嗯,這就是我們正在做的。好吧,這很優雅。

  好吧,好吧,讓我重新設置,重新設置這個。這就是Vera Rubin。好吧。現在想一想,想一想在每一層,每一層,每一層都發生了什么,我們增加了吞吐量,在你的最高ASP和最有價值的細分市場的那一層,我們增加了十倍。那就是艱苦的工作。在這兒做到這一點實在太難了。

  

  這是NVLink七十二的好處。這就是極低延遲帶來的優勢。這是極致代碼設計的好處,我們可以轉移整個。整個區域現已恢復。

  從客戶的角度來看,這意味著什么?最后,假設我要拿走所有這些,我只是,你知道,把它乘以假設我把我的25%力量用在自由層,25%我的力量用在中間層,我在高層的權力25%,在高級層的權力25%。我的數據中心只有1吉瓦。所以,我可以決定自己想要如何分配。

  免費套餐讓我能夠吸引更多客戶。這使我能夠為我的市場服務。最有價值的客戶。而這些因素的綜合作用,也就是它們的乘積,基本上決定了你的收入水平——在這一簡化示例中,假設Blackwell能夠實現的收入是原來的五倍Vera Rubin產生五次。所以,Vera Rubin,你越早到那里越好。原因是你的token成本下降,吞吐量上升

  

  NVIDIA與Groq合作

  現在,但我們想要更多。我們想要更多。所以讓我帶你回到這個。這就像你一樣,就像我告訴你的那樣,這個吞吐量需要大量的flops

  這種延遲和交互性需要巨大的帶寬。計算機不喜歡大量的flops,大量的帶寬,因為只有這么多的表面積。對于任何系統都有的芯片,因此優化高吞吐量和優化低延遲實際上是彼此的敵人。這就是我們與Groq合并時發生的事情。

  好的,所以我們收購了Groq芯片的團隊,并獲得了這項技術的許可,我們現在一直在合作整合這個系統。這就是它的樣子。

  

  因此,在最有價值的層,在最有價值的層,我們現在將性能提高35倍。現在,這個非常簡單的圖表向您揭示了迄今為止NVIDIA在絕大多數工作負載中如此強大的原因。而原因就在于,在這一區域,吞吐量至關重要NVLink七十二是如此改變游戲規則

  這正是正確的架構。甚至很難被擊敗,即使您添加了Groq。然而,如果你在這里擴展了這個圖表,你說你想要的服務不是每秒400個token,而是每秒1,000個token,突然之間NVLink 72耗盡了蒸汽,根本無法到達那里。

  我們只是沒有足夠的帶寬。這就是Groq進入的地方。這就是當我們把它推出來時會發生的事情。它超越了。謝謝。甚至超出了NVLink 72所能做的極限。如果你那樣做,就能將其轉化為收入

  相對于Blackwell,Vera Rubin是5倍。如果您的大部分工作負載是高吞吐量,我會堅持只100% Vera Rubin。如果你的很多工作負載想要編碼和非常高價值的工程token生成,我會添加Groq

  我會將Groq添加到我的總數據中心的25%。我的數據中心的其余部分都100% Vera Rubin。因此,這使您對如何將Groq添加到Vera Rubin并擴展其性能并進一步擴展其價值的感覺。這就是發生的事情。

  非常,這是一個對比。Groq之所以對我如此有吸引力,是因為他們的計算系統,一個確定性的數據流處理器,它是靜態編譯的。它是編譯器調度的,這意味著編譯器計算出數據的時間,何時進行計算,計算和數據同時到達。

  所有這些都在編譯時靜態地預先完成。并完全安排在軟件中。沒有動態調度。該架構設計有大量的SRAM。它只是為推理而設計的,這一個工作負載。現在,這一個工作量,事實證明,是人工智能工廠的工作量。隨著世界繼續增加它想要生成的超級智能token的高速token數量,這種集成的價值將變得更高。

  這是你能看到的兩個極端的處理器。一個芯片,500兆字節。一艘Vera Rubin芯片,一艘Rubin芯片288千兆字節。這將需要大量的Groq芯片才能保存Rubin的參數大小以及所有必須去的上下文,必須伴隨它的KV緩存

  因此,這限制了Groq真正進入主流的能力,直到我們有了一個好主意。如果我們借助名為Dynamo的軟件將推理完全解耦會怎樣呢?如果我們重新設計在管道中進行推理的方式會怎么樣?我們可以將完全有意義的工作放在Vera Rubin上,然后卸載解碼生成,低延遲,帶寬有限的工作負載的一部分。

  因此,我們聯合,統一了兩個極端差異的處理器,一個用于高吞吐量,一個用于低延遲。這仍然改變不了我們需要大量內存這一事實。所以Groq,我們只需要添加一大堆。

  Groq芯片,它擴展了它的內存量,所以如果你能想象。在萬億參數模型中,我們必須將所有這些參數存儲在Groq芯片中。然而,它位于NVIDIA Vera Rubin旁邊,在那里我們可以保存處理所有這些代理AI系統所需的大量KV緩存

  它基于這種聚合推理的理念。我們做預填充,這是最容易的部分,但我們也緊密集成解碼decode的張力部分是在Nvidia的Vera Rubin上完成的,這需要大量的數學運算,而其中的前饋網絡部分,decode部分完成,token生成部分是在Groq芯片上的Vera Rubin上完成的。他們兩個在今天緊密耦合在一起工作,以太網有一個特殊的模式,以減少大約一半的延遲。

  因此,這項能力使我們能夠將這兩個系統集成起來。我們運行Dynamo,這個不可思議的操作系統。在它之上的人工智能工廠系統,你會得到35倍的增長,35倍的增長,更不用說額外的新層次的推理性能,用于token生成,這是世界上從未見過的

  所以這就是了。這是Groq.Vera Rubin系統,包括Groq,我要感謝為我們制造Groq LPU 30芯片的三星,他們正在啟動。真的很感激,感謝你們。我們正在使用Groq芯片進行生產,您知道,我們將在下半年發貨,可能大約是Q3時間

  Groq LPXVera Rubin,你知道這有點難,很難想象還有更多的顧客。你知道,真正偉大的事情是Grace Blackwell的早期采樣真的很復雜,因為NVLink 72的結合在一起,但Vera Rubin的采樣進行得非常好

  

  事實上,Satya,我想已經發短信說,第一個Vera Rubin機架已經在微軟Azure上運行了。所以,我為他們感到超級興奮。我們將繼續啟動這些東西。我們現在已經建立了一個可以生產數千臺的供應鏈。

  這些系統的一周,基本上是我們供應鏈中每月數千兆瓦的人工智能工廠。因此,我們將在推出GB 300機架的同時推出這些Vera Rubin機架。我們正處于滿負荷生產中

  Vera CPU取得了巨大的成功。其原因在于,人工智能在使用工具時需要CPU。而Vera CPU正是為這個最佳性能點而量身定制的。可信的下一代數據處理。Vera CPU非常理想Vera CPU plus Bluefield plus CX-9連接到Bluefield-4堆棧百分之百

  世界上100%的存儲行業正在加入我們這個系統。原因是他們看到的是完全一樣的東西。存儲系統將會承受巨大的壓力。它會被狠狠打擊,因為我們過去一直讓人類來使用這些存儲系統。我們過去是讓人類使用SQL的。

  現在我們將讓AI使用這些存儲系統。這將存儲cuDF加速存儲,cuVS加速存儲,以及非常重要的。KV Cache。好吧,這就是Vera Rubin星系

  

  性能飛躍總結

  現在令人驚嘆的是這一點。在短短兩年的時間里,在一個千兆瓦的工廠里,在短短兩年的時間里,在一個千兆瓦的工廠里,用我之前給你們看的數學,而摩爾定律會給我們幾個步驟

  我們會,你知道,把晶體管的數量乘以x因子。我們會把flops的數量分解為x。我們本來會把帶寬數量進行因式分解。但是,借助這種架構,我們將進行token發行速度token生成速率從200萬到7億,350倍的增加

  

  這就是,這就是極致協同設計的力量。這就是我所說的:我們在縱向進行整合與優化,同時又向橫向開放,讓所有人都能共享成果。這就是我們的路線圖,非常簡要。

  Blackwell在這里,Oberon系統。以Rubin為例,我們有Oberon系統。我們總是向后兼容,所以如果你不想改變任何東西,只是繼續通過新的架構,你可以這樣做。舊系統,標準機架系統,Oberon仍然可用Oberon是銅的規模化擴展

  有了Oberon,我們還可以使用光學縮放或對不起,光學縮放擴展到NVLink 576。所以有很多關于NVIDIA將銅放大或光學放大的討論,我們將兩者兼而有之。因此,我們將與Kyber進行NVLink 144,然后與Oberon進行NVLinkOberon,我們要去NVLink 72加上光學到NVLink 576

  在下一代Rubin產品——Rubin Ultra中,我們推出了Rubin Ultra芯片,目前正處于流片階段。我們有一個全新的芯片,LPU 35LPU 35將首次納入Nvidia的NVFP4計算結構

  再給你幾個X因子提速。好的,這是Oberon NVLink 72光學放大,它使用Spectrum X6世界上第一個共封裝光學,這一切都在生產中。來自這里的下一代。是Feynman嗎?Feynman當然有一塊新的GPU。它還有一個新的LPU,LPU 40,大步向上,令人難以置信,令人難以置信的新技術。

  現在。將Nvidia和Groq團隊的規模結合在一起,共同打造LPU 40。這將會太棒了。一款名為Rosa的新款CPU。Rosalind的縮寫,BlueField-5,它將下一個CPU與下一個SuperNIC CX-10連接起來。我們會有Kyber。這是銅放大。我們也會有KyberCPO放大。因此,我們將首次同時采用銅互連和共封裝光學技術進行規模化部署。

  好吧。所以很多人一直在問,你知道,Jensen,銅還會很重要嗎?答案是肯定的。Jensen,你打算擴大光學規模嗎?是的。你打算擴大光學規模嗎?是的。因此,對于我們生態系統中的每個人來說,我們需要更多的容量。而那才是真正關鍵所在。我們需要更多的銅產能。我們在光學方面需要更多的產能。我們需要更多的硅光精煉產能。這也正是我們一直與各位攜手合作、為實現這一增長水平奠定基礎的原因。

  于是,Feynman將擁有這一切。讓我看看是不是什么都沒注意到。就這些。每一年,全新的架構。非常好。

  

  NVIDIA DGX與Omniverse

  不是。很快,NVIDIA從芯片公司變成了AI工廠公司或AI基礎設施公司,AI計算公司,這些系統。現在我們正在建造整個人工智能工廠。有這么大的能量。那在這些人工智能工廠里被浪費掉了。

  

  我們希望確保這些人工智能工廠以最好的方式聚集在一起。這些組件中的大多數永遠不會相互接觸。我們大多數技術供應商現在我們都彼此認識,但在過去我們從未見過面,直到數據中心。

  那不可能發生。我們正在構建超級復雜的系統。所以,我們只能在別的地方進行線上見面。所以我們創造了Omniverse和OmniverseDSX World,一個平臺,我們所有人都可以在這個平臺上見面并設計這些千兆工廠,千兆,你知道,千兆瓦的人工智能工廠幾乎都在系統中。

  我們擁有用于機械,熱,電氣,網絡的機架仿真系統,這些仿真系統已集成到我們所有令人難以置信的工具公司的生態系統合作伙伴中。我們還并網運行,以便能夠……。相互交流,相互發送信息,以便我們進行調整。

  電網電力和數據中心電力相應地節約能源。隨后,在數據中心內部采用Max Q技術,以便我們能夠動態地協調電力、冷卻以及我們共同協作的各類技術,從而杜絕任何電力浪費,使系統以最優效率運行,實現海量的token吞吐量。我毫不懷疑,這里面有一個2的因子。在我們談論的規模上,兩個因素是巨大的

  我們稱之為NVIDIA DSX平臺。就像我們所有的平臺一樣,它也分為硬件層、庫層和生態層。就是完全一樣的方式。讓我們給你看看吧。歷史上最大的基礎設施建設正在進行中。世界正在競相建立芯片、系統和人工智能工廠,每個月的延遲都會造成數十億美元的收入損失

  AI工廠的收入等于每瓦特對應的token數。因此,在功率受限的情況下,每一瓦未使用的電能都意味著收入的損失NVIDIA DSX是一個全數字孿生藍圖。設計和運營AI工廠,以實現最大的token吞吐量、彈性和能源效率

  開發人員通過多個API進行連接,DSX-M用于物理,電氣,熱和網絡仿真DSX Exchange用于AI工廠運營數據DSX Flex用于電網之間的安全動態電源管理。和DSX Max Q來動態最大化token吞吐量。它從NVIDIA和設備制造商的SIM就緒資產開始。

  由PTC Windchill PLM管理。基于模型的系統工程在Dassault Systems 3D Experience中完成。Jacobs將數據導入其定制的Omniverse應用,以最終確定設計方案。它已通過主流仿真工具的測試。使用Siemens Star CCM Plus進行外部散熱。內部的Cadence Reality

  適用于電氣和NVIDIA網絡模擬器DSX-Air的ETAP。并通過ProCore進行虛擬委托,以確保加快施工速度。當站點上線時,數字孿生體便成為運營主體。AI代理與DSX Max Q一起動態協調。Phaedrus Agent監督冷卻和電氣系統。

  向Max Q發送信號,從而不斷優化計算吞吐量和能量。Jade AI Agent解讀實時電網數據。并動態調整功率。借助DSX,Nvidia和我們的合作伙伴生態系統正在全球范圍內競相構建AI基礎設施。彈性效率和通過。太不可思議了,對吧?

  好吧。Omniverse,Omniverse旨在從地球開始容納世界的數字雙胞胎。它將承載各種規模的數字孿生。因此,我們擁有這樣一個卓越的合作伙伴生態系統。我想感謝大家。所有這些公司對我們來說都是全新的。就在幾年前,我們還不認識你們中的很多人。現在,我們正在緊密合作,共同開發和制造世界上有史以來最大的計算機,并在全球范圍內實現這一目標。因此,NVIDIA DSX是我們新的AI工廠平臺

  

  太空計算與OpenClaw

  這次我只會花很少時間在這上面。然而,我們即將進入太空。我們已經去過太空了。Thor已通過輻射認證,我們目前應用于衛星領域。你從衛星上成像。將來,我們還將在太空中建立數據中心。

  

  顯然,這樣做很復雜。我們正在與我們的合作伙伴合作開發一種名為Vera Rubin Space One的新計算機,它將進入太空并在太空中啟動數據中心。現在,當然,在太空中。空間,沒有傳導,沒有對流,只有輻射。因此,我們必須想出在太空中為這些系統散熱的方法,不過我們有很多優秀的工程師正在攻關。

  讓我跟你說點新東西吧。所以嗯。Peter Stenberg在這里,他寫了一個軟件。它叫做OpenClaw。我不知道他是否意識到這將是多么成功,但重要性是深遠的。OpenClaw是第一,它是人類歷史上最受歡迎的開源項目,它在短短幾周內就做到了。它超過了Linux在30年內的表現。而且它就是那么重要。就是這么重要。它會做得很好。這就是你全部要做的。好的,我們宣布支持這項倡議。讓我簡單過一下這個吧。

  

  我想給你看幾樣東西。你只需輸入這個。你把這段代碼輸入到控制臺,它就會執行并輸出結果。它找到了OpenClaw。它下載了它。它為你構建了一個AI代理。然后你可以告訴它你需要做的任何其他事情。

  好吧,那我們來看一下。剛剛放棄的一個開源項目Andrej Karpathy剛剛推出了一個名為"研究是一個巨大的交易"的東西。你給一個AI智能體布置一項任務,然后去睡覺。它在一夜之間進行了100實驗,保留了所有工作并殺死了沒有的東西。我真的很喜歡我的產品能讓那個人做到的事情。

  

  他喜歡一個人,他告訴我他安裝了它作為他六十歲的父親,就像他們做啤酒一樣,通過藍牙將機器連接到OpenClaw。然后我們自動化了所有的東西,包括人們訂購的整個東西。Lobster Cloud。成百上千的人在圣何塞排隊等候龍蝦。想用OpenClaw打造OpenClaw。每個人都在談論OpenClaw,但什么是OpenClaw?信不信由你,已經有Claw騙局了。難以置信,難以置信。

  現在,我以這種方式有效地說明了什么是OpenClaw。我說大家都能理解,但咱們還是想想到底發生了什么吧。什么是OpenClaw?它連接了一個時代,一個遺傳系統。它會調用并連接到大型語言模型。

  所以,它首先擁有的是它所管理的資源。它可以管理,可以訪問工具,可以訪問文件系統,可以訪問大型語言模型。它能夠進行調度。它能做到。cron作業能夠分解一個問題,一個提示,你給它一步一步,一步一步。它可能會脫離并召集其他子代理。它有IO

  你可以用任何你想要的方式和它說話。你可以向它揮手,它會理解你。你可以和任何你想要的模態進行交流。它會給你發消息。它會給你發短信、發郵件。所以它有IO。它還有什么別的嗎?那么,基于這一點,你可以說,事實上,它就是一個操作系統。我只是使用相同的語法,我會描述一個操作系統。OpenClaw基本上開源了代理計算機的操作系統

  

  這與Windows使我們能夠創建個人計算機的方式沒有什么不同。如今,OpenClaw讓我們能夠創建個人智能體。其含義令人難以置信。其含義令人難以置信。首先,收養這件事本身就有其意義,你知道的。

  

  企業AI戰略與NemoClaw

  然而,最重要的是這一點。每一家公司現在都意識到每一家公司,每一家軟件公司,每一家技術公司對于首席執行官來說,問題是,你的OpenClaw策略是什么?正如我們需要它都有一個Linux策略,我們都需要它有一個HTTP HTML策略,它啟動了互聯網。我們都需要有一個Kubernetes戰略,這使得移動云成為可能。

  當今世界上的每家公司都需要有一個OpenClaw戰略,一個代理系統戰略。這是新電腦。現在,這只是令人興奮的部分。

  這是OpenClaw之前的企業IT,你知道,我之前提到了企業IT的工作方式,以及它被稱為數據中心的原因是因為這些大房間,這些大建筑物保存著數據,保存著人的文件,業務的結構化數據。

  我們通過軟件,它有工具,你知道,記錄系統和各種工作流程被編入其中。而這就變成了人類會使用的工具。數字工人將使用。那是舊的IT行業,軟件公司創建工具,保存文件,當然還有GSI的顧問,他們幫助公司弄清楚如何使用這些工具并集成這些工具。這些工具對于治理和安全性以及隱私和合規性而言非常有價值,所有這些仍然是真實的。

  只是OpenClaw,OpenClaw。這就是它的樣子。這是非凡的部分。每個IT公司,每個公司,每個SaaS公司,每個SaaS公司都將成為一個。一家AI公司。毫無疑問。每一家SaaS公司都將成為一家AI公司和一家Agentic服務公司

  令人驚訝的是,你現在OpenClaw給了我們,給了這個行業在確切的時間需要的東西。就像Linux在確切的時間給了這個行業它所需要的一樣,就像Kubernetes在正確的時間出現一樣,就像HTML出現一樣。它使整個行業有可能抓住這個開源堆棧并使用它做一些事情。just有一個問題。

  代理系統。在公司網絡中可以訪問敏感信息,它可以執行代碼,并且可以與外部通信。就大聲說出來吧。好吧,想想吧。訪問敏感信息、執行代碼、與外部通信。當然,您可以訪問員工信息,訪問供應鏈,訪問財務信息,敏感信息并將其發送出去。對外溝通。顯然,這絕對不能被允許。

  于是,我們便與Peter合作。我們召集了全球頂尖的安全和計算專家,并與Peter攜手合作。使OpenClaw,OpenClaw,企業安全和企業私有能力。我們就把它叫做。這是我們的Nvidia OpenClaw參考——NemoClaw,它是OpenClaw的參考,它具有所有這些Agentic AI工具包

  它的第一部分是我們稱之為Open Shell的技術,它現在已經集成到OpenClaw中。現在它的企業準備好了。這個堆棧,這個堆棧有一個參考設計,我們稱之為NemoClaw,NemoClaw,好吧,有一個參考堆棧,我們稱之為NemoClaw。你可以下載它,玩它,你可以把它連接到世界上所有SaaS公司的策略引擎。你的政策引擎非常重要,非常有價值。

  因此,策略引擎可以連接,NemoClaw或帶有Open Shell的OpenClaw將能夠執行該策略引擎。它有一個政策,它有一個網絡護欄,它有一個隱私路由器。結果,我們可以。保護和防止Agentic在我們公司內部執行,并安全地執行。

  我們還在代理系統中添加了幾項內容。你想用自己的方式做的最重要的事情之一。Claw自定義Claw是讓你可以有你的自定義模型。這是Nvidia的開放模型計劃

  我們現在處于AI模型的每個領域的前沿,無論是Nemotron,Cosmos世界基礎模型,GR00T,人工通用機器人,人形機器人模型,自動駕駛汽車的Alpamayo,數字生物學的BioNeMo。二是人工智能物理學。我們在每一個領域都處于前沿。看看吧。世界是多元的。沒有任何一種模式能夠適用于所有行業。

  開放模型是全球規模最大、最多樣化的人工智能生態系統之一。跨越語言、視覺、生物學、物理學和自治系統的近300萬個開放模型支持為專業領域構建AI。英偉達是開源人工智能領域最大的貢獻者之一。我們構建并發布了六組開放前沿模型,以及相應的訓練數據。為每個家庭推出了幫助開發人員定制和采用新排行榜頂部模型的食譜和框架。

  

  在核心,Nemotron推理模型的語言,視覺。RAG。安全。演講,你現在能聽到我嗎?是的,是的,我現在能聽到你了。Cosmos物理人工智能世界生成和理解的前沿模型世界上第一個思考和推理的自動駕駛汽車AI通用機器人的基礎模型生物學,化學和分子設計的開放模型

  基于人工智能物理的兩個用于天氣和氣候預報的模型。NVIDIA開放模型為研究人員和開發人員提供了構建和部署AI的基礎

  域。我們的模型,我們的模型。謝謝。我們的模型對你們所有人都很有價值,因為排名第一,它位于排行榜的頂部。這是世界級的。但最重要的是,這是因為我們不會放棄努力。我們將每天繼續努力。Nemotron 3之后將是Nemotron 4Cosmos 1之后是Cosmos 2GR00T,GR00T在第二代。其中的每一個都將繼續推進這些模式。縱向一體化,橫向開放

  這樣我們就可以讓每個人都加入人工智能革命。在研究、語音和世界模型、人工通用機器人、自動駕駛汽車和推理方面排名第一。

  當然,其中最重要的一個,這是Nemotron 3和OpenClaw。這是前三名。世界上有三個最好的模型。好吧,我們在邊境。這也是真的,我們想要創建基礎模型,這樣你們所有人都可以微調它,并將其訓練成你需要的智能。這是Nemotron 3 Ultra。它將成為世界上有史以來最好的基礎模型。這使我們能夠幫助各國構建自己的主權人工智能。我們正在與許多不同的公司合作。

  我今天宣布,我們今天要做的最令人興奮的事情之一。是一個Nemotron Alliance。我們對此非常投入。

  我們已投入數十億美元用于人工智能基礎設施建設,旨在打造支撐推理庫等各類工具的核心AI引擎,同時開發能夠賦能全球各行各業的AI模型。大型語言模型真的非常重要

  當然,這很重要。人類智能怎么會不存在呢?但是,在全球不同的行業,在全球不同的國家,你需要有能力。定制你自己的模型和領域是模型領域的領域是完全不同于生物學、物理學、自動駕駛汽車、一般機器人,當然還有人類語言。我們有能力與每一個地區合作,打造屬于該地區的領域專用、主權AI

  今天,我們宣布一個聯盟與我們合作,使Nemotron 4更加驚人。而那個聯盟有一些令人驚嘆的。公司在它:Black Forest Labs,成像公司Cursor,著名的編碼公司。我們使用大量的it,LangChain,數十億次下載來創建自定義代理。Mistral AIArthur AI提到的,我想他在這里。難以置信,難以置信的公司,PerplexityPerplexity計算機

  絕對可以使用。大家都用它。太好了。來自印度Sarvam AI的多模態代理系統,Reflection AISarvamMira Murati的實驗室,令人難以置信的公司加入我們。謝謝你。

  我說,我說世界上每個企業公司,每個軟件公司都需要一個代理系統,需要一個代理策略。你需要有一個OpenClaw策略,他們都同意。他們都在與我們合作,整合Nemo、NemoClaw參考設計、Nvidia Agentic AI工具包,當然還有我們所有的開放模型。一個接一個的公司,有這么多。而我們正與各位攜手合作。我真的很感激這一點。

  

  企業IT復興與具身智能

  而這一刻,就是我們的時刻。這是一次重塑。這是一種復興,一種企業IT的復興。從一個2萬億美元的行業。這將成為一個價值數萬億美元的行業,不僅為人們提供使用的工具,還提供專門從事非常特殊領域的代理商,您是我們可以租用的專家。

  我完全可以想象,在未來,我們公司的每一位工程師都需要一個年度token預算。他們每年僅基本工資就能賺到幾十萬美元。我要給他們可能的一半作為token,這樣他們就可以放大十倍。當然會啊。

  它如今已成為硅谷的招聘工具之一。我的任務會附帶多少個token?其原因非常明確:凡是能夠訪問token的工程師,工作效率都會更高。而那些token,正如您所知,將由我們與各位合作伙伴共同打造的人工智能工廠來生成。

  如今每一家企業級公司都建立在文件系統和數據中心之上。未來每一家軟件公司都將是代理型組織,并且會發行自己的token。他們的工程師的用戶,他們將成為所有客戶的token制造商OpenClaw事件,OpenClaw事件不可低估。這件事的重要性堪比HTML。這件事的重要性堪比Linux

  我們現在有一個世界級的開放代理框架,我們所有人都可以用它來構建我們的OpenClaw策略。我們創建了一個參考設計,我們稱之為NemoClawNemoClaw,你們所有人都可以使用它是優化的,它的性能,它是安全的

  說到AgentAgent,如你所知,感知,推理和行動。我今天談到的世界上大多數Agent都是數字Agent。他們在數字世界中行動。他們推理,他們編寫軟件。這一切都是數字化的,但我們也一直在研究物理體現的Agent。我們稱之為機器人。他們需要的AI是物理AI。我們這里有一些重要的公告。我要去。走過其中的幾個。

  這里110機器人,幾乎世界上每一家公司。我想不出一個正在建造機器人的人正在與NVIDIA合作。我們有三臺計算機,訓練計算機,合成數據生成和模擬計算機,當然還有位于機器人內部的機器人計算機。我們擁有完成這項工作所需的所有軟件棧。人工智能模型來幫助您。

  所有這些都融入了世界各地的生態系統,我們所有的合作伙伴,從西門子到Cadence,世界各地令人難以置信的合作伙伴。今天,我們宣布了一大批新合作伙伴。

  正如您所知,我們長期以來一直在研發自動駕駛汽車自動駕駛汽車的聊天GPT時刻已經到來。我們現在知道我們可以成功地自動駕駛汽車。今天,我們宣布了Nvidia的robo taxi的四個新合作伙伴。準備平臺。比亞迪、現代、日產、吉利,每年總共制造1800萬輛汽車,加入我們之前的合作伙伴梅賽德斯、豐田、通用汽車,未來機器人出租車的數量將是令人難以置信的。

  同時,我們還宣布與Uber達成一項重大合作。我們將在多個城市進行部署。并將這些robo taxi就緒的車輛連接到他們的網絡中,以及一大堆新車。我們有ABB、Universal Robotics、Kuka等眾多機器人公司,我們正在與他們合作,將我們的物理人工智能模型集成到仿真系統中,以便我們可以將這些機器人部署到各地的生產線中。

  我們這里有卡特彼勒。我們這里甚至有T-Mobile。原因是在未來,無線電的無線電塔曾經是無線電塔,將成為Nvidia Aerial AI RAN。因此,這將是一個機器人無線電塔,這意味著它可以推理交通,找出如何調整其波束形成,以便它可以節省盡可能多的能量,并盡可能提高保真度。

  這里有這么多類人機器人,不過我最喜歡的,我最喜歡的,就屬它了。作為一個迪士尼機器人,你知道嗎?要不這樣吧?讓我給你看一些視頻。

  

  機器人演示視頻

  讓我們先看看這個。首次在全球范圍內大規模推出物理AI: 自動駕駛汽車。借助Nvidia Alpamayo,車輛現在具有推理功能,可幫助它們在各種情況下安全智能地運行。我們要求汽車敘述它的行動。

  

  我正向右變道,以便按照我的路線行駛。解釋其在做出決策時的思考過程。有一對。請遵照指示。嘿,梅賽德斯,能快一點嗎?加快速度。這是物理AI和機器人的時代

  在世界各地,開發人員正在制造各種類型的機器人。但是現實世界是多種多樣的,不可預測的,充滿了邊緣情況現實世界的數據永遠不足以訓練每個場景。我們需要生成的數據。機器人仿真計算。開發人員預培訓。互聯網上的模型縮放視頻和人體演示,并評估模型性能,為后期培訓做好準備。

  使用經典和神經模擬,他們生成大量的合成數據并大規模訓練策略。為了加速開發人員,Nvidia構建了用于機器人培訓、評估和模擬的開源Isaac LabNewton用于可擴展和GPU加速的差分物理仿真。用于神經模擬的Cosmos世界模型。并將用于機器人推理和動作生成的開放機器人基礎模型GR00T

  有了充足的算力,各地的開發者正在彌合物理世界中的AI數據缺口Peritas AI訓練他們的手術室助理角色。Isaac Lab將他們的數據與Nvidia Cosmos世界模型相乘。Skild AI使用Isaac Lab和Cosmos來生成訓練后數據。Skild AI大腦

  他們使用強化學習來強化數千種變化的模型。Figure AI使用Isaac Lab來訓練全身控制和操作策略。Hexagon機器人公司使用Isaac Lab進行訓練和數據生成。在精細的微調GR00T模型中。迪士尼研究使用他們在Newton和Isaac Lab的Cosmos物理模擬器來訓練策略。

  在每一個宇宙中。女士們先生們,Olaf。是嗎?牛頓定律有效Omniverse可以工作Olaf。你好嗎?我知道,因為我就是給你那臺電腦的人。Jensen。那是什么?嗯,它在你的肚子里呢。那一定會很精彩。你還將學習如何在Omniverse中行走

  這比騎在戒指上凝視要好得多。正是由于我們與迪士尼和DeepMind聯合開發的、基于Nvidia Warp并使用Newton求解器的物理引擎,才使得你能夠適應物理世界。看看那個吧。這就是你的聰明之處。我是雪人,不是雪豹。你能想象得到嗎?

  

  迪士尼樂園的未來,所有這些,所有這些機器人,所有這些四處游蕩的角色。哦,你知道,我不得不承認,我以為你會更高。說實話,我從來沒見過這么矮的雪人。不是。嘿,這樣吧。你想幫我嗎?萬歲。

  

  好吧,照例:我總愛用一句話收尾:"我剛才說過的,就是我要說的全部。"

  我們談了推理的新紀元——它不再是后臺任務,而是收入引擎; 我們談了人工智能工廠——它不是數據中心,而是代幣鑄造廠; 我們談了開放式智能體革命——OpenClaw不是工具,是新一代操作系統的開源宣言; 我們更談了具身智能——當機器人在迪士尼樂園里和你握手、調侃身高,物理世界已正式接入AI協議棧

  但今天——我們不獨自謝幕。讓我們請幾位"朋友",一起關掉這場模擬。

  

  ?正在終止仿真……?模擬已關閉。?你好?有人在嗎?

  ——沒錯,這就是GTC主題演講的經典句式:"Jensen映射完成。"

  工廠已通電,智能體正學開車,所有模塊正在解耦、重組、加速。我們從CNN時代看見的突破,今天已在NVLink 72上跑出4000萬倍的吞吐量推理,已成為現實;機器人,正為AI而生;而此刻,請大聲喊出你們需要的——更多TokenAI工程師,全體就位

  這,就是"五層蛋糕"的終極時刻—— 當數據丟失?我們用計算生成; 當模型卡頓?我們用協同設計突破; 當世界需要答案?我們交付可信賴的智能體

  歡迎來到GTC 2026! 這不僅是一場大會——這是人工智能工業革命的開工典禮

  謝謝大家!

  *本實錄為快處理搶鮮閱讀版本,最終以官方發布版本為準。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
梅西起訴Temu、Shein等平臺中國賣家,紐約法院已受理

梅西起訴Temu、Shein等平臺中國賣家,紐約法院已受理

情感大頭說說
2026-03-28 08:20:47
張雪峰:如果你不好好學習,一旦掉入社會底層,和一群沒有素質的人混在一起.....

張雪峰:如果你不好好學習,一旦掉入社會底層,和一群沒有素質的人混在一起.....

山東教育
2026-01-27 11:38:18
湖南省高院明確定性“錯判”的刑案,長沙司法系統為何死扛到底?

湖南省高院明確定性“錯判”的刑案,長沙司法系統為何死扛到底?

塔子山評說
2026-03-28 14:43:49
打瘋了!騎士領先35分打崩勁旅:全場狂歡慶祝,哈登14分9助

打瘋了!騎士領先35分打崩勁旅:全場狂歡慶祝,哈登14分9助

體壇小李
2026-03-28 08:53:47
“雪山救狐貍”全網傳播量破50億,成本僅40元,主創只想賣醬板鴨

“雪山救狐貍”全網傳播量破50億,成本僅40元,主創只想賣醬板鴨

九方魚論
2026-03-27 10:10:51
被成龍“泡過”的三位女星,個個性感迷人,其中一位火遍全國

被成龍“泡過”的三位女星,個個性感迷人,其中一位火遍全國

阿鳧愛吐槽
2026-03-23 14:07:43
101枚導彈砸向美國航母:伊朗打出了開戰以來最強一拳

101枚導彈砸向美國航母:伊朗打出了開戰以來最強一拳

魔神主的仇恨
2026-03-28 13:50:34
39萬億美債曝光,美聯儲通知全球,中國分批運回金條,川普急表態

39萬億美債曝光,美聯儲通知全球,中國分批運回金條,川普急表態

億通電子游戲
2026-03-27 17:57:19
日媒:美“新型”稀土技術,可高效清潔回收稀土,或動搖稀土霸權

日媒:美“新型”稀土技術,可高效清潔回收稀土,或動搖稀土霸權

爆角追蹤
2026-03-27 14:43:47
伊朗官媒發布《為眾人復仇》AI短片:一枚伊朗導彈在哈梅內伊等人注視下,精準炸毀幻化成羊頭惡魔的美國自由女神像

伊朗官媒發布《為眾人復仇》AI短片:一枚伊朗導彈在哈梅內伊等人注視下,精準炸毀幻化成羊頭惡魔的美國自由女神像

大象新聞
2026-03-26 09:45:03
意天空:那不勒斯告知盧卡庫,3月31日前不歸隊就開除他

意天空:那不勒斯告知盧卡庫,3月31日前不歸隊就開除他

懂球帝
2026-03-27 23:22:07
升溫后才發現:沒人穿衛褲、彎刀褲,滿街都是這3種春褲,好時髦

升溫后才發現:沒人穿衛褲、彎刀褲,滿街都是這3種春褲,好時髦

冒泡泡的魚兒
2026-03-26 09:42:20
巴基斯坦:將就中東局勢舉行四國外長會議

巴基斯坦:將就中東局勢舉行四國外長會議

財聯社
2026-03-28 09:33:05
成都警方通報:自導自演網約車糾紛罵乘客,李某國(男,37歲,中江縣人)被罰

成都警方通報:自導自演網約車糾紛罵乘客,李某國(男,37歲,中江縣人)被罰

封面新聞
2026-03-28 00:57:15
荷蘭紅燈區:在這里沒有做不到,只有你想不到的大尺度

荷蘭紅燈區:在這里沒有做不到,只有你想不到的大尺度

番外行
2026-03-21 13:03:00
這是目前為止,我見過腰最細的女生,沒有之一

這是目前為止,我見過腰最細的女生,沒有之一

草莓解說體育
2026-03-03 19:15:05
英國向全球宣告,中國風力渦輪機“高度危險”,禁止采購中國風電

英國向全球宣告,中國風力渦輪機“高度危險”,禁止采購中國風電

書紀文譚
2026-03-27 17:47:25
21輛坦克覆滅,國防部大樓被炸!伊朗盟友真猛,英媒驚呼:攔不住

21輛坦克覆滅,國防部大樓被炸!伊朗盟友真猛,英媒驚呼:攔不住

近史閣
2026-03-28 11:00:59
伊媒:一架美戰斗機被擊中,在科威特墜落!伊朗喊話特朗普:你被解雇了!我駐以使館再提醒:中國公民摒棄僥幸心理,盡快回國或轉移撤離

伊媒:一架美戰斗機被擊中,在科威特墜落!伊朗喊話特朗普:你被解雇了!我駐以使館再提醒:中國公民摒棄僥幸心理,盡快回國或轉移撤離

每日經濟新聞
2026-03-23 16:03:07
一夜輸1億,一瓶酒50萬,2億豪車買來當玩具,父子敗光百億家產!

一夜輸1億,一瓶酒50萬,2億豪車買來當玩具,父子敗光百億家產!

歷史偉人錄
2026-03-13 18:28:07
2026-03-28 16:03:00
前沿在線 incentive-icons
前沿在線
前沿在線官方賬號,關注AI、機器人、智能車等前沿領域;
126文章數 1235關注度
往期回顧 全部

科技要聞

遭中國學界"拉黑"后,這家AI頂會低頭道歉

頭條要聞

特朗普:北約沒支持美打擊伊朗 美國以后也不會幫北約

頭條要聞

特朗普:北約沒支持美打擊伊朗 美國以后也不會幫北約

體育要聞

“我是全家最差勁的運動員”

娛樂要聞

王一博改名上熱搜!個人時代正式開啟!

財經要聞

我在小吃培訓機構學習“科技與狠活”

汽車要聞

置換補貼價4.28萬起 第五代宏光MINIEV正式上市

態度原創

房產
旅游
藝術
本地
公開課

房產要聞

6.8萬方!天河員村再征地,金融城西區開發全面提速

旅游要聞

春夏秋冬皆可游!濟南將打造四季可游、全域皆景的文旅體驗

藝術要聞

細膩優雅的花卉靜物畫 | Henrietta Smith

本地新聞

在濰坊待了三天,沒遇到一個“濰坊人”

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版