
黃仁勛詳解驅動英偉達增長的五種力量: 萬億美元數據中心轉向加速計算,Blackwell是 Hopper的階梯式飛躍!
時間:24-08-30 來源:王錚Silvia
黃仁勛詳解驅動英偉達增長的五種力量:
萬億美元數據中心轉向加速計算,Blackwell是
Hopper的階梯式飛躍!
業績陳述:Hopper需求強勁,Blackwell正廣泛采樣
Colette M. Kress -- 首席財務官兼執行副總裁
第二季度我們再次創下了記錄。
收入達到300億美元,環比增長15%,同比增長122%,遠遠超出我們280億美元的預期。
多種工作負載
推動數據中心收入快速增長
從數據中心業務開始說起。
數據中心業務收入為263億美元,創歷史新高,環比增長16%,同比增長154%,這一增長是由對NVIDIA Hopper、GPU計算和我們的網絡平臺的強勁需求推動的。
計算業務收入增長超過2.5倍。
網絡業務收入同比增長超過2倍。
云服務提供商約占我們數據中心收入的45%,超過50%的收入來自消費互聯網和企業公司。
客戶繼續加快購買Hopper架構的產品,同時準備采用Blackwell架構。
推動我們數據中心增長的關鍵工作負載包括:
生成式AI模型的訓練和推理;
使用CUDA和AI工作負載對視頻、圖像和文本數據進行預處理和后處理;
合成數據生成;
AI驅動的推薦系統;
以及SQL和向量數據庫處理。
下一代模型將需要10到20倍的計算能力來進行訓練,并且需要處理更多的數據。預計這一趨勢將繼續下去。
在過去的四個季度中,我們估計推理工作負載推動了我們數據中心超過40%的收入。云服務提供商、消費互聯網公司和企業都從NVIDIA的推理平臺的驚人吞吐量和效率中受益。
對NVIDIA的需求來自前沿模型制造商、消費互聯網服務,以及成千上萬的公司和初創企業,它們正在為消費者、廣告、教育、企業和醫療保健以及機器人技術構建生成式AI應用程序。
開發者渴望NVIDIA在每個云中都能獲得豐富的生態系統和可用性。
云服務提供商(CSPs)對NVIDIA的廣泛采用表示贊賞,并鑒于高需求,正在增加他們的NVIDIA容量。
H200增加產量
構建100多個基于Blackwell的系統
NVIDIA H200平臺在第二季度開始增加產量,向大型云服務提供商、消費互聯網公司和企業公司發貨。
NVIDIA H200建立在我們Hopper架構的優勢之上,與H100相比,內存帶寬增加了40%以上。
第二季度,我們在中國的數據中心營收環比增長,為我們的數據中心營收做出了重要貢獻;占數據中心總收入的百分比仍低于實施出口管制之前的水平,我們繼續預計中國市場未來將非常有競爭力。
最新的MLPerf推理基準測試突出了NVIDIA在推理領域的領導地位,NVIDIA Hopper和Blackwell平臺相結合,在所有任務上都贏得了金牌。
在Computex上,NVIDIA與頂級計算機制造商一起,推出了一系列由Blackwell架構驅動的系統和NVIDIA網絡,用于構建AI工廠和數據中心。
通過NVIDIA MGX模塊化參考架構,我們的OEM和ODM合作伙伴正在構建100多個基于Blackwell的系統,這些系統設計得既快速又經濟高效。
NVIDIA Blackwell平臺匯集了多個GPU、CPU、DPU、NVLink、Link Switch和網絡芯片、系統以及NVIDIA CUDA軟件,為下一代AI提供動力,覆蓋各種案例、行業和國家。
配備第五代NVLink的NVIDIA GB200 NVL72系統使所有72個GPU能夠像一個GPU一樣工作,為大型語言模型(LLM)的工作負載提供高達30倍的推理速度,并解鎖實時運行萬億參數模型的能力。
Hopper需求強勁
Blackwell正在廣泛采樣
Hopper的需求強勁,Blackwell正在廣泛采樣。
我們對Blackwell GPU質量進行了更改,以提高產量。
Blackwell的生產預計將在第四季度開始,并持續到2026財年。在第四季度,我們預計將獲得數十億美元的Blackwell收入。
預計Hopper的出貨量將在2025財年下半年增加。Hopper的供應和可用性已經得到改善。
對Blackwell平臺的需求遠超過供應,我們預計這種情況將持續到明年。
Spectrum-X即將成為
價值數十億美元的產品線
網絡業務收入環比增長了16%。
我們的AI以太網收入,包括我們的Spectrum-X端到端以太網平臺,環比翻了一番,有數百名客戶采用了我們的以太網產品。
Spectrum-X得到了OEM和ODM合作伙伴的廣泛市場支持,并正在被云服務提供商、GPU云服務提供商和企業(包括 xAI)采用,以連接世界上最大的GPU計算集群。
Spectrum-X 為以太網的AI處理提供了1.6倍的性能,性能是傳統以太網的1.6倍。我們計劃每年推出新的Spectrum-X產品,以支持從今天的數萬個GPU擴展到未來數百萬DPU的計算集群的需求。
Spectrum-X有望在一年內開始成為一個價值數十億美元的產品線。
主權AI收入將達到數十億美元量級
隨著各國認識到AI專業知識和基礎設施是其社會和行業的國家當務之急,我們的主權AI機會繼續擴大。
日本國立先進工業科學技術研究所正在使用NVIDIA構建其AI Bridging Cloud Infrastructure 3.0超級計算機。
我們相信,主權AI收入今年將達到數十億美元的低兩位數。
企業AI浪潮已經開始
汽車與醫療行業AI應用將規?;?/span>
企業AI浪潮已經開始。企業也推動了本季度收入的環比增長。
我們正在與財富100強中的大多數公司合作,開展跨行業和地理區域的AI計劃。
一系列應用正在推動我們的增長,包括AI驅動的聊天機器人、生成式AI副駕駛和代理,以構建新的可貨幣化的商業應用并提高員工生產力。
Amdocs正在使用NVIDIA的生成式AI為他們的智能代理提供支持,轉變客戶體驗并將客戶服務成本降低30%。
ServiceNow正在使用NVIDIA為其Now Assist產品提供支持,這是公司歷史上增長最快的新產品。
SAP正在使用NVIDIA構建雙重副駕駛。
Cohesity正在使用NVIDIA構建他們的生成式AI代理并降低生成式AI開發成本。
Snowflake每天為超過10000家企業客戶處理超過30億次查詢,正在與NVIDIA合作構建副駕駛。
最后,他們使用NVIDIA AI Omniverse將工廠的端到端周期時間減少了50%。
汽車行業是本季度的關鍵增長驅動力,因為每家開發自動駕駛汽車技術的汽車制造商都在他們的數據中心使用NVIDIA。
汽車行業將在本地和云消費中帶來數十億美元的收入,并隨著下一代自動駕駛汽車模型需要更多的計算能力而增長。
隨著AI徹底改變醫學成像、手術機器人、病患護理、電子健康記錄處理和藥物發現,醫療保健也在成為數十億美元的業務。
與Meta的合作
利用Llama3.1為企業定制AI應用
在本季度,我們宣布了一項新的NVIDIA AI代工廠服務,以利用Meta的Llama 3.1模型系列為全球企業加速生成式AI。
這標志著企業AI的一個分水嶺時刻。
公司首次可以利用開源前沿級模型的能力,開發定制化的AI應用程序,將他們的機構知識編碼到AI飛輪中,以自動化和加速他們的業務。
埃森哲是首家采用這項新服務的公司,為自己和尋求部署生成式AI應用程序的客戶構建定制的Llama 3.1模型。
軟件、SaaS和支持收入
將達到20億美元
NVIDIA NIMs加速并簡化了模型部署。
醫療保健、能源、金融服務、零售、運輸和電信等行業的公司都在采用NIMs,包括沙特阿美、勞氏和優步。
AT&T在采用NIMs進行生成式AI、呼叫轉錄和分類后,實現了70%的成本節約和8倍的延遲減少。
超過150個合作伙伴正在將NIMs嵌入到AI生態系統的每個層面。
我們宣布了NIM Agent Blueprint,這是一個可定制的參考應用程序目錄,包括一整套用于構建和部署企業生成式AI應用程序的軟件。
通過NIM Agent Blueprint,企業可以隨著時間的推移完善他們的AI應用程序,從而創建數據驅動的AI飛輪。
首批NIM Agent Blueprints包括客戶服務、計算機輔助藥物發現和企業檢索增強生成的工作負載。
我們的系統集成商、技術解決方案提供商和系統構建者正在將NVIDIA NIM Agent Blueprints帶給企業。
NVIDIA NIM和NIM Agent Blueprints可通過NVIDIA AI Enterprise軟件平臺獲得,該平臺發展勢頭強勁。
我們預計我們的軟件、SaaS和支持收入在今年末將接近20億美元的年增長率,其中NVIDIA AI Enterprise顯著促進了增長。
游戲收入同比增長16%
轉向游戲和AI PC。
游戲收入達到28.8億美元,環比增長9%,同比增長16%。
我們在游戲機、筆記本電腦和臺式電腦的收入上看到了環比增長,需求強勁且不斷增長,渠道庫存保持健康。
每臺配備RTX的PC都是一臺AI電腦。RTX PC可以提供高達1300 AI tops的性能,現在有200多款由領先PC制造商設計的RTX AI筆記本電腦。
擁有600款AI驅動的應用程序和游戲,以及1億臺設備的安裝基礎,RTX準備用生成式AI徹底改變消費者的體驗。
NVIDIA ACE是一套生成式AI技術,適用于RTX AI PC。
Megabreak是第一款使用NVIDIA ACE的游戲,包括我們的小型語言模型,Nemotron 4B,它在設備上進行了優化以實現推理。
NVIDIA游戲生態系統持續增長。
最近新增的RTX和DLSS游戲包括《印第安納瓊斯與大圓》、《覺醒》和《龍騰世紀:先鋒》。
GeForce NOW庫繼續擴大,總目錄超過2000款游戲,是任何云游戲服務中內容最多的。
AI和圖形用例推動
專業可視化收入增長20%
轉向專業可視化。
收入為4.54億美元,環比增長6%,同比增長20%。
需求是由AI和圖形用例推動的,包括模型微調和與Omniverse相關的工作負載。
汽車和制造業是本季度推動增長的關鍵行業垂直領域之一。各公司正在競相實現工作流程的數字化,以提高其運營效率。
世界上最大的電子制造商富士康正在使用NVIDIA Omniverse為其生產NVIDIA Blackwell系統的物理工廠創建數字孿生。
包括梅賽德斯-奔馳在內的幾家大型全球企業,已與NVIDIA Omniverse Cloud簽訂了多年合同,以構建工廠的工業數字孿生。
我們宣布了新的NVIDIA USD NIMs和連接器,將Omniverse引入新行業,并使開發者能夠將生成式AI副駕駛和代理納入USD工作負載,加速我們構建高度精確的虛擬世界的能力。
WPP正在其為可口可樂公司等客戶啟用的生成式AI內容創建流程中實施USD NIM微服務。
自動駕駛需求快速增長
轉向汽車和機器人技術。
收入為3.46億美元,環比增長5%,同比增長37%。
自動駕駛平臺的新客戶增加和對AI駕駛艙解決方案的需求增加推動了同比增長。
在計算機視覺和模式識別會議上,NVIDIA在端到端駕駛高端類別中贏得了自動駕駛品牌挑戰賽,表現優于全球400多個參賽作品。
波士頓動力公司、比亞迪電子、Figure、Intrinsyc、西門子和Teradyne Robotics正在使用NVIDIA Isaac機器人平臺,用于自動機器人臂、仿人機器人和移動機器人。
將啟動500億美元
股票回購計劃
現在,轉向損益表的其他部分。
GAAP毛利率為75.1%,非GAAP毛利率為 75.7%,由于數據中心新產品組合的增加以及低產量Blackwell材料的庫存準備,環比有所下降。
環比而言,GAAP和non-GAAP運營費用均增長了12%,主要反映了與薪酬相關的成本增加。
運營現金流為145億美元。
在第二季度,我們以股票回購和現金股息的形式將74億美元的現金用于股東回報,這反映了每位股東股息的增長。
我們董事會最近批準了一項500億美元的股票回購授權,以補充我們在第二季度末剩余的75億美元授權。
Q3的增長驅動
Hopper的增長和Blackwell的采樣
讓我來談談第三季度的展望。
總收入預計為325億美元,上下浮動2%。我們第三季度的收入展望包含了Hopper架構的持續增長和Blackwell產品的采樣。
我們預計Blackwell的生產將在第四季度開始增加。
GAAP和non-GAAP毛利率預計分別為74.4%和75%,上下浮動 50個基點。
隨著我們數據中心的產品組合繼續向新產品轉變,我們預計這一趨勢將持續到2025財年第四季度。
對于整個財年,我們預計毛利率將在75%左右。
預計GAAP和non-GAAP運營費用分別約為43億美元和30億美元。隨著我們致力于開發下一代產品,全年運營費用預計增長將在45%-50%的范圍內。
預計GAAP和non-GAAP其他收入和費用約為3.5億美元,包括來自非關聯投資和公開持有的股權證券的收益和損失。
預計GAAP和non-GAAP稅率為17%,上下浮動1%,不包括任何單獨項目。
更多財務細節包含在首席財務官的評論和其他信息中,這些信息可在我們的投資者關系網站上找到。
分析師問答
Blackwell功能維持原樣
預計四季度開始生產
美國銀行證券的Vivek Arya:
感謝您回答我的問題。
Jensen,您在前面的評論中提到了Blackwell GPU mask發生了變化。
我很好奇,是否有其他漸進式的后端封裝變化或其他什么變化?
我認為與此相關,您建議盡管設計發生了變化,您仍然可以在第四季度出貨數十億美元的Blackwell。這是因為到那時所有這些問題都將得到解決嗎?
請幫助我們評估Blackwell時間表變化的總體影響,這對您的收入概況意味著什么,以及客戶對此有何反應。
Jensen Huang -- 總裁兼首席執行官
Mask的變更已經完成。無需進行功能更改。
因此,我們現在正在對Blackwell、Grace Blackwell以及各種系統配置進行功能性抽樣。
在Computex上展示了大約100種不同類型的基于Blackwell的系統,我們正在讓我們的生態系統開始對這些系統進行采樣。
Blackwell的功能是原來的樣子,我們預計在第四季度開始生產。
更多前沿模型在更多模態上訓練
AI推薦和廣告優化的規模巨大
Goldman Sachs的Toshiya Hari:
非常感謝您回答這個問題。
Jensen,我有一個相對長期的問題。
您可能知道,市場上關于您的客戶和客戶的客戶的投資回報率以及這對未來資本支出的可持續性意味著什么,存在著相當激烈的爭論。
在NVIDIA內部,你們在關注什么?當您嘗試衡量客戶回報時,在你們的儀表板上有什么,以及這對資本支出有何影響?
然后,對Colette的快速跟進問題。我認為你們全年的主權AI數字可能增加了幾十億。是什么推動了前景的改善,我們應該如何看待26財年?謝謝。
Jensen Huang -- 總裁兼首席執行官
首先,當我說第四季度開始生產出貨時,我的意思是發貨,而不是開始發貨,我的意思是——我不是指開始生產,而是指發貨。
關于長期問題,讓我們退一步說。
你們可能聽我說過,我們正在同時經歷兩個平臺轉型。
第一個是從通用計算向加速計算過渡。
原因之一是CPU的擴展速度已經眾所周知地放緩了一段時間,而且已經慢到了幾乎停滯的地步。
然而,計算需求的增長仍然非常顯著。您甚至可以估計它每年都會翻一番。
因此,如果我們沒有新的方法,計算通脹將推高每家公司的成本,并將推高全球數據中心的能源消耗。
實際上,你已經看到了這一點。答案是加速計算。我們知道加速計算可以加快應用程序的運行速度。
它還使您能夠進行更大規模的計算,例如科學模擬或數據庫處理,但這直接轉化為的是降低成本和減少能源消耗。
事實上,本周有一篇博客發表,談到了我們提供的一大堆新庫。
這確實是第一個平臺轉型的核心,即從通用計算轉向加速計算??吹接腥斯澥×?span>90%的計算成本并不罕見。
原因當然是,你剛剛將一個應用程序的速度提高了50倍。你預計計算成本會顯著下降。
第二個是由加速計算實現的。
因為我們大大降低了訓練大型語言模型或深度學習的成本,以至于現在有可能擁有極其大規模的模型,數萬億個參數的模型并對其進行訓練——在幾乎全世界的知識語料庫上對其進行預訓練,讓模型自己去弄清楚如何理解人類語言表示,如何將知識編碼到其神經網絡中,以及如何學習推理,從而引發了生成式AI革命。
現在,生成式AI,退一步說,我們之所以如此深入地研究它,是因為它不僅僅是一個特性,也不僅僅是一種能力。
這是一種全新的軟件開發方式。
我們現在擁有的數據,而不是人工設計的算法。
我們告訴 AI,我們告訴模型,我們告訴計算機預期的答案是什么。我們之前的觀察結果是什么?然后讓它弄清楚算法是什么,函數是什么。
它學習了一個通用的——AI有點類似于通用函數逼近器,它學習這個函數。
因此,您幾乎可以學習任何事物的功能。任何你擁有的可預測的東西,任何有結構的東西,任何你有先前例子的事物。
所以,現在我們有了生成式AI。這是計算機科學的一種根本新形式。
它影響著從CPU到GPU、從人工設計算法到機器學習算法的每一層計算方式,您現在可以開發和生產的應用程序類型從根本上說是非凡的
在生成式AI中,有幾件事情正在發生。
所以,第一件事是前沿模型正在相當大規模地增長。
他們仍然在看到——我們所有人都在看到規?;暮锰?。
每當你將模型的大小翻倍時,你也必須將訓練數據集的大小增加一倍多。
因此,為了創建那個模型所需的浮點運算次數會呈二次方增加。
所以,看到下一代模型可能需要比上一代多10倍、20倍、40倍的計算能力并不意外。
因此,我們必須繼續顯著提高代際性能,這樣我們才能降低能源消耗,降低執行所需的成本。
所以,第一點是,有更多的前沿模型在更多模態上進行訓練。
令人驚訝的是,與去年相比,前沿模型制造商更多,你看到的越來越多。這是生成式 AI 中正在發生的動態之一。
第二點是,盡管它在冰山一角之下,我們看到的是ChatGPT圖像生成器。我們看到了編程。
我們現在在NVIDIA廣泛使用生成式AI進行編程。我們當然有很多數字設計師之類的人才。但這些都是冰山一角。
冰山之下的是當今世界上最大的系統,最大的計算系統,也就是我之前提到過的,推薦系統正從CPU轉移到生成式AI。
所以,推薦系統、廣告生成、針對大規模和非常精準的目標廣告生成、搜索和用戶生成內容,這些現在都已經演變成了生成式AI的大規模應用。
當然,生成式AI初創公司為我們的云合作伙伴創造了數十億美元的云租賃機會。
而主權AI,一些國家現在意識到他們的數據是他們的自然和國家資源,他們必須使用AI,建立自己的AI基礎設施,以便他們能夠擁有自己的數字智能。
正如Colette之前提到的,企業AI已經開始了,你可能已經看到了我們的公告,世界領先的IT公司將加入我們,將NVIDIA AI Enterprise平臺引入全球企業。
我們正在交談的公司中,很多公司都非常興奮,希望通過提高生產力來推動公司發展。
然后就是通用機器人技術。
去年的重大轉變是,我們現在能夠通過觀看視頻、人類演示和從Omniverse這樣的系統中通過強化學習生成合成數據來學習物理AI,我們現在能夠與幾乎所有的機器人公司合作,開始考慮、開始構建通用機器人。
因此,你可以看到,生成式AI正朝著如此多的不同方向發展。我們實際上看到生成式AI的勢頭正在加速。
Colette M. Kress -- 首席財務官兼執行副總裁
至于Toshiya,回答你關于主權AI以及我們在增長和收入方面的目標的問題。
這確實是一個獨特且不斷增長的機會,這是隨著生成式AI的出現以及世界各國希望擁有自己的生成式AI而浮現出來的,這樣的AI能夠結合他們自己的語言、文化和那個國家的數據。
因此,人們越來越興奮地圍繞這些模型以及它們可以為這些國家提供哪些具體內容。
所以,是的,我們看到了一些增長機會擺在我們面前。
Hopper幫助1萬億美元
現有安裝基礎設施過渡到現代化設施
Morgan Stanley的Joe Moore
Jensen,在新聞稿中,你談到了對Blackwell的期待是令人難以置信的。但看起來Hopper的需求也非常強勁。
我的意思是,即使在沒有Blackwell的10月份,你也預計會有一個非常強勁的季度。
那么,你認為這兩種需求會共存多久?你能談談向Blackwell過渡的情況嗎?你看到人們在集群中混合使用嗎?你認為大多數Blackwell活動是新建集群嗎?
請給出一些關于這種過渡是什么樣子的分享。
Jensen Huang -- 總裁兼首席執行官
是的,謝謝,Joe。對Hopper的需求確實非常強勁。而且確實,對Blackwell的需求是令人難以置信的。
這有幾個原因。
第一個原因是,如果你看一下全球的云服務提供商,他們可用的GPU容量基本上為零。
原因之一是它們要么被內部部署以加速他們自己的工作負載,例如數據處理。
我們很少談論數據處理,因為它很平凡。它不是很酷,因為它不會產生圖片或文字。但世界上幾乎每家公司都在后臺處理數據。
而NVIDIA的GPU是地球上唯一能夠處理和加速數據的加速器:SQL數據,Panda的數據,像Panda這樣的數據科學工具包,以及新的Polar數據。
這些是世界上最流行的數據處理平臺。
而且除了CPU,正如我之前提到的,它們真的已經力不從心了,NVIDIA的加速計算是真正能夠提升性能的唯一方式。
因此,首要的——長期以來的第一用例是在生成式AI出現之前的應用程序遷移到加速計算。
第二當然是租賃。
他們向模型制造商出租容量。他們向初創公司出租。
一家生成式AI公司將其大部分投資資本投入到基礎設施中,以便他們可以使用AI幫助他們創造產品。
所以,這些公司現在就需要它。他們就是負擔不起——你剛剛籌集了資金。他們希望你現在就投入使用。
你必須要進行處理。你不能明年再做,你今天就必須做。
所以,這是Hopper需求旺盛的一個原因。
當前Hopper需求的第二個原因是因為競爭下一個高地。
第一個到達下一個高地的人將能夠引入革命性的AI水平。
第二個到達那里的人可能會更好,或者差不多。
因此,能夠系統地、持續地競爭下一個高地,并成為第一個到達那里的人,這就是你如何確立領導地位。
NVIDIA一直在這樣做,我們向世界展示這一點,我們制造的GPU、我們制造的AI工廠、我們制造的網絡系統、我們創造的SoC。
我的意思是,我們想要引領潮流。我們希望始終是世界上最好的。這就是為什么我們如此努力地推動自己的原因。
當然,我們也希望看到我們的夢想成真,我們想象中的所有能力,以及我們能帶給社會的好處,我們希望看到所有這些都成真。
所以,這些模型制造商也是一樣的。他們希望成為世界上最好的。他們希望成為世界上第一。
盡管Blackwell將在今年年底開始以數十億美元的價格發貨,但產能的建立可能還需要幾周甚至一個月左右的時間。
因此,從現在到那時,有很多生成式AI市場動態。每個人都很著急。他們需要它要么是運營原因。他們需要加速計算。他們不想再構建任何通用計算基礎設施,甚至是Hopper。
當然,H200是最先進的。Hopper,如果你現在要在為企業構建CPU基礎設施和Hopper基礎設施之間做出選擇,這個決定相對明確。
所以,我認為人們都在爭相將1萬億美元的現有安裝基礎設施過渡到現代化的基礎設施,而Hopper是最先進的。
科技巨頭資本支出的三重回報
降低成本、改善現有業務、大模型租賃
TD Cowen的Matt Ramsay
Jensen,我想回到之前關于投資者對所有這些資本支出回報率(ROI)的辯論的問題上。希望這個問題和區分會有意義。
但我討論的是,在你看來,有一部分人正在花費所有這些資金,試圖將前沿模型推向通用人工智能(AGI)的融合,正如你剛才所說,達到一個新的能力高峰,他們將不惜一切代價達到那種能力水平,因為它為行業和他們的公司打開了如此多的大門,而不是那些客戶今天真的非常非常關注資本支出與ROI。
我不知道這種區分是否有意義。我只是想了解一下,你如何看待那些在這項新技術上投入資金的人的優先事項,以及他們的優先事項和投資的時間框架是什么。謝謝。
Jensen Huang -- 總裁兼首席執行官
那些投資NVIDIA基礎設施的人立即就能獲得回報。這是你今天可以做的最好的ROI基礎設施,計算基礎設施投資。
所以,思考這個問題的一種方式,可能最簡單最直接的方式就是回到第一性原理。
你擁有價值1萬億美元的通用計算基礎設施。問題是,你還想建造更多這樣的設施嗎?
對于你建立的每一個價值10億美元的基于Juniper CPU的基礎設施,你可能以不到10億美元的價格出租。由于它已經商品化,地面上已經有1萬億美元。再獲得更多有什么意義呢?
所以,那些爭相獲得這種基礎設施的人,首先,當他們建立基于Hopper的基礎設施,很快,基于Blackwell的基礎設施時,他們開始省錢。這是巨大的投資回報。
他們開始省錢的原因是數據處理能夠節省資金,而數據處理可能已經是其中很大一部分了。因此,推薦系統可以省錢,等等,對吧?所以,你開始省錢。
第二,你建立的一切都將被租賃。
因為有這么多公司成立來創建生成式AI,所以,你的容量會立即被租賃,這種投資的回報非常好。
第三是你的自身業務。
您是想自己創造下一個前沿領域,還是想從下一代廣告系統、下一代推薦系統或下一代搜索系統中受益的互聯網服務?所以,對于你自己的服務,你自己的商店,你自己的用戶生成內容,社交媒體平臺,生成式AI也是一種快速的投資回報。所以,你可以通過很多方式來思考這個問題。
但從本質上講,這是因為它是您今天可以投入的最好的計算基礎設施。
通用計算領域正在轉向加速計算。人工工程軟件的世界正在轉向生成式AI軟件。如果你要建立基礎設施來現代化你的云和數據中心,用加速計算的NVIDIA來構建它。
這是最好的方法。
價值1萬億美元的數據中心
幾年內將轉向加速計算
UBS的Timothy Arcuri
非常感謝。我有一個關于收入增長形態的問題,包括近期和長期。
我知道,Colette,您今年的運營支出確實增加了。如果我看一下你的采購承諾和供應義務的增加,這也是相當樂觀的。
另一方面,有一種觀點認為,并沒有那么多客戶真正準備好使用液冷,我確實認識到,其中一些機架可以采用空氣冷卻。
但是,Jensen,這是在考慮Blackwell增長形態時需要考慮的事情嗎?
然后,我想當你看明年以后,顯然將是偉大的一年,你看到2026年,你會擔心其他任何限制因素,比如電源供應鏈,或者在某個時候,模型開始變小嗎?我只是想知道你是否能就此發表意見。謝謝。
Jensen Huang -- 總裁兼首席執行官
我會倒過來回答。我真的很感謝你的問題,Tim。
請記住,世界正從通用計算轉向加速計算。
全球建造了價值約1萬億美元的數據中心。在幾年內,價值1萬億美元的數據中心將全部是加速計算。
過去,數據中心里沒有GPU,只有CPU。將來,每個數據中心都會有GPU。
原因非常明確:因為我們需要加速工作負載,以便我們能夠繼續保持可持續性,繼續降低計算成本,這樣當我們進行更多的計算時,我們不會經歷計算通脹。
其次,我們需要GPU來開發一種稱為生成式AI的新計算模型,我們都承認,這種模型將對計算的未來產生重大變革。
所以,我認為倒過來想,世界下一個1萬億美元的基礎設施將明顯不同于上一個1萬億美元,它將大大加速。
關于我們增長形態的問題,我們提供多種配置的Blackwell。
Blackwell有Blackwell經典版,如果你愿意,它使用我們與Volta一起首創的HGX外形尺寸。
我想是Volta。所以,我們已經推出HGX外形規格有一段時間了。它是空氣冷卻的。而Grace Blackwell是液冷的。
然而,想要采用液冷的數據中心數量相當可觀。原因是因為在液冷數據中心,任何數據中心——無論是電源受限的數據中心,還是你選擇的任何規模的數據中心,你都可以安裝和部署比過去多三到五倍的AI吞吐量。
所以,液冷更便宜。液冷,我們的總體擁有成本(TCO)更好,液體冷卻讓您能夠享受我們稱為 NVLink 的這項功能,它允許我們能夠將其擴展到72個Grace Blackwell軟件包,這基本上有144個GPU。
因此,想象一下在NVLink中連接了144個GPU。我們正越來越多地向你展示這一點的好處。
接下來的顯然是非常低的延遲,非常高吞吐量的大語言模型推理,而大的NVLink領域將是這方面的游戲規則改變者。
所以,我認為人們非常愿意同時部署兩者。我們合作的幾乎每個云服務提供商(CSP)都在部署這兩種類型的設施。
所以,我非常有信心我們會把它做得更好。
你的第二個問題是關于未來展望,是的,明年將是偉大的一年。我們預計明年數據中心業務將顯著增長。
Blackwell將徹底改變整個行業。Blackwell將繼續影響接下來的一年。
正如我前面提到的,從第一性原理倒推,記住計算正在同時經歷兩個平臺轉型。
這真的非常重要,需要你保持關注,即通用計算正在轉向加速計算,人工工程軟件將轉向生成式AI或人工智能學習軟件。
Hopper和Blackwell
是下半年增長的重要動力
Bernstein Research的Stacy Rasgon
感謝您回答我的問題。所以,我有兩小個問題要問Colette。
第一個問題是關于第四季度Blackwell收入的幾十億美元,那是額外的嗎?你說過預計Hopper在下半年的需求會走強。
這意味著Hopper在第三季度到第四季度也會在Blackwell增加幾十億美元的基礎上走強嗎?
第二個問題是關于毛利率的。如果我今年的目標是75%左右,那么我可能會在第四季度達到71%到72%左右,這是你預期的毛利率退出率嗎?
隨著 Blackwell 的加速增長,我們應該如何看待明年毛利率演變的驅動因素?我的意思是,希望產量和庫存準備金等一切都能提高。
Colette M. Kress -- 首席財務官兼執行副總裁
Stacy,我們首先來回答你關于Hopper和Blackwell的問題。
我們相信我們的Hopper在下半年將繼續增長。
我們為Hopper準備了許多新產品,我們認為這些新產品,包括我們現有的Hopper產品,將開始在接下來的幾個季度繼續增長,包括我們的第三季度和那些進入第四季度的新產品。
比如說,Hopper在第三季度與上半年相比是一個增長機會。
此外,我們還有Blackwell,Blackwell從第四季度開始增長。
我希望這對你提到的這兩個方面有幫助。
你的第二個問題是關于我們的毛利率。
我們為我們的第三季度提供了毛利率。我們在非GAAP上提供了大約75%的毛利率。
我們將處理我們正在經歷的所有不同過渡,但我們確實相信我們能在第三季度達到75%。
我們還提供了我們全年也在75%左右的中高水平的毛利率。所以,我們將在第四季度看到一些可能的輕微差異,這再次與我們的轉型和我們新產品引入的不同成本結構有關。
然而,我并不完全同意你的數字。我們沒有確切的指導,但我確實認為你比我們預期的要低。
亞太區的增長驅動
來自系統集成商
Melius的Ben Reitzes
非常感謝你的問題。我想問有關地域分布的問題。10-Q數據發布后,美國的銷售額環比下降,而幾個亞洲地區的銷售額環比大幅上升。
只是想知道那里的動態是怎樣的。顯然,中國表現非常好。您在發言中提到了這一點。什么是Puts和Takes?
然后我只想從Stacy的問題中澄清一下,這是否意味著公司第四季度的整體收入增長率會加快,考慮到所有這些有利的收入動態。
Colette M. Kress -- 首席財務官兼執行副總裁
讓我來談談我們10-Q報告中關于地域分布的披露,這是一項必須的披露選擇。
有時候要做出正確的披露非常具有挑戰性,因為我們必須找出一個關鍵點。我們銷售和/或具體開票對象的方面,所以你看到的是我們開票給誰。
這并不一定是產品最終所在的地方,也不一定是產品最終到達最終客戶的地方。這些主要是轉移到我們的OEM或ODM以及我們的產品組合中的系統集成商。
所以你看到的有時只是他們在使用誰來完成完整配置的快速轉變,然后這些產品才會進入數據中心,進入筆記本電腦等。這種轉變時不時會發生。
但確實,我們的中國號碼是向中國開具發票的。請記住,這些數字包括了游戲、數據中心和汽車等領域。
回到你關于毛利率的聲明,以及我們對Hopper和Blackwell在收入方面的預期。Hopper在下半年將繼續增長。我們將繼續從目前所看到的開始增長。
我們無法確定每個第三季度和第四季度的確切組合。我們還不是在這里指導第四季度。
但我們確實看到了需求預期。我們確實看到了這將是第四季度增長機會的可見性。
最重要的是,我們還將擁有我們的Blackwell架構。
年度產品節奏的原因
支持模型擴大規模和提升復雜性
Cantor Fitzgerald的C.J. Muse
感謝您回答這個問題。您已經開始了非凡的年度產品節奏,鑒于在相當有限的先進封裝世界中的復雜性不斷增加,挑戰可能會越來越多。
那么,如果您退后一步,這種背景將如何改變您對潛在更大垂直整合、供應鏈合作伙伴關系的看法,然后對您的利潤率狀況產生間接影響?謝謝。
Jensen Huang -- 總裁兼首席執行官
我認為對你第一個問題的回答是,我們的速度之所以如此之高,是因為模型的復雜性在增長,同時我們希望繼續降低其成本。
它在增長,所以我們想繼續擴大它的規模。我們相信,通過繼續擴大AI模型的規模,我們將達到非凡的有用水平,并且它將開啟、實現下一次工業革命。
我們相信這一點。所以,我們將非常努力地推動自己繼續提高這一規模。
我們有能力,相當獨特地進行整合,設計一個AI工廠,因為我們擁有所有部件。除非你擁有所有部件,否則不可能每年都推出一個新的AI工廠。
所以,我們明年將運送比我們公司歷史上任何時候都要多的CPU,當然還有更多的GPU,還有NVLink交換機,CX DPU,用于東西向的ConnectX,用于南北向的BlueField DPU,以及用于超級計算中心的InfiniBand,用于以太網的以太網。
這是我們的一個全新產品,它正迅速成為一個價值數十億美元的業務,將AI帶入以太網。因此,我們能夠構建——我們能夠接觸到所有這些,我們擁有一個架構棧,正如你所知,它允許我們在完成它時向市場推出新功能。
否則,會發生什么,你運送這些部件,你去找客戶銷售,然后你得建造——有人得建造一個AI工廠,而AI工廠有一大堆軟件。所以,這不僅僅是誰進行整合的問題。
我們很高興我們的供應鏈在某種程度上是分散的,因為我們能夠服務Quanta、富士康、HP、Dell、Lenovo、Super Micro。
我們曾經能夠為中興通訊服務。他們最近被收購等等。
我們擁有的生態系統合作伙伴數量,允許他們采取我們的架構,所有這些都有效;但是以定制的方式整合到世界上所有的云服務提供商、企業數據中心中。
我們的ODM和我們的集成商、集成供應鏈所需的規模和覆蓋范圍是巨大和龐大的,因為世界是巨大的。所以,這部分我們不想做,也不擅長做。
但我們懂得如何設計AI基礎設施,按照客戶喜歡的方式,并讓生態系統整合它。
Blackwell機架始終
與全球合作伙伴網絡合作
Wells Fargo的Aaron Rakers
感謝您接受我的問題。我想回到Blackwell產品周期的話題。
我們經常被問到的一個問題是,您如何看待機架級系統組合動態,當您考慮利用NVLink,您考慮GB NVL72時,以及這種市場推廣動態在Blackwell產品周期中的表現如何。
我想簡單地說,您如何看待在我們開始考慮Blackwell周期時,機架級系統的組合?
Jensen Huang -- 總裁兼首席執行官
Blackwell機架系統,它是作為機架設計和架構的,但它是以分散的系統組件出售的。我們不出售整個機架。
原因是因為每個人的機架都略有不同,這可能會讓人驚訝。有些是OCP標準,有些不是。有些是企業的。每個人的功率限制可能都略有不同。
CDU的選擇,電源匯流條的選擇,配置和集成到人們的數據中心,都不同。所以我們設計的方式,我們架構了整個機架。軟件將在整個機架上完美工作。然后我們提供系統組件。
比如,CPU和GPU計算板然后集成到MGX中。它是一個模塊化系統架構。MGX非常巧妙。我們在整個工廠都有MGX ODM和集成商和OEM。
所以,幾乎任何你想要的配置,你希望那個3000磅的機架被送到哪里,它必須接近。它必須在數據中心附近集成和組裝,因為它相當重。
所以從我們運送GPU、CPU、交換機、網卡的那一刻起,供應鏈的一切都在CSP的位置和數據中心的位置附近完成集成。
所以,你可以想象世界上有多少數據中心,我們已經與我們的ODM合作伙伴擴展了多少物流中心。
我認為因為我們把它展示為一個機架,而且它總是以這種方式呈現和顯示,我們可能給人留下了我們正在做集成的印象。
我們的客戶討厭我們做集成。供應鏈討厭我們做集成。他們想要做集成。這就是他們的附加值。
有一個最終的設計適配,如果你愿意的話。它并不像滑進數據中心那么簡單,但設計適配真的非常復雜。所以,設計適配、安裝、啟動、維修和更換,整個周期都在世界各地完成。
我們有一個龐大的ODM和OEM合作伙伴網絡,他們在這方面做得非常好。
所以,集成不是我們做機架的原因。它是我們不做機架的反理由。
我們不想成為一個集成商,我們想成為一個技術提供商。
CEO總結:驅動英偉達增長的五種力量
Jensen Huang -- 總裁兼首席執行官
讓我再做一些補充——再重復一下我之前做的一些評論。
全球數據中心正在全力推進使用加速計算和生成式AI現代化整個計算棧。
Hopper的需求依然強勁,對Blackwell的期待令人難以置信。
讓我強調我們公司的五件大事,五件最重要的事情。
加速計算已經達到了臨界點。CPU的擴展速度正在放緩。開發者必須加速一切可能的事項。
加速計算始于CUDA-X庫。新庫為NVIDIA開辟了新市場。
我們發布了許多新庫,包括CUDA-X加速的Polars、Pandas和Spark,這些是領先的數據科學和數據處理庫,CUVI-S用于向量數據庫。現在非常熱門。
對于5G無線基站,我們現在可以進入一整套數據中心的世界。
用于基因測序的Parabricks和用于蛋白質結構預測的AlphaFold2現在已經是CUDA加速的。
我們正處于將價值1萬億美元的數據中心從通用計算現代化到加速計算的旅程的開始。這是第一點。
第二,Blackwell是Hopper的階梯式飛躍。
Blackwell是一個AI基礎設施平臺,而不僅僅是GPU。它恰好也是我們GPU的名字,但它是一個AI基礎設施平臺。
隨著我們向合作伙伴和客戶展示更多Blackwell的信息并對系統進行采樣,Blackwell領先的程度變得清晰。
Blackwell的愿景花了將近五年時間和七種獨一無二的芯片來實現,Gray CPU,Blackwell雙GPU,以及一個龐大的軟件包,ConnectX DPU用于東西向流量,BlueField DPU用于南北向和存儲流量,NVLink交換機用于所有GPU之間的通信,以及Quantum和Spectrum-X用于支持AI巨大流量的InfiniBand和以太網。
Blackwell AI工廠是建筑大小的計算機。NVIDIA設計并優化了Blackwell平臺,從芯片、系統、網絡,甚至是結構化電纜、電源和冷卻,以及大量軟件,以快速為客戶構建AI工廠。這些都是非常資本密集型的基礎設施。
客戶希望盡快部署設備并提供最佳性能和總體擁有成本(TCO)。Blackwell在功率受限的數據中心中提供的AI吞吐量是Hopper的三到五倍。
第三是NVLink。
這是一個非常大的交易,它的全對全GPU交換機是改變游戲規則的。
Blackwell系統允許我們將72 GB200封裝中的144個GPU連接到一個NVLink域中,在一個機架中聚合NVLink帶寬達到259太字節每秒。
從這個角度來看,這大約是Hopper的10倍。每秒259TB是有意義的,因為你需要在數萬億個token上提升數萬億參數模型的訓練。因此,自然需要在GPU之間移動大量數據。
對于推理,NVLink對于低延遲、高吞吐量的大語言模型token生成至關重要。
我們現在有三個網絡平臺,NVLink用于GPU擴展,Quantum InfiniBand用于超級計算和專用AI工廠,以及Spectrum-X用于以太網上的AI。
NVIDIA的網絡覆蓋范圍比以前大得多。
生成式AI的勢頭正在加速。
生成式AI前沿模型制造商正在競相擴展到下一個AI高地,以提高模型的安全性和智商。
我們還在擴展,以理解更多模態,從文本、圖像和視頻到3D物理、化學和生物學。
聊天機器人、編程AI和圖像生成器正在迅速增長,但這僅僅是冰山一角。
互聯網服務正在為大規模推薦系統、廣告定位和搜索系統部署生成式AI。
AI初創公司每年消耗數十億美元的CSP云容量,各國正在認識到AI的重要性,并投資于主權AI基礎設施。
NVIDIA AI、NVIDIA Omniverse正在開啟AI的下一個時代,通用機器人技術。
現在,企業AI浪潮已經開始,我們準備幫助公司轉型他們的業務。
NVIDIA AI企業平臺包括Nemo、NIMs、NIM Agent Blueprints和AI Foundry,我們的生態系統合作伙伴,世界領先的IT公司用來幫助公司定制AI模型和構建定制的AI應用程序。
企業隨后可以在NVIDIA AI企業運行時部署,每年每個GPU的成本為4,500美元,NVIDIA AI Enterprise是在任何地方部署AI的超值選擇。
對于NVIDIA軟件,隨著與CUDA兼容的GPU安裝基數從數百萬增長到數千萬臺,TAM可能會非常顯著。
正如Colette所提到的,NVIDIA軟件將在今年以20億美元的運行速度結束。
感謝大家今天參加我們的活動。
摘自-王錚Silvia
上一篇 | 下一篇 |
---|---|
彼得·蒂爾的世界觀 | 沒有上一篇 |