黃仁勳最新播客:AI正從「模型時代」走向「系統時代」
- 核心觀點:NVIDIA CEO黃仁勳認為,AI正從「模型時代」邁向「系統時代」,未來的競爭焦點將從單一晶片轉向由GPU、CPU、網路及推理晶片等構成的複雜、解耦式系統協作,以支撐AI從生成內容向完成任務(Agent)和物理世界延伸的產業化進程。
- 關鍵要素:
- AI基礎設施正從單一GPU轉向解耦架構,NVIDIA的角色從晶片公司轉型為提供完整系統的「AI工廠」建設者。
- AI正從生成內容走向完成任務(Agent),用戶付費意願從「獲得答案」轉向「獲得結果」,這將驅動推理需求爆炸式增長。
- 計算需求在兩年內因生成式AI、推理和Agent的演進,可能已增長一萬倍,並仍在加速。
- 未來的軟體開發將發生變化,工程師的核心工作將轉向定義問題、設計架構並與AI Agent協作。
- 最大的長期機會在於垂直領域的深度專門化,行業知識將成為關鍵護城河,而非通用模型本身。
- AI正在向物理世界(Physical AI)延伸,涵蓋自動駕駛、機器人、醫療等領域,但同時也面臨供應鏈、監管等現實約束。
- 黃仁勳強調,衡量AI成本的關鍵是token成本與吞吐效率,更昂貴的系統可能因效率極高而實際成本更低。
影片標題:Jensen Huang: Nvidia's Future, Physical AI, Rise of the Agent, Inference Explosion, AI PR Crisis
影片作者:All-In Podcast
編譯:Peggy,BlockBeats
編者按:在 AI 敘事持續升溫的當下,市場討論的焦點,正在從「模型有多強」轉向「系統如何落地」。過去兩年,行業先後經歷了大模型能力突破、訓練算力競賽和生成式應用擴張。但當這些階段逐漸成為共識,新的問題也隨之浮現:當 AI 不再只是回答問題,而是開始執行任務、嵌入企業流程、進入物理世界,支撐它繼續向前推進的底層條件究竟是什麼?
本文對話摘自知名科技播客 All-In Podcast。作為矽谷最具影響力的投資人播客之一,該節目由四位長期活躍在一線的投資人共同主持,以對科技、商業與宏觀趨勢的深度討論著稱。
節目四位主持人分別為:
- Jason Calacanis,早期網路創業者與天使投資人,因投資 Uber、Robinhood 等公司而廣為人知;
- Chamath Palihapitiya,Social Capital 創辦人,前 Facebook 高管,曾投資 Slack、Box 等多家科技公司;
- David Sacks,Craft Ventures 合夥人,「PayPal 黑幫」成員之一,創辦 Yammer 並以約 12 億美元出售給 Microsoft,同時也是 Airbnb、Uber 的早期投資人;
- David Friedberg,The Production Board 創辦人,專注農業、氣候與生命科學領域投資,曾創辦 The Climate Corporation(後被 Monsanto 收購)。
本期嘉賓為黃仁勳(Jensen Huang),NVIDIA 聯合創辦人兼 CEO,被視為當前 AI 基礎設施浪潮中最關鍵的推動者之一。

從左往右依次是 David Friedberg、Chamath Palihapitiya、David Sacks、黃仁勳(Jensen Huang)、Jason Calacanis
整場訪談大致可以概括為三個層次。
首先,是 AI 基礎設施正在發生變化。過去,市場對 AI 的理解,很大程度上建立在更強的 GPU、更多的資料中心之上。但黃仁勳想強調的是,未來的競爭不再只是單一晶片的競爭,而是整套系統的競爭。隨著推理需求上升、模型種類增多、agent 開始處理更複雜的任務,AI 計算正在從過去相對單一的模式,轉向更複雜、更分工化的系統協作。NVIDIA 也因此試圖把自己的角色,從一家晶片公司,進一步推向「AI 工廠」的建設者。
其次,是 AI 正從「生成內容」走向「完成任務」。這是這場訪談裡最關鍵的一條線索。ChatGPT 讓大眾第一次直觀感受到 AI 的能力,但在黃仁勳看來,真正更大的變化,是 AI 開始以 agent 的形式進入工作流:它不只是回答問題,而是能夠調用工具、拆解任務、協同執行,最終把事情真正做完。也正因如此,用戶願意為 AI 付費的對象,也會從「獲得一個答案」,逐步轉向「獲得一個結果」。這背後意味著更大的推理需求、更高的系統複雜度,也意味著軟體開發、組織管理和知識工作的方式都可能隨之改寫。
最後,是 AI 正在從數位世界向現實世界延伸。訪談中,無論談到自動駕駛、機器人、醫療、數位生物學,還是黃仁勳口中的 Physical AI,本質上都指向同一個趨勢:AI 的價值不只體現在螢幕之內,也將越來越多地體現在工廠、醫院、汽車、終端裝置和日常生活中。但這也意味著,AI 接下來面對的將不再只是技術挑戰,還包括供應鏈、政策、監管、製造能力與地緣政治等更複雜的現實約束。換句話說,AI 的下一輪擴張,將是一場真正意義上的產業化過程。
從這個角度看,這場對談最值得關注的,其實不是某個具體產品,或某個樂觀數字,而是黃仁勳反覆傳遞的一個判斷:AI 正在從「模型時代」走向「系統時代」。未來的競爭,不只是比誰的模型更大、算力更強,而是比誰更懂行業、誰能把 AI 更深地嵌入真實流程、誰能把這些能力組織成一套可運行、可擴展的系統。
這也讓本文討論的對象,超出了 NVIDIA 本身。它真正試圖回答的問題是:當 AI 逐漸成為基礎設施,下一輪產業重構會如何展開,新的價值又將在哪裡形成。
以下為原文內容(為便於閱讀理解,原內容有所整編):
TL;DR
- AI 基礎設施正在從「單一 GPU」走向解耦式架構。不同計算任務將由 GPU、CPU、網路晶片以及 Groq 等推理晶片協同完成。
- NVIDIA 正從一家 GPU 公司,轉型為一家提供完整系統的「AI 工廠公司」。賣的是整套基礎設施,而不是單一晶片。
- 衡量 AI 成本的關鍵,不是資料中心造價,而是 token 成本與吞吐效率。更貴的系統,反而可能更便宜。
- AI 正從生成式模型走向 Agent 時代。用戶真正願意為「把事情做完」付費,而不只是獲取答案。
- 計算需求正在爆炸式增長。從生成到推理再到 agent,短時間內可能已擴大 1 萬倍以上,且仍在加速。
- 未來軟體開發將發生變化。工程師不再只是寫程式碼,而是定義問題、設計架構、與 agent 協作。
- 長期來看,最大的機會在於垂直領域的深度專門化,而不是通用模型本身。誰更懂行業,誰更有護城河。
訪談原文
Jason Calacanis(知名天使投資人|All-In Podcast 主持人|早期投資 Uber):
這週是一期特別節目。我們讓每週的常規節目「讓路」,而這種待遇,我們通常只會給三種人:川普總統、耶穌,還有黃仁勳(NVIDIA 的創辦人兼 CEO)。至於這三位該怎麼排,你們自己決定。你最近這段時間勢頭太猛了,這次 GTC 也辦得非常成功。
黃仁勳(Jensen Huang,輝達 CEO):
整個行業都來了。所有科技公司、所有 AI 公司幾乎都到了。
Jason Calacanis:
太不可思議了,真的不同凡響。過去一年裡最重大的發布之一,就是 Groq。你們收購 Groq 的時候,有沒有意識到,這會讓 Chamath 變得多麼「讓人受不了」?
註:Groq 不是 Grok。前者是一家做 AI 推理晶片和推理雲的公司,後者則是 xAI 的聊天機器人。2025 年底,Groq 與 NVIDIA 達成一項非獨家的推理技術授權協議,官方未披露交易金額;但外界曾有約 170 億至 200 億美元的報導與猜測。到 GTC 2026,黃仁勳又進一步展示了基於 Groq 技術整合進 NVIDIA 平台的推理系統。
這裡提到的 Chamath,指的是 Chamath Palihapitiya(Social Capital 創辦人|前 Facebook 高管|All-In 主持人)。他既是 All-In 的四位主持人之一,也曾是 Groq 的早期投資人和董事會成員之一。因此,當 NVIDIA 與 Groq 的重大交易浮出水面後,這也被視為 Chamath 又一次押中了關鍵專案。
黃仁勳:
我隱約有預感。
Jason Calacanis:
我們每週都得和他打交道。
黃仁勳:
我知道。你們還得陪他熬完整整六週的交割期。
Jason Calacanis:
沒錯。
從 GPU 公司到「AI 工廠」公司
黃仁勳:
其實,我們很多戰略都會提前好幾年在 GTC 上公開講出來。兩年半前,我就介紹過 AI 工廠的作業系統,它叫 Dynamo。
你也知道,dynamo 原本是一種裝置,是西門子發明的,它能把水的能量轉化為電能,推動了上一次工業革命中的工廠體系。所以我覺得,這個名字非常適合作為下一次工業革命中「工廠作業系統」的名稱。而在 Dynamo 裡面,最核心的技術之一,就是解耦式推理(disaggregated inference)。
Jason Calacanis:
Jensen,我知道你特別懂技術。來吧,你來定義一下。我可不想搶你風頭。
黃仁勳:
謝謝。所謂解耦式推理,意思是:推理的整個處理流水線極其複雜,甚至可能是今天最複雜的一類計算問題。
它的規模驚人,裡面包含大量不同形式、不同規模的數學計算。我們的想法,是把整個處理流程拆開,讓其中一部分運行在某一類 GPU 上,另一部分運行在另一類 GPU 上。進一步講,這也讓我們意識到,也許解耦式計算本身就是合理的方向:我們完全可以讓不同類型、不同性質的計算資源協同工作。
同樣的思路,後來也引導我們走向了 Mellanox。你看今天,NVIDIA 的計算早已分佈在 GPU、CPU、交換機、縱向擴展交換機、橫向擴展交換機以及網路處理器之上。現在,我們還要把 Groq 加進來。
我們的目標,就是把合適的工作負載放到合適的晶片上。換句話說,我們已經從一家 GPU 公司,進化成了一家 AI 工廠公司。
David Sacks(Craft Ventures 合夥人|前 PayPal COO|All-In 主持人):
對我來說,這大概是最重要的啟發。你現在看到的是一種根本性的「解耦」。過去只有 GPU 這一種選擇,而現在開始出現越來越多不同的計算形態,而且這些選擇未來都會共存。
你在台上提到一點,我覺得所有做高價值推理的人都應該認真聽:你說,資料中心裡大約 25% 的空間應該配置給 Groq 的 LPU。
註: LPU 是 Language Processing Unit 的縮寫。這是 Groq 提出的一個晶片類別,核心定位不是訓練,而是推理
黃仁勳:
是的,在資料中心裡,大概可以讓 Groq 佔 Vera Rubin 系統大約 25% 的比重。
註:Vera Rubin 是 NVIDIA 的下一代 AI 平台架構。它不是單一晶片,而是一套面向 AI 工廠的系統級基礎設施平台。
David Sacks:
那你能不能講講,行業現在是怎麼看這個方向的?本質上,你是在打造下一代的解耦架構:prefill、decode 分離,推理流程被拆分。你覺得大家會如何反應?
黃仁勳:
先退一步來看。我們當時往系統裡加入這個能力,是因為整個行業已經從大語言模型處理,轉向 Agentic Processing,也就是智慧體式處理。
當你運行一個 agent 的時候,它會存取工作記憶、長期記憶、調用工具,這對儲存的壓力非常大。你還會看到 agent 與 agent 協作。有些 agent 用的是超大模型,有些是小模型;有些是 diffusion 模型,有些是自回歸模型。也就是說,在這個資料中心內部,會同時存在各種各樣完全不同類型的模型。我們打造 Vera Rubin,就是為了應對這種極度多樣化的負載。
所以,過去我們是一家「有一個的機架」的公司,現在又新增了四種機架。換句話說,NVIDIA 的 TAM,也就是可服務市場,一下子擴大了,大約比以前高出 33% 到 50%。
而這新增的 33% 到 50% 裡面,很大一部分會是儲存處理器,也就是 BlueField;一部分,我個人非常希望是一大部分,會是 Groq 處理器;還有一部分會是 CPU;當然,也會有很多網路處理器。所有這些加在一起,最終都在運行 AI 革命中的那台「新型電腦」,也就是 agents。它就是現代工業的作業系統。
Chamath Palihapitiya(Social Capital 創辦人|前 Facebook 高管|All-In 主持人):
那嵌入式應用呢?比如我女兒家裡的泰迪熊,如果它想跟她說話,裡面裝的會是什麼?是客製化 ASIC 嗎?還是說,未來在邊緣和嵌入式場景裡,會出現一個更廣泛的 TAM,不同場景配不同工具?
註:ASIC 指 Application-Specific Integrated Circuit(專用積體電路),TAM 指 Total Addressable Market(總可服務市場)
黃仁勳:
我們認為,這個問題裡其實有三台電腦。
第一台,在最大尺度上,是用來訓練 AI 模型、開發 AI、創造 AI 的電腦。
第二台,是用來評估 AI 的電腦。比如你看看周圍,到處都是機器人、汽車這類東西。你必須先把它們放進一個能夠代表物理世界的虛擬環境裡進行評估。也就是說,這個軟體本身必須遵守物理定律。我們把這個系統叫做 Omniverse。
第三台,是部署在邊緣側的電腦,也就是機器人電腦。它可以是一輛自動駕駛汽車,也可以是一台機器人,甚至可以是一個小小的泰迪熊。
對於泰迪熊這種裝置,其中一個非常重要的方向,是我們正在做的:把電信基地台變成 AI 基礎設施的一部分。這樣一來,整個兩兆美元規模的電信產業,未來都會逐步變成 AI 基礎設施的延伸。所以,無線電裝置會變成邊緣裝置,工廠會變成邊緣裝置,倉庫也一樣。
總之,這三類基礎電腦,全部都必不可少。
David Friedberg(The Production Board 創辦人|All-In Podcast 主持人):
Jensen,去年我就覺得你比全世界都看得更早。你當時說,推理需求的增長不會只是 1000 倍。
黃仁勳:
我是不是把自己給坑了?
David Friedberg:
而是會增長 100 萬倍?10 億倍?對吧?
我覺得那時候很多人都認為這太誇張了,因為當時全世界都還盯著訓練擴容。但現在你看,推理已經真正爆發了,而且開始變成「推理受限」。你現在又發布了一座「推理工廠」,吞吐量會比下一代工廠高出 10 倍。
可如果你去看外界的討論,很多人會說:你的推理工廠要花 400 億到 500 億美元,而那些替代方案,例如客製化 ASIC、AMD 等等,只要 250 億到 300 億美元,所以你會丟掉市佔率。
那你不如直接告訴我們:你到底看到了什麼?你怎麼看市佔率?這些客戶花接近兩倍的溢價,到底值不值得?
為什麼更貴的系統,反而能生產更便宜的 token?
黃仁勳:
最重要的一點、最核心的一點是:不要把工廠的價格,等同於 token 的價格,也不要把它等同於 token 的成本。
很有可能,而且我可以證明,那座 500 億美元的工廠,反而能生產出成本最低的 token。原因在於,我們生成這些 token 的效率高得驚人,能高出 10 倍。
你看,500 億美元和 200 億美元之間的差額,很多其實只是土地、電力和廠房外殼而已。除此之外,你本來就要買儲存、網路、CPU、伺服器、散熱系統。所以,GPU 本身是原價還是半價,並不會讓總成本從 500 億直接降到 300 億。你隨便取一個自己喜歡的數字吧,更現實一點,可能只是從 500 億降到 400 億。
而如果一座 500 億美元的資料中心,吞吐量卻高出 10 倍,那麼這點差價其實並不算什麼。
Jason Calacanis:明白了。
黃仁勳:
這也是為什麼我一直說:即使對很多晶片來說,如果你跟不上技術前沿、跟不上我們推進的速度,那哪怕晶片白送,也還是不夠便宜。
David Sacks:
我想問一個更宏觀的戰略問題。你現在運營著全球最有價值的公司。明年收入可能超過 3500 億美元


