黄仁勲最新ポッドキャスト:AIは「モデル時代」から「システム時代」へ
- 核心的な視点:NVIDIAのCEO、黄仁勲氏は、AIが「モデル時代」から「システム時代」へと移行していると考えており、将来の競争の焦点は、単一のチップから、GPU、CPU、ネットワーク、推論チップなどで構成される複雑で分離されたシステムの協調へと移行し、AIがコンテンツ生成からタスク完了(エージェント)や物理世界への拡張という産業化プロセスを支えるとしている。
- 重要な要素:
- AIインフラは単一のGPUから分離されたアーキテクチャへと移行しており、NVIDIAの役割はチップ企業から、完全なシステムを提供する「AIファクトリー」の建設者へと変容している。
- AIはコンテンツ生成からタスク完了(エージェント)へと向かっており、ユーザーの支払い意思は「答えを得る」ことから「結果を得る」ことへと変化し、これが推論需要の爆発的増加を牽引する。
- 生成AI、推論、エージェントの進化により、計算需要は2年以内に1万倍に増加した可能性があり、なおも加速している。
- 将来のソフトウェア開発は変化し、エンジニアの核心的な仕事は問題の定義、アーキテクチャの設計、そしてAIエージェントとの協働へと移行する。
- 最大の長期的な機会は垂直分野における深い専門化にあり、業界知識が汎用モデル自体ではなく、重要な競争優位性(モート)となる。
- AIは物理世界(Physical AI)へと拡張しつつあり、自動運転、ロボット、医療などの分野をカバーするが、同時にサプライチェーンや規制などの現実的な制約にも直面している。
- 黄仁勲氏は、AIコストを測る鍵はトークンコストとスループット効率であり、より高価なシステムであっても、効率が極めて高ければ実際のコストは低くなる可能性があると強調している。
ビデオタイトル:Jensen Huang: Nvidia's Future, Physical AI, Rise of the Agent, Inference Explosion, AI PR Crisis
ビデオ作者:All-In Podcast
編集:Peggy,BlockBeats
編者按:AIナラティブが加熱し続ける現在、市場の議論の焦点は「モデルがどれだけ強いか」から「システムがどのように実装されるか」へと移行しつつある。過去2年間、業界は大規模モデルの能力ブレイクスルー、トレーニング計算能力競争、生成型アプリケーションの拡大を経験してきた。しかし、これらの段階が徐々に共通認識となるにつれ、新たな疑問も浮上している:AIが単に質問に答えるだけでなく、タスクを実行し、企業プロセスに組み込まれ、物理世界に入り込むようになったとき、それを前進させ続ける根本的な条件は一体何なのか?
本稿の対話は、著名なテクノロジーポッドキャスト「All-In Podcast」から抜粋したものである。シリコンバレーで最も影響力のある投資家ポッドキャストの一つとして、この番組は第一線で長年活躍する4人の投資家が共同でホストを務め、テクノロジー、ビジネス、マクロトレンドに関する深い議論で知られている。
番組の4人のホストは以下の通り:
- Jason Calacanis,初期インターネット起業家兼エンジェル投資家。Uber、Robinhoodなどへの投資で広く知られている。
- Chamath Palihapitiya,Social Capital創設者、元Facebook幹部。Slack、Boxなど多数のテクノロジー企業に投資。
- David Sacks,Craft Venturesパートナー、「PayPalマフィア」メンバーの一人。Yammerを創業し、約120億ドルでMicrosoftに売却。また、Airbnb、Uberの初期投資家でもある。
- David Friedberg,The Production Board創設者。農業、気候、生命科学分野の投資に注力。The Climate Corporationを創業(後にMonsantoに買収)。
今回のゲストは黄仁勲(Jensen Huang)、NVIDIA共同創設者兼CEO。現在のAIインフラストラクチャーブームにおける最も重要な推進者の一人と見なされている。

左からDavid Friedberg、Chamath Palihapitiya、David Sacks、黄仁勲(Jensen Huang)、Jason Calacanis
インタビュー全体は、おおよそ3つのレベルに要約できる。
まず第一に、AIインフラストラクチャーが変化していることだ。過去、市場のAIに対する理解は、より強力なGPU、より多くのデータセンターの上に大きく構築されていた。しかし、黄仁勲が強調したいのは、未来の競争はもはや単一チップの競争ではなく、システム全体の競争になるということだ。推論需要の上昇、モデル種類の増加、エージェントがより複雑なタスクを処理し始めるにつれ、AIコンピューティングは過去の比較的単一的なモードから、より複雑で、より分業化されたシステム連携へと転換しつつある。NVIDIAもまた、自らの役割を、単なるチップ企業から、さらに「AI工場」の建設者へと押し進めようとしている。
第二に、AIが「コンテンツを生成する」ことから「タスクを完了する」ことへと移行している。これはこのインタビューにおける最も重要な筋書きだ。ChatGPTは大衆に初めてAIの能力を直感的に感じさせたが、黄仁勲の見方では、本当に大きな変化は、AIがエージェントの形でワークフローに入り込むことだ:それは単に質問に答えるだけでなく、ツールを呼び出し、タスクを分解し、協調して実行し、最終的に実際に仕事をやり遂げることができる。そのためこそ、ユーザーがAIに対して支払いをいとわない対象も、「答えを得る」ことから、徐々に「結果を得る」ことへと移行していく。この背景には、より大きな推論需要、より高いシステム複雑度が意味され、同時にソフトウェア開発、組織管理、知識労働の方法もすべて書き換えられる可能性があることを意味している。
最後に、AIがデジタル世界から現実世界へと拡張していることだ。インタビューの中で、自動運転、ロボット、医療、デジタル生物学、あるいは黄仁勲が口にするPhysical AIについて語られることは、本質的にすべて同じトレンドを指している:AIの価値は画面の中だけに現れるのではなく、工場、病院、自動車、エンドデバイス、日常生活の中にますます現れるようになる。しかし、これは同時に、AIが次に直面するのはもはや技術的課題だけでなく、サプライチェーン、政策、規制、製造能力、地政学など、より複雑な現実の制約も含まれることを意味する。言い換えれば、AIの次の拡大は、真の意味での産業化プロセスとなるだろう。
この観点から、この対談で最も注目すべきは、実は特定の具体的な製品や楽観的な数字ではなく、黄仁勲が繰り返し伝える一つの判断である:AIは「モデルの時代」から「システムの時代」へと向かっている。未来の競争は、誰のモデルがより大きいか、誰の計算能力がより強いかだけでなく、誰がより業界を理解しているか、誰がAIをより深く実際のプロセスに組み込めるか、誰がこれらの能力を実行可能で拡張可能なシステムとして組織化できるか、という競争になる。
これにより、本稿の議論対象は、NVIDIA自体を超えている。それが本当に答えようとしているのは:AIが徐々にインフラストラクチャーとなるにつれ、次の産業再構築はどのように展開し、新たな価値はどこで形成されるのか、という問いだ。
以下が原文の内容である(理解しやすいよう、元の内容を若干編集している):
TL;DR
- AIインフラストラクチャーは「単一GPU」から分離型アーキテクチャーへと移行している。異なる計算タスクは、GPU、CPU、ネットワークチップ、そしてGroqなどの推論チップが協調して実行する。
- NVIDIAはGPU企業から、完全なシステムを提供する「AI工場企業」へと変革している。売っているのはシステム全体のインフラストラクチャーであり、単一のチップではない。
- AIコストを測る鍵は、データセンターの建設費ではなく、トークンコストとスループット効率である。より高価なシステムの方が、かえってより安くなる可能性がある。
- AIは生成モデルからエージェントの時代へと向かっている。ユーザーは本当に「仕事をやり遂げること」に対して支払いをいとわず、単に答えを得ることだけではない。
- 計算需要は爆発的に増加している。生成から推論、そしてエージェントへと、短時間で1万倍以上に拡大した可能性があり、なおも加速中。
- 未来のソフトウェア開発は変化する。エンジニアはもはやコードを書くだけでなく、問題を定義し、アーキテクチャーを設計し、エージェントと協働する。
- 長期的に見て、最大の機会は汎用モデル自体ではなく、垂直分野における深い専門化にある。誰がより業界を理解しているかが、誰により強固な堀(競争優位)があるかを決める。
インタビュー原文
Jason Calacanis(著名エンジェル投資家|All-In Podcast ホスト|Uber初期投資):
今週は特別番組です。毎週の通常番組を「道を譲り」ましたが、このような待遇は通常、3種類の人にしか与えません:トランプ大統領、イエス・キリスト、そして黄仁勲(NVIDIAの創設者兼CEO)です。この3人の順位は、皆さんが決めてください。あなたは最近本当に勢いがすごいですし、今回のGTCも非常に成功しました。
黄仁勲(Jensen Huang,NVIDIA CEO):
業界全体が集まりました。すべてのテクノロジー企業、すべてのAI企業がほぼ揃いました。
Jason Calacanis:
本当に信じられない、本当に非凡です。過去1年間で最も重要な発表の一つは、Groqです。あなたがGroqを買収したとき、これがChamathをどれほど「耐えがたい」存在にするか、気づいていましたか?
注:GroqはGrokではない。前者はAI推論チップと推論クラウドを手がける企業、後者はxAIのチャットボット。2025年末、GroqはNVIDIAと非独占的な推論技術ライセンス契約を締結、公式には取引金額は開示されていない。しかし、外部では約1700億から2000億ドルとの報道と推測があった。GTC 2026では、黄仁勲はさらにGroq技術をNVIDIAプラットフォームに統合した推論システムを披露した。
ここで言及されているChamathとは、Chamath Palihapitiya(Social Capital創設者|元Facebook幹部|All-In ホスト)のこと。彼はAll-Inの4人のホストの一人であると同時に、Groqの初期投資家兼取締役会メンバーの一人でもあった。そのため、NVIDIAとGroqの大規模取引が浮上した後、これはChamathが再び重要なプロジェクトに賭け当てたと見なされている。
黄仁勲:
何となく予感はしていました。
Jason Calacanis:
私たちは毎週彼と付き合わなければなりません。
黄仁勲:
知っています。皆さんは彼と共に、丸々6週間のクロージング期間を耐え抜かなければならなかったのですから。
Jason Calacanis:
その通りです。
GPU企業から「AI工場」企業へ
黄仁勲:
実は、私たちの多くの戦略は何年も前からGTCで公開しています。2年半前、私はAI工場のオペレーティングシステム、Dynamoについて紹介しました。
ご存知の通り、ダイナモ(dynamo)は本来、装置の一種で、シーメンスが発明し、水のエネルギーを電気に変換し、前回の産業革命における工場システムを推進しました。ですから、この名前は次なる産業革命における「工場オペレーティングシステム」の名称として非常に適していると思います。そして、Dynamoの中で最も核心的な技術の一つが、分離型推論(disaggregated inference)です。
Jason Calacanis:
Jensen、あなたは技術にとても詳しいのは知っています。さあ、あなたが定義してください。私はあなたの出しゃばりたくありません。
黄仁勲:
ありがとう。いわゆる分離型推論とは、推論の処理パイプライン全体が非常に複雑で、おそらく今日最も複雑な種類の計算問題の一つである、という意味です。
その規模は驚くべきもので、大量の異なる形式、異なる規模の数学的計算が含まれています。私たちの考えは、処理フロー全体を分解し、その一部をある種類のGPUで実行させ、別の部分を別の種類のGPUで実行させることです。さらに言えば、これは分離型コンピューティング自体が合理的な方向であることを私たちに気づかせました:私たちは完全に、異なるタイプ、異なる性質の計算リソースを協調して動作させることができるのです。
同じ考え方は、後にMellanoxへと私たちを導きました。今日、NVIDIAの計算はすでにGPU、CPU、スイッチ、スケールアップスイッチ、スケールアウトスイッチ、そしてネットワークプロセッサ上に分散しています。今、私たちはさらにGroqを加えようとしています。
私たちの目標は、適切なワークロードを適切なチップに配置することです。言い換えれば、私たちはすでにGPU企業から、AI工場企業へと進化したのです。
David Sacks(Craft Ventures パートナー|元PayPal COO|All-In ホスト):
私にとって、これはおそらく最も重要な示唆です。あなたが今目にしているのは、根本的な「分離」です。過去にはGPUという選択肢しかありませんでしたが、今ではますます多くの異なる計算形態が現れ始めており、そしてこれらの選択肢は未来に共存するでしょう。
あなたは壇上で一点触れましたが、高価値推論を行うすべての人が真剣に耳を傾けるべきだと思います:あなたは、データセンターの約25%のスペースをGroqのLPUに割り当てるべきだと言いました。
注: LPUはLanguage Processing Unitの略。これはGroqが提唱するチップカテゴリーで、核心的な位置付けはトレーニングではなく、推論である。
黄仁勲:
はい、データセンターでは、GroqをVera Rubinシステムの約25%の割合にすることができるでしょう。
注:Vera RubinはNVIDIAの次世代AIプラットフォームアーキテクチャーである。単一チップではなく、AI工場向けのシステムレベルのインフラストラクチャープラットフォーム一式である。
David Sacks:
それでは、業界がこの方向をどう見ているか話してもらえますか?本質的に、あなたは次世代の分離型アーキテクチャーを構築しています:prefillとdecodeの分離、推論プロセスの分割。皆はどのように反応すると思いますか?
黄仁勲:
まず一歩引いて見てみましょう。私たちがシステムにこの能力を追加した当時、業界全体はすでに大規模言語モデル処理から、Agentic Processing、つまりエージェント型処理へと移行していました。
エージェントを実行するとき、それは作業記憶、長期記憶にアクセスし、ツールを呼び出します。これはストレージへの負荷が非常に大きい。また、エージェント同士の協働も見られるでしょう。超大規模モデルを使用するエージェントもいれば、小規模モデルを使用するエージェントもいる。拡散モデル(diffusion model)もいれば、自己回帰モデルもいる。つまり、このデータセンター内部には、同時に様々な全く異なるタイプのモデルが存在することになります。私たちがVera Rubinを構築したのは、この極度に多様化した負荷に対応するためです。
ですから、過去私たちは「1種類のラックを持つ」企業でしたが、今ではさらに4種類のラックを追加しました。言い換えれば、NVIDIAのTAM、つまりサービス可能市場は一気に拡大し、以前より約33%から50%高くなりました。
そしてこの新たに増えた33%から50%のうち、かなりの部分がストレージプロセッサ、つまりBlueFieldになるでしょう。一部、個人的には大部分になってほしいと願っていますが、Groqプロセッサになるでしょう。また一部はCPUになるでしょう。もちろん、多くのネットワークプロセッサも含まれるでしょう。これらすべてが合わさり、最終的にAI革命におけるあの「新型コンピュータ」、つまりエージェント(agents)を実行しています。それが現代産業のオペレーティングシステムなのです。
Chamath Palihapitiya(Social Capital 創


