Vera Rubin量産移行、Agentic AIで50倍成長へ
NVIDIA CES 2026 Financial Analyst Q&A セッション
日付: 2026年1月6日 登壇者: Jensen Huang(NVIDIA CEO)
Q1) Bank of America: Vera Rubinの「Full Production(量産体制)」とは何を意味するのか?出荷や売上認識は前倒しになるのか?
回答
過去においてこの用語はテープアウト(設計完了)を指していたが、現在は文字通り量産フェーズへの移行を意味する。市場投入は今年下半期であり、サイクルタイムは約9ヶ月以上と考えるべきである。
ポイント
- 「Full Production」=量産段階への移行(テープアウトではない)
- 2026年下半期に市場投入・売上認識開始
- リードタイム約9ヶ月以上
Q2) Bank of America: Groqライセンスの短期・中期・長期的な意義は?特定の推論タイプに特化した「ASICライク」なチップが必要な段階に達したということか?
回答
当社のチップは本質的にASICである。コンセプトとしては、自社設計しTSMCのファウンドリで製造している。ほとんどのAIワークロードは当社アーキテクチャ上で動作する可能性が高い。Groqが追求するのは極限の低レイテンシであり、これは当社の強みである極限の高スループットとトレードオフの関係にある。将来、AIを搭載したデバイス(例:スマートグラス)が登場すれば、低レイテンシへの多様な需要が生まれる。
ポイント
- NVIDIAのチップも本質的にはASIC(自社設計+TSMCファウンドリ)
- Groq=極限の低レイテンシ、NVIDIA=極限の高スループット(トレードオフ関係)
- AI搭載デバイス普及で低レイテンシ需要が拡大する見込み
Q3) データセンター、自動運転、ロボティクスなどのコア市場規模とタイミングについて詳しく教えてほしい。特にAlpamayoの収益モデルは?
回答
自動運転はここまで到達するのに8年かかった。当社はデータセンターのトレーニングインフラと、エコシステム全体にわたるフルソフトウェアスタック(シミュレーション+合成データ+ワールドモデルなど)を提供している。ほとんどの企業が当社を利用しており、一部は車両への拡張、他社はフルスタックを展開している。将来、自動運転とロボタクシーは非常に大きなビジネスになる。
ポイント
- 自動運転事業は8年かけて現在の地点に到達
- フルスタック提供(シミュレーション、合成データ、ワールドモデル等)
- 自動運転・ロボタクシーは将来の巨大市場になる見込み
Q4) Melius Research: 「より良いトークンエコノミクス」についてAnthropicの件を聞きたい。彼らはTrainiumやTPUを望むだけ入手できたはずなのに、なぜ当社を選んだのか?TrainiumやTPU向けにチューニングされたワークロードがRubinに移行するケースはあるか?結局トークンエコノミクスの問題か?
回答
Anthropicに投資できなかったことを後悔している。Anthropicは高品質なトークン生成に優れており、特にエンタープライズ向けコーディングにおいて、反復的なタスクではトークン生成速度(低レイテンシ/高速生成)が重要であり、そこで当社は大きな価値を提供している。AI企業は、豊富なエコシステムで何でも実行できるプラットフォームを必要としている。昨年のAnthropicの発表により、NVIDIA上で稼働していなかった最後の主要プレイヤーが参加した。
ポイント
- Anthropicは高品質トークン生成に強み(特にエンタープライズコーディング)
- 反復タスクではトークン生成速度(低レイテンシ)が重要
- Anthropicの参加で主要AIプレイヤー全社がNVIDIAプラットフォームに統一
Q5) Wells Fargo: サプライチェーンの変数が多いようだ。DRAMの価格、供給量など説明してほしい。電力がボトルネックになる可能性は?
回答
当社が優位にある理由は、既に大規模な事業基盤があり、その大きな基盤から非常に急速に成長していたため、パートナーとともにこのような大規模な立ち上げに備えていたからである。パートナーに多額の投資(多くは前払いの形)を行い、キャパシティ拡大を可能にした。長年の関係のおかげで強い立場にあると考えている。当社は本質的に、グローバル規模でDRAMを直接購入する世界唯一の半導体企業である。「なぜDRAMを買うのか?」と聞かれるが、理由は単純で、そのDRAMをCoWoSスーパーコンピュータに変換することが非常に難しいからである。このサプライチェーンを「配管」のように適切に接続できることは大きな優位性であり、現在のような逼迫した状況では、この能力を持っていることは幸運でもある。
ポイント
- 大規模事業基盤からの急成長により、パートナーと事前に大規模立ち上げを準備
- パートナーへの前払い投資でキャパシティ拡大を支援
- グローバル規模でDRAMを直接購入する唯一の半導体企業
- DRAMからCoWoSスーパーコンピュータへの変換能力が競争優位
Q6) Bernstein: 中国関連の規制が緩和された場合、ランプアップはスムーズに進むか?DGXについて、以前は元々のターゲット市場ではないと言っていたが、今はスタンスが違うようだ。何が変わったのか?
回答
H20は中国向け専用ボリュームなので、既存の受注とは重複しない。H200は現在ライセンス取得プロセス中である。DGXについては、CSPと競合することは一度もなかった。当初、CSPがAIクラウドに不慣れだった時期に、当社のモデルとパートナーエコシステムを彼らに展開するための戦略的手段だった。現在は市場のフライホイールが回転しており、DGX Cloud経由でトークンリースを強制する必要性は薄れた。利益のための再販モデルは元々やや非効率だった。
ポイント
- H20は中国専用ボリューム(既存受注と重複なし)
- H200はライセンス取得プロセス中
- DGXは当初CSPへの戦略的展開手段だったが、市場が成熟し役割が変化
- トークンリースの強制必要性が低下
Q7) Goldman Sachs: コンテキストメモリのストレージ制御はどれほど重要か?
回答
推論量が急増する中、コンテキスト/トークンメモリとKVキャッシュのスループットが爆発的に増加し、既存のストレージアーキテクチャの限界に達している。これは極めて重要である。この需要は「新しいストレージ階層」を生み出すほど大きく、巨大なストレージ市場になる可能性がある。
ポイント
- 推論量急増でコンテキスト/KVキャッシュスループットが爆発的増加
- 既存ストレージアーキテクチャの限界に到達
- 「新しいストレージ階層」として巨大市場形成の可能性
Q8) 特定の顧客/ワークロードセグメントでパフォーマンスのボトルネックはあったか?過去のネットワーキングのように、ストレージ/メモリでも継続的なイノベーションが期待できるか?
回答
AI DBとKVキャッシュは非常に重いワークロードになっており、従来のノース・サウス型ネットワークベースのストレージで処理するとトラフィックを浪費する。当社は既にネットワーキングで世界最大であり、ストレージプロセッサでも世界最大になると予想している。BlueField-4+DOCAの採用を基盤として、ネットワーキングからストレージへとインフラスタックの拡大・革新を続ける。つまり、BlueField-4とDOCAをAIファクトリー向けSmartNICとして強化し、ネットワーキングに続いてストレージ処理でも支配的地位を確立する。
ポイント
- AI DB・KVキャッシュは非常に重いワークロード
- 従来のネットワークベースストレージは非効率
- BlueField-4+DOCAでストレージプロセッサでも世界最大を目指す
- ネットワーキングからストレージへインフラスタック拡大
Q9) Truist: Rubinのランプアップ時、Hopperはどうなるか?ランプ速度がかなり速いようだが、マージンへの影響は?
回答
Rubinは「ゼロダウンタイムAIファクトリー」を目指しており、RASやNVLinkホットスワップなどの機能を備えている。Rubinの課題は、歴史的にも類を見ない「内部のすべてのチップが新品」というコンピュータであること。高温コンデンサも新規開発された。HBM4は存在しなかったし、LPDDR5 SOCAMMも存在しなかった。コパッケージドオプティクスはスイッチに統合されている。これが可能になったのは、約5年かけて技術・コンポーネント・サプライチェーンを一つずつリスク低減し、今やすべてが検証され量産準備が整ったからである。
ポイント
- Rubinは「ゼロダウンタイムAIファクトリー」をターゲット(RAS、NVLinkホットスワップ)
- 内部すべてのチップが新品という歴史的にユニークな製品
- HBM4、LPDDR5 SOCAMM、コパッケージドオプティクスなど新技術を統合
- 約5年かけて技術・サプライチェーンをリスク低減し量産準備完了
Q10) Truist: フロンティアAIモデル市場は今後どう進化するか?
回答
汎用モデルにおいては、ほとんどが現在同様の「十分に良い(good enough)」レベルにあるという点に同意する。汎用は素早く「十分に良い」に到達するが、専門モデルにおいては、一つのモデルがすべての領域で優れることはまだ非現実的である。統合が起こるとすれば、それは「チャネル」を中心に起こる可能性が高い。例えばAlphabet、Meta、ソーシャルメディアなどのプラットフォームである。
ポイント
- 汎用モデルは「good enough」レベルに収斂
- 専門モデルでは一つで全領域をカバーすることは非現実的
- 統合はプラットフォーム(チャネル)を中心に起こる可能性
Q11) Daiwa: Agentic/Physical AIの業界の現状は?
回答
Agentic AIは既にコアトレンドである。将来のほとんどのAIアプリケーションはエージェンティックになる可能性が高い。CursorやOpenEvidenceを例に挙げると、将来はライブラリの代わりに、モデル+エージェンティックシステムを組み合わせて単に目標を与えるだけで、自動的なコラボレーションとより簡単なアプリケーション展開が可能になる。自動運転/Physical AIは、AlpamayoのVLA(vision-language-action)ロボットシステムのように、状況分解、常識推論、ユーザーQ&Aを行う完全なエージェンティック形態へと進化している。
ポイント
- Agentic AIは既にコアトレンド、将来のAIアプリの標準形態に
- モデル+エージェンティックシステムで目標を与えるだけで自動展開可能に
- Physical AIはVLA(視覚-言語-行動)システムへ進化中
Q12) Morgan Stanley: LLM時代にはCSPがCAPEXをシフトした。Physical AIには誰が資金を出すのか?
回答
Cosmosを作成して無料配布することで、業界が負担しなければならない初期コスト/障壁を大幅に下げている。そのため、企業はその上でのファインチューニングやドメイン適応にお金と労力を投資することになる。
ポイント
- Cosmosの無料配布で業界の初期コスト/参入障壁を大幅低減
- 企業はファインチューニング・ドメイン適応に投資する構図
Q13) Loop Capital: Neo-Cloudは市場でどのような役割を果たすか?なぜ彼らとのパートナーシップを強化しているのか?エンタープライズ/ソブリンの採用はNVIDIA Enterprise OSの販売に貢献するか?
回答
技術/市場の変化が急速で、コアデータセンターリソース(土地/電力/スペース)が制約される環境では、機敏なオペレーターが成功する。AIインフラは地域ごとに構築され、研究者、スタートアップ、大企業を含むコミュニティへと進化する。顧客に近いインフラ提供が重要になっており、地域分散型AIインフラの成長につながっている。
ポイント
- リソース制約環境では機敏なオペレーターが成功
- AIインフラは地域ごとに構築・コミュニティ化
- 顧客近接型インフラ提供が重要→地域分散型AIインフラの成長
Q14) Wolfe Research: 初期のRubinランプでマージンを維持できる理由は?競争の中で高マージンをどう維持するか?
回答
50ベーシスポイント単位のような精密な予測は難しい。短期的な数字よりも中長期的な顧客価値に注目してほしい。主要な要因は、トレーニング効率、推論トークンのコストと速度、制約された電力内でのデータセンター収益の最大化である。また、世界トップレベルのRAS(信頼性、可用性、保守性)も達成する。
ポイント
- 短期数値より中長期的顧客価値に注目
- 主要価値:トレーニング効率、推論トークンコスト/速度、電力制約下での収益最大化
- 世界トップレベルのRAS達成
Q15) 寡占状況を変えるゲームチェンジャーはあるか?
回答
約4つある。
- メモリ/コンテキスト処理のイノベーション — コンテキスト長が伸びる(100K〜1M→実質無限)につれ、アテンション/メモリ処理がボトルネックになり、これを解決する研究が競争を再構築する可能性がある。
- ハイブリッドモデル(Transformer+SSMなど) — SSMはコンテキスト圧縮に有利であり、ハイブリッドが重要になる。
- システムアーキテクチャのイノベーション(メモリを近づける) — BlueField-4のようなアプローチで、長期メモリをコンピュートファブリックに近づける。
- 継続学習 — 「未知を認識→調査/学習→再推論」の自動化は大きな機会である。
ポイント
- 4つの潜在的ゲームチェンジャー
- メモリ/コンテキスト処理、ハイブリッドモデル、システムアーキテクチャ、継続学習
- いずれも競争環境を再構築する可能性
Q16) トークンは5倍成長している。再加速/減速はいつ起こるか?
回答
5倍成長のドライバーはReasoningである。次の再加速要因はAgenticシステムであり、ツール使用、プランニング、シミュレーションにより、トークン使用量は「リアルタイムAlphaGo」のように急増する。50倍に成長する可能性がある。
ポイント
- 現在の5倍成長はReasoning(推論)が牽引
- 次の再加速はAgenticシステム
- Agenticにより50倍成長の可能性
Q17) Stifel: Spectrum Xや400G SerDesなどのペース/数字は、将来のR&D強度に何を意味するか?EDA企業やCursorなどに即座にメリットはあるか?Groq、Fabrica(Infabrica)などとの関係は?
回答
当社はスタック全体(土地/電力/シェル→チップ→インフラ→モデル→アプリケーション)への投資を継続し、そのようなシステムを構築することが重要である。Infabricaについては、スケールアップは統合度が高く独立企業としては困難なため、内部統合が合理的だった。Groqについては、チームレベルでのイノベーションが必要なため、コラボレーションは自然な流れだった。
ポイント
- スタック全体への継続投資(土地〜アプリケーション)
- Infabrica:統合度の高さから内部統合が合理的
- Groq:チームレベルのイノベーションのためコラボレーション
Q18) UBS: Groq買収で得たソフトウェア技術はNVIDIAポートフォリオ全体に適用できるか?
回答
はい。GroqのプログラミングモデルはNVIDIAと異なり、その違いが極限の低レイテンシvs極限の高スループットの根底にある。一部の要素を再構成してNVIDIAの能力に吸収・拡張することを検討している。製品ポートフォリオはほとんど(約90%)がGrace Blackwell/Vera Rubin中心のままだが、一部(約10%)は極限の低レイテンシに特化した新しい形態を取る可能性がある。
ポイント
- Groqのソフトウェア技術はNVIDIAポートフォリオに適用可能
- Groq=極限の低レイテンシ、NVIDIA=極限の高スループット
- 製品の約90%はGrace Blackwell/Vera Rubin中心、約10%は低レイテンシ特化の可能性
Q19) Robocap: NVIDIAは既にCPX技術を持ち、Groq買収でSRAMアクセシビリティを獲得した。1ヶ月前にCPXを使ってHBM使用量を削減する論文を発表し、GDDR7がHBMを置き換える可能性を示唆した。今後、Grok(=SRAM)+内部CPXの組み合わせで、HBM使用量を「より管理可能なレベル」にコントロールできるか?マージンにプラスの影響はあるか?
回答
まず各々の強みを説明し、次になぜそう単純ではないかを説明する。CPXはプリフィルにおいてドル当たりパフォーマンスが優れている。もしすべてがSRAMに収まるなら、HBMは確かに不要になる。しかし問題は、モデルサイズが約100分の1に縮小してしまうことである。特定のワークロードでは、SRAMはHBMアクセスより劇的に速くなりうる。しかし、ワークロード(モデル/タスク)は常に変化する。MoEの時もあれば、マルチモーダル、ディフュージョン、自己回帰、SSMの時もある。これらは形状とサイズが異なり、NVLink、HBM、または3つすべてに異なるストレスを与える。当社が普遍的な解答である理由は柔軟性にある。
朝と夜でワークロードが異なる場合、顧客ごとに異なる場合、ほぼすべてにわたる当社の幅広い強みと柔軟性が鍵となる。一つのワークロードに対する極限の最適化は可能だが、それがデータセンターワークロードの10%しかカバーせず活用されなければ、その電力/リソースは別の場所で使えたはずである。電力は制約されている。鍵は、データセンターを「無限のお金とスペース」ではなく有限の電力として見ることである。有限の電力をデータセンター全体で最適に活用する必要があり、柔軟性が高いほど良い。より統合されたアーキテクチャも良い。例えばDeepSeekを即座に更新すれば、データセンター内のすべてのGPUが改善される。モデルライブラリを更新すれば、データセンター全体が改善される。理解できるか?しかし17の断片化されたアーキテクチャでは、「これはあれに良い、あれはこれに良い」となり、全体のTCOはあまり改善されない。
要約すると、CPXには明確な利点があるが、データセンターの柔軟性を低下させる。
ポイント
- CPXはプリフィルでドル当たりパフォーマンス優位
- SRAMのみではモデルサイズが約100分の1に制限
- ワークロードは常に変化(MoE、マルチモーダル、ディフュージョン等)
- NVIDIAの強みは柔軟性(普遍的な解答)
- データセンター=有限の電力、柔軟性が高いほど良い
- CPXは特定ワークロードには有利だが、全体の柔軟性を低下させる
インプリケーション(示唆)
(1) Vera Rubin: 量産体制に移行。2026年下半期の出荷に対する可視性が向上
- すべてのコンポーネント(HBM4、LPDDR5 SOCAMM、CPOなど)に新しい部品・技術を採用
- これは数年かけて構築した技術+コンポーネントサプライチェーンの反映であり、現在すべて検証済みで量産準備完了
- 2026年下半期に市場投入・売上認識開始。サイクルタイム約9ヶ月以上
(2) Agentic AI、Reasoning: 次のレベルのトークンエコノミクス
- 最近の5倍のトークン需要成長はReasoningがトリガー
- Agenticは特定の機能ではなく、将来のアプリケーション開発のデフォルトフレームワークになる可能性が高い
- マルチモーダル/大規模モデルの普及と組み合わさり、トレーニングと推論の両方でコンピュート需要を連鎖的に牽引
- Reasoningが5倍を創出、Agenticは50倍を創出する可能性
(3) AIデータセンター: TCOの観点から汎用性が重要な時代が継続
- CPXやSRAMベースのアプローチは特定のセグメント(特にプリフィル、レイテンシ敏感なワークロード)で明確な強みを持つ
- しかし、ワークロードがMoE/マルチモーダル/ディフュージョン/AR/SSMなどへ急速にシフトするにつれ、ボトルネックはNVLink/HBM/システム全体を移動し、データセンターTCOが悪化する
- CPX–SRAMは「HBMの主流代替」というより、一部のワークロード向けの局所的オプションに近い
- 全体的なプラットフォーム戦略は引き続き汎用GPU/システム中心
(4) 関連銘柄へのインプリケーション
ポジティブ(+)
| 銘柄 | 理由 |
|---|---|
| NVIDIA (NVDA) | Vera Rubin量産移行、Agentic AIで50倍成長、主要AIプレイヤー全社がプラットフォームに統一 |
| SK Hynix | HBM4の主要サプライヤー。NVIDIAが「世界唯一のDRAM直接購入半導体企業」と明言 |
| Samsung Electronics | HBMサプライヤーとして需要増の恩恵 |
| Micron (MU) | 同上。HBM需要の継続的拡大 |
| TSMC (TSM) | NVIDIAのファウンドリパートナー。CoWoS変換能力が競争優位と言及 |
| Broadcom (AVGO) | ネットワーキング、コパッケージドオプティクス(CPO)関連で恩恵 |
| Marvell (MRVL) | データセンターネットワーキング需要増 |
| Pure Storage / NetApp | 「新しいストレージ階層」として巨大市場形成の可能性 |
| Arm Holdings (ARM) | Grace CPU(Armベース)がVera Rubinに搭載 |
ニュートラル(±)
| 銘柄 | 理由 |
|---|---|
| Microsoft (MSFT) | CSPとしてNVIDIA需要増の恩恵あり。ただしOpenAI依存度が高くAnthropicのNVIDIA移行は間接的にネガティブ |
| Google (GOOGL) | TPU競合だが、自社もNVIDIA GPUを大量使用。Agentic AI普及は検索への脅威でもある |
| Amazon (AMZN) | Trainium競合。Anthropic(投資先)がNVIDIAに移行したのはやや複雑 |
| Meta (META) | 大量のNVIDIA GPU購入者として恩恵。AIインフラ投資継続 |
ネガティブ(−)
| 銘柄 | 理由 |
|---|---|
| AMD (AMD) | NVIDIAの「柔軟性」優位を強調。MI300系の競争力に疑問符 |
| Intel (INTC) | AI GPU市場での存在感に言及なし。Gaudi競争力の限界を示唆 |
| Cerebras / SambaNova | 特化型ASICの限界を明確に指摘。「断片化アーキテクチャはTCO悪化」 |
| Graphcore | 同上。汎用性重視の時代継続でニッチに留まる可能性 |
総括
| テーマ | 要点 |
|---|---|
| Vera Rubin | 量産移行完了、2026年下半期出荷、すべて新技術・新部品 |
| トークン成長 | Reasoningで5倍、Agenticで50倍の可能性 |
| Anthropic参加 | 主要AIプレイヤー全社がNVIDIAプラットフォームに統一 |
| サプライチェーン | DRAM直接購入、CoWoS変換能力が競争優位 |
| ストレージ | 新しいストレージ階層として巨大市場形成へ |
| Groq買収 | 約10%は低レイテンシ特化、90%はGrace Blackwell/Vera Rubin中心 |
| 競争優位 | 柔軟性(汎用性)が鍵、断片化アーキテクチャはTCO悪化 |
| Agentic/Physical AI | コアトレンド化、アプリ開発のデフォルトへ |