AI需要の伝達経路と各層の脆弱性:1年間違えば死ぬ
関連記事:エグゼクティブサマリー(投資論の核心と4反論) / メモリ業界実用ガイド(TrendForce活用) / SNDK変局点分析(実エントリー反省)
メモリ半導体株の本質的なリスクは、AI需要が5層の伝達経路を通って各企業の収益に届く構造になっており、1つの層が崩れると下層が連鎖的に崩れる点にある。Forward PERが一桁台で取引されているのは、市場がこの伝達リスクを織り込んでいるから。
5層の伝達構造
Layer 1: AIアプリ(OpenAI / Anthropic / Gemini)
↓ 収益化が次層の Capex を正当化
Layer 2: ハイパースケーラ Capex(MSFT / META / GOOG / AMZN)
↓ Capex が GPU・メモリ需要を作る
Layer 3: NVIDIA GPU(Rubin / Blackwell)
↓ GPU 1台あたり HBM・SSD 容量を決める
Layer 4: HBM / NAND / DRAM(メモリ層)
↓ 価格・出荷量がメーカー収益を決める
Layer 5: メモリメーカー(MU / SK hynix / Samsung / SNDK / キオクシア)
Layer 1:AIアプリ層(2026年4月時点の現状)
| プレイヤー | ARR(2026/04) | 収益化の状況 |
|---|---|---|
| Anthropic(Claude) | $30B(OpenAI追い抜き、4月) | Claude Code が6ヶ月で$1B ARR、エンタープライズ独走 |
| OpenAI(ChatGPT/API) | $24-25B | 成長鈍化、競争激化で利益化見えず |
| Google Gemini | サブスク$1.2B、AI Overviews 20億 MAU | 規模はまだ小、Cloud全体は +33% YoY |
特筆点:
- Anthropic が OpenAI を追い抜いた(2026年4月、
30B vs24B ARR) - Claude Code がコーディング特化で独占シェア、6ヶ月で$1B ARR
- ただし Layer 1全体で黒字化を示せている企業はゼロ(OpenAI赤字、Anthropic黒字化見えず、Google Gemini単体ではマージン薄)
このチャート(@TradexWhisperer集計を目視で再構成)が示す転換点:
- 2025年Q1まで:OpenAI が独走、Anthropic は$0-1Bレベル
- 2025年Q2-Q4:Anthropic が Claude Code・Claude 4系で急加速、OpenAI に追走
- 2025年12月→2026年4月:Anthropic が 9B → 14B → 19B → 30B と加速度的に成長(4ヶ月で +$21B)
- 2026年4月:Anthropic (
30B) が OpenAI (24B) を追い抜く — Layer 1の主役交代 - Combined ARR $54B:1年で約8倍。AIアプリ層の収益化はまだ続いている
投資的含意:Anthropic が黒字化を示せば、Layer 1 全体の構造的成長が確認される。逆に Anthropic の伸びが2026年Q3-Q4で減速すれば、Layer 2-5 の連鎖反転リスクが急浮上する。Anthropic ARR の四半期成長率が次の最重要KPI。
Combined ARR の CAGR と2030年予測
最も重要な指標は OpenAI + Anthropic の Combined ARR が継続成長するか。これがLayer 1 全体の健全性を表す。
過去のCAGR(成長率)
| 期間 | 開始 | 終了 | 倍率 | 年率換算 |
|---|---|---|---|---|
| 2023年初 → 2026年4月(3.3年) | $0-2B | $54B | 27倍 | +177% CAGR |
| Dec 2024 → Apr 2026(1.3年) | $7B | $54B | 7.7倍 | +361% CAGR |
| Dec 2025 → Apr 2026(4ヶ月) | $29B | $54B | 1.86倍 | +540% 年率換算 |
つまり成長は加速している:CAGRが時間の経過と共に上昇している(177% → 361% → 540%)。これは健全なAIアプリ層の浸透を示すが、同時に 永続不可能な水準(S字曲線の急上昇期)。
2030年までの予測(年度ベース)
| 年度 | 基本シナリオ | 強気シナリオ | 前提 |
|---|---|---|---|
| 2026年末 | $90B | $130B | 現在の伸び維持〜加速 |
| 2027年末 | $180B | $300B | 基本: 2倍 / 強気: 2.3倍 |
| 2028年末 | $300B | $560B | S字減速 / AI浸透継続 |
| 2029年末 | $440B | $850B | エンタープライズ飽和 / 新領域 |
| 2030年末 | $580B | $1,150B | +60% CAGR / +73% CAGR |
この予測値の作り方(前提と算出ロジック)
注意:これらの数字は明示的なTAM分析ではなく、「現在の成長軌道 × S字曲線減速」のシンプルなフレームワークで作成した推計値。前提を理解した上で、自分のシナリオで上書きできるよう、計算ロジックを開示する。
Step 1:起点の設定(2026年4月時点)
- 直近実績:Combined ARR $54B(実績、2026年4月)
- 直近成長率:+540% 年率換算(Dec 2025 → Apr 2026)
Step 2:年率成長倍率の段階的減速(S字仮定)
| 年度 | 基本シナリオ倍率 | 強気シナリオ倍率 | 減速ロジック |
|---|---|---|---|
| 2026年末 | 1.67x | 2.4x | 直近成長から減速、ただし継続強い |
| 2027年末 | 2.0x | 2.3x | 基本シナリオは「倍化」が継続 |
| 2028年末 | 1.67x | 1.87x | S字曲線の中盤、減速開始 |
| 2029年末 | 1.47x | 1.52x | エンタープライズ飽和近接 |
| 2030年末 | 1.32x | 1.35x | 成熟期、伝統的SaaS成長率(10-30%)に収束予定 |
Step 3:天井としてのTAM(市場規模)想定
- グローバル企業ソフトウェア市場(既存):≈$700B
- グローバルクラウドサービス市場:≈$700B
- AIによる代替+新規価値追加の合計天井(10年スパン):
500B-1.5T - 基本シナリオ:既存企業ソフトの50%代替 + 生産性向上で +
200-300B = **580B(10年で約半分到達)** - 強気シナリオ:既存ソフトの80%代替 + 消費者AI + 新領域で $1,150B
Step 4:減速メカニズムの根拠
- S字曲線(Bass diffusion model):技術浸透は導入期→急成長期→成熟期で年率成長が逓減する
- 過去のSaaS市場参考:Salesforce ARR が
5B →20B(2014-2018)の期間でCAGR 41%だったが、20B →30B(2019-2022)でCAGR 14%に減速 - 同パターンなら、AI ARR は
54B →200B 帯までは高CAGR(80-100%)、その後急減速
この予測の限界・脆弱性(甘い・弱い可能性のある箇所)
「2027-2028が大して伸びない前提が甘いのでは」への自己批判:
- S字減速の早期適用が過剰保守:2028年で1.67xに減速させているが、Layer 1 が現在まだ立ち上がり期(CAGRが加速中) であることを考えると、2028年も2倍維持の可能性が十分ある。その場合 2030年は基本シナリオ
580B →900B+ に上方修正される - TAM想定が既存ソフト市場ベース:AI が「既存ソフトの代替」だけでなく「新カテゴリ」(自律エージェント・物理ロボット・科学発見)を作るなら、TAM自体が
1.5Tではなく3-5T級になる可能性。その場合は強気シナリオでも保守的 - Claude Code / OpenAI Codex 級のキラーアプリ効果:Claude Code が6ヶ月で$1B ARRに到達したような「離散的なジャンプ」が今後も発生する可能性。S字曲線は連続的減速を仮定しているが、新規キラーアプリで階段状に再加速する余地あり
- OpenAI + Anthropic 以外のプレイヤーが除外:Google Gemini、Cohere、xAI、Mistral 等が含まれていない。これらが本格収益化したらCombined ARR は更に上振れ
結論:基本シナリオはむしろ保守的、強気シナリオが「合理的中央値」の可能性が高い。Anthropic ARR 成長率と Layer 2 ハイパースケーラ Capex 維持を見て、シナリオを四半期ごとに上方修正すべき。
この予測が意味すること(メモリ半導体への含意)
- 2026-2027: Layer 1 高成長継続 → ハイパースケーラ Capex 維持 → メモリ需給逼迫継続。メモリ株のホールド期
- 2028前後: Layer 1 が S字減速期入り → ハイパースケーラ Capex 増額が「合理的でない」と市場が判断するタイミング。メモリ株の出口圏
- 2029-2030: Layer 1 成熟期。メモリ需要が継続するか、伝統的シクリカルに戻るかの分岐
Layer 2:ハイパースケーラ Capex(合計約$700B)
| 企業 | 2026 Capex | 2025比 | Q1 2026市場反応 |
|---|---|---|---|
| Amazon | $200B | +50% | AWS内部需要が根拠、容認 |
| Microsoft | $190B | 同水準 | ROI不明瞭 |
| Alphabet | $175-185B | 増額 | Cloud+800% YoY = ROI唯一実証、株価上昇 |
| Meta | $125-145B | 増額 | 株価下落 = 投資家の最初のROI懸念シグナル |
| 合計 | 約$700B | 2025年$400Bから大幅増 |
転換点シグナル:2026 Q1 earningsで Metaの株価がCapex増額で下落 したのが、投資家がROIを疑い始めた最初のシグナル。Layer 1収益化が継続しなければ、ハイパースケーラCapexは即座に減速可能。
Goldman Sachs Hyperscaler Capex 予測(2025/11/05時点)と実態の乖離
GS スプレッドシートデータ(2025/11/05時点)を取得し、実態と比較:
GSのCapex予測(2025/11/05時点):
| 年度 | GS予測 | YoY | 備考 |
|---|---|---|---|
| 2017実績 | $54B | — | |
| 2024実績 | $256B | +79% | AIブーム本格化 |
| 2025E | $432B | +69% | 大幅増 |
| 2026E | $518B | +20% | GS予測 |
| 2027E | $572B | +10% | S字減速仮定 |
| 2028E | $624B | +9% | 同上 |
GSの過去CAGR と 予測CAGR:
| 期間 | CAGR |
|---|---|
| 過去(2017→2024) | +25% / 年 |
| GS予測(2025E→2028E) | +13% / 年(鈍化想定) |
「2027-2028が大して伸びない前提が甘い」は完全に正しい:
- GS Nov 2025 予測 → 2026E $518B
- 実態(2026 Q1 earnings 集計)→ 約 $700B
- GS予測を +35% 上振れ
つまり、GSは2025年11月時点ですでに保守的すぎた。実際のハイパースケーラはAI需要に応えて、Goldmanの予測を大きく超えるペースでCapexを増額している。
実態維持シナリオ(GS予測の+35%上振れが継続する場合)
| 年度 | GS予測 | +35%上振れ | YoY |
|---|---|---|---|
| 2026E | $518B | $700B | 実態確認済み |
| 2027E | $572B | $770-900B | +10〜30% |
| 2028E | $624B | 840B-1.1T | +9〜25% |
2027-2028年が「+10%/+9%しか伸びない」というGS前提は、Layer 1(AIアプリ層)の急成長を織り込んでいない。現在のClaude Code・OpenAI Codex・GPT-5.5級のキラーアプリの普及スピードを考えると、ハイパースケーラCapexは2027-2028も+20-30% YoY で増加する可能性が高い。
Goldman Sachs自身も上方修正を続けている
スプレッドシート内の "New" vs "Post 2Q" 比較で、GS自身も四半期ごとに上方修正していることが確認できる:
| 企業 | Post 2Q(旧予測) | New(新予測) | 上方修正率 |
|---|---|---|---|
| Microsoft 2027 | $147.6B | $171.3B | +16% |
| Google 2027 | $101.7B | $121.6B | +20% |
| AWS 2027 | $110.2B | $118.8B | +8% |
| Meta 2027 | $100.1B | $120.9B | +21% |
| Oracle 2027 | $27.7B | $42.9B | +55% |
| 合計2027 | $459.8B | $551.7B | +20% |
毎四半期GSは予測を上方修正している。保守的予測 → 実態確認 → 上方修正のサイクル が今後も続く可能性が高い。これはメモリ需要側(NAND/DRAM需給逼迫の継続)にとって極めて強力な追い風。
Layer 5:メモリメーカーが Forward PER 一桁の理由
市場が織り込む3つのリスク:
- 歴史的トラウマ:2018-19 NAND クラッシュ、2022-23 DRAM クラッシュで多くのメモリ会社が破綻寸前
- シクリカル反転リスク:伝統的に2-3年で需給逆転、収益60-80%消滅
- 「供給は結局追いつく」前提:2027年後半〜2028年のキャパシティ拡大で価格急落
Forward PER 5x = 市場は 「2027年EPSは予想通りでも、2028年に半減〜1/3」 を織り込んでいる。
メモリメーカーの戦略的ジレンマ
積極投資 → 単価下落 → 死亡(過去のシクリカル崩壊と同じ)
慎重投資 → 単価維持 → 高収益(現在)
ただし:ハイパースケーラ需要が継続しないと、慎重投資の意味も消える
各メーカーが慎重姿勢を維持できる前提:
- ハイパースケーラ Capex が +20%/年以上で継続
- AI推論ワークロードの増加が続く
- 同業4-5社が 協調的に慎重投資(規律維持)
これらの前提のいずれかが崩れたら、即座に減産・在庫調整に動く。
工場キャパシティのステップ関数特性
メモリ工場のキャパシティは徐々に増えるのではなく、新Fabが完成すると面積に応じて一気に+10-25%増える(典型的な150-300Kwafers/月のステップ)。複数社が2027-2028に同時にFab稼働開始すると +30-50%供給増 vs 需要+20% → 価格急落リスク。これが「寡占規律が破綻する」歴史的パターンの構造的根拠。
「1年間違えば死ぬ」3つのシナリオ
| シナリオ | リスク | 最大ダメージ |
|---|---|---|
| A. 今買う | Layer 1収益化が6ヶ月で停滞すると、Capex減速→メモリ -40〜60% | 半年で半減 |
| B. 6ヶ月待つ | Forward PER 既に re-rate 済み、エントリー高値 | 機会損失 |
| C. 1年待つ | サイクル天井到達、キャパシティ拡大開始 | 1年で半減 |
3つすべてに死亡シナリオがある。「いつ買うか」より「何を見て売るか」のほうが重要。
監視すべき先行指標(時系列)
| 時間軸 | 指標 | データソース | 意味 |
|---|---|---|---|
| 月次 | Claude Code・ChatGPT MAU/ARR | Anthropic・OpenAI announcements | Layer 1健全性 |
| 月次 | TrendForce DataTrack スポット価格 | datatrack.trendforce.com | Layer 4-5価格動向 |
| 月次 | NVIDIA基調講演(GTC・CES) | NVIDIA公式 | Layer 3アーキテクチャ動向 |
| 四半期 | ハイパースケーラ Capex ガイダンス | MSFT/META/GOOG/AMZN earnings | Layer 2 transmission |
| 四半期 | NVIDIA earnings & ガイダンス | NVIDIA earnings | Layer 3反映度 |
| 四半期 | メモリ各社 Capex ガイダンス | TrendForce News | Layer 5自社規律 |
「メモリサイクルは崩壊した」のではなく、変質した
正:「AI需要の伝達経路によって、サイクルの振幅・期間・天井が変質した」 誤:「メモリサイクルは実質崩壊した」
具体的には:
- 振幅:上昇率は過去最大級(+50-100% QoQ)
- 期間:構造変化なら2027-28年まで持続
- 天井:理論上はDRAM代替性閾値、実務上はハイパースケーラ Capex 上限
- 反転メカニズム:Layer 1失速 → 6ヶ月で Layer 5崩壊(伝達は速い)
なぜAI推論にNANDが必要なのか(技術的背景)
NVIDIAが Rubin 世代から ICMS(Inference Context Memory Storage Platform)でNAND SSDを公式採用した技術的理由:
- コンテキスト長の指数的成長:GPT-2の1,024トークン → Gemini 1.5の10Mトークン(5年で約1万倍)。トークン1つ生成するたびにKVキャッシュ全体を読み出すので、KVキャッシュサイズ ≒ コンテキスト長に比例
- HBMの容量限界:Rubin世代GPUのHBMは288GB。70Bモデル × 128Kコンテキスト = 1セッション42GBのKVキャッシュ。マルチエージェント(同時複数セッション)になると秒速でHBMを食い尽くす
- DRAMでは経済的に不可能:ペタバイト規模のKVキャッシュをDRAMで構築するとコストが破綻。NANDはDRAMの約1/30のコスト
- KVキャッシュは読み取り優位:書き込み回数が少ないアクセスパターンで、NANDの書き込み耐久性の弱点が問題にならない
- レイテンシの隙間に最適:HBM(ナノ秒)とHDD(ミリ秒)の間に、NAND(マイクロ秒)が位置。マルチエージェントの「ウォーム層」に最適
これにより、NANDは「データの保管場所」から「推論ループに参加するセカンダリメモリ」に役割が変わった。
5層の記憶階層:メモリ各社の構造ポジション
NVIDIA ICMS が採用した5層記憶階層(FabyΔ氏の整理):
- HBM(最上層・最速):SK hynix(62%シェア)・Samsung・Micron。2028年まで完売
- HBF(新設層、2027年商用化):NANDダイ積層でHBMの8倍容量。SanDisk・SK hynix・Samsung が共同標準化
- CXL DRAM(中間層):DRAMレベル200nsで容量拡張。Penguin Solutions(PENG)
- NAND SSD(下層、CMX基盤):SanDisk・キオクシア・Phison
- 外部ストレージ:VAST Data・DDN・WEKA等
SNDKは ② HBF と ④ NAND SSD の 2層に同時に位置する ため、エージェント時代の記憶需要を最も直接的に享受できるNANDピュアプレイ。これは「線」で見て初めて分かる構造ポジション。
Micron保有者の出口条件
「握り続けて問題ない」は飛躍。実際には以下の 3つのうち2つ が成立したら段階的に利確:
- Layer 1反転シグナル:Anthropic ARR成長率の急減速(前期比 < 1.3倍)または OpenAI ARR純減
- Layer 2減速:ハイパースケーラ Capex 四半期ガイダンスで前年比 < +10%
- Layer 4-5天井シグナル:TrendForce DataTrack スポット価格 MoM 上昇率が3ヶ月連続で鈍化(< +5% MoM)
加えて、Forward PER が 12-15x まで拡張したら「出口圏」と認識(現在の5-7xから2-3倍の評価変化)。
次に読む:
- 投資論の核心と4反論 → エグゼクティブサマリー
- メモリ業界の実用情報・TrendForce活用法 → メモリ業界実用ガイド
- 線で見るための実用シグナル例 → SNDK変局点分析