当前位置: Mid-cycle Peak Investment(中期高峰)
CSP capex 维持历史高位,但边际增速开始放缓。NVIDIA Blackwell 量产爬坡,AMD MI350/MI400 推进,
Google/Meta 自研 ASIC 加速。算力饥饿期进入后半段,供需缺口逐步收窄但结构性偏紧持续至2026年底。
| 厂商 | 产品线 | 状态 | 关键信号 |
|---|---|---|---|
| NVIDIA | GB200 NVL72 (B200) | 量产爬坡 | 2026出货占比 >70%; CoWoS封装仍是瓶颈 |
| NVIDIA | Rubin R100 | NEW 已宣布量产 | 336B晶体管,16-Hi HBM4; Q1 2027规模量产; Q4 2026客户送样 |
| AMD | Instinct MI350X | 推理场景规模采纳 | HBM3 memory; 在部分客户实现对H100替代 |
| AMD | Instinct MI400 | NEW 7月发布 | 432GB HBM4; 19.6 TB/s带宽; Advancing AI 2026 (July)详细披露 |
| Huawei | Ascend 910B/920 | 受限 | 国内替代受制裁影响; 性能受压 |
| Broadcom | Google TPU v6 (3rd gen) | 规模量产 | Q1 FY26 AI收入 $84亿 YoY +106%; Meta MTIA 2nm合作协议 |
| Marvell | AWS Trainium/Inferentia | 增长 | 3个主要hyperscaler项目; 1.6T光模块采样中 |
| 环节 | 状态 | 边际变化 |
|---|---|---|
| CoWoS封装 | 2026下半年才可缓解 | 台积电积极扩产 |
| ABF基板 | 16-20周交付期; 玻璃纤维短缺 | 略有延长 |
| HBM4 | 2026全线售罄 | SK Hynix 4x扩产 |
| 光模块 | Innolight/Eosen预订至2028 | 800G/1.6T切换 |
| 液冷 | 12-18个月交付期 | Vertiv满产 |
核心发布: TPU v8系列正式亮相 — Google首次将TPU分为训练(TPUv8t)和推理(TPUv8i)两个独立版本,呼应了"agentic era"对算力的差异化需求。 训练芯片TPUv8t聚焦大规模集群扩展性(百万芯片逻辑集群),推理芯片TPUv8i聚焦高效多任务推理和长上下文支持。 供应链策略: MediaTek首度切入Google TPU供应链,负责推理芯片,Broadcom继续负责训练芯片代工,Marvell提供互连和定制方案,形成4方供应体系。
核心产品: Liebert EXM/PEX CRAH, 液冷分配单元; NVL72参考设计认证; 交付期12-18个月
液冷渗透率: AI数据中心从风冷向液冷切换加速; Google TPU v8全系采用第4代液冷(主动控制阀门)
根据4月22-24日 Google Cloud Next 2026 期间供应链报告及多方媒体交叉验证:
| Google TPU 版本 | 定位 | 代工厂 | MediaTek 角色 | 公开进度 |
|---|---|---|---|---|
| TPU v7e | 推理/训练 | TSMC | NEW 参与设计 | 2026量产 |
| TPU v8i | 推理专用 | TSMC (MediaTek) | NEW 代工厂 | Cloud Next April 2026发布 |
| TPU v8t | 训练专用 | TSMC (Broadcom) | — | Cloud Next April 2026发布 |
| TPU v9 | 未知 | 未知 | 待确认 | 无公开信息 |
已知: Google年度capex中AI基础设施占比70% = ~$350亿 (2026E $500亿 x 70%)
TPU vs 外购GPU比例: Google内部TPU使用量超过外购NVIDIA GPU比例 (自研成本优势)
估算TPU市场规模(Google内部): 假设TPU占Google AI capex的40-50% = $140-175亿
MediaTek分到的推理部分(假设): TPUv8i占TPU总需求的30-40% = $42-70亿规模
⚠️ 注意: 以上为公开信息推算,MediaTek实际TPU收入贡献模式(NRE vs Royalty)尚不明确,需等财报披露
CSP Capex (Google $500B / Meta $600B+ / Microsoft $1500B / Amazon $1000B)
│
├── GPU/ASIC采购
│ ├── NVIDIA (H100/B200/GB200) ← 最大受益者, 85-88%数据中心收入占比
│ │ └── Rubin R100: 提前量产, Q1 2027规模
│ ├── AMD (MI350 推理采纳; MI400 July发布)
│ │ └── MI400: 432GB HBM4, 19.6 TB/s带宽
│ └── Huawei Ascend (国内受限)
│
├── Custom ASIC ☜ 本期重点变化
│ ├── Google TPU → MediaTek (v8i 推理 NEW!) + Broadcom (v8t 训练)
│ │ └── TPU v8: 训练/推理分离, 4家伙伴供应链
│ ├── Amazon Trainium/Inferentia → Marvell (代工)
│ └── Meta MTIA → Broadcom (2nm延长合作 April 2026)
│
├── Interconnect
│ ├── Coherent/Lumentum (光模块 800G/1.6T)
│ ├── Fabrinet (代工, 100%+ 利用率)
│ └── InnoLight/Eosen (中国光模块, 预订至2028)
│
└── Cooling
└── Vertiv (液冷, 12-18月交付, 120kW rack密度)