英伟达Vera Rubin重构AI存储层级,NAND有望成为通胀品(附股)
英伟达Vera Rubin NVL72主要增量技术为NVFP4,将单卡推理/训练性能分别提升到50 / 35 PFLOPS,约为Blackwell的5× / 3.5×,为满足这一级别的计算能力,英伟达在Rubin平台上重构了HBM-DRAM-NAND三层存储金字塔的容量比例、带宽瓶颈和价值量结构:【HBM:变成了与 GPU 紧紧绑定的“计算核心”】
- 原理上,大幅拉高了HBM4容量/带宽;
- 数量上,每颗Rubin GPU配备8栈HBM4,容量288GB,带宽22TB/s,不再只是GPU附近的“高速缓存”,而是整个系统吞吐的硬约束;
- 单价上,HBM4较3e显著提升,有望明显带动原厂的毛利率提升;
【DRAM:负责存放“中等热度”的数据(KV Cache)】
- 原理上,把系统主内存切换到1.5TB级LPDDR5X;
- 数量上,Vera CPU采用1.5TB LPDDR5X SOCAMM,带宽1.2TB/s,为Grace的3倍,NVL72机架连接36颗Vera CPU,系统内LPDDR5X容量总计54TB,相比GB200/GB300在机架层面主内存容量提升2.5~3.0×;
- 单价上,服务器端高端DRAM价格/盈利显著提升,消费端DRAM在被动挤压中承受成本压力和价格传导,形成“AI优先”的新一轮结构性涨价周期;
【NAND:接管了海量的“长期记忆”(长上下文),成为 AI 能够处理超长对话的核心,并成为与GPU数量线性相关的通胀品】
- 原理上,通过BlueField-4为每颗GPU新增16TB NAND构建KV cache/上下文存储层;
- 数量上,每个Vera Rubin NVL72机架配备4个BlueField-4 DPU,管理150TB上下文内存池,通过机架内网络与所有GPU直连,为每颗GPU分配16TB专用上下文空间,与上一代相比每机架新增1152TB(72 GPU ×16TB),同时显著降低了延迟与网络压力;
- 单价上,预计2026年全年的NAND价格两位数百分比持续上涨;
看好存储产业链叙事升级逻辑:
- 海外龙头:海力士、三星、美光、闪迪、铠侠等;
- 国内标的:香农芯创、德明利、兆易创新、普冉股份、同有科技等;
风险提示:供需节奏不及预期等
页:
[1]