admin 发表于 2026-1-7 09:50:44

英伟达Vera Rubin重构AI存储层级,NAND有望成为通胀品(附股)

英伟达Vera Rubin NVL72主要增量技术为NVFP4,将单卡推理/训练性能分别提升到​​50 / 35 PFLOPS​​,约为Blackwell的​​5× / 3.5×,为满足这一级别的计算能力,英伟达在Rubin平台上重构了​​HBM-DRAM-NAND三层存储金字塔​​的容量比例、带宽瓶颈和价值量结构:

【HBM:变成了与 GPU 紧紧绑定的“计算核心”】

- 原理上,大幅拉高了​​HBM4容量/带宽;

- 数量上,​​每颗Rubin GPU配备8栈HBM4,容量288GB,带宽22TB/s,不再只是GPU附近的“高速缓存”,而是整个系统吞吐的​​硬约束​​;

- 单价上,HBM4较3e显著提升,有望明显带动原厂的毛利率提升;

【DRAM:负责存放“中等热度”的数据(KV Cache)】

- 原理上,把​​系统主内存切换到1.5TB级LPDDR5X​​;

- 数量上,Vera CPU采用​​1.5TB LPDDR5X SOCAMM​​,带宽​​1.2TB/s​​,为Grace的3倍,NVL72机架连接36颗Vera CPU,系统内LPDDR5X容量总计​​54TB​​,相比GB200/GB300在机架层面主内存容量提升​​2.5~3.0×;

- 单价上,服务器端高端DRAM价格/盈利显著提升,消费端DRAM在被动挤压中承受成本压力和价格传导,形成“AI优先”的新一轮结构性涨价周期;

【NAND:接管了海量的“长期记忆”(长上下文),成为 AI 能够处理超长对话的核心,并成为与GPU数量线性相关的通胀品】

- 原理上,通过BlueField-4为​​每颗GPU新增16TB NAND​​构建KV cache/上下文存储层;

- 数量上,每个Vera Rubin NVL72机架配备4个BlueField-4 DPU,管理​​150TB上下文内存池,通过机架内网络与所有GPU直连,为​​每颗GPU分配16TB专用上下文空间,与上一代相比每机架新增​​1152TB​​(72 GPU ×16TB),同时显著降低了延迟与网络压力;

- 单价上,预计2026年全年的NAND价格​​两位数百分比持续上涨​​;

看好存储产业链叙事升级逻辑:

- 海外龙头:海力士、三星、美光、闪迪、铠侠等;

- 国内标的:香农芯创、德明利、兆易创新、普冉股份、同有科技等;

风险提示:供需节奏不及预期等

页: [1]
查看完整版本: 英伟达Vera Rubin重构AI存储层级,NAND有望成为通胀品(附股)