算力、运力,以及存力,被视作AI基础设施建设的三驾马车。随着AI、数据中心等场景需求快速成长,存力或将接棒算力,成为AI基建体系中的又一关键变量。 AI 大模型训练对内存带宽需求呈指数级增长,传统 DDR 内存已无法满足需求,HBM 应运而生。HBM(高带宽内存)通过 3D 堆叠技术将 DRAM 芯片垂直堆叠,最新的 HBM3E 可实现高达 819GB/s 的带宽,较 DDR5 提升 5 倍以上。目前,HBM 出货已占据 DRAM 整体市场的 14%。在 AI 服务器中,HBM 的成本占比约为 20%-30%,仅次于用于计算的 AI 芯片。 今年HBM4标准问世后,HBM4市场的竞争格局主要由SK海力士、三星和美光三家核心内存制造商主导。其中,SK海力士于2025年3月出货全球首款12层HBM4样品,计划在2026年下半年实现12层HBM4产品的量产。美光同样宣布了其HBM4的开发计划,并已将12层HBM4样品出货给主要客户。美光计划在2026年开始量产。
算力、运力,以及存力,被视作AI基础设施建设的三驾马车。随着AI、数据中心等场景
紫霜商业
2025-09-14 14:42:31
0
阅读:32