在AI规模化推理落地的商业化决战中,一个决定AI未来的核心战场已然成型。高效、低成本承载海量推理请求,正成为AI商业化的关键命题。面对传统存储的带宽瓶颈与高昂成本难题,专为AI推理而生的HBF高带宽闪存应运而生,以大容量、高带宽、低成本的颠覆性优势,破解AI推理 “内存墙” 困境,成为衔接HBM与SSD的新一代核心存储方案。
爱集微VIP频道近日上线由元富投顾制作的研究报告《HBF在AI推理市场扮演的角色》。本报告系统剖析了AI推理时代存储产业的供需格局,深入解读HBF技术的核心价值、厂商布局与未来前景,为理解下一代AI存储生态提供了关键指引。
欢迎订阅爱集微VIP频道
核心洞察:供需失衡下的存储新变量
一、产业供需:服务器需求主导,价格上涨持续
2026年全球存储产业将持续呈现“供给增幅有限、需求强劲增长”的紧俏格局。供给端,DRAM受HBM产能挤占(HBM晶圆消耗量为DDR5的2-3倍),供给增长预计为19%;NAND Flash则因原厂减产与投资保守,供给增长预计为20%。需求端由服务器市场主导,2026年服务器将分别占DRAM和NAND产业需求的66%和38%,全球八大云服务提供商资本支出预计同比增长40%,成为核心增长引擎。
供需失衡直接推升价格:2025年下半年以来,DRAM主流规格现货价涨幅最高达600%,NAND产品涨幅超500%;合约价同样强劲,2025年四季度传统型DRAM上涨45-50%,NAND上涨33-38%,2026年一季度预计延续高增长。
具体来看,2026年DRAM供给预计预计19%、需求增长27%,供需缺口达-9.7%;NAND预计供给增长20%,需求增长20%,缺口为-6.9%。
二、HBF技术:AI推理的存储破局者
HBF作为介于HBM与固态硬盘之间的新型存储技术,被誉为“NAND版HBM”,专为解决AI推理场景的“内存墙”问题而生。
与HBM相比,HBF具备三大差异化优势,完美匹配AI推理需求:
-容量更大:单堆叠芯片容量可达512GB,目标容量4TB,远超HBM的64GB,能满足完整AI模型的存储需求;
-成本更低:单位成本仅为HBM的1/8~1/16,大幅降低AI系统总体拥有成本;
-性能够用:尽管存取延迟(微秒级)高于HBM(纳秒级),但SanDisk模拟测试显示,在运行405B参数的Llama 3.1模型时,排除容量影响后HBF与HBM的带宽性能差距仅2.2%,可满足推理场景需求。
三、HBF vs. HBM:互补而非取代
报告用一个生动的比喻解释其在AI系统中的地位:
GPU = 顶尖学者
HBM = 书桌上的书架(快速但容量有限)
HBF = 私人图书馆(容量大,取用稍慢)
SSD/硬盘 = 公共图书馆(更远但容量更大)
这样的分层存储架构,使得AI系统能在成本与效率之间取得最佳平衡。
报告中特别强调,HBF并非要取代HBM,而是与之互补。HBM负责高速数据处理(如训练阶段),HBF则负责大规模数据存储(如推论阶段)。两者共同构建起一个高效、低成本的AI存储体系。
报告指出,目前SanDisk与Hynix在HBF技术研发上最为积极,预计2026下半年推出样品,2027年量产。
立即注册爱集微VIP账号
解锁报告全部内容
爱集微VIP频道:您的前沿技术雷达
在技术快速迭代、全球竞争格局瞬息万变的时代,拥有系统、权威、前瞻的信息来源是做出正确决策的前提。爱集微VIP频道致力于打造ICT产业的全球报告资源库,通过“行业报告”“集微咨询”“政策指引”三大板块,为您提供:
-超过2万份深度产业与技术研究报告,持续更新;
-每周新增数百篇前沿分析与技术解读,紧扣脉搏;
-覆盖技术演进、市场动态、产业链布局的多维信息体系。
我们坚持“信息普惠”原则,会员一次订阅即可访问全平台内容,无二次收费,无分级限制。
限时会员通道现已开启,为您的专业决策注入持续动能:
-首月体验价仅需9.9元,以最低成本,超值体验完整服务。
-月卡19.9元,灵活应对短期、高强度的信息需求。
-季卡54.9元,以稳定的节奏,持续把握产业脉搏。
-年卡199元,是长期主义者最具性价比的智囊伙伴。
注册爱集微VIP账号,VIP频道搜索“HBF在AI推理市场扮演的角色”即可进入报告库查看完整内容,深入理解AI推理时代存储技术革命的核心逻辑与投资机遇,为您的战略决策注入权威洞察。