加入收藏
 免费注册
 用户登陆
首页 展示 供求 职场 技术 智造 职业 活动 视点 品牌 镨社区
今天是:2026年2月14日 星期六   您现在位于: 首页 →  产通视点 → 创新科技(人工智能)
存储芯片短缺远远没有结束迹象,尽管新晶圆厂和新技术频出
2026年2月13日    

按此在新窗口浏览图片

【产通社,2月13日讯】如果现在感觉科技的一切都围绕人工智能(AI)展开,那是因为确实如此。在计算机内存市场,这一点尤为明显。用于供给GPU和其他AI数据中心的DRAM需求和盈利能力如此巨大,以至于它正在将内存供应转移到其他用途,导致价格飞涨。根据Counterpoint Research的数据,本季度迄今DRAM价格已上涨80-90%。

最大的AI硬件公司声称他们已经将芯片安全部署到2028年,但这让其他所有公司——无论是个人电脑制造商、消费设备制造商还是所有需要临时存储十亿比特的设备——都在忙于应对稀缺的供应和高昂的价格。

电子行业是如何陷入这场混乱的?更重要的是,这场混乱将如何摆脱?IEEE Spectrum请经济学家和记忆专家来解释。他们认为,当前的局面是DRAM行业历史性的繁荣与前所未有规模的AI硬件基础设施建设碰撞的结果。除非AI领域出现重大崩溃,否则新产能和新技术要使供需与需求保持一致,还需要数年时间。即使如此,价格也可能依然很高。

要理解两端,你需要了解供需波动的主要罪魁祸首——高带宽内存(HBM)。


什么是HBM?


HBM是DRAM行业试图通过3D芯片封装技术来缩短摩尔定律减缓步伐的尝试。每个HBM芯片由多达12个DRAM芯粒组成,称为芯片。每个芯片包含多个称为硅孔(TSV)的垂直连接。这些模具堆叠起来,并通过与TSV对齐的微型焊球阵列连接。这座DRAM塔——厚度约750微米,更像是一座野兽派办公楼而非塔楼——随后被堆放在所谓的基础芯片上,底座芯片在存储芯片和处理器之间传递比特。

这项复杂的技术随后被放置在GPU或其他AI加速器一毫米范围内,并通过多达2048微米级连接。HBM连接在处理器的两侧,GPU和内存则作为一个整体封装在一起。

GPU这种紧密且高度连接的压缩设计,是为了打破所谓的内存墙。这就是将运行大型语言模型所需的每秒太字节数据传输到GPU时,在能源和时间上的障碍。内存带宽是限制大型语言模型运行速度的关键因素。

作为一项技术,HBM已经存在了十多年,DRAM制造商一直在努力提升其能力。随着AI模型规模的扩大,HBM对GPU的重要性也在提升。但这也付出了代价。SemiAnalysis估计,HBM通常成本是其他类型内存的三倍,且占包装GPU成本的50%或更多。


存储芯片短缺的起源


内存和存储行业的观察者一致认为,DRAM是一个高度周期化的行业,经历过多次巨大的繁荣和毁灭性的崩盘。由于新晶圆厂的成本达到150亿美元甚至更多,企业极不愿意扩张,可能只有在繁荣时期才有资金支持,Coughlin Associates总裁兼存储与存储专家Thomas Coughlin解释道。但建造这样一座晶圆厂并使其投入运行可能需要18个月甚至更长时间,实际上确保新产能远远超过最初的需求激增,导致市场涌入并压低价格。

Coughlin说,今天这一周期的起源可以追溯到围绕新冠疫情的芯片供应恐慌。他指出,为了避免供应链出现故障并支持远程工作的快速转变,像亚马逊、谷歌和Microsoft这样的数据中心巨头等超大规模企业大量收购了内存和存储库存,推高了价格。

但随后供应变得更规律,数据中心扩展在2022年减弱,导致内存和存储价格暴跌。Coughlin表示,这种衰退持续到2023年,甚至导致三星等大型存储公司将产量削减50%,以试图保持价格低于制造成本。这是一次罕见且相当绝望的举措,因为公司通常必须满负荷运转工厂才能收回价值。

2023年底开始复苏后,“所有存储和存储公司都非常谨慎,不愿再次提升产能,”Coughlin说。“因此,2024年及2025年大部分时间几乎没有对新产能的投资。”


AI数据中心的繁荣


新投资的缺乏正与新数据中心需求的巨大增长正面冲突。根据DataCenter Map,全球目前有近2000个新数据中心正在规划或建设中。如果全部建成,全球需求量将增长20%,目前约有9000个设施。

如果当前的建设持续加速,麦肯锡预测到2030年企业将花费7万亿美元,其中大部分——5.2万亿美元——将用于专注于AI数据中心。该公司预测,其中33亿美元将用于服务器、数据存储和网络设备。

迄今为止,AI数据中心热潮的最大受益者无疑是GPU制造商英伟达。其数据中心业务收入从2019年最后一个季度的不到十亿美元,增长到截至2025年10月的季度的510亿美元。在此期间,其服务器GPU不仅需要越来越多的DRAM数据,还需要越来越多的DRAM芯片。最近发布的B300使用八个HBM芯片,每个芯片由12个DRAM芯粒组成。竞争对手对HBM的使用在很大程度上与英伟达类似。例如,AMD MI350 GP 也使用了八颗12芯片。

由于需求如此之大,DRAM制造商收入中越来越多来自HBM。美光是SK海力士和三星之后的第三大制造商,报告称HBM及其他云相关内存占其DRAM收入的比例从2023年的17%上升到2025年的近50%。

美光预测,HBM的总市场规模将从2025年的350亿美元增长到2028年的1000亿美元——这一数字超过了2024年整个DRAM市场,首席执行官Sanjay Mehrotra在去年12月告诉分析师。这一数字比美光此前预期提前两年。在可预见的未来,整个行业需求将大幅超过供应.....。


未来DRAM供应与技术


“解决DRAM供应问题有两种方式:创新或建设更多晶圆厂,”Mkecon Insights的经济学家Mina Kim解释道。随着DRAM扩展变得越来越困难,行业转向了先进的封装技术......这只是用了更多的DRAM而已。”

美光、三星和SK海力士合并占据了绝大多数的内存和存储市场,三者都在建设新的晶圆厂和设施。然而,这些措施不太可能对降低价格有实质性贡献。

美光正在新加坡建设一座HBM工厂,预计2027年投产。此外,它正在对从台湾PSMC购买的一座工厂进行改造,该厂将于2027年下半年开始投产。上个月,美光在纽约奥农达加县为DRAM制造厂区奠基。该产品要到2030年才会全面生产。

三星计划于2028年在韩国平泽新工厂开始生产。

SK海力士正在印第安纳州西拉斐特建设HBM和包装设施,计划于2028年底开始生产,其在清州的HBM工厂预计于2027年完工。

谈及他对DRAM市场的看法,英特尔CEO陈立武上周在思科人工智能峰会上对与会者表示:“直到2028年才有缓解。”

由于这些扩张在数年内无法贡献,需要其他因素来增加供应。全球电子协会(前身为IPC)首席经济学家Shawn DuBravac表示:“现有DRAM领导者逐步扩产、先进包装的良率提升以及供应链更广泛的多元化,将带来缓解。新晶圆厂的出现会带来一定帮助,但更快的成果将来自工艺学习、更好的DRAM堆叠效率,以及内存供应商与AI芯片设计师之间更紧密的协调。”

那么,一旦这些新工厂投产,价格会下降吗?别指望。“总体来说,经济学家发现价格下降的速度远慢且不情愿地上涨。Kim说:“鉴于对计算量的无限需求,DRAM如今不太可能成为这一普遍观察的例外。”

与此同时,技术正在研发中,可能使HBM成为硅的更大消费者。HBM4的标准可容纳16个堆叠的DRAM芯片,尽管如今的芯片只使用12个芯片。达到16级很大程度上取决于芯片堆叠技术。通过硅、焊料和支撑材料组成的HBM“层状蛋糕”传导热量,是提升频率和重新定位HBM在封装内以获得更大带宽的关键限制。

SK海力士声称通过一种名为MR-MUF(质量回流成型底填)的制造工艺,在热传导方面具有优势。更远处,一种称为混合键合的芯片叠加技术可以通过将芯片间垂直距离基本降至零来帮助热传导。2024年,三星的研究人员证明他们可以通过混合键合成16高的堆叠,并表示20个芯片并非遥不可及。(镨元素)

剪报来源
https://spectrum.ieee.org/dram-shortage    
→ 『关闭窗口』
 365pr_net
 [ → 我要发表 ]
上篇文章:华中科技大学开发出高精度组装微芯片的自对准激光转…
下篇文章:没有找到相关文章
  → 评论内容 (点击查看)
您是否还没有 注册 或还没有 登陆 本站?!
 分类浏览
创新科技>| 人工智能  信息科学  通信技术  光电子学  材料科技  能源科技  先进制造  半导体技术 
行业观察>| 行业动态  市场分析 
家庭电子>| 市场观察  厂商动态  技术趋势 
移动电子>| 市场观察  厂商动态  技术趋势 
办公电子>| 市场观察  厂商动态  技术趋势 
汽车电子>| 市场观察  厂商动态  技术趋势 
通信网络>| 市场观察  厂商动态  技术趋势 
工业电子>| 市场观察  厂商动态  技术趋势 
安全电子>| 市场观察  厂商动态  技术趋势 
工业材料>| 市场观察  厂商动态  技术趋势 
固态照明>| 市场观察  厂商动态  技术趋势 
智能电网>| 市场观察  厂商动态  技术趋势 
关于我们 ┋ 免责声明 ┋ 产品与服务 ┋ 联系我们 ┋ About 365PR ┋ Join 365PR
Copyright @ 2005-2008 365pr.net Ltd. All Rights Reserved. 深圳市产通互联网有限公司 版权所有
E-mail:postmaster@365pr.net 不良信息举报 备案号:粤ICP备06070889号