英伟达计划自研HBM内存Base Die

AI芯片大厂英伟达已经启动下一代高带宽内存HBM底层芯片的自研计划。

HBM 作为 AI 时代的必备品,成功解决了传统 GDDR 面临的“内存墙”难题。它采用存算一体的近存计算架构,大幅减少了数据传输的时间与能耗,而且通过堆栈技术,相较于传统 GDDR,显著节省了空间占用。

存储芯片在人工智能发展中居于核心地位,是 AI 大模型持续进化以及 AI 服务器稳定运行的关键所在,成为推动科技进步的重点。

据中国台湾媒体《工商时报》报道称,人工智能(AI)芯片大厂英伟达已经启动下一代高带宽内存HBM底层芯片( Base Die)的自研计划,并且未来英伟达无论需要家供应商的HBM,其底层的逻辑芯片都将采用英伟达的自研方案,预计首款产品将使用3nm制程打造,最快将于2027年下半年开始试产。

目前在HBM市场上,SK海力士、三星、美光等头部供应商的HBM都搭载的是自己的基于DRAM制程的Base Die,但是随着进入到HBM4,传输速率提升到10Gbps以上,Base Die就需要使用先进的逻辑制程,生产也必须依靠如台积电等晶圆代工厂,包括12nm或更先进节点。

尽管相关供应链主导权目前仍掌握在SK海力士等头部DRAM厂商手中,但他们都已透露未来将导入晶圆代工等级的逻辑制程的Base Die进入到HBM当中,以提升产品性能与能耗比。

对此,市场人士指出,存储器厂商在复杂的Logic Base Die IP与ASIC设计能力方面相对较弱。 若HBM要整合UCIe接口与GPU、CPU连结,在Logic Base Die的设计上难度将大幅增加。 因此,英伟达将会自研HBM4所需的Logic Base Die的计划,这也被解读为抢攻ASIC市场的策略,也希望藉由NVLink Fusion开放架构平台来提供客户更多模块化选择,进一步强化对整体生态系的掌控优势。

目前,虽然英伟达积极布局,SK海力士也已经率先向主要客户提供新一代12层堆叠的HBM4样品,并已经结合先进的MR-MUF封装技术,容量可达36GB,带宽更高达每秒突破2TB,相较前一代HBM3E带宽提升超过60%,持续巩固其在AI存储器市场的领导地位。

但市场人士认为,此前很多客户为了避免过度受制于英伟达高昂的GPU成本,这才推动了面向AI的ASIC加速器市场逐渐蓬勃发展了起来。 所以,英伟达自研HBM Base Die,如果客户采用英伟达的AI解决方案,又会加大对于英伟达的依赖,因此接下来未必能获得业者青睐,有机会改变ASIC的发展态势。 因此,整体发展情况还还有待进一步的观察。

总体来说,随着英伟达拟自制HBM的Base Die计划的发展,以及SK海力士加速HBM4的量产,HBM4正迈向更高速、更高堆叠、更复杂封装整合的新局面。 HBM市场将迎来新一波的激烈竞争与产业变革。 在此变革中,台积电、三星等先进逻辑制程代工厂商都将会受益。

此外,韩国 SK 海力士公司的一位高管在接受采访时表示,用于人工智能的特殊形式存储芯片的市场预计将在未来 10 年内以每年 30%的速度增长,直至 2030 年。对于用于人工智能领域的高带宽存储器(HBM)芯片的全球增长预期持乐观态度,这无视了该领域价格压力不断上升的问题。而长期以来,这一领域一直被视作与石油或煤炭等大宗商品类似的原商品类别。

SK 海力士公司 HBM 业务规划负责人Choi Joon-yong表示:“终端用户对人工智能的需求非常明确且强烈。”

Choi表示,像亚马逊、微软以及谷歌母公司 Alphabet 这样的云计算公司所预计的数十亿美元的 AI 投资支出在未来很可能会被上调,这将对 HBM 市场产生“积极”影响。

Choi表示,人工智能设备的安装数量与海力士存储器的采购量之间的关系“非常简单明了”,两者之间存在关联。他说,SK 海力士的预测较为保守,其中还包含了诸如可用能源等限制因素。

早在7月24日,SK海力士的财报电话会议重点就已关注了该公司HBM市场的前景。SK海力士以“未来HBM需求毋庸置疑”的口吻,打消了市场担忧。该公司解释道,随着AI模型从主要训练向推理扩展,大型科技公司正在竞相投资,全球主要国家也在积极寻求自主(独立)的AI投资,以确保中长期需求的增长动力。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!