人工智能大规模应用带火HBM( 高带宽存储器)。
科技巨头排队购买
据科技媒体报道,继英伟达之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存 HBM3E。半导体行业内部人士称, 各大科技巨头已经在向SK海力士请求获取HBM3E样本,包括 AMD、微软和亚马逊等等。
AMD最近透露了其下一代GPU MI300X,表示它将从SK海力士和三星电子获得HBM3供应。除英伟达和AMD之外,亚马逊和微软则是云服务领域的两大巨头,之前已引入生成式人工智能技术,并大幅追加了对于AI领域的投资。
报道称,SK海力士正忙于应对客户对HBM3E样品的大量请求,但满足英伟达首先提出的样品数量要求非常紧迫。
SK海力士于2021年10月宣布成功开发出容量为16 GB的HBM3 DRAM,在2022年6月初即宣布量产。HBM3E是HBM3的下一代产品, SK海力士是目前世界上唯一一家能够大规模生产HBM3芯片的公司。
AI服务器带火HBM
HBM即为高带宽存储器,是一种基于3D堆叠工艺的DRAM内存芯片,具有更高带宽、更多I/O数量、更低功耗、更小尺寸等优点。
HBM突破了内存容量与带宽瓶颈,可以为GPU提供更快的并行数据处理速度,打破“内存墙”对算力提升的桎梏,被视为GPU存储单元理想解决方案。AI服务器对带宽提出了更高的要求,而HBM基本是AI服务器的标配,超高的带宽让HBM成为了高性能GPU的核心组件。
今年5月,英伟达宣布推出大内存AI超级计算机DGX GH200,该产品集成最多达256个GH200超级芯片,是DGX A100的32倍。机构推测,在同等算力下,HBM存储实际增量为15.6倍。
在DRAM的整体颓势之中,HBM却在逆市增长。据媒体报道,2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加, HBM3规格DRAM价格上涨5倍。为应对人工智能半导体需求增加,有消息称SK海力士将追加投资高带宽存储器(HBM)产线, 目标将HBM产能扩大2倍。
6月28日,TrendForce集邦咨询发表研报称,目前高端AI服务器GPU搭载HBM芯片已成主流, 预计2023年全球HBM需求量将增近六成,达到2.9亿GB,2024年将再增长30%。
集邦咨询预计,目前英伟达A100、H100、AMD MI300,以及大型云服务提供商谷歌、AWS等自主研发的ASIC AI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)在120万台,年增长率近38%。AI芯片出货量同步看涨,预计今年将增长50%。
HBM未来市场规模超20亿美元
中金公司表示,随着模型的进一步复杂化,推理侧采用Nvidia A100/H100 等中高端GPU是大势所趋,HBM的渗透率有望快速提升。据测算, 到2025年HBM整体市场有望达到20亿美元以上。
证券时报·数据宝统计,A股公司中,HBM产业链主要包括 雅克科技、拓荆科技、中微公司、香农芯创、华海诚科等。
雅克科技子公司UP Chemical是韩国存储芯片龙头SK海力士核心供应商,供应海力士HBM前驱体。国盛证券表示,随着HBM堆叠DRAM裸片数量逐步增长到8层、12层,HBM对DRAM材料用量将呈倍数级增长。同时,前驱体单位价值量也将呈倍数级增长,前驱体有望迎来崭新发展机遇。
ALD沉积(单原子层沉积)在HBM工艺中不可或缺, 拓荆科技是国内ALD设备的主要供应商之一,公司PEALD产品用于沉积SiO2、SiN等介质薄膜,在客户端验证顺利。
TSV技术(硅通孔技术)是HBM的核心技术之一, 中微公司是TSV设备主要供应商。硅通孔技术为连接硅晶圆两面并与硅衬底和其他通孔绝缘的电互连结构,可以穿过硅基板实现硅片内部垂直电互联,是实现2.5D、3D先进封装的关键技术之一。
香农芯创子公司联合创泰是SK海力士的代理商,向SK海力士采购的产品为数据存储器。公司表示AI算力需求的提升有利于提升高性能存储芯片的销售,对公司的营业额和利润有积极的影响。
华海诚科公司的颗粒状环氧塑封料用于HBM的封装,公司表示应用于HBM的材料已通过部分客户认证。
联瑞新材表示,HBM封装高度提升、散热需求大的问题,颗粒封装材料(GMC)中就需要添加球硅和球铝,公司部分客户是全球知名的GMC供应商。
国芯科技表示,目前正在研究规划合封多HBM内存的2.5D的芯片封装技术,积极推进Chiplet技术的研发和应用。
长电科技表示,子公司星科金朋具备超过20年的高性能存储器芯片成品制造量产经验,已经和国内外存储类产品厂商在高带宽存储产品的后道制造领域有广泛的合作。
声明:数据宝所有资讯内容不构成投资建议,股市有风险,投资需谨慎。
责编:叶舒筠