M6官网注册·招商证券:AI服务器存储量价齐升 算力需求推动HB

2024-05-16 10:04:11 来源:m6在线登陆 作者:M6米乐手机登录APP入口 1

  招商证券发布研究报告称,AI算力升级带动服务器的CPU迭代并提升GPU需求,带动AI服务器存储容量和价值量较传统服务器数倍增长。训练型AI服务器中GPU承担大部分算力,算力要求推动了HBM等新型存储器超百亿美元新兴市场,进而提升Bumping、TSV、CoWoS等先进封装工艺需求,并带来减薄、键合、模塑、测试等设备以及EMC、电镀液、PSPI等材料的增量需求。叠加国内自主可控需求持续增长,国内存储及HBM等催生的先进封装产业链发展空间巨大。

  传统服务器以CPU作为算力核心,随着AI训练模型的算力要求不断提升,CPU的核心数、主频、线程数量均不断提升,但仅靠CPU已经无法满足算力需求,需要搭配GPU进行多线程数据处理,主流训练型服务器一般搭配8个GPU。AI服务器用到的主要存储器包括CPU内存、GPU显存和硬盘NAND等,存储器容量和价值量均较普通服务器有数倍提升,1)DRAM:英伟达训练型AI服务器中的CPU DRAM容量高达2TB,另外单个GPU一般搭载80GB以上的HBM存储器,AI服务器HBM总容量预计超640G,总内存容量相较普通服务器有4-8倍的提升,仅CPU内存价值量预计有5倍的提升,GPU的HBM则为纯增量市场;另外,服务器内存也在不断迭代,目前普通的服务器均多配备DDR4,但最先进的AI服务器已经搭配了DDR5或LPDDR5;2)NAND:AI服务器的硬盘容量高达30TB,相较传统服务器提升2-4倍,另外传统服务器同时使用机械硬盘和固态硬盘(SSD),但AI服务器基本全部使用SSD,整体价值量较普通服务器预计提升10倍左右。

  HBM(High Bandwidth Memory)即高带宽存储器,是基于2.5/3D封装技术的一种新型CPU/GPU内存芯片,将DRAM Die垂直堆叠,Die之间通过TSV的方式连接。HBM能够以低功耗产生高带宽,因此广泛搭配训练型AI服务器的GPU使用,训练型AI服务器对HBM需求的拉动主要体现在:1)AI服务器搭载GPU数量的提升:由普通服务器的2个提升至目前的8个;2)单个GPU搭载HBM Stack数量的提升:在HBM1方案中,单个GPU搭载4个HBM1,而在目前HBM2e或HBM3方案中,一般单个GPU搭配6个HBM Stack;3)HBM堆叠的DRAM层数和容量增多:从HBM1到HBM3,单个DRAM Die密度从2Gb提升至16Gb,堆叠高度从4Hi提升至12Hi,单个HBM叠层容量从1GB提升至24GB。Trendforce预计2025年全球服务器出货量为1700万台,当前AI服务器渗透率大概不足2%,假设2024年AI服务器渗透率约4%,按照每个AI服务器搭载8个GPU、每个GPU搭载6个共80GB至100GB及以上的HBM Stack的方案测算,那么2024年AI服务器带来的HBM增量空间预计超百亿美元。

  HBM和GPU采用2.5D+3D封装工艺,根据Yole,2021年HBM和Si中介层封装市场规模合计约14亿美元,预计2027年增至35亿美元,其中HBM和硅中介层封装市场分别增至16.3和18.8亿美元。TSV(Through-Silicon Via)即硅通孔技术,顺应2.5D封装架构而产生,能够以最低的能耗提供极高的带宽和密度,是实现电路小型化、高密度、多功能化的首选解决方案。2.5D TSV技术已经广泛用于AI GPU基板上的HBM中,实现DRAM各层Die之间的连接,以及HBM芯片和下方的金属凸块之间的连接。CoWoS工艺用于将HBM和硅中介层、封装基板等进行整体封装,当前台积电处于领先地位,伴随着谷歌TPU、英伟达GPU、AMD MI300等均导入生成式AI,台积电CoWoS需求自2022年以来翻倍增长,目前持续供不应求,展望2024年将目前CoWoS产能翻倍。

  1)设备:HBM中大量增加前道工序,前道检、量测设备主要增量来自微凸点、TSV、硅中介层等工艺,另外HBM中增加的预键合晶圆级测试和KGSD相关的封装级测试也带动分选机、测试机、探针台等后道测试设备的数量和精度提升;HBM堆叠结构增多,要求晶圆厚度不断降低,进而提升减薄、键合等设备需求;HBM多层堆叠结构要求超薄晶圆和铜-铜混合键合工艺,增加了临时键合/解键合以及混合键合设备需求,各层DRAM die的保护材料也非常关键,对注塑或压塑设备提出较高要求;另外,诸如划片机、固晶机、回流焊机/回流炉等传统设备需求也均受益于HBM封装带来的工艺步骤提升和工艺变革带来的价值量提升;2)材料:HBM中芯片间隙采用GMC(颗粒状塑封料)或LMC(液态塑封料)进行填充,GMC最主要原材料为球形硅微粉和球形氧化铝;HBM采用底部填充胶用于FC封装工艺,采用PSPI作为硅中介层中RDL的再钝化层;HBM中的Bumping、RDL、TSV等引入前道工艺,带来电镀液用量提升;另外,HBM也将提升电子粘合剂、封装基板、压敏胶带等其他材料需求。

  投资建议:相较传统服务器,AI服务器的存储器容量和价值量均提升数倍,其中训练型AI服务器GPU对带宽要求显著提升,催生了HBM等新型存储器的增量需求。当前DRAM、NAND、HBM等份额均主要由海外原厂如三星、美光、SK海力士等占据,HBM的CoWoS封装工艺主要由台积电掌握,但考虑到AI对整个存储产业链的拉动,叠加行业需求持续复苏、国产自主可控需求持续提升,国内存储及HBM等催生的先进封装产业链发展空间巨大。

  风险提示:AI服务器渗透率提升不及预期、存储行业复苏不及预期、国产替代进程不及预期、研发进展不及预期的风险。