AI服务器大热带动存储器出货量,韩企厂商大吃红利

ai服务器出货动能强劲带动hbm(high bandwidth memory高频宽存储器)需求提升,预计2023年ai服务器出货量年增15.4%。
据trendforce研究显示,2022年三大原厂hbm市占率分别为sk海力士(sk hynix)50%、三星电子(samsung)约40%、美光科技(micron)约10%。此外,高级深度学习ai gpu的规格也刺激hbm产品更迭,2023下半年伴随nvidia h100与amd mi300的搭载,三大原厂也已规划相对应规格hbm3的量产。因此,在今年有更多客户将导入hbm3的预期下,sk海力士作为目前唯一量产新世代hbm3产品的供应商,其整体hbm市占率可望借此提升至53%,而三星、美光则预计陆续在今年年底至明年初量产,hbm市占率分别为38%及9%。
目前英伟达nvidia所定义的dl/ ml型ai服务器平均每台均搭载4张或8张高级显卡,搭配两颗主流型号的x86服务器cpu,而主要拉货力道来自于美系云端业者google、aws、meta与microsoft。据trendforce统计,2022年高级搭载gpgpu的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。展望2023年,微软microsoft、脸书meta、百度与字节跳动相继推出基于生成式ai衍生的产品服务而积极加单,预估今年ai服务器出货量年增率可望达15.4%,2023~2027年ai服务器出货量年复合成长率约12.2%。
根据trendforce调查,ai服务器可望带存储器需求成长,以现阶段而言,server dram普遍配置约为500至600gb左右,而ai服务器在单条模组上则多采64至128gb,平均容量可达1.2~1.7tb之间。以enterprise ssd而言,由于ai服务器追求的速度更高,其要求往往优先于dram或hbm满足,在ssd固态硬盘的容量提升上则呈现非必要扩大容量的态势,但在传输界面上,则会为了高速运算的需求而优先采用pcie 5.0。而相较于一般服务器而言,ai服务器多增加gpgpu的使用,因此以英伟达nvidia a100 80gb配置4或8张采计,hbm用量约为320至640gb。未来在ai模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动server dram、ssd以及hbm的需求成长。


智能变电站的安装方法和注意事项
Simcenter FLOEFD为用户提供更精确的电池建模
O.S. Engines运动机引擎FS-62V产品简介
输电线路常见异常及处理原则
惊爆你的眼球!盘点虚拟现实设备前世今生
AI服务器大热带动存储器出货量,韩企厂商大吃红利
三维场景生成:无需任何神经网络训练,从单个样例生成多样结果
传感器厂商高华科技成功入选“2023科创板硬科技领军企业”
产业2.0趋势下,FPGA与IC设计未来不可或缺
电话机器人有哪些特点,它有什么优势
专业苹果粉分析苹果是否需要升级iOS10.2
【展会预告】第三届中国集成电路设计创新大会暨无锡IC应用博览会
关于MOSFET的开关特性你们了解多少
夏普:面板厂将赴台上市 与各方积极合作
简析主要封装技术类型的变迁史
蔚来App,汽车行业前所未有的尝试
耳机的分类详细资料
无刷电机采用正玄波控制的工作原理是怎样的
LSI推出全新MegaRAID SATA+SAS控制器卡
简述RAL寄存器模型基础