ChatGPT引领AI技术变革,带动服务器需求增量

openai gpt 技术的聊天机器人,其拥有 3000 亿单词的语料基础,预训练出拥有 1750 亿个参数的模型,海量的参数与强大的智能交互能力离不开背后算力和服务器的支撑。据我们测算,若未来 chatgpt 达到 10 亿日活,每人平均 10000字左右问题,则需新增服务器投入 46.30 万台。服务器的需求起量为上游的存储/pcb/模拟市场带来新增量。我们预计,单台服务器带来的 pcb 价值量约为 4000元,而 ai 服务器放量亦将带来 ddr5 和 hbm 存储用量的快速提升。
01
chatgpt:引领内容生成式 ai 行业变革
此前微软宣布将在未来向 openai 投资 100 亿美元,并将 chatgpt 的技术整合到最新版本的必应搜索引擎和 edge 浏览器中。微软这一举动拉开了大型科技公司 ai 竞赛的序幕,谷歌亦宣布推出 bard 对抗 chatgpt,国内百度、腾讯等科技巨头亦在加紧推出自己的生成式 ai
从 2018 年 openai 开发出 gpt-1 开始,gpt 模型的智能化程度不断提升,chatgpt 是从 gpt3.5 系列中的模型进行微调而诞生的,此前 openai 还设计了gpt-1、gpt-2 和 gpt-3 模型。相比于前几代 gpt 模型,chatgpt 具有类似人类的情境感知和回馈能力,在语言识别、判断和交互层面实现了较好的效果。除此之外,openai 旗下还有可生成图片内容的 ai 应用 dall-e,高智能化的内容生成式 ai 有望在未来一段时间内改变人类科技发展的格局,让智能化广泛进入人们的日常生活。
chatgpt 为人类开拓出了训练大语言模型的新道路。chatgpt 在拥有 3000亿单词的语料基础上预训练出拥有 1750 亿个参数的模型(gpt-2 仅有 15 亿参数),预训练数据量从 5gb 增加到 45tb。chatgpt 证明了在高算力的支持下,千亿级参数规模的模型训练+人类反馈,可以使 ai 融合世界的知识和规则,极大提升模型表现。
02
chatgpt 拉动算力需求快速增长
chatgpt 参数量、数据量高度扩张,算力需求剧增。从 2018 年起,openai就开始发布生成式预训练语言模型 gpt(generative pre-trained transformer),可用于生成文章、代码、机器翻译、问答等各类内容,每一代 gpt 模型的参数量都快速增长:2019 年 2 月发布的 gpt-2 参数量为 15 亿,而 2020 年 5 月的 gpt-3,参数量达到了 1750 亿。
chatgpt 海量的参数与强大的智能交互能力,离不开算力的支撑。根据similarweb 的数据,23 年 1 月份 chatgpt 日活约 1300 万人,累计用户已超 1亿人,创下了互联网最快破亿应用的记录。若 chatgpt 日活达至 1 亿人,每人平均 1000 字左右的问题,那么需要多大的算力资源支持?
我们建立计算假设如下:
1) 假设均采用英伟达 dgx a100 服务器:该服务器单机搭载 8 片 a100gpu,ai 算力性能约为 5 petaflop/s,单机最大功率约为 6.5kw;
2) chatgpt 日活达至 1 亿人,每人平均 1000 字左右问题;
3) 自回归语言模型以 token 作为单位进行数据处理和计算,在英文环境下,一般 750 个单词等于 1000 个 token。最常见的 transformer 类语言模型在推理过程中每个 token 的计算成本(以 flops 为指标)约为 2n,其中 n 为模型参数数量(20 年发布的 gpt-3 拥有 1750 亿参数,22 年谷歌发布的 palm 拥有 5400 亿参数,假定 chatgpt 为 3000 亿参数);
4) 模型的 flops 利用率为 20%;
5) 假定访问峰值是一天均值的 5 倍;
若 chatgpt 日活达至 1 亿人,每人平均 1000 字左右的问题,初始服务器投入需 4630 台。粗略估计 chatgpt 1000 字左右的问题需要的算力资源为2*3000 亿*1000*1.333/20%=4petaflop,而 chatgpt 日活约 1 亿人,若每人平均 1000 字左右的问题,假设 24 小时平均分配任务,则所需算力为 1 亿*4petaflop/(24*3600s)=4630petaflop/ s。考虑访问流量存在峰值,假定访问峰值是一天均值的 5 倍,而单台英伟达 dgxa100 系列服务器算力为 5 petaflop/s,则需要对应服务器数量为 4630petaflop/s*5/ petaflop/s=4630 台。
而若未来 chatgpt 日活达至 10 亿人,每人平均 10000 字左右问题,则有望带动约 46.30 万台。
且考虑谷歌每日搜索量已达 35 亿次,长期来看 chatgpt 日活有广阔的提升空间,算力需求将持续释放。此外,若考虑 chatgpt 嵌入终端应用后,其对算力资源的消耗量或将成数倍级增长,所需服务器数量需求更是成数倍级提升。
文字交互仅是大模型用量的起点,未来图像、视频等多种形态带动算力需求大幅提升。chatgpt 目前仍主要停留在文字交互层面,但图像、视频等领域也可使用 transformer 大模型,所需算力规模远大于文字交互。例如 openai 的绘画 ai模型 dall-e2,其可直接根据文字生成逼真的图像,也可以对现有图像上根据文字指令创建新作品。
03
上游存储/pcb/模拟受益 chatgpt 需求新增量
chatgpt 拉动服务器需求快速增长的同时,将直接拉动算力芯片需求增长,我们于下文中详细对算力芯片需求进行了介绍。此外,服务器需求的增长,也将带动上游存储/pcb/模拟的需求快速增长。
1)chatgpt 新时代,服务器需求带动 ddr5 和 hbm 用量快速提升。随着chatgpt 等应用开启 ai 新时代,全球数据生成、储存、处理量有望呈等比级数增长,而 ddr5 内存和高带宽存储器(hbm)可支持更高速率的带宽。对于计算-内存而言,ddr5 标准的最高速率是 ddr4 的两倍,而 hbm 基于 tsv 和芯片堆叠技术的堆叠 dram 架构,可实现高于 256gbps 的突破性带宽。深度学习和人工智能的快速发展对数据运算的要求越来越高,随着数据指数式增长,内存墙对于计算速度的影响越来越凸显,而 ddr5 和 hbm 技术可以帮助数据中心突破“内存墙”瓶颈。我们看好在 chatgpt 的带动下,服务器 ddr5 和 hbm 的渗透率有望加速提升
2) chatgpt 带动 pcb 需求新增量。服务器内部涉及 pcb 的主要部件包括主板、电源背板、网卡、riser 卡、硬盘背板等,pcb 在 ai 服务器应用中对板厚、层数、工艺等有着更高的要求,具有高层数、高密度及高传输速率的特点。
pcb 层数越多,设计越灵活,能够对电路起到更好地抗阻作用,更易于实现芯片之间地高速传输,单位价值量也越高。pcie3.0 接口的信号传输速率为 8gt/s,对应的服务器 pcb 板为 8-10 层;pcie4.0 接口的传输速率为 16gt/s,使用的服务器 pcb 层数为 12-14 层,目前渗透率在快速提高,如英伟达 dgxa100 系列服务器就采用了 pcie4.0 接口;服务器平台下一步将升级到 pcie 5.0,传输速率为32gt/s,pcb 的层数可达 18 层。随着 chatgpt 对算力要求的提升,预计服务器pcb 将呈量价齐升的态势,保守估计每台服务器的 pcb 价值量可达 4000 元。
3)chatgpt 拉动服务器建设的同时,亦带来大量电源管理芯片需求。从市电输入服务器开始,到电流输入 cpu 等元器件止,大体上需要经过三次电流的改变。第一次是经过服务器的电源模块,将市电从交流电转换成 48v 的直流电(acdc)。接下来,该直流电会被输送至 dc/dc 变换器,进一步被转换成 12v,提供给中间母线结构(iba)。最后该 12v 母线电压将被分配至板上多个负载点(pol)变换器中,为芯片或子电路提供电源。不过由于主板上 cpu 等内核器件与风扇等
其他器件对功率的要求各不相同,因此需要分开处理。对于 cpu 等内核器件,往往需要使用多相电源供电,而对于部分功率较小且比较稳定的其他器件,不需要使
用多相电源,只需要使用 buck 进行降压就可以对其进行供电。具体而言,主板上的电源管理 ic 主要包括 efuse/热插拔、多相电源、ldo 与降压 buck 等四类。


人形机器人商用难在哪?
采用石英晶体振荡器和分频器的动态扫描数字钟电路设计与制作
工程师如何走出智能工业创新之路?
以AT89S51单片机为主控芯片的电子密码锁设计
推开低功耗广域网络市场大门 解析LPWAN技术之QoS篇
ChatGPT引领AI技术变革,带动服务器需求增量
公变与专变的区别与联系
光源照明设计的基本因素考虑
电机轴承运转中的检查项目与润滑方法
分析2020年中国电线电缆市场现状及未来发展
dfrobot12V168P 齿轮电机简介
带看门狗功能的专用复位芯片设计方案
盘点安防2009 跨入希望的2010
成立9个月,COB灯带月产能800万米,这家照企立下新目标
赢了, 中兴天机Axon M对比18:9手机!
神奇的眼镜只要你戴上,就可以“欺骗大脑”,缓解晕车
ADI:汽车电子半导体应用,机遇与挑战并存
爱立信:不乐见瑞典排挤其最大竞争对手华为
比特币是数字货币吗?你理解数字货币吗?
iQOO宣布3月16日正式发布iQOO Neo5 全新处理器加持