深度拆解ChatGPT服务器的框架

chatgpt发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布gpt模型开发计划。据各公司官网,2023年2月7日,百度宣布将推出chatgpt类似产品“文心一言”,预计今年3月展开内测;2月8日阿里宣布阿里版chatgpt正在研发中,目前处于内测阶段;2月9日,字节跳动旗下ai lab宣布正在开展chatgpt和aigc相关研发,未来将为pico提供技术支持;2月10日,京东旗下言犀人工智能平台推出产业版chatgpt—“ chatjd”。  
ai模型对算力的需求主要体现在训练和推理两个层面。当前主流的人工智能算法通常可分为“训练”和“推理”两个阶段。据idc数据,2021年中国人工智能服务器工作负载中,57.6%的负载用于推理,42.4%用于模型训练。据idc预计,到2026年ai推理的负载比例将进一步提升至62.2%。具体来看:
1)训练阶段:基于充裕的数据来调整和优化人工智能模型的参数,使模型的准确度达到预期。对于图像识别、语音识别与自然语言处理等领域的复杂问题,为了获得更准确的人工智能模型,训练阶段常常需要处理大量数据集、做反复的迭代计算,耗费巨大的运算量。
2)推理阶段:训练阶段结束以后,人工智能模型已经建立完毕,已可用于推理或预测待处理输入数据对应的输出(例如给定一张图片,识别该图片中的物体),此过程被称为推理阶段。推理阶段对单个任务的计算能力要求不如训练那么大,但是由于训练出来的模型会多次用于推理,因此推理运算的总计算量也相当可观。
chatgpt算力需求场景包括预训练、finetune及日常运营。从chatgpt实际应用情况来看,从训练+推理的框架出发,我们可以将chatgpt的算力需求按场景进一步拆分为预训练、finetune及日常运营三个部分:
1)预训练:主要通过大量无标注的纯文本数据,训练模型基础语言能力,得到类似gpt-1/2/3这样的基础大模型;
2)finetune:在完成预训练的大模型基础上,进行监督学习、强化学习、迁移学习等二次或多次训练,实现对模型参数量的优化调整;
3)日常运营:基于用户输入信息,加载模型参数进行推理计算,并实现最终结果的反馈输出。
预训练阶段:单次算力需求取决于模型参数量,最高可达3640 pflop/s-day
chatgpt基于transformer架构,进行语言模型预训练。gpt模型之所以能够高效地完成大规模参数计算,我们认为离不开transformer架构的加持。拆解transformer架构来看,核心是由编码模块和解码模块构成,而gpt模型只用到了解码模块。拆解模块来看,大致分为三层:前馈神经网络层、编码/解码自注意力机制层(self-attention)、自注意力机制掩码层,其中:
1)注意力机制层主要作用在于计算某个单词对于全部单词的权重(即attention),从而能够更好地去学习所有输入之间的关系,实现对文本内在关系的理解和更大规模的并行计算;
2)前馈神经网络提供了对数据信息的高效存储及检索;3)掩码层在这一过程中帮助模型屏蔽位于计算位置右侧尚未出现的单词。因此,相较于前代深度学习架构rnn,transformer架构可以实现更大规模的并行计算,大大提升了计算效率。
单一大模型路线下,需要完成大规模参数计算。以gpt-3模型为例,随着模型朝更大体量的方向演进,参数量从gpt-3 small的1.25亿个增长到gpt-3 175b的1746亿个,一次训练所需的计算量从2.6pflop/s-day增至3640pflop/s-day。与此同时,在不同学习样本(包括小样本、单一样本、零样本)条件下的模型,随着参数量的提升均实现不同幅度的上下文学习能力改善,外在表现为语言准确率的提升。我们认为,随着大模型训练表现出越来越强大的实战能力,未来或将成为nlp训练的主流选择。
推理阶段:预计单月运营算力需求约7034.7 pflop/s-day
chatgpt近一月访问量为8.89亿次。据similarweb数据,2023年1月以来chatgpt官网日访问量持续攀升,从1月初的日均千万次级别,到1月底日均两千万次,再到2月中旬的三千万次级别,随着软件效果的广泛传播,用户访问次数愈发频繁。加总近一月(2023/1/17-2023/2/17)chatgpt官网访问量数据来看,可得chatgpt月访问量为8.89亿次。
预计日常运营单月所需算力约7034.7 pflop/s-day。日常运营过程中,用户交互带来的数据处理需求同样也是一笔不小的算力开支。据前文,近一个月(2023/1/17-2023/2/17)chatgpt官网总访问量为8.89亿次。据fortune杂志,每次用户与chatgpt互动,产生的算力云服务成本约0.01美元。基于此,我们测算得2023年1月openai为chatgpt支付的运营算力成本约889万美元。此外,据lambda,使用训练一次1746亿参数的gpt-3模型所需花费的算力成本超过460万美元;据openai,训练一次1746亿参数的gpt-3模型需要的算力约为3640 pflop/s-day。我们假设单位算力成本固定,测算得chatgpt单月运营所需算力约7034.7pflop/s-day。
finetune阶段:预计chatgpt单月finetune的算力需求至少为1350.4pflop/s-day
模型迭代带来finetune算力需求。从模型迭代的角度来看,chatgpt模型并不是静态的,而是需要不断进行finetune模型调优,以确保模型处于最佳应用状态。这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和ppo策略,对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为openai带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。
预计chatgpt单月finetune算力需求至少为1350.4pflop/s-day。据idc预计,2022年中国人工智能服务器负载中,推理和训练的比例分别为58.5%、41.5%。我们假设,chatgpt对推理和训练的算力需求分布与之保持一致,且已知单月运营需要算力7034.7 pflop/s-day、一次预训练需要算力3640 pflop/s-day。基于此,我们进一步假设:1)考虑到ai大模型预训练主要通过巨量数据喂养完成,模型底层架构变化频率不高,故我们假设每月最多进行一次预训练;2)人类反馈机制下,模型需要不断获得人类指导以实现参数调优,以月为单位可能多次进行。由此我们计算得chatgpt单月finetune算力成本至少为1350.4pflop/s-day。
1、chatgpt需要的服务器:ai训练型服务器+ai推理型服务器
随着计算场景扩展,算力硬件也在发生变化。在传统软件架构下,主要的模式都是cs模式,服务端大多是单机处理几千个轻量请求。而在边缘计算场景下,需要数万台服务器处理上亿个重负载请求。边缘计算机本质上是用ces模式取代cs模式,当前的互联网it架构已经从cs模式,逐步向cdn服务为核心的ces模式转变。但当前的cdn模式比较大的局限性在于缺乏灵活性,不能解决边缘上非结构化数据存储和处理的需求,引入edge端(边缘端)就是为了解决cs模式下无法处理的业务。而在ai训练场景下,计算量及数据类型的变化导致c-e-s又无法满足集中大算力需求,计算架构回归c-s,并向高效率并行计算演变。
服务器作为算力硬件核心,面向不同计算场景分化演进。我们认为,计算架构的变化是推动服务器技术演进的关键变量。从计算场景来看,随着计算架构从pc到云计算,到边缘计算,再到ai训练,服务器需求也在发生相应变化。从单一服务器更加强调服务个体性能,如稳定性、吞吐量、响应时间等。云数据中心服务器对单个服务器性能要求下降,但更强调数据中心整体性能,如成本、快速部署和交付。边缘计算场景下,开始出现异构计算等复杂环境计算,对数据交互实时性要求有所提升,需要在边缘端设立单独的服务器设施。而ai服务器主要专为人工智能训练设计,数据类型以向量/张量为主,多采用大规模并行计算以提升运算效率。
同一技术路线下,服务器面向数据处理需求持续迭代。复盘主流服务器发展历程来看,随着数据量激增、数据场景复杂化,不同类型服务器发展驱动力也有所差异。具体来看:
1)通用服务器:传统通用服务器的发展与计算机架构发展同步,通过处理器的时钟频率、指令集并行度、核数等硬件指标的提升优化自身性能,发展较为缓慢。
2)云计算服务器:云计算的概念于20世纪80年代提出,仅20年后就有较为成熟的产品推出,如vmware的vmware workstation和亚马逊aws等。2010年随着openstack开源,阿里云、华为云等项目相继布局,云计算行业快速走向成熟。
3)边缘计算服务器:边缘计算概念孵化于2015年,仅2年后就有诸如亚马逊aws greengrass、谷歌gmec等边缘计算平台产生,并在微软的带领下提前进入技术并购期。
4)ai服务器:ai服务器最早由思科在2018推出,专为人工智能、机器学习的工作服务而设计,硬件架构更加适合ai训练场景下的算力需求。
2、云计算服务器:大规模数据处理需求下的商业模式变革
数据量激增带来大算力需求,云计算服务器应运而生。通用服务器通过提高硬件指标提升性能,而随着cpu的工艺和单个cpu的核心数量接近极限,通用服务器性能难以支持数据量激增带来的性能需求。云计算服务器则通过虚拟化技术,将计算和存储资源进行池化,把原来物理隔离的单台计算资源进行虚拟化和集中化。最终以集群化处理来达到单台服务器所难以实现的高性能计算。同时,云计算服务器集群的计算能力可以通过不断增加虚拟化服务器的数量来进行扩展,突破单个服务器硬件限制,应对数据量激增带来的性能需求。
云计算服务器节约部分硬件成本,降低算力采购门槛。早期大规模数据处理成本极高,原因在于通用服务器的购置和运维成本居高不下。传统服务器中均包含处理器摸块、存储模块、网络模块、电源、风扇等全套设备,而云计算服务器体系架构精简,省去重复的模块,提高了利用率。同时云计算服务器针对节能需求,将存储模块进行虚拟化,并去除了主板上的非必要硬件,降低了整体计算成本,并通过流量计费模式,使得更多厂商可以负担算力开支,降低了算力采购门槛。
3、边缘服务器:高数据密度和带宽限制下保证低时延
边缘计算在云计算的基础上引入边缘层。边缘计算是在靠近物或数据源头的网络边缘侧,为应用提供融合计算、存储和网络等资源。在体系架构上,边缘计算在终端层和云层之间引入边缘层,从而将云服务扩展到网络边缘。其中终端层由物联网设备构成,最靠近用户,负责收集原始数据并上传至上层进行计算;边缘层由路由器、网关、边缘服务器等组成,由于距离用户较近,可以运行延迟敏感应用,满足用户对低时延的要求;云层由高性能服务器等组成,可以执行复杂计算任务。
边缘计算较云计算在实时性、低成本和安全性等方面有优势:
1)实时性:边缘计算将原有云计算中心的计算任务部分或全部迁移到与用户距离更近的网络边缘进行处理,而不是在外部数据中心或云端进行,因此提高了数据传输性能,保证了处理的实时性。
2)低带宽成本:终端产生的数据无需远距离传输至云端,避免带宽成本。同时,边缘计算机制中,边缘层可对终端产生数据进行预处理,从而降低云计算中心的计算负载。
3)安全性:边缘计算在本地设备和边缘层设备中处理大部分数据而不是将其上传至云端,减少实际存在风险的数据量,避免数据泄露危险。
4、ai服务器:更适合深度学习等ai训练场景
ai服务器采取gpu架构,相较cpu更适合进行大规模并行计算。通用服务器采用cpu作为计算能力来源,而ai服务器为异构服务器,可以根据应用范围采用不同的组合方式,如cpugpu、cputpu、cpu其他加速卡等,主要以gpu提供计算能力。从chatgpt模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型rnn来看,transformer架构下,ai模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从gpu的计算方式来看,由于gpu采用了数量众多的计算单元和超长的流水线,因此其架构设计较cpu而言,更适合进行大吞吐量的ai并行计算。
深度学习主要进行矩阵向量计算,ai服务器处理效率更高。从chatgpt模型结构来看,基于transformer架构,chatgpt模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而ai服务器中往往集成多个ai gpu,ai gpu通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,ai服务器往往较gpu服务器计算效率更高,具备一定应用优势。
ai服务器分类方式有两种:
1)按应用场景:ai服务器按照应用场景可以分为深度学习训练型和智能应用推理型。训练任务对服务器算力要求较高,需要训练型服务器提供高密度算力支持,典型产品有中科曙光x785-g30和华为昇腾atlas 800(型号9000、型号9010)。推理任务则是利用训练后的模型提供服务,对算力无较高要求,典型产品有中科曙光x785-g40和华为昇腾atlas 800(型号3000、型号3010)。
2)按芯片类型:ai服务器为异构服务器,可以根据应用范围调整计算模块结构,可采用cpu+gpu、cpu+fpga、cpu+tpu、cpu+asic或cpu+多种加速卡等组合形式。目前,产品中最常见的是cpu+多块gpu的方式。
常见的ai服务器分为四路、八路、十六路。一般来说,通用服务器主要采用以cpu为主导的串行架构,更擅长逻辑运算;而ai服务器主要采用加速卡为主导的异构形式,更擅长做大吞吐量的并行计算。按cpu数量,通用服务器可分为双路、四路和八路等。虽然ai服务器一般仅搭载1-2块cpu,但gpu数量显著占优。按gpu数量,ai服务器可以分为四路、八路和十六路服务器,其中搭载8块gpu的八路ai服务器最常见。
ai服务器采用多芯片组合,算力硬件成本更高。我们以典型服务器产品为例拆解硬件构成,可以更清晰地理解两类服务器硬件架构区别:以浪潮通用服务器nf5280m6为例,该服务器采用1~2颗第三代intel xeon可扩展处理器,据英特尔官网,每颗cpu售价约64000万元,故该服务器芯片成本约64000~128000;以浪潮ai服务器nf5688m6为例,该服务器采用2颗第三代intel xeon可扩展处理器+8颗英伟达a800 gpu的组合,据英伟达官网,每颗a800售价104000元,故该服务器芯片成本约96万元。
5、chatgpt需要的芯片:cpu+gpu、fpga、asic
gpt模型训练需要大算力支持,或将带来ai服务器建设需求。我们认为,随着国内厂商陆续布局chatgpt类似产品,gpt大模型预训练、调优及日常运营或将带来大量算力需求,进而带动国内ai服务器市场放量。以gpt-3 175b模型预训练过程为例,据openai,进行一次gpt-3 175b模型的预训练需要的算力约3640 pflop/s-day。我们假设以浪潮信息目前算力最强的ai服务器nf5688m6(pflop/s)进行计算,在预训练期限分别为3、5、10天的假设下,单一厂商需采购的ai服务器数量分别为243、146、73台。
ai大模型训练需求火热,智能算力规模增长有望带动ai服务器放量。据idc数据,以半精度(fp16)运算能力换算,2021年中国智能算力规模约155.2eflops。随着ai模型日益复杂、计算数据量快速增长、人工智能应用场景不断深化,未来国内智能算力规模有望实现快速增长。idc预计2022年国内智能算力规模将同比增长72.7%至268.0 eflops,预计2026年智能算力规模将达1271.4 eflops,2022-2026年算力规模cagr将达69.2%。我们认为,ai服务器作为承载智能算力运算的主要基础设施,有望受益于下游需求放量。


皮肤病医院能源管理系统设计与应用
小米推出了一款采用了定制全面屏液晶面板的全面屏电视
EDA(电子设计自动化)的发展历史
全球智能家居市场规模将在2023年达到1550亿美元
Rivian拿到新一轮13亿美元融资 是美国电动汽车市场又一颗“新星”
深度拆解ChatGPT服务器的框架
换电模式产业大潮已来,新能源汽车将会突破销量增长瓶颈
便携式天燃气检测仪的工作原理
无纺布表面瑕疵检测系统的原理、性能及应用
无人机巡检管理系统上线仁新高速,开启巡检病害“智慧眼”
2023华为伙伴大会:ISDP发布伙伴体验中心,邀伙伴探索数智化未来
劲量AAAA碱性电池成为下一代小型高科技产品的最佳电源解决方
光纤激光打标机应用在哪些领域
虚拟现实手术可以降低医生的辐射风险
从开箱到数据上云 — GCOM80-2NET网关开箱篇
HP4284A精密LCR测试仪特价HP4284A电桥HP42
光刻胶国产化的道路上有哪6道坎?
警惕VR深水区 你真的了解FOV么?
如何用电池判断发光二极管质量
什么是Secure Boot以及三种模式