Llama2的技术细节探讨分析

写在前面
大家好,我是刘聪nlp。
昨天metaai开源了llama2模型,我只想说一句:“「metaai改名叫openai吧!」”
llama2不仅开源了预训练模型,而且还开源了利用对话数据sft后的llama2-chat模型,并对llama2-chat模型的微调进行了详细的介绍。
开源模型目前有7b、13b、70b三种尺寸,预训练阶段使用了2万亿token,sft阶段使用了超过10w数据,人类偏好数据超过100w。
非常自信的metaai。啥也不说,上来先show一副评估对比图,我就问openai你服不服,skr。
等等党不用着急,虽然中文占比只有0.13%,但后续会有一大推中文扩充词表预训练&领域数据微调的模型被国人放出。
这不github一搜,已经有很多人占坑了,这是“有卡者的胜利”。
下面简要记录llama2的技术细节。
预训练阶段
模型结构为transformer结构,与llama相同的是采用rmsnorm归一化、swiglu激活函数、rope位置嵌入、词表的构建与大小,与llama不同的是增加gqa(分组查询注意力),扩增了模型输入最大长度,语料库增加了40%。
训练超参数如下:adamw优化器的β1、β2和eps分别为0.9、0.95和10e-5,采用cosin学习率,预热2000步后进行学习率衰减,最终降至峰值的10%,权重衰减系数为0.1,梯度裁剪值为1.0。
但请注意:7b和13b模型并没有增加gqa!!!
预训练阶段的损失如下图所示,可以看出,模型其实还没有完全收敛。
预训练模型效果一句话总结:「开源第一,闭源一个没打过。」
微调阶段
上面预训练模型没打过你openai没关系,你先等我全流程走完。
sft
「data quality is all you need。」 metaai进行实验时发现,少量高质量数据集训练模型的效果,要好于大量低质量数据集的训练效果。因此以后sft时候,不要一味地追求量,质更重要。
微调时初始学习率为2e−5,并采用余弦学习率下降,权重衰减为0.1,训练批次大小为64,最大长度为4096。为了提高模型训练效率,将多组数据进行拼接,尽量填满4096,每条数据直接用停止符隔开,计算loss时仅计算每条样本target内容的loss。
rm
对于人类偏好数据的收集,重点关注模型回复的有用性和安全性,通过选择对比两个模型结果获取;不过除了选择一个更好的结果之外,还需要对选择的答案标记偏好程度,例如:明显更好,更好,稍微更好、可以忽略地更好或者不确定。在安全性上,对两个结果会标记都符合安全性、只有一个复合安全性、都不符合安全性,以此收集安全性数据。
在模型迭代过程中,奖励模型所需的偏好数据,需要迭代收集,具体如下。
奖励模型是对提示生成的回复生成一个标量分值,评价模型生成质量,但发现有用性和安全性很难在同一个奖励模型表现都很好,因此,独立训练了两个奖励模型,一个针对有用性(helpfulness)进行了优化,另一个针对安全性(safety)进行了优化。
奖励模型的初始化来自于pretrained chat model检查点,将下一个token预测分类器替换成标量奖励值回归器。训练时,采用带有边际约束的二元排序损失,如下:
边际约束开源提高奖励模型的准确性。并且为了奖励模型可以用有更好的泛化,防止出现奖励黑客现象(例如llama2-chat利用了奖励模型的弱点,在表现不佳的情况下夸大奖励分数),在奖励模型训练过程中,还加入了部分开源人类偏好数据。
训练参数设置:70b模型的最大学习率为5e−6,其余模型的最大学习率为1e−5,采用余弦学习率下降,最低到最大学习率的10%,并采用总步数的3%进行预热(最少5步),训练批次大小为1024。
不同奖励模型在不同数据上的效果如下表所示。
发现奖励模型对明显更好的数据效果更突出,对可以忽略地更好或者不确定的数据表现较差。
并且研究了奖励模型在数据和模型大小方面的缩放趋势,在数据逐步增大的同时,效果也在逐步提高。
iterative fine-tuning
随着收到更多批次的人类偏好数据,能够训练更好的奖励模型并收集更多提示。因此,训练了五个连续版本的rlhf模型(rlhf-v1到rlhf-v5)。
主要训练策略包括:
最近策略优化(ppo):标准强化学习算法
拒绝采样微调:模型输出时采样k个结果,选择奖励值最高的一个,在强化学习阶段进行梯度更新。
在rlhf-v4之前,只使用拒绝采样微调,之后将两者顺序结合起来。但主要只有70b模型进行了拒绝采样微调,而其他小模型的微调数据来自于大模型拒绝采样数据,相当于用大模型蒸馏小模型。
在模型进行强化学习的奖励值由有用性奖励值和安全性奖励值组合产生,具体计算如下:
训练参数设置:对于所有模型,采样adamw优化器,其中β1、β2和eps分别为0.9、0.95和1e−5,权重衰减为0.1,梯度裁剪为1.0,学习率为恒定为1e−6。ppo训练时大批次为512,小批次为64,ppo裁剪阈值为0.2。对于7b和13b模型,设置kl惩罚系数为0.01,对于34b和70b模型,设置kl惩罚系数为0.005。所有模型进行200到400次迭代训练。
多轮对话一致性
最初的rlhf模型在几轮对话后忘记最初的指令,下图(左)所示。为了解决这些限制,提出ghost attention方法(gatt,其实是一个训练trick)来增强模型对指令的遵从。
假设多轮对话数据为 [u1,a1,...,un,an],定义一条指令(inst),使得整个对话过程中都遵守该指令,然后将该指令综合连接到对话的所有用户消息,构造为 [inst+u1,a1,...,inst+un,an]。为了避免语句不匹配的问题,在训练过程中,保留第一轮的提示,并将中间轮数的损失置为0。
总结
llama2模型7b,13b,34b,70b都有,完全够用,最期待的34b会暂缓放出。
国内开源底座模型还是在6b、7b、13b等层次,33-34b才是刚需呀。
随着开源可商用的模型越来越多,大模型社区会越来越繁华,是中小厂的福音。开源都是真英雄。
我愿从此跟随metaai走open开源ai路线。


Supermicro推出搭载跨多产品系列的EDSFF E3.S和E1.S存储驱动器的All-Flash服务器,进一步扩展密集型I/O工作负载专用
中国科学家发明可用于海上生存或孤岛生存的太阳能海水淡化装置
快速晶闸管在加速器电源系统中的应用
MAX6901 RTC与8051微控制器的接口
奢侈腕表品牌豪雅表将推出豪华的Android智能手表,售价3,500英镑
Llama2的技术细节探讨分析
透过工业4.0了解工业栈与软件栈的不同
可控硅可以控制直流吗
中国央行发行的数字货币会是怎样的模式
数据安全很重要 智能电网需加强安全防御
紫光打造国家级半导体产业舰队
小米MIUI 10系统推出稳定版,获用户称赞
富士康的员工只有66.7万,仅1年时间便减少了约14万员工
基于区块链技术的拜占庭容错共识协议Kadena介绍
变压器绕组的作用
3Giphone、iphone、iphone 3GS故障分析
联想Z5s采用了挖孔屏设计搭配了后置三摄像头和指纹解锁键
5G即将正式商用,这些知识得先了解清楚
如何防止电池漏液?
简单恒流充电器,Simple constant current charger