当前位置: 首页 > news >正文

西安php网站开发培训班室内设计效果图 客厅

西安php网站开发培训班,室内设计效果图 客厅,内蒙古网站建设 阿里巴巴,网站建设技术风险分析给定计算预算下的最佳LLM模型尺寸与预训练数据量分配 FesianXu 20250304 at Wechat Search Team 前言 如果给定了计算预算 C C C#xff0c;如何分配LLM的模型尺寸 N N N和训练的数据量 D D D#xff0c;才能使得模型的效果 L L L最好呢#xff1f;笔者在此介绍一篇经典的文…给定计算预算下的最佳LLM模型尺寸与预训练数据量分配 FesianXu 20250304 at Wechat Search Team 前言 如果给定了计算预算 C C C如何分配LLM的模型尺寸 N N N和训练的数据量 D D D才能使得模型的效果 L L L最好呢笔者在此介绍一篇经典的文章讨论这个问题。如有谬误请见谅并联系指出本文遵守CC 4.0 BY-SA版权协议转载请联系作者并注明出处谢谢。 关键字最佳计算预算分配发表信息NIPS 2022 ∇ \nabla ∇ 联系方式 e-mail: FesianXugmail.com github: https://github.com/FesianXu 知乎专栏: 计算机视觉/计算机图形理论与应用 微信公众号机器学习杂货铺3号店 我们知道在大语言模型Large Language Model, LLM中存在所谓的尺度扩展规律Scaling Laws [2]如Fig 1所示即是 LLM的性能会随着模型的参数量、模型的训练量、模型的训练数据量的增加而增加 Fig 1. 大模型中的尺度扩展规律测试集损失随着模型训练量、训练集数据量、模型参数量的增加而递减即是模型性能递增。 我们也知道模型的参数量、模型的训练量和模型的训练数据量都会影响到最终的计算预算可以用FLOPs计算因此LLM的性能可以说和计算预算直接挂钩这也是Fig 1 左图所表示的。我们不禁会有个疑问给定了模型的计算预算 C C C我们应该怎么均衡模型参数量 N N N和预训练的Token数量 D D D才能使得模型的预训练损失 L L L最小化呢我们期待得到最优的模型参数 N o p t N_{opt} Nopt​和最优的预训练Token数量 D o p t D_{opt} Dopt​可以使得预训练损失最小正如公式(1)所示。 N o p t ( C ) , D o p t ( C ) arg ⁡ min ⁡ N , D s . t . F L O P s ( N , D ) C L ( N , D ) (1) N_{opt}(C), D_{opt}(C) \underset{N, D \ \mathrm{s.t.} \ \mathrm{FLOPs}(N, D) C}{\arg\min} L(N,D) \tag{1} Nopt​(C),Dopt​(C)N,D s.t. FLOPs(N,D)Cargmin​L(N,D)(1) 作者探索这个规律的方法论也很直接作者步进遍历了一遍不同的模型尺寸从70M到16B参数量也步进遍历了一遍预训练数据Token数量从5B到400B最终跑了超过400个组合的数据点不得不说有算力真的可以为所欲为。从直观上看越大尺寸的模型需要越多训练的Token当然我们需要研究具体的比例作者采用了三种不同的方法去找这个比例关系。 固定模型尺寸下的性能分析 这种方法是分别固定住模型尺寸从70M到10B多个模型尺寸都需要实验然后观察训练了不同数量的Tokens数量后在每一个节点时哪一个模型尺寸能够达到最小的训练损失。如Fig 2 左图 所示 这里有些地方需要解释。首先这里的横坐标是浮点计算量FLOPs在不同模型尺寸下相同的FLOPs能训练的Token数量是不同的因此才会出现Fig 2左图中同一个FLOPs中大尺寸模型损失比小尺寸模型还大的情况。从Fig 2 左图中我们能发现在不同的FLOPs下到达最小损失的模型尺寸是不一样的不太容易看出来在左图中是灰色点它们形成了一个包络线不同的FLOPs在对应尺寸模型下能够折算成训练过的Token数量因此能够画出Fig 2 中图和右图横坐标是FLOPs纵坐标是达到最小损失也就是左图的灰色点时的模型尺寸和过了的Tokens数。换句话说Fig 2中图和右图就是给定计算预算 C C C下的最佳模型尺寸 N o p t N_{opt} Nopt​和训练数据量 D o p t D_{opt} Dopt​我们发现有 N o p t ∝ C a , D o p t ∝ C b N_{opt} \propto C^{a}, D_{opt} \propto C^{b} Nopt​∝Ca,Dopt​∝Cb通过实验可以算出 a 0.50 , b 0.50 a 0.50, b 0.50 a0.50,b0.50。 Fig 2. 训练曲线包络。左侧展示了我们所有不同的运行情况。我们启动了一系列模型尺寸从70M到10B每个模型针对四个不同的余弦循环周期长度。从这些曲线中我们提取了每 FLOP 最小损失的包络线我们利用这些点来估计给定计算预算下的最佳模型尺寸中间和最佳训练 token 数量右侧。绿色显示了基于训练 Gopher5.76 × 10²³ FLOP所用 FLOP 数量的最佳模型尺寸和训练 token 数量的预测。 固定计算预算下的性能分析 第一种方法的计算量FLOPs没有固定在此方法中我们固定计算量 C C C也就是所谓的IsoFLOP分析等量计算下的最佳模型参数量 N o p t N_{opt} Nopt​。同时在知道了每个实验固定的计算量和在此之下的最佳模型参数量后也就可以反推训练Token数量。实验如Fig 3 左图所示可以发现在不同的固定计算量下从 6 × 1 0 18 6 \times 10^{18} 6×1018到 3 × 1 0 21 3 \times 10^{21} 3×1021 FLOPs遍历不同尺寸的模型能够发现在某些尺寸处会存在明显的低谷这个低谷就是在固定计算预算情况下的最佳模型参数量由此也能绘制出Fig 3 中图和右图绘制逻辑如第一种方法所述。不难发现同样有 N o p t ∝ C a , D o p t ∝ C b N_{opt} \propto C^{a}, D_{opt} \propto C^{b} Nopt​∝Ca,Dopt​∝Cb这个规律算出 a 0.49 , b 0.51 a0.49, b0.51 a0.49,b0.51。 Fig 3. 等量浮点运算曲线IsoFLOP Curves针对不同模型规模通过调整训练令牌token数量使得最终总浮点运算量FLOPs保持恒定并设置余弦周期长度以匹配目标FLOPs量。研究发现损失函数会出现一个明显低谷如左图这表明在给定FLOPs计算预算下存在一个最优的待训练模型。基于这些低谷位置我们推算出更大模型的最优参数规模与令牌数量中图和右图。图中绿色部分展示了在Gopher模型计算预算下最优模型的参数与令牌数量估计值。 对参数化损失函数进行拟合 在第1和2中方法中已经积累了很多最小损失 L L L下的 F L O P s ( N o p t , D o p t ) C FLOPs(N_{opt}, D_{opt}) C FLOPs(Nopt​,Dopt​)C的数据点了我们不妨把损失拆解为三大部分如公式(2)所示其中第一项 E E E为不可约损失也就是自然文本的熵是不可继续减少的最基础的损失项。第二项为不完美的参数量为 N N N的Transformer模型训练过程中产生的损失因为参数量 N N N总是有限也就是不完美的因此总是在理想损失 E E E的基础上有超额损失第三项则是不完美的训练数据量 D D D下因为训练数据量 D D D不可能是无限的的产生的超额损失。 L ^ ( N , D ) ≜ E A N α B D β (2) \hat{L}(N, D) \triangleq E \frac{A}{N^\alpha} \frac{B}{D^\beta} \tag{2} L^(N,D)≜ENαA​DβB​(2) 作者采用L-BFGS算法去最小化所谓的Huber loss因为数据点只有400多个这个loss作者说对离群点比较稳健去进行估计 ( A , B , E , α , β ) (A,B,E,\alpha,\beta) (A,B,E,α,β)笔者也没细究读者有兴趣的可以翻阅 [3] 和 [4]。最终估计出来的参数为 E 1.69 , A 406.4 , B 410.7 , α 0.34 , β 0.28 (3) E1.69, A406.4, B410.7, \alpha0.34, \beta0.28 \tag{3} E1.69,A406.4,B410.7,α0.34,β0.28(3) 在LLM Scaling Law的论文 [2] 中提出了一个估算: F L O P s ( N , D ) ≈ 6 N D FLOPs(N, D) \approx 6ND FLOPs(N,D)≈6ND借此可以将公式(2)进行变形得到公式(4) N o p t ( C ) G ( C 6 ) a , D o p t ( C ) G − 1 ( C 6 ) b , 其中 G ( α A β B ) 1 α β , a β α β , b α α β (4) \begin{aligned} N_{\mathrm{opt}}(C) G \left( \frac{C}{6} \right)^a, \\ % 公式1\mathrm{opt}正体下标 D_{\mathrm{opt}}(C) G^{-1} \left( \frac{C}{6} \right)^b, \\ % 公式2G的逆 \text{其中}\quad % 用\text添加中文注释\quad增加间距 G \left( \frac{\alpha A}{\beta B} \right)^{\frac{1}{\alpha \beta}}, \\ % G的定义注意分数指数 a \frac{\beta}{\alpha \beta}, \\ % a的定义β在分子 b \frac{\alpha}{\alpha \beta} % b的定义α在分子 \end{aligned} \tag{4} Nopt​(C)Dopt​(C)其中Gab​G(6C​)a,G−1(6C​)b,(βBαA​)αβ1​,αββ​,αβα​​(4) 作者算得 a 0.46 , b 0.54 a0.46, b0.54 a0.46,b0.54具体过程请自行参考原文。 给定计算量下的最优设计 Fig 4是将以上三种预测方法绘制成计算量——最佳模型尺寸估计曲线图其中那贴上了一些之前工作的估计 [2] 和一些模型的对比如Gopher280B参数量、GPT-3175B参数量和Megatron-NLG 530B参数量。从图中能发现 方法1和方法2估计出来的曲线基本上贴合方法3估计出的模型尺寸在计算预算小的时候和前两者基本贴合但在大计算预算下会偏小些不过也不会差距特别大。主流的大模型如Gopher、GPT3等在对应的计算预算下模型尺寸明显偏大基本上是贴着 [2] 的曲线走的。 为了证明本文提出的估计方法更佳准确作者在方法1和2中对齐Gopher的计算预算大概是 5.76 × 1 0 23 5.76\times10^{23} 5.76×1023 FLOPs找到了最佳模型尺寸约是70B作者将这个训练出来的模型称之为Chinchilla需要将这个模型的性能和Gopher进行公平对比。注意到在方法1和2中从Fig 2和Fig 3的右图中可以找出给定预算下的最佳训练Token数量对于Chinchilla来说是1.4-1.5T左右因此 D o p t / N o p t ≈ 20 D_{opt}/N_{opt} \approx 20 Dopt​/Nopt​≈20。 Fig 4. 预测结果叠加对比我们将三种不同方法的预测结果与Kaplan等人 [2] 的推算进行叠加对比。研究发现所有方法均表明当前大型模型的参数规模应显著缩小并因此需要比现有实践更长的训练时间。 作者在相当多语言下游任务的基准上进行了测试都发现Chinchilla对比Gopher存在普遍优势在一些任务中甚至超过了Megatron-NLG 530B模型。这些实验过于冗长笔者就不展示细节了。 笔者读后感 这篇论文的意义在于告诉我们在给定了计算预算下是存在一个最优的模型尺寸和训练数据量的他们存在一个比例 D o p t ≈ 20 N o p t D_{opt} \approx 20 N_{opt} Dopt​≈20Nopt​越大的模型就需要越多数据进行训练才能发挥出模型最优的性能。这篇论文的发表时间比较早是2022年现在已经有很多工作证实了在推理中进行复杂策略可以有效提高模型性能 [5,6]并且这些推理策略同样也存在Scaling Law。这意味着计算预算不仅可以花在预训练上而且可以花在推理时的Scaling这也是这篇文章没有考虑到的点。当然在 [6] 中作者也承认推理时的Scaling并非是万能的而是 推理时计算与预训练计算并非一对一“可互换”。对于模型能力范围内的简单和中等难度问题或者在推理实时性要求较低的情况下测试时计算可以轻松弥补额外的预训练。然而对于超出基础模型能力范围的具有挑战性的问题或者在推理实时性要求较高的情况下预训练可能更有效于提升性能。 也就是说预训练的地位并不是通过推理时的Scaling就可以替代的预训练中分配一定量的计算预算对于全方面提高LLM的性能是必须的。结合了模型训练、模型推理的更为综合的最优配比应该是值得去研究的。 Reference [1]. Hoffmann, Jordan, Sebastian Borgeaud, Arthur Mensch, Elena Buchatskaya, Trevor Cai, Eliza Rutherford, Diego de Las Casas et al. “Training compute-optimal large language models.” arXiv preprint arXiv:2203.15556 (2022). [2]. Kaplan, Jared, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. “Scaling laws for neural language models.” arXiv preprint arXiv:2001.08361 (2020). [3]. J. Nocedal. Updating Quasi-Newton Matrices with Limited Storage. Mathematics of Computation, 35(151):773–782, 1980. ISSN 0025-5718. doi: 10.2307/2006193. URL https://www.jstor.org/stable/2006193 aka L-BFGS [4]. P. J. Huber. Robust Estimation of a Location Parameter. The Annals of Mathematical Statistics, 35 (1):73–101, Mar. 1964. ISSN 0003-4851, 2168-8990. doi: 10.1214/aoms/1177703732. URL https://projecteuclid.org/journals/annals-of-mathematical-statistics/volume-35/issue-1/Robust-Estimation-of-a-Location-Parameter/10.1214/aoms/1177703732.full. aka Huber loss [5]. https://fesianxu.github.io/2025/03/02/test-time-scaling-laws-20250302/ 《大模型推理时的尺度扩展定律》 [6]. Snell, Charlie, Jaehoon Lee, Kelvin Xu, and Aviral Kumar. “Scaling llm test-time compute optimally can be more effective than scaling model parameters.” arXiv preprint arXiv:2408.03314 (2024).
http://www.w-s-a.com/news/138471/

相关文章:

  • 校园网站建设管理工作制度大网站开发费用
  • 做logo赚钱的网站分类网站 模板
  • 网站建设完成报告织梦网站怎么做备份
  • 邯郸市城乡建设管理局网站vimwiki wordpress
  • 如何修改wordpress站名如何制作公司网站
  • 宁波网站建设与推广方案网站有了备案号之后能做什么
  • 汕头手机端建站模板pinterest app下载
  • 网站主机免费宁波网站建设优化诊断
  • 吧网站做软件的软件下载简单的ui界面制作
  • 陕西网站制作公司网页制作与设计代码
  • 做网站行情郑州微信网站开发
  • 河间网站建设制作null wordpress theme
  • h5网站制作网站开发网站建设文翻译工作
  • 网站建设 税种秦皇岛哪有网站优化公司
  • 专业开发网站设计找人做网页需要多少钱
  • 手机购物网站 建站网站建设网站制作网站设计
  • 基于iview的网站开发模板小程序制作需要什么语言
  • 精美网站设计保定建行网站首页登录
  • 网站建设常见问题做网站保存什么格式最好
  • 营销型网站建设与网页设计网站建设 amp 找VX cp5173
  • 新网站该如何做网站优化呢儿童手工
  • 湖北现代城市建设集团网站搜索引擎优化的作用
  • 上海做网站吧开一家软件开发公司需要什么
  • 阿里巴巴网站建设改图片建设厅官方网站河南
  • 邓砚谷电子商务网站建设镇江网
  • 网站空间支持什么程序工作服款式
  • 网站单页品牌网站建设 蝌蚪5小
  • 怎么做外贸网站需注意哪些做电脑系统的网站
  • 网站建设介绍推广用语河南网站优化外包服务
  • 课程网站模板贵州省城乡与建设厅网站