当前位置: 首页 > news >正文

网泰网站建设网络推广网站界面

网泰网站建设网络推广,网站界面,在线子域名二级域名查询工具,wordpress图标字体不显示PyTorch AMP 混合精度中的 scale 函数解析 混合精度训练#xff08;AMP, Automatic Mixed Precision#xff09;是深度学习中常用的技术#xff0c;用于提升训练效率并减少显存占用。在 PyTorch 的 AMP 模块中#xff0c;GradScaler 类负责动态调整和管理损失缩放因子AMP, Automatic Mixed Precision是深度学习中常用的技术用于提升训练效率并减少显存占用。在 PyTorch 的 AMP 模块中GradScaler 类负责动态调整和管理损失缩放因子以解决 FP16 运算中的数值精度问题。而 scale 函数是 GradScaler 的一个重要方法用于将输出的张量按当前缩放因子进行缩放。 本文将详细解析 scale 函数的作用、代码逻辑以及 apply_scale 子函数的递归作用。 函数代码回顾 以下是 scale 函数的完整代码 Source: anaconda3/envs/xxx/lib/python3.10/site-packages/torch/amp/grad_scaler.py torch 2.4.0cu121版本 def scale(self,outputs: Union[torch.Tensor, Iterable[torch.Tensor]], ) - Union[torch.Tensor, Iterable[torch.Tensor]]:Multiplies (scales) a tensor or list of tensors by the scale factor.Returns scaled outputs. If this instance of :class:GradScaler is not enabled, outputs are returnedunmodified.Args:outputs (Tensor or iterable of Tensors): Outputs to scale.if not self._enabled:return outputs# Short-circuit for the common case.if isinstance(outputs, torch.Tensor):if self._scale is None:self._lazy_init_scale_growth_tracker(outputs.device)assert self._scale is not Nonereturn outputs * self._scale.to(deviceoutputs.device, non_blockingTrue)# Invoke the more complex machinery only if were treating multiple outputs.stash: List[_MultiDeviceReplicator] [] # holds a reference that can be overwritten by apply_scaledef apply_scale(val: Union[torch.Tensor, Iterable[torch.Tensor]]):if isinstance(val, torch.Tensor):if len(stash) 0:if self._scale is None:self._lazy_init_scale_growth_tracker(val.device)assert self._scale is not Nonestash.append(_MultiDeviceReplicator(self._scale))return val * stash[0].get(val.device)if isinstance(val, abc.Iterable):iterable map(apply_scale, val)if isinstance(val, (list, tuple)):return type(val)(iterable)return iterableraise ValueError(outputs must be a Tensor or an iterable of Tensors)return apply_scale(outputs)1. 函数作用 scale 函数的主要作用是将输出张量outputs按当前的缩放因子self._scale进行缩放。它支持以下两种输入 单个张量直接将缩放因子乘以张量。张量的可迭代对象如列表或元组递归地对每个张量进行缩放。 当 AMP 功能未启用时即 self._enabled 为 Falsescale 函数会直接返回原始的 outputs不执行任何缩放操作。 使用场景 放大梯度在反向传播之前放大输出张量的数值以减少数值舍入误差对 FP16 计算的影响。支持多设备通过 _MultiDeviceReplicator 支持张量分布在多个设备如多 GPU的场景。 2. 核心代码解析 (1) 短路处理单个张量 当输入 outputs 是单个张量torch.Tensor时函数直接对其进行缩放 if isinstance(outputs, torch.Tensor):if self._scale is None:self._lazy_init_scale_growth_tracker(outputs.device)assert self._scale is not Nonereturn outputs * self._scale.to(deviceoutputs.device, non_blockingTrue)逻辑解析 如果缩放因子 self._scale 尚未初始化则调用 _lazy_init_scale_growth_tracker 方法在指定设备上初始化缩放因子。使用 outputs * self._scale 对张量进行缩放。这里使用了 to(deviceoutputs.device) 确保缩放因子与张量在同一设备上。 这是单个张量输入的快速路径处理。 (2) 多张量递归处理逻辑 当输入为张量的可迭代对象如列表或元组时函数调用子函数 apply_scale 进行递归缩放 stash: List[_MultiDeviceReplicator] [] # 用于存储缩放因子对象def apply_scale(val: Union[torch.Tensor, Iterable[torch.Tensor]]):if isinstance(val, torch.Tensor):if len(stash) 0:if self._scale is None:self._lazy_init_scale_growth_tracker(val.device)assert self._scale is not Nonestash.append(_MultiDeviceReplicator(self._scale))return val * stash[0].get(val.device)if isinstance(val, abc.Iterable):iterable map(apply_scale, val)if isinstance(val, (list, tuple)):return type(val)(iterable)return iterableraise ValueError(outputs must be a Tensor or an iterable of Tensors)return apply_scale(outputs)apply_scale 子函数的作用 张量处理 如果 val 是单个张量检查 stash 是否为空。如果为空初始化缩放因子对象 _MultiDeviceReplicator并存储在 stash 中。使用 stash[0].get(val.device) 获取对应设备上的缩放因子并对张量进行缩放。 递归处理可迭代对象 如果 val 是一个可迭代对象调用 map(apply_scale, val)对其中的每个元素递归地调用 apply_scale。如果输入是 list 或 tuple则保持其原始类型。 类型检查 如果 val 既不是张量也不是可迭代对象抛出错误。 3. apply_scale 是递归函数吗 是的apply_scale 是一个递归函数。 递归逻辑 当输入为嵌套结构如张量的列表或列表中的列表时apply_scale 会递归调用自身将缩放因子应用到最底层的张量。递归的终止条件是 val 为单个张量torch.Tensor。 示例 假设输入为嵌套张量列表 outputs [torch.tensor([1.0, 2.0]), [torch.tensor([3.0]), torch.tensor([4.0, 5.0])]] scaled_outputs scaler.scale(outputs)递归处理过程如下 对 outputs 调用 apply_scale 第一个元素是张量 torch.tensor([1.0, 2.0])直接缩放。第二个元素是列表递归调用 apply_scale。 进入嵌套列表 [torch.tensor([3.0]), torch.tensor([4.0, 5.0])] 第一个元素是张量 torch.tensor([3.0])缩放。第二个元素是张量 torch.tensor([4.0, 5.0])缩放。 4. _MultiDeviceReplicator 的作用 _MultiDeviceReplicator 是一个工具类用于在多设备场景下管理缩放因子对象的复用。它根据张量所在的设备返回正确的缩放因子。 当张量分布在多个设备如 GPU时_MultiDeviceReplicator 可以高效地为每个设备提供所需的缩放因子避免重复初始化。 总结 scale 函数是 AMP 混合精度训练中用于梯度缩放的重要方法其作用是将输出张量按当前缩放因子进行缩放。通过递归函数 apply_scale该函数能够处理嵌套的张量结构同时支持多设备场景。 关键点总结 快速路径单张量输入的情况下直接进行缩放。递归处理对于张量的嵌套结构递归地对每个张量进行缩放。设备管理通过 _MultiDeviceReplicator 支持多设备场景。 通过 scale 函数PyTorch 的 AMP 模块能够高效地调整梯度数值范围提升混合精度训练的稳定性和效率。 后记 2025年1月2日15点47分于上海在GPT4o大模型辅助下完成。
http://www.w-s-a.com/news/882905/

相关文章:

  • 网站建设方案 规划wordpress 要备案吗
  • 一个完整的网站 技术网站建设中 敬请期待.
  • 如何建一个公司的网站网上怎么推广公司产品
  • 十大旅游电子商务网站影楼网站制作
  • 深圳网站建设代理商网业打开慢的原因
  • 旅游网站经营模式在屈臣氏做网站运营
  • 做管理信息的网站com域名查询
  • 免费推广网站推荐外贸推广平台哪个好
  • 腾宁科技做网站399元全包企业校园网站建设
  • 海外医疗兼职网站建设公司取名字大全免费
  • 龙口市规划建设局网站vi设计和品牌设计的区别
  • 企业网站的总体设计网站建设评审验收会议主持词
  • 网站建设完成推广响应式网站设计开发
  • 电商网站用php做的吗网站开发流程可规划为那三个阶段
  • flash网站怎么做音乐停止深圳网站建设金瓷网络
  • 哪个网站可以做房产信息群发怎么做国内网站吗
  • 微商城网站建设公司的价格卖磁铁的网站怎么做的
  • 免费做做网站手机平台软件开发
  • 网站单页做301徐州百度网站快速优化
  • 织梦怎么制作手机网站漳州专业网站建设公司
  • 邓州做网站网络优化概念
  • 查看网站开发phonegap wordpress
  • 网站建设和维护待遇怎样c 做的网站又哪些
  • 淮南网站推广网站开发行业前景
  • 丽水市龙泉市网站建设公司江门手机模板建站
  • 做化妆品注册和注册的网站有哪些wordpress加关键字
  • 四川新站优化php笑话网站源码
  • 外贸类网站酷玛网站建设
  • 合肥网站设计建设南宁网站seo推广优化公司
  • 临沂百度网站7x7x7x7x8黄全场免费