当前位置: 首页 > news >正文

做一网站困难吗wordpress 获取附件

做一网站困难吗,wordpress 获取附件,建设集团是做什么的,企业网站欣赏郑州企业形象设计文章目录 背景交叉熵损失函数平衡交叉熵函数 Focal Loss损失函数Focal Loss vs Balanced Cross EntropyWhy does Focal Loss work? 针对VidHOI数据集Reference 背景 Focal Loss由何凯明提出#xff0c;最初用于图像领域解决数据不平衡造成的模型性能问题。 交叉熵损失函数 … 文章目录 背景交叉熵损失函数平衡交叉熵函数 Focal Loss损失函数Focal Loss vs Balanced Cross EntropyWhy does Focal Loss work? 针对VidHOI数据集Reference 背景 Focal Loss由何凯明提出最初用于图像领域解决数据不平衡造成的模型性能问题。 交叉熵损失函数 L o s s L ( y , p ^ ) − y l o g ( p ^ ) − ( 1 − y ) l o g ( 1 − p ^ ) LossL(y,\hat{p})-ylog(\hat{p})-(1-y)log(1-\hat{p}) LossL(y,p^​)−ylog(p^​)−(1−y)log(1−p^​) 其中 p ^ \hat{p} p^​为预测概率大小。y为label二分类中对应0和1。 L c e ( y , p ^ ) { − l o g ( p ^ ) , if  y 1 − l o g ( 1 − p ^ ) , if  y 0 L_{ce}(y,\hat{p}) \left\{ \begin{array}{ll} -log(\hat{p}), \text{if } y 1 \\ -log(1-\hat{p}), \text{if }y0 \end{array} \right. Lce​(y,p^​){−log(p^​),−log(1−p^​),​if y1if y0​ 对于所有样本需要求平均作为最终的结果 L 1 N ∑ i 1 N l ( y i , p ^ i ) L\frac{1}{N}\sum_{i1}^{N}l(y_i,\hat{p}_i) LN1​i1∑N​l(yi​,p^​i​) 对于二分类问题可以改写成 L 1 N ( ∑ y i 1 m − l o g ( p ^ ) ∑ y i 0 n − l o g ( 1 − p ^ ) ) L\frac{1}{N}(\sum_{y_i1}^{m}-log(\hat{p})\sum_{y_i0}^{n}-log(1-\hat{p})) LN1​(yi​1∑m​−log(p^​)yi​0∑n​−log(1−p^​)) 其中N为样本总数m和n为正、负样本数 m n N mnN mnN 当样本分布不平衡时损失函数L的分布也会发生倾斜若mn时正样本就会在损失函数中占据主导地位由于损失函数的倾斜训练的模型会倾向于样本较多的类别导致对较少样本类别的性能较差。 平衡交叉熵函数 对于样本不平衡造成的损失函数倾斜最直接的方法就是添加权重因子提高少数类别在损失函数中的权重从而平衡损失函数的分布。还是以之前的二分类问题为例我们添加权重参数 α ∈ [ 0 , 1 ] \alpha∈[0,1] α∈[0,1] L 1 N ( ∑ y i 1 m − α l o g ( p ^ ) ∑ y i 0 n − ( 1 − α ) l o g ( 1 − p ^ ) ) L\frac{1}{N}(\sum_{y_i1}^{m}-\alpha log(\hat{p})\sum_{y_i0}^{n}-(1-\alpha)log(1-\hat{p})) LN1​(yi​1∑m​−αlog(p^​)yi​0∑n​−(1−α)log(1−p^​)) 其中 α 1 − α n m \frac{\alpha}{1-\alpha}\frac{n}{m} 1−αα​mn​权重大小由正负样本数量比来设置。 Focal Loss损失函数 Focal Loss从loss角度提供了一种样本不均衡的解决方案 L f o c a l ( y , p ^ ) { − ( 1 − p ^ ) γ l o g ( p ^ ) , if  y 1 − p ^ γ l o g ( 1 − p ^ ) , if  y 0 L_{focal}(y,\hat{p}) \left\{ \begin{array}{ll} -(1-\hat{p})^\gamma log(\hat{p}), \text{if } y 1 \\ -\hat{p}^\gamma log(1-\hat{p}), \text{if }y0 \end{array} \right. Lfocal​(y,p^​){−(1−p^​)γlog(p^​),−p^​γlog(1−p^​),​if y1if y0​ 令 p t { p ^ , if  y 1 1 − p ^ , otherwise.  p_t \left\{ \begin{array}{ll} \hat{p}, \text{if } y 1 \\ 1-\hat{p}, \text{otherwise. } \end{array} \right. pt​{p^​,1−p^​,​if y1otherwise. ​ 则表达式统一为 L f o c a l − ( 1 − p t ) γ l o g ( p t ) L_{focal}-(1-p_t)^\gamma log(p_t) Lfocal​−(1−pt​)γlog(pt​) 与交叉熵表达式对照 L c e − l o g ( p t ) L_{ce}-log(p_t) Lce​−log(pt​)仅仅多了一个可变系数 ( 1 − p t ) γ (1-p_t)^\gamma (1−pt​)γ. 其中 p t p_t pt​反应了与ground truth的接近程度越大表示分类越准。 γ 0 \gamma0 γ0为调节因子。 对于分类不准确的样本 p t → 0 p_t→0 pt​→0 ( 1 − p t ) γ → 1 (1-p_t)^\gamma→1 (1−pt​)γ→1 L f o c a l → L c e L_{focal}→L_{ce} Lfocal​→Lce​对于分类准确的样本 p t → 1 p_t→1 pt​→1 ( 1 − p t ) γ → 0 (1-p_t)^\gamma→0 (1−pt​)γ→0 L f o c a l → 0 L_{focal}→0 Lfocal​→0因此Focal Loss对于分类不准确的样本损失没有改变对于分类准确的样本损失会变小。整体来看Focal Loss增加了分类不准确样本在损失函数中的权重。 如下是不同调节因子 γ \gamma γ对应的Loss-proba分布图可以看出Cross Entropy(CE)和Focal Loss(FL)之间的区别Focal Loss使损失函数更倾向于难分的样本。 Focal Loss vs Balanced Cross Entropy Focal Loss是从样本分类难易程度出发让Loss聚焦于难分类的样本Balanced Cross Entropy是从样本分布角度对Loss添加权重因子。 缺点仅仅考虑样本分布有些难以区分的类别的样本数可能也比较多此时被BCE赋予了较低的权重会导致模型很难识别该类别 Why does Focal Loss work? Focal Loss从样本难易分类的角度出发解决了样本不平衡导致模型性能较低的问题。 WHY 样本不平衡造成的问题就是样本数少的类别分类难度大因此Focal Loss聚焦于难分样本解决了样本少的类别分类精度不高的问题对于难分样本中样本多的类别也会被Focal Loss聚焦。因此它不仅解决了样本不平衡问题还提升了模型整体性能。 但是要使模型训练过程中聚焦于难分类样本仅仅将Loss倾向于难分类样本是不够的因为模型参数更新取决于Loss的梯度 w w − α ∂ L ∂ w ww-\alpha\frac{\partial L}{\partial w} ww−α∂w∂L​ 若Loss中难分类样本的权重较高但是难分类样本的Loss梯度为0难分类样本就不会影响到模型的参数更新。对于梯度问题Focal Loss中的梯度与 x t x_t xt​的关系如下所示其中 x t y x x_tyx xt​yx y ∈ { − 1 , 1 } y∈\{-1,1\} y∈{−1,1}为类别 p t σ ( x t ) p_t\sigma(x_t) pt​σ(xt​)对于易分样本 x t 0 x_t0 xt​0即 p t 0.5 p_t0.5 pt​0.5由下图可知此时的导数趋于0。对于难分样本导数数值较大因此学习过程中更聚焦于难分样本。 难易分类样本是动态的 p t p_t pt​在训练的过程中可能会在难易之间相互转换。 在Loss梯度中难训练样本起主导作用参数朝着优化难训练样本的方向改变变化之后可能会导致原本易训练的样本 p t p_t pt​变化即变成难训练样本。若发生了这种情况会导致模型收敛速度较慢。 为了防止这种难易样本的频繁变化应该选择较小的学习率。 针对VidHOI数据集 因为VidHOI数据集中的一个人-物对会被多个交互标签同时标注如 human,next to watch hold, cup 所以会面临multi-class multi-label的分类问题。以往常常使用Binary cross-entropy能够计算每个交互类别独立于其他类别的损失。但是VidHOI数据集分布不均且具有长尾分布为了解决这个不均衡问题同时避免过分强调最频繁类别的重要性我们采用class-balanced Focal loss C B f o c a l ( p i , y i ) − 1 − β 1 − β n i ( 1 − p y i ) γ l o g ( p y i ) w i t h p y i { p i , if  y i 1 1 − p i , otherwise. CB_{focal}(p_i,y_i)-\frac{1-\beta}{1-\beta^{n_i}}(1-p_{y_i})^{\gamma}log(p_{y_i}) \\ with \ p_{y_i} \left\{ \begin{array}{ll} p_i, \text{if } y_i 1 \\ 1-p_i, \text{otherwise.} \end{array} \right. CBfocal​(pi​,yi​)−1−βni​1−β​(1−pyi​​)γlog(pyi​​)with pyi​​{pi​,1−pi​,​if yi​1otherwise.​ 其中的 − ( 1 − p y i ) γ l o g ( p y i ) -(1-p_{y_i})^{\gamma}log(p_{y_i}) −(1−pyi​​)γlog(pyi​​)是Lin提出的Focal loss p i p_i pi​表示预估为第i个类别的可能性 y i ∈ { 0 , 1 } y_i∈\{0,1\} yi​∈{0,1}表示Ground Truth的label。变量 n i n_i ni​表示第i个类别在Ground Truth下的样本量 β ∈ [ 0 , 1 ) \beta∈[0,1) β∈[0,1)是可调节参数。所有类别的平均损失作为一个预测的损失。 import numpy as np import torch import torch.nn as nn import torch.nn.functional as F from typing import Optionalclass FocalBCEWithLogitLoss(nn.modules.loss._Loss):Focal Loss with binary cross-entropyImplement the focal loss with class-balanced loss, using binary cross-entropy as criterionFollowing paper Class-Balanced Loss Based on Effective Number of Samples (CVPR2019)Args:gamma (int, optional): modulation factor gamma in focal loss. Defaults to 2.alpha (int, optional): modulation factor alpha in focal loss. If a integer, apply to all;if a list or array or tensor, regard as alpha for each class; if none, no alpha. Defaults to None.weight (Optional[torch.Tensor], optional): weight to each class, !not the same as alpha. Defaults to None.size_average (_type_, optional): _description_. Defaults to None.reduce (_type_, optional): _description_. Defaults to None.reduction (str, optional): _description_. Defaults to mean.def __init__(self,gamma2,alphaNone,weight: Optional[torch.Tensor] None,size_averageNone,reduceNone,reduction: str mean,pos_weight: Optional[torch.Tensor] None,):super(FocalBCEWithLogitLoss, self).__init__(size_average, reduce, reduction)self.gamma gamma# a number for all, or a Tensor with the same num_classes as inputif isinstance(alpha, (list, np.ndarray)):self.alpha torch.Tensor(alpha)else:self.alpha alphaself.register_buffer(weight, weight)self.register_buffer(pos_weight, pos_weight)self.weight: Optional[torch.Tensor]self.pos_weight: Optional[torch.Tensor]def forward(self, input: torch.Tensor, target: torch.Tensor):if self.alpha is not None:if isinstance(self.alpha, torch.Tensor):alpha_t self.alpha.repeat(input.shape[0], 1)else:alpha_t torch.ones_like(input) * self.alphaelse:alpha_t None# 二元交叉熵ce F.binary_cross_entropy_with_logits(input, target, reductionnone)# pt torch.exp(-ce)# modulator ((1 - pt) ** self.gamma)# following authors repo https://github.com/richardaecn/class-balanced-loss/blob/master/src/cifar_main.py#L226-L266# explaination https://github.com/richardaecn/class-balanced-loss/issues/1# A numerically stable implementation of modulator.if self.gamma 0.0:modulator 1.0else:# e^(-gamma*target*input - gamma*log(1e^(-input)))modulator torch.exp(-self.gamma * target * input - self.gamma * torch.log1p(torch.exp(-input)))# focal lossfl_loss modulator * ce# alphaif alpha_t is not None:alpha_t alpha_t * target (1 - alpha_t) * (1 - target)fl_loss alpha_t * fl_loss# pos weightif self.pos_weight is not None:fl_loss self.pos_weight * fl_loss# reductionif self.reduction mean:return fl_loss.mean()elif self.reduction sum:return fl_loss.sum()else:return fl_lossC B f o c a l ( p i , y i ) − 1 − β 1 − β n i ( 1 − p y i ) γ l o g ( p y i ) w i t h p y i { p i , if  y i 1 1 − p i , otherwise. CB_{focal}(p_i,y_i)-\frac{1-\beta}{1-\beta^{n_i}}(1-p_{y_i})^{\gamma}log(p_{y_i}) \\ with \ p_{y_i} \left\{ \begin{array}{ll} p_i, \text{if } y_i 1 \\ 1-p_i, \text{otherwise.} \end{array} \right. CBfocal​(pi​,yi​)−1−βni​1−β​(1−pyi​​)γlog(pyi​​)with pyi​​{pi​,1−pi​,​if yi​1otherwise.​ 原始版本的代码 def focal_loss(labels, logits, alpha, gamma):Compute the focal loss between logits and the ground truth labels.Focal loss -alpha_t * (1-pt)^gamma * log(pt)where pt is the probability of being classified to the true class.pt p (if true class), otherwise pt 1 - p. p sigmoid(logit).Args:labels: A float32 tensor of size [batch, num_classes].logits: A float32 tensor of size [batch, num_classes].alpha: A float32 tensor of size [batch_size]specifying per-example weight for balanced cross entropy.gamma: A float32 scalar modulating loss from hard and easy examples.Returns:focal_loss: A float32 scalar representing normalized total loss.with tf.name_scope(focal_loss):logits tf.cast(logits, dtypetf.float32)cross_entropy tf.nn.sigmoid_cross_entropy_with_logits(labelslabels, logitslogits)# positive_label_mask tf.equal(labels, 1.0)# probs tf.sigmoid(logits)# probs_gt tf.where(positive_label_mask, probs, 1.0 - probs)# # With gamma 1, the implementation could produce NaN during back prop.# modulator tf.pow(1.0 - probs_gt, gamma)# A numerically stable implementation of modulator.if gamma 0.0:modulator 1.0else:modulator tf.exp(-gamma * labels * logits - gamma * tf.log1p(tf.exp(-1.0 * logits)))loss modulator * cross_entropyweighted_loss alpha * lossfocal_loss tf.reduce_sum(weighted_loss)# Normalize by the total number of positive samples.focal_loss / tf.reduce_sum(labels)return focal_lossReference https://zhuanlan.zhihu.com/p/266023273https://github.com/nizhf/hoi-prediction-gaze-transformerhttps://github.com/richardaecn/class-balanced-loss/blob/master/src/cifar_main.py#L226-L266
http://www.w-s-a.com/news/289851/

相关文章:

  • 网站建设预算计算方法什么是网络营销战略?网络营销战略有哪些基本类型
  • 无锡做网站公司多少钱网站备案方法
  • 建设网站最强做网站哪一家公司好
  • 漫画风格网站人物介绍网页模板html
  • 贵阳市住房和城乡建设局政务网站大连 网站开发
  • 漳州市住房建设局网站网站一般多长
  • 国外做网站推广小程序制作二维码签到
  • 做网站需要域名网站建设诚信服务
  • 做物品租赁网站网站建设的完整流程
  • 响应式企业网站开发所用的平台西安知名网站推广
  • 高端响应式网站建设wordpress 全屏主题
  • 国内工程机械行业网站建设现状ui是什么意思
  • 成都网站开发哪家公司好出售家教网站模板
  • 订阅号做流量 那些电影如何链接网站温州市建设监理协会网站
  • 成都网站建设成功案例单招网商丘网站建设大全
  • 受欢迎的购物网站建设网推专员是做什么的
  • 商城网站前期准备湖南郴州建设局网站
  • 企业如何在自己的网站上做宣传外贸自建站可以自己做网站吗
  • 甘肃网站建设制作商网站空间哪家公司的好
  • 思途旅游网站建设系统用vscode做网站
  • 广州站改造最新消息半年工作总结ppt模板
  • logo模板下载网站推荐哪家网站开发培训好
  • 做外贸网站效果图页面关键词优化
  • 广平网站建设成都活动轨迹
  • 小型网站网站建设需要网络公司是什么行业
  • 滑动 手机网站 代码网页制作与设计讨论
  • 自己做网站处理图片用什么软件wordpress html5支持
  • 校园网站怎么建软文文案范文
  • 中国建设官方网站如何创建自己的软件
  • 来宾住房与城乡建设网站天津西青区怎么样