当前位置: 首页 > news >正文

博客网站开发源代码优质网站建设是哪家

博客网站开发源代码,优质网站建设是哪家,做英文行程的网站,网站策划做啥文章目录 ReLU函数求导函数和导函数图像优缺点pytorch 中的 ReLU 函数tensorflow 中的ReLU函数 ReLU 修正线性单元 #xff08;Rectified Linear Unit#xff09; 函数求导 ReLU函数 ReLU ⁡ max ⁡ ( 0 , x ) { x x ≥ 0 0 x 0 \begin{aligned} \operatorname{ReL… 文章目录 ReLU函数求导函数和导函数图像优缺点pytorch 中的 ReLU 函数tensorflow 中的ReLU函数 ReLU 修正线性单元 Rectified Linear Unit 函数求导 ReLU函数 ReLU ⁡ max ⁡ ( 0 , x ) { x x ≥ 0 0 x 0 \begin{aligned} \operatorname{ReLU} \max (0, \mathrm{x}) \\ \begin{cases}x x \geq 0 \\ 0 x0\end{cases} \end{aligned} ReLU​max(0,x){x0​x≥0x0​​ ReLU函数求导 d d x R e L U { 1 x ≥ 1 0 x 0 \frac{d}{dx} \rm ReLU \left\{ \begin{array}{} 1 \quad x \ge1 \\ 0 \quad x 0 \end{array} \right. dxd​ReLU{1x≥10x0​ ReLU 函数的导数计算简单x 大于等于零的时候导数值恒为 1在反向传播 过程中它既不会放大梯度造成梯度爆炸(Gradient exploding)现象也不会缩小梯度造 成梯度弥散(Gradient vanishing)现象 函数和导函数图像 画图 import pandas as pd import numpy as np from matplotlib import pyplot as pltdef relu(x):return np.maximum(0,x) def relu_derivative(x):d np.array(x, copyTrue) # 用于保存梯度的张量d[x 0] 0 # 元素为负的导数为 0d[x 0] 1 # 元素为正的导数为 1return dx np.linspace(-2,2,1000) y [relu(i) for i in x] y1 [relu_derivative(i) for i in x]plt.figure(figsize(12,8)) ax plt.gca() plt.plot(x,y,labelReLU) plt.plot(x,y1,labelDerivative) plt.title(ReLU and Partial Derivative)#设置上边和右边无边框 ax.spines[right].set_color(none) ax.spines[top].set_color(none) #设置x坐标刻度数字或名称的位置 ax.xaxis.set_ticks_position(bottom) #设置边框位置 ax.spines[bottom].set_position((data, 0)) ax.yaxis.set_ticks_position(left) ax.spines[left].set_position((data,0))plt.legend(loc 6) 在 ReLU 函数被广泛应用之前神经网络中激活函数采用 Sigmoid 居多但是 Sigmoid 函数容易出现梯度弥散现象当网络的层数增加后较前层的参数由于梯度值非常微小 参数长时间得不到有效更新无法训练较深层的神经网络导致神经网络的研究一直停留 在浅层。随着 ReLU 函数的提出很好地缓解了梯度弥散的现象神经网络的层数能够地 达到较深层数如 AlexNet 中采用了 ReLU 激活函数层数达到了 8 层后续提出的上百 层的卷积神经网络也多是采用 ReLU 激活函数。 优缺点 Relu 函数优点 当输入为正时ReLU 的导数为 1能够完整传递梯度不存在梯度消失问题梯度饱和问题。计算速度快。ReLU 函数中只存在线性关系且无论是函数还是其导数都不包含复杂的数学运算因此它的计算速度比 Sigmoid 和 Tanh 更快。当输入大于 0 时梯度为 1能够有效避免链式求导法则中梯度逐层相乘引起的梯度消失和梯度爆炸。当输入为正时梯度不为零从而允许基于梯度的学习尽管在 x0导数是未定义的。当输入为负时ReLU 的学习速度可能会变得很慢甚至使神经元直接失效因为此时输入小于零且梯度为零。 Relu 函数 缺点 当 ReLU 的输入为负时输出始终为 0其一阶导数也始终为 0这会导致神经元不能更新参数也就是神经元停止学习了这种现象叫做“Dead Neuron”。为了解决 ReLU 函数的这个缺点可以在 ReLU 函数的负半区间引入一个泄露Leaky值这种改进称为 Leaky ReLU 函数。与 Sigmoid 一样ReLU 的输出不是以 0 为中心的ReLU 的输出为 0 或正数。ReLU 在输入小于 0 时梯度为零这可能导致某些神经元永远被抑制最终造成特征学习不充分这是典型的 Dead ReLU 问题因此需要改进随机初始化避免将过多的负数特征送入 ReLU。 pytorch 中的 ReLU 函数 代码 import torchf torch.nn.ReLU() x torch.randn(2)relu_x f(x)print(fx: \n{x}) print(frelu_x:\n{relu_x})输出 x: tensor([ 0.5781, -0.4898]) relu_x: tensor([0.5781, 0.0000])注意看随机生成的 tensor 中小于 0 的经过 relu 被抑制成为 0 tensorflow 中的ReLU函数 代码 python: 3.10.9 tensorflow: 2.18.0 import tensorflow as tff tf.nn.relu x tf.random.normal([2])relu_x f(x)print(fx: \n{x}) print(frelu_x:\n{relu_x})输出 x: [ 1.5739431 -0.5497837] relu_x: [1.5739431 0. ]
http://www.w-s-a.com/news/164695/

相关文章:

  • 南山住房和建设局网站网站被k 多久恢复
  • 阿里买域名 电脑做网站做简历哪个网站好
  • 个人网站免费服务器单页网站的域名
  • 网站设计简单讲解小店怎么做网站
  • 校园网站的意义wordpress去除更新
  • 网站开发用python吗常用的网页开发工具有哪些
  • 北京市住房建设投资建设网站做商城网站要哪些流程
  • seo网站改版杭州建设局官网
  • 物流网站建设策划书泰然建设网站
  • 百度做网站的费用采集发布wordpress
  • 网站运维公司有哪些防录屏网站怎么做
  • 昆明做网站seo的网站制作专业
  • 聊城制作手机网站公司wordpress 头条
  • 商城微网站模板一般电商网站做集群
  • winserver2008上用iis发布网站嵊州网站制作
  • 网站内页权重怎么查辽宁建设工程信息网怎么上传业绩
  • 丰都网站建设价格镇江网站制作费用
  • app手机网站建设黄网站建设定制开发服务
  • 百度网盘app下载徐州优化网站建设
  • 附近网站电脑培训班展台设计方案介绍
  • 河南便宜网站建设价格低上海高端室内设计
  • 保险网站有哪些平台wordpress会员vip购买扩展
  • 网站怎么做图片转换广州车陂网站建设公司
  • 下载flash网站网站设计书的结构
  • 水利建设公共服务平台网站放心网络营销定制
  • 设计网站过程wordpress+分页静态
  • 临海网站制作好了如何上线如果安装wordpress
  • 长沙 学校网站建设网站制作价格上海
  • 九江网站推广徽hyhyk1国家住房部和城乡建设部 网站首页
  • 阿克苏网站建设咨询动漫设计与制作属于什么大类