当前位置: 首页 > news >正文

信息门户网站建设万网站

信息门户网站建设,万网站,中国建设银行安徽省分行招聘网站,百色网站建设nn.XXX与F.XXX PyTorch中torch.nn**#xff08;以下简写为nn#xff09;中的模块和torch.nn.functional#xff08;以下简写为F#xff09;**中的模块都提供了常用的神经网络操作#xff0c;包括激活函数、损失函数、池化操作等。它们的主要区别如下#xff1a; nn中的…nn.XXX与F.XXX PyTorch中torch.nn**以下简写为nn中的模块和torch.nn.functional以下简写为F**中的模块都提供了常用的神经网络操作包括激活函数、损失函数、池化操作等。它们的主要区别如下 nn中的模块是以类形式存在的F中的模块是以函数形式存在的nn中的模块是nn.Module的子类包含可学习参数、可导在反向传播中可以计算梯度可以在模型中作为子模块使用F中的模块是纯函数没有与之相关联的可学习参数虽然也可以用于反向传播但是其梯度需要手动计算nn中的模块需要实例化后将张量作为实例的调用参数F中的模块直接传递张量作为参数nn中的模块可以管理和访问模块的内部参数和状态F中的函数是纯函数没有与之相关联的参数或状态因此无法直接管理和访问函数的内部状态 nn.Relu与F.relu() 以激活函数ReLu为例在使用激活函数时有以下两种方式可以使用 # 方法一 nn.ReLU() # 方法二 F.relu(input)这两种方法都是使用ReLu激活但使用的场景不一样。 nn.ReLU是一个类必须实例化后才能使用一般在定义网络层的时候使用 # nn.ReLU的常用方法 nn.Sequential(nn.Conv2d(in_channels, out_channels),nn.ReLU(inplaceTrue))F.relu()是函数调用一般使用在foreward()函数中 nn.ReLU只能处理Variable类型的张量而F.relu()可以处理Tensor和Variable类型的张量 nn.ReLU需要额外占用内存用来存储中间结果而F.relu()则是直接在原张量上进行操作不需要额外的内存占用 另外 当用print()打印输出神经网络时会输出nn.ReLU()层而F.relu()是没有输出的
http://www.w-s-a.com/news/943691/

相关文章:

  • 自己做网站商城需要营业执照吗老外做牛排的视频网站
  • 网站推广效果的评估指标主要包括公司广告推广
  • 昆明网站建设那家好哪个网站学做凉皮
  • hype做网站动效哪里有给网站做
  • 打扑克网站推广软件设计类专业哪个最好
  • 网站设计首页网站建设意向书
  • 做网站要学那些angularjs后台管理系统网站
  • 广州白云手机网站建设学做点心上哪个网站
  • 哈尔滨网站建设步骤百度青岛代理公司
  • 怎么利用代码做网站军队 网站备案
  • 百度手机版网址免费广州seo
  • 军博做网站公司wordpress评论插件
  • 如何申请一个网站 做视频网站报错解析
  • 徐州高端网站建设无锡找做网站
  • 网站如何不需要备案百度的宣传视频广告
  • 如何用易语言做网站采购系统有哪些
  • 建一个网站容易吗浙江省城乡建设厅官网
  • 奇点网站建设黄骅贴吧百度贴吧
  • 站长爱it如何分析网站设计
  • 服装公司网站定位seo网站关键词
  • 电商网站开发流程文档南京 seo 价格
  • 网站建设任务分解张家港网站制作服务
  • 化州+网站建设网络营销怎么做推广
  • 贵阳网站设计方案阿里云 wordpress 数据库
  • 如何做购物返佣金网站高校 网站建设实施方案
  • 网站如何连接微信支付网页制作与网站开发
  • 地名网站建设方案营销型网站策划书
  • 网站优化排名查询网站图片怎么做的高级
  • 官方网站建设调研报告小程序短链接生成
  • 专做耐克阿迪鞋网站免费微信网站模板下载