当前位置: 首页 > news >正文

免费的建设网站软件怎么删除安装wordpress

免费的建设网站软件,怎么删除安装wordpress,西安今天紧急通知最新,网站源码怎么打开四、tensor常见操作 1、元素值 1.1、获取元素值 tensor.item() 返回tensor的元素#xff1b;只能在一个元素值使用#xff0c;多个报错#xff0c;当存在多个元素值时需要使用索引进行获取到一个元素值时在使用 item。 1.2、元素值运算 tensor对元素值的运算#xff1a;…四、tensor常见操作 1、元素值 1.1、获取元素值 tensor.item() 返回tensor的元素只能在一个元素值使用多个报错当存在多个元素值时需要使用索引进行获取到一个元素值时在使用 item。 1.2、元素值运算 tensor对元素值的运算加、减、乘、除、取余、取整、幂 加减乘除加法、add、add_减法-、sub、sub_乘法*、mul、mul_除法/、div、div_ 取整、取余、幂取整//、取余%与python 列表操作一致每个元素都进行单独运算。 # 运算 加减乘除 # 带_的方法基本上都是修改原数据 import torch torch.manual_seed(666) # 设置随机种子 data1 torch.randint(1,10,(3,3)) data2 torch.randint(1,10,(3,3))# 加法 print() x1 data1100 print(x1) x1 data1.add(100) print(x1) data2.add_(200) print(data2)# 减法 print(----------) x1 data1-100 print(x1) x1 data1.sub(100) print(x1) data2.sub_(200) print(data2)# 乘法 print(**********) x1 data1*100 print(x1) x1 data1.mul(100) print(x1) data2.mul_(200) print(data2)# 除法 print(/) x1 data1/100 print(x1) data2 data2.type(torch.float16) # 原数据为整数需要转为浮点数 x1 data1.div(100) print(x1) data2.div_(200) print(data2) 2、阿达玛积 .dot 点积、* 乘法 、mul 、mm、matmul、 直接相乘或mul方法都是元素对于位置相乘形状相同或者一个为标量 tensor相乘data1.dot(data2) 点积用于一阶张量 data1.mm(data2) 用于二阶张量 data1data2、data1.matmul(data2) 用于一阶及以上张量 import torch# 相乘 * mul() x torch.tensor([[1,2],[3,4]]) y torch.tensor([[11,22],[33,44]]) x1 x*y print(x1) x2 x.mul(y) print(x2)# dot matmul x torch.tensor([1,2]) y torch.tensor([11,22]) x3 x.dot(y) print(x3) x3 x.matmul(y) print(x3) x4 xy print(x4)# matmul mm x torch.tensor([[1,2],[3,4]]) y torch.tensor([[11,22],[33,44]]) x4 x(y) print(x4) x5 x.matmul(y) print(x5) x6 x.mm(y) print(x6)3、索引操作 3.1、下标索引 和列表操作一样根据元素下标获取对应元素 import torch torch.manual_seed(666) x torch.randint(1,10,(2,3,3)) print(x) print(x[1]) print(x[1,2]) print(x[1,2,2]) print(x[1,2,2].item()) 3.2、切片索引 与列表操作一致 import torch torch.manual_seed(666) x torch.randint(1,10,(2,3,3)) print(x[:5]) # 下标超出索引界限并不会报错给出全部数据 print(x[:2,2]) print(x[:2,2:3]) print(x[:2,2:3,1]) print(x[:2,2:3,1:2]) print(x[:2,2:3,1:2][1]) print(x[:2,2:3,1:2][1].item()) 3.3、布尔索引 根据得到True返回对应位置的元素单独索引列时将该列数据变成一维布尔值结果根据结果True的下标再去原函数获取对应数据 import torch torch.manual_seed(666) x torch.randint(1,10,(5,5)) print(x) print(x[x1]) print(x[x5]) 3.4、组合索引 将前面三种索引方式组合使用 多个下标索引 下标索引使用列表时分别取对于数据的多行或多列 x[[1,2]] 取第二行和第三行的所有列 x[,[1,2]] 取所有行的第二列和第三列; 当原数据的行和列都是列表形式时数据一一对应也就是从前往后是 1对11对nn对1n对n,不能n对m 错误x[[0,1],[0,1,2]] 正确应该是x[1,[0,1]] 表示第二行的第一列和第二列x[[0,1],1] 表示第一行和第二行的第二列x[[0,1],[0,1]] 表示第一行的第一列和第二行的第二列数据 多个切片索引维度保持不变,x[:2,:2]表示行取0-1列取0-1的数据 布尔索引和切片索引x[x[1]1, :2]:将x中第二行等于1的数据下标返回作为行下标索引切0-1列数据 import torch torch.manual_seed(15) x torch.randint(2000,3000,(5,5)) print(x) x1 x[(x[:,0]%20) (x[:,1]%21) (x[:,2]%40) (x[:,2]%100!0),3:5] print(x1) 4、拼接 cat 和 stack dim 表示维度 torch.cat([tensor1,tnsor2],dim 0):将tensor1和ensor2拼接dim0表示按照行第一维度拼接添加行列不变dim1表示按照列拼接行不变;dim3表示行列格式不变将元素加维。 import torch torch.manual_seed(666) x torch.randint(1,10,(2,2,2)) y torch.randint(10,20,(2,2,2)) print(x) print(y) z torch.cat([x,y],dim 0) print(z) z torch.cat([x,y],dim 1) print(z) z torch.cat([x,y],dim 2) print(z)torch.stack([tensor1,tensor2],dim0):表示将tensor1和tensor2连接;dim0表示将两个整体放入列表的第一个元素和第二个元素的方式连接dim1表示扩展维度后将两个tensor的行下标相同作为同一列的不同行dim2表示将原本同一行的数据变成同一列不同行相当于把第一个列拆分放入下面最接近的行将第二个同样位置放入第二列扩展维度后两个tensor的对应位置元素相同作为同一行的不同列 import torch torch.manual_seed(666) x torch.randint(1,10,(2,2)) y torch.randint(10,20,(2,2)) print(x) print(y) z torch.stack([x,y],dim 0) print(z) z1 torch.stack([x,y],dim 1) print(z1) z2 torch.stack([x,y],dim 2) print(z2) 5、形状操作 5.1、形状重组 reshape(size)、view(size) reshape(size):与数组一致改变tensor形状 import torch # reshape data torch.randint(0, 10, (4, 3)) print(data) # 1. 使用reshape改变形状 data1 data.reshape(2, 2, 3) print(data1)# 2. 使用-1表示自动计算 data2 data.reshape(2, -1) print(data2) view(size):将内存连续的tensor形状改变返回新的内存连续tensorreshape内存不连续 import torchtensor torch.tensor([[1, 2, 3], [4, 5, 6]])# 使用view进行变形操作 tensor tensor.view(2, -1) print(tensor)# 再次使用view操作 try:tensor tensor.view(3, -1)print(可以使用view) except:print(不可以使用view)# 进行转置 tensor tensor.t() print(tensor)# 转置后使用view操作 try:tensor.view(3, -1)print(可以使用view) except:print(不可以使用view)5.2、维度元素个数交换 transpose(下标)、permute(下标) transpose(维度下标):将两个指定的维度交换 import torch# transpose x torch.tensor([[[1, 2, 3], [4, 5, 6]],[[11, 22, 33], [44, 55, 66]]]) print(x,x.shape) x1 x.transpose(1,0) # 在不改变其他维度下进行了转置 print(x1,x1.shape)permute(维度下标)多个下标根据设置的顺序重新排列维度元素 import torch# permute torch.manual_seed(666) x torch.randint(0,255,(2,3,4)) print(x,x.shape) x2 x.permute(2,0,1) print(x2,x2.shape) x3 x.permute(2,1,0) print(x3,x3.shape) 5.3、维度展开 flatten(start_dim,end_dim) flatten(start_dim,end_dim)默认从0到-1所有维度都展开为一维从start_dim维度开始到end_dim-1维度结束展开 import torchx torch.randint(0,255,(2,3,2)) print(x) x1 x.flatten() print(x1) x2 x.flatten(start_dim0,end_dim1) print(x2) 5.4、降维和升维 squeeze()和unsqueeze() squeeze:无参数默认将自动将所有元素个数为1的维度展开参数为整数表示维度下标 import torchimport torch # 升维和降维 x torch.randint(0,255,(1,3,4,1)) print(x.shape) # torch.Size([1, 3, 4, 1])# 元素个数为1的全部降维 x1 x.squeeze() print(x1.shape) # torch.Size([3, 4])# 第一个维度释放 x11 x.squeeze(0) # torch.Size([3, 4, 1]) print(x11.shape)# 释放第二个维度操作失败因为有多个元素 x11 x.squeeze(1) # torch.Size([1, 3, 4, 1]) print(x11.shape)# 升维度必须填写参数 x2 x.unsqueeze(0) # torch.Size([1, 1, 3, 4, 1]) print(x2.shape)x2 x.unsqueeze(2) # torch.Size([1, 3, 1, 4, 1]) print(x2.shape) 6、分割 chunk 和 split参数都为tensor,num,dim chunk 控制分割结果多少 split 控制分割数量大小 torch.chunk(x, 3,dim0)参数1为tnsor对象参数2为分割成多少个结果不够数量则值保留原大小比如5个内容分为3份(221)2个内容分两份(11)参数3为dim指定维度分隔 torch.split(x, 3,dim0)参数1为tnsor对象参数2为分割数量大小不够数量则值保留原大小比如设置值为3在原说内容切割3个内容分块不够数量就只有一块参数3为dim指定维度分隔 import torchx torch.tensor([[1, 2], [4, 5], [7, 8], [10, 11], [13, 14]]) # 分割成3块 print(torch.chunk(x, 3,dim0)) print(torch.chunk(x, 3,dim1))# 按照每块大小为4进行分割 print(torch.split(x, 4,dim0)) print(torch.split(x, 4,dim1)) 7、广播 两个tensor 直接加法或减法运算时在某个维度的元素个数相等某个tensor维度元素个数全是1全部维度元素个数相等 若全部相等直接对应元素计算 若某个维度相等某个tenser其余维度元素个数全是1将其广播到另一个tensor维度个数大小复制1那个内容数据在进行计算 若某个tensoru维度元素个数全为1则广播值对应tensor维度个数 import torch# 某些维度相等剩下维度个数为1 data1d torch.tensor([[[1,1,1,1]],[[1,1,1,1]]]) data2d torch.tensor([[[11,11,11,11], [22,22,22,22]],[[11,11,11,11], [22,22,22,22]]]) print(data1d.shape, data2d.shape) # 进行计算会自动进行广播机制 print(data1d data2d)# 某些维度相等剩下维度个数为1 data1d torch.tensor([[[1,1,1,1]]]) data2d torch.tensor([[[11,11,11,11], [22,22,22,22]],[[11,11,11,11], [22,22,22,22]]]) print(data1d.shape, data2d.shape) # 进行计算会自动进行广播机制 print(data1d data2d)# 一个rensor维度个数全为1 data1d torch.tensor([[1]]) data2d torch.tensor([[[11,11,11,11], [22,22,22,22]],[[11,11,11,11], [22,22,22,22]]]) print(data1d.shape, data2d.shape) # 进行计算会自动进行广播机制 print(data1d data2d) 8、数据的函数运算 floor向左取值ceil向右取值round四舍五入trunc保留整数frac保留小数fix向零方向取整数abs取绝对值取余%-3%2 结果为 1 import torch data torch.tensor([[1,2,-3.5],[4,5.1,6.5],[7.3,8,9.5],[10,11.8,-12.5]] ) print(data)x1 torch.floor(data) # 向左取值 print(x1)x1 torch.ceil(data) # 向右取值 print(x1)# 使用python的round()函数 # 四舍六入五看整数位数的奇偶性奇进偶不进 x1 torch.round(data) # 使用python的round()函数 print(x1)x1 torch.trunc(data) # 只保留整数部分 print(x1)x1 torch.frac(data) # 只保留小数部分 print(x1)x1 torch.fix(data) # 向零方向保留整数整数操作floor负数操作ceil print(x1)x1 data%2 # 取余 整数减负数加 print(x1)x1 torch.abs(data) # 取绝对值 print(x1) 9、张量保存与加载 save 和  load  import torch x torch.tensor([1, 2 ,3])# save 保存到本地 torch.save(x, ../../data/tengsor_save.pt)# load 加载本地保存文件 x torch.load(../../data/tengsor_save.pt,torch.device(cuda) ) print(x.device) 10、并行化 get_num_threads 查看set_num_threads 设置 线程数设置过高可能会导致线程竞争反而降低性能设置过低可能会导致计算资源未得到充分利用当使用 GPU 进行计算时线程数设置对性能影响较小因为 GPU 计算并不依赖于 CPU 线程数 import torch print(torch.get_num_threads())torch.set_num_threads(4) print(torch.get_num_threads())
http://www.w-s-a.com/news/283647/

相关文章:

  • 公司主页的网站格式wordpress自动推送给百度
  • 网站建设辶金手指排名十二wordpress 当数据库
  • 无锡手机网站建设服务苏州展厅设计企业
  • 无锡网站制作需要多少钱北京二次感染最新消息
  • 网站开发视频播放无画面杭州房产信息网官网
  • 网站开发 改进如何创建公众号平台
  • wordpress网站响应很慢只有asp网站代码可以重新编译吗
  • 哪个网站教做饭做的好wordpress热点文章
  • 可以做推广东西的网站重庆网站建设 重庆网站制作
  • 珠海网站建设培训学校wordpress去版权 合法
  • 建设食品商购网站学校网站设计实验报告
  • 建个网站多少钱沭阳奥体小区做网站的
  • 广州视频网站建站公司php网页设计作业代码
  • 成都公司网站设计如何制作网址最简单的方法
  • 温州 做网站福建住房城乡建设部网站
  • 网站自动化采集成都网站设计费用
  • 广东专业网站定制建设淘宝网站的人员组织结构
  • 网站改版seo无锡有多少家公司
  • h5美食制作网站模板下载wordpress大学百度云
  • 零陵做网站建立网站的公司平台
  • 某企业电子商务网站建设网站开发实验结论
  • 自己做的网站突然打不开杭州哪些做网站公司好
  • 株洲专业建设网站免费cms内容管理系统
  • 网上建立网站赚钱网站建设方案书纯文字
  • 专业网站设计哪家好it外包合同模板
  • 个人网站备案都需要什么中小企业服务网
  • 佛山网站建设哪个在公司网站投简历该怎么做
  • 八戒网站做推广老域名全部失效请拿笔记好
  • iss服务器网站建设甘肃建设厅网站执业注册中心
  • 域名访问网站 过程网站 免费 托管运营