当前位置: 首页 > news >正文

廊坊建站网站建设网络公司

廊坊建站,网站建设网络公司,html网站简易模板,桂林象鼻山附近酒店推荐目录 一、数据操作 1. N维数组样例 2. 访问元素 3. 基础函数 #xff08;1#xff09; 创建一个行向量 #xff08;2#xff09;通过张量的shape属性来访问张量的形状和元素总数 #xff08;3#xff09;reshape()函数 #xff08;4#xff09;创建全0、全1、… 目录 一、数据操作 1. N维数组样例  2. 访问元素 3. 基础函数 1 创建一个行向量 2通过张量的shape属性来访问张量的形状和元素总数 3reshape()函数 4创建全0、全1、其他常量或从特定分布中随机采样的数字组成的张量 5标准运算张量间的标准运算都是按元素运算 6拼接函数cat 7求和函数sum 8矩阵的转置 9复制张量 10点积矩阵-向量积和矩阵乘法 11范数 4.广播机制 5.转化为Numpy张量 课程推荐跟李沐学AI的个人空间-跟李沐学AI个人主页-哔哩哔哩视频 一、数据操作 1. N维数组样例  10-d 标量 1.0 21-d 向量 [1.0, 2.7, 3.4] 32-d 矩阵 [[1.0, 2.7, 3.4][5.0, 0.2, 4.6][4.3, 8.5, 0.2]] 43-d RGB图片CxHxW [[[1.0,2.7,3.4][5.0,0.2,4.6][4.3,8.5,0.2]][[3.2, 5.7, 3.4][5.4, 6.2, 3.2][4.1, 3.5, 6.2]]] 54-d 一个RGB图片批量BxCxHxW 65-d 一个视频批量TxBxCxHxW 2. 访问元素 切片规则[start : end : step] start : 起始索引从0开始-1表示结束。 end结束索引不包含。 step步长即范围内每次取值的间隔步长为正时从左向右取值。步长为负时反向取值。 1访问一个元素 [1, 2] x torch.arange(1, 17).reshape(4, 4)x[1, 2] tensor(7) 2访问一行 [1,:] x[1,:] tensor([5, 6, 7, 8]) 3访问一列 [:,1] x[:,1] tensor([ 2, 6, 10, 14]) 4子区域 [1:3,1:] x[1:3,1:] tensor([[ 6, 7, 8],[10, 11, 12]]) [::3,::2] x[::3,::2] tensor([[ 1, 3],[13, 15]]) 3. 基础函数 1 创建一个行向量 x torch.arange(12) x #tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]) 2通过张量的shape属性来访问张量的形状和元素总数 x.shape # torch.Size([12]) x.size() # torch.Size([12]) 3reshape()函数 改变一个张量的形状 。 X x.reshape(3,4) X # tensor([[ 0, 1, 2, 3], # [ 4, 5, 6, 7], # [ 8, 9, 10, 11]]) 4创建全0、全1、其他常量或从特定分布中随机采样的数字组成的张量 全0 第一个参数为张量的shape。 torch.zeros((2,3,4)) # tensor([[[0., 0., 0., 0.], # [0., 0., 0., 0.], # [0., 0., 0., 0.]],# [[0., 0., 0., 0.], # [0., 0., 0., 0.], # [0., 0., 0., 0.]]])全1 torch.ones((1,3,4)) # tensor([[[1., 1., 1., 1.], # [1., 1., 1., 1.], # [1., 1., 1., 1.]]])其他常量指定值 torch.tensor([[1,2],[2,1]]) # tensor([[1, 2], # [2, 1]]) 5标准运算张量间的标准运算都是按元素运算 x torch.tensor([1.0, 2, 3, 4]) y torch.tensor([5, 6, 7, 8]) xy,x-y,x*y,x/y,x**y # (tensor([ 6., 8., 10., 12.]), tensor([-4., -4., -4., -4.]), tensor([ 5., 12., 21., 32.]), tensor([0.2000, 0.3333, 0.4286, 0.5000]), tensor([1.0000e00, 6.4000e01, 2.1870e03, 6.5536e04]))比较运算符按位比较 x y # tensor([False, False, False, False]) * 按位相乘称为哈达玛乘数学符号。 A torch.arange(9).reshape(3,3)A tensor([[0, 1, 2],[3, 4, 5],[6, 7, 8]])B torch.arange(9,18).reshape(3,3)B tensor([[ 9, 10, 11],[12, 13, 14],[15, 16, 17]])A * B tensor([[ 0, 10, 22],[ 36, 52, 70],[ 90, 112, 136]]) 6拼接函数cat torch.cat(inputs, dim?) inputs : 待连接的张量序列可以是任意相同Tensor类型的python 序列dim : 选择的扩维, 必须在0到len(inputs[0])之间沿着此维连接张量序列。 dim0表示按第0维方向拼接即按行方向拼接dim1表示按第0维方向拼接即按列方向拼接dim3……  y torch.tensor(([[4, 1],[3, 5]])) x torch.arange(4, dtypetorch.float32).reshape(2, 2) torch.cat((x, y), dim0) # tensor([[0., 1.], # [2., 3.], # [4., 1.], # [3., 5.]])torch.cat((x, y), dim1) # tensor([[0., 1., 4., 1.], # [2., 3., 3., 5.]])7求和函数sum 参数1axis指定求和维度张量按该维度求和并将该维度消去。 如张量形状为[2, 5, 4]axis0时求和后张量形状为[5, 4]。 参数2keepdims默认为False是否保留axis要消去的维度。keepdimsTrue时将要消去的维度长度置为1。 如张量形状为[2, 5, 4]axis0keepdimsTrue时求和后张量形状为[1,5, 4]。 1张量中的所有元素求和 x torch.tensor([1.0, 2, 3, 4]) x.sum() # tensor(10.) 2按行第0维求和 A torch.arange(9).reshape(3,3)A tensor([[0, 1, 2],[3, 4, 5],[6, 7, 8]]) A.sum(axis0) tensor([ 9, 12, 15]) 3按列第1维求和  A.sum(axis1) tensor([ 3, 12, 21]) 2维求和3维…… 4keepdims保留维度 按某一维度求和时保留该维度该维度长度置为1。 A tensor([[0, 1, 2],[3, 4, 5],[6, 7, 8]]) A.sum(axis1).size() torch.Size([3]) A.sum(axis1,keepdimsTrue).size() torch.Size([3, 1]) A.sum(axis1,keepdimsTrue) tensor([[ 3],[12],[21]])# 按列求均值A/A.sum(axis1,keepdimsTrue) tensor([[0.0000, 0.3333, 0.6667],[0.2500, 0.3333, 0.4167],[0.2857, 0.3333, 0.3810]]) 5指定多维度求和 A.sum(axis[n, m])按n和m维度求和求和结果中其他维度不变将nm维度消去。 A torch.arange(8).reshape(2,2,2)A tensor([[[0, 1],[2, 3]],[[4, 5],[6, 7]]])# 保留第1维度A.sum(axis[0,2]).size() torch.Size([2])# 使用keepdims保留要消去的维度将维度长度置为1A.sum(axis[0,2],keepdimsTrue).size() torch.Size([1, 2, 1])# 输出A.sum(axis[0,2]) tensor([10, 18]) 8矩阵的转置 import torchB torch.tensor(([1,2,3],[4,5,6],[7,8,9]))B tensor([[1, 2, 3],[4, 5, 6],[7, 8, 9]])B.T tensor([[1, 4, 7],[2, 5, 8],[3, 6, 9]]) 9复制张量 “”复制之后的两个张量共用一个内存地址。 A Bid(B) 1950198475976id(A) 1950198475976B[0]10B tensor([10, 2, 3, 4, 5, 6, 7, 8, 9])A tensor([10, 2, 3, 4, 5, 6, 7, 8, 9]) clone()重新分配内存地址。 AB.clone()id(A) 1950198519512id(B) 1950198475976 10点积矩阵-向量积和矩阵乘法 向量点积—dot函数1维 A torch.arange(4)A tensor([0, 1, 2, 3])B tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]])B torch.arange(4, 8)B tensor([4, 5, 6, 7])torch.dot(A, B) tensor(38) 矩阵点积2维 按位相乘求和。 A torch.arange(9).reshape(3,3)B torch.arange(9,18).reshape(3,3) torch.sum(A * B) tensor(528) 矩阵-向量积mv函数 B torch.arange(9,18).reshape(3,3)C torch.arange(3) torch.mv(B, C) tensor([32, 41, 50]) 矩阵乘法mm函数 torch.mm(A, B) tensor([[ 42, 45, 48],[150, 162, 174],[258, 279, 300]]) 11范数 L1范数 向量元素的绝对值之和。 u torch.tensor([3.0, -4.0])torch.abs(u).sum() tensor(7.) L2范数 向量元素平方和的平方根。 u torch.tensor([3.0, -4.0])torch.norm(u) tensor(5.) 弗罗贝尼乌斯-范数F-范数 矩阵元素的平方和的平方根。 torch.norm(torch.ones(4, 9)) tensor(6.) 4.广播机制 1.通过适当复制元素来扩展一个或两个数组以便在转换之后两个张量具有相同的形状。 2.对于生成的数组执行按元素操作。 y torch.arange(12).reshape(3,2,2) y # tensor([[[ 0, 1], # [ 2, 3]], # # [[ 4, 5], # [ 6, 7]],# [[ 8, 9], # [10, 11]]])x torch.tensor([[1,2],[3,4]]) x# tensor([[1, 2], # [3, 4]])x y# tensor([[[ 1, 3], # [ 3, 5]],# [[ 5, 7], # [ 7, 9]],# [[ 9, 11], # [11, 13]]]) 5.转化为Numpy张量 A x.numpy() type(A) # class numpy.ndarray
http://www.w-s-a.com/news/291251/

相关文章:

  • 旌阳移动网站建设微网站 杭州
  • 合肥网站开发如何用VS2017做网站
  • 网站 制作公司福州企业建站软件
  • 网站推广主要方法一流的盘锦网站建设
  • 给个网站好人有好报2021东莞专业网站营销
  • 中国网站优化哪家好制作网站页面
  • 网站站内优化度娘网站灯笼要咋做呢
  • 怎么制作一个简单的网站七牛云做网站
  • 厦门建网站哪家好求网站建设合伙人
  • 营销型网站制作步骤五个宁波依众网络科技有限公司
  • 外贸响应式网站建设临清建设局网站
  • 手机怎样使用域名访问网站个人做旅游网站的意义
  • 西部数码域名网站模板网站建设怎么管理业务员
  • o2o手机维修网站那个公司做的电子网站风格设计
  • 网站建设预算计算方法什么是网络营销战略?网络营销战略有哪些基本类型
  • 无锡做网站公司多少钱网站备案方法
  • 建设网站最强做网站哪一家公司好
  • 漫画风格网站人物介绍网页模板html
  • 贵阳市住房和城乡建设局政务网站大连 网站开发
  • 漳州市住房建设局网站网站一般多长
  • 国外做网站推广小程序制作二维码签到
  • 做网站需要域名网站建设诚信服务
  • 做物品租赁网站网站建设的完整流程
  • 响应式企业网站开发所用的平台西安知名网站推广
  • 高端响应式网站建设wordpress 全屏主题
  • 国内工程机械行业网站建设现状ui是什么意思
  • 成都网站开发哪家公司好出售家教网站模板
  • 订阅号做流量 那些电影如何链接网站温州市建设监理协会网站
  • 成都网站建设成功案例单招网商丘网站建设大全
  • 受欢迎的购物网站建设网推专员是做什么的