网站优化师,平面设计找图网站,上传PDF到wordpress网站,将一个网站拉入黑名单怎么做张量作为有序的序列#xff0c;也是具备数值索引的功能#xff0c;并且基本索引方法和python原生的列表、numpy中的数组基本一致。 不同的是#xff0c;pytorch中还定义了一种采用函数来进行索引的方式。 作为pytorch中的基本数据类型#xff0c;张量既具备了列表、数组的基… 张量作为有序的序列也是具备数值索引的功能并且基本索引方法和python原生的列表、numpy中的数组基本一致。 不同的是pytorch中还定义了一种采用函数来进行索引的方式。 作为pytorch中的基本数据类型张量既具备了列表、数组的基本功能同时还充当向量、矩阵等重要数据结构。因此pytorch中也设置了非常晚辈的张量合并与变换的操作。 import torch # 导入torch
import numpy as np # 导入numpy6 张量的符号索引
6.1 一维张量索引
一维张量的索引过程和python原生对象类型的索引一致基本格式遵循[start: end: step]。
t1 torch.arange(1, 11) # 创建一维张量从左到右从零开始
t1[0]
# output : tensor(1)**注**张量索引出来的结果还是零维张量而不是单独的数。 要转化成单独的数需要使用.item()方法 冒号分割表示对某个区域进行索引也就是所谓的切片
t1[1: 8] # 索引其中2-9号元素并且左闭右开
# output : tensor([2, 3, 4, 5, 6, 7, 8])第二个冒号表示索引的间隔
t1[1: 8: 2] # 第三个参数表示每两个数取一个
# output : tensor([2, 4, 6, 8])冒号前后没有值表示索引这个区域
t1[1: : 2] # 从第二个元素开始索引一致到结尾并且每隔两个取一个
# output : tensor([ 2, 4, 6, 8, 10])t1[: 8: 2] #从第一个元素开始索引到第九个元素不包含并且每隔两个数取一个
# output : tensor([1, 3, 5, 7])在张量的索引中step位必须大于0也就是说不能逆序取数。 6.2 二维张量索引
二维张量的索引逻辑和一维张量基本相同二维张量可以视为两个一维张量组合而成。
在实际的索引过程中需要用逗号进行分割表示分别对哪个一维张量进行索引、以及具体的一维张量的索引。
t2 torch.arange(1, 10).reshape(3, 3) # 创建二维张量t2[0, 1] # 表示索引第一行、第二列的元素
# output : tensor(2)t2[0, : : 2] # 表示索引第一行、每隔两个元素取一个
# output : tensor([1, 3])t2[0, [0, 2]] # 索引结果同上t2[: : 2, : : 2] # 表示每隔两行取一行、并且每一行中每隔两个元素取一个
# output :
tensor([[1, 3],[7, 9]])t2[[0, 2], 1] # 索引第一行、第三行、第二列的元素
# output : tensor([2, 8])6.3 三维张量索引
我们可以将三维张量视作矩阵组成的序列则在索引过程中拥有三个维度分别是索引矩阵索引矩阵的行、索引矩阵的列。
t3 torch.arange(1, 28).reshape(3, 3, 3) # 创建三维张量t3[1, 1, 1] # 索引第二个矩阵中第二行、第二个元素
# output : tensor(14)t3[1, : : 2, : : 2] #索引第二个矩阵行和列都是每隔两个取一个
# output :
tensor([[10, 12],[16, 18]])# 每隔两个取一个矩阵对于每个矩阵来说行和列都是每隔两个取一个
t3[: : 2, : : 2, : : 2]
# output :
tensor([[[ 1, 3],[ 7, 9]],[[19, 21],[25, 27]]])7 张量的函数索引
在pytorch中我们还可以使用index_select函数通过指定index来对张量进行索引。
t1 torch.arange(1, 11)
indices torch.tensor([1, 2])
torch.index_select(t1, 0, indices)
# output : tensor([2, 3])第二个参数dim代表索引的维度。 对于t1这个一维向量来说由于只有一个维度因此第二个参数化取值为0代表在第一个维度上进行索引。 t2 torch.arange(12).reshape(4,3)
t2
# output :
tensor([[ 0, 1, 2],[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]])
indices torch.tensor([1, 2])# dim参数取值为0代表在shape的第一个维度上索引
torch.index_select(t2, 0, indices)
# output :
tensor([[3, 4, 5],[6, 7, 8]])# dim参数取值为0代表在shape的第二个维度上索引
torch.index_select(t2, 1, indices)
# output :
tensor([[ 1, 2],[ 4, 5],[ 7, 8],[10, 11]])8 tensor.view()方法
该方法会返回一个类似视图的结果且该结果会和原张量对象共享一块数据存储空间。
通过.view()方法还可以改变对象结构生成一个不同结构、但共享一个存储空间的张量。
t torch.arange(6).reshape(2, 3)
t
# output :
tensor([[0, 1, 2],[3, 4, 5]])# 构建一个数据相同但形状不同的“视图”
te t.view(3, 2)
te
# output :
tensor([[0, 1],[2, 3],[4, 5]])当然共享一个存储空间也就代表二者是浅拷贝的关系修改其中一个另一个也会同步更改。
t[0] 1
te
# output :
tensor([[1, 1],[1, 3],[4, 5]])当然维度也可以修改
tr t.view(1, 2, 3)
tr
# output :
tensor([[[1, 1, 1],[3, 4, 5]]])视图的作用就是节省空间在接下来介绍的很多切分张量的方法中返回结果都是“视图”而不是新生成一个对象。 9 张量的分片函数
9.1 分块chunk函数
chunk函数能够按照某维度对张量进行均匀切分返回结果是原张量的视图。
t2 torch.arange(12).reshape(4, 3)
t2
# output :
tensor([[ 0, 1, 2],[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]])# 在第零个维度上按行进行四等分
tc torch.chunk(t2, 4, dim 0)
tc
# output :
(tensor([[0, 1, 2]]),tensor([[3, 4, 5]]),tensor([[6, 7, 8]]),tensor([[ 9, 10, 11]]))注chunk返回结果是一个视图不是新生成了一个对象 tc[0][0][0] 1 # 修改tc中的值
t2
# output :
tensor([[ 1, 1, 2],[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]])当原张量不能均分时chunk不会报错但会返回其他均分结果。
torch.chunk(t2, 3, dim 0) # 返回次一级均分结果
# output :
(tensor([[1, 1, 2],[3, 4, 5]]),tensor([[ 6, 7, 8],[ 9, 10, 11]]))torch.chunk(t2, 5, dim 0) # 返回次一级均分结果
# output :
(tensor([[1, 1, 2]]),tensor([[3, 4, 5]]),tensor([[6, 7, 8]]),tensor([[ 9, 10, 11]]))9.2 拆分 split函数
split既能进行均分也能自定义切分。
t2 torch.arange(12).reshape(4, 3)
t2
# output :
tensor([[ 0, 1, 2],[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]])第二个参数只输入一个数值时表示均分第三个参数表示按第几个维度进行切分
torch.split(t2, 2, 0)
# output :
(tensor([[1, 1, 2],[3, 4, 5]]),tensor([[ 6, 7, 8],[ 9, 10, 11]]))第二个参数输入一个序列时表示按照序列数值进行切分
torch.split(t2, [1, 3], 0)
# output :
(tensor([[1, 1, 2]]),tensor([[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]]))当第二个参数输入一个序列时序列的各数值的和必须等于对于维度下形状分量的取值。 例如上述代码中是按照第一个维度进行切分第一个维度有四行因此序列的求和必须等于4也就是1 3 4。 序列中每个分量的取值表示切块大小
torch.split(t2,[1, 1, 1, 1], 0)
# output :
(tensor([[1, 1, 2]]),tensor([[3, 4, 5]]),tensor([[6, 7, 8]]),tensor([[ 9, 10, 11]]))torch.split(t2,[1, 2], 1)
# output :
(tensor([[1],[3],[6],[9]]),tensor([[ 1, 2],[ 4, 5],[ 7, 8],[10, 11]]))当然split函数返回结果也是view。
ts torch.split(t2,[1, 2], 1)
ts[0][0] 1
t2
# output :
tensor([[ 1, 1, 2],[ 3, 4, 5],[ 6, 7, 8],[ 9, 10, 11]])10 张量的合并操作 张量的合并操作类似列表的追加元素可以拼接、也可以堆叠。 拼接函数cat
a torch.zeros(2, 3)
b torch.ones(2, 3)
c torch.zeros(3, 3)# dim默认取值为0按行进行拼接
torch.cat([a, b])
# output :
tensor([[0., 0., 0.],[0., 0., 0.],[1., 1., 1.],[1., 1., 1.]])# 按列进行拼接
torch.cat([a, b], 1)
# output :
tensor([[0., 0., 0., 1., 1., 1.],[0., 0., 0., 1., 1., 1.]])# 形状不匹配时将报错
torch.cat([a, c], 1)
# output :
RuntimeError: Sizes of tensors must match except in dimension 1. Expected size 2 but got size 3 for tensor number 1 in the list.拼接的本质是实现元素的堆积也就是构成a、b两个二维张量的各一维张量的堆积最终还是构成二维向量。 堆叠函数stack
a torch.zeros(2, 3)
b torch.ones(2, 3)
c torch.zeros(3, 3)# 堆叠之后生成一个三维张量
torch.stack([a,b])
# output :
tensor([[[0., 0., 0.],[0., 0., 0.]],[[1., 1., 1.],[1., 1., 1.]]])注意对比和**cat**函数的区别拼接之后维度不变堆叠之后维度升高。 对于两个二维张量拼接是把一个个元素单独提取出来之后放到二维张量中而堆叠则是直接将两个二维张量封装到一个三维张量中。 因此堆叠的要求更高参与堆叠的张量必须形状完全相同。 # 维度不匹配将报错
torch.stack([a, c])
# output :
RuntimeError: stack expects each tensor to be equal size, but got [2, 3] at entry 0 and [3, 3] at entry 111 张量维度变换
在实际操作张量进行计算时往往需要另外进行降维和升维的操作。
squeeze函数删除不必要的维度
t torch.zeros(1, 1, 3, 1)
# output :
tensor([[[[0.],[0.],[0.]]]])t.shape
# output :
torch.Size([1, 1, 3, 1])torch.squeeze(t)
# output :
tensor([0., 0., 0.])torch.squeeze(t).shape
# output :
torch.Size([3])简单理解squeeze就相对于提出了shape返回结果中的1. t1 torch.zeros(1, 1, 3, 2, 1, 2)
torch.squeeze(t1)
torch.squeeze(t1).shape
# output :
torch.Size([3, 2, 2])unsqueeze函数手动升维
t torch.zeros(1, 2, 1, 2)
t.shape
# output :
torch.Size([1, 2, 1, 2])# 在第1个维度索引上升高1个维度
torch.unsqueeze(t, dim 0)
# output :
tensor([[[[[0., 0.]],[[0., 0.]]]]])torch.unsqueeze(t, dim 0).shape
# output :
torch.Size([1, 1, 2, 1, 2])# 在第3个维度索引上升高1个维度
torch.unsqueeze(t, dim 2).shape
# output :
torch.Size([1, 2, 1, 1, 2])注意理解维度和shape返回结果一一对应的关系shape返回的序列有多少元素张量就有多少维度。