广园路建设公司网站,wordpress打折插件,门户网站建设和检务公开自查,牛商网怎么样归一化用的较少 正则化用来解决过拟合#xff0c;处理最优化问题#xff0c;批量归一化加快速度 正则化#xff08;Regularization#xff09;#xff1a; 作用#xff1a;正则化是一种用来防止过拟合的技术#xff0c;通过向模型的损失函数中添加惩罚项#xff0c;使…归一化用的较少 正则化用来解决过拟合处理最优化问题批量归一化加快速度 正则化Regularization 作用正则化是一种用来防止过拟合的技术通过向模型的损失函数中添加惩罚项使得模型在学习过程中更加平滑避免对训练数据过度拟合。 归一化Normalization 作用归一化是一种数据预处理技术用来缩放特征值的范围使得不同特征之间具有可比性加速模型的收敛过程提高模型的性能。
线性层是神经网络中的基本构建模块特别是在深度学习中。它们也被称为全连接层或密集层 例题将一个5*5的图片转变为25的在转变为3的特征提取
nn.Linear(in_features, out_features) 表示一个线性层其中参数的含义如下 in_features: 这是输入特征的数量即线性层接收的每个输入样本的大小。 out_features: 这是输出特征的数量即线性层生成的每个输出样本的大小。
import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid, Linear
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdata_transformtorchvision.transforms.Compose([torchvision.transforms.ToTensor()]
)
test_datatorchvision.datasets.CIFAR10(./dataset,trainFalse,transformdata_transform,downloadTrue)
dataloaderDataLoader(datasettest_data,batch_size64,drop_lastTrue)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.linear1Linear(196608,10)def forward(self,input):outputself.linear1(input)return outputtuduiTudui()for data in dataloader:imgs,targetsdataprint(imgs.shape)#outputtorch.reshape(imgs,(1,1,1,-1))#前面1,1,1是你想要的后面我们不知道这个值是多少取-1让Python自己计算outputtorch.flatten(imgs)print(output.shape)outputtudui(output)print(output.shape)注意一下dataloader最后drop_last不加会在处理最后一批图片时出现报错