建设银行注册网站,微网站免费搭建平台,做农产品的网站名称,浏览器的网站通知怎么做使用 PyTorch 实现动态输入#xff1a;支持训练和推理输入维度不一致的 CNN 和 LSTM/GRU 模型
在深度学习中#xff0c;处理不同大小的输入数据是一个常见的挑战。许多实际应用需要模型能够灵活地处理可变长度的输入。本文将介绍如何使用 PyTorch 实现支持动态输入的 CNN 和…使用 PyTorch 实现动态输入支持训练和推理输入维度不一致的 CNN 和 LSTM/GRU 模型
在深度学习中处理不同大小的输入数据是一个常见的挑战。许多实际应用需要模型能够灵活地处理可变长度的输入。本文将介绍如何使用 PyTorch 实现支持动态输入的 CNN 和 LSTM/GRU 模型并打印每一层的输入和输出。 卷积神经网络CNNCNN 通常用于处理图像数据。它通过卷积层提取局部特征并能够处理不同大小的输入图像。通过使用全局池化层CNN 可以将不同大小的特征图转换为固定大小的输出。 长短期记忆网络LSTM和门控循环单元GRULSTM 和 GRU 是处理序列数据的 RNN 变体。它们能够捕捉时间序列中的长期依赖关系并支持可变长度的输入序列。
模型搭建
1. CNN 模型
我们将构建一个简单的 CNN 模型支持动态输入大小并打印每一层的输入和输出。
import torch
import torch.nn as nn
import torch.nn.functional as Fclass DynamicCNN(nn.Module):def __init__(self):super(DynamicCNN, self).__init__()self.conv1 nn.Conv2d(in_channels3, out_channels16, kernel_size3)self.conv2 nn.Conv2d(in_channels16, out_channels32, kernel_size3)self.pool nn.AdaptiveAvgPool2d((1, 1)) # 自适应池化层self.fc nn.Linear(32, 10) # 输出10个类别def forward(self, x):print(fInput to CNN: {x.shape})x F.relu(self.conv1(x))print(fOutput after conv1: {x.shape})x F.relu(self.conv2(x))print(fOutput after conv2: {x.shape})x self.pool(x)print(fOutput after pooling: {x.shape})x x.view(x.size(0), -1) # 展平x self.fc(x)print(fOutput after fc: {x.shape})return x# 创建模型
cnn_model DynamicCNN()# 测试动态输入
input_tensor_cnn torch.randn(1, 3, 64, 64) # 输入形状为 (batch_size, channels, height, width)
output_cnn cnn_model(input_tensor_cnn)Input to CNN: torch.Size([1, 3, 55, 64])
Output after conv1: torch.Size([1, 16, 53, 62])
Output after conv2: torch.Size([1, 32, 51, 60])
Output after pooling: torch.Size([1, 32, 1, 1])
Output after fc: torch.Size([1, 10])Input to CNN: torch.Size([1, 3, 64, 64])
Output after conv1: torch.Size([1, 16, 62, 62])
Output after conv2: torch.Size([1, 32, 60, 60])
Output after pooling: torch.Size([1, 32, 1, 1])
Output after fc: torch.Size([1, 10])2. LSTM/GRU 模型
接下来我们将构建一个支持动态输入的 LSTM 模型并打印每一层的输入和输出。
import torch
import torch.nn as nnclass DynamicLSTM(nn.Module):def __init__(self):super(DynamicLSTM, self).__init__()self.lstm nn.LSTM(input_size10, hidden_size20, batch_firstTrue)self.fc nn.Linear(20, 1) # 输出一个值def forward(self, x):print(fInput to LSTM: {x.shape})x, _ self.lstm(x)print(fOutput after LSTM: {x.shape})x self.fc(x[:, -1, :]) # 取最后一个时间步的输出print(fOutput after fc: {x.shape})return x# 创建模型
lstm_model DynamicLSTM()# 测试动态输入
input_tensor_lstm torch.randn(5, 15, 10) # 输入形状为 (batch_size, seq_length, input_size)
output_lstm lstm_model(input_tensor_lstm)
Input to LSTM: torch.Size([5, 15, 10])
Output after LSTM: torch.Size([5, 15, 20])
Output after fc: torch.Size([5, 1])Input to LSTM: torch.Size([5, 20, 10])
Output after LSTM: torch.Size([5, 20, 20])
Output after fc: torch.Size([5, 1])代码说明 DynamicCNN该模型包含两个卷积层和一个全连接层。使用自适应平均池化层将特征图的大小调整为 (1, 1)从而支持不同大小的输入图像。每一层的输入和输出形状在前向传播中被打印出来。 DynamicLSTM该模型包含一个 LSTM 层和一个全连接层。LSTM 层能够处理可变长度的输入序列输出的形状在前向传播中被打印出来。