当前位置: 首页 > news >正文

网站开发者模式嵌入式开发学什么

网站开发者模式,嵌入式开发学什么,网站服务器 内容更新吗,一个网站怎么做pc和移动端#x1f497;#x1f497;#x1f497;欢迎来到我的博客#xff0c;你将找到有关如何使用技术解决问题的文章#xff0c;也会找到某个技术的学习路线。无论你是何种职业#xff0c;我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章#xff0c;也欢… 欢迎来到我的博客你将找到有关如何使用技术解决问题的文章也会找到某个技术的学习路线。无论你是何种职业我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互相学习和建立一个积极的社区。谢谢你的光临让我们一起踏上这个知识之旅 文章目录 引言前期的准备基本的步骤说明代码讲解实现 引言 在机器学习和深度学习中数据集的加载和处理是一个至关重要的步骤。PyTorch是一种流行的深度学习框架它提供了强大的工具来加载、转换和管理数据集。在本篇博客中我们将探讨如何使用PyTorch加载数据集以便于后续的模型训练和评估。 前期的准备 在实战前我们需要了解三个名词Epoch、Batch-Size、Iteration 下面针对上面我展开进行说明 Epoch周期: 定义Epoch是指整个训练数据集被完整地前向传播和反向传播通过神经网络的一次循环。在一个Epoch内模型将看到训练集中的每个样本一次无论是一次完整的前向传播和反向传播还是批量的。 作用一个Epoch代表了一次完整的训练周期。在每个Epoch结束后模型参数都会被更新一次。Epoch的数量通常是一个超参数可以控制模型的训练时间和效果。 Batch Size批大小: 定义Batch Size是指每次迭代时用于训练模型的样本数量。在每个迭代中模型将根据批大小从训练数据中选择一小批样本来执行前向传播和反向传播然后更新模型参数。 作用Batch Size控制了每次参数更新的规模。较大的批大小可以加速训练但可能需要更多内存。较小的批大小可以增加模型的泛化能力但训练时间可能更长。 Iterations迭代: 定义Iteration是指一次完整的前向传播、反向传播和参数更新。一个Iteration中模型会处理一个Batch Size的样本。 联系Iterations通常用于描述在一个Epoch内模型参数更新的次数。一个Epoch内的Iterations数量等于训练数据集的大小除以Batch Size。例如如果你有1000个训练样本批大小为100那么一个Epoch包含10个Iterations1000 / 100 10。 总结一下 一个Epoch包含多个Iterations每个Iteration包含一个Batch Size的样本。 Batch Size决定了每次参数更新的规模而Epoch表示整个数据集的一个完整训练周期。 训练时通常迭代多个Epochs其中每个Epoch由多个Iterations组成以逐渐优化模型的参数。 超参数的选择如Epoch数量和Batch Size会影响训练的速度和模型的性能需要根据具体问题进行调整和优化。 在DataLoader中有一个参数是shuffle这个参数是一个bool值的参数如果设置为TRUE的话表示打乱数据集 基本的步骤说明 导入必要的库定义数据预处理转换下载和准备数据集创建数据加载器数据迭代 这里介绍一下DataLoader的参数 dataset这是你要加载的数据集的实例通常是继承自torch.utils.data.Dataset的自定义数据集类或内置数据集类如MNIST。 batch_size指定每个批次batch中包含的样本数。这是一个重要参数影响了训练和推理过程中的计算效率和模型的性能。通常你需要根据你的硬件资源和数据集大小来选择适当的批大小。 shuffle布尔值控制是否在每个Epoch开始时打乱数据集的顺序。通常设置为True可以帮助模型更好地学习因为它增加了数据的随机性避免模型对数据的顺序产生过度依赖。在训练时通常建议将其设置为True。 num_workers指定用于数据加载的子进程数量。这允许在数据加载过程中并行加载数据以提高数据加载的效率。通常设置为大于0的值可以加速数据加载。但要注意过高的值可能会占用过多系统资源因此需要权衡。 pin_memory如果为True则数据加载器会将批次数据置于GPU的锁页内存中以提高数据传输的效率。通常在GPU上训练时建议将其设置为True。 drop_last如果为True当数据集的大小不能被批大小整除时将丢弃最后一个批次。通常将其设置为True以确保每个批次都具有相同大小这在某些情况下有助于训练的稳定性。 timeout指定数据加载超时的时间单位秒。如果数据加载器无法在指定时间内加载数据它将引发超时异常。这可用于避免数据加载过程中的死锁。 代码讲解实现 import numpy as np import torch from torch.utils.data import Dataset, DataLoader class DiabetesDataset(Dataset):def __init__(self, filepath):xy np.loadtxt(filepath, delimiter,, dtypenp.float32) self.len xy.shape[0]self.x_data torch.from_numpy(xy[:, :-1])self.y_data torch.from_numpy(xy[:, [-1]])def __getitem__(self, index):return self.x_data[index], self.y_data[index]def __len__(self): return self.len dataset DiabetesDataset(diabetes.csv.gz) train_loader DataLoader(datasetdataset, batch_size32, shuffleTrue, num_workers2) class Model(torch.nn.Module):def __init__(self):super(Model, self).__init__()self.linear1 torch.nn.Linear(8, 6) self.linear2 torch.nn.Linear(6, 4) self.linear3 torch.nn.Linear(4, 1) self.sigmoid torch.nn.Sigmoid()def forward(self, x):x self.sigmoid(self.linear1(x)) x self.sigmoid(self.linear2(x)) x self.sigmoid(self.linear3(x)) return x model Model() criterion torch.nn.BCELoss(size_averageTrue) optimizer torch.optim.SGD(model.parameters(), lr0.01) for epoch in range(100):for i, data in enumerate(train_loader, 0):# 1. Prepare datainputs, labels data# 2. Forwardy_pred model(inputs)loss criterion(y_pred, labels) print(epoch, i, loss.item())# 3. Backwardoptimizer.zero_grad()loss.backward()# 4. Updateoptimizer.step()首先导入所需的库包括NumPy和PyTorch。这些库用于处理数据和创建深度学习模型。 创建一个自定义的数据集类DiabetesDataset用于加载和处理数据。该类继承自torch.utils.data.Dataset类并包含以下方法 init加载数据文件假定是CSV格式将数据分为特征x_data和标签y_data并存储数据集的长度len。 getitem用于获取数据集中特定索引位置的样本。 len返回数据集的总长度。 创建数据集实例dataset并使用DataLoader创建数据加载器train_loader。数据加载器用于批量加载数据batch_size参数设置每个批次的样本数shuffle参数表示是否随机打乱数据集顺序num_workers参数表示并行加载数据的进程数。 定义神经网络模型Model该模型继承自torch.nn.Module。模型包含三个线性层和Sigmoid激活函数。在__init__方法中定义了模型的层结构而forward方法描述了数据在模型中的传递过程。 创建模型实例model。 定义损失函数criterion和优化器optimizer。在这里使用了二元交叉熵损失函数torch.nn.BCELoss和随机梯度下降优化器torch.optim.SGD。 进行训练循环循环次数为100次由for epoch in range(100)控制。 在内部循环中使用enumerate(train_loader, 0)来迭代数据加载器。 准备数据获取输入数据和标签。 前向传播将输入数据传递给模型获得预测值。 计算损失使用损失函数计算预测值与实际标签之间的损失。 打印损失值输出当前训练批次的损失值。 反向传播通过优化器的backward()方法计算梯度。 参数更新使用优化器的step()方法来更新模型参数。 这段代码演示了一个基本的二分类问题的训练过程其中神经网络模型用于预测糖尿病患者的标签0表示非糖尿病1表示糖尿病。模型的训练是通过反向传播算法来更新模型参数以减小损失。在训练循环中你可以观察损失值的变化以了解模型的训练进展。 挑战与创造都是很痛苦的但是很充实。
http://www.w-s-a.com/news/719638/

相关文章:

  • 运用阿里云怎么做网站外资企业可以在中国境内做网站吗
  • 云南住房和城乡建设局网站西安做官网的公司
  • 企业网站图片上传网站建设和应用的情况
  • 网站不显示内容吗聊城网架公司
  • 南昌网站建设企业网站托管外包怎么做
  • 做非洲外贸的网站网站可以用PS设计吗
  • PHP搭建IDC网站青岛福瀛建设集团网站
  • 安徽网站优化多少钱软件界面设计的基本原则
  • 网站建设动态页面修改删除dnf卖飞机的网站怎么做的
  • 万网是做什么的seo综合
  • 网站关键词分隔符php网站开发平台下载
  • 郑州那家做网站便宜商业计划书免费word版
  • 秦时明月的个人网站怎么做网站开发公司需要招聘哪些人
  • 广告网站建设制作设计服务商安卓app软件定制
  • 公司网站设计与实现中国职业培训在线官方网站
  • 网站服务器空间租用郑州官网网站推广优化
  • 郑州网站建设外包业务wordpress站酷首页
  • 机关门户网站 建设 方案个人怎么申请注册商标
  • 梧州网站建设有哪些九江网站建设优化
  • APP网站建设开发企业发展英文seo招聘
  • 临海市住房和城乡建设规划局网站高校图书馆网站的建设方案
  • 建立门户网站张店易宝网站建设
  • wordpress中英文站点厦门seo顾问屈兴东
  • 邯郸网站建设项目重庆网站备案系统
  • 网站导航容易做黄冈网站建设报价
  • 美橙互联建站网站被截止徐州网站建站
  • 网站班级文化建设视频深圳企业网页设计公司
  • 钦州网站建设公司做宣传网站买什么云服务器
  • 58同城有做网站wordpress怎么改标题和meta
  • 安通建设有限公司网站东莞地铁app