当前位置: 首页 > news >正文

wordpress网站速度优化wordpress配置域名

wordpress网站速度优化,wordpress配置域名,中心网站建设方法,湖南企业建站系统费用本文使用到的 Jupyter Notebook 可在GitHub仓库002文件夹找到#xff0c;别忘了给仓库点个小心心~~~ https://github.com/LFF8888/FF-Studio-Resources 在机器学习项目中#xff0c;实验跟踪和结果可视化是至关重要的环节。无论是调整超参数、优化模型架构#xff0c;还是监… 本文使用到的 Jupyter Notebook 可在GitHub仓库002文件夹找到别忘了给仓库点个小心心~~~ https://github.com/LFF8888/FF-Studio-Resources 在机器学习项目中实验跟踪和结果可视化是至关重要的环节。无论是调整超参数、优化模型架构还是监控训练过程中的性能变化清晰的记录和直观的可视化都能显著提升开发效率。然而许多开发者在实际操作中往往忽视了这一点导致实验结果难以复现或者在项目协作中出现混乱。今天笔者将介绍如何利用 PyTorch Lightning 和 Weights Biases 这一强大的工具组合轻松构建和训练一个图像分类模型。通过本文你将学会如何高效地组织数据管道、定义模型架构并利用 WB 实现实验跟踪和结果可视化让每一次实验都清晰可溯每一次优化都有据可依。 使用 PyTorch Lightning ⚡️ 进行图像分类 我们将使用 PyTorch Lightning 构建一个图像分类管道。我们将遵循这个 风格指南 来提高代码的可读性和可重复性。这里有一个很酷的解释使用 PyTorch Lightning 进行图像分类。 设置 PyTorch Lightning 和 WB 对于本教程我们需要 PyTorch Lightning这不是很明显吗和 Weights and Biases。 !pip install lightning torchvision -q # 安装 weights and biases !pip install wandb -qU你需要这些导入。 import lightning.pytorch as pl # 你最喜欢的机器学习跟踪工具 from lightning.pytorch.loggers import WandbLoggerimport torch from torch import nn from torch.nn import functional as F from torch.utils.data import random_split, DataLoaderfrom torchmetrics import Accuracyfrom torchvision import transforms from torchvision.datasets import CIFAR10import wandb现在你需要登录到你的 wandb 账户。 wandb.login()DataModule - 我们应得的数据管道 DataModules 是一种将数据相关的钩子与 LightningModule 解耦的方式以便你可以开发与数据集无关的模型。 它将数据管道组织成一个可共享和可重用的类。一个 datamodule 封装了 PyTorch 中数据处理的五个步骤 下载 / 分词 / 处理。清理并可能保存到磁盘。加载到 Dataset 中。应用转换旋转、分词等。包装到 DataLoader 中。 了解更多关于 datamodules 的信息 这里。让我们为 Cifar-10 数据集构建一个 datamodule。 class CIFAR10DataModule(pl.LightningDataModule):def __init__(self, batch_size, data_dir: str ./):super().__init__()self.data_dir data_dirself.batch_size batch_sizeself.transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])self.num_classes 10def prepare_data(self):CIFAR10(self.data_dir, trainTrue, downloadTrue)CIFAR10(self.data_dir, trainFalse, downloadTrue)def setup(self, stageNone):# 为 dataloaders 分配训练/验证数据集if stage fit or stage is None:cifar_full CIFAR10(self.data_dir, trainTrue, transformself.transform)self.cifar_train, self.cifar_val random_split(cifar_full, [45000, 5000])# 为 dataloader(s) 分配测试数据集if stage test or stage is None:self.cifar_test CIFAR10(self.data_dir, trainFalse, transformself.transform)def train_dataloader(self):return DataLoader(self.cifar_train, batch_sizeself.batch_size, shuffleTrue)def val_dataloader(self):return DataLoader(self.cifar_val, batch_sizeself.batch_size)def test_dataloader(self):return DataLoader(self.cifar_test, batch_sizeself.batch_size)Callbacks 回调是一个独立的程序可以在项目之间重用。PyTorch Lightning 提供了一些 内置回调这些回调经常被使用。 了解更多关于 PyTorch Lightning 中的回调 这里。 内置回调 在本教程中我们将使用 Early Stopping 和 Model Checkpoint 内置回调。它们可以传递给 Trainer。 自定义回调 如果你熟悉自定义 Keras 回调那么在 PyTorch 管道中实现相同功能的能力只是锦上添花。 由于我们正在进行图像分类能够可视化模型对一些样本图像的预测可能很有帮助。这种形式的回调可以帮助在早期阶段调试模型。 class ImagePredictionLogger(pl.callbacks.Callback):def __init__(self, val_samples, num_samples32):super().__init__()self.num_samples num_samplesself.val_imgs, self.val_labels val_samplesdef on_validation_epoch_end(self, trainer, pl_module):# 将张量带到 CPUval_imgs self.val_imgs.to(devicepl_module.device)val_labels self.val_labels.to(devicepl_module.device)# 获取模型预测logits pl_module(val_imgs)preds torch.argmax(logits, -1)# 将图像记录为 wandb Imagetrainer.logger.experiment.log({examples:[wandb.Image(x, captionfPred:{pred}, Label:{y})for x, pred, y in zip(val_imgs[:self.num_samples],preds[:self.num_samples],val_labels[:self.num_samples])]})LightningModule - 定义系统 LightningModule 定义了一个系统而不是一个模型。在这里系统将所有研究代码分组到一个类中使其自包含。LightningModule 将你的 PyTorch 代码组织成 5 个部分 计算 (__init__)。训练循环 (training_step)验证循环 (validation_step)测试循环 (test_step)优化器 (configure_optimizers) 因此可以构建一个与数据集无关的模型并且可以轻松共享。让我们为 Cifar-10 分类构建一个系统。 class LitModel(pl.LightningModule):def __init__(self, input_shape, num_classes, learning_rate2e-4):super().__init__()# 记录超参数self.save_hyperparameters()self.learning_rate learning_rateself.conv1 nn.Conv2d(3, 32, 3, 1)self.conv2 nn.Conv2d(32, 32, 3, 1)self.conv3 nn.Conv2d(32, 64, 3, 1)self.conv4 nn.Conv2d(64, 64, 3, 1)self.pool1 torch.nn.MaxPool2d(2)self.pool2 torch.nn.MaxPool2d(2)n_sizes self._get_conv_output(input_shape)self.fc1 nn.Linear(n_sizes, 512)self.fc2 nn.Linear(512, 128)self.fc3 nn.Linear(128, num_classes)self.accuracy Accuracy(taskmulticlass, num_classesnum_classes)# 返回从卷积块进入线性层的输出张量的大小。def _get_conv_output(self, shape):batch_size 1input torch.autograd.Variable(torch.rand(batch_size, *shape))output_feat self._forward_features(input)n_size output_feat.data.view(batch_size, -1).size(1)return n_size# 返回卷积块的特征张量def _forward_features(self, x):x F.relu(self.conv1(x))x self.pool1(F.relu(self.conv2(x)))x F.relu(self.conv3(x))x self.pool2(F.relu(self.conv4(x)))return x# 将在推理期间使用def forward(self, x):x self._forward_features(x)x x.view(x.size(0), -1)x F.relu(self.fc1(x))x F.relu(self.fc2(x))x F.log_softmax(self.fc3(x), dim1)return xdef training_step(self, batch, batch_idx):x, y batchlogits self(x)loss F.nll_loss(logits, y)# 训练指标preds torch.argmax(logits, dim1)acc self.accuracy(preds, y)self.log(train_loss, loss, on_stepTrue, on_epochTrue, loggerTrue)self.log(train_acc, acc, on_stepTrue, on_epochTrue, loggerTrue)return lossdef validation_step(self, batch, batch_idx):x, y batchlogits self(x)loss F.nll_loss(logits, y)# 验证指标preds torch.argmax(logits, dim1)acc self.accuracy(preds, y)self.log(val_loss, loss, prog_barTrue)self.log(val_acc, acc, prog_barTrue)return lossdef test_step(self, batch, batch_idx):x, y batchlogits self(x)loss F.nll_loss(logits, y)# 验证指标preds torch.argmax(logits, dim1)acc self.accuracy(preds, y)self.log(test_loss, loss, prog_barTrue)self.log(test_acc, acc, prog_barTrue)return lossdef configure_optimizers(self):optimizer torch.optim.Adam(self.parameters(), lrself.learning_rate)return optimizer训练和评估 现在我们已经使用 DataModule 组织了数据管道并使用 LightningModule 组织了模型架构和训练循环PyTorch Lightning Trainer 为我们自动化了其他所有内容。 Trainer 自动化了以下内容 Epoch 和 batch 迭代调用 optimizer.step()、backward、zero_grad()调用 .eval()启用/禁用梯度保存和加载权重Weights and Biases 日志记录多 GPU 训练支持TPU 支持16 位训练支持 dm CIFAR10DataModule(batch_size32) # 要访问 x_dataloader我们需要调用 prepare_data 和 setup。 dm.prepare_data() dm.setup()# 自定义 ImagePredictionLogger 回调所需的样本用于记录图像预测。 val_samples next(iter(dm.val_dataloader())) val_imgs, val_labels val_samples[0], val_samples[1] val_imgs.shape, val_labels.shapemodel LitModel((3, 32, 32), dm.num_classes)# 初始化 wandb logger wandb_logger WandbLogger(projectwandb-lightning, job_typetrain)# 初始化 Callbacks early_stop_callback pl.callbacks.EarlyStopping(monitorval_loss) checkpoint_callback pl.callbacks.ModelCheckpoint()# 初始化一个 trainer trainer pl.Trainer(max_epochs2,loggerwandb_logger,callbacks[early_stop_callback,ImagePredictionLogger(val_samples),checkpoint_callback],)# 训练模型 ⚡⚡ trainer.fit(model, dm)# 在保留的测试集上评估模型 ⚡⚡ trainer.test(dataloadersdm.test_dataloader())# 关闭 wandb run wandb.finish()最终想法 我来自 TensorFlow/Keras 生态系统发现 PyTorch 虽然是一个优雅的框架但有点让人不知所措。这只是我的个人经验。在探索 PyTorch Lightning 时我意识到几乎所有让我远离 PyTorch 的原因都得到了解决。以下是我兴奋的快速总结 过去传统的 PyTorch 模型定义通常分散在各个地方。模型在某个 model.py 脚本中训练循环在 train.py 文件中。需要来回查看才能理解管道。现在LightningModule 作为一个系统模型定义与 training_step、validation_step 等一起定义。现在它是模块化的且可共享的。过去TensorFlow/Keras 最棒的部分是输入数据管道。他们的数据集目录丰富且不断增长。PyTorch 的数据管道曾经是最大的痛点。在普通的 PyTorch 代码中数据下载/清理/准备通常分散在许多文件中。现在DataModule 将数据管道组织成一个可共享和可重用的类。它只是 train_dataloader、val_dataloader(s)、test_dataloader(s) 以及匹配的转换和数据处理/下载步骤的集合。过去使用 Keras可以调用 model.fit 来训练模型调用 model.predict 来运行推理。model.evaluate 提供了一个简单而有效的测试数据评估。这在 PyTorch 中不是这样。通常会找到单独的 train.py 和 test.py 文件。现在有了 LightningModuleTrainer 自动化了一切。只需调用 trainer.fit 和 trainer.test 来训练和评估模型。过去TensorFlow 喜欢 TPUPyTorch…嗯现在使用 PyTorch Lightning可以轻松地在多个 GPU 上训练相同的模型甚至在 TPU 上。哇过去我是回调的忠实粉丝更喜欢编写自定义回调。像 Early Stopping 这样简单的事情曾经是传统 PyTorch 的讨论点。现在使用 PyTorch Lightning使用 Early Stopping 和 Model Checkpointing 是小菜一碟。我甚至可以编写自定义回调。 结论和资源 我希望你觉得这份报告有帮助。我鼓励你玩一下代码并使用你选择的数据集训练一个图像分类器。 以下是一些学习更多关于 PyTorch Lightning 的资源 逐步演练 - 这是官方教程之一。他们的文档写得非常好我强烈推荐它作为学习资源。使用 PyTorch Lightning 与 Weights Biases - 这是一个快速 colab你可以通过它学习如何使用 WB 与 PyTorch Lightning。
http://www.w-s-a.com/news/712093/

相关文章:

  • 广州网站的建设wordpress注册数学验证码
  • 装修平台自己做网站有几个黄页名录网站开发
  • php网站的安全优势平面设计师培训
  • 乐清市网站建设设计重庆沙坪坝区
  • 什么是seo站内优化开发网页的工具有哪些
  • 文化类网站是不是休闲娱乐类网站青州市建设局网站
  • 网站的中英文切换代码做现货黄金网站
  • 万江区网站建设公司前端如何根据ui设计写页面
  • 宿迁公司做网站手机免费创建网站的软件
  • 免费可商用素材网站山东威海网站开发
  • 建设网站什么语言比较合适柳州建设网经济适用房
  • 企业网站的主要功能板块平台推广是做什么的
  • 网页网站自做全搞定西安建设工程信息网诚信平台
  • 网站vip怎么做建网站外包公司
  • 胶州建网站域名不备案可以正常使用吗
  • 网站建设客户开发方案软件工程师行业分析
  • 沈阳网站建设黑酷科技微信小程序怎么一键删除
  • 做网站产品搜索展示实现西安百度推广服务公司
  • 建立网站接受投注是什么意思一般使用的分辨率的显示密度是多少
  • 怎么建立一个网站开展业务网站建设人员的工资分配
  • 求职网站建设方案企业网站开发需求分析
  • 西安企业网站开发可以做哪些有趣的网站
  • 房产类网站开发云南百度建站
  • 泰州网站建设电话彩票网站怎么做代理
  • 泉州网站制作推广山西网站开发建设
  • 百度商桥怎样绑定网站百度推广登陆
  • 重庆网站建设论坛株洲论坛
  • 网站怎么做切换中英文济南广运建设公司网站
  • 网页游戏网站搭建免费建网站哪个模板多
  • 公司起名打分最准的免费网站直播网站app开发