当前位置: 首页 > news >正文

网站代理打开个人网站设计源码

网站代理打开,个人网站设计源码,wordpress判断登录用户为vip,wordpress文章与页面关联系列博客目录 文章目录 系列博客目录1、在手写数字图像这个数据集上进行分类1. 数据准备2. 将图像转化为适合Transformer的输入3. 位置编码4. Transformer编码器5. 池化操作6. 分类头7. 训练8. 评估总结流程#xff1a;相关模型#xff1a; 1、在手写数字图像这个数据集上进行…系列博客目录 文章目录 系列博客目录1、在手写数字图像这个数据集上进行分类1. 数据准备2. 将图像转化为适合Transformer的输入3. 位置编码4. Transformer编码器5. 池化操作6. 分类头7. 训练8. 评估总结流程相关模型 1、在手写数字图像这个数据集上进行分类 在手写数字图像数据集例如MNIST数据集上使用Transformer进行分类任务时基本的流程和文本分类任务类似但有一些不同之处因为MNIST是一个图像分类任务。我们可以将MNIST图像的处理方法适应到Transformer模型中。下面是如何在MNIST数据集上使用Transformer进行手写数字分类的步骤 1. 数据准备 MNIST数据集包含28×28像素的灰度图像每个图像表示一个手写数字0到9。首先我们需要将这些图像转换为适合Transformer模型输入的格式。 标准化通常将图像的像素值0到255缩放到[0, 1]范围内或者标准化到均值为0方差为1的分布。展平图像通常Transformer要求输入为序列数据但图像本身是二维数据28×28因此我们可以将每个图像展平为一个784维的向量28×28 784。 2. 将图像转化为适合Transformer的输入 将图像展平后我们可以将其分割成多个小块patches。这些小块可以看作是图像的“tokens”类似于文本中的单词或子词。在这一步图像被切割成大小为16x16或者其他大小的patch并将每个patch展平为一个向量。例如MNIST的28x28图像可以被切分为16x16的patches。每个patch会被展平成一个向量然后这些向量作为Transformer模型的输入。 3. 位置编码 和文本数据一样图像也需要位置编码。尽管图像的空间信息可以通过卷积网络来处理但在Transformer模型中我们需要给每个patch添加位置编码以便模型能够理解每个patch在图像中的位置。 对每个patch加上位置编码以便Transformer能够捕捉到不同patch之间的位置关系。 4. Transformer编码器 将展平后的patches以及位置编码输入到Transformer的编码器部分。Encoder会通过自注意力机制Self-Attention和前馈神经网络Feed-Forward Networks处理这些输入。每个patch的表示会被增强捕捉到与其他patch的上下文信息。 5. 池化操作 Transformer的输出会是每个patch的表示通常是一个向量。为了将这些表示汇聚成一个图像的全局表示通常会使用以下两种池化方法 [CLS]标记池化如果使用类似BERT的结构可以在输入的开始位置加上一个[CLS]标记并使用该标记的最终表示来作为整个图像的表示。全局平均池化对所有patch的表示进行平均池化将每个patch的向量表示汇聚成一个固定大小的全局向量。 6. 分类头 将Transformer输出的图像表示通常是池化后的向量传递到一个全连接层或者多层感知机。该分类头会输出一个包含10个类数字0-9的概率分布。 使用softmax函数将模型输出转化为每个类别的概率。 7. 训练 训练过程中通常会使用交叉熵损失函数Cross-Entropy Loss来优化模型参数使得模型能够更好地对数字进行分类。优化算法如Adam会通过反向传播调整模型参数逐步提高分类精度。 8. 评估 在训练结束后可以使用MNIST测试集对模型进行评估。计算准确率观察模型在手写数字分类任务上的表现。 总结流程 数据准备加载并标准化MNIST数据集将图像展平并切分为patches。位置编码为每个patch添加位置编码。Transformer编码器输入展平后的patches并通过Transformer编码器处理。池化通过池化操作将每个patch的表示聚合成一个全局向量表示。分类头通过全连接层进行数字分类输出10个类别的概率分布。训练和优化使用交叉熵损失进行训练优化模型参数。评估评估模型的分类准确率。 相关模型 Vision Transformer (ViT)这是一个专门为图像分类设计的Transformer模型它使用类似于上述方法将图像切分为patches并将这些patches输入到Transformer模型中。ViT在许多图像分类任务上都取得了很好的效果。 这种方法展示了如何使用Transformer架构处理图像分类问题尤其是MNIST这样的简单手写数字分类任务。在更复杂的图像分类任务例如CIFAR-10、ImageNet中Transformer模型同样适用但可能需要更多的计算资源和更大的数据集。
http://www.w-s-a.com/news/841995/

相关文章:

  • 做php网站的话要学什么语言wordpress搜索不到
  • 金华官方网站建设网络营销策划模板
  • 网站开发到上线在线生成小程序
  • 动易网站设计方案郑州营销网站建设
  • 怎么上网站做简易注销的步骤郑州大学现代远程教育《网页设计与网站建设》课程考核要求
  • 新乡网站建设新乡长沙本地论坛有哪些
  • 潍坊中企动力做的网站怎么样wordpress接入微博
  • 网站开发者所有权归属网站项目建设的必要性
  • 菜鸟网站编程广州网站设计权威乐云践新
  • 网站做接口到app 价格大地资源免费视频观看
  • 怎么给钓鱼网站做防红网站建设相关的
  • 教育培训的网站建设湖南网站建设小公司
  • 福建南平网站建设创意交易平台网
  • 做直播网站要哪些技术内容营销理论
  • 价格划算的网站开发怎么找有赞做网站
  • 做网站店铺图片用什么软件网络营销方案格式
  • 做外贸要自己建网站吗有效的网络营销方式
  • 精通网站开发书籍做网站获取手机号码
  • 论坛做视频网站有哪些济南新站seo外包
  • 哪类型网站容易做冷水滩做微网站
  • 搭建企业网站流程保定徐水网站建设
  • 建设单位到江川区住房和城乡建设局网站伦敦 wordpress 设计
  • 响应式网站的服务麦德龙网站建设目标
  • 做国外单的网站叫什么海南省海口市网站建设
  • 杭州响应式网站案例wordpress5.2.2
  • 网站建设运营维护合同wordpress资源搜索插件
  • 国外网站流量查询东莞网站建设教程
  • 餐饮类网站建设达到的作用东莞工程建设交易中心网
  • 网站设计 知识产权湖北网站建设xiduyun
  • 猫咪网站模版下载中国风 古典 红色 网站源代码