成都营销型网站建设推广,天津快推科技有限公司,wordpress设置导航高度,南通营销型网站1. 背景#xff1a;
使用 mindspore 学习神经网络#xff0c;打卡第四天#xff1b;
2. 训练的内容#xff1a;
使用 mindspore 的常见的数据变换 Transforms 的使用方法#xff1b;
3. 常见的用法小节#xff1a;
支持一系列常用的 Transforms 的操作
3.1 Vision …1. 背景
使用 mindspore 学习神经网络打卡第四天
2. 训练的内容
使用 mindspore 的常见的数据变换 Transforms 的使用方法
3. 常见的用法小节
支持一系列常用的 Transforms 的操作
3.1 Vision Transforms 操作
Rescale: 缩放平移因子 Normalize: 图像归一化 HWC2CHW: 转换图像格式
# 接收一个数据增强操作序列然后将其组合成单个数据增强操作
composed transforms.Compose([vision.Rescale(1.0 / 255.0, 0),vision.Normalize(mean(0.1307,), std(0.3081,)),vision.HWC2CHW()]
)train_dataset train_dataset.map(composed, image)
image, label next(train_dataset.create_tuple_iterator())
print(image.shape)3.2 Text Transforms
文本数据需要有分词Tokenize、构建词表、Token转Index等操作。这里简单介绍其使用方法
Tokenizer
# Tokenizer允许用户自由实现分词策略。随后我们利用map操作将此分词器应用到输入的文本中对其进行分词
texts [Welcome to Beijing]
test_dataset GeneratorDataset(texts, text)def my_tokenizer(content):return content.split()test_dataset test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))生成词表
# 使用Vocab生成词表。这里我们选择使用Vocab.from_dataset方法从数据集中生成词表
vocab text.Vocab.from_dataset(test_dataset)
print(vocab.vocab())# 转成 Index
test_dataset test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))3.3 Lambda Transforms
通过 lambda 函数进行 transforms 变化
# Lambda函数是一种不需要名字的函数
test_dataset GeneratorDataset([1, 2, 3], data, shuffleFalse)
test_dataset test_dataset.map(lambda x: x * 2)
print(list(test_dataset.create_tuple_iterator()))def func(x):return x * x 2test_dataset test_dataset.map(lambda x: func(x))print(list(test_dataset.create_tuple_iterator()))活动参与链接
https://xihe.mindspore.cn/events/mindspore-training-camp