当前位置: 首页 > news >正文

公众号 微网站开发一般做公司网站需要哪几点

公众号 微网站开发,一般做公司网站需要哪几点,建设网站需要租服务器吗,公司网页设计制作价格文章目录3.1NLTK工具集3.1.1常用语料库和词典资源3.1.2常见自然语言处理工具集3.2LTP工具集3.3pytorch基础3.3.1张量基本概念3.3.2张量基本运算3.3.3自动微分3.3.4调整张量形状3.3.5广播机制3.3.6索引与切片3.3.7降维与升维3.4大规模预训练模型3.1NLTK工具集 3.1.1常用语料库和… 文章目录3.1NLTK工具集3.1.1常用语料库和词典资源3.1.2常见自然语言处理工具集3.2LTP工具集3.3pytorch基础3.3.1张量基本概念3.3.2张量基本运算3.3.3自动微分3.3.4调整张量形状3.3.5广播机制3.3.6索引与切片3.3.7降维与升维3.4大规模预训练模型3.1NLTK工具集 3.1.1常用语料库和词典资源 下载语料库 import nltk nltk.download()停用词 from nltk.corpus import stopwordsprint(stopwords.words(english))[i, me, my, myself, we, our, ours, ourselves,常用词典 (1)wordNet from nltk.corpus import wordnet syns wordnet.synsets(bank) print(syns[0].name()) print(syns[0].definition()) print(syns[0].examples()) print(syns[0].hypernyms())bank.n.01 sloping land (especially the slope beside a body of water) [they pulled the canoe up on the bank, he sat on the bank of the river and watched the currents] [Synset(slope.n.01)]3.1.2常见自然语言处理工具集 分句 将一个长文档分成若干句子。 from nltk.corpus import gutenberg from nltk.tokenize import sent_tokenize text gutenberg.raw(austen-emma.txt) sentences sent_tokenize(text) print(sentences[0])3.2LTP工具集 from ltp import LTP ltp LTP()segment, hidden ltp.seg([南京市长江大桥。]) print(segment)AttributeError: LTP object has no attribute seg 出现一些问题...3.3pytorch基础 PyTorch是一个基于张量Tensor的数学运算工具包提供了两个高级功能 具有强大的GPU图形处理单元也叫显卡加速的张量计算功能能够自动进行微分计算从而可以使用基于梯度的方法对模型参数进行优化。 3.3.1张量基本概念 import torchprint(torch.empty(2, 3)) print(torch.rand(2, 3)) # 0-1均匀 print(torch.randn(2, 3)) # 标准正态生成 print(torch.zeros(2, 3, dtypetorch.long)) # 设置数据类型 print(torch.zeros(2, 3, dtypetorch.double)) print(torch.tensor([[1.0, 2.0, 3.0],[4.0, 5.0, 6.0] ])) # 自定义 print(torch.arange(10)) # 排序tensor([[-8.5596e-30, 8.4358e-43, -8.5596e-30],[ 8.4358e-43, -1.1837e-29, 8.4358e-43]]) tensor([[0.7292, 0.9681, 0.8636],[0.3833, 0.8089, 0.5729]]) tensor([[-1.7307, 1.2082, 1.9423],[ 0.2461, 2.3273, 0.1628]]) tensor([[0, 0, 0],[0, 0, 0]]) tensor([[0., 0., 0.],[0., 0., 0.]], dtypetorch.float64) tensor([[1., 2., 3.],[4., 5., 6.]]) tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])Process finished with exit code 0 使用gpu print(torch.rand(2, 3).cuda()) print(torch.rand(2, 3).to(cuda)) print(torch.rand(2, 3), devicecuda)3.3.2张量基本运算 pytorch的运算说白了就是将数据保存在向量中进行运算。 ±*/ x torch.tensor([1, 2, 3], dtypetorch.double) y torch.tensor([4, 5, 6], dtypetorch.double) print(x y) print(x - y) print(x * y) print(x / y) print(x.dot(y)) print(x.sin()) print(x.exp())tensor([5., 7., 9.], dtypetorch.float64) tensor([-3., -3., -3.], dtypetorch.float64) tensor([ 4., 10., 18.], dtypetorch.float64) tensor([0.2500, 0.4000, 0.5000], dtypetorch.float64) tensor(32., dtypetorch.float64) tensor([0.8415, 0.9093, 0.1411], dtypetorch.float64) tensor([ 2.7183, 7.3891, 20.0855], dtypetorch.float64)x torch.tensor([[1.0, 2.0, 3.0],[4.0, 5.0, 6.0] ]) # 自定义 print(x.mean(dim0)) # 每列取均值 print(x.mean(dim0, keepdimTrue)) # 每列取均值 print(x.mean(dim1)) # 每行取均值 print(x.mean(dim1, keepdimTrue)) # 每行取均值 y torch.tensor([[7.0, 8.0, 9.0],[10.0, 11.0, 12.0] ]) print(torch.cat((x, y), dim0)) print(torch.cat((x, y), dim1))tensor([2.5000, 3.5000, 4.5000]) tensor([[2.5000, 3.5000, 4.5000]]) tensor([2., 5.]) tensor([[2.],[5.]]) tensor([[ 1., 2., 3.],[ 4., 5., 6.],[ 7., 8., 9.],[10., 11., 12.]]) tensor([[ 1., 2., 3., 7., 8., 9.],[ 4., 5., 6., 10., 11., 12.]])Process finished with exit code 0 3.3.3自动微分 可自动计算一个函数关于一个变量在某一取值下的导数。 x torch.tensor([2.], requires_gradTrue) y torch.tensor([3.], requires_gradTrue) z (xy) * (y-2) print(z) z.backward() # 自动调用反向传播算法计算梯度 print(x.grad, y.grad)tensor([5.], grad_fnMulBackward0) tensor([1.]) tensor([6.])Process finished with exit code 03.3.4调整张量形状 x torch.tensor([2.], requires_gradTrue) y torch.tensor([3.], requires_gradTrue) z (xy) * (y-2) print(z) z.backward() # 自动调用反向传播算法计算梯度 print(x.grad, y.grad)x torch.tensor([[1.0, 2.0, 3.0],[4.0, 5.0, 6.0] ]) # 自定义 print(x, x.shape) print(x.view(2, 3)) print(x.view(3, 2)) print(x.view(-1, 3)) # -1就是针对非-1的自动调整 y torch.tensor([[7.0, 8.0, 9.0],[10.0, 11.0, 12.0] ]) print(y.transpose(0, 1))tensor([5.], grad_fnMulBackward0) tensor([1.]) tensor([6.]) tensor([[1., 2., 3.],[4., 5., 6.]]) torch.Size([2, 3]) tensor([[1., 2., 3.],[4., 5., 6.]]) tensor([[1., 2.],[3., 4.],[5., 6.]]) tensor([[1., 2., 3.],[4., 5., 6.]])Process finished with exit code 0 3.3.5广播机制 3.3.6索引与切片 3.3.7降维与升维 x torch.tensor([1.0, 2.0, 3.0, 4.0] ) print(x.shape) y torch.unsqueeze(x, dim0) print(y, y.shape) y x.unsqueeze(dim0) print(y, y.shape) z y.squeeze() print(z, z.shape)torch.Size([4]) tensor([[1., 2., 3., 4.]]) torch.Size([1, 4]) tensor([[1., 2., 3., 4.]]) torch.Size([1, 4]) tensor([1., 2., 3., 4.]) torch.Size([4])3.4大规模预训练模型
http://www.w-s-a.com/news/379717/

相关文章:

  • 平板上做网站的软件邀约网站怎么做请柬
  • 企业网站成品源码邯郸做网站流程
  • 建设网站需要什么技术两个网站放在同一个服务器 备案
  • 焦作做网站推广天津网络关键词排名
  • siteserver cms网站访问量挂机宝可以做网站吗
  • 普宁网站建设公司网络商城设计
  • wordpress主题 外贸网站wordpress安装后输入帐号登不进去
  • 陕西省西安市建设局网站永登网站设计与建设
  • 广东网站设计招工.免费咨询贷款
  • 做试题网站在线做c 题的网站
  • 青岛发现51例阳性南京专业网站优化公司
  • 南昌建站如何上wordpress
  • 洛阳网站建设优惠公司建筑企业上市公司有哪些
  • 营销型网站建设营销型网站建设手机网站设计需要学什么
  • 在线视频网站 一级做爰片南通网站建设找哪家
  • 网站优化文章东莞专业网站建设价钱
  • 哈尔滨网页设计网站模板泰兴建设局网站
  • 响应式网站设计公司报纸做垂直门户网站
  • 陕西旭泽建设有限公司网站企业网站建设软件需求分析
  • 上海公司网站建设方案中企动力西安分公司
  • dedecms网站后台怎样才能上百度
  • 云互联的网站名字亚马逊雨林生物
  • 电商网站功能企查查企业信息查询网
  • 特色网站建设中国住房和城乡建设局官网
  • 长春市住房城乡建设厅网站做白酒网站
  • 自己的网站怎么做的成品免费ppt网站
  • 番禺区网站建设哪里有泰安公司
  • 网站制作详细过程网站开发最强工具
  • 孟村县做网站长春城投建设投资有限公司网站
  • 国家重大建设项目库网站wordpress安装 var