当前位置: 首页 > news >正文

网站策划案模板邵阳住建部网站

网站策划案模板,邵阳住建部网站,接单网app下载安装,电商如何推广自己的产品文章目录 一、词向量基础知识1.1 One-hot表示1.2 Distributed表示 二、word2vec基础知识2.1 CBOW和Skip-gram 三、基于Hierarchical Softmax的 CBOW 模型和 Skip-gram 模型3.1 CBOW 模型3.2 Skip-gram 模型 参考资料 由于计算机不能直接对各种字符进行运算#xff0c;为此需要… 文章目录 一、词向量基础知识1.1 One-hot表示1.2 Distributed表示 二、word2vec基础知识2.1 CBOW和Skip-gram 三、基于Hierarchical Softmax的 CBOW 模型和 Skip-gram 模型3.1 CBOW 模型3.2 Skip-gram 模型 参考资料 由于计算机不能直接对各种字符进行运算为此需要将词的表示进行一些转换。因此在自然语言处理中通常需要对输入的语料进行一些预处理 其中如何对词汇进行表示是很关键的问题糟糕的表示方法容易导致所谓的 “Garbage in, garbage out”。 一、词向量基础知识 对词汇的表示常见的有One-hot represention 和 Distributed Representation 两种形式。 1.1 One-hot表示 One-hot represention 将词汇用二进制向量表示这个向量表示的词汇仅仅在词汇表中的索引位置处为1其他地方都为0。例子如下图所示 这样的方式表示词汇虽然简单但是也有如下缺点 单词的上下文丢失了。没有考虑频率信息。词汇量大的情况下向量维度高且稀疏占用内存。 1.2 Distributed表示 Distributed Representation 也可以理解为Word Embedding具体形式为 注意到使用Word Embedding得到的向量维度远小于词汇表的个数。如果将上面的向量在空间中表示可以得到 上图告诉我们通过词向量之间的距离可以度量他们之间的关系意思相近的词在空间中的距离比较近。出现这种现象的原因是最后得到的词向量在训练过程中学习到了词的上下文。 那么Distributed Representation 要如何得到 使用神经网络语言模型可以得到使用word2vec。 二、word2vec基础知识 word2vec是google在2013年推出的一个NLP工具它的特点是将所有的词向量化这样词与词之间就可以定量的去度量他们之间的关系挖掘词之间的联系。在正式讲解 word2vec 前还需要对一些基本概念有所了解。 2.1 CBOW和Skip-gram CBOW模型Continuous Bag-of-Words Model和Skip-gram模型Continuous Skip-gram Model。如下图所示 由图可见两个模型都包含三层输入层、投影层和输出层。区别在于 CBOW模型 在已知上下文 w t − 2 , w t − 1 , w t 1 w t 2 w_{t-2}, w_{t-1}, w_{t1} w_{t2} wt−2​,wt−1​,wt1​wt2​的前提下预测当前词 w t w_t wt​Skip-gram模型 在已知当前词 w t w_t wt​的前提下预测上下文 w t − 2 , w t − 1 , w t 1 w t 2 w_{t-2}, w_{t-1}, w_{t1} w_{t2} wt−2​,wt−1​,wt1​wt2​ 三、基于Hierarchical Softmax的 CBOW 模型和 Skip-gram 模型 3.1 CBOW 模型 CBOW 模型是 在已知上下文 w t − 2 , w t − 1 , w t 1 w t 2 w_{t-2}, w_{t-1}, w_{t1} w_{t2} wt−2​,wt−1​,wt1​wt2​的前提下预测当前词 w t w_t wt​ 。后面我们用 c o n t e x t ( w ) context(w) context(w)来表示词 w w w的上下文中的词通常我们取词 w w w前后 2 2 2c个单词来组成 c o n t e x t ( w ) context(w) context(w)。下图给出了CBOW模型的网络结构 它包括三层输入层、投影层、输出层。 输入层包含 c o n t e x t ( w ) context(w) context(w)中的 2 c 2c 2c个词向量 v ( c o n t e x t ( w ) 1 ) , v ( c o n t e x t ( w ) 2 ) , … , v ( c o n t e x t ( w ) 2 c ) ∈ R m \mathbf v(context(w)_1),\mathbf v(context(w)_2),\ldots,\mathbf v(context(w)_{2c}) \in \mathbf R^m v(context(w)1​),v(context(w)2​),…,v(context(w)2c​)∈Rm 每个词向量的长度是 m m m。投影层将输入层的 2 c 2c 2c个词向量累加求和即 x w ∑ i 1 2 c v ( c o n t e x t ( w ) i ) \mathbf x_w \sum_{i1}^{2c}\mathbf v(context(w)_i) xw​∑i12c​v(context(w)i​)。输出层输出层是用哈夫曼算法以各词在语料中出现的次数作为权值生成的一颗二叉树其叶子结点是语料库中的所有词叶子个数 N ∣ D ∣ N|D| N∣D∣分别对应词典D中的词。 神经网络语言模型(NNLM)中大部分计算集中在隐藏层和输出层之间的矩阵向量运算以及输出层上的softmax归一化运算CBOW模型对此进行了改进。与传统的神经网络语言模型相比 NNLM是简单的将输入的向量进行拼接而CBOW模型将上下文的词累加求和作为输入NNLM是线性结构而CBOW是树形结构NNLM具有隐藏层而CBOW没有隐藏层 3.2 Skip-gram 模型 Skip-gram 模型的结构也是三层下面以样本 ( w , c o n t e x t ( w ) (w,context(w) (w,context(w)为例说明。如下图所示 它也包括三层输入层、投影层、输出层。 输入层只包含当前样本中心词 w w w词向量 v ( w ) ∈ R m \mathbf v(w) \in \mathbf R^m v(w)∈Rm每个词向量的长度是 m m m。投影层恒等投影即和输入层一样保留是为了与CBOW对比。输出层与CBOW类似 对于Skip-gram模型已知的是当前词 w w w需要对其上下文 c o n t e x t ( w ) context(w) context(w)中的词进行预测所以 类似于CBOW所以 其中 所以我们的优化目标是 采用随机梯度上升法将这个函数最大化。 参考资料 【AI理论学习】理解词向量、CBOW与Skip-Gram模型
http://www.w-s-a.com/news/863308/

相关文章:

  • 新津县建设局网站怎么做区块链网站
  • 网站设计与制作是什么专业广州优化网站
  • 腾讯有做淘宝客网站吗网站开发包
  • 网站整体营销方案网站建设百度贴吧
  • 宣传式网站养生网站模板
  • 临猗网站建设天津做网站哪家服务好
  • 郑州做网站九零后用织梦建设网站的步骤
  • 莱芜网站优化加徽信xiala5江都网站制作
  • 网站开发工具书焦作网站开发公司电话
  • 石狮网站建设报价百度爱采购怎么优化排名
  • 广州网站开发系统如何建设百度网站
  • 免费建立一个个人网站网站流量图怎么做
  • 微信网站建设公司首选网站后台更新 前台不显示
  • 撰写网站专题活动策划方案未成年做网站
  • 免费在线响应式网站自助建站网页设计与网站建设试卷
  • 四川省肿瘤医院搜索优化整站优化
  • 新钥匙建站深圳创业补贴政策2023
  • 建网站需要准备什么网站三个月没排名
  • 网站运营规划网站推广的手段
  • cvm可以做网站服务器吗网片围栏
  • 培训前端网站开发网站开发 群
  • 成都武侯区网站建设wordpress菜单分类目录
  • 牡丹江市西安区建设局网站给公司做的东西放到自己网站上
  • 做网站的前景如何郑州seo规则
  • 学校户网站建设方案专业设计服务
  • 电子商务网站建设好么有一个网站怎么做cpc
  • 镇海住房和建设交通局网站跨境电商就是忽悠人的
  • 维修网站怎么做跨境电商发展现状如何
  • 手机网站设计公司皆选亿企邦桐乡市建设局官方网站
  • 企业培训 电子商务网站建设 图片山东省住房和城乡建设厅网站主页