当前位置: 首页 > news >正文

滕州做网站比较好的网络公司网站主视觉

滕州做网站比较好的网络公司,网站主视觉,刷赞网站推广qq,长春网站优化常识引言 解码器Transformer的规模不断壮大#xff0c;轻松达到千亿级参数。同时由于该规模#xff0c;基于提示或微调在各种NLP任务上达到SOTA结果。但目前为止解码器Transformer还无法应用在语义搜索或语句嵌入上。 为了简单#xff0c;下文中以翻译的口吻记录#xff0c;比…引言 解码器Transformer的规模不断壮大轻松达到千亿级参数。同时由于该规模基于提示或微调在各种NLP任务上达到SOTA结果。但目前为止解码器Transformer还无法应用在语义搜索或语句嵌入上。 为了简单下文中以翻译的口吻记录比如替换作者为我们。 作者提出了SGPT方法来解决这一问题代码开源在 https://github.com/Muennighoff/sgpt 。 1. 总体介绍 现阶段主要依赖于类似BERT的仅编码器Transformer编码句嵌入以提供语义搜索。因为目前尚未清楚如何从解码器中提取语义嵌入。但这种做法的好处是明显的 性能 解码器的参数量巨大这有可能产生SOTA结果节省计算 只需要维护解码器架构只训练一个大规模解码器并将其重用于搜索可以节省成本 图1 给定一个查询 q q q文档 d 1 − 3 d_{1-3} d1−3​SGPT通过分数 s 1 − 3 s_{1-3} s1−3​对文档进行排序。(a)Cross-Encoder拼接查询和文档然后一起编码。分数是对数概率。(b)Bi-Encoder分别对查询和文档进行编码生成的文档向量 v 1 − 3 v_{1-3} v1−3​可以缓存起来然后可以在新查询进来的时刻 t c t_c tc​被访问。分数是预先相似度。 在本篇工作中我们提出SGPT将仅解码器应用于语义搜索并提取有语义的句子嵌入。区分四种设置Cross-Encoder、Bi-Encoder、对称以及非对称。 2. 相关工作 Cross-Encoder同时对查询和文档进行编码。 Bi-Encoder分别对查询和文档进行编码。有研究者提出了一个基于GPT的Bi-Encoder cpt-text。 Cross-Encoder往往优于Bi-Encoder但速度较慢。 非对称搜索意味着查询和文档不可互换。 对称搜索意味着查询和文档可以互换。 3. SGPT Cross-Encoder 3.1 非对称搜索 给定查询 q q q和文档语料库 D D D对最有可能的文档 d ∗ d^* d∗感兴趣使用贝叶斯理论可以表示为 d ∗ arg ⁡ max ⁡ d ∈ D P ( d ∣ q ) arg ⁡ max ⁡ d ∈ D P ( q ∣ d ) P ( d ) P ( q ) arg ⁡ max ⁡ d ∈ D P ( q ∣ d ) P ( d ) (1) d^* \arg \max_{d \in D}P(d|q) \arg \max_{d\in D} \frac{P(q|d)P(d)}{P(q)} \arg \max _{d \in D} P(q|d)P(d) \tag 1 d∗argd∈Dmax​P(d∣q)argd∈Dmax​P(q)P(q∣d)P(d)​argd∈Dmax​P(q∣d)P(d)(1) 由于文档的长度是可变的且计算 P ( q ∣ d ) P(q|d) P(q∣d)比 P ( d ∣ q ) P(d|q) P(d∣q)容易因此我们给定嵌入提示 P P P的文档标记计算查询标记 q i , ⋯ , n q_{i,\cdots,n} qi,⋯,n​的联合概率为 p ( q i , ⋯ , q n ∣ p 1 , ⋯ , p i − 1 ) p(q_{i},\cdots,q_n|p_1,\cdots,p_{i-1}) p(qi​,⋯,qn​∣p1​,⋯,pi−1​)。因为 P ( d ) P(d) P(d)通常在语料库 D D D中不会变化而忽略 P ( d ) P(d) P(d)。 在实践中使用对数概率——模型输出的softmax的对数。 3.2 对称搜索 表3 Quora上的SGPE-CE(Cross-Encoder)对称搜索结果。来自{query}的对数概率之和作为重排名分数。从{doc}左侧截断过长的标记。重排名前100的文档分数为nDCG10。 使用§3.1中相同的方法但调整对称搜索的提示。如表3所示。 4. SGPT Bi-Encoder 4.1 对称搜索 由于自回归解码器Transformer的因果注意掩码即每个位置的token只能感知到其之前的信息。因此只有最后一个token关注了序列中的所有标记。SGPT提出使用位置加权池化方法为后面的标记赋予更高的权重 v ∑ i 1 S w i h i where w i i ∑ i 1 S i (2) v \sum_{i1}^S w_ih_i \quad \text{where} \quad w_i \frac{i}{\sum_{i1}^S i} \tag 2 vi1∑S​wi​hi​wherewi​∑i1S​ii​(2) S S S是序列长度 h i h_i hi​是第 i i i个隐藏状态 v v v是查询或文档嵌入。 我们将加权均值池化与最后一个标记池化进行比较其中最后一个标记的隐藏状态是嵌入或常规的均值池化。 使用批内负样本进行监督对比学习给定查询-文档对 { q ( i ) , d ( i ) } i 1 M \{q^{(i)},d^{(i)}\}_{i1}^M {q(i),d(i)}i1M​优化损失函数 J CL ( θ ) 1 M ∑ i 1 M log ⁡ exp ⁡ ( τ ⋅ σ ( f θ ( q ( i ) ) , f θ ( d ( i ) ) ) ) ∑ j 1 M exp ⁡ ( τ ⋅ σ ( f θ ( q ( i ) ) , f θ ( d ( j ) ) ) ) (3) J_\text{CL}(\theta) \frac{1}{M} \sum_{i1}^M \log \frac{\exp(\tau \cdot \sigma(f_\theta(q^{(i)}), f_\theta(d^{(i)})))}{\sum_{j1}^M \exp(\tau \cdot \sigma(f_\theta(q^{(i)}), f_\theta(d^{(j)})))} \tag 3 JCL​(θ)M1​i1∑M​log∑j1M​exp(τ⋅σ(fθ​(q(i)),fθ​(d(j))))exp(τ⋅σ(fθ​(q(i)),fθ​(d(i))))​(3) f θ f_\theta fθ​是SGPT模型输出固定大小的向量 σ \sigma σ是余弦相似度 τ \tau τ是一个温度参数设为 20 20 20相当于除以 0.05 0.05 0.05。在训练和推理期间将序列长度限制为75个标记。 4.2 非对称搜索 遵守§4.1中同样的设置。对于非对称搜索将模型序列长度限制为300个标记。增加括号使模型区分查询和文档将查询 q q q的标记增加两个中括号作为 [ q 0 − n ] [q_{0-n}] [q0−n​]文档使花括号 { d 0 − n } \{d_{0-n}\} {d0−n​}。 5. 结论 这篇工作介绍了SGPT提出对GPT模型进行修改将它们用于语义搜索的Cross-或Bi-编码器。 SGPT-BE使用位置加权均值得到最先进的句子嵌入可以用于语义搜索或其他嵌任务。 SGPT-CE提取预训练GPT模型的对数概率产生无监督的最先进的搜索结果但只能用于语义搜索。 B任务和实验细节 B.1 提示 总结 ⭐ 作者提出了利用仅编码器的类GPT架构来产生句子嵌入以支持语义检索和其他嵌入任务。在Bi-Encoder设置中使用位置加权平均池化来得到具有语义信息的句子嵌入。在Cross-Encoder设置中提取预训练GPT模型的对数概率产生无监督结果。
http://www.w-s-a.com/news/645503/

相关文章:

  • 张家界建设企业网站学校资源网站建设方案
  • 网站制作教程书籍业务管理系统
  • 上传网站空间的建站程序怎么删除c 网站开发案例详解下载
  • 企业网站维护兼职丹阳网站优化
  • 秦皇岛网站开发公司怎么注册自己的公司
  • 写作网站哪个能得稿费绿色环保企业网站模板
  • 牡丹江网站建设定制开发安徽建设工程信息网官网入口
  • 有什么好的网站建设的书适合在家做的网站工作
  • wordpress情侣源码西安网站快速优化
  • 昆明网站建设高端定制100种班服设计图
  • 网站开发程序说明html网页制作接单
  • 企业网站货物查询怎么做制作文件的软件
  • 怎么做网站的防盗链北京门户企业网站建设
  • 网站推广的主流方法淘客网站 源码
  • 网站海外推广怎么做多用户商城系统源码教程
  • 猎头做单网站网站创建费用
  • 住房和城乡建设网站 上海自己做网站还是公众号
  • 投票网站怎么制作电商网站模板html
  • 攀枝花移动网站建设抖音广告投放平台
  • 什么是网站设计第一装修网
  • 公司网站建设一条织梦门户网站源码
  • 网站改版中su域名注册
  • 做网站有没有前途济南产品网站建设外包
  • 网站备案咨询做静态网站多少钱
  • 软件开发和网站建设一样吗太原今天最新通知
  • 网站推广如何做的表白制作网站
  • 网站风格分析免费织梦网站源码
  • 大连手机自适应网站建设织梦做音乐网站
  • 烟台网站建设优化网页设计师证
  • 手机微网站建设多少钱个人网站 wordpress