当前位置: 首页 > news >正文

千度网站网站的认识

千度网站,网站的认识,网站建设背景需要写些什么软件,做公司网站多少钱现如今#xff0c;检索增强生成(Retrieval-augmented generation#xff0c;RAG)管道已经能够使得大语言模型(Large Language Models#xff0c;LLM)在其响应环节中#xff0c;充分利用外部的信息源了。不过#xff0c;由于RAG应用会针对发送给LLM的每个请求#xff0c;都…现如今检索增强生成(Retrieval-augmented generationRAG)管道已经能够使得大语言模型(Large Language ModelsLLM)在其响应环节中充分利用外部的信息源了。不过由于RAG应用会针对发送给LLM的每个请求都去检索外部信息而LLM实际上已经包含了大量无需检索即可使用的知识因此整个过程反而显得效率低下。 那么我们是否可以通过配置LLM使其只在内部知识不足的情况下才去使用RAG呢?目前博尔扎诺大学(University of Bozen-Bolzano)和布鲁诺-凯斯勒基金会(Fondazione Bruno Kessler)的研发人员开发的一项“自适应LLM(Adapt-LLMhttps://arxiv.org/abs/2404.19705)”技术可以训练LLM动态地确定它们是否需要在问题解答任务中检索额外的上下文信息并避免不必要的外部检索来提高LLM应用的效率。 记忆与检索 通常LLM回答问题的方法主要有两种。这两种方法好比闭卷答题与开卷答题 第一种是依靠在训练过程中获得的参数记忆。而这些参数记忆的局限性在于它需要完全基本语料的训练。你可以通过微调或少量提示技术来提高参数记忆的性能从而将模型的注意力集中在相关参数上。不过在模型必须动态使用新的信息(例如近期的新闻或是未包含在训练语料库中的私人信息)的情况下这种方法并不实用。 第二种是使用信息检索器为模型提供上下文信息。而检索增强生成就属于这种方法。不过信息检索的问题在于有时模型并不需要额外的上下文信息其内部知识足以回答问题。 而作为人类的我们使用的却是混合方法。例如当我们对某个问题的答案了如指掌时我们便可立即作答。但当我们对自己的知识没有信心时就会去查找外部来源。目前一些LLM技术通过“常见度评分”机制来使用此类混合方法。其假设前提是当问题十分常见时模型就会利用内部记忆知识进行回答;而对于不太常见的问题模型则需要RAG系统的帮助来获取必要的信息。不过这种方法往往要求问题附有常见程度的评分而这并非总能够获取到的。 Adapt-LLM Adapt-LLM框架 顾名思义Adapt-LLM为了实现“自适应检索”而训练语言模型使其能够自主地决定何时该使用信息检索系统来获取更多的上下文信息。其研发人员指出“在这种方法中如果任务的解决方案已被编码在模型的参数中它将直接使用由模型生成的解决方案。反之如果答案没有被编码在模型的知识域里那么就需要借助外部知识来生成答案。” 就工作流程而言Adapt-LLM可分为四个步骤 首个包含了问题的提示被发送给Adapt-LLM模型处。该模型会对提示进行评估以确定是否需要额外的语境来有效地回答问题。如果模型认为不需要额外的上下文它就会直接根据参数存储做出响应。如果Adapt-LLM模型需要额外的上下文它会返回一个类似的特殊token。然后应用程序可以使用信息检索器根据问题获取上下文并将其与原始提示结合起来。 可见这种灵活的方法使得模型能够在利用外部环境和提供直接答案之间取得平衡。 训练Adapt-LLM 为了训练 Adapt-LLM模型我们首先需要一个包含了问题、上下文和答案的元组(tuples)数据集。然后针对每个元组为模型提供并不包含上下文的问题并指示它在对自己的知识“有信心”时直接回答而在需要额外上下文时返回 。 如果模型返回了正确的答案则表明它已掌握了参数知识并创建了一个包含问题和答案(但不包含上下文)的新的训练实例。如果模型返回错误的答案则需要创建两个训练实例一个是包含了问题和 答案的“参数提示”另一个是包含了问题、上下文、说明和答案的“上下文提示”。 然后在包含了这两种类型示例的数据集上研发人员对基础模型进行训练从而形成Adapt-LLM的行为。 Adapt-LLM的测试结果 研发人员在PopQA(https://huggingface.co/datasets/akariasai/PopQA)上对Adapt-LLM进行了多次测试。此处的PopQA是一个从各种在线平台上收集问题的数据集。他们使用 Llama-2 7B 作为基础的LLM并在由 NQ 和 SQuAD 问答数据集所创建的Adapt-LLM数据集上对其进行了训练。测试完毕后他们将Adapt-LLM模型与完全不检索模型、以及始终检索模型进行了比较。 研究结果表明Adapt-LLM的表现比只依赖参数记忆的永不检索模型要好得多。同时与始终检索模型相比它也能够减少检索的使用量同时当其参数记忆优于RAG系统返回的信息时还能够提高整体性能。 据此研发人员认为“当Adapt-LLM决定去检索额外的信息时其有上下文的结果明显优于没有上下文的结果。同样当Adapt-LLM依靠其参数记忆直接回答问题时也能提供较高的准确率。”研发人员补充道“这些测试结果足以表明该模型能够有效地分辨出何时检索信息以及何时可以在没有进一步语境的情况下回答问题。” 利与弊 遗憾的是研发人员并没有公布 Adapt-LLM的代码和模型因此我们很难去验证他们的实验结果。然而由于这是一项非常实用的技术他们应该公布关于token的使用、及其推理时间等研究结果。幸运的是该算法实现起来比较容易任何人都可以创建自己的 Adapt-LLM版本进而去验证它在各个领域数据集上的表现。
http://www.w-s-a.com/news/533549/

相关文章:

  • 宜春网站建设推广网络推广工作好干吗
  • 网站程序0day平顶山市做网站
  • 企业网站名称怎么写哔哩哔哩网页版官网在线观看
  • 直播网站建设书籍阿里巴巴网站建设销售
  • 肇庆企业自助建站系统郴州网站建设解决方案
  • 长沙专业做网站排名游戏开发大亨内购破解版
  • 网站推广适合女生做吗网站如何开启gzip压缩
  • 做外单阿里的网站建站平台那个好
  • 全国性质的网站开发公司关于网站开发的请示
  • 齐齐哈尔住房和城乡建设局网站生物科技公司网站模板
  • 中国建设协会官方网站前端培训的机构
  • 网站建设套餐是什么北京孤儿院做义工网站
  • 网站如何做微信支付链接做暧小视频xo免费网站
  • SEO案例网站建设重庆建站模板平台
  • 上海seo网站推广公司wordpress 小米商城主题
  • 搭建服务器做网站什么网站可以请人做软件
  • 上海建筑建材业网站迁移公家网站模板
  • 仿制别人的网站违法吗网站防火墙怎么做
  • 杨浦网站建设 网站外包公司如何进行网络推广
  • wordpress+仿站步骤超详细wordpress常用函数
  • 浙江手机版建站系统哪个好怎样黑进别人的网站
  • 企业网站搜索引擎推广方法装修网络公司
  • 网站运营优化建议wordpress 添加媒体
  • 用asp.net做网站计数器施工企业会计的内涵
  • 网站被黑咋样的网站建设 设计业务范围
  • 网站开发学哪种语言网站编辑器失效
  • WordPress插件提示信息江阴网站优化
  • 网站开发用的软件如何做网站内容管理
  • 扬州网站建设公司网站推广是什么岗位
  • 双线网站管理咨询公司是做什么