当前位置: 首页 > news >正文

为了推出企业网站建设修改仪表盘WordPress

为了推出企业网站建设,修改仪表盘WordPress,临邑建设局官方网站,网站找图片做海报侵权在人工智能的浪潮中#xff0c;大型语言模型#xff08;LLMs#xff09;已经成为推动自然语言处理技术发展的关键力量。它们在理解、生成语言以及执行复杂任务方面展现出了巨大的潜力。然而#xff0c;尽管在特定领域内取得了显著进展#xff0c;现有的开源LLMs在处理多样…在人工智能的浪潮中大型语言模型LLMs已经成为推动自然语言处理技术发展的关键力量。它们在理解、生成语言以及执行复杂任务方面展现出了巨大的潜力。然而尽管在特定领域内取得了显著进展现有的开源LLMs在处理多样化和高难度的推理任务时仍然难以与最前沿的专有模型相媲美。这一差距不仅限制了开源模型的应用范围也阻碍了整个领域的发展和创新。 推理任务特别是那些需要综合运用数学知识、编程技能和逻辑分析的挑战对LLMs提出了更高的要求。为了提升模型的推理能力研究者们需要开发出新的数据集来训练和优化模型同时也需要探索更有效的学习方法来提高模型的泛化能力和准确性。 本文正是在这样的背景下提出了ULTRAINTERACT——一个专为复杂推理任务设计的大规模、高质量的对齐数据集以及基于此数据集训练的EURUS系列模型。这些模型在多个推理基准测试中取得了突破性的成绩显著缩小了开源模型与专有模型之间的性能差距。通过深入分析和评估本文不仅展示了ULTRAINTERACT和EURUS模型的强大能力也为开源LLMs的进一步发展提供了宝贵的见解和资源。 EURUS-7B和EURUS-70B模型与其他基线模型在LeetCode编程问题和TheoremQA数学问题基准测试上的比较结果 EURUS-7B与比其大10倍的模型相当而EURUS-70B是唯一一个与GPT-3.5 Turbo性能相当的模型 ULTRAINTERACT 不同数据集中的示例说明如何构建偏好树其中每个指令都作为偏好树的根每个动作是一个节点 Figure 2 描述了三种不同的数据结构和方法用于构建和管理语言模型中的指令和反馈。这些方法都旨在提高模型在执行任务时的精确性和效率尤其是在编程和推理任务中。 左侧 CodeActInstruct这是一种数据结构用于指导模型执行编程任务。它包含了一系列的指令和行动模型需要按照这些指令来生成代码或执行相关任务。 Code-Feedback这个结构涉及到在模型生成代码后提供反馈。反馈包括代码的正确性、效率或其他评价标准用于指导模型学习和改进其代码生成能力。 中间 HH-RLHF这是一个特定的模型或方法用于提高语言模型在执行任务时的人类一致性Human-Likeness。这种方法涉及到对模型的输出进行评估和反馈以使其更加符合人类的思维方式和行为模式。 右侧 ULTRAINTERACT每个指令都被构建为一个偏好树preference tree。在这种结构中每个指令都是树的根而树的每个节点代表一个行动或决策。偏好树允许模型在执行任务时考虑多种可能的行动路径并根据反馈来优化这些路径。 Chosen Action被选择的行动即模型根据当前信息和偏好选择的最佳行动。 Rejected Action被拒绝的行动即模型在评估后认为不是最佳选择的行动。 Observation观察结果包括环境反馈或其他相关信息用于评估行动的效果。 Critique批评或评价来自用户或其他评价系统提供了对行动的深入分析和改进建议。 偏好树的构建允许ULTRAINTERACT数据集在多轮交互中进行偏好学习模型可以根据每一轮的反馈来调整其行动选择从而在复杂的推理任务中实现更好的性能。这种方法特别适用于需要逐步解决问题的场景如编程、数学问题求解或逻辑推理等任务。通过这种方式ULTRAINTERACT不仅提高了模型的决策质量还增强了其学习和适应新任务的能力。 ULTRAINTERACT数据集通过精心策划涵盖了数学、编程和逻辑推理等多种类型的复杂问题。这些问题来源于12个已经建立的数据集它们不仅在内容上具有多样性而且在难度和解决问题所需的策略上也表现出丰富性。这种设计使得数据集能够全面地训练和评估LLMs在不同领域的推理能力。 在ULTRAINTERACT中指令的选择经过了精心策划以确保它们在复杂性、质量和多样性上的高标准。研究者们专注于三个主要的推理任务数学问题求解、代码生成和逻辑推理。这些问题不仅具有挑战性而且拥有确切的解决方案这有助于提供高质量的反馈信号从而提高模型的推理性能。 ULTRAINTERACT数据集支持多轮交互这使得模型能够在解决问题的过程中与环境进行多次交流和学习。在每一轮交互中模型将问题分解为更小的子问题并通过生成代码或文本形式的行动来解决这些子问题。这种分解和互动的过程不仅模拟了人类解决问题的方式而且也使得模型能够逐步优化其解决方案。 通过一个具体的数学问题解决示例展示了模型如何在每个回合中生成推理链并从环境和批评模型获得观察和文本批评 ULTRAINTERACT的创新点偏好树的设计。与开放式对话不同许多推理任务对于正确的行动路径有着明确的偏好。ULTRAINTERACT通过构建偏好树为每个指令收集了成对的正确和错误的行动这些行动以树状结构组织从而促进了偏好学习。这种设计允许模型在每一轮交互中学习并改进其选择以更好地符合任务的客观偏好。 偏好树中的每个节点代表一个行动而树的路径则代表解决特定问题的一系列决策。通过这种方式ULTRAINTERACT不仅为模型提供了丰富的学习材料而且通过明确的正确与错误示例指导模型如何根据反馈进行自我修正和优化从而在复杂推理任务中实现更好的性能。 ULTRAINTERACT数据集的详细统计信息包括不同任务类型的指令数量、每个轨迹的回合数、每个轨迹的标记数等 ULTRAINTERACT数据集通过其独特的设计为LLMs提供了一个全面、高质量的训练环境使其能够在多样化的复杂推理任务中得到有效的训练和评估。 EURUS EURUS系列模型代表了在推理领域开源大型语言模型LLMs的最新进展。这些模型的开发利用了ULTRAINTERACT数据集通过监督式微调和偏好学习两种方法进行训练以提高模型解决复杂推理问题的能力。 监督式微调Supervised Fine-Tuning, SFT是提高模型性能的第一步。在这个过程中研究者们选择了两个基础模型Mistral-7B和CodeLLaMA-70B分别对应EURUS-7B-SFT和EURUS-70B-SFT。微调的目标是让模型更好地适应ULTRAINTERACT数据集中的指令和行动对。 在SFT阶段研究者们采用了一个独特的策略他们只使用正确的行动287K个来训练模型并且发现忽略交互历史只训练每个偏好树中的正确叶节点会有更好的性能。此外为了提高模型对指令的遵循能力他们还将UltraChat、ShareGPT2和OpenOrca等数据集混合到SFT数据中。 在监督式微调的基础上研究者们进一步探索了偏好学习Preference Learning。基于EURUS-SFT模型他们尝试了三种不同的偏好学习算法DPO、KTO和NCA。这些算法的目标是通过比较正确和错误的行动对来进一步优化模型的决策过程。 与SFT不同偏好学习阶段包括了ULTRAINTERACT中的所有多轮轨迹对220K个以及UltraFeedback中的所有行动对340K个。这种方法使得模型能够学习如何在连续的交互中根据反馈进行调整。 奖励建模Reward Modeling是另一个关键的环节它与偏好学习紧密相关。在这个阶段研究者们使用了与偏好学习相同的多轮轨迹对并额外加入了ULTRAINTERACT中的240K个单轮行动对以及UltraFeedback和UltraSafety数据集中的行动对。 为了提高模型的推理能力研究者们提出了一个新的奖励建模目标它在传统的Bradley-TerryBT目标基础上增加了一个新的项LDR。这个新的目标鼓励模型在训练过程中增加被选择解决方案的绝对奖励值并减少被拒绝数据的奖励值。 通过这些方法EURUS模型不仅在单个任务上表现出色而且在多任务学习中也展现了强大的泛化能力。这些模型的推出标志着开源LLMs在推理领域的新里程碑为未来的研究和应用提供了新的可能性。 评估EURUS-7B和EURUS-70B 在对EURUS系列模型进行评估时研究者们设计了一套全面的测试方案旨在全面考察模型在单轮和多轮推理任务上的表现。 用于比较的开源大型语言模型基线包括通用目的、编程和数学模型 评估过程包括了对单轮推理和多轮推理的测试。单轮推理评估主要关注模型在一次性交互中解决问题的能力而多轮推理评估则考察模型在连续交互中逐步改进答案的能力。 评估结果EURUS模型在与相似规模的开源模型相比时展现出了卓越的整体性能。特别是在数学和编程领域EURUS不仅超越了其他开源模型甚至在很多情况下它的性能还超过了专门领域的模型。例如EURUS-7B在LeetCode和TheoremQA这两个挑战性基准上的表现与比它大5倍的模型相当而EURUS-70B的性能甚至超过了GPT-3.5 Turbo。 EURUS模型与其他模型在不同基准测试上的性能比较结果 这些结果证明了ULTRAINTERACT数据集和基于它的训练方法在提升模型推理能力方面的有效性。偏好学习算法特别是KTO和NCA进一步提高了模型在数学问题和多轮交互任务上的表现。 评估EURUS-RM-7B 除了对基础模型的评估研究者们还对EURUS-RM-7B即EURUS的奖励模型进行了评估。评估设置在三个奖励模型基准上进行RewardBench、AutoJ和MT-Bench。这些基准测试旨在评估模型在不同任务上的表现包括对话、安全性、编程、数学和其他类型的推理任务。 使用EURUS-RM-7B奖励模型对Mistral-7B-Instruct-v0.2模型响应进行重新排序的结果以及与其他基线模型的比较 评估结果显示EURUS-RM-7B在7B大小的奖励模型中表现最佳。它在多个任务上达到了与更大基线相当的性能尤其是在AutoJ和MT-Bench上EURUS-RM-7B与人类评估者的一致性超过了所有现有模型包括GPT-4。在RewardBench的“Chat-Hard”部分EURUS-RM-7B超越了所有基线在“Reasoning”部分也展现了极具竞争力的表现。 通过使用EURUS-RM-7B对Mistral-7B-Instruct-v0.2的回答进行重排研究者们发现它在所有任务上一致性地提高了pass1准确率并且在某些情况下其性能甚至超过了比它大5倍的Starling-RM-34B。 EURUS-RM-7B奖励模型与其他模型在奖励建模基准测试上的比较结果 这些评估结果不仅证明了EURUS-RM-7B作为一个奖励模型的有效性也展示了通过奖励建模来提升LLMs推理能力的潜力。通过这种方式研究者们能够为开源LLMs提供更强大的工具以解决更广泛的复杂问题。 分析 在对EURUS模型的偏好学习过程进行深入分析时研究者们特别关注了DPO、KTO和NCA这三种算法的奖励模式以理解它们在推理任务中的表现差异。 研究者们首先对DPO、KTO和NCA在偏好学习过程中的奖励模式进行了观察。他们发现尽管这三种算法都会随着时间的推移减少对拒绝数据的奖励但它们在处理选择数据的奖励时却表现出不同的趋势。DPO算法在优化过程中虽然保持了选择数据的奖励高于拒绝数据但最终选择数据的奖励值却降到了零以下。相反KTO和NCA算法则持续增加选择数据的奖励同时减少拒绝数据的奖励使得选择数据的奖励始终保持正值。 EURUS-7B 模型在应用 DPODirect Preference Optimization、KTOKernelized Thompson Sampling for Optimization、和 NCANoisy Comparison with Augmented Rewards三种不同的偏好学习算法时的奖励模式分析 基于这些观察研究者们提出了一个假设在推理任务中偏好学习的性能可能与选择数据的奖励绝对值有关。具体来说更高的最终奖励值往往表明更好的推理能力。这一假设与一般对话任务中的情况形成对比在对话任务中偏好通常是相对的可能有多个有效答案对应同一输入。然而在推理任务中正确答案的空间远小于错误答案因此增加选择数据的奖励可能对提高模型性能特别有益。 为了进一步理解ULTRAINTERACT数据集对模型性能的贡献研究者们进行了消融研究。他们比较了三种不同的数据使用设置对EURUS-7B-SFT模型性能的影响使用原始数据集中的地面真实答案、仅使用开源数据、以及仅使用ULTRAINTERACT数据集。 消融研究的结果表明当模型仅使用ULTRAINTERACT数据集进行训练时除了BBH任务外其在其他任务上的性能普遍下降尤其是在指令遵循能力上。这表明虽然ULTRAINTERACT数据集在提升模型的推理能力方面非常有效但在指令遵循方面可能不足以独立支撑模型的训练。因此将ULTRAINTERACT与其他对齐数据混合使用对于实现全面的监督式微调是必要的。 研究者们还发现当从训练数据中移除UltraSafety数据时奖励模型在大多数任务上的准确度会高于EURUS-RM-7B这进一步证实了多样化数据集在训练过程中的重要性。 不同数据集配置对EURUS-7B-SFT模型性能的影响 通过这些分析研究者们不仅揭示了不同偏好学习算法在推理任务中的性能差异还强调了在训练过程中使用多样化数据集的重要性。这些发现为未来LLMs的训练和优化提供了宝贵的见解。本文的研究推动了开源LLMs在推理领域的边界通过发布ULTRAINTERACT数据集、引入EURUS系列模型并提供了对推理中偏好学习的深入分析为开源推理模型的发展提供了新的方向和强大的工具。 论文链接https://arxiv.org/abs/2404.02078 GitHub 地址https://github.com/OpenBMB/Eurus ​ ​
http://www.w-s-a.com/news/121955/

相关文章:

  • 网站的图片怎么制作WordPress交互式网站
  • pc网站增加手机站什么专业学网页设计制作
  • 婚庆公司网站模板wordpress用什么框架
  • 高校网站建设的时效性长沙市网站建设
  • 合肥网站建设市场四川建设网官网住房和城乡厅官网官方
  • 天行健君子以自强不息网站建设江西网站做的好的企业文化
  • 建网站内容谷歌搜索引擎优化
  • 网站建设与管理案例教程第三版答案网站建设策划书范文六篇精选
  • 建设工程项目在哪个网站查询实时网站推广的最终目的是
  • 个人网站可以做淘客网站设置的参数
  • 自适应网站制作公司做室内设计通常上的网站
  • 网站建设项目采购公告建设网站公司建网页
  • 自己做网站怎么推广网站建设应该考虑哪些方面
  • 我做的网站手机上不了wordpress插件整站搬家
  • 河南省和建设厅网站首页西安找建网站公司
  • 网页设计基础代码网站进出成都最新通知
  • 如何创建网站乐清网络科技有限公司
  • 沈阳市网站制作艺术字体logo设计生成器
  • 网站设计常用软件都有哪些中国建设银行官方招聘网站
  • 证券投资网站建设视频直播怎么赚钱的
  • 建设酒店网站ppt模板下载郑州小程序设计外包
  • 网站建设自我总结google推广公司
  • 安全网站建设情况wordpress 评论表单
  • 网站建设发言材料个人网站推广软件
  • php建站软件哪个好南京哪家做网站好
  • 排名好的手机网站建设番禺网站建设专家
  • 番禺怎么读百度有专做优化的没
  • 网站开发中应注意哪些问题网络营销的主要特点
  • 网站定制案例北京网站制作招聘网
  • 网站建设与推广实训小结网站建设专业英文