当前位置: 首页 > news >正文

着陆页设计网站国内wordpress 比特币行情

着陆页设计网站国内,wordpress 比特币行情,网络营销渠道可分为哪几种,网站空间购买注意事项论文地址#xff1a; Reinforcement Learning Based Approach for Multi-Vehicle Platooning Problem with Nonlinear Dynamic Behavior 摘要 协同智能交通系统领域的最新研究方向之一是车辆编队。研究人员专注于通过传统控制策略以及最先进的深度强化学习 (RL) 方法解决自动…论文地址 Reinforcement Learning Based Approach for Multi-Vehicle Platooning Problem with Nonlinear Dynamic Behavior 摘要 协同智能交通系统领域的最新研究方向之一是车辆编队。研究人员专注于通过传统控制策略以及最先进的深度强化学习 (RL) 方法解决自动驾驶车辆控制的各种方法。在这项研究中除了提出基于 RL 的最优间隙控制器之外还重新引入了详细的非线性动力车辆模型这通过具有深度确定性策略梯度算法的 actor critic 策略进行了证明。生成的智能体针对可变速度和可变间隙侵略性场景进行模拟并与模型预测控制 (MPC) 性能进行比较。结果表明准确性和学习时间之间存在权衡。但是两个控制器都具有接近最佳的性能。 前言 存在的问题 从上述文献来看在利用 RL 作为队列中动态车辆模型的控制器方面存在研究空白。一些研究人员使用传统控制器来解决队列问题。 此外[12] 提到了各种应用基于深度 RL 的控制器的研究这些研究仅考虑点质量运动学模型而没有加速延迟动力学的影响。 其他研究人员专注于在单个车辆或跟车问题上使用基于 RL 的控制器而没有考虑相对距离控制。如以下各节所述本研究填补了上述研究空白。 问题描述 车辆动力学模型 在这项研究中所考虑的队列配置由异构车辆组成即车辆的质量、长度或最重要的是车辆的阻力系数可能不同。 此外该队列有四辆车、一辆领队和任意数量的随车其中领队位于第一个位置。描述运动曲线的领导者状态是 x0˙\dot{x_0}x0​˙​ 和x0¨\ddot{x_0}x0​¨​分别代表领导者的速度和加速度。此外两辆车之间的距离 dg(i)d^{(i)}_ gdg(i)​是本车在位置 iii 的前保险杠与前车在位置 i−1i − 1i−1 的后保险杠之间的距离。 此外假定领导者遵循仅为其预定义的速度轨迹。其他车辆的目标是跟随前面车辆的轨迹同时保持定义的相对距离dg(i)d^{(i)}_ gdg(i)​ 。因此假设存在完美的车对车 (V2V) 通信即所有车辆都可以观察到前车的状态并且第iii辆车的位置 x(i)x(i)x(i) 是从车辆的质心测量的。对于本节的其余部分将对用于表示车辆行为的模型进行进一步调查。 然而阻力进一步研究。由于这项研究的目的是调查队列中的行为因此更现实的做法是考虑由于队列配置而减少作用在自我车辆上的阻力的影响。在上述原因下单个队列成员的动力学由方程式 1 建模。 x¨Tt−Tbr−(FdFrFg)⋅Rm⋅RIwR\begin{equation} \begin{aligned} \ddot{x}\frac{T_t-T_{br}-(F_dF_rF_g) \cdot R}{m\cdot R\frac{I_w}{R}} \end{aligned} \end{equation} x¨m⋅RRIw​​Tt​−Tbr​−(Fd​Fr​Fg​)⋅R​​​​ 其中 TtT_tTt​ 是由发动机产生并导致车辆向前运动的牵引扭矩TbrT_brTb​r 是由制动系统产生的用于控制车辆减速的扭矩FdF_dFd​、FrF_rFr​ 和 FgF_gFg​ 是阻力、滚动阻力和重力。阻力乘以减阻比该减阻比模拟前车对本车阻力的影响如 [15] 中所示。最后m、R和Iwm、R 和 I_wm、R和Iw​ 分别是车辆质量、车轮半径和车轮转动惯量。 状态空间模型 控制器智能体只观察两辆连续车辆之间的差距、速度和加速度的误差。对于领导者设计了一个单独的速度控制器智能体来维持设定的速度 x˙ref(0)\dot{x}^{(0)}_{ref}x˙ref(0)​ 。队列中所有车辆的车辆模型与第 3 节中导出的相同。此外控制器用于控制队列的车辆间距。 说明拓扑是TPF双前车跟随式。 奖励设置 领航车的奖励 Rl,t−(ut−120.05u˙t−120.1evl,t2)Ql,t\begin{equation} R_{l,t}-(u_{t-1}^20.05\dot{u}_{t-1}^20.1e_{vl,t}^2)Q_{l,t} \end{equation} Rl,t​−(ut−12​0.05u˙t−12​0.1evl,t2​)Ql,t​​​ 其中$ u_{t−1}$ 是前一时刻的控制力加速度ut−1˙\dot{ u_{t−1}}ut−1​˙​是前一时刻的控制力加速度的导数。evl,te_{vl,t}evl,t​是设定参考速度与当前领导者速度 vref−x0˙v_{ref} − \dot{x_0}vref​−x0​˙​ 之间的速度误差Ql,tQ_{l,t}Ql,t​是基于逻辑方程的正奖励 Ql,t∣evl,t∣≤ϑv∧t≥τQ_{l,t}\left|e_{vl,t}\right|\leq\vartheta_v\wedge t\geq\tau Ql,t​∣evl,t​∣≤ϑv​∧t≥τ 其中ϑv\vartheta_vϑv​是可接受的速度误差容差的阈值τ\tauτ是奖励存在的阈值时间。 奖励负数部分的平方是为了说明所描述术语中的正值或负值。第一项说明加速度的最小化而第二项说明加速度的变化。因此最大限度地减少控制工作中的抖动并确保信号的平滑度。第三项消除了速度误差以实现控制器的预期行为。 Q 部分是在设定点周围给予智能体正奖励以抑制控制超调而不是将控制器收紧到严格的值。延迟条件对于确保控制器仅在实际处于正确速度时才收到正奖励非常重要并防止因初始领导者速度与设定速度接近零误差而产生的任何假正奖励。 跟随车辆的奖励 Rf,t−(ut−120.05u˙t−12(1vmaxevf,t)2(1dgmaxeg,t)2)Qf,tR_{f,t}-\left(u_{t-1}^20.05\dot{u}_{t-1}^2\left(\dfrac{1}{v_{max}}e_{vf,t}\right)^2\left(\dfrac{1}{d_{gmax}}e_{g,t}\right)^2\right)Q_{f,t} Rf,t​−(ut−12​0.05u˙t−12​(vmax​1​evf,t​)2(dgmax​1​eg,t​)2)Qf,t​ 它具有与等式2中相同的控制努力参数。然而evf,te_{vf,t}evf,t​是当前速度与前车速度之间的速度误差 vi−vi−1v_i − v_{i−1}vi​−vi−1​而 $e_{g,t} $是间隙误差 gapdesired−dgi{gap}_{desired}−d^i_ggapdesired​−dgi​Qf,tQ_{f,t}Qf,t​是正奖励基于逻辑等式 Qf,t∣ev,t∣≤ϑv∧∣eg,t∣≤ϑg∧t≥τQ_{f,t}|e_{v,t}|\leq\vartheta_v\wedge|e_{g,t}|\leq\vartheta_g\wedge t\geq\tau Qf,t​∣ev,t​∣≤ϑv​∧∣eg,t​∣≤ϑg​∧t≥τ 等式 (222) 和 (3) 中的项的相同原因用于等式 (4) 和 (5) 中增加了间隙项中的误差以消除实现所需控制器的误差。等式 (4) 中速度和间隙误差的增益用于对值进行归一化。因此智能体可以比非标准化函数更容易满足多目标奖励函数。 网络结构 演员网络具有三个完全连接的隐藏层分别具有 400、300 和一个神经元而对于评论家网络动作路径具有一个具有 300 个神经元的隐藏层。状态路径有两个隐藏层分别有 400、300 个神经元。两条路径都通过加法层合并到输出层。 RL 模型以 0.1 秒的采样时间运行奖励折扣因子为 0.99噪声模型方差为 0.6。对于训练过程小批量大小为 128而演员和评论家网络的学习率分别为 10−4 和 10−3。 实验结果 自我车辆控制器的训练进行了 2163 集总步数为 973,186持续了大约 9.5 小时。如图 2 所示基于公式 4 的最终平均奖励为 326.8。车辆速度和位置的初始条件在每一集开始前随机更改以确保智能体在任何给定的现实场景中的可靠性并防止模型对某些场景的过度拟合。因此每一集都有不同的初始间隙误差和不同的初始速度误差。 关于恒定距离间隙场景智能体以可接受的误差容限 (∼∣eg,t∣≤0.3∼ |e_{g,t}| ≤ 0.3∼∣eg,t​∣≤0.3) 实现了所需的间隙这满足了等式 5 中的奖励函数。稳定时间非常接近 MPC 的响应即[13] 中三个控制器中最快的一个。整体响应类似于 MPC如图 5 所示这是有道理的可以从 RL 和 MPC 都试图解决优化问题以分别找到最优策略 π* 或控制律 u* 的事实中推导出来.此外据观察对于预定义的速度轨迹控制工作是平稳且现实的。间隙控制器已证明能够在目标奖励函数中指定的公差范围内以令人满意的方式处理简单和激进的场景。 可变间隙参考轨迹是根据速度轨迹设计的其中所需间隙等于 3 米的安全距离加上一个定时间隙其幅度为速度的一半以米/秒为单位。此外智能体的响应以令人满意的方式对具有平滑速度轨迹的间隙变化做出快速反应如图 3b 所示。必须指出的是在间隙变化的部分跟随器的速度相对于参考速度存在恒定的偏移从而导致间隙的增加或减小。 如表 1 所示RL 智能体为之前在 [13] 中讨论的控制器提供了类似的均方根误差 (RMSE)。然而就计算时间而言RL 智能体的模拟速度明显快于之前提出的最优控制 MPC。以这种方式RL 智能体在建议的最优控制器之间展示了准确性和计算时间之间的良好平衡。 可以进行进一步的分析以研究 RL 和 MPC 控制器之间的性能差异。应该指出的是比较中没有使用先前在 [13] 中使用的相同参数。或者对 R 和 Q分别为控制输入和状态的权重矩阵进行参数研究。之后选择 R 和 Q 矩阵的最佳组合使其实现三个间隙的最小累积 RMSE。研究结果见图 4。 图 5b 还展示了可变间隙场景中 MPC 的间隙、速度和控制力。考虑到图 3 中 RL 智能体的响应可以得出结论两个控制器都以令人满意的方式满足给定的间隙和速度曲线几乎没有显着差异。另一方面RL 智能体通过实现更平滑的轨迹来保持其在控制工作中的主导地位。 结论 本研究解决了管理一队列异构车辆中的车辆间距的问题其中在现有的详细非线性纵向动力学模型上开发了一个更成熟的模型可以分别减少每辆车的空气阻力。 RL 被用作为领导者和跟随者车辆设计控制器的工具。提出了一种具有多目标奖励函数的间隙和速度控制器。该智能体基于 DDPG 算法与参与者和评论家网络进行训练。从仿真获得的结果来看强化学习智能体在奖励函数、控制力度和速度轨迹跟踪方面表现令人满意。优化控制器的分析证实RL 控制器在计算时间和控制工作量方面优于 MPC特别是在更现实和复杂的场景中同时在车辆间距中保持相似的 RMSE。 此外建议继续在调整参数上训练模型以获得关于可调整奖励函数的最佳性能。此外可以延续 RL 控制器训练以满足其他目标而不会与当前目标相抵触。硬件在环模拟器可以在广泛而逼真的模拟中使用控制器以研究车辆在其他场景和环境下的行为。
http://www.w-s-a.com/news/176409/

相关文章:

  • 广撒网网站怎么进行网络营销
  • 中职计算机网站建设教学计划电商网站如何避免客户信息泄露
  • 惠州微网站建设外贸进出口代理公司
  • 网站建设最常见的问题建设银行网站机构
  • 网站集群建设相关的招标南通seo网站建设费用
  • 网络培训的网站建设能够做二维码网站
  • 网站类游戏网站开发wordpress 文章首标点
  • 徐州网站建设熊掌号免费推广网站入口2020
  • 网站建设有前途长春高铁站
  • 做网站网课阿里云域名查询系统
  • saas建站平台有哪些简述网站建设基本流程答案
  • 个人怎么做网站网站浏览思路
  • 网站建设里的知识长沙网络营销公司
  • 网站建设与维护大作业pc网站转换成微网站
  • php网站开发经典教材东莞网站开发
  • 教育培训手机网站模板下载跨境电商培训哪家最好
  • 网站开发淄博网站被降权会发生什么影响吗
  • 网站开发常用的语言东城手机网站制作
  • 微小店网站建设平台手机优化加速有什么用
  • 沈阳酒店企业网站制作公司竞价网站怎么做seo
  • 中山企业网站多少钱学网站建设的好处
  • 做官网网站哪家公司好jianux wordpress
  • 插件素材网站新站seo优化快速上排名
  • 网站注销主体填写原因asp响应式h5网站源码下载
  • 电商类网站模板下载济南市建设网官网
  • 万户网络做网站如何采集器wordpress
  • 襄阳网站建设企业查看 wordpress 插件
  • 网站地址申请京东联盟怎么做网站
  • 三亚市城乡建设局网站网站口碑营销
  • 图书租借网站 开发企业网站搜索优化外