当前位置: 首页 > news >正文

拼团网站开发推荐常州网站建设公司

拼团网站开发,推荐常州网站建设公司,wordpress popular posts,凡科登录入口app下载我是从去年11月份开始#xff0c;选定时间序列预测这个方向#xff0c;准备在工作之余继续独立进行一些科学研究。选定这个方向是因为我对金融量化一直挺感兴趣#xff0c;希望能把时间序列中的深度学习算法模型#xff0c;用到金融数据。现在看来#xff0c;我太过于理想…我是从去年11月份开始选定时间序列预测这个方向准备在工作之余继续独立进行一些科学研究。选定这个方向是因为我对金融量化一直挺感兴趣希望能把时间序列中的深度学习算法模型用到金融数据。现在看来我太过于理想化了金融数据的非平稳性使得这以上两个问题有本质的区别。至少到目前为止我的“金融数据深度学习建模”的想法还未实现。 但是在近半年的时间里我陆续阅读了包括Transformer、Informer、NS Transformer、Patch TST、PITS、Itransformer、Crossformer、TimesNet、FEDformer、Dlinear等论文并对模型做了比较详细的解读。梳理下来我发现这些论文构成了时间序列研究绕不开的baseline也是任何想从事时序研究的人必读的论文。分享过程中我收获了不少素未谋面的研究者的鼓励与大家留言交流的过程更受益匪浅这是我未曾预料到的收获。 本文后续篇幅从以上8个模型挑选了部分代表性baseline进行简单介绍如果需要每篇论文的详细解读可以从最后给出的链接挑选阅读。另外未来我计划持续跟进时间序列高水平论文除了新SOTA的模型外也会选取时序模型可解释性、轻量化、以及与前沿技术如Diffusion、大模型结合的文章进行解读。同时也在考虑做代码的解读分享与诸君共勉敬请期待 1 Patch TST 论文标题A TIME SERIES IS WORTH 64 WORDS: LONG-TERM FORECASTING WITH TRANSFORMERSICLR2023 Patch TST发表于ICLR23无疑是近期时间序列领域绕不开的存在数据的Patch已成为时序模型的基本操作。它基于两个关键组成部分i将时间序列分割成子序列级别的patch作为输入token提供给 Transformerii通道独立性每个通道包含一个单变量时间序列共享相同的嵌入和 Transformer 权重。patch的优势在于保留了局部语义信息更低的计算和内存使用量模型可以关注更长的历史信息。PatchTST显著提高了时序预测的准确性取得了 SOTA。 2 Itransformer 论文标题ITRANSFORMER : INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTINGICLR2024 ITRANSFORMER发表于ICLR24这是一篇热度很高但是讨论比较激烈的论文。本质上论文是对数据的维度做了调整对模型结构本身并无改进讲故事的能力值得大家学习。Itransformer采取了一种倒置时间序列的做法。具体是将每个变量的整个时间序列独立地嵌入为token作者称这是 Patch TST的极端情况。相较于已有的基于Transformer的时序工作本文工作扩大了局部感受视野。通过倒置每个变量最终嵌入的token聚合了序列的全局特征表示这可以更加以变量为中心并且更好地利用注意力机制来进行多变量相关分析。 3 DLinear/NLinear 论文标题Are Transformers Effective for Time Series Forecasting?AAAI2023 作者认为由于Transformer的自注意力机制是对称的置换不变性并且在计算注意力权重时不考虑序列中的位置信息因此无法有效地捕捉时间序列中的时序依赖关系导致时间信息的丢失。作者据此提出一组非常简单的一层线性模型命名为LTSF-Linear (NLinear和DLinear)。DLinear通过特定的分解方法如移动平均核等将原始时间序列数据分解为趋势分量和季节性分量。然后对这两个分量分别应用一层线性模型进行学习和预测。NLinear是另一个线性模型的变体它采用了不同的预处理方法。在九个真实数据集上的实验结果表明LTSF-Linear出人意料地在所有情况下都优于现有的复杂Transformer-based LTSF模型并且领先幅度很大 4 Crossformer 论文标题CROSSFORMER : TRANSFORMER UTILIZING CROSS DIMENSION DEPENDENCY FOR MULTIVARIATE TIME SERIES FORECASTINGICLR2023 如果你在考虑从注意力或多尺度的角度做一些改进那Crossformer就是一篇非常典型的在transformer基础上魔改注意力机制的文章论文质量很高值得学习。但我个人认为时间序列中的多尺度、注意力基本已经做到头了 现有的基于 Transformer 的模型主要集中在建模时间依赖关系跨时间依赖但往往忽视了不同变量之间的依赖关系跨维度依赖而这对于 MTS 预测至关重要。Crossformer利用跨维度依赖关系进行 MTS 预测通过维度分段式DSW嵌入将输入的 MTS 嵌入到二维向量数组中以保留时间和维度信息。然后作者还提出了两阶段注意力TSA层以有效地捕获跨时间和跨维度的依赖关系。利用 DSW 嵌入和 TSA 层Crossformer 建立了一个分层编码器-解码器HED以利用不同尺度上的信息进行最终的预测。对六个真实世界数据集的广泛实验结果显示Crossformer 相对于先前的最新技术具有很高的有效性。 欢迎大家关注我的公众号【科学最top】专注于时序高水平论文解读。
http://www.w-s-a.com/news/840834/

相关文章:

  • 教育培训的网站建设湖南网站建设小公司
  • 福建南平网站建设创意交易平台网
  • 做直播网站要哪些技术内容营销理论
  • 价格划算的网站开发怎么找有赞做网站
  • 做网站店铺图片用什么软件网络营销方案格式
  • 做外贸要自己建网站吗有效的网络营销方式
  • 精通网站开发书籍做网站获取手机号码
  • 论坛做视频网站有哪些济南新站seo外包
  • 哪类型网站容易做冷水滩做微网站
  • 搭建企业网站流程保定徐水网站建设
  • 建设单位到江川区住房和城乡建设局网站伦敦 wordpress 设计
  • 响应式网站的服务麦德龙网站建设目标
  • 做国外单的网站叫什么海南省海口市网站建设
  • 杭州响应式网站案例wordpress5.2.2
  • 网站建设运营维护合同wordpress资源搜索插件
  • 国外网站流量查询东莞网站建设教程
  • 餐饮类网站建设达到的作用东莞工程建设交易中心网
  • 网站设计 知识产权湖北网站建设xiduyun
  • 猫咪网站模版下载中国风 古典 红色 网站源代码
  • 个人网站备案模板制作网站首页
  • 潍坊正规建设网站网站建设设计作业
  • 推荐一下网站谢谢辽宁住房城乡建设部官方网站
  • 网站文件大小英选 网站开发
  • 济南建网站哪家好wordpress编辑器排行
  • 在福州做搬家网站多少钱画册设计网站有哪些
  • 如何让别人浏览我做的网站哪些方法可以建设网站
  • 网站建设与管理网络推广的优点
  • 美食网站的设计与制作做网站的电销话术
  • 中国档案网站建设现状研究陕西建设厅执业资格注册中心网站
  • 网站建设的内容管理怎么用ps切片在dw里做网站