2025年rmsprop算法是自适应(自适应lms算法)

rmsprop算法是自适应(自适应lms算法)p class f center p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F4c2526dbj00smbivj0039d200th00gjg00id00aa.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0C4"><strong>导语</strong></p><p id="3502H0CA"><strong><strong>本文介绍最新发表于 TKDE 上的评测 &amp; 综述文章: 《Exploring Progress in Multivariate Time Series Forecasting: Comprehensive Benchmarking and Heterogeneity Analysis》。本论文系统梳理了多元时间序列预测的发展脉络,讨论了目前领域内的争议,通过公平且全面的评测,剖析了多元时间序列预测取得的进展。同时,文章也深入探讨了该领域面临的挑战、核心瓶颈,以及未来可能的研究方向。</strong></strong></p><p id="3502H0CS"><strong><strong><strong>研究领域:</strong><strong><strong>多元时间序列预测,长序列预测,</strong></strong></strong>时空预测</strong></p><p id="3502H0D6">邵泽志、王飞等<strong>| 作者</strong></p><p><blockquote id="3502H0NH">通讯作者:Fei Wang(王飞)、Yongjun Xu(徐勇军)、Xueqi Cheng(程学旗) 作者列表:Zezhi Shao(邵泽志), Fei Wang(王飞), Yongjun Xu(徐勇军), Wei Wei(魏巍), Chengqing Yu(余澄庆), Zhao Zhang(张钊), Di Yao(姚迪), Tao Sun(孙涛), Guangyin Jin(金广垠), Xin Cao(曹欣), Gao Cong(丛高), Christian S.Jensen, Xueqi Cheng(程学旗)</blockquote></p><p><br/><blockquote id="3502H0NI">Overview: 最近几年多元时间序列预测非常之火,尤其是 长序列预测 和 时空预测 。 长序列预测从AAAI'21的Informer开始,到后来的Autoformer、FEDformer、DLinear、TimesNet、iTransformer等等等等,火的一塌糊涂。时空预测也是经久不衰,从DCRNN、GWNet,到后来的AGCRN、STEP、D2STGNN,以及最近的BigST、RPMixer,不乏高引论文和**论文提名。 然而,随着研究的百花齐放,问题也接踵而至。不同于CV或NLP领域已经形成的统一Backbone和普遍共识, 时间序列预测研究似乎存在较大的分歧 。一方面,不同论文常常得出相反的结论;另一方面,尽管SOTA模型层出不穷,但实际预测效果的提升似乎并不显著。在知乎上,你也可以看到不少相关的质疑与讨论。 为了搞清楚领域目前发展到什么地步了、核心瓶颈是什么、下一步应该做什么,我们做了一些评估。 本文介绍我们最新发表于 TKDE 上的 评测 &amp; 综述 文章: 《Exploring Progress in Multivariate Time Series Forecasting: Comprehensive Benchmarking and Heterogeneity Analysis》。本论文系统梳理了多元时间序列预测的 发展脉络,讨论了目前领域内的 争议,通过公平且全面的 评测,剖析了多元时间序列预测取得的 进展。同时,文章也深入探讨了该领域面临的 挑战、核心 瓶颈,以及未来可能的研究 方向。 全篇没什么理论,都是直观的insights和详尽的实验结果,大家可以放心拿去用,也可以自行复现。本文实验基于开源项目 BasicTS 实验。BasicTS旨在提供 公平 、统一、可扩展的时序预测模型的开发和评测。已支持50+ Baseline,囊括经典方法、时空预测方法、长序列预测方法。BasicTS支持 20+ Benchmark,并且支持灵活地 自定义 数据集、损失函数、模型结构等部件。</blockquote></p><p id="3502H0D9">代码见(如果有用的话,请点个Star吧!):</p><p id="3502H0DA">BasicTS: A Fair and Scalable Time Series Forecasting Benchmark and Toolkit.</p><p id="3502H0DB">代码链接:https://github.com/GestaltCogTeam/BasicTS</p><p id="3502H0DC">论文链接:https://arxiv.org/abs/2310.06119</p><p id="3502H0DM"><strong><strong><strong>1</strong><strong><strong>. 多元时间序列预测背景</strong></strong></strong></strong></p><p id="3502H0DU">多元时间序列包含着一组时间序列,可以被看成一个 的矩阵。时间维度上,每条时间序列可能都有周期性、趋势性等特点;空间维度上,时间序列之间可能存在相互关联。多元时间序列预测,就是基于历史数据 ,预测未来数据 。 和 分别是历史数据和未来数据的长度。</p><p id="3502H0DV">下图是一个直观地例子,其中 , 。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fdc6f96d7j00smbivk0060d200u0009eg00ht005k.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0E3">多元时间序列预测</p><p id="3502H0EC"><strong><strong><strong>2. 最火的两类任务</strong></strong></strong></p><p id="3502H0ED"><strong><strong><strong>——时空预测</strong></strong></strong><strong><strong><strong>和长序列预测</strong></strong></strong></p><p id="3502H0EL">在多元时间序列预测中,有两个非常热门的任务:<strong>长序列预测</strong>和<strong>时空预测</strong>。这两个任务近年来的研究成果颇具突破性。下面,我们来详细探讨这两大任务的发展现状和趋势。</p><p><strong>2.1 长序列预测:建模历史,预测未来</strong></p><p id="3502H0EM"><strong>目标</strong>:长序列预测的核心是通过对长期历史数据的模式进行建模,进而进行长期预测。它主要聚焦于时间维度模式的建模,试图找到时间序列中长期依赖的规律。</p><p><ul><li id="3502H0MD"></p><p id="3502H0EN"><strong>早期的统计与机器学习方法</strong>:最早的长序列预测工作采用了经典的统计方法(如ARIMA、ETS),以及一些机器学习模型(如GBRT、SVR)。但随着数据复杂性的增加,这些方法显得有些过时,逐渐被新的深度学习模型所取代。</p><p></li><li id="3502H0ME"></p><p id="3502H0EO"><strong>Transformer时代的到来</strong>:2021年,AAAI**论文之一的<strong>Informer</strong>模型横空出世,开启了基于Transformer的时间序列预测时代。这一模型以其优雅的架构和优异的表现引发了学术界的广泛关注,催生了诸如<strong>Autoformer</strong>、<strong>FEDformer</strong>、<strong>Pyraformer</strong>等一系列新模型。这些模型探索了序列注意力、频域增强、金字塔注意力等机制,试图更好地建模时间序列中的长短期依赖。</p><p></li><li id="3502H0MF"></p><p id="3502H0EP"><strong>线性模型的逆袭:</strong>2023年,一篇名为《Are Transformers Effective for Time Series Forecasting?》的论文引发了轰动。它展示了一个简单的线性模型(没有激活函数!),轻松击败了复杂的Transformer架构。这一结果不仅令人瞠目结舌,也引发了对Transformer在时间序列预测中有效性的深刻反思。</p><p></li><li id="3502H0MG"></p><p id="3502H0EQ"><strong>Transformer的反击:</strong>面对线性模型的挑战,以Transformer为代表的复杂网络阵营也没有坐以待毙。<strong>PatchTST</strong>、<strong>iTransformer</strong>、<strong>TimesNet</strong>等模型迅速被提出,它们通过改进架构或结合其他创新方法,再次展示了Transformer的潜力。(TimesNet尽管不是Transformer,但也是复杂模型创新的代表之一)。</p><p></li></ul><strong>2.2 时空预测:空间与时间的双重挑战</strong></p><p id="3502H0ER"><strong>目标:</strong>与长序列预测不同,<strong>时空预测</strong>不仅需要处理时间动态,还要解决序列之间的空间依赖关系。一个典型的应用场景就是交通预测:分析未来交通状况不仅依赖时间维度的数据,还需要捕捉不同传感器之间的空间依赖。</p><p id="3502H0ES"><strong>主要研究进展:</strong></p><p><ul><li id="3502H0MH"></p><p id="3502H0ET"><strong>早期的深度学习方法</strong>:早期的时空预测通常使用卷积神经网络(CNN)处理空间信息,并与循环神经网络(RNN)结合,来处理时间维度。这种结合为捕捉时空模式奠定了基础。</p><p></li><li id="3502H0MI"></p><p id="3502H0EU"><strong>时空图神经网络的崛起</strong>:随着图神经网络(GCN)的发展,<strong>时空图神经网络(STGNN)</strong>迅速成为主流。STGNN通过预定义的图结构,结合GCN和序列模型来捕捉空间和时间依赖。例如,<strong>DCRNN</strong>、<strong>Graph WaveNet</strong>等模型成功将GCN与RNN或门控TCN结合,提升了时空数据的处理效率。</p><p></li><li id="3502H0MJ"></p><p id="3502H0EV"><strong>自学习图结构</strong>:然而,依赖预定义的图结构存在固有问题,图结构可能有偏差或者难以获取。因此,许多研究开始探索如何共同学习图结构并优化STGNN的性能,典型代表如<strong>AGCRN</strong>、<strong>MTGNN</strong>、<strong>STEP</strong>等。</p><p></li><li id="3502H0MK"></p><p id="3502H0F0"><strong>非图模型的崛起</strong>:尽管STGNN在时空预测中表现优异,但其计算复杂度较高。因此,出现了一些舍弃图结构的创新模型。例如,<strong>STNorm</strong>通过时空正则化来简化模型,<strong>STID</strong>则引入了一种简单有效的时空身份附加方法。这些模型在降低计算复杂度的同时,也展现了强大的预测能力。</p><p></li><li id="3502H0ML"></p><p id="3502H0F1"><strong>高效STGNN的出现</strong>:尽管非图结构模型显示出优越的效率,最近一些高效的STGNN模型也开始崭露头角,例如<strong>BigST</strong>,声称实现了线性复杂度。这一进展意味着,时空图神经网络有望继续在时空预测领域占据重要地位。</p><p></li></ul></p><p id="3502H0FA"><strong><strong><strong>3. 你是否被这些问题困惑过</strong></strong></strong></p><p id="3502H0FB"><strong><strong><strong>——领域内存在的争议</strong></strong></strong></p><p id="3502H0FJ">显然,时序预测领域的发展是“螺旋向上”的。我们对领域内存在的争议做了一些简要的总结,包括<strong>技术路线争议</strong>以及<strong>评估结果争议</strong>,来看看你是否也有其中的某些疑问吧!</p><p><strong>3.1 技术路线争议:时间维度,Transformer和Linear模型哪种更好?</strong></p><p id="3502H0FK">以Transformer为代表的复杂网络可扩展性强,仍是目前新论文发力的主要方向;然而,以Linear模型为代表的简单网络参数量小、性能也不比最新的Transformer差多少。考虑到两者之间体量的差距,到底哪种模型结构才是最好的解决方案?现有的长序列预测算法的提升看起来好像是比较小,每年都是很多SOTA论文,但精度似乎没有太大的提升?</p><p><strong>3.2 技术路线争议:空间维度,如何理解空间依赖,GCN是必须的吗?</strong></p><p id="3502H0FL">在大多数的研究论文中,GCN通常被描绘成了一种能够捕捉时间序列之间”依赖“关系的网络。然而,这种”依赖“是什么,如何理解它,它是否真的就是因果级别的依赖?实现大规模时空预测用非图网络好,还是图网络好?应该什么时候使用GCN,为什么有的时候它好像会起到一些反作用?</p><p id="3502H0FM">除了上述技术路线的争议,我们也发现了一些评测方面存在的争议:<strong>不一致的性能表现</strong>和<strong>具有迷惑性的评价指标</strong>。</p><p><strong>3.3 评测结果争议:不一致的性能表现</strong></p><p id="3502H0FN"><strong>不一致的性能表现</strong>是指,同一个模型、同一个数据集,同样的实验设置,在不同论文中的性能差距巨大。以时空预测中的DCRNN和GWNet这两个分别来自于2018和2019年的“老”baseline为例,我们统计了他们在不同论文中的结果,以及我们自己复现的结果。可以看到性能差距十分显著,几乎是SOTA和不Work的区别!</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Ff15ac54aj00smbivl0068d200u000dog00ht0084.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0FP">同一个模型、同一个数据集、同样的实验设置,在不同论文中的性能差距是巨大的</p><p><strong>3.4 评测结果争议:具有迷惑性的评价指标</strong></p><p id="3502H0FQ"><strong>具有迷惑性的评价指标</strong>是指采用不够全面的评价指标,导致误差看起来非常小。这对于一些新手朋友或者想要单纯用一下时间序列预测算法的人来说,具有一定的迷惑性。以长序列预测为例,相关工作通常<strong>在归一化之后的数据</strong>上计算<strong>MAE、MSE,</strong>其误差非常之小,通常只有零点几!然而,当我们把预测结果反归一化回原来的尺度上,并计算MAPE、WAPE等更直观的相对指标的时候,我们发现他们能达到百分之几十!——这几乎是不可用的状态。</p><p id="3502H0FR">更合理的选择是,在报告上述指标的同时,计算MAPE、WAPE等相对误差指标,甚至同时计算反归一化之后的MAE和MSE,可以让读者直观地从数值中理解预测结果的好坏。</p><p><blockquote id="3502H0NJ">需要注意的是,”在归一化之后的数据集上计算MAE、MSE“这个做法本身是正确的:它可以消除由于不同变量单位不同、取值范围不同带来的影响。然而,仅用这一种方式可能是不合理的,这可能会造成误解。更合理的选择是,在报告上述指标的同时,计算MAPE、WAPE等相对误差指标,甚至同时计算反归一化之后的MAE和MSE,可以让读者直观地从数值中理解到预测结果的好坏。</blockquote><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fce061e76j00smbivl004dd200u0009fg00ht005l.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0FT">反归一化之后再计算相对误差,可以更直观地体现模型的准确程度</p><p id="3502H0FU">考虑到上述因素,我们不由得有下面的疑问:我们到底在时间序列预测方面<strong>走到了哪里了,取得了多少进步</strong>?实际落地过程中的<strong>核心瓶颈</strong>是什么?如果我是工业界的人,我应该如何<strong>选择合适的模型结构</strong>?如何做出<strong>合理的分析</strong>?</p><p id="3502H0FV">在本文中,我们将会通过对现有工作的进行<strong>全面的基准评估</strong>,以及新颖的<strong>异质性分析</strong>,来解答上述疑问。</p><p id="3502H0G8"><strong><strong><strong>4. 全面的基准评估——公平、可扩展的</strong></strong></strong></p><p id="3502H0G9"><strong><strong><strong>时序预测模型开发&amp;评测库BasicTS</strong></strong></strong></p><p id="3502H0GH"><strong>评估的基石是可信、可复现的实验结果。</strong></p><p id="3502H0GI">为了解决不一致的性能表现,我们对现有代码库进行了全面分析,并确定了三个导致不一致性能表现的核心原因:<strong>数据处理</strong>、<strong>训练流程</strong>和<strong>评估方式</strong>。这些方面常常被忽略,但它们对评估结果有着重要影响。</p><p><ul><li id="3502H0MM"></p><p id="3502H0GJ"><strong>数据处理:</strong>深度学习模型训练过程中的一个关键步骤是对原始时间序列数据进行归一化。常见的归一化方法包括Min-Max归一化和Z-Score归一化,每种方法对预测性能的影响不同。例如,一些研究使用了Min-Max归一化,而大多数研究通常采用Z-Score归一化。</p><p></li><li id="3502H0MN"></p><p id="3502H0GK"><strong>训练流程:</strong>训练配置包括优化策略和各种训练技巧,而不同的设置对优化有着显著影响。这一方面隐藏着最多的错误。例如,许多研究使用了带掩码的MAE损失函数进行模型训练,这种方法排除了异常值,避免了异常值对正常值预测的不利影响。相反,一些研究却采用了简单的MAE作为优化函数,通常会导致较差的结果。此外,训练技巧的加入,如梯度剪裁和课程学习,也会显著影响性能。<strong>然而,这些配置却经常不会在论文中提及。</strong></p><p></li><li id="3502H0MO"></p><p id="3502H0GL"><strong>评估方式:</strong>虽然评估指标有明确的定义,但它们的实际实现方式在不同研究中可能有所不同,涉及处理异常值和小批量计算等方面。这种差异导致测试结果与实际性能之间存在显著偏差。</p><p></li></ul><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fe3b90194j00smbivm005ed200u000cyg00ht007o.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0GN">BasicTS的整体设计</p><p id="3502H0GO"><strong>为了实现可信的评测,我们提出了一个公平、可扩展的时序预测模型 开发&amp;评测的库,BasicTS。</strong></p><p id="3502H0GP">BasicTS+ 引入了统一的训练管道,主要包括统一的数据加载器、数据缩放器、评估指标、训练流程,从而避免由于<strong>非模型结构</strong>因素引起的性能差异。具体的实现方式见论文。BasicTS确保其所复现的论文的性能,<strong>不弱于原始论文中report的值</strong>(如果原始代码没有bug的话)。</p><p id="3502H0GQ">此外,BasicTS还提供了许多扩展功能,例如自定义数据集、损失函数、评价指标、日志系统、分布式训练等等,并且兼容多种设备(例如CPU、英伟达GPU、寒武纪MLU,华为昇腾正在适配中)。BasicTS目前支持50多种Baseline、20多个Benchmark,包含了最新流行的大部分算法和数据集,可以一键复现并快速开发。你可以在这里找到BasicTS的上手教程:中文 | 英文 。</p><p id="3502H0GR">在评估指标方面,BasicTS选择在<strong>反归一化之后</strong>的数据上,计算<strong>相对误差</strong>(MAE、MAPE)和<strong>绝对误差</strong>(MAPE、WAPE)两种、四个指标。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fe55ca956j00smbivn0017d200u00063g00ht003l.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0GT">评估指标</p><p id="3502H0GU"><strong>BasicTS的建立解决了在评测结果上的争议,为后续的评测奠定了基础。</strong></p><p id="3502H0GV"><strong>然而,技术路线上的争议仍然存在。他们因何产生,又如何解释?</strong></p><p id="3502H0H8"><strong><strong><strong>5. 异质性分析——被忽略了的核心问题</strong></strong></strong></p><p id="3502H0HG">技术路线的争议主要是在探讨模型结构是否有效。</p><p id="3502H0HH">每一篇研究都有非常坚实的证据来证明自己的论据,看起来大家都是对的(也可能都是错的)。但如果抛开模型不谈,有没有可能<strong>问题出在数据上</strong>,而不是模型?</p><p id="3502H0HI">下面我们聚焦于多变量时间序列(MTS)数据集的<strong>异质性</strong>,并深入探讨如何用它来解释看似矛盾的实验结果。</p><p id="3502H0HJ">首先,MTS数据往往来自于其背后的一个时空系统,例如电力、能源、交通、金融等。由于这些系统特点的差异,采集出的MTS数据往往呈现出完全不同的模式,即异质性。</p><p id="3502H0HK">这和CV或者NLP完全不同,这两者通常共享某些常见的模式,例如ImageNet和CoCo数据集的视觉模式是相似的,不同文本数据集的模式也是相似的,并且这些数据集的模式通常是丰富且封闭的:<strong>数据的语义信息通常是固有的,不随未知的外部因素变化</strong>。</p><p id="3502H0HL">而时间序列完全相反。一方面,不同数据集(Domain)的数据模式可能完全不同,另一方面,时间序列收到外部未知因素的影响太大。</p><p id="3502H0HM">本文基于数据的<strong>时间</strong>和<strong>空间</strong>异质性对数据集进行了分类。我们主张,<strong>不同类型的模式意味着不同的核心瓶颈,也就对应着不同的解决方案。</strong></p><p id="3502H0HN">这也意味着特定的技术方法仅适用于某些特定类型的数据。忽视这种数据异质性可能导致看似矛盾的实验结果,并且无法选择正确的技术方法。</p><p><strong>5.1 时间维度:分布漂移或许才是核心的挑战</strong></p><p id="3502H0HO">本文根据时间维度的异质性将数据集分为三类:<strong>具备稳定模式</strong>、<strong>显著分布漂移</strong>和<strong>模式不明确</strong>的数据集。我们选取了****性数据集——<strong>PEMS03</strong>、<strong>ETTh2</strong>和<strong>ExchangeRate</strong>,进行分析并展示了它们的原始时间序列。此外,我们通过 t-SNE 算法对数据进行降维,并使用核密度估计展示了训练集与测试集的分布:</p><p><ul><li id="3502H0MP"></p><p id="3502H0HP"><strong>PEMS03</strong>(城市交通流量数据)具备清晰且稳定的周期性模式,符合城市交通的规律性;</p><p></li><li id="3502H0MQ"></p><p id="3502H0HQ"><strong>ETTh2</strong>(变压器传感器数据)虽然有周期性,但受外部因素影响,周期和均值发生漂移,呈现显著分布变化;</p><p></li><li id="3502H0MR"></p><p id="3502H0HR"><strong>ExchangeRate</strong>(货币汇率数据)几乎没有可辨识的模式,因其受复杂的经济政策和不可预测因素影响。</p><p></li></ul><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Ff9b6ef3bj00smbivn0044d200u0008yg00ht005b.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0HT">PEMS03、ETTh2、ExchangeRate三个数据集部分数据的可视化</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F9dc90099j00smbivo0072d200u0008bg00ht004x.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0HV">基于t-SNE和核密度估计的数据分布可视化</p><p id="3502H0I0">通过对这些数据集的分布分析,我们发现,PEMS03 的训练集和测试集分布相似,然而 ETTh2 和 ExchangeRate 的分布相对不一致。</p><p id="3502H0I1">这样的异质性可以解释为何常见的先进神经网络(如Transformer模型)与基础网络(如Linear模型)表现出矛盾的结果:Transformer模型虽然强大,但它们往往基于较强的Bias,在存在分布漂移或模式不明确的数据集上容易过拟合。而线性模型因其简单性,虽然欠拟合复杂模式,但在面对这些数据集时却能保持较好的鲁棒性。</p><p id="3502H0I2">因此,我们得出假设:</p><p><ul><li id="3502H0MS"></p><p id="3502H0I3"><strong>在稳定且周期性强的数据集上,复杂模型(如Transformer)能有效捕捉模式,即Transformer &gt; Linear;</strong></p><p></li><li id="3502H0MT"></p><p id="3502H0I4"><strong>而在模式不明确或分布漂移明显的数据集上,简单的模型反而可能表现更优,即Linear &gt; Transformer</strong></p><p></li></ul></p><p id="3502H0I5">这提醒我们,选择模型时应考虑数据的本质特征,避免盲目追求复杂性。</p><p><strong>5.2 空间维度:所谓的“依赖“或许是数据的不可区分性</strong></p><p id="3502H0I6">相比时间维度,<strong>空间依赖关系</strong>更难以理解和量化。虽然许多研究通过图卷积网络(GCN)来建模时间序列之间的相互作用,但对空间模式的理解和量化仍然不足。幸运地是,最近的两项研究,<strong>ST-Norm</strong>和<strong>STID</strong>,提出了一个重要概念——<strong>空间不可区分性</strong>,揭示了空间依赖的核心问题。</p><p id="3502H0I7">基于这一思路,我们首次设计了量化指标,帮助区分不同类型的多元时间序列(MTS)数据集。我们将数据集分为两类:<strong>具有显著空间不可区分性</strong>和<strong>无显著空间不可区分性</strong>。</p><p id="3502H0I8">空间不可区分性意味着在某个时刻,历史数据相似但未来数据不同,<strong>普通的回归模型(如MLP或更复杂的Transformer)无法通过相似的历史数据准确预测出不同的未来——即不可区分。</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fa91a92e4j00smbivp0014d200u0004lg00ht002p.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0IA">不可区分性的衡量指标</p><p id="3502H0IB">为了量化这一现象,我们提出了两个关键指标: 和 。其中, 衡量不可区分样本在所有样本中的比例,而 则精细衡量不可区分样本在历史相似数据中的比例。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F1c92522ej00smbivq006bd200u000bng00ht006w.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0ID">不同数据集中,样本不可区分性的比例</p><p id="3502H0IE">通过计算这两个指标,我们发现了一些有趣的现象:例如,ETT、Electricity、ExchangeRate 和 Weather 数据集的 和 值较低,说明它们的空间不可区分性较弱,空间依赖对预测性能影响不大;<strong>METR-LA</strong>、<strong>PEMS-BAY</strong>、<strong>PEMS04</strong>和<strong>PEMS08</strong>数据集的 和 值显著更高,表明这些数据集的空间不可区分性较强,空间依赖对于预测至关重要。这些发现为我们提供了启示:</p><p><ul><li id="3502H0MU"></p><p id="3502H0IF">对于<strong>空间不可区分性弱</strong>的数据集,建模空间依赖可能并非必要,甚至可能影响模型性能(如无必要,勿增实体)。</p><p></li><li id="3502H0MV"></p><p id="3502H0IG">对于<strong>空间不可区分性强</strong>的数据集,解决这一问题就能显著提升预测效果,无论是利用图卷积、正则化、还是时空身份附加。</p><p></li></ul></p><p id="3502H0IH">即,空间依赖的建模效果与数据集的空间不可区分性密切相关,针对不同数据集,应选择合适的空间建模策略。</p><p id="3502H0II">总结一下,通过异质性分析,我们提出了下面的两个假设:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F5a63de73j00smbivq005nd200u0006rg00ht0040.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0IK">基于数据异质性的两个假设</p><p id="3502H0IR"><strong><strong><strong>6. 如何根据数据特点选择合适的模型?</strong></strong></strong></p><p id="3502H0IS"><strong><strong><strong>我们到底取得了多少进展?</strong></strong></strong></p><p><strong>6.1 时间维度:分布漂移确实是核心的挑战</strong></p><p id="3502H0J4">为了验证上述假设1,我们在两组、四个数据集上做了实验:</p><p><ul><li id="3502H0N0"></p><p id="3502H0J5">PEMS04、PEMS08:具备清晰、稳定的模式</p><p></li><li id="3502H0N1"></p><p id="3502H0J6">ETTh2、ETTm2:具备显著的分布漂移</p><p></li></ul><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F2840b55cj00smbivr004sd200u0006mg00ht003x.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0J8">Transformer v.s. Linear on Heterogeneous MTS Datasets.</p><p id="3502H0J9">如上表所示,显然不同的模型在不同性质的数据集上模式的表现完全不同。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Ffd4c6d97j00smbivs004sd200u000dbg00ht007w.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0JB">FEDformer、DLinear分别在PEMS08、ETTh2上的损失变化曲线</p><p id="3502H0JC">Tensorboard中损失指标的变化也应证了我们的结论:在PEMS08上,FEDformer表现正常,而DLinear出现了欠拟合问题;在ETTh2上,DLinear表现正常,而FEDformer则出现了严重的过拟合。</p><p><strong>6.2 空间维度:样本的不可区分性是重要议题</strong></p><p id="3502H0JD">同理,为了验证假设2,我们也在另外两组、四个数据集上做了实验:</p><p><ul><li id="3502H0N2"></p><p id="3502H0JE">LA、BAY:具备显著的空间样本不可区分性</p><p></li><li id="3502H0N3"></p><p id="3502H0JF">ER、ETTm1:不具备显著的样本不可区分性</p><p></li></ul></p><p id="3502H0JG">我们选择了STID、AGCRN两个用不同方式建模空间依赖的模型,并将其空间依赖建模模块删除,得到了STID* 和 ACGRN*。实验结果如下所示:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Ff11ad507j00smbivt006hd200u000c6g00ht0077.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0JI">空间建模的有效性</p><p id="3502H0JJ">显然,空间不可区分性就是所谓的“空间依赖”的本质之一。在具备该特点的数据集上,使用任意的“空间依赖”建模手段,都会提升性能。但在不具备该特点的数据集上,简单地使用上述模型会引起性能的下降。此时,需要更精细地挖掘变量之间的关联。</p><p><strong>6.3 给定数据集,如何选择和设计一个MTS预测模型?</strong></p><p id="3502H0JK">基于上述发现,我们就可以有在目前的技术框架下,选择和设计MTS预测模型的路线图。</p><p><ul><li id="3502H0N4"></p><p id="3502H0JL">给定一个MTS数据集,检查它在时间维度上是否具备清晰、稳定的模式</p><p></li><li style="list-style: none; display: inline"><ul><li id="3502H0N5"></p><p id="3502H0JM">模型结构:采用一些“弱偏”模型,例如Linear、MLP、原生的Transformer</p><p></li><li id="3502H0N6"></p><p id="3502H0JN">动态分布漂移建模:在这种情况下,建模动态的数据分布是更重要的选择,例如采用迁移学习、持续学习等方式。</p><p></li><li id="3502H0N7"></p><p id="3502H0JO">特征工程:获取更多的信息,比如文本、图像、事件数据,来辅助做出更好的预测。</p><p></li><li id="3502H0N8"></p><p id="3502H0JP">不确定性估计:不强求准确预测,而是采用更实用的概率预测、区间预测</p><p></li><li id="3502H0N9"></p><p id="3502H0JQ">假如是:使用一些序列模型+空间依赖建模方法,例如STGNN、STNorm、STID等</p><p></li><li id="3502H0NA"></p><p id="3502H0JR">假如否:使用序列模型即可,例如CNN、RNN、Transformer等</p><p></li><li id="3502H0NB"></p><p id="3502H0JS">假如是:检查它在空间维度上是否具备显著地样本不可区分性。</p><p></li><li id="3502H0NC"></p><p id="3502H0JT">假如否(很不幸,现实场景下大多会走到这个分支):</p><p></li></ul></li></ul><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2F07ec9d01j00smbivu002yd200u000dxg00ht0089.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0JV">设计和选择MTS模型的路线图</p><p id="3502H0K0">另外,为了更好地理解我们目前去的了多少进展,我们集中做了一波评测。可以看到的是,无论是时空预测还是长序列预测,其实SOTA之间的差距并不是特别的明显。</p><p id="3502H0K1">时空预测的STID、长序列预测的LTSF,这两个模型其实性能已经不错了。他们很适合作为一个backbone,来检验其他工作是否有效——因为他们已经是最简单的模型了。一个复杂的模型应当显著地超越他们,或者有其他的闪光点,或许才能cover住复杂度带来的负面影响。</p><p id="3502H0K2">另外,<strong>不同数据集的特点显然是完全不同的,这些工作很难被放在一起比较。</strong>如果您是做时空预测(或者长序列预测)的,但审稿人非让您对比长序列预测(或者时空预测)的工作,现在您就可以用本文为依据进行回应了~</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fb8e1dda1j00smbivv00ckd200u000gqg00ht009x.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0K4">在METR-LA、PEMS-BAY、PEMS03、PEMS04、PEMS07、PEMS08上的时空预测结果</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1102%2Fbbj00smbivx00c3d200u000hkg00ht00af.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3502H0K6">在PEMS04、PEMS08、ETTh1、ETTm1、Electricity、Weather、ER数据集上的长序列预测结果</p><p id="3502H0KD"><strong><strong><strong>7. 开放讨论:</strong></strong></strong><strong><strong><strong>时间序列预测的困境</strong></strong></strong></p><p id="3502H0KE"><strong><strong><strong>以及有价值的研究方向</strong></strong></strong></p><p>7.1<strong>时序预测的悖论和核心瓶颈:</strong></p><p id="3502H0KM">显然,时间序列预测(无论是长序列还是时空预测)已经陷入了一定程度的“内卷”。其中很大原因在于时间序列数据本身的特性。笔者一直认为,时间序列预测存在一个悖论:那些可预测的时间序列往往具备稳定、清晰的模式,这种情况下,使用一些简单的方法即可实现良好的预测效果,并不需要复杂的模型。而对于那些不具备清晰、稳定模式的时间序列,即便设计出复杂的模型,效果也未必显著,反而容易因数据的分布漂移导致过拟合。</p><p id="3502H0KN">因此,真正具有挑战性、且值得深入研究的部分在于时间序列的分布漂移。分布漂移通常由外部因素引发,这意味着时间序列数据并不完全由历史数据决定,未来的变化往往依赖于许多未知的外部协变量。每个应用领域(Domain)中的外部因素各不相同,增加了预测的难度和不确定性。</p><p><strong>7.2 有价值的研究方向</strong></p><p id="3502H0KO">上述发现并不是对时序预测的悲观评价,恰恰相反,它们揭示了这个领域尚有许多值得探索的方向,且已有许多前沿研究正在快速发展(大佬们太卷了)。以下是笔者认为目前较有前景的几大趋势:</p><p><ul><li id="3502H0ND"></p><p id="3502H0KP"><strong>数据处理的趋势</strong>:由于模型复杂性并不是预测效果的核心瓶颈,普通的时序预测设置下,SOTA模型趋向于简化结构。相比复杂的网络,研究重点转向对数据的合理分解与变换,甚至采用一些简单、朴素的方法,找到数据中“不漂移”的部分,从而实现更稳健的预测性能。例如,SSCNN、FOIL.</p><p><blockquote id="3502H0NK">SSCNN: [NeurIPS‘24] Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting FOIL: [ICML’24]Time-Series Forecasting for Out-of-Distribution Generalization Using Invariant Learning</blockquote></li><li id="3502H0NE"></p><p id="3502H0KQ"><strong>模型发展的趋势</strong>:受自然语言处理(NLP)大模型的影响,时序大模型正成为一个热门方向。通过扩展数据规模和模型规模,时序大模型能够更深入地理解历史数据的波动,从而提供更准确的预测,甚至零样本预测。然而,与NLP大模型相比,时序大模型的训练成本和效率仍需提高,推理速度相对较慢。例如,Chronos、UniTS、MOIRAI等模型在这一领域表现出色。此外,多模态融合的尝试也令人瞩目,尤其是时间序列和NLP、CV的碰撞,如VisionTS与TimeLLM,展示了极具潜力的效果。</p><p><blockquote id="3502H0NL">Chronos: Chronos: Learning the Language of Time Series UNITS: [NeurIPS‘24] UNITS: A Unified Multi-Task Time Series Model MOIRAI: [ICML’24]Unified Training of Universal Time Series Forecasting Transformers VisionTS: VisionTS: Visual Masked Autoencoders Are Free-Lunch Zero-Shot Time Series Forecasters Time-LLM: [ICLR‘24]Time-LLM: Time Series Forecasting by Reprogramming Large Language Models</blockquote></li><li id="3502H0NF"></p><p id="3502H0KR"><strong>策略创新的趋势</strong>:一些研究通过引入分布漂移检测机制,使模型能够在在线环境下自动适应漂移,从而提高模型的有效性。例如,Saleforce的Chenghao Liu老师开发的SOLID框架就是这类创新工作的代表之一。</p><p><blockquote id="3502H0NM">SOLID: [KDD’24]Calibration of Time-Series Forecasting: Detecting and Adapting Context-Driven Distribution Shift</blockquote></li><li id="3502H0NG"></p><p id="3502H0KS"><strong>因果关系挖掘</strong>:虽然目前许多使用图神经网络(GNN)的研究试图捕捉变量之间的因果关系,但大多仍停留在解决数据层面的不可区分性问题上。实现真正的因果关系挖掘,是一个非常有吸引力且极具潜力的研究方向。</p><p></li></ul></p><p id="3502H0L5"><strong><strong><strong>8. 总结</strong></strong></strong></p><p id="3502H0LD">总的来说,在本研究中,我们针对多元时间序列(MTS)预测领域中实验结果不一致以及技术方向选择困难的问题进行了分析,揭示了实际取得的进展。</p><p id="3502H0LE">首先,我们引入了一个新的基准框架——BasicTS,该框架旨在实现MTS预测解决方案的公平和合理的比较。通过采用统一的训练流程,BasicTS解决了性能不一致的问题,并提供了更为合理的评估程序。</p><p id="3502H0LF">其次,我们深入探讨了MTS数据集的异质性。在时间维度上,我们根据数据集是否呈现出清晰稳定的模式、显著的分布漂移或不明确的模式进行分类;在空间维度上,我们设计了衡量空间依赖性的指标,将数据集划分为具有显著空间不可区分性和不具有显著空间不可区分性两类。</p><p id="3502H0LG">我们结论是,许多先前研究得出的结论仅适用于某些特定类型的数据,将这些结论泛化会导致研究人员得出适得其反的推论。</p><p id="3502H0LH">此外,借助BasicTS及其相关的MTS数据集,我们对当前流行的解决方案进行了广泛的分析与比较。这些研究成果为MTS预测领域的进展提供了宝贵的见解,帮助研究人员选择合适的解决方案或数据集,并得出更可靠的结论。</p><p id="3502H0LN"><strong>时序时空大模型读书会</strong></p><p id="3502H0LR">现代生活产生了大量的时序数据和时空数据,分析这些数据对于深入理解现实世界系统的复杂性和演化规律至关重要。近期,受到大语言模型(LLM)在通用智能领域的启发,"大模型+时序/时空数据”这个新方向迸发出了许多相关进展。当前的LLM有潜力彻底改变时空数据挖掘方式,从而促进城市、交通、遥感等典型复杂系统的决策高效制定,并朝着更普遍的时空分析智能形式迈进。</p><p id="3502H0LT">集智俱乐部联合美国佐治亚理工学院博士&amp;松鼠AI首席科学家文青松、香港科技大学(广州)助理教授梁宇轩、中国科学院计算技术研究所副研究员姚迪、澳大利亚新南威尔士大学讲师薛昊、莫纳什大学博士生金明等五位发起人,共同发起以,鼓励研究人员和实践者认识到LLM在推进时序及时空数据挖掘方面的潜力,共学共研相关文献。读书会已完结,现在报名可加入社群并解锁回放视频权限。</p><p id="3502H0M0">详情请见:</p><p id="3502H0M4"><strong>1.</strong></p><p id="3502H0M5"><strong>2.</strong></p><p id="3502H0M6"><strong>3.</strong></p><p id="3502H0M7"><strong>4.</strong></p><p id="3502H0M8"><strong>5.</strong></p><p id="3502H0M9"><strong>6.</strong></p> 

讯享网
小讯
上一篇 2025-05-08 23:45
下一篇 2025-05-12 15:07

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/170783.html