刷榜多元时序预测,性能波动0%,打破CI/CD二元对立

新智元·2026年03月26日 11:44
CPiRi用冻结底座解耦时序预测,实现鲁棒与精准双赢,仅25%数据泛化全网络。

ICLR'26新研究CPiRi打破时序预测僵局:用冻结底座提取时序特征,轻量模块专注学习通道间真实关系,不靠位置编码「背答案」。测试中通道乱序性能零波动,仅用25%数据即可泛化至全网络,真正实现鲁棒与精准双赢。

在多元时间序列预测(MTSF)领域,学术界长期存在着通道依赖(Channel Dependence, CD)与通道独立(Channel Independence, CI)的路线之争。

通道依赖(CD)派(如Crossformer、iTransformer)主张通过时空图网络(STGNNs)、通道注意力机制等方法显式建模通道间的复杂关联。理论上限高,但极易过拟合。

通道独立(CI)派(如PatchTST、DLinear)主张将每个通道视为独立序列处理。虽然简单粗暴,却因鲁棒性强而屡屡霸榜。

这就产生了一个反直觉的悖论:为什么显式建模了更多信息的CD模型,泛化性反而不如「各自为战」的CI模型?

如果我们剥开表象,会发现这本质上是一种架构选择下的妥协

目前的CI主流模型大多基于非自回归(NAR)或直接映射架构,为了规避噪声累积,被迫放弃了对跨通道联合分布的建模。

是否存在一种架构,既能拥有CI的鲁棒性(不惧噪声和异质性),又能拥有CD的物理关联捕捉能力(理解通道间的因果)?

为化解这一范式矛盾与位置记忆的「捷径」问题,浙江财经大学研究团队提出了一种全新的多元时空解耦框架CPiRi,通过冻结的预训练时间编码器抽取稳健的时序动力学特征,并利用轻量级空间模块专注学习「内容驱动」的跨通道交互 。

论文链接:https://openreview.net/pdf?id=tgnXCCjKE3

代码链接:https://github.com/JasonStraka/CPiRi

配合创新的置换不变正则化(通道混洗)训练策略,迫使模型学习可泛化的跨通道关系,彻底摆脱对绝对位置索引的依赖。

实验表明,CPiRi不仅刷新了多项SOTA,更在「只见过25%传感器」的极端少样本条件下展现出惊人的零样本归纳泛化能力 。

该研究为智能交通、能源电网等极易发生「结构性分布漂移」的真实业务场景,提供了一条可落地、可迁移与可维护的全新技术路径。

现实世界的隐秘挑战,结构与分布的协同漂移

在深入探讨CPiRi框架之前,必须首先理解现代MTS预测任务所面临的真实物理环境约束。在复杂的工业系统中,数据生成的过程往往伴随着底层物理或逻辑拓扑的持续变更。

真实世界的多元时间序列数据在开放动态环境中,不可避免地会面临两类复杂的演化现象 :

  • 分布漂移(Distributional Drift):即时间序列的均值、方差、自相关性等统计特性随时间(如季节更替、节假日效应、设备状态变化)发生动态改变,导致训练集与测试集数据分布不一致。这构成了预测任务准确性的主要瓶颈。
  • 结构漂移(Structural Drift):即支撑数据生成的传感器网络物理或逻辑拓扑随时间发生变更。例如在智慧城市中,道路施工导致某些交通传感器失效,或者电网扩容新增了监测节点。

这两种漂移往往并非孤立存在,而是紧密耦合,形成结构与分布协同漂移(Structural-Distributional Co-drift)。结构层面的扰动(如某条主干道新增交通流量监控节点)会直接打破原有的空间依赖关系,并诱发边际分布的同步漂移。这就要求深度学习模型不仅要捕捉时间上的动态性,还要具备极强的拓扑动态适应性、鲁棒性与泛化能力。

当系统经历跨区域迁移、大规模网络重组,或面临完全未见通道的冷启动挑战时,传统模型极易因强烈的「位置记忆效应」产生性能的断崖式下跌。在这一场景下,算力成本退居其次,模型对未见场景的「全局泛化能力」与「跨域可移植性」成为解决问题的核心命题。

CPiRi框架正是为彻底解决这一高强度结构性分布漂移难题而生。其核心设计初衷在于打破模型对特定通道配置的依赖,通过构建具备通道置换不变性的通用架构,使模型获得跨通道关系推理的「元能力」(Meta-skill),从而在面对剧烈的通道重排、增删或跨域部署时,依然能够稳如泰山。

经典预测范式的权衡

近年来,基于深度学习的MTS预测技术发展迅猛,但面对高强度结构性分布漂移,现有模型在处理多通道关系时陷入了深刻的「范式矛盾」。现代深度学习MTS预测模型主要分为两大对立阵营:通道独立(Channel-Independent, CI)范式与通道依赖(Channel-Dependent, CD)范式。

通道独立(CI)范式:鲁棒性的代价是关系盲区

通道独立模型的基本思想是将多元时间序列预测任务降维拆解为多个独立的单通道时间序列预测任务。例如,DLinear模型仅使用简单的全连接层对分解后的时序进行独立建模;PatchTST则将Transformer架构应用于独立通道的分块(Patch)序列上。近期,借鉴大语言模型(LLM)经验在海量单通道时序数据上预训练的基础模型(如Chronos-Bolt、Sundial),更是将CI范式推向了新的高度。

  • 绝对优势:CI方法天然具备极佳的鲁棒性,且本质上满足「通道置换不变性」(因为各通道独立计算,互不干扰)。它们在抵御噪声干扰、应对通道异质性以及跨领域泛化方面表现优异。
  • 致命缺陷:这一范式以彻底牺牲对跨通道交互关系(如相邻交通路口的车流联动、电网相邻节点的负载共变)的显式建模为代价。忽视系统内部的空间联动机制,极大限制了模型对复杂系统全局时空动力学结构的刻画能力,从而锁死了预测精度的性能上限。

通道依赖(CD)范式:位置记忆的「伪相关」陷阱

为了捕捉跨通道的复杂交互,通道依赖模型应运而生,试图通过联合建模来显式挖掘空间特征。早期的时空图神经网络(STGNN)依赖预定义或自适应的图结构;后续基于Transformer的模型(如Informer、Crossformer、STID)则通过各种注意力机制或跨维度嵌入来捕获通道间的时空依赖。

  • 绝对优势:在静态、封闭且通道结构固定的测试基准上,CD模型通常能通过挖掘通道间的复杂深层交互,取得极为优异的预测精度。
  • 致命缺陷:现有的CD模型对训练阶段特定的通道配置(如通道数量、输入绝对顺序、先验拓扑结构)呈现出高度的病态敏感性。研究表明,这类模型在训练时往往倾向于寻找「位置记忆捷径」(Positional Memory Shortcut)——它们并没有真正学会基于时序信号的语义内容去推理关系,而是简单地记住了通道的绝对位置索引(例如,死记硬背「输入张量中的第3个通道永远与第5个通道强相关」)。

为了揭露这一隐藏缺陷,研究人员引入了一项关键的通道置换不变性(CPI)诊断测试。逻辑很简单:如果一个模型真正理解了通道间的语义依存关系,那么即使在测试阶段将输入通道的顺序随机打乱(Channel Shuffling),其预测性能也应当保持稳定。

然而,诊断测试的结果令人警醒:在PEMS-08交通流量数据集上,SOTA级别的CD模型在面对通道顺序打乱时,表现出令人震惊的脆弱性。例如,Informer的预测误差暴增了超过400%,STID的误差增加了235%以上。这种架构层面的严重僵化,使其在面临传感器网络结构变动的真实部署环境中几乎变得不可用。

唯有极少数创新型CD模型(如iTransformer)试图通过转置Transformer的注意力机制——将时间步视为特征维度、将通道视为序列Token——从而在架构上实现了对通道顺序的无感。然而,这种维度转置方法需要在每个注意力层内部耦合计算极高维度的时空特征,导致计算成本近似达到

,在处理大规模通道时极易引发内存溢出,且其基础预测精度依然存在妥协空间。

由此可见,如何在「多元关系建模能力」与「动态泛化鲁棒性」之间达成完美的系统级平衡,是时序预测领域亟待跨越的巨大鸿沟。

破局之道:CPiRi的解耦架构与正则策略

为了彻底化解CI与CD方法的范式矛盾,研究团队创新性地提出了CPiRi(Channel Permutation-Invariant Relational Interaction)框架。该框架摒弃了传统的端到端大一统设计,通过两个核心创新机制——彻底的时空解耦模型架构与置换不变正则化训练策略,成功赋予了模型内容驱动的跨通道关系推理元能力。

创新一:激进的时空解耦模型架构

CPiRi采用了模块化的三阶段设计,战略性地将时间模式的学习与空间交互的推理在物理架构上完全剥离,巧妙融合了CI与CD的双重优势。

阶段1:时间序列特征提取

给定输入的多元历史序列数据

(其中L为回视窗口大小,C为通道数),CPiRi首先将其解耦为C个独立的单变量序列。这些序列被并行送入一个被完全冻结的预训练时序基础模型(Sundial)的编码器中。 编码器对每个通道的序列在隔离状态下进行独立处理,提取其最终的Patch表征,从而得到一组高质量的、通道专属的时间特征向量集合

,其中每个

均是一个高维特征向量。

设计精妙之处:采用大规模预训练模型(如Sundial)作为特征提取器,不仅完美继承了CI模型在少样本与抗噪场景下的强鲁棒性,更关键的是,通过将编码器「冻结」(Frozen),从根本上阻断了模型在训练期间将特定的时间模式与特定通道位置相耦合的可能,彻底避免了「结构性纠缠」(Structural Entanglement)。

阶段2:置换等变的空间交互

这是CPiRi架构中唯一参与反向传播训练的核心组件。上一阶段提取的时间特征集合 {h1,...,hC} 在此被严格视作一个无序的集合(Unordered Set),并送入一个轻量级的空间交互模块。 该空间模块由标准的Transformer Encoder Block构成。

多头自注意力(Multi-head Self-attention)机制在此发挥了决定性作用。由于剔除了任何形式的通道绝对位置编码,注意力机制纯粹依靠各个通道特征向量之间的内在语义相似度(如时间序列波动规律的一致性、趋势演化的拟合度)来动态计算注意力权重。

设计精妙之处:这一阶段强制模型摒弃对通道索引的先验依赖,使其成为一个专注于学习「内容驱动型」(Content-driven)跨通道关系的高度专业化引擎。更重要的是,该模块的计算复杂度仅为

,相比于全局耦合计算的巨型模型,极大地降低了显存开销与推理延迟。

阶段3:独立的预测生成 (Independent Prediction Generation)

经过空间模块交互强化后的上下文感知特征集合

,最后被再次独立地送入冻结的Sundial解码器中。解码器根据每个通道专属的、已融合了全局空间信息的强化表征,独立生成未来T个时间步的预测结果

设计精妙之处:输出端的独立生成闭环进一步巩固了时空解耦的防线,确保了在生成最终预测轨迹的阶段,绝不会发生结构上的二次纠缠,从而保证了预测流程端到端的鲁棒性。

核心创新二:置换不变正则化策略

尽管解耦架构为置换不变性提供了物理基础,但如果仅有架构,空间模块在优化过程中依然可能利用数据分布中的微小瑕疵(例如某个特定通道总是存在某种模式的噪声)来「作弊」,并隐式地记住通道位置。为了在算法优化层面彻底封死这条退路,CPiRi引入了基于通道混洗(Channel Shuffling)的正则化训练策略

该策略可以被视为一种专门针对通道维度的元学习(Meta-learning)机制。具体操作如下: 在每一次训练迭代中,系统会生成一个作用于所有 C个通道的随机置换矩阵 π∼ΠC。随后,将该置换同时应用于当前批次的输入数据X和对应的目标标签Y。

由于时间编码器是冻结且通道独立的,输入通道顺序的打乱仅意味着空间交互模块接收到的特征集合

的排列顺序发生了随机改变。在进行反向传播以最小化预测损失时,空间模块陷入了一种「绝境」:它无法再依赖类似「第3个通道永远是噪音」这样的位置线索。为了持续降低损失,它必须学会一种与排列顺序完全无关的、仅仅通过分析特征向量内在语义来识别实体间动态联系的泛化函数

这种通过高强度数据增强实现的正则化,不仅极大丰富了训练数据的配置多样性,更强制赋予了模型对通道结构剧烈变动的天然「免疫力」,使其真正掌握了可迁移的关系推理能力。

从「置换不变」到「关系学习」

CPiRi框架的卓越表现并非来自经验性的工程堆砌,而是建立在严谨的数学理论基础之上。理解CPiRi的内在机制,必须回归到对「置换不变性」(Permutation Invariance)与「置换等变性」(Permutation Equivariance)的理论剖析。

在多元时间序列预测任务中,由于模型需要为每个输入通道输出其对应的未来预测轨迹,因此MTSF任务在通道级别上本质上是一个置换等变(Permutation-Equivariant)的任务。

这意味着,如果输入通道的位置被交换,模型输出的对应预测结果也应当发生完全相同的交换,而预测的数值内容不应有任何改变。这可以用有向图网络来形象类比:旋转或镜像一个有向图,虽然节点的索引顺序发生了置换,但实体间的连边关系与拓扑结构的等价性保持不变。

为第一阶段提取的时序特征集合,空间交互模块可形式化为一个映射函数

。当且仅当对任意置换排列 π,满足以下等式时,函数f具备置换等变性 :

CPiRi的通道置换正则化训练目标,是最小化在所有可能的通道置换分布ΠC上的期望损失:

其中,θ代表空间模块的可训练参数。在此目标下,任何依赖于特定通道绝对顺序的非等变组件,在面对随机置换时都会产生极高的误差,从而被梯度下降算法自然淘汰。优化过程最终会逼近一个内在等变的稳定解。

更深层次地,根据经典的Deep Sets理论揭示,任何作用于无序集合上的置换等变函数,必须能够被分解为基于「对称聚合」(Symmetric Aggregation)的特定数学结构形式 :

其中,ϕ是逐元素的特征变换函数,⨁是不受元素排列顺序影响的对称聚合函数(如求和、求均值等),ρ是最终的组合映射函数。

自注意力(Self-Attention)机制,恰恰是这一严谨数学结构的完美架构级实现:它通过计算查询向量(Query)与键向量(Key)的点积来确定内容相关的相似度权重,进而对所有元素的数值向量(Value)进行加权求和,这正是一个典型且强大的「对称聚合」操作。

因此,CPiRi的成功构成了一条逻辑极其严密的理论闭环:通道混洗的训练策略(算法维度的约束),必然要求优化出一个置换等变函数(数学维度的属性),而这又必须依赖于对称聚合架构(结构维度的形式),最终由自注意力机制(工程维度的实现)完美落地。这一理论链条彻底保证了CPiRi能够屏蔽位置索引的干扰,真正基于深层语义内容进行跨通道的元推理。

全方位碾压的SOTA表现

为了全面验证CPiRi在复杂动态环境下的卓越性能,研究团队在涵盖交通速度、交通流量、电力负荷等具有强空间异质性特征的五大公开标准基准数据集(METR-LA、PEMS-BAY、PEMS-04、PEMS-08、SD)上进行了海量实验。实验设置输入历史序列长度与预测序列长度均为336,并严格采用BasicTS+开源基准框架的标准协议以确保公正性。

基础预测精度:融合双范式之大成

在标准的固定通道顺序评测环境下,CPiRi展现出了极具统治力的性能。如下表所示,CPiRi在五大数据集中的四个上均大幅刷新了SOTA(State-of-the-Art)记录,显著超越了现有的主流CI和CD模型。

(注:仅在METR-LA数据集上,STID与Crossformer因额外使用了本模型未接入的外部假日等先验特征而表现略优。)

令人瞩目的是,CPiRi的性能全面且大幅地超过了包括Chronos-Bolt、Timer-XL、Sundial在内拥有海量参数的时序大模型。例如,在拥有716个高度异质化通道的SD数据集上,CPiRi的WAPE指标(12.25%)比其自身使用的底座大模型Sundial(24.40%)足足领先了超过12个百分点。这无可辩驳地证明:在复杂的物理关联网络中,仅依靠基础大模型在时间维度上的表征是远远不够的,跨通道关系的显式解耦建模对于突破预测上限具有决定性的战略意义

核心诊断测试:面对通道置换的绝对防御

为了检验模型在结构性分布漂移(如传感器重排、增删)场景下的鲁棒性,研究团队实施了极为严苛的「测试阶段通道部分/完全随机置换」递进实验。

如下表所示,展示了在PEMS-08数据集上,当测试阶段通道顺序被打乱的比例从0%增加到100%时,各模型的性能退化情况。

实验结果触目惊心:高度依赖固定位置编码的传统CD模型发生了灾难性的全面崩塌。Informer的WAPE误差从正常的13.02%一路狂飙至118.19%,STID的误差也从10.90%剧烈退化至65.18%。这表明它们在训练时严重依赖于「位置记忆捷径」。

面对随比例递增的置换干扰,仅有基于维度倒置的iTransformer和本文提出的CPiRi能够保持性能的纹丝不动。然而,CPiRi不仅实现了完美的抗干扰「置换不变性」,其基础预测精度更是全程以巨大优势稳压iTransformer(9.43% vs 10.70%)。这充分说明,CPiRi的时空解耦范式比简单的维度转置范式,更能精准且深度地捕捉空间依赖关系。在所有数据集的测试中,CPiRi在正常测试与100%混洗测试之间的WAPE指标偏差均小于0.25%。

消融实验:揭示解耦与正则的真实威力

为了深入剖析CPiRi各架构组件的不可替代性,研究团队进行了细致的消融验证(Ablation Study) :

去除时空解耦(w/o decouple):当解冻时序编码器并与空间模块联合进行微调时,模型性能出现了一致性下降。研究指出,这不仅导致显存开销激增约5倍,更导致模型发生了对单一数据集的过度拟合(Overfitting),削弱了基础模型原本鲁棒的时间先验知识。

去除正则化策略(w/o strategy):当训练时不使用随机通道混洗,模型依然会退化并寻找位置捷径,导致预测误差在所有数据集上全面上升。这印证了正则化策略对于迫使模型学习泛化关系的不可或缺性。

去除空间交互模块(w/o spatial module):仅保留单通道预测能力,CPiRi直接退化为普通的CI模型(等同于直接使用Sundial)。在SD数据集上,WAPE从12.25%暴跌至24.40%,这一断崖式的性能落差,反向证明了轻量级空间交互模块在捕捉系统级潜藏关联时的决定性作用。

去除预训练权重(w/o pretrain):若摒弃Sundial的预训练权重,模型从零开始随机初始化训练,其在PEMS-04和PEMS-08上的误差暴增数倍(如WAPE激增至74.86%)。这凸显了在大规模数据上预训练所获得的高质量时序特征,是支撑内容驱动空间推理的必要地基。

少样本归纳泛化:未见通道的冷启动奇迹

CPiRi最具商业应用价值的潜力,在于其对完全未见通道的强大归纳泛化(Inductive Generalization)能力。在高强度结构性分布漂移场景下,业务系统常常需要将模型应用到刚并网且缺乏历史数据的全新节点上。

研究团队进行了一项极限压力测试:在训练阶段人为屏蔽大量通道,使得模型仅能使用整个网络通道总数的25%、50%、75%进行少样本训练;而在测试阶段,则要求模型对整个网络100%的通道(包含大量未见过的通道)进行预测。

实验结果打破了常规认知:即使在极其苛刻的条件下——仅使用25%的通道数据进行训练——其不仅将训练时间大幅削减了70%,且整体预测精度竟然只出现了约2%的微小下降!

在PEMS-08数据集上,当仅使用25%的通道训练时,使用了置换正则化策略的CPiRi误差为10.72%,而未使用的变体误差高达14.22%。这充分证明,低数据场景下正则化策略的介入极为关键。CPiRi通过正则化真正掌握了底层的关系推理「元能力」——它不是在死记硬背已知通道的具体关联,而是学会了「只要提取出新通道的时序波形特征,就能自动推断其与网络中其他通道的动态交互规律」。这种极致的「Zero-shot」式零样本通道扩展能力,极大地降低了模型跨域迁移与冷启动部署的门槛。

极致的可扩展性与计算效率

除了精度与泛化能力,针对极大规模的城市级传感器网络,CPiRi展现出了极强的可扩展性。研究团队在包含高达8600个通道的大规模交通数据集CA(加利福尼亚路网)上进行了资源效率测试 :

大型基础预训练CD模型(如Timer-XL)由于其庞大的参数量以及

的恐怖二次方复杂度,在面对8600个通道时,需要消耗超过80GB的显存,最终因OOM(Out of Memory,内存溢出)而彻底宕机无法运行。

而凭借

线性解耦复杂度的CPiRi框架,在编译后单实例平均推理时间仅需 0.41 秒,显存占用仅为 8.00GB。它在计算效率与资源消耗上与纯粹无交互的CI模型(Sundial)几乎处于同一数量级,但在预测精度上却取得了断层式的领先(WAPE 12.68% vs Sundial的23.60%)。这证明了CPiRi在复杂度和性能之间取得了极为出色的平衡,是处理大规模任务的实用解决方案。

表征可视化的「显微镜」:透视CPiRi的学习机制

为了打开深度学习运作的「黑盒」,探究CPiRi究竟学到了什么,研究团队引入了UMAP(统一流形逼近与投影技术,将高维的通道表征向量投影至二维/三维空间,从而直观地审视空间交互模块「化腐朽为神奇」的内在机理。

在可视化分析结果中:

空间交互处理前(Sundial提取的原始时序表征):在UMAP投影中,初始的表征点(红色)聚集成一团密密麻麻的混沌星云。这表明此时各个通道的时间序列特性区分度极低,模型难以在特征空间中分辨不同实体间的边界与语义联系。

空间交互处理后(CPiRi空间模块重构后的表征):经过轻量级空间模块的内容感知重构后,表征点(蓝色)在空间中迅速裂变,并组织成一个个边界清晰、结构分明、可高度分离的流形聚类(Manifolds)。这一转变直观证明了CPiRi成功将通道表征重构为了更具语义区分度的结构。

更为震撼的现象在于:当研究人员在三次独立的测试运行中,故意输入完全不同顺序(随机置换)的通道时,CPiRi输出的这三组蓝色聚类星云,竟然呈现出几何拓扑上近乎完全一致的结构形态! 这一极具视觉冲击力的现象,为通道置换不变性(CPI)提供了最硬核的定性证据:无论你的输入顺序如何千变万化,CPiRi的内在逻辑始终坚定地依据物理世界的真实语义规律,对通道特征进行着精准的重新编排与关系映射

相反,消融实验也从反面给出了警告:如果为了追求在单一数据集上的极限精度,而违背解耦原则,强行解冻并微调底层的时序编码器,UMAP图像会显示特征点重新变得过于紧凑且缺乏分离度。这标志着模型发生了严重的「表征塌缩」(Representation Collapse),陷入了对特定训练通道数据分布的局部过拟合,从而彻底丧失了应对结构性漂移的广阔视野与泛化能力。

动态MTSF的未来拼图

多元时间序列预测走向现实大规模工业部署的终极障碍,始终是复杂多变的物理世界带来的「结构与分布协同漂移」。本研究中提出的CPiRi模型,正是为了拔掉这一横亘在学术界与工业界之间的「钉子」。

通过创新的激进时空解耦架构置换不变正则化训练策略,CPiRi犹如一位同时精通两门绝技的大师: 它既继承了「通道独立(CI)」范式利用大规模时序预训练特征所带来的无惧噪声、少样本泛化的高效体魄;又吸纳了「通道依赖(CD)」范式洞悉万物互联、精准捕捉系统空间联动轨迹的智慧大脑。

从深埋地下运作的庞大智能管网,到迎接风光新能源并网接入的复杂电力负荷调控系统,再到瞬息万变的全球金融高频风控阵列……真实的业务场景需要的,从来都不是在静态且完美的数据集排行榜上刷分的「温室花朵」,而是能够在剧烈演化、充满未知的开放拓扑环境中,依然提供精准、稳健、可维护决策支持的「坚韧利器」。

CPiRi框架在ICLR 2026上的惊艳亮相,不仅为破局长久以来的时序预测「CI vs CD」范式之争提供了一个兼具数学严谨性与工程实用性的标准答案,更为未来构建大规模、高鲁棒性、通用化的人工智能时空预测基座模型,铺就了一条光明且宽广的全新技术坦途。

参考资料

https://openreview.net/pdf?id=tgnXCCjKE3

本文来自微信公众号“新智元”,作者:LRST ,36氪经授权发布。

+1
7

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业