新智元报道
编辑:lrst
【新智元导读】 timedistill通过知识蒸馏,将复杂模型(如transformer和cnn)的预测能力迁移到轻量级的mlp模型中,专注于提取多尺度和多周期模式,显著提升mlp的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的尊龙凯时注册的解决方案。
如何在保证预测精度的同时降低计算成本,是时序预测应用面临的核心挑战。
传统的时序预测模型(如基于transformer或cnn的复杂结构)虽在精度上表现卓越,但计算开销往往难以满足实际部署需求。而轻量级mlp(多层感知器)虽然具备较高的推理速度,却常因建模能力不足,导致预测精度较低。
这引出了一个有趣的问题:是否可以将mlp与其他先进架构(如transformer和cnn)结合,以构建一个既强大又高效的模型?
一个直觉的尊龙凯时注册的解决方案是知识蒸馏(knowledge distillation),通过将更大、更复杂的模型(教师模型)的知识迁移到较小、更简单的模型(学生模型),使其在提升性能的同时实现更高的计算效率。
近期,来自美国埃默里大学、澳大利亚格里菲斯大学等多地的华人科研团队联合提出了一种跨架构知识蒸馏(cross-architecture knowledge distillation)框架timedistill,将mlp作为学生模型,其他复杂先进架构(如transformer和cnn)作为教师模型,通过蒸馏复杂模型的优势至轻量级模型,实现计算负担大幅降低的同时显著提升预测精度。
相比于教师模型,timedistill加快了最多7倍推理速度,降低了最多130倍参数量,同时timedistill还在多个数据集上展现了超越教师模型的sota表现,为构建高效、高精度的时序预测模型提供了全新思路。
论文链接:https://arxiv.org/pdf/2502.15016
通过蒸馏,timedistill在多个数据集上取得超越教师模型的预测精度并实现了最佳的效率平衡。
timedistill模型方法
设计思路
首先,研究人员对mlp与其他时序模型的预测模式进行了对比分析。
研究发现,尽管mlp的整体预测精度较低,但往往在某一部分样本上表现出色,突显了其与教师模型之间存在一定的优势互补,强调了通过知识蒸馏向教师模型的学习互补知识的重要性。
为了进一步探索需要蒸馏的时序「知识」,研究人员聚焦于两个关键的时序模式:
时间域的多尺度模式(multi-scale pattern) :真实世界的时序数据通常在多个时间尺度上呈现不同的变化。可以观察到,在最细粒度时间尺度上表现良好的模型通常在较粗粒度上也能保持较高的准确性,而mlp在大多数尺度上均表现不佳。
频率域的多周期模式(multi-period pattern) :时序数据往往存在多个周期性,性能较好的模型能够捕捉到与真实数据接近的周期性特征,而mlp无法有效识别这些周期性结构。
因此,为了增强mlp的时序预测能力,从教师模型中蒸馏并整合多尺度和多周期模式至关重要。
跨架构知识蒸馏(cross-architecture distillation)
对于任意教师模型,timedistill均能有效提炼其在时序预测中的多种模式,并将其压缩进轻量学生模型(例如mlp),使后者具备更强的预测能力。
其中即学生模型的预测,即学生模型的中间特征,s即预测长度,d即中间特征维度,c即变量数量。下标为t即代表教师模型。
多尺度、多周期特征的系统性提炼
多尺度蒸馏(multi-scale distillation): 在不同的时间分辨率上分别下采样教师模型与学生模型的预测和中间特征,确保学生模型同时捕捉粗粒度的整体趋势与细粒度的瞬时变化。
多周期蒸馏(multi-period distillation): 通过傅里叶变换(fft)分析频域信息,将教师模型在周期性模式上的优势提炼并传递给学生模型,使后者在应对长周期波动(如季节、年度周期)与短周期干扰(如日内流量峰谷变化)时,都能维持稳定高精度。
由于fft得到的频谱往往包含很多低频噪声,研究人员通过低温蒸馏使得频率(周期)分布更加锋利,使得学生模型可以直接学习最显著的频率(周期)分量。
理论解释
从理论上,研究人员将多尺度和多周期蒸馏损失诠释为一种数据增强策略,类似于分类任务中的标签平滑(label smoothing)。
蒸馏过程实际上等同于将教师模型的预测结果与真实标签进行混合,类似生成了经过mixup变换的增广样本,这种数据增强带来了以下 三个益处 :增强泛化,显式融合多种模式,稳定训练,为timedistill的优异表现提供了理论支撑。
实验效果
效果全面领先
timedistill在8个时序数据集上进行实验,其中7个数据集的mse指标优于基线教师模型,在所有数据集的mae指标上均取得最佳表现,展现出卓越的预测能力。
兼容多种教师模型
timedistill适用于多种教师模型,能够有效蒸馏知识并提升mlp学生模型的性能,同时相较教师模型本身也有显著提升。
兼容多种学生模型
timedistill不仅适用于mlp结构,还可以增强轻量级学生模型的性能。例如,在以moderntcn作为教师模型的实验中,timedistill使两个轻量模型tsmixer和lightts的mse分别降低6.26%和8.02%,验证了其在不同学生模型上的适应性。
兼容多种回溯窗口长度
时序模型的预测性能往往随回溯窗口(历史观测长度)变化而波动,而timedistill在所有窗口长度下均能提升mlp表现,甚至超越教师模型,体现出对不同时间依赖模式的强大适应能力。
消融实验
timedistill通过消融实验进一步验证了模型设计的合理性。值得注意的是,即使去掉ground truth监督信号(w/o sup),timedistill仍然能够显著提升mlp预测精度,表明其可以从教师模型中有效学习到丰富的知识。
总结
timedistill的提出,标志着时序预测领域正在向更高效、更通用的方向发展。它不仅展示了轻量级模型在蒸馏复杂模型知识后所能达到的卓越性能,还为学术界和工业界提供了新的思考方向:
如何在计算成本、模型规模与预测精度之间找到最优平衡?
如何通过知识蒸馏让轻量模型超越其原有能力上限?
未来,期待更多研究机构与企业推动timedistill在金融、能源、流量预测等领域的广泛应用,为数据驱动时代的时序分析注入新的动力。
参考资料:
https://arxiv.org/pdf/2502.15016
开外眼角图片前后对比 | 3天前 |
zhaofeizi16.vim |
狠人女帝是鼎炉 | 8天前 |
奥尔森无遮挡双奶头照片 |
国产在线精品爆乳美女a片黄 | 2天前 |
福泽x乱步肉微博 |
3d同人18❌aⅴ | 5天前 |
核弹mod作弊菜单 |
差差漫画在线观看登录页面弹窗 | 8天前 |
校花喂我乳我掀起她裙的漫画 |
海外tk | 0天前 |
西施cos捆绑vk |
宝贝你的奶好大我想吃视频 | 9天前 |
众神试炼第100集免费播放 |
出包王女同人3d | 3天前 |
w722.al.ocm |
年轻的女学生4伦理 | 9天前 |
人妻hd xxxx videos182 |
锵锵锵锵锵免费观看游戏大全 | 8天前 |
看一级a片裸体舞 |