赞
踩
AAAI 2023 oral
论文笔记 Enhancing the Locality and Breaking the MemoryBottleneck of Transformer on Time Series Forecas_UQI-LIUWJ的博客-CSDN博客论文笔记:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting_UQI-LIUWJ的博客-CSDN博客论文笔记:Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting_UQI-LIUWJ的博客-CSDN博客 论文笔记:PYRAFORMER: LOW-COMPLEXITY PYRAMIDAL ATTENTION FOR LONG-RANGE TIME SERIES MODELING AND FORECAST_UQI-LIUWJ的博客-CSDN博客论文笔记:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting_UQI-LIUWJ的博客-CSDN博客
直接将N*T的输入序列,通过一个线性层,输出到N*T'的输出序列
举例:
可以看到Linear/DLinear/NLinear效果比Transformer的好
可以看到Linear的效果依旧最好
可以看到有些基于Transformer的模型在回望窗口增大时性能会恶化或保持不变。
相比之下,所有LTSF Linear的性能都随着输入窗口大小的增加而显著提高。
逐渐将Informer中的组成部分替换成Linear,发现性能随着逐步简化,而不断提高
在进行embedding 之前,对原始时间序列输入进行shuffle:
Ori是一个完整的数据,Short是截断了的数据
在这里,增加了数据,反而模型效果降低了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。