Block Hankel Tensor ARIMA 以及 人工智能中张量的构成

文章:Block Hankel Tensor ARIMA for Multiple Short Time Series Forecasting

感谢作者分享的原文。
张量的知识比较抽象,设计较高维度的认知。就用华为文章中提出的方法作为例子。

​ 首先为什么要提出使用张量进行时序预测呢?研究发现,在时序预测任务中,将低维张量映射到高纬张量能提取多时序之间的相关性。有可能特征不明显的时间序列投影到高纬张量,就能显示出平滑流形的特征。比如说块汉克尔张量,这种张量易于学习和训练。就好比如我们现在的数据,杂乱无序,相同的模型,在简单的数据集(比如帕金森数据集)上拟合地很快。200次迭代就能学习到模型,但是能耗数据集20000次迭代才可以,甚至更多。

​ 应用张量方法的第一步是生成张量,有一种新提出的张量方法MDT具有较好的时序预测性能。MDT方法在公式表达上很抽象,其正逆变换公式如下两条所示。
Block Hankel Tensor ARIMA 以及 人工智能中张量的构成Block Hankel Tensor ARIMA 以及 人工智能中张量的构成
​ 但是从图解和来看就比较易于理解。

Block Hankel Tensor ARIMA 以及 人工智能中张量的构成

​ 比如我们原始的时序数据是XI×TX_{I\times T},如转换方程来看,就是将XI×TX^{I\times T}乘上一系列Sτ(Tτ+1)×TTS^T_{\tau(T-\tau+1) \times T},这是一种复制矩阵,如图可知这种矩阵的构造就是用一个τ×τ{\tau\times \tau} 的对角矩阵拼成的,这样应该是为了抽取时序特征出来。比如我们的数据有I个特征,T个时间点,这是一个二维张量,通过这种方式能转换成三维的张量,X^I×τ×T^\widehat{X}_{I\times \tau \times \widehat{T}},T^=Tτ+1\widehat{T}=T-\tau+1。这样下来,我们的数据就从二维的映射到了三维张量,时序大小也改变了。

​ 这步是张量的构成。这样的数据中,张量是低秩的,我们只需要其中的核心信息,于是就要对数据进行分解。通常的分解方法是塔克分解,分解的图解如下。
Block Hankel Tensor ARIMA 以及 人工智能中张量的构成
​ 公式如下所示,之所以是Δd\Delta^d开头,是因为这是ARIMA的公式要求,ARIMA公式需要对数据进行d阶差分。
Block Hankel Tensor ARIMA 以及 人工智能中张量的构成

​ 但是一般的ARIMA只能预测一个标量,所以作者对ARIMA公式进行了修改,也就是BHT-ARIMA。

Block Hankel Tensor ARIMA 以及 人工智能中张量的构成Block Hankel Tensor ARIMA 以及 人工智能中张量的构成