Paper notes(3):Tensor-Train Decomposition
1.文章的主要内容
给出了一种简单的非递归的张量分解形式,避免了“维度诅咒”的影响,该分解形式得到的参数数量与正则分解(canonical decomposition)的参数数量相同,但更稳定,因为该种分解是基于辅助展开矩阵的低秩近似。
2.TTD模型
给定一个d维张量B,如果想用张量A近似张量B,则A的每一个元素可以表示为:
A(i1,i2,...,id)=G1(i1)G2(i2)...Gd(id)(1.2)
其中Gk(ik)是一个rk−1×rk矩阵,因为A(i1,i2,...,id)代表的是一个元素,所以r0=rd=1。公式(1.2)可以改写为索引的形式:实际上Gk(ik)是一个大小为rk−1×nk×rk的三维数组,它的某个元素Gk(αk−1,nk,αk)=Gk(ik)αk−1αk。因此TTD的索引形式可以表示为:
A(i1,i2,...,id)=α0...,αd∑G1(α0,i1,α1)G2(α1,i2,α2)...Gd(αd−1,id,αd)(1.3)
注:以上内容来自于原文的翻译,以下为个人的简单理解

上图是TTD的一个图解,虽然图解给出的rk−1,rk,nk的方向与上文中的不同,但解释的道理是相同的。图中的pk即为上文中的nk,代表着被分解张量第k维的大小。结合上图和公式(1.2),我们可以看出Gk(ik)是三维张量Gk的一个lateral slice,即一个大小为rk−1×rk矩阵,总的来说矩阵A的某个元素A(i1,i2,...,id)就是其每一个下标对应的Gk张量的第ik个slice的乘积的和。
3.TTD的算法

参考文章:
1. Tensor-Train Decomposition
2. 张量分解(四):Tensor-train Decomposition