Proximal Algorithms 5 Parallel and Distributed Algorithms

Proximal Algorithms

这一节,介绍并行算法的实现.

问题的结构

[n]={1,,n}[n] = \{1, \ldots, n\}. 给定c[n]c \subseteq [n], 让xcRcx_c \in \mathbb{R}^{|c|}表示向量xRnx\in \mathbb{R}^n的一个子向量(以cc为指标的对应部分).当P={c1,,cN}\mathcal{P}=\{c_1, \ldots, c_N\}满足:
P=[n]cicj=,ij \cup \mathcal{P} = [n] \\ c_i \cap c_j = \emptyset, i \ne j
时, 称P\mathcal{P}[n][n]的一个分割.
函数ffP\mathcal{P}-分割满足:
f(x)=i=1Nfi(xci) f(x) = \sum_{i=1}^N f_i (x_{c_i})
其中fi:RciRf_i : \mathbb{R}^{|c_i|} \rightarrow \mathbb{R}.
在这种情况下:
(proxf(v))i=proxfi(vi) (\mathbf{prox}_f(v))_i = \mathbf{prox}_{f_i}(v_i)
所以,可以并行计算.

考虑下面的问题:
minimizef(x)+g(x) \mathrm{minimize} \quad f(x) + g(x)
如果假设ffP\mathcal{P}-分割的, 而ggQ\mathcal{Q}-分割的,那么问题等价于:
Proximal Algorithms 5 Parallel and Distributed Algorithms
于是ADMM可以并行计算:
Proximal Algorithms 5 Parallel and Distributed Algorithms

consensus

考虑下列问题如何进行并行计算:
minimizef(x)=i=1Nfi(x) \mathrm{minimize} \quad f(x) = \sum_{i=1}^N f_i (x)

一个非常巧妙的变化:
Proximal Algorithms 5 Parallel and Distributed Algorithms
可以看到,这样子,函数就是可分了, 只是多了一个附加条件.
将上面的问题转化为:
minimizei=1Nfi(xi)+IC(x1,,xN) \mathrm{minimize} \quad \sum_{i=1}^N f_i(x_i) + I_{\mathcal{C}} (x_1, \ldots, x_N)
其中C\mathcal{C}是consensus set:
C={(x1,,xN)x1=,=xN} \mathcal{C} = \{(x_1, \ldots, x_N)| x_1 = \ldots, =x_N\}
这样,问题就变成俩个可分函数了, 不过需要注意的是,二者的分割并不相同:
P={[n],n+[n],2n+[n],,(N1)n+[n]} \mathcal{P} = \{[n], n+[n], 2n + [n], \ldots, (N-1)n + [n]\}
Q\mathcal{Q},即ICI_{\mathcal{C}}的分割为:
Q={{i,n+i,2n+i,,(N1)n+i}i=1,2,,n} \mathcal{Q} = \{\{i, n+i, 2n + i, \ldots, (N-1)n + i\}|i=1, 2, \ldots, n\}
注: 文中是i=1,2,,Ni=1, 2, \ldots, N(我认为是作者的笔误).
这个时候的ADMM的第二步,即更新zz,可以直接为:
zi=zˉ=(1/N)i=1Nzi z_i = \bar{z} = (1/N) \sum_{i=1}^N z_i
Proximal Algorithms 5 Parallel and Distributed Algorithms
作者贴了一个比较形象的图来表示这种分割:
Proximal Algorithms 5 Parallel and Distributed Algorithms

更为一般的情况

考虑下面的问题:
minimizef(x)=i=1Nfi(xci) \mathrm{minimize} \quad f(x) = \sum_{i=1}^N f_i (x_{c_i})
其中ci[n]c_i \subseteq [n], 但是cicj,ijc_i \cap c_j, i \ne j并不一定为空集.
进行同样的转换:
Proximal Algorithms 5 Parallel and Distributed Algorithms
其中
C={(z1,,zN)(zi)k=(zj)kif kcicj} \mathcal{C} = \{(z_1, \ldots, z_N) | (z_i)_k = (z_j)_k \quad if \: k \in c_i \cap c_j\}
同样等价于:
minimizei=1Nfi(zi)+IC(z1,,zN) \mathrm{minimize} \quad \sum_{i=1}^N f_i(z_i) + I_{\mathcal{C}} (z_1, \ldots, z_N)
相应的有一张比较形象的图:
Proximal Algorithms 5 Parallel and Distributed Algorithms
前一部分的分割是类似的, 后一部分的分割,就是怎么说呢,就像图上的行一样的分.

ADMM为:
Proximal Algorithms 5 Parallel and Distributed Algorithms
其中Fi={j[N]icj}F_i = \{j \in [N] | i \in c_j\}

Exchange 问题

Global exchange

交换问题具有如下形式:

Proximal Algorithms 5 Parallel and Distributed Algorithms
可以用一个实际问题来考量,每个ii表示一个客户,xix_i表示每个客户给予或者得到的总量,而fi(xi)f_i(x_i)表示该客户的效益,i=1Nxi=0\sum_{i=1}^Nx_i=0这个条件表示,所以客户东西的总量是固定的,即收支平衡.

我们可以将此问题转化为(这个方法太好使了吧):
minimizei=1Nfi(xi)+IC(x1,,xN) \mathrm{minimize} \quad \sum_{i=1}^N f_i(x_i) + I_{\mathcal{C}}(x_1, \ldots, x_N)
其中
C={(x1,,xN)RnNx1+x2++xN=0} \mathcal{C} = \{(x_1, \ldots, x_N)\in \mathbb{R}^{nN} | x_1 + x_2 + \ldots + x_N=0\}
我们知道,指示函数的proximal为投影算子, 于是:
(ΠC(v1,,vN))i=vivˉ (\Pi_{\mathcal{C}}(v_1, \ldots, v_N))_i = v_i - \bar{v}
于是ADMM算法为:
Proximal Algorithms 5 Parallel and Distributed Algorithms

更为一般的情况

有些时候,并不是所有客户都面对同一个市场,所以,每个xix_i的维度什么对的也有区别:
C={(z1,,zN)i:kci(zi)k=0} \mathcal{C} = \Big \{ (z_1, \ldots, z_N) \Big| \sum_{i : k \in c_i} (z_i)_k =0 \Big \}
有点和consenus的一般情况比较类似.

Allocation

allocation problem:
Proximal Algorithms 5 Parallel and Distributed Algorithms
其中xiRnx_i \in \mathbb{R}^n.

这个问题和交换问题也是相似的,区别在于总量bb, 而且要求xi0x_i \ge 0.
类似的,我们可以将上面的问题改写为:
minimizei=1Nfi(xi)+IC(x1,,xN) \mathrm{minimize} \quad \sum_{i=1}^N f_i(x_i) + I_{\mathcal{C}} (x_1, \ldots, x_N)
其中:
C={(x1,,xN)xi0,x1++xN=b} \mathcal{C} = \{(x_1, \ldots, x_N)| x_i \ge 0, x_1 + \ldots + x_N = b\}
所以相应的算法是:
Proximal Algorithms 5 Parallel and Distributed Algorithms
如何进行投影,会在下一节提到, 还有更加一般的情况,比如i=1Nxib\sum_{i=1}^N x_i \le b.