统计推断(四) Information Geometry

1. Generalized Bayesian decision

  • Formulation

    • Soft decision: qx(y)q_x(\cdot|y)
    • Cost function: C(x,qx)C(x,q_x)
  • Cost function

    • proper: pxy(y)=argmin{qx0:aq(a)=1}E[C(x,qx())y=y]p_{x|y}(\cdot|y)=\arg\min\limits_{\{q_x\ge0:\sum_a q(a)=1\}} E[C(x,q_x(\cdot))|\mathsf{y}=y]
    • local: C(x,qx)=ϕ(x,qx(x))C(x,q_x)=\phi(x,q_x(x))
  • Log-loss criterion: C(x,q)=Alogqx(x)+B(x),   A>0C(x,q)=-A\log q_x(x) + B(x), \ \ \ A>0

    • proper and local

    Theorem: When the alphabet X\mathcal{X} consists of at least 3 values (XL3|\mathcal{X}| \triangleq L ≥ 3), then the log-loss is the only smooth local, proper cost function.

    Proof: Let qlq×(xl),plpxy(xly),ϕl()ϕ(xl,)q_{l} \triangleq q_{\times}\left(x_{l}\right), p_{l} \triangleq p_{x | y}\left(x_{l} | y\right), \phi_{l}(\cdot) \triangleq \phi\left(x_{l}, \cdot\right)

    properp1,,pL=argmin{q1,,qL0:l=1Lql=1}l=1Lplϕl(ql) proper \Longrightarrow p_{1}, \ldots, p_{L}=\underset{\left\{q_{1}, \ldots, q_{L} \geq 0: \sum_{l=1}^{L} q_{l}=1\right\}} {\arg\min} \sum_{l=1}^{L} p_{l} \phi_{l}\left(q_{l}\right)

    p1,,pL=argminq1,,qLφ, with φ=l=1Lplϕl(ql)+λ(p1,,pL)[l=1Lql1] 拉格朗日乘子法 \Longrightarrow p_{1}, \ldots, p_{L}=\underset{q_{1}, \ldots, q_{L}}{\arg \min } \varphi, \quad \text { with } \varphi=\sum_{l=1}^{L} p_{l} \phi_{l}\left(q_{l}\right)+\lambda\left(p_{1}, \ldots, p_{L}\right)\left[\sum_{l=1}^{L} q_{l}-1\right]

    properφqkq=pl,l=1,,L=pkϕ˙k(pk)+λ(p1,,pL)=0,k=1,,L proper \Longrightarrow \left.\frac{\partial \varphi}{\partial q_{k}}\right|_{q=p_{l}, l=1, \ldots, L}=p_{k} \dot{\phi}_{k}\left(p_{k}\right)+\lambda\left(p_{1}, \ldots, p_{L}\right)=0, \quad k=1, \ldots, L

    • 由 locality 可推出 λ\lambda 为常数,ϕk(q)=λlnq+ck,   k=1,...,L\phi_k(q)=-\lambda \ln q + c_k, \ \ \ k=1,...,L
  • Gibbs inequality
    if   xpx(),   q()we  have  Ex[logp(x)]E[logq(x)]xp(x)logp(x)xp(x)logq(x)"="    p(x)=q(x) if \ \ \ x\sim p_x(\cdot),\ \ \ \forall q(\cdot) \\ we\ \ have \ \ E_x[\log p(x)] \ge E[\log q(x)] \\ \sum_x p(x)\log p(x) \ge \sum_x p(x)\log q(x) \\ "=" \iff p(x)=q(x)

2. Discrete information theory

  • Entropy: H(x)minqxE[C(x,qx)]H(\mathrm{x}) \triangleq \min _{q_{\mathrm{x}}} \mathbb{E}\left[C\left(\mathrm{x}, q_{\mathrm{x}}\right)\right]

  • Conditional entropy: H(xy)ypy(y)H(xy=y)H(\mathrm{x} | \mathrm{y}) \triangleq \sum_{y} p_{\mathrm{y}}(y) H(\mathrm{x} | \mathrm{y}=y)
    H(xy=y)minqxE[C(x,qx)y=y]H(x | y=y) \triangleq \min _{q_{x}} \mathbb{E}\left[C\left(x, q_{x}\right) | y=y\right]

  • Mutual information: I(x;y)H(x)H(xy)=H(x)+H(y)H(xy)I(\mathrm{x} ; \mathrm{y}) \triangleq H(\mathrm{x})-H(\mathrm{x} | \mathrm{y}) = H(x)+H(y)-H(xy)

  • Conditional mutual information: I(x;yz)H(xz)H(xy,z)I(\mathrm{x} ; \mathrm{y} | \mathrm{z}) \triangleq H(\mathrm{x} | \mathrm{z})-H(\mathrm{x} | \mathrm{y}, \mathrm{z})

  • Chain rule: I(x;y,z)=I(x;z)+I(x;yz)I(x ; y, z)=I(x ; z)+I(x ; y | z)

  • 统计推断(四) Information Geometry

  • Information divergence(KL distance)

    • Definition

    D(p×qx)Epx[logqx(x)]Epx[logpx(x)]=apx(a)logpx(a)qx(a) \begin{aligned} D\left(p_{\times} \| q_{\mathbf{x}}\right) & \triangleq \mathbb{E}_{p_{\mathbf{x}}}\left[-\log q_{\mathbf{x}}(\mathbf{x})\right]-\mathbb{E}_{p_{\mathbf{x}}}\left[-\log p_{\mathbf{x}}(\mathbf{x})\right] \\ &=\sum_{a} p_{\mathbf{x}}(a) \log \frac{p_{\mathbf{x}}(a)}{q_{\mathbf{x}}(a)} \end{aligned}

    • Properties

      • 0\ge 0只有 p=q 的时候才能取 = 吗?

      • I(x;y)=D(px,ypxpy)I(x;y) = D(p_{x,y}||p_x p_y)

      • limδ0D(py(;x)py(;x+δ))δ2=12Jy(x) \lim _{\delta \rightarrow 0} \frac{D\left(p_{y}(\cdot ; x) \| p_{y}(\cdot ; x+\delta)\right)}{\delta^{2}}=\frac{1}{2} J_{y}(x)​

  • Data processing inequality (DPI)

Theorem: if xytx \leftrightarrow y \leftrightarrow t is a Markov chain, then
I(x;y)I(x;t) I(x;y) \ge I(x;t)
with “=”     \iff xtyx \leftrightarrow t \leftrightarrow y is a Markov chain

Corollary: deterministic g()g(\cdot), I(x;y)I(x;g(y))I(x;y) \ge I(x;g(y))

Corollary: t=t(y) is sufficient     I(x;y)=I(x;t)\iff I(x;y)=I(x;t)

Proof: 应用互信息链式法则

Remark: 证明不等式的时候注意取等号的条件 I(x;yt)=0I(x;y|t)=0


Theorem: 若 qx(b)=aXW(ba)px(a),qy(b)=aXW(ba)py(a)q_{\mathrm{x}^{\prime}}(b)=\sum_{a \in \mathcal{X}} W(b | a) p_{\mathrm{x}}(a), \quad q_{\mathrm{y}^{\prime}}(b)=\sum_{a \in \mathcal{X}} W(b | a) p_{\mathrm{y}}(a)
那么对任意 W()W(\cdot|\cdot)D(qxqy)D(pxpy)D(q_{x'}||q_{y'}) \le D(p_x||p_y)

Proof: 待完成 …

Theorem: 对确定性函数 ϕ()\phi(\cdot)w=ϕ(z)\mathsf{w}=\phi(\mathsf{z}),有 Jw(x)=Jz(x)J_{\mathsf{w}}(x)=J_{\mathsf{z}}(x)

Proof: 待完成 …

3. Information geometry

  • Probability simplex

    • 若字符集有 M 个字符,则概率单形为 M-1 维的超平面,且只位于第一象限

    统计推断(四) Information Geometry

  • Boundary

    • 根据 p,q 是否位于边界(即存在 p(y)=0p(y')=0) 可决定 D(pq)<D(p||q)<\infty 还是 D(pq)=D(p||q)=\infty
  • Local information geometry

    p0int(PY)p_0 \in \text{int}(\mathcal{P^Y}),对任意分布(向量) pp 定义其归一化表示
    ϕ(y)=p(y)p0(y)2p0(y) \phi(y)=\frac{p(y)-p_0(y)}{\sqrt{2p_0(y)}}
    p0p_0 的邻域被定义为一个球
    {p:ϕp(y)B,  y} \{p: |\phi_p(y)|\le B, \ \ \forall y \}
    那么对小邻域内的两个分布 p1,p2p_1,p_2
    D(p1p2)=yϕ1(y)ϕ2(y)2(1+o(1))ϕ1ϕ22 D(p_1 || p_2) = \sum_y |\phi_1(y)-\phi_2(y)|^2(1+o(1)) \approx ||\phi_1-\phi_2||^2
    证明:代入散度公式,应用泰勒级数展开化简。其中需要注意到
    y2p0(y)ϕ(y)=yp(y)p0(y)=0 \sum_y \sqrt{2p_0(y)}\phi(y)=\sum_y p(y)-p_0(y) = 0
    Remark:直观理解就是小邻域内散度近似为欧氏距离

4. Information projection

  • Definition: q 向闭集 P\mathcal{P} 内的投影 p=argminpPD(pq)p*=\arg\min_{p\in\mathcal{P}}D(p||q)
    • 存在性:由于 D(pq)D(p||q) 非负且对 p 连续,而 P\mathcal{P} 非空且为闭集,因此一定存在
    • 唯一性:不一定唯一,但如果 P\mathcal{P}凸集,则 p* 唯一
  • Pythagoras’ Theorem

Theorem(Pythagoras’ Theorem): p* 是 q 向非空闭凸集 P\mathcal{P} 上的投影,那么任意 pPp\in\mathcal{P}
D(pq)D(pp)+D(pq) D(p||q) \ge D(p||p^*) + D(p^*||q)
Proof: 取 pλ=λp+(1λ)pPp_{\lambda}=\lambda p + (1-\lambda)p^* \in \mathcal{P}

由投影定义可知 λD(pλq)λ=00\frac{\partial}{\partial \lambda} D(p_\lambda||q) \Big|_{\lambda=0} \ge 0

代入化简可得证

Remark: 直观理解就是不可能通过多次中间投影,使整体的KL距离(散度)减小


Corollary: 如果 q 不在 Py\mathcal{P^y} 的边界上,那么其在线性分布族 P\mathcal{P} 上的投影 pp^* 也不可能在 Py\mathcal{P^y} 的边界上,除非 P\mathcal{P} 中的所有元素都在某个边界上

Proof: 应用散度的 Boundary、毕达哥拉斯定理

  • Linear families

    • Definition: L\mathcal{L} 是一个线性分布族,如果对于一组映射函数 t()=[t1(),...,tK()]Tt(\cdot)=[t_1(), ..., t_K()]^T 和对应的常数 tˉ=[tˉ1,...,tˉK]T\bar t = [\bar t_1, ..., \bar t_K]^T,有 Ep[ti(y)]=tˉi,i=1,,K\mathbb{E}_{p}\left[t_{i}(\mathrm{y})\right]=\bar{t}_{i}, \quad i=1, \ldots, K \quad for all pLp \in \mathcal{L}
      [t1(1)tˉ1t1(M)tˉ1tK(1)tˉKtK(M)tˉK]T[p(1)p(M)]=0 \underbrace{\left[\begin{array}{ccc}{t_{1}(1)-\bar{t}_{1}} & {\cdots} & {t_{1}(M)-\bar{t}_{1}} \\ {\vdots} & {\ddots} & {\vdots} \\ {t_{K}(1)-\bar{t}_{K}} & {\cdots} & {t_{K}(M)-\bar{t}_{K}}\end{array}\right]}_{\triangleq \mathbf{T}}\left[\begin{array}{c}{p(1)} \\ {\vdots} \\ {p(M)}\end{array}\right]=\mathbf{0}

    • 性质

      • L\mathcal{L} 的维度为 M-rank(T)-1
      • L\mathcal{L} 是一个闭集、凸集
      • p1,p2Lp_1,p_2 \in \mathcal{L},那么 p=λp1+(1λ)p2PY,  λRp=\lambda p_{1}+(1-\lambda) p_{2} \in \mathcal{P}^{\mathcal{Y}}, \ \ \lambda\in R,注意 λ\lambda 可以取 [0,1] 之外的数

      Theorem(Pythagoras’ Identity): q 向线性分布族 L\mathcal{L} 的投影 pp^* 满足以下性质
      D(pq)=D(pp)+D(pq), for all pL D(p \| q)=D\left(p \| p^{*}\right)+D\left(p^{*} \| q\right), \quad \text { for all } p \in \mathcal{L}
      Proof: 类似前面不等式的证明,只不过现在由于 λR\lambda\in R 所以不等号变成了等号

      Theorem(Orthogonal families): pPYp*\in\mathcal{P^Y} 为任一分布,则向线性分布族 Lt(p)\mathcal{L_t}(p^*) 的投影为 pp^* 的所有分布都属于一个指数分布 εt(p)\mathcal{\varepsilon}_t(p^*)
      $$
      \mathcal{L}{\mathbf{t}}\left(p^{*}\right) \triangleq\left{p \in \mathcal{P}^{\mathcal{Y}}: \mathbb{E}{p}[\mathbf{t}(\mathbf{y})]=\overline{\mathbf{t}} \triangleq \mathbb{E}_{p^{*}}[\mathbf{t}(\mathbf{y})]\right} \

      \begin{aligned} \mathcal{E}_{\mathbf{t}}\left(p^{}\right) \triangleq\left{q \in \mathcal{P}^{\mathcal{Y}}: q(y)=p^{}(y) \exp \left{\mathbf{x}^{\mathrm{T}} \mathbf{t}(y)-\alpha(\mathbf{x})\right}\right.\ \text { for all }\left.y \in \mathcal{Y}, \text { some } \mathbf{x} \in \mathbb{R}^{K}\right} \end{aligned}
      $$
      其中需要注意的是 Lt(p),Et(p)\mathcal{L}_{\mathbf{t}}\left(p^{*}\right),\mathcal{E}_{\mathbf{t}}\left(p^{*}\right) 的表达形式并不唯一,括号内的 pp^* 均可以替换为对应集合内的任意一个其他分布,他们表示的是同一个集合

      统计推断(四) Information Geometry

      Remarks

      1. 根据上面的定理,可以由 t(),tˉt(\cdot), \bar t 求出 q 向线性分布族的投影 p*
      2. 在小邻域范围内,可以发现 Lt(p),Et(p)\mathcal{L}_{\mathbf{t}}\left(p^{*}\right),\mathcal{E}_{\mathbf{t}}\left(p^{*}\right) 的正规化表示 ϕLTϕE=0\phi_\mathcal{L}^T \phi_\mathcal{E}=0,即二者是正交的