本文地址:https://arxiv.org/abs/1803.01526
前言
深度通信网络专栏|自编码器:整理2018-2019年使用神经网络实现通信系统自编码器的论文,一点拙见,如有偏颇,望不吝赐教,顺颂时祺。
文章主要贡献
原来提出的最大似然估计下的盲信道均衡使用期望最大或近似期望最大,计算复杂度过高。
本文提出用变分自编码器(VAE)实现最大似然估计下的盲信道均衡,与恒模算法(CMA)相比可达到更低的ber和更低的信道获取时延。VAE的性能接近非盲自适应线性最小均方误差均衡器。
VAE由两层卷积层和少量自由参数构成,虽然计算复杂度比CMA高,但是需要估计的自由参数个数较少。
系统模型

一个端到端系统可表示为以上结构,y=x∗h+w
使用QPSK调制,则x=xI+j⋅xQ,h=hI+j⋅hQ,y=yI+j⋅yQ
给定x,y 的条件概率函数为:
pθ(y∣x)=pθ(yI∣xI)pθ(yQ∣xQ)=(πσw2)N1⋅e−∥y−x∗h∥2/σw2
变分自编码器
ML估计,即是估计向量h 和噪声方差σw2,使得logpθ(y)最大,令θ≜{h,σw2}。使用变分法可以简化这一信道估计问题:使用变分法求泛函数logpθ(y)的极小值,将问题转化为 最大化logpθ(y)的lower bound!使用神经网络解决此最大最小化问题。
补充:变分法
- 变分法用于求解使泛函数取得极大值或极小值的极值函数 。
- 泛函数:输入是一个函数,输出是一个值。
- 通常在变分法中,泛函数是一个积分
eg. I(y)=∫x1x2Fdx,F可以是y(x)和y(x)各阶导数的函数。
- 在这里pθ(y)=∫xp(x)pθ(y∣x)dx ,y是x的函数。
logpθ(y)≥=EqΦ(x∣y)[−logqΦ(x∣y)+logpθ(x,y)]A−DKL[qΦ(x∣y)∥p(x)]+BEqΦ(x∣y)[logpθ(y∣x)]≜−L(θ,Φ,y)
引入了自由参数Φ,问题转化为找到θ和Φ,使得L(θ,Φ,y)最小。那么如何得到L(θ,Φ,y)呢?
分析上式,可知上式与pθ(y∣x),qΦ(x∣y),p(x)有关,其中:pθ(y∣x)=pθ(yI∣xI)pθ(yQ∣xQ)=(πσw2)N1⋅e−∥y−x∗h∥2/σw2
p(x)=p(xI)p(xQ)=2−2N
只需得到qΦ(x∣y)即可得到L(θ,Φ,y),此时可用解析的方法找到θ和Φ。
引入神经网络

用神经网络来求qΦ(x∣y):qΦ(x∣y)=j=0∏N−1qΦ(xj∣y)=j=0∏N−1qΦ(xjI∣y)qΦ(xjQ∣y)
神经网络的输出为qΦ(xjI∣y)和qΦ(xjQ∣y),输出维度为2N.
至此,我们得到了L(θ,Φ,y)的显示表达。
仿真结果






