深度通信网络专栏(4)|自编码器:Blind Channel Equalization using Variational Autoencoders

本文地址:https://arxiv.org/abs/1803.01526

前言

深度通信网络专栏|自编码器:整理2018-2019年使用神经网络实现通信系统自编码器的论文,一点拙见,如有偏颇,望不吝赐教,顺颂时祺。

文章主要贡献

原来提出的最大似然估计下的盲信道均衡使用期望最大或近似期望最大,计算复杂度过高。

本文提出用变分自编码器(VAE)实现最大似然估计下的盲信道均衡,与恒模算法(CMA)相比可达到更低的ber和更低的信道获取时延。VAE的性能接近非盲自适应线性最小均方误差均衡器。

VAE由两层卷积层和少量自由参数构成,虽然计算复杂度比CMA高,但是需要估计的自由参数个数较少。

系统模型

在这里插入图片描述
一个端到端系统可表示为以上结构,y=xh+w\mathbf{y}=\mathbf{x} * \mathbf{h}+\mathbf{w}
使用QPSK调制,则x=xI+jxQ\mathrm{x}=\mathrm{x}^{I}+j \cdot \mathrm{x}^{Q}h=hI+jhQ\mathbf{h}=\mathbf{h}^{I}+j \cdot \mathbf{h}^{Q}y=yI+jyQ\mathbf{y}=\mathbf{y}^{I}+j \cdot \mathbf{y}^{Q}
给定xy 的条件概率函数为:
pθ(yx)=pθ(yIxI)pθ(yQxQ)=1(πσw2)Neyxh2/σw2\begin{aligned} p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) &=p_{\boldsymbol{\theta}}\left(\mathbf{y}^{I} | \mathbf{x}^{I}\right) p_{\boldsymbol{\theta}}\left(\mathbf{y}^{Q} | \mathbf{x}^{Q}\right) \\ &=\frac{1}{\left(\pi \sigma_{w}^{2}\right)^{N}} \cdot e^{-\|\mathbf{y}-\mathbf{x} * \mathbf{h}\|^{2} / \sigma_{w}^{2}} \end{aligned}

变分自编码器

ML估计,即是估计向量h 和噪声方差σw2\sigma_{w}^{2},使得logpθ(y)\log p_{\boldsymbol{\theta}}(\mathbf{y})最大,令θ{h,σw2}\boldsymbol{\theta} \triangleq\left\{\mathbf{h}, \sigma_{w}^{2}\right\}。使用变分法可以简化这一信道估计问题:使用变分法求泛函数logpθ(y)\log p_{\boldsymbol{\theta}}(\mathbf{y})的极小值,将问题转化为 最大化logpθ(y)\log p_{\boldsymbol{\theta}}(\mathbf{y})的lower bound!使用神经网络解决此最大最小化问题。

补充:变分法
- 变分法用于求解使泛函数取得极大值或极小值的极值函数
- 泛函数:输入是一个函数,输出是一个值。
- 通常在变分法中,泛函数是一个积分
eg. I(y)=x1x2FdxI(y)=\int_{x_{1}}^{x_{2}} F d x,F可以是y(x)和y(x)各阶导数的函数。
- 在这里pθ(y)=xp(x)pθ(yx)dxp_{\boldsymbol{\theta}}(\mathbf{y})=\int_{\mathbf{x}} p(\mathbf{x}) p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) d \mathbf{x} ,y是x的函数。

logpθ(y)EqΦ(xy)[logqΦ(xy)+logpθ(x,y)]=DKL[qΦ(xy)p(x)]A+EqΦ(xy)[logpθ(yx)]BL(θ,Φ,y) \begin{aligned} \log p_{\boldsymbol{\theta}}(\mathbf{y}) \geq & \mathbb{E}_{q_{\Phi}(\mathbf{x} | \mathbf{y})}\left[-\log q_{\Phi}(\mathbf{x} | \mathbf{y})+\log p_{\boldsymbol{\theta}}(\mathbf{x}, \mathbf{y})\right] \\=& \underbrace{-D_{K L}\left[q_{\Phi}(\mathbf{x} | \mathbf{y}) \| p(\mathbf{x})\right]}_{A} \\ &+\underbrace{\mathbb{E}_{q_{\Phi}(\mathbf{x} | \mathbf{y})}\left[\log p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x})\right]}_{B} \triangleq-\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) \end{aligned}
引入了自由参数Φ,问题转化为找到θ和Φ,使得L(θ,Φ,y)\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y})最小。那么如何得到L(θ,Φ,y)\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y})呢?
分析上式,可知上式与pθ(yx)p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x})qΦ(xy)q_{\Phi}(\mathrm{x} | \mathrm{y})p(x)p(\mathbf{x})有关,其中:pθ(yx)=pθ(yIxI)pθ(yQxQ)=1(πσw2)Neyxh2/σw2 \begin{aligned} p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) &=p_{\boldsymbol{\theta}}\left(\mathbf{y}^{I} | \mathbf{x}^{I}\right) p_{\boldsymbol{\theta}}\left(\mathbf{y}^{Q} | \mathbf{x}^{Q}\right) \\ &=\frac{1}{\left(\pi \sigma_{w}^{2}\right)^{N}} \cdot e^{-\|\mathbf{y}-\mathbf{x} * \mathbf{h}\|^{2} / \sigma_{w}^{2}} \end{aligned}
p(x)=p(xI)p(xQ)=22N p(\mathbf{x})=p\left(\mathbf{x}^{I}\right) p\left(\mathbf{x}^{Q}\right)=2^{-2 N}
只需得到qΦ(xy)q_{\Phi}(\mathrm{x} | \mathrm{y})即可得到L(θ,Φ,y)\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}),此时可用解析的方法找到θ和Φ。

引入神经网络

在这里插入图片描述

用神经网络来求qΦ(xy)q_{\Phi}(\mathrm{x} | \mathrm{y})qΦ(xy)=j=0N1qΦ(xjy)=j=0N1qΦ(xjIy)qΦ(xjQy) q_{\Phi}(\mathrm{x} | \mathrm{y})=\prod_{j=0}^{N-1} q_{\Phi}\left(x_{j} | \mathrm{y}\right)=\prod_{j=0}^{N-1} q_{\Phi}\left(x_{j}^{I} | \mathrm{y}\right) q_{\Phi}\left(x_{j}^{Q} | \mathrm{y}\right)
神经网络的输出为qΦ(xjIy)qΦ(xjQy)q_{\Phi}\left(x_{j}^{I} | \mathbf{y}\right) 和q_{\Phi}\left(x_{j}^{Q} | \mathbf{y}\right),输出维度为2N.

至此,我们得到了L(θ,Φ,y)\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y})的显示表达。

仿真结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章