发明内容
为提升低信噪比下OTFS***的信道估计精度,并降低压缩感知方案的实现复杂度,本发明提出一种基于模型驱动深度学习的OTFS信道估计方法,具体包括以下步骤:
在时延多普勒域对无线信道进行建模,得到一个等效信道,即时延多普勒域信道;
利用改进的去噪近似消息传递算法,对接收端含噪时延多普勒域信道进行去噪处理,得到时延多普勒域信道的估计值。
进一步的,构建时延多普勒域信道的过程包括以下步骤:
在发送端,将信息符号摆放到时延域维度为M、多普勒域维度为N的二维时延多普勒域网格,即时延多普勒域发送信号矩阵;
将时延多普勒域的发送信号矩阵进行矢量化,得到时延多普勒域发送信号;
时延多普勒域发送信号进行辛傅里叶变换映射为时频域信号,再将时频域信号进行海森堡变换映射为时域发送信号;
将时域发射信号经过无线信道进行传输;
在接收端,利用维格纳变换将时域接收信号映射为时频域信号,将时频域信号进行辛傅里叶变换映射为时延多普勒域接收信号;
根据时延多普勒域发送信号和时延多普勒域接收信号的关系进行建模,得到一个等效信道,即时延多普勒域信道。
进一步的,时延多普勒域信道表示为:
其中,h(τ,v)表示时延多普勒域信道,τ表示信道时延变量,v表示信道多普勒频移变量;L为传播路径的数量;h
i为第i条路径的复增益;δ(·)为狄拉克函数;τ
i表示第i条路径对应的时延参数,表示为
l
i为二维网格中时延维度的整数索引,Δf为子载波间隔,
为时延轴网格的分辨率;v
i为第i条路径对应的多普勒频移参数,表示为
k
i为二维网格中多普勒维度的整数索引,T为符号持续时间,
为多普勒轴网格的分辨率。
进一步的,时延多普勒域发送信号和时延多普勒域接收信号的关系表示为:
y=Heffx+n
其中,y表示时延多普勒域接收信号矢量;x表示时延多普勒域发送信号矢量;H
eff为时延多普勒域等效信道矩阵;
为等效噪声,且
即n服从均值为0、方差为
的高斯分布,
表示等效噪声方差,I表示单位阵,w表示经过信道传输时的加性高斯白噪声;F
N表示N点离散傅里叶逆变换矩阵,
为N点离散傅里叶逆变换矩阵;
表示克罗内克积运算,G
rx表示为接收脉冲波形矩阵,G
tx为发送脉冲波形矩阵,H为时域信道矩阵。
进一步的,改进的去噪近似消息传递算法与去噪近似消息传递算法的区别包括:
对去噪近似消息传递算法进行深度展开,将去噪近似消息传递算法的一次迭代过程作为改进的去噪近似消息传递算法的一层网络;
利用去噪卷积神经网络替换去噪近似消息传递算法的去噪器。
进一步的,改进的去噪近似消息传递算法的第l层网络信道估计的过程表示为:
其中,
为第l层神经网络输出的时延多普勒信道估计值;
表示改进的去噪近似消息传递算法的去噪器;X表示时延多普勒域发送信号矩阵;(·)
T表示转置,z
l+1为第l层神经网络输出的残差矢量;y表示时延多普勒域接收信号矢量;c
l+1为Onsager校正项,表示为
表示对去噪器进行散度运算。
进一步的,对训练好的去噪器采用独立同分布的随机矢量
近似计算散度,该过程表示为:
其中,h
l表示输入的含噪时延多普勒信道矢量,表示为h
l=h
eff+n
l,h
eff表示矢量化的时延多普勒等效信道,表示为h
eff=vec(H
eff),n
l表示时延多普勒信道的等效噪声;
表示随机矢量b符合均值为0、方差为I的高斯分布,I表示单位阵;E
b{·}表示数学期望运算;∈为一个极小数。
进一步的,去噪卷积神经网络对测量噪声等级进行分层,针对不同层级的噪声进行学习训练,得到每个层级噪声对应的去噪器,将得到的得到去噪器应用在DAMP算法中,将DAMP算法每次迭代作为一层网络,将输入数据和最后一层网络的输出进行残差连接,其中第一层网络随机选择一个噪声层级的去噪器对输入信号进行去噪,其他层网络根据前一层网络输出信号的噪声,选择该噪声对应层级的去噪器。
进一步的,去噪卷积神经网络包括二十个卷积层,其中:第一个卷积层包括卷积操作和修正线性单元,该卷积层使用64个尺寸为3×3×1的卷积核来生成64个特征图;第二十个卷积层包括一个卷积操作,该层使用一个尺寸为3×3×64的卷积核来重建学习到的噪声信号;其他卷积层包括卷积操作、批归一化操作以及修正线性单元。本发明利用深度学习中的去噪卷积神经网络,代替去噪近似消息传递算法中传统的去噪器,形成基于模型驱动深度学习的LDAMP算法,以估计OTFS中的时延多普勒信道;本发明与OTFS现有文献中的信道估计方案如OMP、ResNet算法进行性能对比,本发明在任意信噪比下远优于OTFS已有的信道估计方案OMP及ResNet,并且信道路径总数不变时,扩大二维网格点数量可以增加OTFS***中时延多普勒信道的稀疏度,有效提升信道估计精度。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种基于模型驱动深度学习的OTFS信道估计方法,具体包括以下步骤:
在时延多普勒域对无线信道进行建模,得到一个等效信道,即时延多普勒域信道;
利用改进的去噪近似消息传递算法,对接收端含噪时延多普勒域信道进行去噪处理,得到时延多普勒域信道的估计值。
目前OTFS信道估计研究采用的阈值估计方案虽简单有效且实现简便,但在低信噪比条件下,一些信道增益较低的路径无法识别会导致估计性能较差。此外,精确的阈值选择也很困难,后续基于压缩感知的信道估计算法方案,能够大幅提升估计精度,但是该方案实现复杂度随着OTFS***二维网格数目的增加会大幅提升。为提升低信噪比下OTFS***的信道估计精度,并降低压缩感知方案的实现复杂度,本发明结合深度学***的二维时延多普勒域信道进行去噪估计。本实施例针对OTFS调制***提供了一种基于可学习去噪近似消息传递算法的信道估计方法包括以下步骤:
首先,如图1所示的OTFS调制***信号模型,本发明利用时延多普勒信道的稀疏结构将OTFS信道估计问题转化为稀疏信号恢复问题进行求解;
然后,利用深度学习中的去噪卷积神经网络,代替去噪近似消息传递算法中传统的去噪器,形成基于模型驱动深度学习的可学习去噪近似消息传递(Learned Denoisingbased Approximate Message Passing,LDAMP)算法以在线估计OTFS信道。
本实施例从构建OTFS调制***信号模型以及基于LDAMP的信道估计算法两个方面对本发明一种基于模型驱动深度学习的OTFS信道估计方法进行说明。
1、构建OTFS调制***信号模型
在本实施例中,针对OTFS调制***,将信息符号摆放至M×N的二维时延多普勒域网格,其中M为时延域维度,N为多普勒域维度,
为时延多普勒域的发送信号矩阵,将其矢量化为
x[l,k]为X
dd在第l行、第k列处放置的信息符号,其中l=0,1,...,M-1,k=0,1,...,N-1;x[l,k]经过辛傅里叶逆变换(Inverse SymplecticFinite Fourier Transform,ISFFT)映射为时频域信号X[m,n],X[m,n]再经过海森堡变换映射为时域发送信号s(t),然后经过无线信道进行传输。
OTFS技术利用较少参数就可以在时延多普勒域对无线信道进行建模,本发明将具有稀疏性的时延多普勒域信道h(τ,v)建模为:
其中,τ表示信道时延变量,v表示信道多普勒频移变量,L为传播路径的数量,δ(·)为狄拉克函数,第i条路径对应的信道参数为(h
i,τ
i,v
i),h
i为第i条路径的复增益,
为第i条路径对应的时延参数,
为第i条路径对应的多普勒频移参数,l
i和k
i为二维网格中时延维度与多普勒维度的整数索引,Δf为子载波间隔,T为符号持续时间,
为时延轴网格的分辨率,
为多普勒轴网格的分辨率。
在接收端利用维格纳变换将时域接收信号r(t)映射为时频域信号Y[m,n],将Y[m,n]利用辛傅里叶变换(Symplectic Finite Fourier Transform,SFFT)映射为时延多普勒域接收信号y[l,k],y[l,k]为时延多普勒域接收信号矩阵
在第l行第k列处放置的信息符号,将Y
dd矢量化为
最终可得时延多普勒域输入输出关系矩阵形式为:
其中,定义
为时延多普勒域等效信道矩阵,
为等效噪声,服从高斯分布
为N点离散傅里叶变换(Discrete Fourier Transform,DFT)矩阵,其第i行第j列的元素为
为N点离散傅里叶逆变换(Inverse Discrete FourierTransform,IDFT)矩阵,其第i行第j列的元素为
为时域信道矩阵,
为发送脉冲波形矩阵,
为接收脉冲波形矩阵。
y=Xheff+n
由于时延多普勒域等效信道矢量heff是稀疏的,所以本发明将OTFS信道估计问题转化为稀疏信号恢复问题。利用压缩感知领域中的去噪近似消息传递(Denoising basedApproximate Message Passing,DAMP)算法,与模型驱动的深度学习网络相结合,形成模型驱动的LDAMP算法进行求解。
2、基于LDAMP的信道估计算法
如图2所示,LDAMP算法将DAMP算法进行深度展开,把DAMP的一次迭代过程作为LDAMP的一层网络,并且选择去噪卷积神经网络(Denoising Convolutional NeuralNetwork,DnCNN),代替DAMP算法中传统的去噪器以学***的二维时延多普勒域信道进行去噪估计。
图2中展示在LDAMP算法中的一层网络结构,或者DAMP算法一次迭代的过程,在这个过程中,根据前一次迭代或者前一层网络得到的估计信号以及前一次迭代或者前一层网络得到的残差矢量计算得到当前层待去噪的信号hl,对该信号进行去噪处理后得到当前层的估计信号。
针对LDAMP神经网络的第l层,信道估计迭代表达式为:
其中,定义
为第l层神经网络输出的时延多普勒信道估计值,z
l+1为第l层神经网络输出的残差矢量,
为去噪器
学习的参数即噪声的标准差,
为Onsager校正项,
为散度运算。为了说明去噪器
在LDAMP算法网络中的作用,定义等效噪声n
l为:
其中,
表示去噪器
的输入信号
与待估计信道h
eff之间的差值。去噪器
的作用就是在输入的含噪时延多普勒信道矢量h
l=h
eff+n
l中去除等效噪声n
l,求解出真实信道h
eff的估计值
但是随着算法迭代次数的不断增加,去噪器的输入信号会产生偏差,无法令n
l满足加性高斯白噪声(Additive White GaussianNoise,AWGN),导致算法收敛速度变慢及性能降低。为了解决该瓶颈,利用Onsager校正项在迭代的过程中去除偏差,使等效噪声n
l在不断迭代的过程中一直保持为AWGN。由于一般很难得到Onsager校正项中
的精确解析式,所以利用蒙特卡罗方法近似计算散度
对于训练好的去噪器
采用独立同分布的随机矢量
近似计算散度为:
其中,∈为一个极小数,即其是一个非常小的数,本领域技术人员根据经验进行设置,本实施例中将这个极小数设置为∈=hl/1000。
本实施例中,去噪卷积神经网络对测量噪声等级进行分层,针对不同层级的噪声进行学习训练,然后将得到的最优模型作为DAMP算法中的去噪器,依据DAMP算法中的迭代策略进行迭代,并结合ResNet的残差学习方法,堆叠为LDAMP算法网络来提高训练速度和去噪性能,可适用于多种噪声级别的含噪时延多普勒信道估计问题。
本领域技术人员根据实际情况对噪声进行分层,即将噪声划分为多个区间范围,针对每个区间范围的噪声分别训练得到一个去噪器,在LDAMP算法网络中的第一层随机选择一个区间范围噪声对应的去噪器对信号进行去噪处理,在其他层则根据前一层输出信号的噪声,选择对应噪声范围的去噪器对当层信号进行去噪处理。
具体地,本实施例将信号受到噪声影响的噪声水平范围设置为[0-60dB],再将[0-60dB]划分为10个小范围,分别是[0-20dB]、[20-26dB]、[26-32dB]、[32-35dB]、[35-38dB]、[38-41dB]、[41-44dB]、[44-50dB]、[49-54dB]、[54-60dB]。
针对分层得到的10个范围的噪声水平生成相对应的接收信号和时延多普勒信道作为数据集的输入和标签,对相应噪声水平的DnCNN网络进行训练(如训练0-20dB的DnCNN去噪器时,对接收信号加入该范围的噪声作为神经网络的输入,将生成的真实时延多普勒信道作为标签,后续噪声范围的的处理同理),然后采用梯度下降和自适应学***范围对应的DnCNN去噪器,就可以对未知的含噪时延多普勒信道进行去噪估计。
对去噪近似消息传递(DAMP)算法进行深度展开,将DAMP算法的一次迭代过程作为本发明LDAMP算法的一层网络,然后将训练好的DnCNN网络作为该层网络中的去噪器,DAMP算法迭代次数就是LDAMP算法网络的层数,层与层之间采用级联的方式,从而堆叠为整个LDAMP算法网络。具体地,LDAMP算法网络的第一层网络随机从10个噪声水平范围对应的DnCNN去噪器中选择一个对输入的信号进行去噪处理,其他层的网络根据上一层网络信号的噪声标准差对应的噪声区间对应地从10个DnCNN去噪器中选择一个作为当前层的去噪器。
如图3所示,噪声通道作(Noisy Channel)为去噪器DnCNN的输入信号,经过去噪器DnCNN进行去噪处理后得到残差噪声(Residual Noisy),将残差噪声与输入的噪声进行拼接后作为估计通道(estimated Noisy)的输出,即估计的信号。LDAMP算法中的去噪器DnCNN在卷积层(Cnvolution,Conv)与修正线性单元(Rectified Linear Unit,ReLU)之间加入了批量归一化(Batch Normalization,BN),并且结合了残差学习(Residual Learning,RL)以提高卷积神经网络的训练速度和整个模型的去噪能力。
在本实施例中,整个DnCNN网络共由20个卷积层构成,第1个卷积层使用64个尺寸为3×3×1的卷积核来生成64个特征图,因为反向传播算法求解误差梯度时计算量相对较大,而且对于深层网络,Sigmoid等激活函数在反向传播时很容易出现导数为0导致梯度消失的情况。所以在第1个卷积层配置ReLU单元作为激活函数来增加网络的非线性处理能力,ReLU单元还会使一部分神经元的输出为0保持神经网络的稀疏性,减少参数之间互相依存的关系,避免过拟合的发生。第2至第19个卷积层中的每一层都使用64个尺寸为3×3×64的卷积核,每个卷积核都配置ReLU单元和BN层来加快训练速度并提高去噪性能。最后1个卷积层使用一个尺寸为3×3×64的卷积核来重建学习到的噪声信号。
经典的去噪算法,如去噪自编码(Denoising AutoEncoder,DAE)网络是直接学习一个恒等映射关系
以估计真实的信道h
eff,而DnCNN实质上采用残差学习规则学习残差映射
以估计真实的噪声n,从而得到信道估计值为
本实施例为了预测所提方案的性能,利用状态演化(State Evolution,SE)方程预测LDAMP算法理论归一化均方误差(Normalized Mean Square Error,NMSE),且与蒙特卡洛仿真所得真实NMSE进行比较。
采用状态演化((State Evolution,SE)方程作为性能分析框架,表达式如下:
其中,定义
为第l+1层网络中去噪器输出的NMSE,h
o为时延多普勒信道h
eff的确定性实现,δ为测量比,
为AWGN噪声的方差,表示为:
其中,定义(σ
l)
2为等效噪声方差,
为LDAMP网络第l层网络中的去噪器输出的NMSE,在一个高维***(M
2N
2→∞)中,通过递推更新上述两个方程,就可求解LDAMP算法的理论NMSE性能。本实施例其与蒙特卡洛仿真所得的真实NMSE进行对比就可以验证SE方程预测的准确性。
如图4给出不同算法的NMSE性能随SNR变化的对比曲线图,本发明将LDAMP算法与OTFS现有文献中的信道估计方案如OMP、ResNet算法进行性能对比研究,同时对比了其与常用去噪算法如SD、SCAMPI、DAMP系列算法(NLM-AMP、Bilateral-AMP、Gauss-AMP)之间的性能表现。仿真结果表明,在任意SNR下,LDAMP算法NMSE性能均优于其它算法,如在SNR=2dB时,NMSE性能已小于0.01,远超OTFS已有信道估计方案OMP及ResNet,证明了本发明所提方案的优越性及在低信噪比场景的鲁棒性。
图5是M与N分别取4、8、12时,利用SE方程预测LDAMP算法理论NMSE,且与蒙特卡洛仿真所得真实NMSE进行对比的曲线。仿真结果证明了SE方程预测的准确性,并且表明信道路径总数不变时,扩大二维网格点数量M与N可以增加OTFS***中时延多普勒信道的稀疏度,有效提升信道估计精度,如SNR为20dB时,M与N分别从4增加至12,NMSE性能提升约为8dB。
以上仿真结果表明,在任意SNR下,LDAMP算法NMSE性能均优于其它算法,如在SNR=2dB时,NMSE性能已小于0.01,远优于OTFS已有的信道估计方案OMP及ResNet,证明了所提方案的优越性及在低信噪比场景的鲁棒性。最后利用状态演化方程预测LDAMP算法理论NMSE,且与蒙特卡洛仿真所得真实NMSE进行比较。仿真结果证明了SE方程预测的准确性,并且表明信道路径总数不变时,扩大二维网格点数量M与N可以增加OTFS***中时延多普勒信道的稀疏度,有效提升信道估计精度,如SNR为20dB时,M与N分别从4增加至12,NMSE性能提升约为8dB。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。