CN114826832B - 信道估计方法、神经网络的训练方法及装置、设备 - Google Patents

信道估计方法、神经网络的训练方法及装置、设备 Download PDF

Info

Publication number
CN114826832B
CN114826832B CN202110130782.0A CN202110130782A CN114826832B CN 114826832 B CN114826832 B CN 114826832B CN 202110130782 A CN202110130782 A CN 202110130782A CN 114826832 B CN114826832 B CN 114826832B
Authority
CN
China
Prior art keywords
channel estimation
neural network
res
channel
estimation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110130782.0A
Other languages
English (en)
Other versions
CN114826832A (zh
Inventor
沈弘
孙羿
赵春明
杜振国
彭兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202110130782.0A priority Critical patent/CN114826832B/zh
Publication of CN114826832A publication Critical patent/CN114826832A/zh
Application granted granted Critical
Publication of CN114826832B publication Critical patent/CN114826832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0224Channel estimation using sounding signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Power Engineering (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

本发明实施例公开了一种信道估计方法、神经网络的训练方法及装置、设备,该信道估计方法包括:接收端根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和该多个RE各自位置上的数据预判符号,将该多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到该RE位置上的第二信道估计值,其中,RE位置上的信道信息包括该RE位置上的接收信号、第一信道估计值和数据预判符号,该方法通过第一神经网络优化每个RE位置上的第一信道估计值,提高信道估计精度。

Description

信道估计方法、神经网络的训练方法及装置、设备
技术领域
本发明涉及通信技术领域,尤其涉及一种信道估计方法、神经网络的训练方法及装置、设备。
背景技术
正交频分复用(orthogonal frequency-division multiplexing,OFDM)技术作为第五代移动通信***(5th Generation,5G)物理层的核心技术,具有抗多径衰落、抗符号间干扰、带宽灵活和频谱利用率高等优点。
信道估计是OFDM通信***中的关键技术,对***的传输性能具有较大影响。信道估计算法从是否使用导频符号的角度,可以分为盲估计、半盲估计和基于导频的估计方法。在基于长期演进(long term evolution,LTE)和5G的协议框架下应用最为广泛的是基于导频的信道估计方法,其核心思路是:首先获取导频符号位置上的接收信号,利用最小二乘(least square,LS)和线性最小均方误差(linear minimum mean square error,LMMSE)等算法获取导频位置的信道频域响应,再通过插值算法得到二维时频格上的完整信道响应。
然而,传统的OFDM信道估计方法通常假设信道冲激响应在一个OFDM符号持续时间内保持不变,该假设并不符合高速移动环境下的信道特征。为了确保在高速环境下的信道估计精度,往往需要***大量导频,导致传输效率下降,而接收端则需要对信道进行频繁估计,引起较高的功耗。
此外,传统方法依赖于较为理想的信道建模,而实际场景存在包括非线性等在内的非理想因素,因此并不能用严格的数学模型来描述信道。因此,目前亟需一种可提高信道估计精度的信道估计方法。
发明内容
本发明实施例提供一种信道估计方法、神经网络的训练方法及装置、设备,该方法通过第一神经网络分别对各个子信道的信道估计值进一步优化,可以提高信道估计精度。
第一方面,本申请提供了一种信道估计方法,该方法包括:
接收端根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述接收到的信号包括所述多个RE各自位置上的接收信号;
所述接收端将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值。
上述方法,首先基于接收到的信号和本地导频信号进行信道的初始估计,得到各个RE位置上的第一信道估计值、数据预判符号,进而,将每个RE位置上的信道信息分别通过用于优化RE位置上的信道估计值的第一神经网络进行优化,得到该RE位置上优化后的信道估计值,其中,在第一神经网络进行信道估计值优化的过程中考虑了该RE位置上的接收信号、第一信道估计值和数据预判符号,可以提高信道估计精度。
结合第一方面,在一种可能的实现中,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
上述方法,在通过第一神经网络进行信道优化的过程中,充分考虑了相邻的w个子载波对其信道估计值的影响,尤其是在高速运动场景下时,可以进一步地提高信道估计精度。
结合第一方面,在一种可能的实现中,所述第一神经网络是通过多个第一样本训练得到的,所述第一样本包括基于样本接收信号估计得到的一个RE位置上的信道信息和所述一个RE位置上真实信道值。
结合第一方面,在一种可能的实现中,所述第一神经网络为包括一层隐藏层的全连接神经网络。
上述方法,通过仅包括一层的隐藏层的第一神经网络,无论是在训练,还是在应用过程中,均可以提高计算效率,以使得接收端可以快速恢复接收到的信号。
可选地,所述隐藏层采用线性整流函数为激活函数,以使得第一神经网络为非线性模型,提高模型预测的第二信道估计值的精度。
结合第一方面,在一种可能的实现中,该方法还包括:
接收端将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到所述多个RE各自位置上的第三信道估计值;所述第二神经网络是通过多个第二样本训练得到的,所述第二样本包括基于样本接收信号估计得到的所有RE各自位置上的信道估计值组成的信道估计矩阵和所述所有RE各自位置上的真实信道值组成的真实信道矩阵。
上述方法,通过第二神经网络对第一神经网络输出的RE位置上的第二信道估计值整体进行进一步的优化,以进一步提高信道估计的精度。
结合第一方面,在一种可能的实现中,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
上述方法,第二神经网络采用深度残差神经网络,可以避免第二神经网络训练时的梯度***,使得位于后层的卷积层可以参考前层卷积层或输入层的输出,进而,提高第二神经网络的准确性。
结合第一方面,在一种可能的实现中,所述至少两层卷积层包括依次排列的第一卷积层、第二卷积层、第三卷积层、第四卷积层和第五卷积层,所述至少一层激活层包括第一激活层和第二激活层,所述至少一个加法器包括第一加法器和第二加法器,其中:
所述第一激活层位于所述第二卷积层和所述第三卷积层之间;
所述第二激活层位于所述第三卷积层和所述第四卷积层之间;
所述第一加法器位于所述第四卷积层和所述第五卷积层之间,所述第一加法器的输入为所述第一卷积层的输入和所述第四卷积层的输出;
所述第二加法器的输入为所述第二神经网络的输入和第五卷积层的输出。
采用上述第二神经网络和上述方法,估计得到的第三信道估计值精度高。
结合第一方面,在一种可能的实现中,所述接收端根据接收到的信号和导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,的一种实现方式可以是:
接收端根据导频位置上的接收信号和本地导频信号进行信道估计,得到所述导频位置上的第一信道估计值,所述导频位置占据至少两个RE位置;
所述接收端将所述导频位置上的第一信道估计值进行插值处理,得到数据位置上的第一信道估计值,所述数据位置占据所述多个RE位置中除所述导频位置外的位置;
所述接收端根据所述数据位置上的接收信号和所述数据位置上的第一信道估计值,得到所述数据位置上的数据预判符号。
第二方面,本申请还提供了一种神经网络的训练方法,包括:
训练设备根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
所述训练设备将所述多个RE中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的预测信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号;
所述训练设备根据所述每个RE位置上预测信道估计值与真实信道值之间的损失更新所述第一神经网络的参数。
上述训练方法得到的第一神经网络可以实现针对一个RE位置上的信道估计值的优化,其在进行信道估计值优化的过程中考虑了该RE位置上的接收信号、第一信道估计值和数据预判符号,可以提高信道估计精度。
结合第二方面,在一种可能的实现中,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
上述训练方法得到的第一神经网络,在进行信道优化的过程中,充分考虑了相邻的w个子载波对其信道估计值的影响,尤其是在高速运动场景下时,可以进一步地提高信道估计精度。
结合第二方面,在一种可能的实现中,所述第一神经网络为包括一层隐藏层的全连接神经网络,所述隐藏层采用线性整流函数为激活函数。
上述方法,通过仅包括一层的隐藏层的第一神经网络,无论是在训练,还是在应用过程中,均可以提高计算效率,以使得接收端可以快速恢复接收到的信号。
第三方面,本申请还提供了一种神经网络的训练方法,其特征在于,包括:
训练设备根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
所述训练设备将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
所述训练设备将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;
所述训练设备根据所述预测信道估计矩阵与真实信道矩阵之间的损失更新所述神经网络的参数。
上述方法,首先基于接收到的信号和本地导频信号进行信道的初始估计,得到各个RE位置上的第一信道估计值、数据预判符号,进而,将每个RE位置上的信道信息分别通过用于优化RE位置上的信道估计值的第一神经网络进行优化,得到该RE位置上优化后的信道估计值,其中,在第一神经网络进行信道估计值优化的过程中考虑了该RE位置上的接收信号、第一信道估计值和数据预判符号,可以提高信道估计精度。
通过上述方法训练得到的第二神经网络对第一神经网络输出的RE位置上的第二信道估计值整体进行进一步的优化,可以进一步提高信道估计的精度。
结合第三方面,在一种可能的实现中,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
上述方法,在通过第一神经网络进行信道优化的过程中,充分考虑了相邻的w个子载波对其信道估计值的影响,尤其是在高速运动场景下时,可以进一步地提高第二信道估计值的估计精度,进而提高第三信道估计值的估计精度。
结合第三方面,在一种可能的实现中,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
上述第二神经网络采用深度残差神经网络,可以避免第二神经网络训练时的梯度***,使得位于后层的卷积层可以参考前层卷积层或输入层的输出,进而,提高第二神经网络的准确性。
第四方面,本申请还提供了一种信道估计装置,所述装置包括:
第一信道估计单元,用于根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE位置上的第一信道估计值和数据预判符号,所述接收到的信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值。
可选地,该信道估计装置还可以包括其他用于实现上述第一方面或第一方面任意一种可能的实现所述的方法中的其他功能单元,该装置中各个功能单元的具体实现和达到的有益效果可以参见上述第一方面或第一方面任意一种可能的实现中相关描述,这里不再赘述。
第五方面,本申请还提供了一种神经网络的训练装置,其特征在于,包括:
第一信道估计单元,用于根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元,用于将所述多个RE中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的预测信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号;
更新单元,用于根据所述每个RE位置上预测信道估计值与真实信道值之间的损失更新所述第一神经网络的参数。
可选地,该神经网络的训练装置还可以包括其他用于实现上述第二方面或第二方面任意一种可能的实现所述的方法中的其他功能单元,该装置中各个功能单元的具体实现和达到的有益效果可以参见上述第二方面或第二方面任意一种可能的实现中相关描述,这里不再赘述。
第六方面,本申请还提供了一种神经网络的训练方法,其特征在于,包括:
第一信道估计单元,用于根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
第三信道估计单元,用于将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;
更新单元,用于根据所述预测信道估计矩阵与真实信道矩阵之间的损失更新所述神经网络的参数。
可选地,该神经网络的训练装置还可以包括其他用于实现上述第三方面或第三方面任意一种可能的实现所述的方法中的其他功能单元,该装置中各个功能单元的具体实现和达到的有益效果可以参见上述第三方面或第三方面任意一种可能的实现中相关描述,这里不再赘述。
第七方面,本申请还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、通信接口;所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,所述电子设备实现如第一方面或第一方面任意一种可能的实现所述的方法。
第八方面,本申请还提供了一种电子设备,包括:一个或多个处理器及一个或多个存储器;所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,所述电子设备实现如第二方面或第二方面任意一种可能的实现所述的方法。
第九方面,本申请还提供了一种电子设备,包括:一个或多个处理器及一个或多个存储器;所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,所述电子设备实现如第三方面或第三方面任意一种可能的实现所述的方法。
第十方面,本申请还提供了一种计算机可读存储介质,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如第一方面或第一方面任意一种可能的实现所述的方法。
第十一方面,本申请还提供了一种计算机可读存储介质,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如第二方面或第二方面任意一种可能的实现所述的方法。
第十二方面,本申请还提供了一种计算机可读存储介质,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如第三方面或第三方面任意一种可能的实现所述的方法。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种无线通信***的示意性说明图;
图2A是本申请实施例提供的一种信道估计的方法的示意性说明图;
图2B是本申请实施例提供的一种信道频域响应的二维时频格的示意性说明图;
图3A是本申请实施例提供的一种神经网络的训练方法的流程示意图;
图3B是本申请实施例提供的一种第一神经网络的结构示意图;
图4A是本申请实施例提供的一种神经网络的训练方法的流程示意图;
图4B是本申请实施例提供的一种第二神经网络的结构示意图;
图5A是本申请实施例提供的一种信道估计方法的流程示意图;
图5B是本申请实施例提供的一种信道估计方法的示意性说明图;
图5C是本申请实施例提供的一种信道估计方法的流程示意图;
图5D是本申请实施例提供的一种信道估计方法的示意性说明图;
图6A-图6C是本申请实施例提供的多种信道估计方法的仿真结果的比对图;
图6D是本申请实施例提供的一种导频***方式的示意性说明图;
图7是本申请实施例提供的一种信道估计装置的结构示意图;
图8是本申请实施例提供的一种神经网络的训练装置的结构示意图;
图9是本申请实施例提供的另一种神经网络的训练装置的结构示意图;
图10是本申请实施例提供的一种电子设备的结构示意图;
图11是本申请实施例提供的另一种电子设备的结构示意图。
具体实施方式
首先对本申请实施例涉及的部分关键术语进行说明。
(1)、资源单元(Resource Element,RE)
RE也称为资源粒子,是最小的物理资源,一个RE可以对应一个OFDM符号上的一个子载波。本申请实施例中,RE位置即为其对应的OFDM符号和子载波。
(2)资源块(Resource Block,RB)
频率上连续12个子载波,时域上一个slot,称为1个RB。
(3)人工智能(Artificial Intelligence,AI)
AI因其在自然语言处理和计算机视觉等领域的成功应用,逐渐吸引了无线通信领域研究者们的关注。在AI技术中,深度学习作为一个重要的子类,具有很多优秀的特性。首先,深度神经网络被认为是一个通用的函数近似器,能够有效地逼近与拟合任意函数,提取与处理隐含的特征关系。其次,处理大量数据是深度学习的强项,其本身具有的分布式和并行计算结构保证了计算速度和处理能力。另外,包括TensorFlow、Theano和Caffe等在内的大量框架库使得深度学习可以方便地应用到各个领域。深度学习的这些优势,为打破传统通信理论中的固有限制,解决通信***面临的挑战提供了新的契机。近年来,研究人员已经将深度学习应用于调制方式识别、信号解调和信道解码等无线通信物理层技术中。与传统方法相比,基于深度学习的方案在某些极端环境下依然能够保持鲁棒性。
因此,本申请实施例提供了一种信道估计方法,可以将深度神经网络应用到OFDM信道估计中,从而突破传统信道估计方法的固有限制,提高信道估计精度,节约导频开销,改善***性能。
如图1所示,为本申请实施例提供的一种无线通信***的示意性说明图,该无线通信***包括但不限于应用正交频分复用(Orthogonal Frequency-DivisionMultiplexing,OFDM)技术进行数据传输的长期演进(long term evolution,LTE)***、未来演进的第五代移动通信(the5th Generation,5G)***、新空口(new radio,NR)***等。该***可以包括:一个或多个发送端11,一个或多个接收端12,以及核心网(图1中未示出)等。
图1中以,发送端11可以为网络接入设备,接收端12为用户终端为例来说明,在另一场景中,发送端11可以是用户终端,接收端12可以是网络接入设备。
网络接入设备可以为基站,基站可以用于与一个或多个用户终端进行通信。基站可以是LTE***中的演进的节点B(evolved NodeB,eNB或者eNodeB),以及5G***、新空口(NR)***中的下一代节点(next-generation Node B,gNB)等等。基站也可以为接入点(access point,AP)、收发点(transmission receive point,TRP)、中心单元(centralunit,CU)或其他网络实体,并且可以包括以上网络实体的功能中的一些或所有功能。
用户终端也称为用户设备(user equipment,UE),可以包括手机,平板电脑,智能手表,台式机,车载终端,路由器、移动站(Mobile Station,MS)、个人数字助理(PersonalDigital Assistant,PDA),手持设备(handset),膝上电脑(laptop computer)等。
发送基站向终端传输下行数据时,下行数据可以采用信道编码进行编码,信道编码后的下行数据经过调制后传输给终端。终端向基站传输上行数据时,上行数据也可以采用信道编码进行编码,编码后的数据经过调制后传输给基站。在接收设备接收到数据时,需要在接收端进行信道估计,接收设备可以是终端,也可以是基站。通常,常用于基站向终端发送下行数据,终端可以对下行数据进行信道估计。
发送端11,用于向接收端12发送信号,其在发送信号过程中,***本地导频信号。应理解,本地导频信号是发送端11和接收端12均已知的信号,可以用于信道估计,得到本申请中所述的第一信道估计值。
接收端12,接收发送端11发送的信号,其接收到的信号包括每个OFDM符号上的每个子载波上的信号,由于一个OFDM符号上的一个子载波对应一个RE,因此,接收到的信号包括了所有的RE位置上的接收信号。其中,RE位置可以划分为数据位置和导频位置,该接收到的信号中导频位置上的信号即为接收到的导频信号,该接收到的信号中数据位置上的信号即为接收到的数据信号,本申请实施例以,接收到的信号包括N个子载波,M个OFDM符号均占据这N个子载波为例来说明,即接收到的信号包括M*N个RE位置上的信号。进一步地,接收端12可以基于接收到的信号,对信道进行2次或3次估计。
在第一次信道估计的过程中,基于接收到的导频信号,采用现有技术中针对应用OFDM技术的信道估计方法,得到M*N个RE各自位置上的信道频域响应,即M*N个RE各自位置上的第一信道估计值;且,基于M*N个RE各自位置上的第一信道估计值和接收到的信号,得到M*N个RE各自位置上的数据符号的预判值,也称为数据预判符号。
在第二次信道估计中,可以将待估计RE位置上的第一信道估计值、该RE位置上的接收信号、待估计RE位置上的数据预判符号输入到第一神经网络,得到该待估计RE位置的第二信道估计值。在另一些实施例中,可以考虑与待估计RE相邻的多个RE对待估计子载波的信道估计的影响,此时,可以将待估计RE位置的第一信道估计值、该待估计RE位置上的接收信号、待估计RE位置上的数据预判符号、与待估计RE相邻的多个RE位置上的接收信号和/或该相邻的多个RE位置上的数据预判符号,输入到第一神经网络,得到该待估计RE位置上的第二信道估计值。需要说明的是,上述两种实现方式中,第一神经网络的模型不同,训练采用的样本也不同,其具体可参见下述图3A所示的神经网络的训练方法和图5A或图5B所示的信号估计方法中相关描述。
上述第二信道估计值可以作为最终的信道估计值,用于还原接收到的数据信号中的数据。
可选地,还可以进行第三次信道估计,在第三次信道估计中,将M*N个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到M*N个RE各自位置上的第三信道估计值,该第三信道估计值即为最终的信号估计值。其中,第三神经网络可以是残差神经网络、卷积神经网络或者深度神经网络等。关于第三神经网络,具体可参见下述图4A所示的神经网络的训练方法和图5A或图5B所示的信号估计方法中相关描述。
训练设备13,用于训练第一神经网络和第二神经网络,并将训练得到的第一神经网络和第二神经网络发送至接收端12,以使得接收端12可以使用第一神经网络和第二神经网络进行信道估计。关于,训练第一神经网络和第二神经网络的具体方法,可以参见下述图3A和图4A所示的神经网络的训练方法实施例中相关描述。
在一些实施例中,训练设备13可以收集发送端11发送的信号和接收端12接收到的信号,基于,收集到的信号,生成训练样本,生成训练样本的方法可以参见图3A和图4A所示的训练方法中相关描述。
应理解,训练第一神经网络的训练设备与训练第二神经网络的训练设备可以是同一设备或不同设备,可以是服务器,还可以是接收端12或发送端11。
下面结合图2A介绍本申请实施提供的一种信道估计的方法,该信道估计方法可以应用于第一次信道估计,可以由上述图1所示***中的发送端11、接收端12或者训练设备13来执行。该方法可以包括但不限于如下步骤:
S21:根据导频位置上的接收信号对信道进行估计,得到M*N个RE各自位置上的第一信道估计值。
其中,该目标信号占据M*N个RE为例来说明,也就是说包括该M*N个RE各个位置上的接收信号,一个RE对应一个OFDM符号上的一个子载波,共有M个OFDM符号和N个子载波。应理解,在具体应用中,目标信号可以是接收端接收到的信号,或者,样本接收信号等。另一方面,M*N个RE可以划分为导频位置和数据位置,目标信号包括导频位置上的接收信号和数据位置上的接收信号。
其中,导频位置是指导频信号占据的RE,一个用户的导频可以占据一个或多个RE,导频位置上的接收信号,也称为导频信号,是目标信号中导频位置上的数据,也称为导频数据;数据位置是指传输的数据占据的RE,数据位置上的接收信号,也称为数据信号,是目标信号中数据位置上的数据。
应理解,第m个OFDM符号上的第k个子载波对应的RE位置上的第一信道估计值,即为第m个OFDM符号上的第k个子载波对应的RE位置上信道频域响应,m为OFDM符号的索引,k为子载波的索引,其中,m、k为正整数,m≤M,k≤N。
具体地,发射端在发送信号的过程中,可以***已知本地导频信号,接收端可以基于接收到的信号中的导频信号与本地导频信号,恢复出到导频位置的信道频域响应(也称为信道冲激响应);进而,通过内插获得所有时段的信道频域响应,即得到M*N个RE各自位置上的第一信道估计值。其中,内插可以是线性内插、高斯内插或者Cubic内插等,这里不作限定。线性插值是指利用两个相邻的导频位置的信道频域响应,估计出导频位置之间的数据位置的信道频域响应,这一方法,假定了相邻导频位置之间的各个数据子信道的信道频域响应呈线性变化。
例如,可以采用最小二乘(least square,LS)或线性最小均方误差(linearminimum mean square error,LMMSE)等算法获取导频位置的信道频域响应,即导频位置的第一信道估计值,再基于导频位置的信道频域响应通过线性插值的方法得到二维时频格上的完整的信道频域响应。其中,如图2B所示,整个***资源由频域和时域分割的格子(也称为二维时频格)组成,其中,一个格子表示一个RE,一个RE由频域上一个子载波,时域上一个OFDM符号构成。上述M*N个RE的第一信道估计值组成的矩阵称为第一信道估计矩阵。图2B所示,Hm,k表示第m个OFDM符号上的第k个子载波的信道频域响应,即第m个OFDM符号上的第k个子载波对应的RE位置上的第一信道估计值。
应理解,接收端在发送信号中***的本地导频信号,发射端已知该本地导频信号。
S22:根据数据位置上的接收信号和数据位置的第一信道估计值,通过信道均衡算法得到数据位置上的数据预判符号。其中,RE位置上的数据预判符号即为该RE位置上承载的数据符号的预判值。
其中,数据符号是M*N个RE中除导频位置所占据的RE外的RE所承载的信号。
信道均衡算法指的是当完成信道估计后,利用信道估计值对接收信号进行相关的处理,从而尽可能去除信道对发送信号的不利影响,恢复出原始发送信号的过程,可以包括匹配滤波器算法、迫零算法和最小均方算法等。其中,也可以单抽头均衡算法和硬判决得到。
对OFDM***而言,可以采用简单的频域单抽头均衡算法。由于发送符号是经过指定的星座调制的,只有有限种可能性。因此,在完成均衡操作后,可以对均衡后的结果进行硬判决,找到离该结果欧氏距离最小的星座点,作为数据预判符号。
应理解,本申请各个实施例中,导频信号、数据信号、数据预判符号、信号估计值(第一信号估计值、第二信号估计值和第三信号估计值)等均包括实部和虚部。
需要说明的是,上述图2A所示的信道估计方法为现有技术,具体可以参见现有技术中相关描述,这里不再赘述。
下面结合图3A和图4A介绍本申请实施例提供的两种神经网络的训练方法,上述方法均可以由上述图1中的训练设备来实现,实现上述各个训练方法的训练设备可以是同一设备或不同设备。下面分别描述这两种神经网络的训练方法:
(一):第一神经网络的训练方法
S31:构建第一神经网络。
其中,第一神经网络可以是深度神经网络,用于估计待估计RE位置上的第二信道估计值。待估计RE为上述M*N个RE中的一个RE,本申请实施例以待估计RE为第m个OFDM符号上的第k个子载波对应的RE为例来说明。
结构上,第一神经网络包括输入层、一层或多层隐藏层和输出层。其中,输入层中的神经元的个数由模型的输入数据决定,输出层的输出为待估计子载波的第二信道估计值,包括实部和虚部。隐藏层的神经元个数、卷积核的大小和个数等可以预先设定,也可以是自动机器学习过程中确定。其中,第一神经网络的输入数据可以包括待估计RE位置上的接收信号Ym,k、该待估计RE位置上的数据预判符号该待估计RE位置上的第一信道估计值/>第一神经网络的输出为该待估计RE位置上的第二信道估计值,即为改进的待估计RE位置上的信道估计值的实部和虚部。
可选地,输入数据还包括与该待估计RE相邻的多个RE各自位置上的接收信号、该相邻的多个RE各自位置上的数据预判符号等。其中,与待估计RE相邻的多个RE为同一个OFDM符号上的与待估计RE的频率最接近的多个RE,例如,以频率排序的RE中,该待估计RE前后各q个RE,即{第m个OFDM符号上的第k-q个子载波对应的RE,第m个OFDM符号上的第k-q+1个子载波对应的RE,…,第m个OFDM符号上的第k-1个子载波对应的RE,第m个OFDM符号上的第k+1个子载波对应的RE,第m个OFDM符号上的第k+2个子载波对应的RE,…,第m个OFDM符号上的第k+q个子载波对应的RE},q可以为1、2、3、4、5或者其他小于总子载波数的二分之一的正整数,这里不作限定。此时,与待估计RE相邻的多个RE位置上的接收信号可以表述为{Ym,k-q,Ym,k-q+1,…,Ym,k-1,Ym,k+1,Ym,k+2,…,Ym,k+q},该相邻的多个RE位置上的数据预判符号可以表述为
本申请实施例以q为2为例来说明,即在对待估计RE位置上的第一信道估计值的估计过程中考虑了其频率相近的4个子载波对其影响。此时,与待估计RE相邻的多个RE位置上的接收信号可以表述为{Ym,k-2,Ym,k-1,Ym,k+1,Ym,k+2},该相邻的多个RE位置上的数据预判符号可以表述为
如图3B所示的第一神经网络的具体结构示意图,第一神经网络为仅含一层隐藏层的全连接神经网络,隐藏层采用线性整流函数(rectified linear unit,ReLu)作为激活函数。仅含一层隐藏层的神经网络,结构简单,计算速度快,在该模型的应用时,可以减少第一信道估计的时长。
上述接收信号、数据预判符号均包括实部和虚部,在具体实现中,将待估计RE和与待估计RE相邻的多个RE位置上的接收信号、数据预判符号,及待估计RE位置上的第一信道估计值均按实虚部分开,合并成一个一维向量,作为第一神经网络的输入数据。当q为2时的输入数据可以表示为: 其中,Re{}表示实部,Im{}表示虚部。
S32:训练第一神经网络。其中S32的一种实现可以包括但不限于如下步骤:
S321:获取样本接收信号、目标信道的真实信道值。
其中,样本接收信号的产生过程可以是:先产生目标信道和发送符号,进而,基于目标信道和发送符号产生样本接收信号。而该目标信道的真实信道值,即真实的信道频域响应是已知的。其中,发送符号包括数据符号和导频符号,数据符号调制到子载波上形成数据信号,数据符号调制到子载波上形成数据信号,
应理解,上述符号,即为发送端在发送信号时调制到子载波上的数据。
S322:根据样本接收信号中的导频信号对信道进行估计,得到所有RE各自位置上的第一信道估计值。
S323:根据样本接收信号中的数据信号和数据位置的第一信道估计值,通过信道均衡算法得到每个RE位置上的数据预判符号。
应理解,同上述图2A 所示的目的信号,样本接收信号包括所有RE上的接收信号,这里所有RE包括数据位置上的RE和导频位置上的RE。数据信号为样本接收信号中数据位置上是接收信号,导频信号为样本接收信号中导频位置上是接收信号。
关于上述S322和S323的具体实现可以参见上述图2A所示的信号估计算法中步骤S21和S22中相关描述,这里不再赘述。
S324:将样本接收信号中的一个RE位置上的信道信息作为第一样本的输入数据,将该RE位置上的真实信道值作为该第一样本的标签。其中,RE位置上的信道信息包括该RE位置上的接收信号、第一信道估计值和数据预判符号作为第一样本的输入数据。可选地,RE位置上的信道信息还包括与RE相邻的多个RE位置上的接收信号和数据预判符号。关于与RE相邻的多个RE可以参见上述图2A所示的信号估计算法中的描述,这里不再赘述。
S325:通过多个第一样本训练第一神经网络。
具体的,可以将第一样本中的RE位置上的信道信息的输入数据输入到第一神经网络,得到该RE位置上的信道估计预测值;根据信道估计预测值与真实信道值之间的误差,更新第一神经网络的参数,训练的过程是使得该误差越来越小的过程,直到训练后的第一神经网络的准确性满足要求。
应理解,本申请实施例以第一神经网络包括一层隐藏层为例来说明。在另一些实施例中,第一神经网络可以包括更多或更少的隐藏层,其卷积核的尺寸和个数,
训练后的第一神经网络用于估计对待估计RE位置上的第二信道估计值。在一些实施例中,其输出的待估计RE位置上的第二信道估计值可以作为最终的信道估计值,用于还原数字信号。在另一些实施例中,第一神经网络也称为数据辅助预处理网络(或PreDNN模型),其输出的待估计RE位置上上的第二信道估计值不作为最终的信道估计值,而需要将各个RE位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,进行进一步的信道估计。关于第二神经网络,可以参见下述部分(二)中相关描述,这里不再赘述。
(二):第二神经网络的训练方法
S41:构建第二神经网络。
其中,第二神经网络可以是深度神经网络(deep convolution neural network,DNN)、卷积神经网络(convolution neural network,CNN)、深度残差网络(deep residualnetwork,ResNet)等。第二神经网络的输入数据为所有子载波的第二信道估计值按其所在的OFDM符号和子载波可以拼接成二维信道响应矩阵,这里称为第二信道估计矩阵。第二神经网络的输出为第三信道估计矩阵,即改进后的第二信道估计矩阵的估计值。
本申请实施例以深度残差网络为例来说明。结构上,第二神经网络包括至少一层卷积层、激励层、至少一个加法器。第二神经网络中的卷积层的卷积核大小及卷积核个数、加法器的位置和个数均可以是预设值,也可以通过自动机器学习的方法确定。
例如,如图4B所示,第二神经网络,也称为CasResNet,其包括5层卷积层、2层激励层和2个加法器。其中,其中,2层激励层分别位于第二卷积层(卷积层2)和第三层卷积层(卷积层3)之间和第三卷积层(卷积层3)和第四层卷积层(卷积层4)之间;第一个加法器(加法器1)的输入为第一层卷积层的输出和第四层卷积层的输出,第二个加法器(加法器2)的输入为输入层的输出(未示出,即为第一层卷积层的输入)和第五层卷积层的输出。具体地,第二神经网络的输入数据(第二信道估计矩阵)输入到第一层卷积层(卷积层1),卷积层1的卷积核大小为5*5、个数为8;卷积层1的输出作为卷积层2的输入,卷积层2卷积核大小为3*3、个数为8;卷积层2的输出通过激励层1输入到卷积层3,卷积层3的卷积核大小为3*3、个数为8;卷积层3的输出通过激励层2输入到卷积层4;卷积层4的卷积核大小为3*3、个数为8;卷积层4的输出和卷积层1的输出同时输入到加法器1;加法器1的输出作为卷积层5的输入,卷积层5卷积核大小为5*5、个数为2,卷积层5的输出和第二神经网络的输入数据(第二信道估计矩阵)同时输入到加法器2,加法器2的输出即为第三信道估计矩阵。
S42:训练第二神经网络。其中S42的一种实现可以包括但不限于如下步骤:
S421:获取样本接收信号通过信道估计得到的所有RE各自位置上的初始信道估计值、该所有RE各自位置上的真实信道值。其中,该各个RE位置上的初始信道估计值组成初始信道估计矩阵,各个RE位置上的真实信道值组成的真实信道矩阵。
其中,初始信道估计矩阵可以是基于样本接收信号采用上述图2A所示的信号估计算法得到第一信道估计矩阵;也可以基于该第一信道估计矩阵通过上述图3A训练得到的第一神经网络得到的第二信道估计矩阵,其中,第一信道估计矩阵中的每个RE位置上的第一信道估计值输入到第一神经网络,就可以得到该RE位置上的第二信道估计值。具体实现,可以参见上述图2A和图3A所示的实施例,这里不再赘述。
S422:将初始信道估计矩阵作为第二样本的输入数据,将真实信道矩阵作为该第二样本标签。
S423:通过多个第二样本训练第二神经网络。
具体的,可以将第二样本中的初始信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;根据预测信道估计矩阵与真实信道矩阵之间的误差,更新第二神经网络的参数,训练的过程是使得该误差越来越小的过程,直到训练后的第二神经网络的准确性满足要求。
在第二神经网络的应用过程中,训练后的第二神经网络用于改进其输入的信道估计矩阵,其输出的信道估计矩阵可以作为最终的信道估计值,用于还原数字信号。具体应用可以参见下述图5A或图5B所示的信道估计方法的实施例。
不限于上述图3A所示的和图4A所示的神经网络的训练方法,在本申请另一实施例中,第一神经网络和第二神经网络还可以一起训练。
可选地,图3A所示的和图4A所示的神经网络的训练方法可以由端到端开源机器学***台,其中,在网络训练过程中,可以采用Adam优化器,学习率为0.001,损失函数可以是信道估计值的均方误差,通过反向传播算法迭代优化并最终确定第一神经网络或第二神经网络两级网络的权重、偏置等参数,训练后的模型可以用于应用阶段在线计算。
下面结合图5A和图5C所示的两种信道估计方法和图5B和图5D所示的信道估计方法示意性说明图,介绍本申请实施例提供的另外两种信道估计方法,该方法可以由上述图1所示的***中的接收端来实现,该方法可以包括但不限于如下部分或全部步骤:
S51:根据接收到的信号和本地导频信号进行信道估计,得到M*N个RE各自位置上的第一信道估计值。
具体地,本申请以该接收到的信号包括每个OFDM符号上的每个子载波上的信号本申请以N个子载波,M个OFDM符号为例,每个OFDM符号上有N个子载波,该N个子载波的相互正交,由于一个OFDM符号上的一个子载波对应一个RE,因此,接收到的信号包括了M*N个RE位置上的接收信号。从另一个角度来说,接收到的信号包括导频信号和数据信号,导频信号为接收到的信号中导频位置上的接收信号;导频位置是指导频信号所占据的RE,一个导频可以占据一个RE;数据信号为接收到的信号中数据位置上的接收信号,数据位置是数据信号所占据的RE。M*N个RE位置上的第一信道估计值包括每个OFDM符号上的每个子载波的信道频域响应,即包括M*N个信道频域响应,关于第一信道估计值的计算方法可以参见上述图2A所示的信道估计方法,这里不再赘述。
应理解,本地导频信号是发送端和接收端均已知的信号,可以用于信道估计,
应理解,M*N个RE位置上的第一信道估计值可以组成二维时频格上的第一信道估计矩阵可以表述为:
其中,矩阵中的第i行第j列的元素表示第i个OFDM符号上的第j个子载波对应的RE位置上的第一信道估计值,其中,i为不大于M的正整数,j为不大于N的正整数。
S52:根据数据位置上的接收信号和数据位置的第一信道估计值,通过信道均衡算法得到每个数据位置上的数据预判符号。
其中,M*N个RE位置上的数据预判符号组成矩阵其包括每个RE位置上的数据预判符号,其中,第m个OFDM符号上的第k个子载波上的数据预判符号,即第m个OFDM符号上的第k个子载波对应的RE位置上的数据预判符号,可以表示为/>
关于上述S51和S52的具体实现可以参见上述图2A所示的信号估计算法中步骤S21和S22中相关描述,这里不再赘述。
S53:将M*N个RE中各个RE位置上的信道信息分别输入到第一神经网络,分别得到各个RE位置上的第二信道估计值。
其中,第一神经网络的结构可以如图3B所示,可以是通过上述图3A所示的神经网络训练方法得到的。其训练方法可以参见上述图3A所示的实施例,这里不再赘述。
下面以第m个OFDM符号上的第k个子载波对应的RE为例来说明,各个RE位置上的第二信道估计值的确定方式同第m个OFDM符号上的第k个子载波对应的RE,这里不再赘述。
第m个OFDM符号上的第k个子载波对应的RE位置上的信道信息包括第m个OFDM符号上的第k个子载波对应的RE位置上的接收信号Ym,k、数据预判符号第一信道估计值
可选地,第m个OFDM符号上的第k个子载波对应的RE位置上的信道信息还包括与该RE相邻的多个RE各个位置上的接收信号和/或数据预判符号等。其中,与第m个OFDM符号上的第k个子载波相邻的多个RE为同一个OFDM符号下与第m个OFDM符号上的第k个子载波的频率最接近的多个子载波分别对应的RE,例如,以频率排序的子载波中,该多个子载波为第m个OFDM符号上的第k个子载波前后各q个子载波,即{第m个OFDM符号上的第k-q个子载波,第m个OFDM符号上的第k-q+1个子载波,…,第m个OFDM符号上的第k-1个子载波,第m个OFDM符号上的第k+1个子载波,第m个OFDM符号上的第k+2个子载波,…,第m个OFDM符号上的第k+q个子载波},本申请实施例,以q=2为例来说明,即第m个OFDM符号上的第k个子载波的信道信息还包括{Ym,k-2,Ym,k-1,Ym,k+1,Ym,k+2},该相邻的多个RE位置上的数据预判符号可以表述为
将第m个OFDM符号上的第k个子载波对应的RE位置上的信道信息中各个项均按实虚部分开,合并成一个一维向量,此时,该信道信息可以表示为: 其中,Re{}表示实部,Im{}表示虚部。
将上述第m个OFDM符号上的第k个子载波对应的RE位置上的信道信息输入得到第一神经网络,第一神经网络对该信道信息进行处理后,输出第m个OFDM符号上的第k个子载波对应的RE位置上的第二信道估计值。
进一步地,同理,可以估算出M*N个RE位置上的第二信道估计值。应理解,针对不同的RE计算其第二信道估计值时,采用的第一神经网络相同,具体实现中,可以是第一神经网络的分时复用,也可以是同时运行M*N个第一神经网络,以同时计算各个RE位置上的第二信道估计值,提高计算效率。
上述M*N个RE位置上的第二信道估计值组成第二信道估计矩阵其中,第二信道估计矩阵/>中的元素与第一信道估计矩阵/>中的元素一一对应,第二信道估计矩阵/>中的第i行第j列的元素表示第i个OFDM符号上的第j个子载波的第二信道估计值,i为不大于M的正整数,i为不大于N的正整数。
在一些实施例中,该第二信道估计矩阵可以是最终的信道估计矩阵,用于还原接收信号中的数据。
在一些实施例中,请参见图5C和图5D所示的信道估计方法,上述第二信道估计矩阵不是最终的信道估计矩阵,还可以输入到第二神经网络进行进一步地改进和优化,以得到第三信道估计矩阵/>此时,可以将该第三信道估计矩阵/>作为最终的信道估计矩阵,用于还原接收信号中的数据。如图5B所示,该方法除包括上述S51-S53外,还包括步骤S54,如下:
S54:将第二信道估计矩阵输入到第二神经网络,得到第三信道估计矩阵/>其中,第三信道估计矩阵中的元素与第二信道估计矩阵中的元素一一对应,第三信道估计矩阵中的第i行第j列的元素表示第i个OFDM符号上的第j个子载波对应的RE上的第三信道估计值,其用于还原接收信号中第i个OFDM符号上的第j个子载波上承载的数据,其中,i为不大于M的正整数,j为不大于N的正整数。
其中,第二神经网络的结构可以如图4B所示,可以是通过上述图4A所示的神经网络训练方法得到的。其训练方法可以参见上述图4A所示的实施例,这里不再赘述。第二神经网络还可以是现有的信道估计网络ChannelNet、ReEsNet或其他信道估计网络,对此不作限定。
关于网络ChannelNet、ReEsNet可以参见下述信道估计方法的优越性中的相关描述,这里不再赘述。
本申请实施例信道估计方法,利用第一神经网络(PreDNN)进行数据辅助预处理,一方面,在同等导频数量下,能够有效提高信道估计精度;另一方面,在同等信道估计精度下,所需导频数量更少。
当采用第一神经网络,尤其是仅包括一层隐含层的第一神经网络时,由于其网络规模小,结构简单,待估参数少,故而训练复杂度低,在应用过程中计算速度快,可以加快还原接收信号中的数据。另外,第一神经网络还能够兼容其他现有的信道估计网络,与其他网络级联后可有效提升信道估计性能,并且对整体复杂度的影响较小。
应理解,高速移动场景下信道时变速度较快,信道冲激响应在一个OFDM符号持续时间内已经发生变化,这种变化映射到频域表现为ICI(Inter-Carrier Interference,子载波间干扰)。本申请实施例提供的一种信道估计方法,输入到第一神经网络的RE位置上的信道信息包括与该RE相邻的多个RE位置上第一信道估计值和/或数据预判符号时,该方法充分考虑ICI的影响,可应用于高速移动场景下信道估计,能够进一步地提高信道估计精度,减少所需要的导频数量。
当采用第二神经网络(CasResNet)对信道估计值进行进一步的改进时,尤其是具有残差神经网络结构的第二神经网络,可以缓解过拟合和梯度***的问题,降低第二神经网络训练难度,提高第二神经网络的信道估计精度。
另外,本申请提高的信道估计方法均无需信道统计信息,如功率时延谱和噪声方差等先验知识,可以快速估算出最终的信道估计值,以快速还原接收信号中的数据。
下面结合图6A-图6C,介绍本申请实施例提供的信道估计方法的优越性。
本申请实施例基于LTE场景进行仿真,考虑循环前缀(Cyclic Prefix,CP)充分的未编码的OFDM***,主要参数如表1所示。其中导频***方式按照LTE标准规定的图样:如图6D所示,每7个OFDM符号里,在第1个和第5个OFDM符号上放置导频,被放置导频的OFDM符号中,导频所占据的RE间隔为6个格子,并且在相邻的***导频的OFDM符号,被放置导频的RE相互交错。
表1仿真参数列表
载频 2GHz 子载波数 128
子载波间隔 15kHz OFDM符号数 14
信道功率时延谱 4径等强径 信道多普勒谱 Jakes模型
车速 600km/h 最大多普勒频偏 1111Hz
导频***方式 格状导频(21*4) 调制方式 QPSK
仿真结果如图6A-图6C所示。图6A-图6C对比了8种信道估计方案的仿真结果,分别是:
(1)、导频LS+线性插值,即通过LS方法先估计导频位置的信道频域响应,进一步,通过线性插值得到所有的信道频域响应。
(2)、导频LMMSE+线性插值,即通过LMMSE法先估计导频位置的信道频域响应,进一步,通过线性插值得到所有的信道频域响应。
(3)、ChannelNet,即先通过LS估计和插值技术得到整个二维时频格上的信道频域响应,将其视为一个低分辨率的带噪声的图像,接着通过ChannelNet网络进行进一步改进信道估计值,该ChannelNet网络由一个包含三层卷积层的超分辨率卷积网络SRCNN级联一个包含二十层卷积层的基于残差学习的前馈去噪卷积网络DnCNN。其中,SRCNN对初始信道估计值(即上述二维时频格上的信道频域响应)进行改进,DnCNN,用于去除噪声影响,该DnCNN网络输出即为最终的信道估计值。
(4)、ReESNet,即先通过LS方法得到导频位置的信道频域响应,将其拼接成二维矩阵作为网络ReESNet的输入,ReESNet的网络结构一共包含三层卷积层、四个残差块及一层用来将维度扩展到整个信道时频矩阵的上采样层,从而消除不同插值算法对性能的影响,减小网络规模,提高信道估计性能。该ReESNet网络的输出即为最终的信道估计值。
(5)、PreDNN+CasResNet,即本申请实施提供的如图3B所示第一神经网络(PreDNN)和如图4B所示第二神经网络(CasResNet)级联,p=2,仅考虑相邻的4个子载波对当前子载波的信道估计值的影响。
(6)、PreDNN+CasResNet(16*4导频),即本申请实施提供的如图3B所示第一神经网络(PreDNN)和如图4B所示第二神经网络(CasResNet)级联,p=2,仅考虑相邻的4个子载波对当前子载波对应的RE位置上的信道估计值的影响。与(5)不同的是,仿真参数列表中导频数目减少至16*4。
(7)、PreDNN+ChannelNet,即本申请实施提供的如图3B所示第一神经网络(PreDNN)和ChannelNet级联,将PreDNN输出第二信道估计值组成的第二信道估计矩阵输入到ChannelNet进行进一步优化,关于ChannelNet可以参见上述方案(3),这里不再赘述。
(8)、PreDNN+ReESNet,即本申请实施提供的如图3B所示第一神经网络(PreDNN)和ChannelNet级联,需要注意的是,由于ReEsNet的输入只包含导频位置的信道估计值,PreDNN的应用对象应换成导频位置的子载波,PreDNN仅改进导频位置的子载波的信道估计值,将PreDNN输出的改进点后的导频位置的子载波的第二信道估计值组成的信道估计矩阵输入到ReESNet进行进一步优化,关于ReESNet可以参见上述方案(4),这里不再赘述。
图6A对比了方案(1)至方案(6)的在不同信噪比(SNR)下信道估计均方误差。由图6A可见,在相同的信噪比下,本发明的信道估计方案(5)和(6)的均方误差明显低于方案(1)、(2)、(3)和(4),即本发明的信道估计方案(5)和(6)的精度显著优于其他现有方案,并且方案(6)中导频数目减少至16*4(这时导频间隔为8个子载波)的情况下仍然能够保持优势。
图6B对比了方案(3)和方案(7)的在不同信噪比(SNR)下信道估计均方误差。由图6B可见,当在ChannelNet之前级联PreDNN进行预处理后,信道估计精度得到明显提升。
图6C对比了方案(4)和方案(8)的在不同信噪比(SNR)下信道估计均方误差。由图6C可见,当在ReEsNet之前级联PreDNN进行预处理后,信道估计精度得到明显提升。
参阅图7,图7是本申请实施例提供的一种信道估计装置的结构示意图,该装置700可以是上述图1所示***中的接收端,可以实现上述图5A或图5B所示的信道估计方法,该装置700可以包括但不限于如下部分或全部单元:
第一信道估计单元701,用于根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE位置上的第一信道估计值和数据预判符号,所述接收到的信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元702,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值。
在一种可能的实现中,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
在一种可能的实现中,所述第一神经网络是通过多个第一样本训练得到的,所述第一样本包括基于样本接收信号估计得到的一个RE位置上的信道信息和所述一个RE位置上真实信道值。
在一种可能的实现中,所述第一神经网络为包括一层隐藏层的全连接神经网络。
可选地,所述隐藏层采用线性整流函数为激活函数。
在一种可能的实现中,该装置700还可以包括:
第三信道估计单元703,用于将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到所述多个RE各自位置上的第三信道估计值;所述第二神经网络是通过多个第二样本训练得到的,所述第二样本包括基于样本接收信号估计得到的所有RE各自位置上的信道估计值组成的信道估计矩阵和所述所有RE各自位置上的真实信道值组成的真实信道矩阵。
在一种可能的实现中,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
可选地,所述至少两层卷积层包括依次排列的第一卷积层、第二卷积层、第三卷积层、第四卷积层和第五卷积层,所述至少一层激活层包括第一激活层和第二激活层,所述至少一个加法器包括第一加法器和第二加法器,其中:
所述第一激活层位于所述第二卷积层和所述第三卷积层之间;
所述第二激活层位于所述第三卷积层和所述第四卷积层之间;
所述第一加法器位于所述第四卷积层和所述第五卷积层之间,所述第一加法器的输入为所述第一卷积层的输入和所述第四卷积层的输出;
所述第二加法器的输入为所述第二神经网络的输入和第五卷积层的输出。
在一种可能的实现中,第一信道估计单元具体用于:
根据导频位置上的接收信号和本地导频信号进行信道估计,得到所述导频位置上的第一信道估计值,所述导频位置占据至少两个RE位置;
将所述导频位置上的第一信道估计值进行插值处理,得到数据位置上的第一信道估计值,所述数据位置占据所述多个RE位置中除所述导频位置外的位置;
根据所述数据位置上的接收信号和所述数据位置上的第一信道估计值,得到所述数据位置上的数据预判符号。
应理解,上述装置700中各个单元的具体实现和所取得的有益效果可以参见上述图5A、图5B、图6A-图6C所示的实施例中相关描述,这里不再赘述。
参阅图8,图8是本申请实施例提供的一种神经网络的训练装置的结构示意图,该装置800可以是上述图1所示***中的训练设备,可以实现上述图3A所示的神经网络的训练方法,该装置800可以包括但不限于如下部分或全部单元:
第一信道估计单元801,用于根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元802,用于将所述多个RE中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的预测信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号;
更新单元803,用于根据所述每个RE位置上预测信道估计值与真实信道值之间的损失更新所述第一神经网络的参数。
在一种可能的实现中,所述每个RE位置上的信道信息还包括与所述每个RE位置相邻的w个RE位置上的接收信号和/或数据预判符号,所述每个RE位置与所述w个RE位置均对应同一个正交频分复用OFDM符号。
在一种可能的实现中,所述第一神经网络为包括一层隐藏层的全连接神经网络。
可选地,所述隐藏层采用线性整流函数为激活函数。
在一种可能的实现中,第一信道估计单元具体用于:
根据导频位置上的接收信号和本地导频信号进行信道估计,得到所述导频位置上的第一信道估计值,所述导频位置占据至少两个RE位置;
将所述导频位置上的第一信道估计值进行插值处理,得到数据位置上的第一信道估计值,所述数据位置占据所述多个RE位置中除所述导频位置外的位置;
根据所述数据位置上的接收信号和所述数据位置上的第一信道估计值,得到所述数据位置上的数据预判符号。
应理解,上述装置800中各个单元的具体实现和所取得的有益效果可以参见上述图3A、图5A 或图5B、图6A-图6C所示的实施例中相关描述,这里不再赘述。
参阅图9,图9是本申请实施例提供的一种神经网络的训练装置的结构示意图,该装置900可以是上述图1所示***中的训练设备,可以实现上述图4A所示的神经网络的训练方法,该装置900可以包括但不限于如下部分或全部单元:
第一信道估计单元901,用于根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元902,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
第三信道估计单元903,用于将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;
更新单元904,用于根据所述预测信道估计矩阵与真实信道矩阵之间的损失更新所述神经网络的参数。
在一种可能的实现中,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
可选地,所述至少两层卷积层包括依次排列的第一卷积层、第二卷积层、第三卷积层、第四卷积层和第五卷积层,所述至少一层激活层包括第一激活层和第二激活层,所述至少一个加法器包括第一加法器和第二加法器,其中:
所述第一激活层位于所述第二卷积层和所述第三卷积层之间;
所述第二激活层位于所述第三卷积层和所述第四卷积层之间;
所述第一加法器位于所述第四卷积层和所述第五卷积层之间,所述第一加法器的输入为所述第一卷积层的输入和所述第四卷积层的输出;
所述第二加法器的输入为所述第二神经网络的输入和第五卷积层的输出。
在一种可能的实现中,第一信道估计单元具体用于:
根据导频位置上的接收信号和本地导频信号进行信道估计,得到所述导频位置上的第一信道估计值,所述导频位置占据至少两个RE位置;
将所述导频位置上的第一信道估计值进行插值处理,得到数据位置上的第一信道估计值,所述数据位置占据所述多个RE位置中除所述导频位置外的位置;
根据所述数据位置上的接收信号和所述数据位置上的第一信道估计值,得到所述数据位置上的数据预判符号。
应理解,上述装置900中各个单元的具体实现和所取得的有益效果可以参见上述图4A、图5A或图5B、图6A-图6C所示的实施例中相关描述,这里不再赘述。
下面介绍本申请实施例提供的示例性电子设备1000,该电子设备1000可以实现为上述各个实施例提及的接收端,或者上述装置700,如图10所示的电子设备1000,包括存储器1001、处理器1002、通信接口1003以及总线1004。其中,存储器1001、处理器1002、通信接口1003通过总线1004实现彼此之间的通信连接。
存储器1001可以是只读存储器(Read Only Memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(Random Access Memory,RAM)。存储器1001可以存储程序,当存储器1001中存储的程序被处理器1002执行时,处理器1002和通信接口1003用于执行本申请图5A或图5B所示的信道估计方法中的部分或全部步骤。
处理器1002可以采用通用的中央处理器(Central Processing Unit,CPU),微处理器,应用专用集成电路(Application Specific Integrated Circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的装置700中的单元所需执行的功能,或者执行本申请图5A或图5B所示的信道估计方法中的部分或全部步骤。
处理器1002还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请的神经网络的压缩方法的各个步骤可以通过处理器1002中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1002还可以是通用处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1001,处理器1002读取存储器1001中的信息,结合其硬件完成本申请实施例的装置700中的单元所需执行的功能。
通信接口1003使用例如但不限于收发器一类的收发装置,来实现电子设备1000与其他设备或通信网络之间的通信。
总线1004可包括在电子设备1000各个部件(例如,存储器1001、处理器1002、通信接口1003)之间传送信息的通路。
应注意,尽管图10所示的电子设备1000仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,电子设备1000还包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解电子设备1000还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,电子设备1000也可仅仅包括实现本申请实施例所必须的器件,而不必包括图10中所示的全部器件。
下面介绍本申请实施例提供的示例性电子设备1100,该电子设备1100可以实现为上述各个实施例提及的训练设备,或者上述装置800或装置900,如图11所示的电子设备1100,包括存储器1101、处理器1102、通信接口1103以及总线1104。其中,存储器1101、处理器1102、通信接口1103通过总线1104实现彼此之间的通信连接。
存储器1101可以是只读存储器(Read Only Memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(Random Access Memory,RAM)。存储器1101可以存储程序,当存储器1101中存储的程序被处理器1102执行时,处理器1102和通信接口1103用于执行本申请图3A或图4A所示的神经网络训练方法中的部分或全部步骤。
处理器1102可以采用通用的中央处理器(Central Processing Unit,CPU),微处理器,应用专用集成电路(Application Specific Integrated Circuit,ASIC),图形处理器(graphics processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的装置800或装置900中的单元所需执行的功能,或者执行本申请图3A或图4A所示的神经网络训练方法中的部分或全部步骤。
处理器1102还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请的神经网络的压缩方法的各个步骤可以通过处理器1102中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1102还可以是通用处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1101,处理器1102读取存储器1101中的信息,结合其硬件完成本申请实施例的装置800或装置900中的单元所需执行的功能。
通信接口1103使用例如但不限于收发器一类的收发装置,来实现电子设备1100与其他设备或通信网络之间的通信。
总线1104可包括在电子设备1100各个部件(例如,存储器1101、处理器1102、通信接口1103)之间传送信息的通路。
应注意,尽管图11所示的电子设备1100仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,电子设备1100还包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解电子设备1100还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,电子设备1100也可仅仅包括实现本申请实施例所必须的器件,而不必包括图11中所示的全部器件。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本领域技术人员能够领会,结合本文公开描述的各种说明性逻辑框、模块和算法步骤所描述的功能可以硬件、软件、固件或其任何组合来实施。如果以软件来实施,那么各种说明性逻辑框、模块、和步骤描述的功能可作为一或多个指令或代码在计算机可读媒体上存储或传输,且由基于硬件的处理单元执行。计算机可读媒体可包含计算机可读存储媒体,其对应于有形媒体,例如数据存储媒体,或包括任何促进将计算机程序从一处传送到另一处的媒体(例如,根据通信协议)的通信媒体。以此方式,计算机可读媒体大体上可对应于(1)非暂时性的有形计算机可读存储媒体,或(2)通信媒体,例如信号或载波。数据存储媒体可为可由一或多个计算机或一或多个处理器存取以检索用于实施本申请中描述的技术的指令、代码和/或数据结构的任何可用媒体。计算机程序产品可包含计算机可读媒体。
作为实例而非限制,此类计算机可读存储媒体可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁性存储装置、快闪存储器或可用来存储指令或数据结构的形式的所要程序代码并且可由计算机存取的任何其它媒体。并且,任何连接被恰当地称作计算机可读媒体。举例来说,如果使用同轴缆线、光纤缆线、双绞线、数字订户线(DSL)或例如红外线、无线电和微波等无线技术从网站、服务器或其它远程源传输指令,那么同轴缆线、光纤缆线、双绞线、DSL或例如红外线、无线电和微波等无线技术包含在媒体的定义中。但是,应理解,所述计算机可读存储媒体和数据存储媒体并不包括连接、载波、信号或其它暂时媒体,而是实际上针对于非暂时性有形存储媒体。如本文中所使用,磁盘和光盘包含压缩光盘(CD)、激光光盘、光学光盘、数字多功能光盘(DVD)和蓝光光盘,其中磁盘通常以磁性方式再现数据,而光盘利用激光以光学方式再现数据。以上各项的组合也应包含在计算机可读媒体的范围内。
可通过例如一或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其它等效集成或离散逻辑电路等一或多个处理器来执行指令。因此,如本文中所使用的术语“处理器”可指前述结构或适合于实施本文中所描述的技术的任一其它结构中的任一者。另外,在一些方面中,本文中所描述的各种说明性逻辑框、模块、和步骤所描述的功能可以提供于经配置以用于编码和解码的专用硬件和/或软件模块内,或者并入在组合编解码器中。而且,所述技术可完全实施于一或多个电路或逻辑元件中。
本申请的技术可在各种各样的装置或设备中实施,包含无线手持机、集成电路(IC)或一组IC(例如,芯片组)。本申请中描述各种组件、模块或单元是为了强调用于执行所揭示的技术的装置的功能方面,但未必需要由不同硬件单元实现。实际上,如上文所描述,各种单元可结合合适的软件和/或固件组合在编码解码器硬件单元中,或者通过互操作硬件单元(包含如上文所描述的一或多个处理器)来提供。
以上实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。还应当理解,在本申请以下各实施例中,“至少一个”、“一个或多个”是指一个、两个或两个以上。术语“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系;例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在本说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
以上所述,仅为本申请示例性的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (19)

1.一种信道估计方法,其特征在于,应用于接收端,所述方法包括:
根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述接收到的信号包括所述多个RE各自位置上的接收信号;
将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到所述多个RE各自位置上的第三信道估计值;所述第二神经网络是通过多个第二样本训练得到的,所述第二样本包括基于样本接收信号估计得到的所有RE各自位置上的信道估计值组成的信道估计矩阵和所述所有RE各自位置上的真实信道值组成的真实信道矩阵。
2.根据权利要求1所述的方法,其特征在于,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络是通过多个第一样本训练得到的,所述第一样本包括基于样本接收信号估计得到的一个RE位置上的信道信息和所述一个RE位置上真实信道值。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述第一神经网络为包括一层隐藏层的全连接神经网络。
5.根据权利要求4所述的方法,其特征在于,所述隐藏层采用线性整流函数为激活函数。
6.根据权利要求1所述的方法,其特征在于,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
7.根据权利要求6所述的方法,其特征在于,所述至少两层卷积层包括依次排列的第一卷积层、第二卷积层、第三卷积层、第四卷积层和第五卷积层,所述至少一层激活层包括第一激活层和第二激活层,所述至少一个加法器包括第一加法器和第二加法器,其中:
所述第一激活层位于所述第二卷积层和所述第三卷积层之间;
所述第二激活层位于所述第三卷积层和所述第四卷积层之间;
所述第一加法器位于所述第四卷积层和所述第五卷积层之间,所述第一加法器的输入为所述第一卷积层的输入和所述第四卷积层的输出;
所述第二加法器的输入为所述第二神经网络的输入和第五卷积层的输出。
8.根据权利要求1-3和5-6任一项所述的方法,其特征在于,所述根据接收到的信号和导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,包括:
根据导频位置上的接收信号和本地导频信号进行信道估计,得到所述导频位置上的第一信道估计值,所述导频位置占据至少两个RE位置;
将所述导频位置上的第一信道估计值进行插值处理,得到数据位置上的第一信道估计值,所述数据位置占据所述多个RE位置中除所述导频位置外的位置;
根据所述数据位置上的接收信号和所述数据位置上的第一信道估计值,得到所述数据位置上的数据预判符号。
9.一种神经网络的训练方法,其特征在于,包括:
根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;
根据所述预测信道估计矩阵与真实信道矩阵之间的损失更新所述神经网络的参数。
10.根据权利要求9所述的方法,其特征在于,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
11.根据权利要求9或10所述的方法,其特征在于,所述第二神经网络为深度残差神经网络,所述第二神经网络包括至少两层卷积层、至少一层激活层和至少一个加法器,所述激活层位于所述至少两层卷积层中相邻的两层卷积层之间。
12.一种信道估计装置,其特征在于,所述装置包括:
第一信道估计单元,用于根据接收到的信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE位置上的第一信道估计值和数据预判符号,所述接收到的信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
第三信道估计单元,用于将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到所述多个RE各自位置上的第三信道估计值;所述第二神经网络是通过多个第二样本训练得到的,所述第二样本包括基于样本接收信号估计得到的所有RE各自位置上的信道估计值组成的信道估计矩阵和所述所有RE各自位置上的真实信道值组成的真实信道矩阵。
13.根据权利要求12所述的装置,其特征在于,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
14.根据权利要求12或13所述的装置,其特征在于,所述第一神经网络是通过多个第一样本训练得到的,所述第一样本包括基于样本接收信号估计得到的一个RE位置上的信道信息和所述一个RE位置上真实信道值。
15.一种神经网络的训练装置,其特征在于,包括:
第一信道估计单元,用于根据样本接收信号和本地导频信号进行信道估计和均衡,得到多个资源单元RE各自位置上的第一信道估计值和所述多个RE各自位置上的数据预判符号,所述样本接收信号包括所述多个RE各自位置上的接收信号;
第二信道估计单元,用于将所述多个RE位置中的每个RE位置上的信道信息输入到第一神经网络,得到所述每个RE位置上的第二信道估计值,所述每个RE位置上的信道信息包括所述每个RE位置上的接收信号、第一信道估计值和数据预判符号,所述第一神经网络用于根据输入的RE位置上的信道信息预测RE位置上的信道估计值;
第三信道估计单元,用于将所述多个RE各自位置上的第二信道估计值组成的信道估计矩阵输入到第二神经网络,得到预测信道估计矩阵;
更新单元,用于根据所述预测信道估计矩阵与真实信道矩阵之间的损失更新所述神经网络的参数。
16.根据权利要求15所述的装置,其特征在于,所述每个RE位置上的信道信息还包括与所述每个RE相邻的w个RE各自位置上的接收信号和/或所述w个RE各自位置上的数据预判符号,所述每个RE与所述w个RE均对应同一个正交频分复用OFDM符号,w为正整数。
17.一种电子设备,其特征在于,包括:一个或多个处理器、一个或多个存储器、通信接口;所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,所述电子设备实现如权利要求1-8任一项所述的方法。
18.一种电子设备,其特征在于,包括:一个或多个处理器及一个或多个存储器;所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,所述电子设备实现如权利要求9-11任一项所述的方法。
19.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-11任一项所述的方法。
CN202110130782.0A 2021-01-29 2021-01-29 信道估计方法、神经网络的训练方法及装置、设备 Active CN114826832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110130782.0A CN114826832B (zh) 2021-01-29 2021-01-29 信道估计方法、神经网络的训练方法及装置、设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110130782.0A CN114826832B (zh) 2021-01-29 2021-01-29 信道估计方法、神经网络的训练方法及装置、设备

Publications (2)

Publication Number Publication Date
CN114826832A CN114826832A (zh) 2022-07-29
CN114826832B true CN114826832B (zh) 2024-05-24

Family

ID=82525566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110130782.0A Active CN114826832B (zh) 2021-01-29 2021-01-29 信道估计方法、神经网络的训练方法及装置、设备

Country Status (1)

Country Link
CN (1) CN114826832B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117879737A (zh) * 2022-09-30 2024-04-12 维沃移动通信有限公司 信道预测方法、装置及通信设备
CN116915555B (zh) * 2023-08-28 2023-12-29 中国科学院声学研究所 一种基于自监督学习的水声信道估计方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104022978A (zh) * 2014-06-18 2014-09-03 中国联合网络通信集团有限公司 一种半盲信道估计方法和***
WO2019138156A1 (en) * 2018-01-12 2019-07-18 Nokia Technologies Oy Profiled channel impulse response for accurate multipath parameter estimation
CN111628946A (zh) * 2019-02-28 2020-09-04 华为技术有限公司 一种信道估计的方法以及接收设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104022978A (zh) * 2014-06-18 2014-09-03 中国联合网络通信集团有限公司 一种半盲信道估计方法和***
WO2019138156A1 (en) * 2018-01-12 2019-07-18 Nokia Technologies Oy Profiled channel impulse response for accurate multipath parameter estimation
CN111628946A (zh) * 2019-02-28 2020-09-04 华为技术有限公司 一种信道估计的方法以及接收设备

Also Published As

Publication number Publication date
CN114826832A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
Honkala et al. DeepRx: Fully convolutional deep learning receiver
Soltani et al. Deep learning-based channel estimation
CN109314682A (zh) 正交时频空间调制信号的迭代二维均衡
JP2009100478A (ja) 無線通信装置
CN114826832B (zh) 信道估计方法、神经网络的训练方法及装置、设备
WO2021155744A1 (zh) 基于深度学习的无线通信物理层收发端的联合优化方法、电子设备和存储介质
US20230344675A1 (en) Radio Receiver, Transmitter and System for Pilotless-OFDM Communications
KR20170114961A (ko) 순차적 스피어 디코딩을 위한 방법 및 장치
Na et al. Soft decision control iterative channel estimation for the Internet of Things in 5G networks
CN107113263A (zh) 用于设计星座图的***和方法及其用途
Ye et al. Bilinear convolutional auto-encoder based pilot-free end-to-end communication systems
Drakshayini et al. A review of wireless channel estimation techniques: challenges and solutions
Zhang et al. Efficient residual shrinkage CNN denoiser design for intelligent signal processing: Modulation recognition, detection, and decoding
Liao et al. Deep learning channel estimation based on edge intelligence for NR-V2I
CN108566227B (zh) 一种多用户检测方法
Shankar Bi‐directional LSTM based channel estimation in 5G massive MIMO OFDM systems over TDL‐C model with Rayleigh fading distribution
Liu et al. OFDM-based digital semantic communication with importance awareness
CN117397215A (zh) 基于码本线性化的预编码信号的生成和接收
CN115118566B (zh) 改进无线通信中信息的发送
Cammerer et al. A neural receiver for 5G NR multi-user MIMO
CN109639301A (zh) 一种基于置信度估计的ftn均衡方法
CN112671419B (zh) 一种无线信号重建方法、装置、***、设备和存储介质
Bhatt et al. Analysis of the fifth generation NOMA system using LSTM algorithm
WO2023237182A1 (en) Radio receiver with multi-stage equalization
Hussein et al. Least Square Estimation‐Based Different Fast Fading Channel Models in MIMO‐OFDM Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant