CN110610717A - 复杂频谱环境混合信号的分离方法 - Google Patents
复杂频谱环境混合信号的分离方法 Download PDFInfo
- Publication number
- CN110610717A CN110610717A CN201910810854.9A CN201910810854A CN110610717A CN 110610717 A CN110610717 A CN 110610717A CN 201910810854 A CN201910810854 A CN 201910810854A CN 110610717 A CN110610717 A CN 110610717A
- Authority
- CN
- China
- Prior art keywords
- sampling
- layer
- data
- signal
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001228 spectrum Methods 0.000 title claims abstract description 90
- 238000000926 separation method Methods 0.000 title claims description 32
- 238000005070 sampling Methods 0.000 claims abstract description 199
- 230000011218 segmentation Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000011176 pooling Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000003595 spectral effect Effects 0.000 claims 5
- 230000006870 function Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0224—Processing in the time domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开的一种复杂频谱环境混合信号的分离方法,利用本发明可以解决复杂频谱环境下高度重叠多种混合信号分离问题。具有如下技术特征:基于语义分割神经网络的经典结构U‑Net,采用由降采样模块组成的降采样编码网络相连和由升采样模块组成的升采样编码网络,通过降采样编码网络压缩数据特征,再通过升采样编码网络恢复数据尺寸;接收机对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理,基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换FFT,并计算其幅度,完成频谱重建;在接收机完成混合信号的时域加窗和频谱重建后,IQ两路数据与幅度谱组成张量数据作为网络输入,得到目标信号的IQ两路与幅度谱数据;在高斯噪声环境下,基于U‑Net改进的语义分割网络在接收数据中学习信号特征,从混合信号中并行分离目标信号的复基带IQ两路以及幅度谱数据,恢复出源信号。
Description
技术领域
本发明属于无线通信中的频谱感知领域,涉及一种基于语义分割网络的混合信号分离方法
背景技术
语义分割是计算机视觉领域的重要研究分支之一,简单地说是给定一张图片,对图片中的每一个像素点进行分类,经过语义分割之后的图片就是一个包含若干种颜色的图片,其中每一种颜色都代表一类.。图像语义分割是AI领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。与分类不同的是,语义分割需要判断图像每个像素点的类别,进行精确分割。深度学习是机器学习的一个分支,主要指深度神经网络算法,神经网络是模仿人的神经元而建立的人工神经元***,多输入单输出,同时输出又作为下一个神经元的输入。把若干个单个神经元组织在一起,便形成了神经网络。而深度神经网络一般应用于稀疏语音信号的分离或增强,或具有一定周期性信号的分离。语义分割神经网络能够返回像素级的标签,依据标签对输入数据中的目标进行分割。随着深度学习语义分割技术的发展,语义分割网络也被应用于混合信号分离技术中。
在通信信号非合作接收中,由于多种因素,如采取频率复用的特定通信体制、复杂电磁环境、受其他***有意或无意的干扰或者第三方接收地域与先验知识限制,单通道混合信号在短波、超短波及卫星信道等环境中广泛存在。由于该类信号在时域和频域均发生混叠,采用传统的时域或频域滤波方法难以实现混合信号中源信号的有效分离,给信号分析和信息提取工作造成影响。实现多个时频混叠信号分量的分离,本质上是利用较少的量估计较多的量,这是一个困难的问题。在复杂电磁环境中,传感器接收到的信号非常复杂,它主要由回波信号、干扰信号、杂波信号和内部噪声组成。由于这些信号的频谱较宽、特征未知、波形复杂多变,为信号处理带来了实际困难。例如,被动声纳接收到的信号可能是完全未知的多个混合信号,同时信号的传输信道也是未知的,或者是随温度、洋流而时刻变化的(例如海洋环境)。由于接收到的多个信号频谱发生混叠,很难在频域上将其分离出来。
现阶段多信号分离的主要方法是将信号从时域变换到频域,在频域上进行信号分离和分选识别:也可以利用如小波变换的时频分析工具来实现信号的检测与分析。上述方法主要是利用信号在时域和频域上的差别来实现的,即在信号环境比较理想的条件下,信号频谱不发生混叠。由于它们在频谱上发生了混叠,因此从频域上是不能分离出原来的信号的。而通过上述方法来实现信号分离和分选识别是非常困难的。对于源信号满足独立同分布条件的混合信号,当源信号的概率密度函数严重拖尾时,混合信号在概率密度等高线图上的一条直线,可能会穿过源信号联合概率密度等高线图的2个分支,在此情况下即使混合系数已知,也无法由单路混合信号分离出源信号。
针对多种信号以高度重叠的方式混合的复杂频谱环境下的信号分离问题,现有技术存在的问题是:对时频域高度混叠的混合信号无有效分离手段,对作为分离目标的信号存在稀疏性、周期性的要求。对于实际通信***中不满足稀疏性和周期性要求的信号,无法有效分离。为了解决混合信号分离,一般通过分离信号源分离混合信号,依赖于多接收天线,通过对多路接收数据实施聚类、匹配等算法搜寻各信号源,实现混合信号分离。但对于信号源较多、单接收天线的接收数据存在时频域高度重叠的情况,传统方法和现有的深度神经网络方法无法实现有效的信号分离。
发明内容
本发明的目的是针对多种信号高度重叠(时频域重叠严重)下的信号分离问题和现有混合信号分离技术存在的问题,提供一种具有良好分离性能,并能效地抑制噪声的复杂频谱环境混合信号的分离方法,以解决复杂频谱环境下高度重叠多种混合信号分离问题。
本发明的上述目的可以通过以下措施来得到,一种复杂频谱环境混合信号的分离方法,具有如下技术特征:基于语义分割神经网络的经典结构U-Net,采用由降采样模块组成的降采样编码网络相连和由升采样模块组成的升采样编码网络,通过降采样编码网络压缩数据特征,再通过升采样编码网络恢复数据尺寸;接收机对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理,基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换FFT,并计算其幅度,完成频谱重建;在接收机完成混合信号的时域加窗和频谱重建后,IQ两路数据与幅度谱组成张量数据作为网络输入,得到目标信号的IQ两路与幅度谱数据;在高斯噪声环境下,基于U-Net改进的语义分割网络在接收数据中学习信号特征,从混合信号中并行分离目标信号的复基带IQ两路以及幅度谱数据,恢复出源信号。
本发明相比于现有技术具有如下有益效果。
本发明针对多种信号高度重叠(时频域重叠严重)下的信号分离问题,利用语义分割网络通过输出网络输出目标信号的IQ两路和幅度谱数据,对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理,时域加窗抑制频谱重建时的频谱泄露,基于U-Net改进的语义分割网络对高斯噪声环境下基带混合信号进行分离,克服了混合信号时域、频域重叠难以分离的问题,能够在信号混合方式未知的情况下,在训练目标信号的语义分割网络时提取混合信号特征,通过遍历各目标信号的语义分割网络实现混合信号的时、频域分离。输出结果可以定位出目标类别的位置,在时频域均取得良好的分离性能,并有效地抑制了噪声的影响。仿真结果表明,本发明跟踪能力强,适应范围广,在低信噪比和复杂频谱环境下均获得较好的分离性能。
本发明基于语义分割神经网络的经典结构U-Net构建语义分割网络。利用U-Net改进卷积、池化核尺寸、损失函数、输出尺寸的语义分割网络,U-Net采用编码-解码的网络结构,并使用通道拼接促进数据的多尺度特征融合。其特点在于数据每经过一个升采样层,就与数据尺寸相同的降采样层进行特征融合。在低信噪比的复杂频谱环境下取得了较好的信号分离性能。表明U-Net更适合处理小样本、大尺度的数据,因而可应用于信号分离问题,处理较长的时频采样序列。本发明改进U-net语义分割模型,用时频域波形的均方误差代替像素标签的交叉熵为损失函数,并调整卷积、池化核尺寸确保其适合信号的一维时频采样序列,在训练过程中提取信号时频域特征,实现混合信号分离,在一定程度上解决现有技术存在的问题。
附图说明
图1是本发明实施例提供的高斯噪声环境下混合信号分离的语义分割网络结构图;
图2是本发明实施例提供的降采样模块结构图;
图3是本发明实施例提供的升采样模块结构图;
图4是本发明实施例提供的混合信号复基带I路波形;
图5是本发明复基带I路波形与原时域高斯脉冲信号的复基带I路波形的对比示意图;
图6是本发明实施例提供的混合信号幅度谱示意图;
图7是本发明从混合信号中分离的多音信号幅度谱与原多音信号的幅度谱的对比示意图;
图8是本发明从混合信号中分离的多音信号的时频域均方误差曲线。
为使本发明的目的、技术方法及优点更加详细清楚,以下结合附图和实施例对本发明作进一步地详细说明。
具体实施方式
参阅图1,根据本发明设计的语义分割网络结构,基于语义分割神经网络的经典结构U-Net,采用由降采样模块组成的降采样编码网络相连和由升采样模块组成的升采样编码网络,通过降采样编码网络输入数据,再通过升采样编码网络;在训练过程中从接受数据中学习信号特征,接收机对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理,基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换FFT,并计算其幅度,完成频谱重建;在接收机完成混合信号的时域加窗和频谱重建后,混合信号的IQ两路数据与幅度谱组成张量数据作为语义分割网络的输入,得到目标信号的IQ两路与幅度谱数据;在高斯噪声环境下,基于U-Net改进的语义分割网络在接收数据中学习信号特征,从混合信号中并行分离目标信号的复基带IQ两路以及幅度谱数据,恢复出源信号。
语义分割网络的第一层为输入层,输入尺寸为(512,1024,1,3),输入层后为降采样编码网络,第四降采样模块后为升采样解码网络,第四升采样模块后为输出网络。降采样编码网络的包括:第一降采样模块特征拼接Conv2D,卷积-ReLU激活层、Conv2D,第二降采样模块特征拼接第四升采样模块,第三降采样模块特征拼接第三升采样模块,第四降采样模块特征拼接第二升采样模块;第一降采样模块顺次通过第二采样模块、第三降采样模块和第四降采样模块,经第一升采样模块、第二升采样模块、第三升采样模块和第四升采样模块并联Conv2D,卷积-ReLU激活层;张量通过第一降采样模块经第二升采样模块,将第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接,第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接;第二升采样模块将第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接;第三升采样模块将第二升采样模块升采样层的输出与第三降采样模块降采样层的输入拼接;第四升采样模块将第三升采样模块升采样层的输出与第二降采样模块降采样层的输入拼接,将第四升采样模块升采样层的输出与第一降采样模块降采样层的输入拼接之后通过卷积核尺寸为(3,1))卷积层通道数为32的卷积-ReLU激活层,最终通过一层卷积核尺寸为(1,1)的卷积层,卷积层通道数为3,其中,XI为I路数据流,XQ为Q路数据流,Y为幅度谱数据流。
降采样编码网络的具体结构为:
第一降采样模块使用一个降采样编码网络的基本结构,卷积层、池化层的通道数为32。
第二降采样模块使用一个降采样编码网络的基本结构,卷积层、池化层的通道数为64;
第三降采样模块使用一个降采样编码网络的基本结构,卷积层、池化层的通道数为128;
第四降采样模块使用一个降采样编码网络的基本结构,卷积层、池化层的通道数为256;
第四降采样模块后为升采样解码网络,升采样解码网络的具体结构为:
第一升采样模块使用一个升采样解码网络的基本结构,卷积核的通道数为512,升采样层的通道数为256。
第二升采样模块将第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接。使用一个升采样解码网络的基本结构,卷积核的通道数为256,升采样层的通道数为128;
第三升采样模块将第二升采样模块升采样层的输出与第三降采样模块降采样层的输入拼接。使用一个升采样解码网络的基本结构,卷积核的通道数为128,升采样层的通道数为64;
第四升采样模块将第三升采样模块升采样层的输出与第二降采样模块降采样层的输入拼接。使用一个升采样解码网络的基本结构,卷积核的通道数为64,升采样层的通道数为32;
第四升采样模块后为输出网络,首先将第四升采样模块升采样层的输出与第一降采样模块降采样层的输入拼接,之后通过卷积核尺寸为(3,1)的卷积-ReLU激活层,卷积层通道数为32;最终通过一层卷积核尺寸为(1,1)的卷积层,卷积层通道数为3,三个通道分别输出分离目标信号的IQ两路和幅度谱数据。输出尺寸为(512,1024,1,3)。网络的损失函数为均方误差函数,优化器为Adam,学习率为0.001。
降采样编码网络由两层卷积、激活层和一层步幅池化降采样层构成基本结构。其基本结构堆叠4次组成降采样编码网络。升采样解码网络由两层卷积层、激活层和一层升采样层构成基本结构。其基本结构4次组成升采样解码网络,基本结构在每次升采样后与相同尺寸的降采样编码层进行特征拼接,拼接后的数据通过三通道的卷积输出层,三通道分别输出分离目标信号的IQ两路和幅度谱数据其中,XoutputI表示分离目标信号的复基带I路数据,XoutputQ表示分离目标信号的复基带Q路数据,Youtput表示分离目标信号的幅度谱数据。
语义分割网络训练集输入来自混合信号IQ两路和幅度谱数据组成的张量样本集,训练集标签为目标信号IQ两路和幅度谱数据组成的张量验证数据集产生方式与训练数据集相同,其中,XlabelI表示标签目标信号的复基带I路数据,XlabelQ表示目标信号标签的复基带Q路数据,Ylabel表示目标信号标签的幅度谱数据。
参阅图2。降采样编码网络由降采样模块组成,降采样模块包括:两层Conv2D-ReLU激活的卷积层和一层MaxPooling2D最大值池化降采样层,卷积层通过补0确保卷积层的输入和输出尺寸相同,MaxPoolin2D层将其输入尺寸降低至原来的一半作为输出。实施例中Conv2D-ReLU激活卷积层的卷积核尺寸为(3,1),最大值池化降采样层的降采样步幅为(2,1)。在图2展示的降采样模块结构中;降采样模块首先通过Conv2D-ReLU激活的卷积层提取特征之后,通过池化步幅为(2,1)的最大值池化层将数据尺寸减半。
参阅图3。升采样解码网络由升采样模块组成,升采样模块包括:两层Conv2D-ReLU激活的卷积层和一层升采样层,卷积层通过补0确保卷积层的输入和输出尺寸相同。升采样层将其输入尺寸提升一倍作为输出。本实施例的卷积层的卷积核尺寸为(3,1),升采样层的升采样步幅为(2,1)。在图3展示的升采样模块结构中,升采样模块首先通过Conv2D-ReLU卷积的激活层提取特征之后,通过升采样步幅为(2,1)的升采样层将数据尺寸增倍。具体地,其中语义分割网络结构中涉及到的ReLU激活函数、升采样操作、均方误差函数运算,如下所示:ReLU为卷积神经网络中常用的修正线性单元激活函数(RectifiedLinearUnit,ReLU),表达式为:ReLU(x)=max(0,x)升采样模块中升采样操作的参数为步幅(size(0),size(1)),升采样操作沿输入数据的行重复size(0)次,沿输入数据的列重复size(1)次。以数据尺寸为(B,1024,1,3)为例,升采样层进行步幅为(2,2)的升采样后,数据尺寸为(B,2048,1,3)。均方误差损失函数定义如下:其中,N为数据长度,ωi为y=yi的概率,yi为标签数据,为网络输出数据。
具体实现包括以下步骤:
步骤1:接收机对接收到的混合信号的IQ两路数据进行时域加窗、频谱重建处理。混合信号的IQ两路数据与幅度谱数据组成张量数据作为网络输入;目标信号的IQ两路数据与幅度谱组成张量数据作为网络标签。
在可选的实施例中,本实施例以I路为例,
设接收机接收的I路数据流为的混合信号,采用窗长度与采样点数N一致的时域窗函数进行时域加窗,得到时域加窗结果为:XwindowedI(i)=XI(i)WI(i),i=1,2,...,N
基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换(fastFouriertransform,FFT),并计算其幅度。基于时域加窗进行频谱重建,完成频谱重建。
步骤2:接收机构建语义分割网络和训练所用的样本集,指定目标信号,训练网络。在高斯噪声环境下,本实施例采用语义分割网络,语义分割网络以输入为混合信号的IQ两路数据和幅度谱数据组成张量语义分割网络输入层以N为样本长度,B为每次输入的样本数目,采用(B,N,1,3)的样本格式输入,输入数据首先通过降采样的编码网络压缩特征,之后通过升采样的解码网络恢复数据尺寸,从混合信号中并行分离目标信号的复基带IQ两路数据,以及幅度谱数据,最终由输出层输出目标信号的基带IQ两路数据以及幅度谱数据。
步骤3:对于不含目标信号的混合信号,语义分割网络将保留混合信号的IQ两路和幅度谱数据组成张量语义分割网络的输入层将混合信号I路、Q路及幅度谱组成的张量输入语义分割网络,得到目标信号的I路、Q路及幅度谱张量
接收机根据训练的语义分割网络,对接收机接收到的混合信号IQ两路数据进行时域加窗、频谱重建处理后,与IQ两路数据与幅度谱连接,输入语义分割网络得到目标信号的IQ两路与幅度谱数据。一个网络模型只对应一种目标信号。指定目标信号的语义分割网络模型只将该目标信号从混合信号中分离。对于包含目标信号的混合信号,语义分割网络将分离出目标信号的IQ两路和幅度谱数据组成的张量
在可选的实施例中,各类参数信号的参数与实施步骤如下:
步骤1:接收机对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理。这里采用汉宁窗,长度N=1024,FFT长度N=1024。本实施例以时域高斯脉冲信号、多音信号、线性扫频信号、噪声阻塞信号的混合信号为实施例。
步骤2:训练集指定目标信号,构建语义分割网络。网络整体结构如图1所示。语义分割网络将处理后的I路、Q路及幅度谱组成的张量数据作为训练样本训练网络。
图4展示了实施例混合信号复基带I路波形,各信号的信噪比均为-5dB,直观展示各信号时域重叠严重的情况。
图5展示了从混合信号中分离的时域高斯脉冲信号的复基带I路波形与原时域高斯脉冲信号的复基带I路波形的对比情况,在时域上直观展示信号分离性能。从谱的差异可以看出本发明在时域具有较好的分离性能。
图6展示了实施例混合信号幅度谱波形,信号成分及各信号参数与图4包含的信号相同,直观展示各信号频域重叠严重的情况。
图7展示了从混合信号中分离的多音信号幅度谱波形与原多音信号的幅度谱波形的对比情况,在频域上直观展示信号分离性能。从谱的差异可以看出本发明在频域具有较好的分离性能。
图8示了从混合信号中分离的多音信号的均方误差曲线,此均方误差的计算方式为分离的多音信号时频域均方误差之和。量化语义分割网络的信号分离性能。在最低信噪比下均方误差小于-20dB,最高信噪比下均方误差小于-40dB,分离性能较好。
实施例使用的混合信号各参数如表1所示。
表1实施例混合信号参数设置方案
以上所述为本发明较佳实施例,应该注意的是上述实施例对本发明进行说明,然而本发明并不局限于此,并且本领域技术人员在脱离所附权利要求的范围情况下可设计出替换实施例。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (10)
1.一种复杂频谱环境混合信号的分离方法,具有如下技术特征:基于语义分割神经网络的经典结构U-Net,采用由降采样模块组成的降采样编码网络相连和由升采样模块组成的升采样编码网络,通过降采样编码网络压缩数据特征,再通过升采样编码网络恢复数据尺寸;接收机对接收到的混合信号的IQ两路数据进行时域加窗和频谱重建处理,基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换FFT,并计算其幅度,完成频谱重建;在接收机完成混合信号的时域加窗和频谱重建后,IQ两路数据与幅度谱组成张量数据作为网络输入,得到目标信号的IQ两路与幅度谱数据;在高斯噪声环境下,基于U-Net改进的语义分割网络在接收数据中学习信号特征,从混合信号中并行分离目标信号的复基带IQ两路以及幅度谱数据,恢复出源信号。
2.如权利要求1所述的复杂频谱环境混合信号的分离方法,其特征在于:语义分割网络的第一层为输入层,输入尺寸为(512,1024,1,3),输入层后为降采样编码网络,第四降采样模块后为升采样解码网络,第四升采样模块后为输出网络。
3.如权利要求1所述的复杂频谱环境混合信号的分离方法,其特征在于:降采样编码网络包括:第一降采样模块特征拼接Conv2D,卷积-ReLU激活层、Conv2D,第二降采样模块特征拼接第四升采样模块,第三降采样模块特征拼接第三升采样模块,第四降采样模块特征拼接第二升采样模块。
4.如权利要求3所述的复杂频谱环境混合信号的分离方法,其特征在于:第一降采样模块顺次通过第二采样模块、第三降采样模块和第四降采样模块,经第一升采样模块、第二升采样模块、第三升采样模块和第四升采样模块并联Conv2D,卷积-ReLU激活层;张量通过第一降采样模块经第二升采样模块,将第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接,第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接;第二升采样模块将第一升采样模块升采样层的输出与第四降采样模块降采样层的输入拼接;第三升采样模块将第二升采样模块升采样层的输出与第三降采样模块降采样层的输入拼接;第四升采样模块将第三升采样模块升采样层的输出与第二降采样模块降采样层的输入拼接,将第四升采样模块升采样层的输出与第一降采样模块降采样层的输入拼接之后通过卷积核尺寸为(3,1))卷积层通道数为32的卷积-ReLU激活层,最终通过一层卷积核尺寸为(1,1)的卷积层,卷积层通道数为3,其中,XI为I路数据流,XQ为Q路数据流,Y为幅度谱数据流。
5.如权利要求3所述的复杂频谱环境混合信号的分离方法,其特征在于:降采样编码网络由两层卷积、激活层和一层步幅池化降采样层构成基本结构,其基本结构堆叠4次组成降采样编码网络。
6.如权利要求1所述的复杂频谱环境混合信号的分离方法,其特征在于:升采样解码网络由两层卷积层、激活层和一层升采样层构成基本结构。其基本结构4次组成升采样解码网络,基本结构在每次升采样后与相同尺寸的降采样编码层进行特征拼接,拼接后的数据通过三通道的卷积输出层,三通道分别输出分离目标信号的IQ两路和幅度谱数据
其中,XoutputI表示分离目标信号的复基带I路数据,XoutputQ表示分离目标信号的复基带Q路数据,Youtput表示分离目标信号的幅度谱数据。
7.如权利要求3所述的复杂频谱环境混合信号的分离方法,其特征在于:降采样编码网络由降采样模块组成,降采样模块包括:两层Conv2D-ReLU激活的卷积层和一层MaxPooling2D最大值池化降采样层,卷积层通过补0确保卷积层的输入和输出尺寸相同,MaxPoolin2D层将其输入尺寸降低至原来的一半作为输出。
8.如权利要求7所述的复杂频谱环境混合信号的分离方法,其特征在于:降采样模块首先通过Conv2D-ReLU激活的卷积层提取特征之后,通过池化步幅为(2,1)的最大值池化层将数据尺寸减半;升采样模块首先通过Conv2D-ReLU卷积的激活层提取特征之后,通过升采样步幅为(2,1)的升采样层将数据尺寸增倍。
9.如权利要求6所述的复杂频谱环境混合信号的分离方法,其特征在于:升采样解码网络由升采样模块组成,升采样模块包括:两层Conv2D-ReLU激活的卷积层和一层升采样层,卷积层通过补0确保卷积层的输入和输出尺寸相同,升采样层将其输入尺寸提升一倍作为输出。
10.如权利要求1所述的复杂频谱环境混合信号的分离方法,其特征在于:接收机接收的I路数据流为的混合信号,采用窗长度与采样点数N一致的时域窗函数进行时域加窗,得到时域加窗结果为:
XwindowedI(i)=XI(i)WI(i),i=1,2,...,N,基于时域加窗进行频谱重建,对时域加窗后的信号做长度为N的快速傅里叶变换FFT并计算其幅度。基于时域加窗进行频谱重建,完成频谱重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910810854.9A CN110610717B (zh) | 2019-08-30 | 2019-08-30 | 复杂频谱环境混合信号的分离方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910810854.9A CN110610717B (zh) | 2019-08-30 | 2019-08-30 | 复杂频谱环境混合信号的分离方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110610717A true CN110610717A (zh) | 2019-12-24 |
CN110610717B CN110610717B (zh) | 2021-10-15 |
Family
ID=68890685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910810854.9A Active CN110610717B (zh) | 2019-08-30 | 2019-08-30 | 复杂频谱环境混合信号的分离方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110610717B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126332A (zh) * | 2019-12-31 | 2020-05-08 | 桂林电子科技大学 | 基于轮廓特征的跳频信号分类方法 |
CN112272066A (zh) * | 2020-09-15 | 2021-01-26 | 中国民用航空飞行学院 | 一种用于机场终端区甚高频通信中的频谱数据清洗方法 |
CN112420065A (zh) * | 2020-11-05 | 2021-02-26 | 北京中科思创云智能科技有限公司 | 音频降噪处理方法和装置及设备 |
CN112434415A (zh) * | 2020-11-19 | 2021-03-02 | 中国电子科技集团公司第二十九研究所 | 一种面向微波光子阵列***射频前端异构模型的实现方法 |
CN113707164A (zh) * | 2021-09-02 | 2021-11-26 | 哈尔滨理工大学 | 一种改进多分辨率残差u型网络的语音增强方法 |
CN113782043A (zh) * | 2021-09-06 | 2021-12-10 | 北京捷通华声科技股份有限公司 | 语音采集方法、装置、电子设备及计算机可读存储介质 |
CN117935826A (zh) * | 2024-03-22 | 2024-04-26 | 深圳市东微智能科技股份有限公司 | 音频升采样方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1008984A2 (en) * | 1998-12-11 | 2000-06-14 | Sony Corporation | Windband speech synthesis from a narrowband speech signal |
US6463406B1 (en) * | 1994-03-25 | 2002-10-08 | Texas Instruments Incorporated | Fractional pitch method |
CN106537499A (zh) * | 2014-07-28 | 2017-03-22 | 弗劳恩霍夫应用研究促进协会 | 用于使用独立噪声填充生成增强信号的装置和方法 |
-
2019
- 2019-08-30 CN CN201910810854.9A patent/CN110610717B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6463406B1 (en) * | 1994-03-25 | 2002-10-08 | Texas Instruments Incorporated | Fractional pitch method |
EP1008984A2 (en) * | 1998-12-11 | 2000-06-14 | Sony Corporation | Windband speech synthesis from a narrowband speech signal |
CN106537499A (zh) * | 2014-07-28 | 2017-03-22 | 弗劳恩霍夫应用研究促进协会 | 用于使用独立噪声填充生成增强信号的装置和方法 |
Non-Patent Citations (4)
Title |
---|
CLEMENT S. J. DOIRE ET AL.: "Online Singing Voice Separation Using a Recurrent One-dimensional U-NET Trained with Deep Feature Losses", 《ICASSP 2019 - 2019 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
OLGA SLIZOVSKAIA ET AL.: "End-to-end Sound Source Separation Conditioned on Instrument Labels", 《 ICASSP 2019 - 2019 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
ZHANG, SHULIN ET AL.: "Simultaneous Arteriole and Venule Segmentation of Dual-Modal Fundus Images Using a Multi-Task Cascade Network", 《IEEE ACCESS》 * |
马松等: "语义分割网络下的混合信号频谱分离", 《电讯技术》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126332A (zh) * | 2019-12-31 | 2020-05-08 | 桂林电子科技大学 | 基于轮廓特征的跳频信号分类方法 |
CN111126332B (zh) * | 2019-12-31 | 2022-04-22 | 桂林电子科技大学 | 基于轮廓特征的跳频信号分类方法 |
CN112272066A (zh) * | 2020-09-15 | 2021-01-26 | 中国民用航空飞行学院 | 一种用于机场终端区甚高频通信中的频谱数据清洗方法 |
CN112420065A (zh) * | 2020-11-05 | 2021-02-26 | 北京中科思创云智能科技有限公司 | 音频降噪处理方法和装置及设备 |
CN112420065B (zh) * | 2020-11-05 | 2024-01-05 | 北京中科思创云智能科技有限公司 | 音频降噪处理方法和装置及设备 |
CN112434415A (zh) * | 2020-11-19 | 2021-03-02 | 中国电子科技集团公司第二十九研究所 | 一种面向微波光子阵列***射频前端异构模型的实现方法 |
CN112434415B (zh) * | 2020-11-19 | 2023-03-14 | 中国电子科技集团公司第二十九研究所 | 一种面向微波光子阵列***射频前端异构模型的实现方法 |
CN113707164A (zh) * | 2021-09-02 | 2021-11-26 | 哈尔滨理工大学 | 一种改进多分辨率残差u型网络的语音增强方法 |
CN113782043A (zh) * | 2021-09-06 | 2021-12-10 | 北京捷通华声科技股份有限公司 | 语音采集方法、装置、电子设备及计算机可读存储介质 |
CN117935826A (zh) * | 2024-03-22 | 2024-04-26 | 深圳市东微智能科技股份有限公司 | 音频升采样方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110610717B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110610717B (zh) | 复杂频谱环境混合信号的分离方法 | |
CN107122738B (zh) | 基于深度学习模型的无线电信号识别方法及其实现*** | |
CN107944442B (zh) | 基于改进卷积神经网络的对象检测装置及方法 | |
CN108764077B (zh) | 一种基于卷积神经网络的数字信号调制分类方法 | |
Wang et al. | Radar emitter recognition based on the short time Fourier transform and convolutional neural networks | |
CN111783558A (zh) | 一种卫星导航干扰信号类型智能识别方法及*** | |
CN109890043B (zh) | 一种基于生成式对抗网络的无线信号降噪方法 | |
CN110532932B (zh) | 一种多分量雷达信号脉内调制方式识别方法 | |
CN113312996B (zh) | 一种混叠短波通信信号检测与识别方法 | |
CN110197209A (zh) | 一种基于多特征融合的辐射源识别方法 | |
CN101510309A (zh) | 基于复小波纹理区域合并的改进分水岭sar图像分割方法 | |
Xie et al. | Adaptive ship-radiated noise recognition with learnable fine-grained wavelet transform | |
Chen et al. | Automatic modulation classification of radar signals utilizing X-net | |
CN102496144A (zh) | 基于hsv色彩空间的nsct水声图像增强方法 | |
CN112183300A (zh) | 一种基于多层次稀疏表示的ais辐射源识别方法及*** | |
CN109460788B (zh) | 基于低秩-稀疏信息组合网络的高光谱图像分类方法 | |
CN116894207A (zh) | 一种基于Swin Transformer和迁移学习的智能辐射源识别方法 | |
CN106971392A (zh) | 一种结合dt‑cwt和mrf的遥感图像变化检测方法与装置 | |
CN111181574A (zh) | 一种基于多层特征融合的端点检测方法、装置以及设备 | |
Si et al. | Radar signal recognition and localization based on multiscale lightweight attention model | |
CN114580476A (zh) | 一种无人机信号的识别模型构建方法及相应识别方法和*** | |
CN115100733A (zh) | Rfid手势识别方法、计算机装置、产品及存储介质 | |
US10885928B1 (en) | Mixed domain blind source separation for sensor array processing | |
CN112232430A (zh) | 神经网络模型测试方法、装置、存储介质及电子装置 | |
Park et al. | Pretrained network-based sound event recognition for audio surveillance applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |