CN113138366B - 一种基于深度迁移学习的单矢量水听器方位估计方法 - Google Patents

一种基于深度迁移学习的单矢量水听器方位估计方法 Download PDF

Info

Publication number
CN113138366B
CN113138366B CN202010054130.9A CN202010054130A CN113138366B CN 113138366 B CN113138366 B CN 113138366B CN 202010054130 A CN202010054130 A CN 202010054130A CN 113138366 B CN113138366 B CN 113138366B
Authority
CN
China
Prior art keywords
normalized
data
acceleration
label
unlabeled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010054130.9A
Other languages
English (en)
Other versions
CN113138366A (zh
Inventor
曹怀刚
王文博
倪海燕
苏林
任群言
马力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN202010054130.9A priority Critical patent/CN113138366B/zh
Publication of CN113138366A publication Critical patent/CN113138366A/zh
Application granted granted Critical
Publication of CN113138366B publication Critical patent/CN113138366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明属于水声物理和水听器方位估计技术领域,具体涉及一种基于深度迁移学习的单矢量水听器方位估计方法,该方法包括:将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度迁移学习模型中;对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;其中,所述预处理后的数据包括:带标签的数据和不带标签的数据;将预处理后的数据中的不带标签的数据输入至训练好的当前场景的深度迁移学习模型中,获得预处理后的不带标签的数据对应的标签,作为声源的方位角,完成单矢量水听器方位估计。

Description

一种基于深度迁移学习的单矢量水听器方位估计方法
技术领域
本发明属于水声物理和水听器方位估计技术领域,具体涉及一种基于深度迁移学习的单矢量水听器方位估计方法。
背景技术
目前,利用单矢量水听器进行声源方位估计,是近年来研究的热点。由于矢量水听器三个通道的指向性是固定的,无法像阵一样通过波束形成来使指向性发生改变从而抑制干扰,因此,当声场中存在较多的强干扰且无法从频谱上将这些干扰与目标区分开来时,现有的基于单矢量水听器的方位估计方法就不再适用。
基于深度学习的单矢量水听器方位估计方法已通过实验证明其有效性和可靠性,深度迁移学习是在深度学习的模型基础上,利用数据、任务、或模型之间的相似性,将在旧领域学习过的模型,应用于新领域的一种学习过程。
目前,传统的深度学习对不同的学习任务需要建立不同的模型学习不同的参数,从头建立模型并进行训练是复杂和耗时的。因此,现有的基于深度学习的单矢量水听器方位估计方法主要有两方面的技术问题:
1、基于仿真数据训练的深度学习模型由于训练的数据量大,因此特征提取能力较强,但是,这个普适化的模型针对具体的某一个复杂的应用场景(比如强干扰下的方位估计)时,其估计准确率和估计精度就会差很多;
2、基于实测数据的深度学习模型,因为带标签的实测数据是比较难获取到的,所以利用实测数据训练的模型主要问题在于训练数据量较少导致模型的特征提取能力不强,所以目标方位的估计准确率和估计精度也不高。
发明内容
本发明的目的在于,为解决现的单矢量水听器方位估计方法存在上述缺陷,本发明提出了一种基于深度迁移学习的单矢量水听器方位估计方法,对于迁移学习只需要利用源域中的数据将知识迁移到目标域,就能完成模型建立,通过迁移学习的方法可以加快学习效率。同时针对不同用户、不同设备、不同环境、不同需求,通过迁移学习都可以很好地进行满足。
为了实现上述目的,本发明提出了一种基于深度迁移学习的单矢量水听器方位估计方法,该方法包括:
将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度迁移学习模型中;
对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;其中,所述预处理后的数据包括:带标签的数据和不带标签的数据;
将预处理后的数据中的不带标签的数据输入至训练好的当前场景的深度迁移学习模型中,获得预处理后的不带标签的数据对应的标签,作为声源的方位角,完成单矢量水听器方位估计。
作为上述技术方案的改进之一,所述当前场景的深度迁移学习模型为卷积神经网络,其包括:输入层、三个卷积层、四个全连接层和输出层;
所述输入层和三个卷积层为从原有的已训练好的深度学习模型中迁移过来的,即将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度迁移学习模型中,
其中,所述三个卷积层包括:第一卷积层、第二卷积层和第三卷积层;第一卷积层包含64个卷积核,每个卷积核的大小为3×3;第二卷积层包含32个卷积核,每个卷积核的大小为3×3;第三卷积层包含32个卷积核,每个卷积核的大小为3×3;
在卷积层和全连接层之间加入了dropout层,系数为0.2;
在全连接层和输出层之间也有一个dropout层,系数为0.3;
所述四个全连接层中,每个全连接层有2048个神经元;
输出层的神经元个数为360;
采用的激活函数为线性整流函数。
作为上述技术方案的改进之一,所述当前场景的深度迁移学习模型的训练步骤具体包括:
将预处理后的数据中带标签的数据作为训练集,采用MATLAB中的trainNetwork函数作为目标函数,对当前场景的深度迁移学习模型进行训练;
在深度迁移学习神经网络模型进行训练的过程中,输入层输入带标签的实测数据,输出层的输出与标签之差称为衰减系数,整个训练的过程就是使该衰减系数趋于零,使深度迁移学习模型的输出与对应的标签无限接近的过程。
作为上述技术方案的改进之一,所述对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;具体为:
对单矢量水听器接收带标签的实测数据进行预处理过程如下:
单矢量水听器接收带标签的实测数据;其中,带标签的实测数据的频域表示为R(f)=[p(f),ax(f),ay(f),az(f)],将带标签的实测数据进行归一化处理:
Figure BDA0002372214410000031
其中,p(f)为频点f处的声压;ax(f)为频点f处的x方向的加速度;ay(f)为频点f处的y方向的加速度;az(f)为频点f处的z方向的加速度;
Figure BDA0002372214410000032
为归一化后的带标签的实测数据,即
Figure BDA0002372214410000033
其中,
Figure BDA0002372214410000034
为归一化后的声压;
Figure BDA0002372214410000035
为归一化后的x方向的加速度;
Figure BDA0002372214410000036
为归一化后的y方向的加速度;
Figure BDA0002372214410000037
为归一化后的z方向的加速度;其中,
Figure BDA0002372214410000038
统称为归一化后的加速度
Figure BDA0002372214410000039
将归一化后的声压
Figure BDA00023722144100000310
和归一化后的加速度
Figure BDA00023722144100000311
求其互谱后,再进行快拍平均:
Figure BDA00023722144100000312
其中,
Figure BDA00023722144100000313
为归一化后的声压
Figure BDA00023722144100000314
和归一化后的加速度
Figure BDA00023722144100000315
在频点f处的互谱后的快拍平均;N为快拍数;
Figure BDA00023722144100000316
为归一化后频点f处归一化后的声压的第s个快拍;
Figure BDA00023722144100000317
为归一化后频点f处归一化后的加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的声压
Figure BDA00023722144100000318
和归一化后的加速度
Figure BDA00023722144100000319
互谱的实部和虚部组成一个3×2F的矩阵,形成带标签的数据;其中,F为总的频点个数;
实测带标签数据的标签的预处理:将声源方位角的估计看作一个回归问题,带标签数据对应的标签用一个以方位角真值为中心的高斯分布来表示:
Figure BDA00023722144100000320
其中,tn为第n个采样点的预处理后的数据的标签;d为所有的取值角度;d=1°-360°,步长为1;dnr为真实角度;σ表示方位角的模糊度范围;
对单矢量水听器接收不带标签的实测数据进行预处理过程如下:
单矢量水听器接收不带标签的实测数据,其中,不带标签的实测数据的频域表示为R(f)′=[p(f)′,ax(f)′,ay(f)′,az(f)′],将不带标签的实测数据进行归一化处理:
Figure BDA0002372214410000041
其中,p(f)′为频点f处的不带标签声压;ax(f)′为频点f处的x方向的不带标签加速度;ay(f)′为频点f处的y方向的不带标签加速度;az(f)′为频点f处的z方向的不带标签加速度;
Figure BDA0002372214410000042
为归一化后的不带标签的实测数据,即
Figure BDA0002372214410000043
其中,
Figure BDA0002372214410000044
为归一化后的不带标签声压;
Figure BDA0002372214410000045
为归一化后的x方向的不带标签加速度;
Figure BDA0002372214410000046
为归一化后的y方向的不带标签加速度;
Figure BDA0002372214410000047
为归一化后的z方向的不带标签加速度;其中,
Figure BDA0002372214410000048
统称为归一化后的不带标签加速度
Figure BDA0002372214410000049
将归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA00023722144100000410
求其互谱后,再进行快拍平均:
Figure BDA00023722144100000411
其中,
Figure BDA00023722144100000412
为归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA00023722144100000413
在频点f处的互谱后的快拍平均;N为快拍数;
Figure BDA00023722144100000414
为归一化后频点f处不带标签声压的第s个快拍;
Figure BDA00023722144100000415
为为归一化后频点f处不带标签加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA00023722144100000416
互谱的实部和虚部组成一个3×2F的矩阵,形成不带标签的数据;其中,F为总的频点个数;
将带标签的数据和不带标签的数据组成预处理后的数据,即获得预处理后的数据。
本发明还提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述方法。
本发明还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述方法。
本发明与现有技术相比的有益效果是:
本发明的方法无需针对不同的应用需求重新训练深度学习模型,节省训练的时间;还可以有效提取目标声源的特征,抑制其他声源的干扰,大大提高声源方位估计的精度。
附图说明
图1是本发明的一种基于深度迁移学习的单矢量水听器方位估计方法的深度迁移学习模型的的神经网络结构图;
图2是本发明的一种基于深度迁移学习的单矢量水听器方位估计方法的深度迁移学习模型的算法流程图;
图3是本发明的一种基于深度迁移学习的单矢量水听器方位估计方法的用来训练迁移后的神经网络的带标签数据和用来测试迁移神经网络性能的不带标签数据的GPS航迹图;
图4(a)是实验过程中矢量水听器的航向角变化示意图;
图4(b)是实验过程中矢量水听器的横滚角变化示意图;
图4(c)是实验过程中矢量水听器的俯仰角变化示意图;
图5(a)是实验过程中矢量水听器接收到测试数据的声压的时域信号波形示意图;
图5(b)是实验过程中矢量水听器接收到测试数据的x方向的加速度的时域信号波形示意图;
图5(c)是实验过程中矢量水听器接收到测试数据的y方向的加速度的时域信号波形示意图;
图5(d)是实验过程中矢量水听器接收到测试数据的z方向的加速度的时域信号波形示意图;
图6(a)是实验过程中矢量水听器接收到测试数据的650s处声压的频域波形示意图;
图6(b)是实验过程中矢量水听器接收到测试数据的650s处x方向加速度的频域波形示意图;
图6(c)是实验过程中矢量水听器接收到测试数据的650s处y方向加速度的频域波形示意图;
图6(d)是实验过程中矢量水听器接收到测试数据的650s处z方向加速度的频域波形示意图;
图7(a)是利用传统复声强法估计到的测试数据的方位角与真实的GPS测得的方位角的比较示意图;
图7(b)是利用深度学习法估计到的测试数据的方位角与真实的GPS测得的方位角的比较示意图;
图7(c)是利用深度迁移学习法估计到的测试数据的方位角与真实的GPS测得的方位角的比较。
具体实施方式
现结合附图对本发明作进一步的描述。
将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度前移学习模型中;原有的深度学习模型不能很好的满足当前环境下的方位估计要求,但是,原有的深度学习模型的训练数据量很大,特征提取能力较强,而深度学习模型中前几层一般为数据中的通用特征,因此将原有的深度学习模型中的前几层迁移到新的当前场景的深度前移学习模型中,可以使新的当前场景的深度前移学习模型在训练数据量不大的情况下,具有强特征提取的能力。
如图1所示,本发明提供了一种基于深度迁移学习的单矢量水听器方位估计方法,与深度学习方法相比,深度迁移学习无需针对不同的应用场景重新训练深度迁移学习神经网络模型,节省了时间提高了效率;当声场中有较强的干扰且无法在频谱上将其区分时,深度迁移学习的方法可以有效的抑制干扰的影响,提高方位估计的精度。
该方法包括:
将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度前移学习模型中;
对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;其中,所述预处理后的数据包括:带标签的数据和不带标签的数据;其中,带标签的数据(少部分)用来训练新的深度迁移学习模型,使新的深度迁移学习模型具备原有的深度学习模型的特征提取能力,又适用于当前的应用环境;
具体地,对单矢量水听器接收带标签的实测数据进行预处理过程如下:
单矢量水听器接收带标签的实测数据;其中,带标签的实测数据的频域表示为R(f)=[p(f),ax(f),ay(f),az(f)],为减少声源谱的影响,将带标签的实测数据进行归一化处理,去除干扰:
Figure BDA0002372214410000071
其中,p(f)为频点f处的声压;ax(f)为频点f处的x方向的加速度;ay(f)为频点f处的y方向的加速度;az(f)为频点f处的z方向的加速度;
Figure BDA0002372214410000072
为归一化后的带标签的实测数据,即
Figure BDA0002372214410000073
其中,
Figure BDA0002372214410000074
为归一化后的声压;
Figure BDA0002372214410000075
为归一化后的x方向的加速度;
Figure BDA0002372214410000076
为归一化后的y方向的加速度;
Figure BDA0002372214410000077
为归一化后的z方向的加速度;其中,
Figure BDA0002372214410000078
统称为归一化后的加速度
Figure BDA0002372214410000079
将归一化后的声压
Figure BDA00023722144100000710
和归一化后的加速度
Figure BDA00023722144100000711
求其互谱后,再进行快拍平均:
Figure BDA00023722144100000712
其中,
Figure BDA00023722144100000713
为归一化后的声压
Figure BDA00023722144100000714
和归一化后的加速度
Figure BDA00023722144100000715
在频点f处的互谱后的快拍平均;N为快拍数;
Figure BDA00023722144100000716
为归一化后频点f处归一化后的声压的第s个快拍;
Figure BDA00023722144100000717
为归一化后频点f处归一化后的加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的声压
Figure BDA00023722144100000718
和归一化后的加速度
Figure BDA00023722144100000719
互谱的实部和虚部组成一个3×2F的矩阵,形成带标签的数据;其中,F为总的频点个数;
深度迁移神经网络在训练的过程中,需要训练集中的带标签数据需要对应的标签作为参照,为增加训练的深度迁移学习神经网络模型的鲁棒性,使其具有一定的误差适应能力,需要对带标签数据对应的标签进行预处理:将声源方位角的估计看作一个回归问题,带标签数据对应的标签用一个以方位角真值为中心的高斯分布来表示:
Figure BDA0002372214410000081
其中,tn为第n个采样点的预处理后的数据的标签;d为所有的取值角度;d=1°-360°,步长为1°;dnr为真实角度;σ表示方位角的模糊度范围;
标签数据的预处理是专指对训练过程中进行监督的标签进行预处理,这里就是指带标签数据的标签的预处理。神经网络在进行训练的时候需要矢量水听器测的数据作为输入,还需要对应的方位角作为标签对网络进行监督,标签数据的预处理很关键,特别是利用实验的实测数据进行训练的时候,因为实验根据GPS测得的方位角也是有误差的,对标签进行预处理就是想把可能存在的误差包含进去,从而使神经网络的鲁棒性更好。
对单矢量水听器接收不带标签的实测数据进行预处理过程如下:
单矢量水听器接收不带标签的实测数据,其中,不带标签的实测数据的频域表示为R(f)′=[p(f)′,ax(f)′,ay(f)′,az(f)′],为减少声源谱的影响,将不带标签的实测数据进行归一化处理,去除干扰:
Figure BDA0002372214410000082
其中,p(f)′为频点f处的不带标签声压;ax(f)′为频点f处的x方向的不带标签加速度;ay(f)′为频点f处的y方向的不带标签加速度;az(f)′为频点f处的z方向的不带标签加速度;
Figure BDA0002372214410000083
为归一化后的不带标签的实测数据,即
Figure BDA0002372214410000084
其中,
Figure BDA0002372214410000085
为归一化后的不带标签声压;
Figure BDA0002372214410000086
为归一化后的x方向的不带标签加速度;
Figure BDA0002372214410000087
为归一化后的y方向的不带标签加速度;
Figure BDA0002372214410000088
为归一化后的z方向的不带标签加速度;其中,
Figure BDA0002372214410000089
统称为归一化后的不带标签加速度
Figure BDA00023722144100000810
将归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA0002372214410000091
求其互谱后,再进行快拍平均:
Figure BDA0002372214410000092
其中,
Figure BDA0002372214410000093
为归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA0002372214410000094
在频点f处的互谱后的快拍平均;N为快拍数;
Figure BDA0002372214410000095
为归一化后频点f处不带标签声压的第s个快拍;
Figure BDA0002372214410000096
为为归一化后频点f处不带标签加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure BDA0002372214410000097
互谱的实部和虚部组成一个3×2F的矩阵,形成不带标签的数据;其中,F为总的频点个数;
将带标签的数据和不带标签的数据组成预处理后的数据,即获得预处理后的数据。
将上述不带标签的实测数据输入到训练好的深度迁移学习模型中,输出为模型估计到的数据的标签,因为训练的时候参照的标签为高斯分布的形式,所以此时输出的标签也为高斯分布,取高斯分布的最大值为最终目标声源的方位估计结果。
将预处理后的数据中的不带标签的数据输入至训练好的当前场景的深度迁移学习模型中,获得预处理后的不带标签的数据对应的标签,此时的标签是高斯分布的形式,取高斯分布的最大值作为声源的方位角,完成单矢量水听器方位估计。
所述当前场景的深度前移学习模型为卷积神经网络,其包括:输入层、三个卷积层、四个全连接层和输出层;
所述输入层和三个卷积层为从原有的已训练好的深度学习模型中迁移过来的,即将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度前移学习模型中,
其中,所述三个卷积层包括:第一卷积层、第二卷积层和第三卷积层;第一卷积层包含64个卷积核,每个卷积核的大小为3×3;第二卷积层包含32个卷积核,每个卷积核的大小为3×3;第三卷积层包含32个卷积核,每个卷积核的大小为3×3;
在卷积层和全连接层之间加入了dropout层,系数为0.2;
在全连接层和输出层之间也有一个dropout层,系数为0.3;
所述四个全连接层中,每个全连接层有2048个神经元;
输出层的神经元个数为360;
采用的激活函数为线性整流函数。
所述当前场景的深度迁移学习模型的训练步骤具体包括:
将预处理后的数据中带标签的数据作为训练集,采用MATLAB中的trainNetwork函数作为目标函数,对当前场景的深度迁移学习模型进行训练;
在深度迁移学习神经网络模型进行训练的过程中,输入层输入带标签的实测数据,输出层的输出与标签之差称为衰减系数,整个训练的过程就是使该衰减系数趋于零,使深度迁移学习模型的输出与对应的标签无限接近的过程。
有标签的机器学习的训练过程叫监督学习,标签就是相当于一个参照物,相当于对网络进行监督,让神经网络往我们希望的方向进行调整。因此,训练过程中神经网络的输出并不是标签,一开始是随机的一个值,神经网络的训练是进行很多个循环的,每次循环输出一个值,根据这个值与标签值的差值也就是衰减系数的大小对网络进行调整,然后再循环,再输出一个值,再根据衰减系数进行调整,当衰减系数不再变化或者变化不大的时候就认为网络训练好了。
所述深度学习神经网络模型网络模型为卷积神经网络,其包括:输入层、隐含层和输出层;
其中,所述隐含层进一步包括:三个卷积层、激活函数和四个全连接层;
所述三个卷积层包括:第一卷积层、第二卷积层和第三卷积层;其中,第一卷积层包含64个卷积核,每个卷积核的大小为3×3;第二卷积层包含32个卷积核,每个卷积核的大小为3×3;第三卷积层包含32个卷积核,每个卷积核的大小为3×3;
激活函数为线性整流函数;
在卷积层和全连接层之间增设dropout层,系数为0.2;
在全连接层和输出层之间也增设dropout层,系数为0.3;
所述四个全连接层中,每个全连接层有2048个神经元;
输出层的神经元个数为360;
输入层输入预处理后的数据;输出层输出预处理后的数据对应的的标签。
卷积层是主要的特征提取层,其通过对输入数据进行卷积处理后从数据中提取特征,卷积不仅限于对原始输入的卷积,而且还可以将卷积后提取到的特征(神经网络类似于一个黑盒子,内部具体提取的是什么特征并不清楚)进行进一步的卷积,所以隐含层中一般包含多个卷积层,多个卷积的叠加可以将特征不断的提取和压缩,最终得到比较高层次的特征;
所述深度学习神经网络模型的训练步骤,具体包括:
用KRAKEN仿真的矢量声场数据及其对应的标签,即带标签的仿真数据作为训练集,用KRAKEN仿真的矢量声场数据包括:单矢量水听器采集的声压矢量信号和加速度矢量信号;其中,声压为标量,加速度为矢量;
其中,单矢量水听器接收带标签的仿真数据,其中,带标签的仿真数据的频域表示为R(f)′m=[p(f)′m,ax(f)′m,ay(f)′m,az(f)′m],为减少声源谱的影响,将带标签的仿真数据进行归一化处理,去除干扰:
Figure BDA0002372214410000111
其中,p(f)′m为频点f处的带标签声压;ax(f)′m为频点f处的x方向的带标签加速度;ay(f)′m为频点f处的y方向的带标签加速度;az(f)′m为频点f处的z方向的带标签加速度;
Figure BDA0002372214410000112
为归一化后的带标签的仿真数据,即
Figure BDA0002372214410000113
其中,
Figure BDA0002372214410000114
为归一化后的带标签声压;
Figure BDA0002372214410000115
为归一化后的x方向的带标签加速度;
Figure BDA0002372214410000116
为归一化后的y方向的带标签加速度;
Figure BDA0002372214410000117
为归一化后的z方向的带标签加速度;其中,
Figure BDA0002372214410000118
统称为归一化后的带标签加速度
Figure BDA0002372214410000119
将归一化后的带标签声压p(f)′m和归一化后的带标签加速度
Figure BDA00023722144100001110
求其互谱后,再进行快拍平均:
Figure BDA00023722144100001111
其中,
Figure BDA00023722144100001112
为归一化后的带标签声压p(f)′m和归一化后的带标签加速度
Figure BDA00023722144100001113
在频点f处的互谱后的快拍平均;N为快拍数;
Figure BDA00023722144100001114
为归一化后频点f处带标签声压的第s个快拍;
Figure BDA00023722144100001115
为为归一化后频点f处带标签加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的带标签声压p(f)′m和归一化后的带标签加速度
Figure BDA0002372214410000121
互谱的实部和虚部组成一个3×2F的矩阵,形成带标签的数据;其中,F为总的频点个数;
仿真数据的标签页需要进行预处理,
Figure BDA0002372214410000122
其中,tnm为第n个采样点的预处理后的数据的标签;d′m为所有的取值角度;d′m=1°-360°,步长为1°;dnrm为真实角度;σ′m表示方位角的模糊度范围;
利用MATLAB中的trainNetwork函数作为目标函数,对深度学习神经网络模型进行训练;
在深度学习神经网络模型进行训练的过程中,输入层输入带标签的仿真数据,输出层的输出与标签之差称为衰减系数,整个训练的过程就是使该衰减系数趋于零,使深度迁移学习模型的输出与对应的标签无限接近的过程。
深度迁移学习模型和深度学习模型的主要区别在于其网络层的选择和训练上,深度学习模型是从头设计卷积神经网络的各个层,并从头训练,十分的耗费时间;而深度迁移学习模型是将已经训练好的深度学习模型的部分网络层迁移到深度迁移学习模型的网络层中,然后再根据具体的应用场景的带标签的数据训练新的深度迁移学习模型,大大缩短了训练的时间,提高了效率。
实施例1.
2018年3月份进行了单矢量水听器的被动方位估计海上实验。实验过程中将船的辐射噪声作为声源,作为声源的船只船长60米,船宽26米,声源船的航行轨迹如图3所示。矢量水听器采用锚底布放的形式,海深61米,矢量水听器的深度保持在44米,实验过程中矢量水听器的姿态如图4所示,其中图4(a)为矢量水听器的航向角随时间的变化,可以看到水平航向角有较大的起伏;图4(b)和图4(c)为横滚角和俯仰角,它们代表了矢量水听器的竖直姿态,可以看到实验过程中横滚角和俯仰角变化很小,说明水听器的垂直姿态保持良好。矢量水听器的有效工作频段为20Hz-3kHz。图5为矢量水听器接收得到的信号的时域波形,图5(a)、图5(b)、图5(c)和图5(d)分别为声压通道、x方向的加速度通道、y方向加速度通道和z方向加速度通道的时域波形,由于声源为舰船辐射噪声,所以在时域上无法观察到明显的信号特征。图6为矢量水听器接收到的信号对应时域800s处的频域波形,图6(a)、图6(b)、图6(c)和图6(d)分别为声压通道、x方向的加速度通道、y方向加速度通道和z方向加速度通道的频域波形,声压通道的频域波形符合声场的能量分布规律,即低频段能量整体上要高于高频段;但加速度通道的频域波形并不符合这个规律,这主要是由于加速度通道对不同频率信号的灵敏度响应不一样。由于实验采用船只的辐射噪声作为声源,所以其他船只的辐射噪声会有较大的影响。实验海区选在靠近三亚港口的位置,附近有非常多的船只来往,主要为渔船和货船。实验过程中的干扰来源主要为港口的噪声和其他船只的噪声。
选取已经训练好的深度学习网络的卷积层、激活函数和池化层然后加入新的全连接层组成深度迁移学习的神经网络,如图1所示,以图3中黑色航迹对应的数据作为输入数据,标签数据为实测GPS转换的方位角并且同样采用高斯分布的形式,输入数据和标签数据经过预处理后用来训练深度迁移网络。按照图2所示流程,利用训练好的迁移深度学习的模型估计得到图3中测试数据对应航迹的方位角,此时得到的结果并非最终的估计结果,因为实验过程中矢量水听器受海流影响一直在转动,其航向角一直在变化,如图4(a)所示,所以要对估计结果针对航向角的变化进行修正,图7(c)即为修正后的深度迁移学习的声源方位估计结果。图7(a)和图7(b)分别为采用传统互谱法和深度学习法估计得到的图3中测试数据对应的方位角。
采用估计准确率来衡量估计结果的精度,估计值与真实值之差小于10°的估计结果为正确的估计结果,估计正确的结果数与总的估计结果数之比为估计准确率,表示为:
Figure BDA0002372214410000131
其中NC表示估计正确的估计结果的个数,N为总的估计结果数。
图7(a)、7(b)为传统互谱法和深度学习法的方位角估计结果,其估计准确率EAccu分别为37%、46%,从图中来看,在较近距离上两种方法还能估计到目标的方位角,但是当声源距离边远时估计到的结果主要就是干扰的方位了。图7(c)为深度迁移学习法的估计结果,其估计准确率EAccu=82%,远远大于传统互谱法和深度学习法。从图中可以看到,无论声源距矢量水听器近还是远,深度迁移学习的方法都能估计得到目标声源的方位,而且具有较高的估计准确率,说明深度迁移学习的方法可以有效的提取目标声源的特征,抑制干扰,提高方位估计结果的精度,具有较高的实用价值。
在本发明中,训练神经网络的电脑为清华同方(CPU为Intel酷睿八核,[email protected])训练深度迁移学习的神经网络仅用了11分钟,而重新训练一个新的深度学习的网络则需要611分钟,说明利用深度迁移学习节省了训练的时间,提高了效率。
本发明还提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述方法。
本发明还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述方法。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (3)

1.一种基于深度迁移学习的单矢量水听器方位估计方法,其特征在于,该方法包括:
将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度迁移学习模型中;
对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;其中,所述预处理后的数据包括:带标签的数据和不带标签的数据;
将预处理后的数据中的不带标签的数据输入至训练好的当前场景的深度迁移学习模型中,获得预处理后的不带标签的数据对应的标签,作为声源的方位角,完成单矢量水听器方位估计;
所述当前场景的深度迁移学习模型为卷积神经网络,其包括:输入层、三个卷积层、四个全连接层和输出层;
所述输入层和三个卷积层为从原有的已训练好的深度学习模型中迁移过来的,即将原有的已训练好的深度学习模型中的隐知识迁移到当前场景的深度迁移学习模型中,
其中,所述三个卷积层包括:第一卷积层、第二卷积层和第三卷积层;第一卷积层包含64个卷积核,每个卷积核的大小为3×3;第二卷积层包含32个卷积核,每个卷积核的大小为3×3;第三卷积层包含32个卷积核,每个卷积核的大小为3×3;
在卷积层和全连接层之间加入了dropout层,系数为0.2;
在全连接层和输出层之间也有一个dropout层,系数为0.3;
所述四个全连接层中,每个全连接层有2048个神经元;
输出层的神经元个数为360;
采用的激活函数为线性整流函数;
所述当前场景的深度迁移学习模型的训练步骤具体包括:
将预处理后的数据中带标签的数据作为训练集,采用MATLAB中的trainNetwork函数作为目标函数,对当前场景的深度迁移学习模型进行训练;
在深度迁移学习神经网络模型进行训练的过程中,输入层输入带标签的实测数据,输出层的输出与标签之差称为衰减系数,整个训练的过程就是使该衰减系数趋于零,使深度迁移学习模型的输出与对应的标签无限接近的过程;
所述对单矢量水听器接收的实测数据进行预处理,获得预处理后的数据;具体为:
对单矢量水听器接收带标签的实测数据进行预处理过程如下:
单矢量水听器接收带标签的实测数据;其中,带标签的实测数据的频域表示为R(f)=[p(f),ax(f),ay(f),az(f)],将带标签的实测数据进行归一化处理:
Figure FDA0003902510220000021
其中,p(f)为频点f处的声压;ax(f)为频点f处的x方向的加速度;ay(f)为频点f处的y方向的加速度;az(f)为频点f处的z方向的加速度;
Figure FDA0003902510220000022
为归一化后的带标签的实测数据,即
Figure FDA0003902510220000023
其中,
Figure FDA0003902510220000024
为归一化后的声压;
Figure FDA0003902510220000025
为归一化后的x方向的加速度;
Figure FDA0003902510220000026
为归一化后的y方向的加速度;
Figure FDA0003902510220000027
为归一化后的z方向的加速度;其中,
Figure FDA0003902510220000028
统称为归一化后的加速度
Figure FDA0003902510220000029
将归一化后的声压
Figure FDA00039025102200000210
和归一化后的加速度
Figure FDA00039025102200000211
求其互谱后,再进行快拍平均:
Figure FDA00039025102200000212
其中,
Figure FDA00039025102200000213
为归一化后的声压
Figure FDA00039025102200000214
和归一化后的加速度
Figure FDA00039025102200000215
在频点f处的互谱后的快拍平均;N为快拍数;
Figure FDA00039025102200000216
为归一化后频点f处归一化后的声压的第s个快拍;
Figure FDA00039025102200000217
为归一化后频点f处归一化后的加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的声压
Figure FDA00039025102200000218
和归一化后的加速度
Figure FDA00039025102200000219
互谱的实部和虚部组成一个3×2F的矩阵,形成带标签的数据;其中,F为总的频点个数;
实测带标签数据的标签的预处理:将声源方位角的估计看作一个回归问题,带标签数据对应的标签用一个以方位角真值为中心的高斯分布来表示:
Figure FDA00039025102200000220
其中,tn为第n个采样点的预处理后的数据的标签;d为所有的取值角度;d=1°-360°,步长为1°;dnr为真实角度;σ表示方位角的模糊度范围;
对单矢量水听器接收不带标签的实测数据进行预处理过程如下:
单矢量水听器接收不带标签的实测数据,其中,不带标签的实测数据的频域表示为R(f)′=[p(f)′,ax(f)′,ay(f)′,az(f)′],将不带标签的实测数据进行归一化处理:
Figure FDA0003902510220000031
其中,p(f)′为频点f处的不带标签声压;ax(f)′为频点f处的x方向的不带标签加速度;ay(f)′为频点f处的y方向的不带标签加速度;az(f)′为频点f处的z方向的不带标签加速度;
Figure FDA0003902510220000032
为归一化后的不带标签的实测数据,即
Figure FDA0003902510220000033
其中,
Figure FDA0003902510220000034
为归一化后的不带标签声压;
Figure FDA0003902510220000035
为归一化后的x方向的不带标签加速度;
Figure FDA0003902510220000036
为归一化后的y方向的不带标签加速度;
Figure FDA0003902510220000037
为归一化后的z方向的不带标签加速度;其中,
Figure FDA0003902510220000038
统称为归一化后的不带标签加速度
Figure FDA0003902510220000039
将归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure FDA00039025102200000310
求其互谱后,再进行快拍平均:
Figure FDA00039025102200000311
其中,
Figure FDA00039025102200000312
为归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure FDA00039025102200000313
在频点f处的互谱后的快拍平均;N为快拍数;
Figure FDA00039025102200000314
为归一化后频点f处不带标签声压的第s个快拍;
Figure FDA00039025102200000315
为归一化后频点f处不带标签加速度的第s个快拍,i=x,y,z;H表示复共轭;
归一化后的不带标签声压p(f)′和归一化后的不带标签加速度
Figure FDA00039025102200000316
互谱的实部和虚部组成一个3×2F的矩阵,形成不带标签的数据;其中,F为总的频点个数;
将带标签的数据和不带标签的数据组成预处理后的数据,即获得预处理后的数据。
2.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1所述的方法。
3.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述权利要求1所述的方法。
CN202010054130.9A 2020-01-17 2020-01-17 一种基于深度迁移学习的单矢量水听器方位估计方法 Active CN113138366B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010054130.9A CN113138366B (zh) 2020-01-17 2020-01-17 一种基于深度迁移学习的单矢量水听器方位估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010054130.9A CN113138366B (zh) 2020-01-17 2020-01-17 一种基于深度迁移学习的单矢量水听器方位估计方法

Publications (2)

Publication Number Publication Date
CN113138366A CN113138366A (zh) 2021-07-20
CN113138366B true CN113138366B (zh) 2022-12-06

Family

ID=76808424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010054130.9A Active CN113138366B (zh) 2020-01-17 2020-01-17 一种基于深度迁移学习的单矢量水听器方位估计方法

Country Status (1)

Country Link
CN (1) CN113138366B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106066468A (zh) * 2016-05-25 2016-11-02 哈尔滨工程大学 一种基于声压、振速互谱法的矢量阵左右舷分辨方法
CN106650709A (zh) * 2017-01-22 2017-05-10 深圳市唯特视科技有限公司 一种基于传感器数据的深度学习脚步检测方法
CN109031200A (zh) * 2018-05-24 2018-12-18 华南理工大学 一种基于深度学习的声源空间方位检测方法
CN109086723A (zh) * 2018-08-07 2018-12-25 广东工业大学 一种基于迁移学习的人脸检测的方法、装置以及设备
CN109696657A (zh) * 2018-06-06 2019-04-30 南京信息工程大学 一种基于矢量水听器的相干声源定位方法
CN109975762A (zh) * 2017-12-28 2019-07-05 中国科学院声学研究所 一种水下声源定位方法
CN110221241A (zh) * 2019-04-29 2019-09-10 西安电子科技大学 一种基于rbf神经网络的低仰角doa估计方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106066468A (zh) * 2016-05-25 2016-11-02 哈尔滨工程大学 一种基于声压、振速互谱法的矢量阵左右舷分辨方法
CN106650709A (zh) * 2017-01-22 2017-05-10 深圳市唯特视科技有限公司 一种基于传感器数据的深度学习脚步检测方法
CN109975762A (zh) * 2017-12-28 2019-07-05 中国科学院声学研究所 一种水下声源定位方法
CN109031200A (zh) * 2018-05-24 2018-12-18 华南理工大学 一种基于深度学习的声源空间方位检测方法
CN109696657A (zh) * 2018-06-06 2019-04-30 南京信息工程大学 一种基于矢量水听器的相干声源定位方法
CN109086723A (zh) * 2018-08-07 2018-12-25 广东工业大学 一种基于迁移学习的人脸检测的方法、装置以及设备
CN110221241A (zh) * 2019-04-29 2019-09-10 西安电子科技大学 一种基于rbf神经网络的低仰角doa估计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Deep Learning for DOA Estimation Using a Vector Hydrophone;Huaigang Cao 等;《 OCEANS 2019 MTS/IEEE SEATTLE》;20191031;1-4 *
Machine and Deep Learning approaches to localization and range estimation of underwater acoustic sources;Ludwig Houégnigan 等;《 2017 IEEE/OES Acoustics in Underwater Geosciences Symposium (RIO Acoustics)》;20170727;1-6 *
单矢量水听器强干扰环境下的方位估计;曹怀刚 等;《声学技术》;20181231;第37卷(第6期);169-170 *
水声被动定位中的机器学习方法研究进展综述;牛海强 等;《信号处理》;20190930;第35卷(第9期);1450-1457 *
深海中利用卷积网络的单水听器测深方法;刘一宁;《声学技术》;20190430;第38卷(第2期);146-148 *

Also Published As

Publication number Publication date
CN113138366A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN109993280B (zh) 一种基于深度学习的水下声源定位方法
Cong et al. Robust DOA estimation method for MIMO radar via deep neural networks
CN102183749B (zh) 一种自适应雷达海上目标检测***及方法
CN106646373A (zh) 基于浅海多途到达角和到达时延的近距离声源联合定位方法
CN109655815A (zh) 基于ssd的声呐目标检测方法
CN111931820A (zh) 一种基于卷积残差网络的水中目标辐射噪声lofar谱图线谱提取方法
CN110716532A (zh) 一种基于小波包能量与fft的水下机器人推进器弱故障辨识方法
CN115659138A (zh) 一种动水干扰环境电磁法水中测量信号降噪方法
Xu et al. Underwater sonar image segmentation based on deep learning of receptive field block and search attention mechanism
CN114624646A (zh) 一种基于模型驱动复数神经网络的doa估计方法
CN113138366B (zh) 一种基于深度迁移学习的单矢量水听器方位估计方法
CN114048681A (zh) 基于自选择神经网络的doa估计方法、***、存储介质、设备
CN108983178A (zh) 一种敏捷自适应的智能雷达海上目标检测***
CN113109794B (zh) 一种强噪声环境下基于深度神经网络的深海声源定深方法
CN117451055A (zh) 一种基于基追踪降噪的水下传感器定位方法和***
CN113138365B (zh) 一种基于深度学习的单矢量水听器方位估计方法
Yao et al. Range estimation of few-shot underwater sound source in shallow water based on transfer learning and residual CNN
CN113075645B (zh) 一种基于主成分分析-密度聚类的畸变阵形线谱增强方法
Li et al. DOA estimation of underwater acoustic signals based on deep learning
CN114397637A (zh) 一种基于lstm的雷达目标极化特征提取与识别方法
CN106886627A (zh) 一种m‑uca估计m‑1个信源的建模方法
Yu et al. A lightweight ship detection method in optical remote sensing image under cloud interference
Cao et al. Deep learning for DOA estimation using a vector hydrophone
CN109100679B (zh) 基于多输出支持向量回归机的近场声源参数估计方法
CN111965601A (zh) 一种基于核极限学习机的水下声源被动定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant