CN113657416A - 一种基于改进的深度神经网络的深海声源测距方法及*** - Google Patents

一种基于改进的深度神经网络的深海声源测距方法及*** Download PDF

Info

Publication number
CN113657416A
CN113657416A CN202010396396.1A CN202010396396A CN113657416A CN 113657416 A CN113657416 A CN 113657416A CN 202010396396 A CN202010396396 A CN 202010396396A CN 113657416 A CN113657416 A CN 113657416A
Authority
CN
China
Prior art keywords
layer
neural network
distance
deep neural
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010396396.1A
Other languages
English (en)
Other versions
CN113657416B (zh
Inventor
王文博
肖旭
苏林
任群言
马力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN202010396396.1A priority Critical patent/CN113657416B/zh
Publication of CN113657416A publication Critical patent/CN113657416A/zh
Application granted granted Critical
Publication of CN113657416B publication Critical patent/CN113657416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于改进的深度神经网络的深海声源测距方法及***,用于测量垂直阵与声源的距离,所述垂直阵包括N个阵元;所述方法包括:将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。本发明的方法能实现对典型深海环境下水下声源的距离估计,可以显著提高测距精度和稳定性。

Description

一种基于改进的深度神经网络的深海声源测距方法及***
技术领域
本发明涉及水声物理领域,具体涉及一种基于改进的深度神经网络的深海声源测距方法及***。
背景技术
水声被动测距作为声纳***的一项主要功能,多年来一直是水声工作者致力于解决的问题。由于海洋是一种时变、空变的复杂声信道,传统的定位方法往往面临环境失配、计算量太大等问题。
近年来,深度学习作为基于数据驱动方式的新兴分支,以其强大的特征提取能力和处理复杂、高维、非线性等数据的独特优势,为水声被动测距提供了一种新思路。深度神经网络通过大量数据样本建立高维水声物理量之间的复杂非线性映射,避免了物理建模困难的问题,能够实现对声源位置的有效识别。
然而,目前的深度学习方法在执行测距任务时,距离估计值在估计范围内较为分散,稳定性较差。
发明内容
本发明的目的在于克服上述技术缺陷,提出一种基于改进的深度神经网络的深海声源测距方法,该方法通过高斯回归法改进神经网络输出层,由高斯标签代替传统神经网络中离散的距离标签,克服了GPS测量距离和真实距离之间的偏差对声源深度估计造成的误差,可以显著提高测距精度和稳定性,实现对典型深海环境下水下声源的距离估计。
为实现上述目的,本发明的实施例1提出了一种基于改进的深度神经网络的深海声源测距方法,用于测量垂直阵与声源的距离,所述垂直阵包括N个阵元;所述方法包括:
将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。
作为上述方法的一种改进,所述深度神经网络包括依次连接的输入层、第一卷积层、第二卷积层、第三卷积层、全连接层和输出层;在第三卷积层和全连接层之间引入系数为0.3的dropout层;在全连接层和输出层之间引入系数为0.5的dropout层;
所述输入层用于输入数据维度为2×M×N的序列;每个阵元采集的数据为离散的M个频率的复声压值;2指的是复声压值经过傅里叶变换后复频域上实部和虚部的值;
所述第一卷积层由128个大小为4×4的卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第二卷积层由大小为3×3的128个卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第三卷积层由256个大小为3×3的卷积核组成,并与标准化层相连;
所述全连接层由四层神经元组成,构成2048神经元全连接神经网络;
所述输出层为高斯回归层,其神经元的个数为L,L为离散距离点数,在接收距离范围以固定间隔Δr划分为L个等间隔的距离点,对应的距离值分别为Δr,2Δr,3Δr,…,LΔr,则输出层输出的向量包括L个距离取值的概率。
作为上述方法的一种改进,所述方法还包括:深度神经网络的训练步骤,具体包括:
构建具有高斯标签的训练集:
将环境参数输入声场计算程序KrakenC中计算频域模拟声压场数据集,与实验实测数据合并为输入数据集,然后进行频率归一化处理;
对于利用GPS计算得到的测量距离rGPS,其高斯标签LGauss表示为:
Figure BDA0002487741310000021
其中,σ表示真实距离与GPS测量距离之间的偏差,L为离散距离点数,高斯标签LGauss作为深度神经网络的预期输出;
利用训练集对深度神经网络进行训练,得到训练好的深度神经网络。
作为上述方法的一种改进,所述将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离,具体包括:
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组;
该数组中最大值对应的输出层神经元的序号为tposition
则声源距离restimate为:
restimate=tposition·Δr。
本发明的实施例2提出了一种基于改进的深度神经网络的深海声源测距***,所述***包括;包括N个阵元的垂直阵,训练好的深度神经网络,数据预处理模块和声源距离估计模块;
所述数据预处理模块,用于将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;
所述声源距离估计模块,用于将频域归一化处理后的序列输入所述训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。
作为上述***的一种改进,所述深度神经网络包括依次连接的输入层、第一卷积层、第二卷积层、第三卷积层、全连接层和输出层;在第三卷积层和全连接层之间引入系数为0.3的dropout层;在全连接层和输出层之间引入系数为0.5的dropout层;
所述输入层用于输入数据维度为2×M×N的序列;每个阵元采集的数据为离散的M个频率的复声压值;2指的是复声压值经过傅里叶变换后复频域上实部和虚部的值;
所述第一卷积层由128个大小为4×4的卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第二卷积层由大小为3×3的128个卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第三卷积层由256个大小为3×3的卷积核组成,并与标准化层相连;
所述全连接层由四层神经元组成,构成2048神经元全连接神经网络;
所述输出层为高斯回归层,其神经元的个数为L,L为离散距离点数,在接收距离范围以固定间隔Δr划分为L个等间隔的距离点,对应的距离值分别为Δr,2Δr,3Δr,…,LΔr,则输出层输出的向量包括L个距离取值的概率。
作为上述***的一种改进,所述深度神经网络的训练步骤,具体包括:
构建具有高斯标签的训练集:
将环境参数输入声场计算程序KrakenC中计算频域模拟声压场数据集,与实验实测数据合并为输入数据集,然后进行频率归一化处理;
对于利用GPS计算得到的测量距离rGPS,其高斯标签LGauss表示为:
Figure BDA0002487741310000041
其中,σ表示真实距离与GPS测量距离之间的偏差,L为离散距离点数,高斯标签LGauss作为深度神经网络的预期输出;
利用训练集对深度神经网络进行训练,得到训练好的深度神经网络。
作为上述***的一种改进,所述声源距离估计模块的具体实现过程为:
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组;
该数组中最大值对应的输出层神经元的序号为tposition
则声源距离restimate为:
restimate=tposition·Δr。
本发明的优势在于:
1、本发明的方法能实现对典型深海环境下水下声源的距离估计,可以显著提高测距精度和稳定性;
2、通过深海实验的测量数据验证了本发明的方法的有效性,相比传统深度神经网络估计方法相对误差最低;
3、本发明的改进后的神经网络估计值的波动范围小,综合提升测距性能和稳定性;基于数据建立模型,可避免对未知环境的声场理论建模,从而最大限度避免了环境失配造成的影响,提升模型泛用性;训练好的模型在预测阶段仅进行轻量级的计算,有利于实现数据的实时处理;对于已训练的模型,完成一次测距任务的时间仅为毫秒级,具有实时性。
附图说明
图1为本发明的基于改进的深度神经网络的深海声源测距方法的流程图;
图2为本发明的改进的卷积神经网络(CNN)结构示意图;
图3(a)为实验海图和声速剖面(SSP);track1代表第一条路线,track2代表第二条路线,圆圈代表VLA的位置;
图3(b)为使用CTD在现场测量的SSPs;虚线表示3个CTD测量值,实线表示3个CTD测量值的平均值;
图4为仿真声场示意图;
图5为不同CNNs数据测距误差的对比;(a)航线1的测距结果的MAPE,(c)航线1的测距结果的10%误差精度,(e)航线1的测距结果的5%误差精度;(b)航线2的测距结果的MAPE,(d)航线2的测距结果的10%误差精度,(f)航线2的测距结果的5%误差精度。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明。
实施例1
如图1所示,本发明的实施例1提出了一种基于改进的深度神经网络的深海声源测距方法,分为三个主要步骤:数据预处理和标记,生成高斯标签和训练深度神经网络,实测数据预处理和神经网络输出测试。
步骤一:对仿真、实验数据进行预处理。通过输入的环境参数到声场计算程序KrakenC中计算频域模拟声压场数据集,与实验实测数据合并为数据集,通过频率归一化处理去除声源幅度的影响。对于输入数据(包括仿真声压场数据和真实接收到的数据)均需要通过数据预处理以减弱声源强度幅度谱的影响。利用公式(1)将每个频点在所有阵元上做规范化处理:
Figure BDA0002487741310000051
步骤二:将频率归一化后的数据输入到深度卷积神经网络中进行训练。训练时采用图2中所示的CNN网络结构,由垂直阵的N个阵元测量值构成输入序列,每个阵元采集的数据为离散的M个频率值,因此输入层数据维度为2×M×N。其中2指的是复声压经过傅里叶变换后复频域上实部和虚部的数据。卷积层1由128个大小为4×4的卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;卷积层2由大小为3×3的128个卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;卷积层3由256个大小为3×3的卷积核组成,并与标准化层相连。在卷积层和全连接层之间引入系数为0.3的dropout层。由四层神经元组成的全连接层构成2048神经元全连接神经网络。在全连接层和输出层之间引入系数为0.5的dropout层。输出层为高斯回归层:首先设L为离散距离点数,接收距离范围以固定间隔Δr划分为L个等间隔的距离点,对应的距离值为
r=[Δr,2Δr,3Δr,…,LΔr],
则输出层输出的向量包括L个距离取值的概率,概率最大的对应为可能的距离值。
对于利用GPS计算得到的测量距离rGPS,其高斯标签表示为
Figure BDA0002487741310000061
其中σ表征真实距离与GPS测量距离之间的偏差,L为离散距离点数,上式所得到的高斯标签LGauss作为CNN的输出。在CNN输出的输出层神经元的大小为L×1,利用训练集数据以及高斯标签来训练CNN模型。
步骤三:网络测试。将实测得到的数据经过FFT处理得到频率数据集,然后通过频域归一化处理得到测试数据集;然后将频域归一化处理后的数据集作为测试数据集。在训练完成后,将测试集的数据输入到已训练好的CNN模型中,输出值为N×1的序列。然后,求得输出字符串中求得最大值所在的输出层神经元的位置tposition。最后,CNN模型估计的声源距离可以表示为
restimate=tposition·Δr
在某深度为2170米的海域进行了深海试验,试验设备的布放图与试验海域环境如图3(a)所示,试验中用拖曳声源模拟水下目标,发射信号具有多个窄带带宽(窄带频率为63、79、105、126、160、203、260和315Hz)并在不同的信噪比下传输,为了测试低信噪比下的测距效果,每隔10秒将信噪比依次降低0、5、10和15分贝。声纳接收设备为1条等间距的8阵元垂直阵(VLA),阵列布放在距离海床20m深处。
实验分为两条航线,如图3(a)所示。航线1的海底相对平坦,距离VLA最远。航线2的水深沿北纬线变化,其坡度约为9.65°,载有发射源的实验船相对VLA由东往西来回航行,最远距离VLA以西约8公里,距离VLA以东约12公里。
图3(b)为根据3次实测CTD(电导率、温度、深度)计算的SSPs(分别为实验船运行前、后和运行期间),实线为3次CTD测量的平均值。测量船的航速大约为4节,由于船状态的变化(转弯等)其深度在50-100米之间变化。
利用KRAKENC声场计算程序进行仿真,仿真环境如图4所示,仿真中使用的SSP是由三个实测SSP和由他们的平均值得到的SSP,用于获得平滑的声场结构。VLA的水深约为2170米,海底设置为单层海底,海底密度为1.5g/cm3,衰减系数为0.2dB/波长。由于海底声速对声场有相当大的影响,所以声场的变化范围设置为1500~1800m/s,间隔为50m/s。声源深度依次设置为20、40、60、80和100m。考虑到VLA深度的位置误差,VLA的第一个阵元设为1885、1905和1925m。水平距离间隔为0.02km,最远距离为12km。利用上述参数共生成252,000份(4SSPs*7底速*5源深度*601范围*3VLA深度)声场数据集副本。
采用图2所示CNN结构,利用拷贝场数据对3种不同类型输出层的CNNs进行训练:第1种为传统的分类型CNN,输出层将输出距离每隔0.02km划分为不同的类别进行训练;第2种为传统的回归型CNN,输出层以连续距离值的形式输出;第3种为本发明提出的高斯回归型CNN,输出层采用一维高斯函数的高斯分布,标准差为0.1,距离间距为0.02km,方法流程如图2所示。采用Adam自适应学习率优化算法对网络进行优化,共训练100个epoch,初始学习率为1e-4,正则化因子为5e-4,快速傅里叶变换(FFT)采用执时间窗长1s和步长1/4。对信号进行标准化预处理,输入到三种CNN。图3(a)中的航线1和航线2分别包含了每个SNR对应的4800和14400个数据采样点。
从图5中的实验结果对比中得出结论:高斯回归型CNN的平均相对误差和准确度表现得最好,当信噪比为0dB时,10%误差范围内的定位精度可以达到99.56%,5%误差范围内的测距精度可以达到90.14%。随着信噪比的降低,三种方法的测距精度都有所下降,但是高斯回归型CNN的退化程度要小于其他两种方法。此外,分类型CNN的平均绝对百分误差(MAPE)最大,但其精度高于回归型CNN。这是因为在分类问题中无法有效区分不同距离的输出,而回归型CNN输出的是一个连续的结果,这个距离越接近真实的距离,误差就越小。回归型CNN的MAPE较小,然而它的测距精度是最差的。这说明回归方法能充分反映深度神经网络的回归拟合能力,输出的相对平均误差很小,但相应的定位精度并不高,这可能是由于实际环境与仿真模型不匹配造成的。综合来说,将CNN的输出层设置为高斯分布回归形式,可以显著提高测距精度和稳定性。
实施例2
本发明的实施例2提出了一种基于改进的深度神经网络的深海声源测距***,所述***包括;包括N个阵元的垂直阵,训练好的深度神经网络,数据预处理模块和声源距离估计模块;
所述数据预处理模块,用于将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;
所述声源距离估计模块,用于将频域归一化处理后的序列输入所述训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (8)

1.一种基于改进的深度神经网络的深海声源测距方法,用于测量垂直阵与声源的距离,所述垂直阵包括N个阵元;所述方法包括:
将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。
2.根据权利要求1所述的基于改进的深度神经网络的深海声源测距方法,其特征在于,所述深度神经网络包括依次连接的输入层、第一卷积层、第二卷积层、第三卷积层、全连接层和输出层;在第三卷积层和全连接层之间引入系数为0.3的dropout层;在全连接层和输出层之间引入系数为0.5的dropout层;
所述输入层用于输入数据维度为2×M×N的序列;每个阵元采集的数据为离散的M个频率的复声压值;2指的是复声压值经过傅里叶变换后复频域上实部和虚部的值;
所述第一卷积层由128个大小为4×4的卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第二卷积层由大小为3×3的128个卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第三卷积层由256个大小为3×3的卷积核组成,并与标准化层相连;
所述全连接层由四层神经元组成,构成2048神经元全连接神经网络;
所述输出层为高斯回归层,其神经元的个数为L,L为离散距离点数,在接收距离范围以固定间隔Δr划分为L个等间隔的距离点,对应的距离值分别为Δr,2Δr,3Δr,…,LΔr,则输出层输出的向量包括L个距离取值的概率。
3.根据权利要求2所述的基于改进的深度神经网络的深海声源测距方法,其特征在于,所述方法还包括:深度神经网络的训练步骤,具体包括:
构建具有高斯标签的训练集:
将环境参数输入声场计算程序KrakenC中计算频域模拟声压场数据集,与实验实测数据合并为输入数据集,然后进行频率归一化处理;
对于利用GPS计算得到的测量距离rGPS,其高斯标签LGauss表示为:
Figure FDA0002487741300000021
其中,σ表示真实距离与GPS测量距离之间的偏差,L为离散距离点数,高斯标签LGauss作为深度神经网络的预期输出;
利用训练集对深度神经网络进行训练,得到训练好的深度神经网络。
4.根据权利要求3所述的基于改进的深度神经网络的深海声源测距方法,其特征在于,所述将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离,具体包括:
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组;
该数组中最大值对应的输出层神经元的序号为tposition
则声源距离restimate为:
restimate=tposition·Δr。
5.一种基于改进的深度神经网络的深海声源测距***,其特征在于,所述***包括;包括N个阵元的垂直阵,训练好的深度神经网络,数据预处理模块和声源距离估计模块;
所述数据预处理模块,用于将垂直阵的每个阵元实时测量的复声压值经过FFT处理,得到离散的M个频率值,由此构成数据维度为2×M×N的序列,对该序列进行频域归一化处理;
所述声源距离估计模块,用于将频域归一化处理后的序列输入所述训练好的深度神经网络,输出一个L×1数组,获取该数组中最大值对应的输出层神经元的序号,由此估计声源距离。
6.根据权利要求5所述的基于改进的深度神经网络的深海声源测距***,其特征在于,所述深度神经网络包括依次连接的输入层、第一卷积层、第二卷积层、第三卷积层、全连接层和输出层;在第三卷积层和全连接层之间引入系数为0.3的dropout层;在全连接层和输出层之间引入系数为0.5的dropout层;
所述输入层用于输入数据维度为2×M×N的序列;每个阵元采集的数据为离散的M个频率的复声压值;2指的是复声压值经过傅里叶变换后复频域上实部和虚部的值;
所述第一卷积层由128个大小为4×4的卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第二卷积层由大小为3×3的128个卷积核组成,然后将这些卷积核连接到标准化层和最大池化层,步长为2×2;
所述第三卷积层由256个大小为3×3的卷积核组成,并与标准化层相连;
所述全连接层由四层神经元组成,构成2048神经元全连接神经网络;
所述输出层为高斯回归层,其神经元的个数为L,L为离散距离点数,在接收距离范围以固定间隔Δr划分为L个等间隔的距离点,对应的距离值分别为Δr,2Δr,3Δr,…,LΔr,则输出层输出的向量包括L个距离取值的概率。
7.根据权利要求6所述的基于改进的深度神经网络的深海声源测距***,其特征在于,所述深度神经网络的训练步骤,具体包括:
构建具有高斯标签的训练集:
将环境参数输入声场计算程序KrakenC中计算频域模拟声压场数据集,与实验实测数据合并为输入数据集,然后进行频率归一化处理;
对于利用GPS计算得到的测量距离rGPS,其高斯标签LGauss表示为:
Figure FDA0002487741300000031
其中,σ表示真实距离与GPS测量距离之间的偏差,L为离散距离点数,高斯标签LGauss作为深度神经网络的预期输出;
利用训练集对深度神经网络进行训练,得到训练好的深度神经网络。
8.根据权利要求7所述的基于改进的深度神经网络的深海声源测距***,其特征在于,所述声源距离估计模块的具体实现过程为:
将频域归一化处理后的序列输入预先训练好的深度神经网络,输出一个L×1数组;
该数组中最大值对应的输出层神经元的序号为tposition
则声源距离restimate为:
restimate=tposition·Δr。
CN202010396396.1A 2020-05-12 2020-05-12 一种基于改进的深度神经网络的深海声源测距方法及*** Active CN113657416B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010396396.1A CN113657416B (zh) 2020-05-12 2020-05-12 一种基于改进的深度神经网络的深海声源测距方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010396396.1A CN113657416B (zh) 2020-05-12 2020-05-12 一种基于改进的深度神经网络的深海声源测距方法及***

Publications (2)

Publication Number Publication Date
CN113657416A true CN113657416A (zh) 2021-11-16
CN113657416B CN113657416B (zh) 2023-07-18

Family

ID=78488667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010396396.1A Active CN113657416B (zh) 2020-05-12 2020-05-12 一种基于改进的深度神经网络的深海声源测距方法及***

Country Status (1)

Country Link
CN (1) CN113657416B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10042038B1 (en) * 2015-09-01 2018-08-07 Digimarc Corporation Mobile devices and methods employing acoustic vector sensors
CN108647556A (zh) * 2018-03-02 2018-10-12 重庆邮电大学 基于分频和深度神经网络的声源定位方法
CN109932708A (zh) * 2019-03-25 2019-06-25 西北工业大学 一种基于干涉条纹和深度学习的水面水下分类目标的方法
CN109993280A (zh) * 2019-03-27 2019-07-09 东南大学 一种基于深度学习的水下声源定位方法
CN110824429A (zh) * 2019-10-28 2020-02-21 西北工业大学 深海环境下利用非同步垂直阵的宽带声源被动定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10042038B1 (en) * 2015-09-01 2018-08-07 Digimarc Corporation Mobile devices and methods employing acoustic vector sensors
CN108647556A (zh) * 2018-03-02 2018-10-12 重庆邮电大学 基于分频和深度神经网络的声源定位方法
CN109932708A (zh) * 2019-03-25 2019-06-25 西北工业大学 一种基于干涉条纹和深度学习的水面水下分类目标的方法
CN109993280A (zh) * 2019-03-27 2019-07-09 东南大学 一种基于深度学习的水下声源定位方法
CN110824429A (zh) * 2019-10-28 2020-02-21 西北工业大学 深海环境下利用非同步垂直阵的宽带声源被动定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WENXU LIU等: "Source localization in the deep ocean using a convolutional neural network", 《JASA》, pages 314 - 319 *
翁晋宝 等: "深海中利用单水听器的影区声源无源测距测深方法", 《声学学报》, vol. 43, no. 6, pages 905 - 914 *

Also Published As

Publication number Publication date
CN113657416B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN111639747B (zh) 一种基于bp神经网络的gnss-r海面风速反演方法及***
CN109932708B (zh) 一种基于干涉条纹和深度学习的水面水下分类目标的方法
CN111639746B (zh) 一种基于cnn神经网络的gnss-r海面风速反演方法及***
CN108960421B (zh) 改进基于bp神经网络的水面无人艇航速在线预报方法
CN112180369B (zh) 基于深度学习的一维综合孔径辐射计海面风速反演方法
CN106483516A (zh) 基于先验知识的雷达杂波空时自适应处理方法
CN104749568A (zh) 一种基于水听器阵列的浅海目标深度的分类方法
CN113486574A (zh) 基于历史数据以及机器学习的声速剖面补全方法及装置
CN113901927B (zh) 一种基于流场压力时程的水下物体外形识别方法
CN111950438B (zh) 基于深度学习的天宫二号成像高度计有效波高反演方法
CN113126099B (zh) 一种基于音频特征提取的单波束底质分类方法
CN113253248B (zh) 一种基于迁移学习的小样本垂直阵目标距离估计方法
CN109632942B (zh) 一种基于集成学习的管道缺陷尺寸的反演方法
CN113109794B (zh) 一种强噪声环境下基于深度神经网络的深海声源定深方法
CN113639805B (zh) 一种基于渠道断面流速场重建的流量测量方法
CN112100906B (zh) 数据驱动的大尺度密度建模方法、计算设备及存储介质
CN111273349B (zh) 一种用于海底浅部沉积层的横波速度提取方法及处理终端
CN111951204A (zh) 一种基于深度学习的天宫二号探测数据海面风速反演方法
CN113657416B (zh) 一种基于改进的深度神经网络的深海声源测距方法及***
CN115047408B (zh) 一种基于单层大卷积核神经网络的水下多声源定位方法
CN109188527B (zh) 滩浅海地区快速建立三维近海底速度模型的方法
CN113109795B (zh) 一种基于深度神经网络的深海直达声区目标深度估计方法
CN113570041B (zh) 一种神经网络以及利用该神经网络压制海上光纤拖缆地震数据噪声的方法
CN113221651A (zh) 利用声传播数据和无监督机器学习的海底沉积分类方法
CN115630326A (zh) 利用水听器监测海洋生态***的健康状态的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant