CN113077813B - 一种基于全息谱和深度学习的舰船噪声识别方法 - Google Patents

一种基于全息谱和深度学习的舰船噪声识别方法 Download PDF

Info

Publication number
CN113077813B
CN113077813B CN202110303263.XA CN202110303263A CN113077813B CN 113077813 B CN113077813 B CN 113077813B CN 202110303263 A CN202110303263 A CN 202110303263A CN 113077813 B CN113077813 B CN 113077813B
Authority
CN
China
Prior art keywords
amplitude modulation
noise
ship
envelope
spectrogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110303263.XA
Other languages
English (en)
Other versions
CN113077813A (zh
Inventor
刘宗伟
段德鑫
吕连港
姜莹
杨春梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Institute of Oceanography MNR
Original Assignee
First Institute of Oceanography MNR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Institute of Oceanography MNR filed Critical First Institute of Oceanography MNR
Priority to CN202110303263.XA priority Critical patent/CN113077813B/zh
Publication of CN113077813A publication Critical patent/CN113077813A/zh
Application granted granted Critical
Publication of CN113077813B publication Critical patent/CN113077813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明涉及一种基于全息谱和深度学习的舰船噪声识别方法,属于信号处理领域,所述方法为首先把提取的信号进行标准化,进而使用经验模态分解方法计算得到标准化信号的幅度调制全息谱。将幅度调制全息谱图作为卷积神经网络分类模型的特征输入,训练分类模型。使用训练好的分类模型对舰船噪声进行分类识别。本发明方法运用了幅度调制全息谱图作为船舶噪声的特征,幅度调制全息谱获得了舰船噪声中的幅度调制信息,在复杂多变的海洋环境中更加稳定。

Description

一种基于全息谱和深度学习的舰船噪声识别方法
技术领域
本发明属于信号处理领域,涉及一种基于全息谱和深度学习的船舶噪声识别方法。
背景技术
海上舰船目标的准确识别对海上搜救、海域及港口监测、船舶避碰、军事侦查和海洋资源开发等具有重要的现实意义。目前,光学、电磁和辐射噪声等是舰船识别中常用到的特征。
舰船航行过程中产生的辐射噪声以声波的形式向四周传播。声波的传播受到海水、海面和海底的影响,是一个复杂的物理过程。其复杂性表现在两个方面:一个是海洋声信道的频散特性,会对声信号产生调制作用;另一个是海洋、内波和锋面等物理海洋动态现象导致的声传播损失不确定性。这给舰船辐射噪声识别方法带来困难。
目前舰船辐射噪声识别包括时域和频域的特征。概率密度函数方法和过零率方法等属于时域方法。频域方法包括频谱图、高阶统计量和时频图等。这些时域和频域的方法对于海洋声信道的调制作用考虑的较少,有可能导致识别结果不稳定:船舶在不同的海域或者不同的距离上时,识别误差较大。为了克服上述困难,人们提出了更加稳定的调制谱方法。该方法基于螺旋桨旋转对空化噪声的调制作用机理,可以解算得到螺旋桨叶片数目和转速等信息,是辐射噪声中比较稳定的特征。但是,调制谱方法中,被调制的噪声可能出现在不同的频段,导致调制谱方法很难完全匹配真实的空化噪声频段,影响了识别效果。
发明内容
为克服现有方法的存在问题,本发明提出了一种基于全息谱和深度学习的船舶噪声识别方法。该方法使用全息谱方法获得船舶噪声的全息谱图,使用深度学习方法实现对全息谱图的自动识别。
本发明解决其技术问题所采用的方法包括以下步骤:
一种基于全息谱和深度学习的船舶噪声识别方法,所述方法的步骤如下:
第一步,提取总长度为T的一段噪声信号s,执行标准化操作得到标准化的噪声信号st;标准化操作的步骤为首先统一采样频率,通过升采样或者降采样将不同数据样本的采样频率统一为FSstd,其中FSstd应大于20kHz;然后去掉噪声信号的直流分量:st1=s-mean(s),其中mean()表示取均值操作;最后将噪声信号的功率归一化:st=st1/std(st1),其中std()表示取标准差操作;
第二步,计算噪声信号的全息谱图;首先对标准化的噪声信号st进行模态分解,模态分解后,表示为:
Figure BDA0002987109860000021
其中,N为模态个数,ci(t)是本征模态函数(IMF)分量;
然后对每一个本征模态函数,求得其包络:
ENEi=envelope(ci(t)) (2)
其中,envelope()为取包络操作,对每一个本征模态函数包络继续进行模态分解,得到
Figure BDA0002987109860000022
其中,c2ij(t)为本征模态函数包络ENEi的本征模态;
最后,对ci(t)和c2ij(t)进行瞬时频率分析,栅格化能量操作,得到噪声信号的幅度调制全息谱图;
第三步,将幅度调制全息谱图作为分类模型的特征输入,训练分类模型;其中分类模型采用基于深度学习的神经网络模型,具体为卷积神经网络(convolution neuralnetwork,CNN)模型,将幅度调制全息谱图分为训练集样本和验证集样本,使用训练集对CNN模型进行训练,使用验证集对网络模型进行调参,得到训练好的CNN模型;
第四步,使用训练好的分类模型对舰船噪声进行分类识别;将舰船噪声按照步骤一和步骤二进行处理得到幅度调制全息谱图,输入到训练好的CNN模型中,CNN模型给出对应的舰船分类。
进一步,所述模态分解的方法包括:经验模态分解法(EMD),集合经模态分解法(EEMD),或者自适应性二进位遮罩经验模态分解法(CADM-EMD)。
本发明与现有技术相比的有益效果是:
本发明方法运用了幅度调制全息谱图作为船舶噪声的特征,幅度调制全息谱获得了舰船噪声中的幅度调制信息,在复杂多变的海洋环境中更加稳定。CNN 模型被证明在图片识别上具有强大的能力。幅度调制全息谱图结合CNN模型,最终可以实现对舰船噪声的准确稳定识别。
附图说明
图1是本发明方法的处理步骤;
图2是船舶信号的时域波形和频谱图;
图3是船舶信号分解得到的本征模态函数;其中a是信号的时域波形,b是信号频谱图;
图4是两艘船舶信号的幅度调制全息谱图;其中a是信号分解得到的本征模态,b是第一个本征模态包络分解后的本征模态。
图5是卷积神经网络模型结构图;
图6是训练集和验证集准确率和损失随着训练轮数变化情况图。
具体实施方式
下面通过实施例来对本发明的技术方案做进一步解释,但本发明的保护范围不受实施例任何形式上的限制。
实施例1
用于采集舰船噪声的水听器一般以潜标的形式布放于海水中,一些以自容方式工作,一些通过电缆、水声或者无线电等方式将采集数据回传到岸基运算中心。在岸基运算中心有处理平台可以实现舰船噪声信号的分析和处理等。布放的时候应考虑平台的振动和噪声对水听器的影响。一般情况下平台应当开展减振降噪工作,包括主浮体流线型设计、转环和卸扣连接处使用橡胶隔振等。此外,水听器与平台之间一般通过弹簧或者弹力线相连,隔离平台振动。另外一种布放方式为水面舰船或者潜艇,此时水听器收听到的舰船噪声一般会在当地处理。
这里处理5艘船舶的噪声信号,船舶名称以及长度和采样率信息见下表1。把这些信号进行分帧,每一帧的长度为10秒,帧与帧之间重合9秒,这样对于这5艘船舶,我们分别得到了123、170、215、402和675帧。对于这些数据,本实施例的处理步骤(见图1)如下:
表1
舰船名 长度(秒) 采样率(Hz)
A 132 44100
B 179 44100
C 224 44100
D 441 44100
E 684 44100
第一步标准化操作。将总长度为10秒的一帧噪声信号s,执行标准化操作得到标准化的噪声信号st。由于采样率已经一致,故不再需要统一采样率工作。然后去掉噪声信号的直流分量:st1=s-mean(s),其中mean()表示取均值操作;最后将噪声信号的功率归一化:st=st1/std(st1),其中std()表示取标准差操作;
经过标准化后,A船信号的时域波形如图2左图所示,图2右图为A船信号频谱图。
第二步,计算信号的全息谱图。首先对信号st进行模态分解,模态分解的方法包括:经验模态分解法(EMD),集合经模态分解法(EEMD),或者自适应性二进位遮罩经验模态分解法(CADM-EMD)。模态分解后,这里使用EEMD 对这些舰船信号进行分解。模态分解后,信号可以表示为:
Figure BDA0002987109860000051
其中,ci(t) 是本征模态函数(IMF)分量。得到的分解后的A舰船信号如图3a所示。然后对每一个本征模态函数,求得其包络:ENEi=envelope(ci(t)),其中,envelope()为取包络操作。对每一个本征模态函数包络继续进行模态分解。得到
Figure BDA0002987109860000052
其中,c2ij(t)为本征模态函数包络ENEi的本征模态,第一个本征模态包络分解后的信号形式如图3b所示。最后,对ci(t)和c2ij(t)进行瞬时频率分析,栅格化能量操作,得到A舰船信号的幅度调制全息谱图。见图4。
第三步,将幅度调制全息谱图作为分类模型的特征输入,训练分类模型。其中分类模型采用基于深度学习的神经网络模型,具体为卷积神经网络 (convolution neuralnetwork,CNN)模型。卷积神经网络共有6层:三层卷积层,两层全连接层与一层softmax分类层。第一层卷积层有32个3×3卷积核,其后为一层2×2最大池化层。第二层卷积层有8个3×3卷积核,其后为一层2×2 最大池化层。第三层卷积层的结构与第二层完全相同,其中A舰船信号卷积神经网络见图5。所有卷积层的步长均为1,每一层卷积层均使用tanh激活函数进行激活。将幅度调制全息谱图分为训练集样本和验证集样本,使用训练集对CNN 模型进行训练,使用验证集对网络模型进行调参,得到训练好的CNN模型。
第四步,使用训练好的分类模型对舰船噪声进行分类识别。将舰船噪声按照步骤一和步骤二进行处理得到幅度调制全息谱图,输入到训练好的CNN模型中,CNN模型给出对应的舰船分类。在验证集上得到识别的准确率为99%。对比调制谱方法在同样的条件下识别准确率是90.8%[见参考文献Liu,Zongwei,et al."DEMON Spectrum ExtractionMethod Using Empirical Mode Decomposition." OCEANS-MTS/IEEE Kobe Techno-Oceans(OTO).IEEE,2018.],有了较大幅度的提高。图6所示为训练过程中训练集和验证集准确率和损失随着训练轮数变化情况。

Claims (2)

1.一种基于全息谱和深度学习的船舶噪声识别方法,其特征在于所述方法的步骤如下:
第一步,提取总长度为T的一段噪声信号s,执行标准化操作得到标准化的噪声信号st;标准化操作的步骤为首先统一采样频率,通过升采样或者降采样将不同数据样本的采样频率统一为FSstd,其中FSstd应大于20kHz;然后去掉噪声信号的直流分量:st1=s-mean(s),其中mean()表示取均值操作;最后将噪声信号的功率归一化:st=st1/std(st1),其中std()表示取标准差操作;
第二步,计算噪声信号的全息谱图;首先对标准化的噪声信号st进行模态分解,模态分解后,表示为:
Figure FDA0003395141360000011
其中,N为模态个数,ci(t)是本征模态函数分量;
然后对每一个本征模态函数,求得其包络:
ENEi=envelope(ci(t)) (2)
其中,envelope()为取包络操作,对每一个本征模态函数包络继续进行模态分解,得到
Figure FDA0003395141360000012
其中,c2ij(t)为本征模态函数包络ENEi的本征模态;
最后,对ci(t)和c2ij(t)进行瞬时频率分析,栅格化能量操作,得到噪声信号的幅度调制全息谱图;
第三步,将幅度调制全息谱图作为分类模型的特征输入,训练分类模型;其中分类模型采用基于深度学习的神经网络模型,具体为卷积神经网络模型,也即CNN模型,将幅度调制全息谱图分为训练集样本和验证集样本,使用训练集对CNN模型进行训练,使用验证集对网络模型进行调参,得到训练好的CNN模型;
第四步,使用训练好的分类模型对舰船噪声进行分类识别;将舰船噪声按照步骤一和步骤二进行处理得到幅度调制全息谱图,输入到训练好的CNN模型中,CNN模型给出对应的舰船噪声分类。
2.根据权利要求1所述的方法,其特征在碍于所述模态分解的方法包括:经验模态分解法,集合经模态分解法,或者自适应性二进位遮罩经验模态分解法。
CN202110303263.XA 2021-03-22 2021-03-22 一种基于全息谱和深度学习的舰船噪声识别方法 Active CN113077813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110303263.XA CN113077813B (zh) 2021-03-22 2021-03-22 一种基于全息谱和深度学习的舰船噪声识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110303263.XA CN113077813B (zh) 2021-03-22 2021-03-22 一种基于全息谱和深度学习的舰船噪声识别方法

Publications (2)

Publication Number Publication Date
CN113077813A CN113077813A (zh) 2021-07-06
CN113077813B true CN113077813B (zh) 2022-03-01

Family

ID=76613932

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110303263.XA Active CN113077813B (zh) 2021-03-22 2021-03-22 一种基于全息谱和深度学习的舰船噪声识别方法

Country Status (1)

Country Link
CN (1) CN113077813B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114636995A (zh) * 2022-03-16 2022-06-17 中国水产科学研究院珠江水产研究所 一种基于深度学习的水声信号检测方法及***
CN114462457B (zh) * 2022-04-11 2022-07-08 自然资源部第一海洋研究所 基于本征概率密度函数的舰船水下噪声深度学习识别方法
CN114462458B (zh) * 2022-04-11 2022-07-08 自然资源部第一海洋研究所 一种舰船水下信号降噪及目标增强方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104407507A (zh) * 2014-09-18 2015-03-11 河北工程大学 一种基于Hilbert变换的数字全息高精度位相重建方法
CN108694346A (zh) * 2017-04-05 2018-10-23 中国科学院声学研究所 一种基于两级cnn的船舶辐射噪声信号识别方法
CN110006650A (zh) * 2019-03-18 2019-07-12 华中科技大学 一种基于栈式剪枝稀疏去噪自动编码器的故障诊断方法
CN111488801A (zh) * 2020-03-16 2020-08-04 天津大学 基于振动噪声识别的船舶分类方法
CN112183280A (zh) * 2020-09-21 2021-01-05 西安交通大学 基于emd和压缩感知的水声目标辐射噪声分类方法及***
CN112183550A (zh) * 2020-09-09 2021-01-05 上海鹰觉科技有限公司 基于深度学习的船舶分类识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657955B2 (en) * 2017-02-24 2020-05-19 Baidu Usa Llc Systems and methods for principled bias reduction in production speech models
CN109754581A (zh) * 2019-01-15 2019-05-14 深圳市宇航智造技术有限公司 机房设备预警方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104407507A (zh) * 2014-09-18 2015-03-11 河北工程大学 一种基于Hilbert变换的数字全息高精度位相重建方法
CN108694346A (zh) * 2017-04-05 2018-10-23 中国科学院声学研究所 一种基于两级cnn的船舶辐射噪声信号识别方法
CN110006650A (zh) * 2019-03-18 2019-07-12 华中科技大学 一种基于栈式剪枝稀疏去噪自动编码器的故障诊断方法
CN111488801A (zh) * 2020-03-16 2020-08-04 天津大学 基于振动噪声识别的船舶分类方法
CN112183550A (zh) * 2020-09-09 2021-01-05 上海鹰觉科技有限公司 基于深度学习的船舶分类识别方法
CN112183280A (zh) * 2020-09-21 2021-01-05 西安交通大学 基于emd和压缩感知的水声目标辐射噪声分类方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DEMON Spectrum Extraction Method Using Empirical Mode Decomposition;Zongwei Liu et al.;《2018 OCEANS - MTS/IEEE Kobe Techno-Oceans (OTO)》;20181206;第1-5页 *

Also Published As

Publication number Publication date
CN113077813A (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
CN113077813B (zh) 一种基于全息谱和深度学习的舰船噪声识别方法
CN109800700B (zh) 一种基于深度学习的水下声信号目标分类识别方法
Luo et al. An underwater acoustic target recognition method based on combined feature with automatic coding and reconstruction
Wang et al. ia-PNCC: Noise Processing Method for Underwater Target Recognition Convolutional Neural Network.
Yang et al. A new cooperative deep learning method for underwater acoustic target recognition
CN104732970A (zh) 一种基于综合特征的舰船辐射噪声识别方法
CN113567969B (zh) 一种基于水下声信号的非法采砂船自动监控方法及***
CN116740387A (zh) 基于连续小波变换及改进残差神经网络的水下噪声识别方法
CN113049080A (zh) 一种舰船辐射噪声的gdwc听觉特征提取方法
Mouy et al. Automatic recognition of fin and blue whale calls for real-time monitoring in the St. Lawrence
Lu et al. Fundamental frequency detection of underwater acoustic target using DEMON spectrum and CNN network
CN112183582A (zh) 一种多特征融合的水下目标识别方法
Park et al. A fast and accurate convolutional neural network for LPI radar waveform recognition
Feroze et al. Classification of underwater acoustic signals using multi-classifiers
Vahidpour et al. An automated approach to passive sonar classification using binary image features
CN116417011A (zh) 基于特征融合和残差cnn的水声目标识别方法
CN113109794A (zh) 一种强噪声环境下基于深度神经网络的深海声源定深方法
CN115561739A (zh) 一种基于WaveGAN的水声信号仿冒方法
CN114462457B (zh) 基于本征概率密度函数的舰船水下噪声深度学习识别方法
Sadeghi et al. A new database for underwater sound recognition using a nonlinear support vector machine
Mohammed et al. A GTCC‐Based Underwater HMM Target Classifier with Fading Channel Compensation
Karakos et al. Applying speech technology to the ship-type classification problem
Xie et al. DBM-based underwater acoustic source recognition
Song et al. Underwater acoustic signal noise reduction based on fully convolutional time domain separation network
Hummel et al. A survey on machine learning in ship radiated noise

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant