CN116311067A - 基于高维特征图谱的目标综合识别方法、装置及设备 - Google Patents
基于高维特征图谱的目标综合识别方法、装置及设备 Download PDFInfo
- Publication number
- CN116311067A CN116311067A CN202310288096.5A CN202310288096A CN116311067A CN 116311067 A CN116311067 A CN 116311067A CN 202310288096 A CN202310288096 A CN 202310288096A CN 116311067 A CN116311067 A CN 116311067A
- Authority
- CN
- China
- Prior art keywords
- target
- data
- dimensional
- feature
- multidimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 64
- 238000013528 artificial neural network Methods 0.000 claims abstract description 54
- 238000000605 extraction Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 54
- 230000009467 reduction Effects 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 34
- 230000010287 polarization Effects 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000001228 spectrum Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 8
- 230000003213 activating effect Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 description 15
- 238000003860 storage Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000007123 defense Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000028161 membrane depolarization Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001094 effect on targets Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000013077 target material Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明实施例提供了一种基于高维特征图谱的目标综合识别方法、装置及设备,所述方法包括:获得基于雷达传感器采集的关于目标群的观测数据;对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;处理所述多维特征数据形成目标多维特征向量;将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。基于本实施例的方法能够有效提高目标识别的准确率及效率。
Description
技术领域
本发明实施例涉及目标识别技术领域,特别涉及一种基于高维特征图谱的目标综合识别方法、装置及设备。
背景技术
随着弹道导弹目标突防手段的不断提升,反导目标识别技术成为弹道导弹防御中最为关键的技术之一,对导弹防御的成败起着决定性作用。弹道导弹目标识别正确与否关系到目标预警、精密跟踪、目标拦截、杀伤评估等各个阶段的性能,没有正确的目标识别信息,就无法给出正确的威胁评估和警报,也无法进行精密跟踪,没有对导弹目标的跟踪信息,就无法进行落点预报,也就不能实现目标的有效拦截和杀伤评估。
传统的雷达目标识别可分为以下几个阶段:信息采集、数据预处理、特征学习、分类器设计和判别输出。
信息采集阶段获取的数据分为两类:1)雷达散射截面积(Radar Cross Section,RCS)和高分辨距离像(high resolution range profile,HRRP)等一维数据;2)合成孔径雷达(synthetic aperture radar,SAR)图像和逆合成孔径雷达(inverse syntheticaperture radar,ISAR)图像等二维图像数据。
数据预处理阶段主要完成对输入数据的噪声抑制、杂波抑制和敏感性处理等操作。
特征学习阶段主要分析和提取目标雷达数据的RCS特征、宽带特征、微动特征和弹道特征等,以获得反映目标特性的形状尺寸,运动参数、极化信息、统计特征等信息。该阶段在整个识别过程中至关重要,因此众多研究者将大量时间精力投入到对目标特征提取的研究上。
分类器设计阶段主要根据特征学习阶段所提取特征的形式确定分类器的参数,常用的分类方法有Bayesian分类、支持向量机(support vector machine,SVM)和BP(BackPropagation)神经网络等方法。其中Bayesian分类方法是一种基于后验概率的分类技术,在实际应用中需要大量的数据积累,造成操作难度大;SVM方法在处理小样本、非线性高维问题上表现优异,但其对算法参数设置敏感,且处理多分类问题时性能不如神经网络方法强;BP算法通过对网络进行训练从而实现对新样本的分类识别,其不足之处是模型在训练时,采用的是采用梯度下降,需要通过多次迭代实现网络参数的更新,此外法容易陷入局部最优,对学习率等参数敏感。
传统雷达目标识别效果的优劣,取决于对目标的特征学习和分类器的选择。虽然传统的特征提取方法在一些情形下都能很好地工作,但这些算法都是浅层结构,不能更有效的表征目标。此外,这些特征都是人工设计的,需要依赖于研究者的专业知识,如果没有相关领域的充足先验知识,所提取的特征往往是不完备的。
深度学习算法通过构建一个包含多个隐藏层的神经网络,映射输入数据到各个隐藏层,从而获得输入数据的各层特征表示。因为其强大的特征表示能力,深度学习近几年在机器学习、模式识别等领域得到广泛关注和成功应用。目前应用较多的深度学习模型有:卷积神经网络(Convolutional Neural Network,CNN)、深度置信网络(Deep BeliefNetwork,DBN)和栈式自编码器(Stacked Auto-Encoder,SAE)等。这些方法已成功应用于图像处理、人脸识别、语音识别等领域。但对于雷达目标识别而言,因其数据规模很难满足模型对数据量的需求,而传统深度学习模型训练耗时比较长,难以满足实际应用的实时要求。因此有必要研究新的算法既能有效提取目标层次特征,又具有快速的学习能力。
发明内容
为了解决上述技术问题,本发明实施例提供了一种基于高维特征图谱的目标综合识别方法,包括:
获得基于雷达传感器采集的关于目标群的观测数据;
对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;
处理所述多维特征数据形成目标多维特征向量;
将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。
作为一可选实施例,所述获得基于雷达传感器采集的关于目标群的观测数据,包括:
获得基于雷达传感器采集的关于目标群的观测数据,所述观测数据包括所述目标群的飞行数据、目标进动角、进动频率。
作为一可选实施例,所述对所述观测数据进行处理,包括:
基于所述观测数据计算每个观测时刻下所述目标群的目标进动姿态角;
基于所述目标进动姿态角及观测数据计算生成所述目标群实际飞行过程中的RCS数据、HRRP数据和窄带极化数据。
作为一可选实施例,所述对处理结果进行特征提取,得到关于所述目标群的多维特征数据,包括:
确定特征提取模块中的滑动窗口和滑动步长,以截取用于对所述处理结果中不同类型的特征进行特征提取的测量序列;
确定对应不同类型特征的提取算法,结合各所述提取算法及对应的测量序列进行特征提取,得到关于所述目标群的多维特征数据。
作为一可选实施例,所述目标群具有多类型特征,不同类型特征具有对应的所述多维特征数据;所述处理所述多维特征数据形成目标多维特征向量,包括:
将所述目标群的不同类型特征对应的多维特征数据进行合并后形成所述目标多维特征向量。
作为一可选实施例,所述将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱,包括:
将所述目标多维特征向量输入自编码器,基于所述自编码器的多个中间层结构实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱。
作为一可选实施例,还包括:
基于所述目标群的多维特征图谱作为目标神经网络架构的训练数据,同时设置网络最大迭代轮数为50,网络迭代次数为30来对所述目标神经网络架构进行训练,得到用于对所述目标多维特征图谱进行分类,实现目标识别的所述目标神经网络,所述目标神经网络将输入的所述多维特征图谱进行卷积以提取特征,将提取的特征数据进行标准化处理后通过激活函数进行激活,再通过全连接层将其变成一维向量来进行分类,之后经目标函数处理得到对应每一个输入数据的概率,并基于所述概率分析得到对应的目标分类结果,所述目标函数包括softmax函数。
作为一可选实施例,还包括:
构建生成对抗网络,所述生成对抗网络包括生成器及判别器;
采用交叉训练的方式对所述生成对抗网络进行训练,以得到逼近真实目标群高维特征图谱样本分布的样本;
在基于所述目标神经网络进行小样本目标识别时,基于所述生成对抗网络生成多个逼近真实特征图谱的新多维特征图谱来对所述目标神经网络进行训练,以使训练后的所述目标神经网络能够准确进行小样本目标识别。
本发明另一实施例同时提供一种基于高维特征图谱的目标综合识别装置,包括:
获得模块,用于获得基于雷达传感器采集的关于目标群的观测数据;
第一处理模块,用于对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;
第二处理模块,用于处理所述多维特征数据形成目标多维特征向量;
第一输入模块,用于将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
第二输入模块,用于将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。
本发明另一实施例还提供一种基于高维特征图谱的目标综合识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行以实现如上文中任一项实施例所述的基于高维特征图谱的目标综合识别方法。
基于上述实施例的公开可以获知,本发明实施例具备的有益效果包括能够有效降低特征提取时出现的损失,通过使用目标神经网络对目标多维特征图谱进行识别,显著提升了目标识别精度,另外通过在小样本条件下引入生成对抗网络,以基于生成对抗网络生成逼近真实多维特征图谱的新多维特征图谱,以使目标神经网络在小样本情况下依然具有充足的训练数据进行训练,确保训练形成的目标神经网络能够准确地进行目标识别。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
附图用来提供对本申请的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请,并不构成对本申请的限制。在附图中:
图1为本发明实施例中的基于高维特征图谱的目标综合识别方法的流程图。
图2为本发明实施例中的特征提取模块的基本流程。
图3为本发明实施例中的自编码器的结构图。
图4为本发明实施例中的目标群多维特征图谱。
图5为本发明实施例中的网络识别结果的混淆矩阵。
图6为本发明实施例中的网络识别准确率曲线图。
图7为本发明实施例中的新多维特征图谱。
图8为本发明另一实施例中的对应小样本目标识别的混淆矩阵。
图9为本发明实施例中的基于高维特征图谱的目标综合识别装置的结构框图。
具体实施方式
下面,结合附图对本发明的具体实施例进行详细的描述,但不作为本发明的限定。
应理解的是,可以对此处公开的实施例做出各种修改。因此,下述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本公开的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且与上面给出的对本公开的大致描述以及下面给出的对实施例的详细描述一起用于解释本公开的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本发明的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本发明进行了描述,但本领域技术人员能够确定地实现本发明的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本公开的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本公开的具体实施例;然而,应当理解,所公开的实施例仅仅是本公开的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本公开模糊不清。因此,本文所公开的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本公开。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本公开的相同或不同实施例中的一个或多个。
下面,结合附图详细的说明本发明实施例。
如图1所示,本发明实施例中提供一种基于高维特征图谱的目标综合识别方法,包括:
S101:获得基于雷达传感器采集的关于目标群的观测数据;
S102:对观测数据进行处理,并对处理结果进行特征提取,得到关于目标群的多维特征数据;
S103:处理多维特征数据形成目标多维特征向量;
S104:将目标多维特征向量输入自编码器,以基于自编码器实现目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
S105:将目标多维特征图谱输入至目标神经网络,以基于目标神经网络对目标多维特征图谱进行分类,实现目标识别。
本实施例具备的有益效果至少包括能够有效降低特征提取时出现的损失,通过使用目标神经网络对目标多维特征图谱进行识别,显著提升了目标识别精度。
具体地,获得基于雷达传感器采集的关于目标群的观测数据,包括:
S106:获得基于雷达传感器采集的关于目标群的观测数据,观测数据包括目标群的飞行数据、目标进动角、进动频率。
对观测数据进行处理,包括:
S107:基于观测数据计算每个观测时刻下目标群的目标进动姿态角;
S108:基于目标进动姿态角及观测数据计算生成目标群实际飞行过程中的RCS数据、HRRP数据和窄带极化数据。
例如,本实施例中的目标群由四类目标构成:印度烈火、圆锥、无缝锥球体和有缝锥球体。目标飞行参数:发射点坐标(6378137,0,0);落点坐标(-926908.13,6310425.732,0.001);由西向东飞行,飞行时间共计2000s,观测间隔为0.1s。
获得四类目标的静态测量数据,方位角在0°-180°之间以0.2°为步长变化,频率在8.75GHz-10.75GHz之间以20MHz为步长变化,每一个频率、方位角对应9个数据:频率值、RCS(HH)、相位(HH)、RCS(HV)、相位(HV)、RCS(VH)、相位(VH)、RCS(VV)、相位(VV),从而得到901×909的目标静态测量数据。接着,根据目标飞行数据及目标进动角、进动频率,计算每个观测时刻的目标进动姿态角,从而根据目标静态测量数据得到目标群实际飞行过程中的RCS数据、HRRP数据和窄带极化数据。之后,可以取950s-1050s的观测数据进行仿真分析,得到RCS数据、HRRP数据和窄带极化数据的数据大小分别为1×1000、101×1000、4×1000。
具体地,RCS特征为雷达散射截面(Radar Cross Section,RCS),是一个能够反映雷达照射目标并反射电磁波的散射能力的物理量,能最直接反映目标电磁散射特性,主要受如下几个因素影响:目标(如目标物、目标群,下同)的物理尺寸及表面的材质、目标的质量、雷达设备相关参数、目标与雷达波向量的姿态夹角等。比如,目标的速度、加速度、微动参数等运动特征能够反映在RCS序列中,在RCS时间序列中提取其均值、方差、偏度系数、峰度系数等特征,就可以做雷达目标识别。其中,目标的动态RCS序列是随机变量,构成一个随机过程,可求取其统计特性,包括位置特征参数:均值、方差、中位数、众数,分布特征参数:偏度系数、幅度系数、极差、变异系数(标准差与均值之比),以及变换域特征参数,该参数具体可以为梅林(Mellin)变换的均值和方差。
HRRP特征称为高分辨一维距离像(High-Resolution Range Profile,HRRP)。一维距离像是工作在射频光学区的宽带雷达回波,经匹配滤波处理后得到的一维幅度信号,这里的“距离”在物理上是目标的各散射点在雷达视线方向上的投影,而幅度信息来自于目标各散射点回波的振幅,表征了散射点的散射强度。当雷达带宽较大时,雷达距离分辨力得到提高,一维距离像可划分为一系列短距离单元,称为高分辨一维距离像。HRRP特征不仅反映了目标表面的电磁形貌特征,也对目标姿态具有很强的敏感性,因而能够反映目标姿态,其包含了丰富的目标信息,且成像原理简单,物理意义明确,因而对目标识别具有重要作用。HRRP也会受到多种因素的影响,包括雷达频率和带宽、目标材质电磁散射性质、运动姿态等。由于一维像敏感于目标进动姿态角变化,所以特征提取需要大量的一维距离像。在一定姿态角范围内一维距离像十分相似,较大姿态角范围内一维距离像的变化也有其内在的联系。因此,只要采集足够多的一维距离像,把握其变化规律,即可利用一维距离像识别目标。
对于窄带极化特征,目标的变极化效应,也就是目标对入射电磁波极化的调制通过极化散射矩阵体现。极化散射矩阵与目标的形状、大小、材料、结构及姿态等因素有关,也与雷达频率有关,所以极化散射矩阵包含了丰富的信息。进一步地,极化散射矩阵虽然表征了目标在给定取向上的目标散射特性,但是它随目标进动姿态角的变化而变化,而且与所选的收发天线极化基有关,使用很不方便。而对雷达观察者来说,雷达极化基改变,或者目标绕视线旋转,都不增加任何新的信息。因此,存在一组与目标绕视线旋转和雷达极化基无关的极化不变量,可以消除目标三维姿态变化中的一维变化,该极化不变量称为窄带极化特征。
功率矩阵的迹为:P=Tr[G]=|Shh|2+|Svv|2+2|Shv|2
散射矩阵的行列式为:Δ=det(S)=ShhSvv-ShvSvh
去极化系数为:D=1-(abs(Shh+Svv))2/Tr(G)
具体来说,功率矩阵的迹P大致反映了目标的大小,散射矩阵的行列式Δ大致反映了目标的粗细,去极化系数D表明了目标散射中心的数目。
进一步地,本实施例中在对处理结果进行特征提取,得到关于目标群的多维特征数据时,包括:
S108:确定特征提取模块中的滑动窗口和滑动步长,以截取用于对处理结果中不同类型的特征进行特征提取的测量序列;
S107:确定对应不同类型特征的提取算法,结合各提取算法及对应的测量序列进行特征提取,得到关于目标群的多维特征数据。
本实施例中的目标群具有多类型特征,不同类型特征具有对应的多维特征数据,在处理多维特征数据形成目标多维特征向量时,包括:
S110:将目标群的不同类型特征对应的多维特征数据进行合并后形成目标多维特征向量。
例如,本实施例中是基于特征提取模块来进行特征提取的,如图2所示,其示出特征提取模块的基本流程,对于雷达来说,主要能提取的特征包括目标结构和运动特征。对每一类特征而言,又包含多个特征量,即使是同一个特征量,也会有多种提取算法。因此为了更准确地实现特征提取,特征提取模块需要***或用户先确定滑动窗口和滑动步长,据此截取出用于特征提取的具体测量序列。之后,由***或用户指定采取何种特征提取算法,并调用相关算法模块,计算出相应特征量。
具体地,实际应用时,例如可以以10s作为一个观测窗口,1s作为滑动步长,在950s-1050s观测时间内可以获得91个窗口数据,每个窗口内RCS数据、HRRP数据和窄带极化数据的数据大小分别为1×100、100×101、4×100。
其中,对于RCS序列,可以选择提取中心距、极差、均值、极值等16个特征;
对于HRRP序列,可以选择提取对称性、分散特性、散射中心数目等10个特征;
对于窄带极化序列,可以选择提取功率矩阵、散射矩阵、去极化系数3个特征。
在950s-1050s观测时刻内,对RCS数据、HRRP数据和窄带极化数据的91个观测窗口分别进行特征提取并归一化后,可得到91组1×16、100×10、100×3的特征向量,之后对得到的特征向量进行合并处理后得到91×1316的特征向量,保存合并后的特征向量为后续的自编码器进行深度特征提取做准备。
进一步地,自编码器(AE)是一种基于无监督学习的神经网络,目的在于通过不断的调整参数,重构经过维度压缩的输入样本。图3为典型的具有三层结构的自编码器。把输入层到中间层之间的映射称为编码,把中间层到输出层之间的映射称为解码,先通过编码得到压缩后的向量,再通过解码对数据进行重构。
输入层和中间层之间的连接权重及偏置分别记做W和b,输入数据x,通过编码得到压缩后的向量y,如下式:y=f(Wx+b)
将目标多维特征向量输入自编码器,以基于自编码器实现目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱,包括:
将目标多维特征向量输入自编码器,基于自编码器的多个中间层结构实现目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱。
也即,将目标的多维测量数据作为自编码器的输入,可以将自编码器中间层得到的编码作为目标的特征向量,虽然提取的是抽象特征,但是得到的特征向量能够更全面的表征原始测量数据,能更细致的对目标进行刻画。
例如,设计自编码器并进行训练10000次,其中自编码器的中间层为5层结构,中间层第3层用于特征向量输出。在本实施例中的目标群共有四类目标,在950s-1050s观测时间内每类目标的特征向量数据经自编码器提取后,可得到91张20×20的目标多维特征图谱,具体可以参考图4所示。
可选地,本实施例中的方法还包括:
S111:基于目标群的多维特征图谱作为目标神经网络架构的训练数据,同时设置网络最大迭代轮数为50,网络迭代次数为30来对目标神经网络架构进行训练,得到用于对目标多维特征图谱进行分类,实现目标识别的目标神经网络,目标神经网络将输入的目标群的多维特征图谱进行卷积以提取特征,将提取的特征进行标准化处理后通过激活函数ReLu进行激活,再通过全连接层将其变成一维向量来进行分类,之后经softmax函数得到对应每一个输入数据的概率,最后经classoutput得到对应输出,也即得到目标分类结果。具体地,本实施例中的目标神经网络架构为卷积神经网络(架构),卷积神经网络是一种受到生物视觉***启发的网络模型,属于多层感知机的变体,卷积神经网络的最主要的两个特点是:局部连接和权值共享。
本实施例中的卷积神经网络的基本结构具体如下:
卷积层,其是卷积神经网络的核心模块,主要功能是提取图像特征。卷积层是由一些可学习的卷积核(也被称作滤波器)构成的。每个卷积核的二维空间尺寸都比较小,但是在深度上与输入数据相同。在卷积操作过程中,每个卷积核在输入数据上滑动,然后计算整个卷积核与输入数据相对应位置的内积
非线性激活函数,由于输入图像与最终的输出标签之间存在着高度的非线性映射,每一个隐含层后需要加一个非线性函数,这样可以增强网络的表达能力。本实施例采用的激活函数为ReLu。
全连接层,在高维特征空间中起到分类器的作用。全连接层执行特征加权操作,将高维特征映射到样本标签空间。在全连接层中,下层神经元对上层所有神经元都是全连接的。
分类器,卷积神经网络的分类器主要由评分函数和损失函数两部分组成。评分函数是输入图像数据到类别评分的映射。
分类器的另一重要组成部分是损失函数(也被称作代价函数或目标函数),其用来衡量模型预测标签的得分与目标真实标签之间的一致性。换句话说,损失函数用具体数值量化预测标签和真实标签间的差异。当评分函数输出预测标签与真实标签之间差异越大,损失函数值也越大,反之越小。损失函数的参数优化过程可转化为一个最优化问题,通过不断地迭代更新损失函数的参数来寻找到损失函数的最小值点。
可选地,本实施例中优选采用Softmax分类器。Softmax分类器输出归一化的分类概率,输出评分值更加直观,可以从概率上加以解释。在Softmax分类器中,***函数映射的输出值s=f(xi,W,b)保持不变,但将该输出值经过一个Softmax函数处理后的结果作为最终的评分值。Softmax函数对输入值进行压缩,输出一个向量,其中每个元素值在0-1之间,且所有原始之和为1。
当构建好目标神经网络架构后,便可将经自编码器进行深度特征提取后得到的目标多维特征图谱或历史目标多维特征图谱作为目标神经网络的输入进行模型的训练。本实施例中的目标群共包含四类目标,在950s-1050s观测时间内每类目标均有91张特征图谱,则可取80%即72张作为网络训练数据,20%即19张作为网络测试数据。具体设置时,可设置网络最大迭代轮数均设置为50,网络迭代次数设置为30。
其中,在训练时,若训练数据较少,即小样本训练时,虽然可以通过改变网络迭代次数和训练轮数进行改变,但是如图5和图6所示,随着网络迭代次数和训练轮数的增加,网络识别准确率虽然有些许提高,但是由于训练数据样本过少,卷积神经网络的学习效果依然欠佳,导致对目标群的识别准确率极低,仅达到55.26%,因此如何提升在小样本的识别准确率十分关键。
故,应对小样本目标识别,本实施例中的方法还包括:
S112:构建生成对抗网络,生成对抗网络包括生成器及判别器;
S113:采用交叉训练的方式对生成对抗网络进行训练,以得到逼近真实目标群高维特征图谱样本分布的样本;
S114:在基于目标神经网络进行小样本目标识别时,基于生成对抗网络生成多个逼近真实特征图谱的新多维特征图谱来对目标神经网络进行训练,以使训练后的目标神经网络能够准确进行小样本目标识别。
具体地,针对小样本问题,本实施例以数据增强的方法扩充训练样本集,即保证了模型对目标特征的拟合能力,又能丰富样本的特征空间,防止过拟合的现象,为小样本雷达目标识别技术的研究提供了新的方向。在图像处理领域,通常通过对图像进行旋转,翻转、缩放、平移和剪裁等几何变换实现对样本的扩充,然而由于HRRP数据的姿态、平移、幅度敏感性,这种数据增强的方法容易造成HRRP特征的破坏和丢失。
生成对抗网络(Generative Adversaria Networks,GANs)作为生成式模型,能够通过训练拟合输入样本数据的分布情况,生成逼近真实样本分布的高质量新样本,可以用于小样本问题的数据增强。本实施例中的生成对抗网络由生成器和判别器两个部分组成,GAN的模型结构充分体现了二人零和博弈的思想,判别器的功能是分辨输入为真实样本的概率,而生成器的目的是生成尽可能逼近真实样本分布的样本去欺骗判别器。生成器和判别器在对抗的过程中不断地通过训练提升各自的性能,以达到纳什均衡的状态为最终目的。在这种情况下,判别器被生成样本欺骗,不再能分辨其与真实样本的区别,生成器训练完成。
在GAN模型的训练过程中,并没有设计具体的标准来评价生成样本质量的好坏,而是通过判别器对它的判定来经行评估,这样不仅避免了复杂的评价标准的判定,还能够给予生成样本一定的多样性。
实际应用时,如图7所示,本实施例中为生成对抗网络训练2000次,生成的目标群中四类目标的新多维特征图谱,与图4所示的真实特征图谱十分相似。之后将生成对抗网络根据目标真实特征图谱,训练多次所生成的新多维特征图谱,作为卷积神经网络的输入样本数据,来对目标群进行目标识别。
本实施例中生成对抗网络训练2000次,取生成的50%特征图谱,得到目标群中四类目标的各1000张特征图谱,接着取80%即800张作为网络训练数据,20%即200张作为网络测试数据。如图8所示,其为网络识别结果的混淆矩阵,对比图5可知,使用生成对抗网络可以获得更充足的样本数据,可以进一步提升卷积神经网络识别准确率,此时网络识别准确率达到90.75%,提升了35.49%。
如图9所示,本发明另一实施例同时提供一种基于高维特征图谱的目标综合识别装置100,包括:
获得模块,用于获得基于雷达传感器采集的关于目标群的观测数据;
第一处理模块,用于对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;
第二处理模块,用于处理所述多维特征数据形成目标多维特征向量;
第一输入模块,用于将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
第二输入模块,用于将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。
作为一可选实施例,所述获得基于雷达传感器采集的关于目标群的观测数据,包括:
获得基于雷达传感器采集的关于目标群的观测数据,所述观测数据包括所述目标群的飞行数据、目标进动角、进动频率。
作为一可选实施例,所述对所述观测数据进行处理,包括:
基于所述观测数据计算每个观测时刻下所述目标群的目标进动姿态角;
基于所述目标进动姿态角及观测数据计算生成所述目标群实际飞行过程中的RCS数据、HRRP数据和窄带极化数据。
作为一可选实施例,所述对处理结果进行特征提取,得到关于所述目标群的多维特征数据,包括:
确定特征提取模块中的滑动窗口和滑动步长,以截取用于对所述处理结果中不同类型的特征进行特征提取的测量序列;
确定对应不同类型特征的提取算法,结合各所述提取算法及对应的测量序列进行特征提取,得到关于所述目标群的多维特征数据。
作为一可选实施例,所述目标群具有多类型特征,不同类型特征具有对应的所述多维特征数据;所述处理所述多维特征数据形成目标多维特征向量,包括:
将所述目标群的不同类型特征对应的多维特征数据进行合并后形成所述目标多维特征向量。
作为一可选实施例,所述将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱,包括:
将所述目标多维特征向量输入自编码器,基于所述自编码器的多个中间层结构实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱。
作为一可选实施例,还包括:
基于所述目标群的多维特征图谱作为目标神经网络架构的训练数据,同时设置网络最大迭代轮数为50,网络迭代次数为30来对所述目标神经网络架构进行训练,得到用于对所述目标多维特征图谱进行分类,实现目标识别的所述目标神经网络,所述目标神经网络将输入的所述多维特征图谱进行卷积以提取特征,将提取的特征数据进行标准化处理后通过激活函数进行激活,再通过全连接层将所述特征数据变成一维向量来进行分类,之后经目标函数处理得到对应每一个输入数据的概率,并基于所述概率分析得到对应的目标分类结果,所述目标函数包括softmax函数。
作为一可选实施例,还包括:
构建生成对抗网络,所述生成对抗网络包括生成器及判别器;
采用交叉训练的方式对所述生成对抗网络进行训练,以得到逼近真实目标群高维特征图谱样本分布的样本;
在基于所述目标神经网络进行小样本目标识别时,基于所述生成对抗网络生成多个逼近真实特征图谱的新多维特征图谱来对所述目标神经网络进行训练,以使训练后的所述目标神经网络能够准确进行小样本目标识别。
本发明另一实施例同时提供一种基于高维特征图谱的目标综合识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行以实现如上文中任一项实施例所述的基于高维特征图谱的目标综合识别方法。
进一步地,本发明一实施例还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的基于高维特征图谱的目标综合识别方法。应理解,本实施例中的各个方案具有上述方法实施例中对应的技术效果,此处不再赘述。
进一步地,本发明实施例还提供了一种计算机程序产品,所述计算机程序产品被有形地存储在计算机可读介质上并且包括计算机可读指令,所述计算机可执行指令在被执行时使至少一个处理器执行诸如上文所述实施例中的基于高维特征图谱的目标综合识别方法。
需要说明的是,本申请的计算机存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读介质例如可以但不限于是电、磁、光、电磁、红外线、或半导体的***、***或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储介质(RAM)、只读存储介质(ROM)、可擦式可编程只读存储介质(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储介质(CD-ROM)、光存储介质件、磁存储介质件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、***或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输配置为由指令执行***、***或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、天线、光缆、RF等等,或者上述的任意合适的组合。
另外,本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的***。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令***的制造品,该指令***实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (10)
1.一种基于高维特征图谱的目标综合识别方法,其特征在于,包括:
获得基于雷达传感器采集的关于目标群的观测数据;
对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;
处理所述多维特征数据形成目标多维特征向量;
将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。
2.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,所述获得基于雷达传感器采集的关于目标群的观测数据,包括:
获得基于雷达传感器采集的关于目标群的观测数据,所述观测数据包括所述目标群的飞行数据、目标进动角、进动频率。
3.根据权利要求2所述的基于高维特征图谱的目标综合识别方法,其特征在于,所述对所述观测数据进行处理,包括:
基于所述观测数据计算每个观测时刻下所述目标群的目标进动姿态角;
基于所述目标进动姿态角及观测数据计算生成所述目标群实际飞行过程中的RCS数据、HRRP数据和窄带极化数据。
4.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,所述对处理结果进行特征提取,得到关于所述目标群的多维特征数据,包括:
确定特征提取模块中的滑动窗口和滑动步长,以截取用于对所述处理结果中不同类型的特征进行特征提取的测量序列;
确定对应不同类型特征的提取算法,结合各所述提取算法及对应的测量序列进行特征提取,得到关于所述目标群的多维特征数据。
5.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,所述目标群具有多类型特征,不同类型特征具有对应的所述多维特征数据;
所述处理所述多维特征数据形成目标多维特征向量,包括:
将所述目标群的不同类型特征对应的多维特征数据进行合并后形成所述目标多维特征向量。
6.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,所述将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱,包括:
将所述目标多维特征向量输入自编码器,基于所述自编码器的多个中间层结构实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱。
7.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,还包括:
基于所述目标群的多维特征图谱作为目标神经网络架构的训练数据,同时设置网络最大迭代轮数为50,网络迭代次数为30来对所述目标神经网络架构进行训练,得到用于对所述目标多维特征图谱进行分类,实现目标识别的所述目标神经网络,所述目标神经网络将输入的所述多维特征图谱进行卷积以提取特征,将提取的特征数据进行标准化处理后通过激活函数进行激活,再通过全连接层将所述特征数据变成一维向量来进行分类,之后经目标函数处理得到对应每一个输入数据的概率,并基于所述概率分析得到对应的目标分类结果,所述目标函数包括softmax函数。
8.根据权利要求1所述的基于高维特征图谱的目标综合识别方法,其特征在于,还包括:
构建生成对抗网络,所述生成对抗网络包括生成器及判别器;
采用交叉训练的方式对所述生成对抗网络进行训练,以得到逼近真实目标群高维特征图谱样本分布的样本;
在基于所述目标神经网络进行小样本目标识别时,基于所述生成对抗网络生成多个逼近真实特征图谱的新多维特征图谱来对所述目标神经网络进行训练,以使训练后的所述目标神经网络能够准确进行小样本目标识别。
9.一种基于高维特征图谱的目标综合识别装置,其特征在于,包括:
获得模块,用于获得基于雷达传感器采集的关于目标群的观测数据;
第一处理模块,用于对所述观测数据进行处理,并对处理结果进行特征提取,得到关于所述目标群的多维特征数据;
第二处理模块,用于处理所述多维特征数据形成目标多维特征向量;
第一输入模块,用于将所述目标多维特征向量输入自编码器,以基于所述自编码器实现所述目标多维特征向量的数据降维和深度特征提取,得到目标多维特征图谱;
第二输入模块,用于将所述目标多维特征图谱输入至目标神经网络,以基于所述目标神经网络对所述目标多维特征图谱进行分类,实现目标识别。
10.一种基于高维特征图谱的目标综合识别设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行以实现如权利要求1-8任一项所述的基于高维特征图谱的目标综合识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310288096.5A CN116311067A (zh) | 2023-03-22 | 2023-03-22 | 基于高维特征图谱的目标综合识别方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310288096.5A CN116311067A (zh) | 2023-03-22 | 2023-03-22 | 基于高维特征图谱的目标综合识别方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311067A true CN116311067A (zh) | 2023-06-23 |
Family
ID=86797565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310288096.5A Pending CN116311067A (zh) | 2023-03-22 | 2023-03-22 | 基于高维特征图谱的目标综合识别方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311067A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117459727A (zh) * | 2023-12-22 | 2024-01-26 | 浙江省北大信息技术高等研究院 | 一种图像处理方法、装置、***、电子设备及存储介质 |
-
2023
- 2023-03-22 CN CN202310288096.5A patent/CN116311067A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117459727A (zh) * | 2023-12-22 | 2024-01-26 | 浙江省北大信息技术高等研究院 | 一种图像处理方法、装置、***、电子设备及存储介质 |
CN117459727B (zh) * | 2023-12-22 | 2024-05-03 | 浙江省北大信息技术高等研究院 | 一种图像处理方法、装置、***、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229404B (zh) | 一种基于深度学习的雷达回波信号目标识别方法 | |
CN110334741B (zh) | 基于循环神经网络的雷达一维距离像识别方法 | |
CN107316013B (zh) | 基于nsct变换和dcnn的高光谱图像分类方法 | |
CN107728142B (zh) | 基于二维卷积网络的雷达高分辨距离像目标识别方法 | |
CN106355151B (zh) | 一种基于深度置信网络的三维sar图像目标识别方法 | |
Al Bashish et al. | A framework for detection and classification of plant leaf and stem diseases | |
CN109871902B (zh) | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 | |
CN108008385B (zh) | 基于稀疏贝叶斯学习的干扰环境isar高分辨成像方法 | |
CN109389080A (zh) | 基于半监督wgan-gp的高光谱图像分类方法 | |
CN108734171A (zh) | 一种深度协同稀疏编码网络的合成孔径雷达遥感图像海洋浮筏识别方法 | |
CN106096506A (zh) | 基于子类类间判别双字典的sar目标识别方法 | |
CN110619352A (zh) | 基于深度卷积神经网络的典型红外目标分类方法 | |
CN108256436A (zh) | 一种基于联合分类的雷达hrrp目标识别方法 | |
CN107895139A (zh) | 一种基于多特征融合的sar图像目标识别方法 | |
CN104732244A (zh) | 基于小波变换、多策略pso和svm集成的遥感图像分类方法 | |
CN110516525A (zh) | 基于gan和svm的sar图像目标识别方法 | |
Yang et al. | Multiple heterogeneous P-DCNNs ensemble with stacking algorithm: A novel recognition method of space target ISAR images under the condition of small sample set | |
CN116311067A (zh) | 基于高维特征图谱的目标综合识别方法、装置及设备 | |
Tang et al. | Target classification of ISAR images based on feature space optimisation of local non-negative matrix factorisation | |
CN110045336B (zh) | 基于卷积神经网络的雷达干扰识别方法和装置 | |
CN104021399B (zh) | 基于距离像时频图非负稀疏编码的sar目标识别方法 | |
CN117665807A (zh) | 基于毫米波多人零样本的人脸识别方法 | |
Kawaguchi et al. | Evaluation on a drone classification method using UWB radar image recognition with deep learning | |
CN116843906A (zh) | 基于拉普拉斯特征映射的目标多角度本征特征挖掘方法 | |
CN116794602A (zh) | 一种应用于干扰环境下的毫米波雷达动态手势识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |