CN113359135B - 一种成像及识别模型的训练方法、应用方法、装置及介质 - Google Patents
一种成像及识别模型的训练方法、应用方法、装置及介质 Download PDFInfo
- Publication number
- CN113359135B CN113359135B CN202110766344.3A CN202110766344A CN113359135B CN 113359135 B CN113359135 B CN 113359135B CN 202110766344 A CN202110766344 A CN 202110766344A CN 113359135 B CN113359135 B CN 113359135B
- Authority
- CN
- China
- Prior art keywords
- imaging
- model
- training
- target
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 297
- 238000012549 training Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000002372 labelling Methods 0.000 claims abstract description 23
- 230000009466 transformation Effects 0.000 claims description 61
- 238000011176 pooling Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 description 40
- 238000004422 calculation algorithm Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 27
- 239000011159 matrix material Substances 0.000 description 21
- 238000005070 sampling Methods 0.000 description 18
- 238000002474 experimental method Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000012546 transfer Methods 0.000 description 8
- 230000008602 contraction Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种成像及识别模型的训练方法、应用方法、装置及介质,该方法包括:获取用于训练成像及识别模型的标注数据,其中,所述标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注;根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,其中,所述成像及识别模型的输入是所述目标回波信号,输出是对所述目标回波信号预测的分类结果,所述损失函数是用所述预测的分类结果和标注的分类结果表征的,本申请实施例使成像模块可以生成对于识别过程最佳的目标图像,从而可以最大限度的提高分类精度。
Description
技术领域
本申请实施例涉及回波成像识别领域,具体涉及一种成像及识别模型的训练方法、应用方法、装置及介质。
背景技术
相关技术中,通常在合成孔径雷达(Synthetic Aperture Radar,SAR)/逆合成孔径雷达(Inverse-Synthetic-Aperture-Radar,ISAR)自动目标识别中,通常将成像模型与识别模型分别训练且为各自设置独立的损失函数,因此导致根据训练好的成像模型中获得的目标图像通常具有较好的稀疏性能,但是具有较好稀疏性能的目标图像,对于后续在识别模型进行分类的过程中会导致识别准确率下降,并且在传统的成像算法中,需要大量迭代才能得到稀疏解,同时也影响识别分类效果。
因此,如何根据目标回波信号获取更加有利于分类的目标图像成了亟待解决的问题。
发明内容
本申请实施例提供一种成像及识别模型的训练方法、应用方法、装置及介质,通过本申请的一些实施例至少能够使成像模块可以生成对于识别过程最佳的目标图像,从而可以最大限度的提高分类精度。
第一方面,本申请实施例提供一种成像及识别模型的训练方法,所述训练方法包括:获取用于训练成像及识别模型的标注数据,其中,所述标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注得到的;根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,其中,所述成像及识别模型的输入是所述目标回波信号,输出是对所述目标回波信号预测的分类结果,所述损失函数是对输入的所述目标回波信号的预测的分类结果和标注分类结果表征的。
因此,本申请实施方式中的损失函数是通过对输入的目标回波数据的预测分类结果和标注分类结果来表征的,而不是采用相关技术的用对目标回波信号的预测成像结果来评价成像模型是否训练结束,训练包含有成像模型和识别模型的成像及识别模型,能够使成像模块可以生成对于识别过程最佳的目标图像,从而可以最大限度的提高分类精度。
结合第一方面,在一种实施方式中,所述成像及识别模型包括成像模型和识别模型;所述根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,包括:通过多次迭代的方式对待训练的成像模型进行训练,获得所述成像模型对应的目标参数的值,完成对所述成像模型的初步训练,得到初始成像模型,其中,目标参数的类型至少包括:步长和软阈值;将所述初始成像模型输出的成像结果和所述损失函数对所述成像及识别模型进行训练,获得所述目标成像及识别模型。
因此,区别于传统手工设置参数的稀疏恢复(Sparse Recovery,SR)算法,本申请实施方式中通过训练得到成像模型对应的目标参数值,确定成像模型,使成像模型能够生成有利于识别分类的最佳目标图像,从而能够依据目标参数值获得分类准确率较高的成像及识别模型。
结合第一方面,在一种实施方式中,所述成像模型包括:初级图像生成模块和目标图像生成模块;其中,所述通过多次迭代的方式对所述待训练的成像模型进行训练,获得所述成像模型对应的目标参数值,包括:在第k次迭代中,将所述目标回波信号输入到所述初级图像生成模块,获得第k初级图像,其中,k为大于或等于1的整数;根据所述目标图像生成模块对所述第k初级图像进行稀疏域变换,获得第k目标图像;重复上述步骤,直至满足第一终止条件或者达到设定的循环次数,获得所述成像模型对应的目标参数值。
因此,本申请实施例通过将初级图像生成模块生成的初级图像输入到目标图像生成模块中进行训练,以实现稀疏域的变换和反变换,至少能够解决相关技术中使用正交矩阵进行稀疏域变换,而导致的效果不佳的问题,同时,在训练过程中可以,提升成像模型生成目标图像的准确性和可识别性。
结合第一方面,在一种实施方式中,所述目标图像生成模块包括:变换模块和反变换模块;所述变换模块依次包括:输入层、第一卷积层、第一线性整流层、第一池化层、第二卷积层和输出层;所述反变换模块依次包括:输入层、第三卷积层、第二线性整流层、第二池化层、第四卷积层和输出层。
因此,本申请实施例通过训练变换模块,能够获得结构较为灵活的参数(相关技术中,只通过二维正交矩阵进行稀疏域的变换);通过训练反变换模块,能够使稀疏域中的初级图像反变换到图像域,从而生成可识别性高的目标图像。
结合第一方面,在一种实施方式中,所述通过多次迭代的方式对所述待训练的成像模型进行训练,获得所述成像模型对应的目标参数值之前,所述方法还包括:根据成像结果标注数据对待预训练的成像模型进行预训练,获得第i预训练结果,i为大于或等于1的整数;重复上述步骤,当确认所述第i预训练结果满足第二终止条件,获得所述待训练的成像模型。
结合第一方面,在一种实施方式中,所述当确认所述第i预训练结果满足第二终止条件,包括:根据成像损失函数确定满足所述第二终止条件,其中,所述成像损失函数用于衡量预测图像和标准图像之间的差异。
因此,本申请实施例通过在对待训练的成像及识别模型进行训练之前,对待预训练的成像模型进行预训练,能够为待训练的成像模型获得较为优质的初始参数,从而在对待训练的成像及识别模型进行训练的过程中,减少迭代次数,提高精度和训练效率。
第二方面,本申请实施例提供一种成像及识别的应用方法,所述方法包括:获取雷达采集的目标回波信号;将所述目标回波信号输入到如第一方面及其实施方式中任一项所述的训练方法得到的成像及识别模型中,获得成像结果和/或分类结果。
第三方面,本申请实施例提供一种成像识别模型的训练装置,所述训练装置包括:数据获取模块,被配置为获取用于训练成像及识别模型的标注数据,其中,所述标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注;模型训练模块,被配置为根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得成像及识别模型,其中,所述成像及识别模型的输入是所述目标回波信号,输出是对所述目标回波信号预测的分类结果,所述损失函数是用所述预测的分类结果和标注的分类结果表征的。
结合第三方面,在一种实施方式中,所述成像及识别模型包括成像模型和识别模型;所述模型训练模块还被配置为:通过多次迭代的方式对待训练的成像模型进行训练,获得所述成像模型对应的目标参数值,其中,目标参数的类型至少包括:步长和软阈值;根据所述目标参数值和所述损失函数,获得所述成像及识别模型。
结合第三方面,在一种实施方式中,所述成像模型包括:初级图像生成模块和目标图像生成模块;其中,所述模型训练模块还被配置为:在第k次迭代中,将所述目标回波信号输入到所述初级图像生成模块,获得第k初级图像,其中,k为大于或等于1的整数;根据所述目标图像生成模块对所述第k初级图像进行稀疏域变换,获得第k目标图像;重复上述步骤,直至满足第一终止条件或者达到设定的循环次数,获得所述成像模型对应的目标参数值。
结合第三方面,在一种实施方式中,所述目标图像生成模块包括:变换模块和反变换模块;所述变换模块依次包括:输入层、第一卷积层、第一线性整流层、第一池化层、第二卷积层和输出层;所述反变换模块依次包括:输入层、第三卷积层、第二线性整流层、第二池化层、第四卷积层和输出层。
结合第三方面,在一种实施方式中,所述模型训练模块还被配置为:根据成像结果标注数据对待预训练的成像模型进行预训练,获得第i预训练结果,i为大于或等于1的整数;重复上述步骤,当确认所述第i预训练结果满足第二终止条件,获得所述待训练的成像模型。
结合第三方面,在一种实施方式中,所述模型训练模块还被配置为:根据成像损失函数确定满足所述第二终止条件,其中,所述成像损失函数用于衡量预测图像和标准图像之间的差异。
第四方面,本申请实施例提供一种电子设备,包括:处理器、存储器和总线;所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现如第一方面和第二方面任一项所述方法。
第五方面,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被执行时实现第一方面和第二方面任一项所述方法。
第六方面,本申请实施例提供一种***,所述***包括一个或多个计算机和存储指令的一个或多个存储设备,当所述指令由所述一个或多个计算机执行时,使得所述一个或多个计算机执行根据第一方面中任一项所述的相应方法的操作。
第七方面,本申请实施例提供一种存储指令的一个或多个计算机存储介质,当所述指令由一个或多个计算机执行时,使得所述一个或多个计算机执行根据第一方面中任一项所述的相应方法的操作。
附图说明
图1为本申请实施例示出的一种成像及识别模型的应用***;
图2为本申请实施例示出的变换模块的网络结构;
图3为本申请实施例示出的反变换模块的网络结构;
图4为本申请实施例示出的识别模型的网络结构;
图5为本申请实施例示出的一种成像及识别模型的训练方法流程;
图6为本申请实施例示出的一种成像及识别模型的训练具体实施例;
图7为本申请实施例示出的一种成像及识别模型的应用过程;
图8为本申请实施例示出的一种成像及识别模型的训练装置;
图9为本申请实施例示出的一种电子设备。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对附图中提供的本申请的实施例的详情描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护范围。
下面结合附图详细描述本申请实施例中的方法步骤。
本申请实施例可以应用于多种目标回波信号成像及识别的场景中。例如,如图1所示,在一个场景中,飞机120设置了雷达和目标成像及识别模型,其中,雷达对地面上的物体进行探测获取雷达采集的目标回波信号110,之后目标成像及识别模型会根据雷达采集的目标回波数据进行目标识别输出识别结果。可以理解的是,在另一些实施例中也可以同时输出成像结果和分类结果130。
下面以飞机识别地面物体为例,示例性的阐述相关技术中存在的问题。相关技术中,通常将对飞机雷达采集的目标回波信号的成像模块与识别模块分别训练,导致成像模块中获得的目标图像通常具有较好的稀疏性能,但是具有较好稀疏性能的目标图像,对于后续在识别分类的过程中会导致识别准确率下降,并且在传统的成像算法中,使用二维正交矩阵进行稀疏域变换,导致成像效果不佳。
至少为了解决上述问题,本申请一些实施例通过改进评价训练是否可以结束的损失函数来达到提升模型识别效果的目的。例如,在本申请的一些实施例中损失函数是对输入目标回波数据的预测分类结果和标注分类结果表征的。通过本申请的损失函数对待训练的成像及识别模型进行训练的方法,解决了识别准确率下降的问题。本申请一些实施例还提供了将初级图像输入到目标图像生成模块中进行训练,以获得结构较为灵活的参数,从而实现稀疏域的变换和反变换,解决了相关技术中,由于使用二维正交矩阵进行稀疏域变换,导致成像效果不佳的问题。
下文将示例性的阐述相关技术中对于目标回波信号进行成像的过程。
相关技术中,根据距离-多普勒算法(Range-Doppler Algorithm,RDA),在对目标回波信号进行运动补偿完成后,对目标回波信号在频率和方位角上进行二维傅里叶变换,可得到目标图像,这个过程表示为如公式(1)所示:
其中,E表示全采样目标回波信号,X表示目标图像,和N表示接收噪声。F1,F2是归一化傅里叶矩阵。
考虑稀疏采样情况,只对全采样目标回波信号的部分频率和方位角进行采样,获得目标回波信号,目标回波信号可以表示为,如公式(2)所示:
其中,Y表示目标回波信号,E表示全采样目标回波信号,Φ1,Φ2分别是频率稀疏采样矩阵和角度稀疏采样矩阵,N′表示采样后的噪声矩阵,X表示目标图像,Ψ1=Φ1F1,Ψ2=Φ2F2。
如果目标图像X足够稀疏,可以通过求解公式(3)从目标回波信号中恢复X:
其中,||·||F是矩阵Frobenius范数,λ是正则化参数,||·||1表示矩阵元素的绝对值之和。公式(3)可以使用各种SR算法来解决,这些算法通常需要大量的迭代。假设SR(k)表示第k次迭代中的操作,则第k次迭代的输出表示为:
X(k)=SR(k)(X(k-1)|Y,Ψ1,Ψ2,λ) (4)
其中,K表示最大迭代次数,K为大于或等于1的整数。
同时,相关技术中为了满足复杂场景的成像,通常将通过公式(3)得到的目标图像变换到另一个具有稀疏性的域中,定义两个正交矩阵ω1和ω2作为图像变换矩阵的参数,同理上述公式(3)可以通过公式(5)求解目标图像:
但选择合适的变换矩阵对目标回波信号成像来说是一个挑战。相关技术中,通常使用离散小波变换(DWT)进行图像域和稀疏域的变换,但离散小波变换是一种常用于自然图像的稀疏变换,在雷达采集的目标回波信号成像中效果并不理想。
结合上述对相关技术的描述可知,一方面由于相关技术的成像模型与识别模型分别训练,导致的识别准确率下降,另一方面由于相关技术使用二维正交矩阵进行稀疏域变换,导致成像效果不佳的问题。
为解决上述相关技术中存在的问题,本申请实施例提供了一种成像及识别模型的训练方法、应用方法、装置及介质。
下文首先描述本申请一些实施例构建的成像及识别模型。
本申请实施例中的成像及识别模型包括:成像模型,被配置为根据雷达采集的目标回波信号进行成像,获得目标图像;识别模型,被配置为识别目标图像的分类,获得分类结果;其中,成像模块包括:初级图像生成模块,被配置为根据目标回波信号进行成像,获得初级图像;目标图像生成模块,被配置为将初级图像进行稀疏域变换和反变换,获得目标图像。
也就是说,本申请一些实施例的成像模型由初级图像生成模块和目标图像生成模块表示,初级图像生成模块由公式(6)所示:
其中,R(k)表示在第i次迭代的过程中生成的第k初级图像;X(k-1)表示第k-1次迭代的过程中生成的第k-1目标图像;ρ(k)表示第k次迭代的过程中生成的第k步长参数;Ψ1=Φ1F1,Ψ2=Φ2F2,其中,F1和F2表示归一化傅里叶矩阵,Φ1表示频率的稀疏采样矩阵,Φ2表示角度的稀疏采样矩阵;Y表示目标回波信号,k表示迭代次数,k为大于或等于1的整数。
目标图像生成模块由如下公式(7)所示:
其中,X(k)表示第k次迭代过程中产生的第k目标图像;表示根据成像模型中的反变换模块进行第k次反变换;csoft( )表示复收缩函数;F(k)表示根据成像模型中变换模块进行第k次稀疏域变换;θ(k)表示第k次迭代的过程中生成的第k软阈值参数。
上述目标图像生成模块中,包括变换模块和反变换模块。如图2所示,变换模块依次由输入层310、第一卷积层320、第一线性整流层330、第一池化层340、索引传递模块350、第二卷积层360和输出层370组成;其中,第一卷积层320(ComConv)和第二卷积层360(ComConv)是大小为3×3的复数卷积层,第一线性整流层330(ComReLU)是复数线性整流层,第一池化层340(ComMaxPool)是大小为2×2的复数池化层,索引传递模块350用于向反变换模块传递索引参数。
也就是说,如图3所示,反变换模块依次由输入层410、第三卷积层420、第二线性整流层430、索引传递模块440、第二池化层450、第四卷积层460和输出层470组成;其中,第三卷积层420(ComConv)和第四卷积层460(ComConv)是大小为3×3的复数卷积层,第二线性整流层430(ComReLU)是复数线性整流层,第二池化层450(ComMaxPool)是大小为2×2的复数池化层,索引传递模块440用于接收变换模块传递的索引参数。
如图4所示,识别模型是一个卷积网络,由输入层511、第五卷积层520、第一平均池化层530、第六卷积层(包括线性整流单元)540,最大池化层550、第八卷积层(包括线性整流单元)560、第二平均池化层570、第九卷积层580、第三平均池化层590和输出层512依次连接;其中,卷积层中卷积核的大小均为5×5或3×3,滑动步长为1;第六卷积层和第八卷积层采用批量标准化操作,并且有线性整流单元进行整流;第一平均池化层和第二平均池化层的窗尺寸为2×2,步长为2。
需要说明的是,上文成像及识别模型中设置的参数(如:卷积核的大小、步长等)在本申请实施例中不限于此,还可以取其他任何值。
上文描述了本申请一些实施例构建的成像及识别模型的具体结构;下文将结合附图详细描述本申请实施例中由电子设备(或***)执行的对上述的成像及识别模型进行训练的方法。
如图5所示,本申请实施例提供的一种成像及识别模型的训练方法包括:S210,获取用于训练成像及识别模型的标注数据;S220,根据标注数据和损失函数,对待训练的成像及识别模型进行训练,获得成像及识别模型。
下面示例性阐述上述各步骤的实现过程。
在一种实施方式中,S210涉及的标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注。
也就是说,标注数据可以包括多组目标回波数据、成像结果标注和分类结果标注,也可以只包括多组成像结果标注和分类结果标注。
需要说明的是,雷达(例如:合成孔径雷达)可以安装在飞机上对地面的目标回波信号进行采集,还可以安装在卫星上对地面的目标回波信号进行采集;雷达(例如:逆合成孔径雷达)还可以安装在地面上,对飞机、舰船和导弹等物体的目标回波信号进行采集。
下文将描述由电子设备执行的S220的实施方式。
为了提高成像及识别模型的收敛能力,在本申请的一些实施例中,在S220之前需要首先根据成像结果标注数据对具有上述模型结构的待预训练的成像模型进行预训练,获得第i预训练结果,i为大于或等于1的整数;再重复上述步骤,当确认所述第i预训练结果满足第二终止条件,获得所述待训练的成像模型。
也就是说,在对待训练的成像及识别模型进行整体训练之前,需要先对待预训练的成像模型进行预训练,如公式(8)所示:
其中,R(i)表示在第i次迭代的过程中生成的第i初级图像;X(i-1)表示第i-1次迭代的过程中生成的第i-1目标图像;ρ(i)表示第i次迭代的过程中生成的第i步长参数;Ψ1=Φ1F1,Ψ2=Φ2F2,其中,F1和F2表示归一化傅里叶矩阵,Φ1表示频率的稀疏采样矩阵,Φ2表示角度的稀疏采样矩阵;Y表示目标回波信号;X(i)表示第i次迭代过程中产生的第i目标图像;表示根据成像模型中的反变换模块进行第i次反变换;csoft( )表示复收缩函数;F(i)表示根据成像模型中变换模块进行第i次稀疏域变换;θ(i)表示第i次迭代的过程中生成的第i软阈值参数。
在对待预训练的成像模型进行预训练的过程中,以第2次迭代为例(即i=2),示例性的阐述预训练的过程:
将目标回波信号和第一次迭代生成的第1目标图像X(1),输入到上述公式(8)中,经过计算获得第2初级图像R(2),同时,获得第2步长参数ρ(2);将第2初级图像输入到变换模块的网络结构中,输出变换后的稀疏域图像;再根据复收缩函数对稀疏域图像进行处理,同时,获得第2软阈值参数;将经过复收缩函数处理后的稀疏域图像和第2软阈值参数输入到反变换模块中,反变换模块将稀疏域图像反变换到图像域,获得第2次迭代过程中生成的第2目标图像。
在获得第2目标图像之后,在如公式(9)所示的成像损失函数中,成像损失函数用于衡量预测图像(即第i目标图像)与成像结果标注数据之间的差异,将第2目标图像与成像结果标注数据进行比较,当确认满足第二终止条件是,停止迭代,获得待训练的成像模型(待训练的成像模型是已经训练完成的待预训练的成像模型)和步长与软阈值的初始参数,以使能够在对待训练的成像及识别模型的整体训练的过程中,有较好的初始参数,增强收敛效果。
其中,LossSR表示成像损失函数,Xm表示成像结果标注数据中的参考图像,γ表示平衡精度和正交性的参数(在本申请实施例中可以取0.1)。
需要说明的是,第二终止条件可以是满足设定的迭代次数(如:20次或200次),也可以是生成预测图像与成像结果标注数据之间的相似度大于80%。本申请实施例不限于此。
因此,本申请实施例通过在对待训练的成像及识别模型进行训练之前,对成像模型进行预训练,能够为待训练的成像模型获得较为优质的初始参数,从而在对待训练的成像及识别模型进行训练的过程中,减少迭代次数,提高精度和训练效率。
上文描述了本申请实施例中,在对待训练的成像及识别模型进行整体训练之前,对成像模型进行预训练的过程,由此至少能够将获得的软阈值参数和步长参数,作为对成像及识别模型进行整体训练的初始参数。
下文将描述在本申请实施例中,对待训练的成像及识别模型进行整体训练的具体实施方式。
在一种实施方式中,S220涉及的成像及识别模型的输入是目标回波信号,输出是对目标回波信号预测的分类结果,损失函数是用对目标回波信号的预测的分类结果和标注的分类结果表征的。
也就是说,在训练成像及识别模型的过程中,将目标回波信号进行输入到成像及识别模型中,输出对目标回波信号预测的分类结果,损失函数将预测的分类结果和标注的分类结果进行比较,再反馈至成像及识别模型,进入下次迭代。
在一种实施方式中,成像及识别模型包括成像模型和识别模型;S220包括:通过多次迭代的方式对待训练的成像模型进行训练,获得所述成像模型对应的目标参数的值,完成对所述成像模型的初步训练,得到初始成像模型,其中,目标参数的类型至少包括:步长和软阈值;将所述初始成像模型输出的成像结果和所述损失函数对所述成像及识别模型进行训练,获得所述目标成像及识别模型。
也就是说,对待训练的成像及识别模型进行有监督训练的流程,如图6所示,待训练的成像及识别模型包括待训练的成像模型620和待训练的识别模型630;下面示例性的描述对待训练的成像及识别模型进行训练的整体流程:
将目标回波信号610输入到待训练的成像模型620中,待训练的成像模型620对目标回波信号的成像进行k次迭代的学习,获得目标图像;将目标图像输入到待训练的识别模型630中进行分类识别;待训练的识别模型630将预测的分类结果,输入到损失函数640中;损失函数640将预测的分类结果和标注的分类结果进行比较,将比较结果反馈至待训练的成像模型620和待训练的识别模型,进入下次迭代;直至满足循环次数,获得成像模型对应的目标参数和训练完成的成像及识别模型。
需要说明的是,待训练的成像模型620对目标回波信号的成像进行k次迭代的学习是8次(即k=8),本申请实施例不限于此。
下文将详细描述对待训练的成像模型的训练过程。
在一种实施的方式中,成像模型包括:初级图像生成模块和目标图像生成模块;其中,在第k次迭代中,将目标回波信号输入到初级图像生成模块,获得第k初级图像,其中,k为大于或等于1的整数;根据目标图像生成模块对第k初级图像进行稀疏域变换,获得第k目标图像;重复上述步骤,直至满足第一终止条件或者达到设定的循环次数,获得成像模型对应的目标参数值。
本申请实施例中,选用了迭代收缩阈值算法作为SR算法的求解器,成像模型包括的初级图像生成模块由上述公式(6)所示:将目标回波信号和上一次迭代生成的第k-1目标图像X(k-1),输入到上述公式(6)中,经过计算获得第k初级图像R(k),同时,获得第k步长参数ρ(k),在获得第k初级图像之后,由于第k初级图像不够稀疏,导致成像效果不好,因此,需要将第k初级图像从图像域变换至稀疏域。
由此,将第k初级图像输入到目标图像生成模块中,目标图像生成模块由如上述公式(7)所示:上述目标图像生成模块中,包括如图2所示的变换模块和如图3所述的反变换模块。变换模块与反变换模块的具体结构如上所述,在此不再赘述。
也就是说,目标图像生成模块根据上述公式(7),对第k初级图像R(k)进行稀疏域的变换和反变换的具体过程如下所述:
首先,第k初级图像R(k)是一个维度为128×128,通道为1的图像,通过变换模块的输入层310输入后,进入第一卷积层320后生成一个维度为128×128,通道为32的图像;再通过第一线性整流层330生成一个维度为128×128,通道为32的图像;再通过第一池化层340生成一个维度为64×64,通道为32的图像,同时,将索引参数通过索引传递模块350,输入到反变换模块中的索引传递模块440中;再经过第二卷积层360生成一个维度为64×64,通道为32的图像,并通过输出层370输出,由此,获得了稀疏域中的第k初级图像。
其次,将稀疏域中的第k初级图像,输入复收缩函数中进行变换,获得复收缩函数变换后的第k稀疏域图像。
最后,将复收缩函数变换后的第k稀疏域图像和第k次迭代的过程中生成的第k软阈值参数θ(k),一起输入到反变换模块的输入层410中后,进入第三卷积层420后生成一个维度为64×64,通道(图层)为32的图像;再通过第二线性整流层430生成一个维度为64×64,通道为32的图像;再通过第二池化层450生成一个维度为128×128,通道为32的图像,同时,索引传递模块440接收索引参数;再经过第四卷积层460生成一个维度为128×128,通道为1的图像,并通过输出层470输出,由此,获得了目标图像和成像模型对应的目标参数值。
在成像模型输出目标图像后,将目标图像输入到如图4所示的识别模型中进行分类识别,识别模型的具体结构如上所述,在此不再赘述。
也就是说,首先,成像模型将生成的维度为128×128,通道为1的目标图像(128×128×1)后,还经过中心裁剪操作,获得64×64×1的图像,再经过一次通道复制,获得64×64×2的图像。
将64×64×2的图像(图像尺寸为64×64,通道为2)输入到识别模型中进行分类识别,经过输入层511进行输入后,依次经过第五卷积层520(获得尺寸为60×60,通道为32的图像)、第一平均池化层530(获得尺寸为30×30,通道为32的图像)、第六卷积层(包括线性整流单元)540(获得尺寸为28×28,通道为64的图像),最大池化层550(获得尺寸为14×14,通道为64的图像)、第八卷积层(包括线性整流单元)560(获得尺寸为12×12,通道为64的图像)、第二平均池化层570(获得尺寸为6×6,通道为64的图像)、第九卷积层580(获得尺寸为2×2,通道为128的图像)和第三平均池化层590(获得尺寸为1×1,通道为128的图像)的处理。
接着,识别模型将提取的特征向量,输入到一个包含有参数正则化方法(Dropout)的全连接层,通过Softmax分类器输出的结果如公式(10)所示:
p=TC(X(K)) (10)
其中,TC表示分别识别操作,P表示目标图像属于至少一个类别的概率集合;向量P中的第i个元素可以由公式(11)表示。
其中,Pi表示目标图像属于第i类的概率,Oi表示第i类分类对应的结果,I表示目标类的数目。
最后,在获得目标图像属于各类的概率值后,将Pi输入到如公式(12)所示的基于交叉熵的损失函数中。
其中,Loss表示损失值,M表示标注数据的总数,Ym表示m个目标回波信号,labelm表示第m个目标回波信号的分类结果标注,P(labelm|Ym)表示正确的分类概率Pi(i=labelm)。
也就是说,损失函数在计算出损失值后,反馈到成像模型和识别模型中,再进入到下一次迭代,直到满足迭代次数或分类精度。
需要说明的是,成像及识别模型中的参数,是由成像模型和识别模型中的可学习参数组成,在传统的SR算法中,所有的参数都是手工设置的,并且迭代次数都是不变的,因此通常需要大量的迭代才能收敛,恢复性能不稳定。本申请实施例中使用可学习的SR算法,它将传统SR算法的迭代过程展开成网络结构,通过训练学习参数。
上文描述了本申请实施例中对成像及识别模型进行训练的具体过程,下文将讲述本申请实施例中对成像及识别模型进行应用的过程。
在一种实施方式中,一种成像及识别模型的应用方法,包括:获取雷达采集的目标回波信号;将目标回波信号输入到由上述训练方法得到的成像及识别模型中,获得成像结果和/或分类结果。
也就是说,如图7所示,在成像及识别模型训练完成后,将雷达获取的目标回波信号710输入到成像及识别模型的成像模型720中,成像模型720生成目标图像,将目标图像输入到识别模型730进行分类识别后,输出目标图像和分类结果;或,在没有识别到目标图像所属类别的时候,成像模型生成目标图像后,直接输出目标图像;或,在只需要获取分类结果的情况下,识别模型在进行分类识别后,直接将分类结果输出。
上文描述了本申请实施例中成像及识别模型的应用方法,下文将描述关于成像及识别模型与其他算法的比较测试。
在本申请实施例中,将在合成孔径雷达(Synthetic Aperture Radar,SAR)自动目标识别中常用的MSTAR数据集上对本申请实施例的成像及识别模型进行测试。考虑了MSTAR的标准操作条件,将对地面的目标回波信号所对应的分类分为十大类,每一类包含数百幅不同方位角和俯仰角的目标图像。我们按照相关技术中方法,从128×128的复数MSTAR图像中恢复目标回波信号,获得的全采样回波大小为128×128。目标回波信号是通过从全采样回波中随机选择部分频率和角度来构造的,将稀疏采样率定义为ssr,则目标回波信号的大小为(ssr×128)×(ssr×128),使用俯仰角17°的标注数据进行训练,俯仰角15°的目标回波信号数据进行测试。
在本申请实施例中的成像及识别模型中,通过实验将成像模型的层数设置为8层,既能够保证精度又能够保证效率。首先通过公式(9)对可学习的成像模型进行预训练,然后公式(12)对整体成像及识别模型进行端到端的训练。
为了对比,本申请实施例还测试了一些对比方法,对比方法的成像和分类步骤分步执行。在成像步骤中,采用了基于补零傅里叶变换的RDA算法、传统的迭代阈值收缩算法(iterative shrinkage-thresholding algorithm,ISTA)和以离散小波变换(DiscreteWavelet Transformation,DWT)为稀疏变换的ISTA算法。为了提高ISTA的成像效果,ISTA中的步长和软阈值参数不需要人工设置,而是通过最小化后续损失从数据中学习。
在训练之后,ISTA在不同迭代中将采用相同的参数。在分类识别阶段,采用与本申请成像及识别模型中的识别模型相同的卷积网络结构,经过训练以后对获得的图像进行分类。为简单起见,上述三种分步的成像和分类方法分别称为RD、ISTA和ISTA-DWT。
所有网络均采用基于PyTorch的Adam优化算法进行训练。实验在一台采用intelcorei9-9900处理器和nvidiageforcertx2080ti图形处理器的工作站上进行。
实验1:在本申请对成像及识别模型的对比实验中,将稀疏采样情况设置为ssr=0.5;ISTA的最大迭代次数为100次。
下面对使用相关技术中,RDA算法、ISTA算法和ISTA-DWT算法进行实验的实验结果进行描述。
实验结果还显示了一个在相对较弱杂波下的目标结果,包括:使用RDA算法进行实验的结果中,具有严重旁瓣;使用ISTA算法进行实验的结果中,ISTA图像是由一些孤立的强散射体组成的,通过抑制弱散射体或区域来增强图像的稀疏性,会导致目标的轮廓不连续;使用ISTA-DWT算法进行实验的结果中,可以看到DWT域中的散射体是孤立的,但最终图像中的散射体不是孤立的;因此,ISTA-DWT可以保留一些弱散射体或区域。然而,由于目标图像的低频分量在DWT域被抑制,最终的目标图像中存在一些陡峭的边缘。
下文是对本申请实施例中的成像及识别模型(ICI-Net)的实验结果进行描述。
在使用本申请实施例的成像及识别模型(即ICI-Net)进行实验的结果,可以看出:使用成像模型生成的目标图像与参考图像非常一致;同时目标区域保存良好,有利于分类和识别,对可能无助于分类的杂波背景进行了平均,可以在一定程度上减少杂波对分类识别的影响。
另外,本申请实施例中的对成像及识别模型,在目标图像在图像域和DWT域都不够稀疏的情况下,效果依然较为稳定;但ISTA和ISTA-DWT的成像结果都会变差。
因此,从以上的实验结果可以看出,在成像和分类识别的方法中,对于各种目标场景,很难选择合适的参数和稀疏域;对成像而言的“最稀疏图像”对分类而言可能并不是“最佳图像”。因此,成像与分类分别进行的方法,不利于获得更好的分类性能。
为解决上述相关技术中的问题,本申请实施例将成像过程和分类过程,合并成为了一体化的模型;对成像过程中的参数进行学习,目的是使分类精度最大化,而非追求最稀疏的图像;另外,可学习稀疏变换增加了整个网络的自由度,有利于进一步提高分类精度。
下文是关于相关技术中的各算法,以及本申请实施例中的ICI-Net算法在实验中的结果数据对比,50次试验的平均结果如表1所示:
可以看出,本申请实施例提出的ICI-Net(即本申请实施例中的成像及识别模型)获得了最好的分类精度。ISTA和ISTA-DWT结果相近,都优于RDA。为了直观地解释分类结果,给出了两个成像结果的实例。
表1.实验一的结果
RDA | ISTA | ISTA-DWT | ICI-Net | |
分类精度 | 93.22 | 95.27 | 95.05 | 97.01 |
运行时间(s/GPU) | 0.0065 | 0.5758 | 0.5675 | 0.1091 |
表1同时给出了不同算法的运行时间。显然的,本申请实施例中提出的ICI-Net比ISTA和ISTA-DWT方法(100次迭代)更高效,但比RDA方法的速度慢。随着迭代次数的减少,ISTA的运行时间会减少。对不同迭代次数下的ISTA性能进行了测试。由于如表1所示,ISTA-DWT并不比ISTA更好,所以这里只测试ISTA。分类精度和迭代次数为50、100、150的运行时间如表2所示,随着迭代次数从100减少到50,不仅运行时间明显减少,分类精度也明显降低。当它从100增加到150时,运行时间明显增加,但精度略有提高。证明了迭代次数100是ISTA具有较高精度和效率的合适选择。
表2.不同迭代次数的ISTA结果。
ISAT中的迭代次数 | 50 | 100 | 150 |
分类精度 | 0.9314 | 0.9527 | 0.9567 |
运行时(s/GPU) | 0.2854 | 0.5758 | 0.872 |
实验2:在不同的稀疏采样率ssr=[0.2,0.3,0.4,0.5,0.6,0.7,0.8]的情况下,对本申请实施例提出的ICI-Net络进行了测试。每个ssr所对应的模型都是基于ssr=0.5的初始模型重新训练。此实验通过50个试验得到结果,明显的,不同方法的分类准确率都随着ssr的增加而提高。更重要的是,本申请实施例,提出的ICI-Net在不同ssr下都明显优于其他方法。对于稀疏采样率ssr=0.8时的MSTAR数据集,平均分类精度高达98.42%。
因此,综上所述,传统的SAR/ISAR自动目标识别(ATR),通常将成像步骤和分类识别步骤分开考虑。成像步骤中获得的目标图像对于后一步的分类识别可能不是最好的。本申请实施对稀疏采样情况下SAR/ISAR成像与分类一体化问题进行了初步研究,提出了一种成像与分类一体化的架构,该架构由一个深度网络实现,即成像分类一体化网络(ICI-Net)。ICI-Net络结合了稀疏恢复算法和卷积神经网络(CNN),稀疏恢复算法中的超参数、稀疏变换矩阵和CNN参数都是从训练数据中学***均分类准确率为97.01%,在稀疏采样率为80%的情况下,ICI-Net的平均分类准确率为98.42%。
另外,本申请实施例中,综合考虑了成像步骤和分类识别步骤。提出了一种图像与分类相结合的一体化架构,并利用深度网络实现。该网络由展开SR算法构造的成像模型和具有CNN层的识别模型组成。在基于SR的成像模型中,SAR/ISAR图像在变换域是稀疏的,这是可以从训练数据中学习的,而不是在图像域本身。因此,更可能从稀疏采样中恢复目标信息。SR算法中的所有参数都是通过训练学习的,而不是人工设定的。学习的目的是最大限度地提高分类精度,而不是寻找最稀疏的图像。因此,它可以产生对于分类任务而言的最佳的目标图像。最后,SR成像模型只包含少量的层,比传统SR算法的迭代次数要少得多。因此,整个网络比传统的成像和分类方法效率更高。
上文描述了本申请实施例中成像及识别模型与其他算法的比较测试,下文将描述本申请实施例中的一种成像及识别模型的装置。
如图8所示,本申请实施例中的一种成像及识别模型的训练装置800包括:数据获取模块810和模型训练模块820。
在一种实施方式中,本申请实施例提供一种成像及识别模型的训练装置800,训练装置包括:数据获取模块810,被配置为获取用于训练成像及识别模型的标注数据,其中,标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注;模型训练模块820,被配置为根据标注数据和损失函数,对待训练的成像及识别模型进行训练,获得成像及识别模型,其中,成像及识别模型的输入是目标回波信号,输出是对目标回波信号预测的分类结果,损失函数是用预测的分类结果和标注的分类结果表征的。
在一种实施方式中,成像及识别模型包括成像模型和识别模型;模型训练模块820还被配置为:通过多次迭代的方式对待训练的成像模型进行训练,获得成像模型对应的目标参数值,其中,目标参数的类型至少包括:步长和软阈值;根据目标参数值和损失函数,获得成像及识别模型。
在一种实施方式中,成像模型包括:初级图像生成模块和目标图像生成模块;其中,模型训练模块820还被配置为:在第k次迭代中,将目标回波信号输入到初级图像生成模块,获得第k初级图像,其中,k为大于或等于1的整数;根据目标图像生成模块对第k初级图像进行稀疏域变换,获得第k目标图像;重复上述步骤,直至满足第一终止条件或者达到设定的循环次数,获得成像模型对应的目标参数值。
在一种实施方式中,目标图像生成模块包括:变换模块和反变换模块;变换模块依次包括:输入层、第一卷积层、第一线性整流层、第一池化层、第二卷积层和输出层;反变换模块依次包括:输入层、第三卷积层、第二线性整流层、第二池化层、第四卷积层和输出层。
在一种实施方式中,模型训练模块820还被配置为:根据成像结果标注数据对待预训练的成像模型进行预训练,获得第i预训练结果,i为大于或等于1的整数;重复上述步骤,当确认第i预训练结果满足第二终止条件,获得待训练的成像模型。
在一种实施方式中,模型训练模块820还被配置为:根据成像损失函数确定满足第二终止条件,其中,成像损失函数用于衡量预测图像和标准图像之间的差异。
在本申请实施例中,图8所示模块能够实现图1至图7方法实施例中的各个过程。图8中的各个模块的操作和/或功能,分别为了实现图1至图7中的方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
如图9所示,本申请实施例提供一种电子设备900,包括:处理器910、存储器920和总线930,处理器910通过总线930与存储器920相连,存储器存储有计算机可读取指令,当计算机可读取指令由处理器执行时,用于实现如上述所有实施例中任一项的方法,具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
其中,总线用于实现这些组件直接的连接通信。其中,本申请实施例中处理器可以是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。存储器中存储有计算机可读取指令,当计算机可读取指令由处理器执行时,可以执行上述实施例中的方法。
可以理解,图9所示的结构仅为示意,还可包括比图9中所示更多或者更少的组件,或者具有与图9所示不同的配置。图9中所示的各组件可以采用硬件、软件或其组合实现。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被执行时实现上述所有实施方式中任一所述的方法,具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种成像及识别模型的训练方法,其特征在于,所述训练方法包括:
获取用于训练成像及识别模型的标注数据,其中,所述标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注得到的;
根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,其中,所述成像及识别模型的输入是所述目标回波信号,输出是对所述目标回波信号预测的分类结果,所述损失函数是对输入的所述目标回波信号的预测的分类结果和标注分类结果表征的;
其中,所述成像及识别模型包括成像模型和识别模型;
所述根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,包括:
通过多次迭代的方式对待训练的成像模型进行训练,获得所述成像模型对应的目标参数的值,完成对所述成像模型的初步训练,得到初始成像模型,其中,目标参数的类型至少包括:步长和软阈值;
将所述初始成像模型输出的成像结果输入到待训练的识别模型中,通过所述损失函数对所述待训练的识别模型和所述初始成像模型进行多次反馈训练,获得所述目标成像及识别模型。
2.根据权利要求1所述的方法,其特征在于,所述成像模型包括:初级图像生成模块和目标图像生成模块;其中,
所述通过多次迭代的方式对所述待训练的成像模型进行训练,获得所述成像模型对应的目标参数值,包括:
在第k次迭代中,将所述目标回波信号输入到所述初级图像生成模块,获得第k初级图像,其中,k为大于或等于1的整数;
根据所述目标图像生成模块对所述第k初级图像进行稀疏域变换,获得第k目标图像;
重复上述步骤,直至满足第一终止条件或者达到设定的循环次数,获得所述成像模型对应的目标参数值。
3.根据权利要求2所述的方法,其特征在于,所述目标图像生成模块包括:变换模块和反变换模块;
所述变换模块依次包括:输入层、第一卷积层、第一线性整流层、第一池化层、第二卷积层和输出层;
所述反变换模块依次包括:输入层、第三卷积层、第二线性整流层、第二池化层、第四卷积层和输出层。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述通过多次迭代的方式对所述待训练的成像模型进行训练,获得所述成像模型对应的目标参数值之前,所述方法还包括:
根据成像结果标注数据对待预训练的成像模型进行预训练,获得第i预训练结果,i为大于或等于1的整数;
重复上述步骤,当确认所述第i预训练结果满足第二终止条件,获得所述待训练的成像模型。
5.根据权利要求4所述的方法,其特征在于,所述当确认所述第i预训练结果满足第二终止条件,包括:
根据成像损失函数确定满足所述第二终止条件,其中,所述成像损失函数用于衡量预测图像和成像结果标注数据之间的差异。
6.一种成像及识别模型的应用方法,其特征在于,所述方法包括:
获取雷达采集的目标回波信号;
将所述目标回波信号输入到如权利要求1-5任一项所述的训练方法得到的目标成像及识别模型中,获得成像结果和/或分类结果。
7.一种成像及识别模型的训练装置,其特征在于,所述训练装置包括:
数据获取模块,被配置为获取用于训练成像及识别模型的标注数据,其中,所述标注数据是对雷达采集的目标回波信号进行成像结果标注和分类结果标注得到的;
模型训练模块,被配置为根据所述标注数据和损失函数,对待训练的成像及识别模型进行训练,获得目标成像及识别模型,其中,所述成像及识别模型的输入是所述目标回波信号,输出是对所述目标回波信号预测的分类结果,所述损失函数是对输入的所述目标回波信号的预测的分类结果和标注分类结果表征的;
其中,所述成像及识别模型包括成像模型和识别模型;
所述模型训练模块还被配置为:
通过多次迭代的方式对待训练的成像模型进行训练,获得所述成像模型对应的目标参数的值,完成对所述成像模型的初步训练,得到初始成像模型,其中,目标参数的类型至少包括:步长和软阈值;
将所述初始成像模型输出的成像结果输入到待训练的识别模型中,通过所述损失函数对所述待训练的识别模型和所述初始成像模型进行多次反馈训练,获得所述目标成像及识别模型。
8.一种***,其特征在于,所述***包括一个或多个计算机和存储指令的一个或多个存储设备,当所述指令由所述一个或多个计算机执行时,使得所述一个或多个计算机执行根据权利要求1-6中任一项所述的相应方法的操作。
9.一种存储指令的一个或多个计算机存储介质,其特征在于,当所述指令由一个或多个计算机执行时,使得所述一个或多个计算机执行根据权利要求1-6中任一项所述的相应方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110766344.3A CN113359135B (zh) | 2021-07-07 | 2021-07-07 | 一种成像及识别模型的训练方法、应用方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110766344.3A CN113359135B (zh) | 2021-07-07 | 2021-07-07 | 一种成像及识别模型的训练方法、应用方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113359135A CN113359135A (zh) | 2021-09-07 |
CN113359135B true CN113359135B (zh) | 2023-08-22 |
Family
ID=77538678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110766344.3A Active CN113359135B (zh) | 2021-07-07 | 2021-07-07 | 一种成像及识别模型的训练方法、应用方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113359135B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049551B (zh) * | 2021-10-22 | 2022-08-05 | 南京航空航天大学 | 一种基于ResNet18的SAR原始数据目标识别方法 |
CN114720984B (zh) * | 2022-03-08 | 2023-04-25 | 电子科技大学 | 一种面向稀疏采样与观测不准确的sar成像方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080698A (ja) * | 2014-10-17 | 2016-05-16 | 日本無線株式会社 | 画像生成装置 |
CN107728143A (zh) * | 2017-09-18 | 2018-02-23 | 西安电子科技大学 | 基于一维卷积神经网络的雷达高分辨距离像目标识别方法 |
CN110109114A (zh) * | 2019-05-09 | 2019-08-09 | 电子科技大学 | 一种扫描雷达超分辨成像检测一体化方法 |
CN110991418A (zh) * | 2019-12-23 | 2020-04-10 | 中国科学院自动化研究所 | 合成孔径雷达目标图像识别方法及*** |
EP3640846A1 (en) * | 2018-10-17 | 2020-04-22 | Samsung Electronics Co., Ltd. | Method and apparatus to train image recognition model, and image recognition method and apparatus |
CN111220958A (zh) * | 2019-12-10 | 2020-06-02 | 西安宁远电子电工技术有限公司 | 基于一维卷积神经网络的雷达目标多普勒像分类识别方法 |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别***及模型生成方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9978013B2 (en) * | 2014-07-16 | 2018-05-22 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
CN107341488B (zh) * | 2017-06-16 | 2020-02-18 | 电子科技大学 | 一种sar图像目标检测识别一体化方法 |
CN111325726A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯医疗健康(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
-
2021
- 2021-07-07 CN CN202110766344.3A patent/CN113359135B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080698A (ja) * | 2014-10-17 | 2016-05-16 | 日本無線株式会社 | 画像生成装置 |
CN107728143A (zh) * | 2017-09-18 | 2018-02-23 | 西安电子科技大学 | 基于一维卷积神经网络的雷达高分辨距离像目标识别方法 |
EP3640846A1 (en) * | 2018-10-17 | 2020-04-22 | Samsung Electronics Co., Ltd. | Method and apparatus to train image recognition model, and image recognition method and apparatus |
CN110109114A (zh) * | 2019-05-09 | 2019-08-09 | 电子科技大学 | 一种扫描雷达超分辨成像检测一体化方法 |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别***及模型生成方法 |
CN111220958A (zh) * | 2019-12-10 | 2020-06-02 | 西安宁远电子电工技术有限公司 | 基于一维卷积神经网络的雷达目标多普勒像分类识别方法 |
CN110991418A (zh) * | 2019-12-23 | 2020-04-10 | 中国科学院自动化研究所 | 合成孔径雷达目标图像识别方法及*** |
Non-Patent Citations (1)
Title |
---|
基于"数据驱动+智能学习"的合成孔径雷达学习成像;罗迎 等;《雷达学报》;第第9卷卷(第第1期期);第109-115页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113359135A (zh) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107316013B (zh) | 基于nsct变换和dcnn的高光谱图像分类方法 | |
Hu et al. | Inverse synthetic aperture radar imaging using a fully convolutional neural network | |
CN111310666B (zh) | 一种基于纹理特征的高分辨率影像地物识别与分割方法 | |
CN111160273B (zh) | 一种高光谱图像空谱联合分类方法及装置 | |
CN109766835B (zh) | 基于多参数优化生成对抗网络的sar目标识别方法 | |
CN113359135B (zh) | 一种成像及识别模型的训练方法、应用方法、装置及介质 | |
CN112288011B (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
WO2016091017A1 (zh) | 一种高光谱图像分类中光谱向量互相关特征的抽取方法 | |
CN112990334A (zh) | 基于改进原型网络的小样本sar图像目标识别方法 | |
Pan et al. | Residual attention-aided U-Net GAN and multi-instance multilabel classifier for automatic waveform recognition of overlapping LPI radar signals | |
CN113536986B (zh) | 一种基于代表特征的遥感图像中的密集目标检测方法 | |
CN111126361A (zh) | 基于半监督学习和特征约束的sar目标鉴别方法 | |
CN113536963A (zh) | 基于轻量化yolo网络的sar图像飞机目标检测方法 | |
CN111860823A (zh) | 神经网络训练、图像处理方法及装置、设备及存储介质 | |
CN115034257B (zh) | 一种基于特征融合的跨模态信息目标识别方法及装置 | |
Lee et al. | Convolutional autoencoder based feature extraction in radar data analysis | |
CN116797938A (zh) | 一种基于对比学习预训练的sar舰船分类方法 | |
CN114049491A (zh) | 指纹分割模型训练、指纹分割方法、装置、设备及介质 | |
Singh et al. | Wavelet based histogram of oriented gradients feature descriptors for classification of partially occluded objects | |
Li et al. | POLSAR target recognition using a feature fusion framework based on monogenic signal and complex-valued nonlocal network | |
Song et al. | HDTFF-Net: Hierarchical deep texture features fusion network for high-resolution remote sensing scene classification | |
CN116304701A (zh) | 基于条件去噪扩散概率模型的hrrp样本生成方法 | |
CN110781822A (zh) | 基于自适应多方位角字典对学习的sar图像目标识别方法 | |
CN113111919B (zh) | 一种基于深度高分辨率的高光谱图像分类方法 | |
CN114358050A (zh) | 一种基于双三次插值和wvd特征方阵的雷达辐射源智能识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |