CN109308483A - 基于卷积神经网络的双源图像特征提取及融合识别方法 - Google Patents

基于卷积神经网络的双源图像特征提取及融合识别方法 Download PDF

Info

Publication number
CN109308483A
CN109308483A CN201810843122.5A CN201810843122A CN109308483A CN 109308483 A CN109308483 A CN 109308483A CN 201810843122 A CN201810843122 A CN 201810843122A CN 109308483 A CN109308483 A CN 109308483A
Authority
CN
China
Prior art keywords
feature
neural networks
convolutional neural
layer
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810843122.5A
Other languages
English (en)
Other versions
CN109308483B (zh
Inventor
冷阳
张弓
刘文波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Publication of CN109308483A publication Critical patent/CN109308483A/zh
Application granted granted Critical
Publication of CN109308483B publication Critical patent/CN109308483B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括:利用卷积神经网络具有迁移学***台中多源传感器图像目标分类识别,实现利用卷积神经网络提取图像隐藏特征,再组合费希尔判别法和主成分分析算法用于特征的降维融合,为基于特征级的多源图像目标分类识别提供了一种新的有效途径。

Description

基于卷积神经网络的双源图像特征提取及融合识别方法
技术领域
本发明属于图像信号处理与模式识别领域,是一种基于卷积神经网络的双源图像特征提取及融合识别方法。
背景技术
近二十年来,基于特征的目标识别分类技术成为图像信号处理与模式识别研究的热点,在军事和民用领域得到了广泛的应用。例如海上舰艇探测、海上救援、地面军事目标打击、嫌犯追踪等等。目前,单传感器的特征级目标识别分类技术已经相对成熟,单因为传感器自身的限制,其工作环境和适用对象相对单一,无法满足复杂环境中的应用需要。
可见光传感器的成像分辨率高,目标纹理细节丰富,边缘清晰,但容易受到光照条件的干扰,在强反射及光照不足时无法提供准确有效的信息。而热红外传感器成像虽然成像分辨率差,边缘易模糊,但不受光照情况影响,可满足无光照或有强光反射情况下的工作需要。将多源传感器图像进行融合识别,可以有效扩展复杂条件下多源图像目标识别的适用范围,并提高识别率。
目前在基于特征的多源传感器目标识别中,主要还依赖于人工提取图像特征,如图像的统计特征、边缘特征、纹理特征等等,常见的特征提取算法有:HU不变矩、LBP局部二值模式、GLCM灰度共生矩阵、Gabor特征等等。人工提取特征依赖于特征算法性能的优劣,想要选出兼具低冗余、高鲁棒、且低维度的特征相对困难。同时,单一的特征算法一般无法适用于不同成像机理的传感器图像,使用范围有限,目标识别率较低。
卷积神经网络(Convolutional Neural Network,CNN)作为深度学习的一种重要模型,近年来在文字、语音、图像识别等领域获得了出色的成绩。利用卷积神经网络的迁移学习特征,通过庞大的可见光数据集对模型进行训练学习,可以有效的提取出了图像隐藏特征,无需关心特征的具体形式,即达到很高的识别率。卷积神经网络模型结构主要包括卷积层、池化层和全连接层,采用局部连接和权值共享,降低了网络模型的复杂度。
利用优化好参数的神经网络模型,分别对可见光及热红外图像提取隐含特征,利用Fisher判别准则结合主成分分析方法对数据进行融合降维,相比于传统的特征串联、并联方法,可以在保证目标识别率的前提下大幅减少特征维度,提高算法效率。
发明内容
针对传统无人机单一传感器源目标识别受环境因素影响较大的问题,为了提高识别效率,扩展适用场景范围,本发明提出一种基于卷积神经网络的双源图像特征提取及融合识别方法,解决无人机平台中利用单源传感器进行目标识别易受光照条件干扰,且对目标的变换敏感,分类识别率较低的问题,为未来无人机对地、对海进行目标探测与跟踪识别提供了一条新途径。
本发明公开了一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括以下步骤:
1.建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包括相互对的L类目标,每类目标的样本数为n,总样本数为N=nL;
2.搭建深层卷积神经网络模型,模型结构依次为图像输入层、卷积层、池化层、丢弃层、全连接层和输出层,其中卷积层与池化层需要组合使用并需多次重复;
3.利用卷积神经网络的迁移学习特性,对搭建好的深层卷积神经网络进行训练,得到最优解的各层网络参数并保存模型;
4.对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算;利用多层卷积自动提取输入图像的隐藏特征,可表示为矩阵形式Ivis/ir=[m,m,M],其中vis/ir分表表示可见光及热红外成像源图像样本,[m,m]表示卷积输出窗口结果,M表示叠加的卷积核的数量;
5.对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax=max(m,m),则三维特征矩阵[m,m,M]降采样到M维的特征向量,表示为I′vis/ir=[mmax1,…,mmaxS,];
6.对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air
其中,矩阵元素分别是可见光、热红外数据库中属于第i类目标的第j个样本特征向量,i=1,2,...,L,j=1,2,...,n;
7.将二维特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
8.通过Fisher判别函数:
式中,i为特征分量编号;k为目标所属类型,k=1,2,...,L,L为目标类别总数;xi (k)为类型k的单个样本的第i维特征;wk为类型为k的样本集合;mi (k)为类型为k的所有样本第i维特征的均值;ni为所有类型样本的第i维特征的总数;mi为所有类型样本的第i维特征的均值;ni (k)为类型为k的所有样本的第i维特征的个数;
求特征矩阵FN,2*M每一维特征的Fisher判别函数值JF(i),令判别阈值Q=mean(JF),保留特征矩阵FN,2*M中JF(i)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度;
9.提取筛选过后的特征矩阵F′的主成分特征:首先求得训练样本特征集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W,训练样本集中的每个样本的特征转化为同理,测试集表示为 分别表示训练和测试样本个数;
10.将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。
进一步的,步骤1所述的数据库是基于无人机平台下同视角的可见光及热红外传感器拍摄的多类目标图片。
进一步的,可见光和热红外多类目标图片是相互配准的。
进一步的,步骤2所述的卷积神经网络模型结构具有16层结构,其中卷积层13层,全连接层3层。
进一步的,卷积神经网络模型采用梯度下降法和反向传播算法训练各层的网络参数。
进一步的,步骤4所述的提取输入图像的隐藏特征是截取深层卷积神经网络模型中最后一层池化层结果作为图像特征。
进一步的,步骤5中的降采样是利用最大值代替原有数据的降采样方法。
进一步的,步骤8所述的判别阈值为特征矩阵F的费希尔判别分数的平均值。
有益效果:本发明针对可见光及热红外多源传感器图像目标分类识别进行了研究,利用数量级庞大的可见光数据库训练的深层卷积神经网络模型分别提取目标可见光和热红外图像隐藏特征,利用降采样方法降低特征维度,并采用Fisher判别函数与主成分分析算法相结合进行特征融合,最后在SVM支持向量机分类器中进行识别分类。实验显示,基于卷积神经网络的的可见光与热红外图像特征提取及融合方法在自建的无人机对地目标可光学/热红外数据库上的识别率达到95%,比单一传感器源图像的识别率提高了10%以上。与传统的人工提取特征算法,如HU不变矩、GLCM灰度共生矩阵、Gabor特征方法进行比较,该方法也有明显提高,说明将卷积神经网络用于可见光与热红外图像特征提取是可行的且效果良好,将Fisher判别函数与主成分分析算法相结合进行特征融合是简单有效的。
附图说明
图1为本发明的流程图;
图2为本发明的深度卷积神经网络模型的结构示意图;
图3为自建的无人机对地目标的可见光与热红外成像数据库中的部分目标图像。
具体实施方式
下面结合附图和实施例进一步阐述本发明。
如图1所示的一种基于卷积神经网络的双源图像特征提取及融合识别方法,包括以下步骤:
步骤一:建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包含相互对应的L类目标,每类目标的样本数为n,总样本数为N=nL。在自建数据库中有15类目标,每类目标样本数为375张,总样本数为5625张。
步骤二:搭建深层卷积神经网络模型,模型结构依次为图像输入层(InputLayer)、卷积层(Convolution Layer)共13层、池化层(Pooling Layer)共5层、丢弃层(Dropout Layer)、全连接层(Dense Layer)共3层、以及输出层(Output Layer),其中卷积层与池化层需要组合使用并需多次重复,每层网络均具有不同的参数值。模型使用梯度下降法和反向传播算法训练各层的网络参数。
步骤三:利用卷积神经网络的迁移学习特性,通过大量的可见光数据集,如ImageNet训练搭建好的深层卷积神经网络,得到最优解的各层网络参数并保存模型;
步骤四:对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算。截取网络中最后一层池化层的结果作为该样本的特征矩阵,表示为Ivis/ir=[m,m,M],其中vis/ir分别表示可见光及热红外成像源图像样本,[m,m]表示池化层输出结果,M表示卷积核的数量;
步骤五:对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax=max(m,m),即对m*m大小的卷积结果窗取最大值,则三维特征矩阵[m,m,M]降采样到M维的特征向量,表示为I′vis/ir=[mmax1,…,mmaxS,];
步骤六:对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air
其中,矩阵元素分别是可见光、热红外数据库中属于第i类目标的第j个样本特征向量,i=1,2,...,L,j=1,2,...,n;
步骤七:将双源图像特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
步骤八:通过Fisher判别函数:
式中,i为特征分量编号;k为目标所属类型,k=1,2,...,L,L为目标类别总数;xi(k)为类型k的单个样本的第i维特征;wk为类型为k的样本集合;mi (k)为类型为k的所有样本第i维特征的均值;ni为所有类型样本的第i维特征的总数;mi为所有类型样本的第i维特征的均值;ni (k)为类型为k的所有样本的第i维特征的个数。
求特征矩阵F每一维特征的Fisher判别函数值JF(i),令判别阈值Q=mean(JF),保留特征矩阵F中JF(i)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度。
步骤九:提取筛选过后的特征矩阵F′的主成分特征。首先求得训练样本特征集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W。训练样本集中的每个样本的特征转化同理,测试集表示为 分别表示训练和测试样本个数。
步骤十:最后,将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。其中SVM分类器选用的RBF核函数,设置参数c和g的范围均为-5~5,每次增量均为0.5,采取遍历所有取值的方法求得最佳参数c和g;在最佳参数下,输入所需数据训练整个训练集,得到支持向量机模型,分析图像目标识别率。

Claims (8)

1.基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:包括以下步骤:
1.建立多类目标的可见光、热红外两种成像传感器源的图像数据库,每个库包括相互对的L类目标,每类目标的样本数为n,总样本数为N=nL;
2.搭建深层卷积神经网络模型,模型结构依次为图像输入层、卷积层、池化层、丢弃层、全连接层和输出层,其中卷积层与池化层需要组合使用并需多次重复;
3.利用卷积神经网络的迁移学习特性,对搭建好的深层卷积神经网络进行训练,得到最优解的各层网络参数并保存模型;
4.对于数据库中的每个样本,分别将其可见光、热红外成像传感器源对应的图像作为输入送入训练好的深层卷积神经网络模型中计算;利用多层卷积自动提取输入图像的隐藏特征,可表示为矩阵形式Ivis/ir=[m,m,M],其中vis/ir分表表示可见光及热红外成像源图像样本,[m,m]表示卷积输出窗口结果,M表示叠加的卷积核的数量;
5.对每个样本提取到的特征矩阵Ivis/ir进行降采样处理:令mmax=max(m,m),则三维特征矩阵[m,m,M]降采样到M维的特征向量,表示为I′vis/ir=[mmax1,…,mmaxs,];
6.对双源数据库中的N个样本,构造两个N*M大小的二维特征矩阵Avis,Air
其中,矩阵元素分别是可见光、热红外数据库中属于第i类目标的第j个样本特征向量,i=1,2,...,L,j=1,2,...,n;
7.将二维特征矩阵Avis,Air进行串联融合,得到包含可见光与热红外图像隐藏特征的新特征矩阵FN,2*M=[Avis,Air];
8.通过Fisher判别函数:
式中,i为特征分量编号;k为目标所属类型,k=1,2,...,L,L为目标类别总数;xi (k)为类型k的单个样本的第i维特征;wk为类型为k的样本集合;mi (k)为类型为k的所有样本第i维特征的均值;ni为所有类型样本的第i维特征的总数;mi为所有类型样本的第i维特征的均值;ni (k)为类型为k的所有样本的第i维特征的个数;
求特征矩阵FN,2*M每一维特征的Fisher判别函数值JF(i),令判别阈值Q=mean(JF),保留特征矩阵FN,2*M中JF(i)大于Q的当前维度特征,剔除小于阈值的特征,得到筛选后的特征矩阵F′N,T,T维筛选过后的特征维度;
9.提取筛选过后的特征矩阵F′的主成分特征:首先求得训练样本特征f′train (i)集合的协方差矩阵F′F′T,对F′F′T进行特征值分解,取出最大的n′个特征值对应的特征向量(w1,w2,...,wn′),将所有的特征向量标准化后,组成特征向量矩阵W,训练样本集中的每个样本的特征转化为ztrain (i)=WTf′train (i),同理,测试集表示为ztest (j)=WTf'test (j),i,j分别表示训练和测试样本个数;
10.将融合降维后的训练数据Ztrain和测试Ztest数据送入SVM分类器中进行识别。
2.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤1所述的数据库是基于无人机平台下同视角的可见光及热红外传感器拍摄的多类目标图片。
3.根据权利要求2所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:可见光和热红外多类目标图片是相互配准的。
4.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤2所述的卷积神经网络模型结构具有16层结构,其中卷积层13层,全连接层3层。
5.根据权利要求1或4所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:卷积神经网络模型采用梯度下降法和反向传播算法训练各层的网络参数。
6.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤4所述的提取输入图像的隐藏特征是截取深层卷积神经网络模型中最后一层池化层结果作为图像特征。
7.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤5中的降采样是利用最大值代替原有数据的降采样方法。
8.根据权利要求1所述的基于卷积神经网络的双源图像特征提取及融合识别方法,其特征在于:步骤8所述的判别阈值为特征矩阵F的费希尔判别分数的平均值。
CN201810843122.5A 2018-07-11 2018-07-27 基于卷积神经网络的双源图像特征提取及融合识别方法 Active CN109308483B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810758541 2018-07-11
CN2018107585419 2018-07-11

Publications (2)

Publication Number Publication Date
CN109308483A true CN109308483A (zh) 2019-02-05
CN109308483B CN109308483B (zh) 2021-09-17

Family

ID=65225826

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810843122.5A Active CN109308483B (zh) 2018-07-11 2018-07-27 基于卷积神经网络的双源图像特征提取及融合识别方法

Country Status (1)

Country Link
CN (1) CN109308483B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223334A (zh) * 2019-05-07 2019-09-10 深圳云天励飞技术有限公司 一种景深图获取方法及装置
CN110334747A (zh) * 2019-06-13 2019-10-15 河北科技大学 基于改进卷积神经网络的图像识别方法及应用
CN110398986A (zh) * 2019-04-28 2019-11-01 清华大学 一种多源数据迁移的无人机密集树林感知技术
CN110427875A (zh) * 2019-07-31 2019-11-08 天津大学 基于深度迁移学习和极限学习机的红外图像目标检测方法
CN110580503A (zh) * 2019-08-22 2019-12-17 江苏和正特种装备有限公司 一种基于ai的双光谱目标自动识别方法
CN110782481A (zh) * 2019-10-18 2020-02-11 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 无人艇智能决策方法及***
CN110781690A (zh) * 2019-10-31 2020-02-11 北京理工大学 一种多源神经机器翻译模型的融合和压缩方法
CN110781935A (zh) * 2019-10-16 2020-02-11 张磊 一种通过迁移学习实现轻量级图像分类的方法
CN111401439A (zh) * 2020-03-13 2020-07-10 重庆第二师范学院 目标识别方法、装置、计算机设备及存储介质
CN112487899A (zh) * 2020-11-19 2021-03-12 武汉高德飞行器科技有限公司 基于无人机的目标识别方法、***、存储介质及电子设备
CN112651278A (zh) * 2020-09-21 2021-04-13 武昌理工学院 一种基于特征筛选的探测数据处理方法
CN113114697A (zh) * 2021-04-21 2021-07-13 合肥工业大学 一种基于特征自降维标记的整车云测试数据在线封装方法
CN113157678A (zh) * 2021-04-19 2021-07-23 中国人民解放军91977部队 一种多源异构数据关联方法
CN113191944A (zh) * 2021-05-31 2021-07-30 大连民族大学 一种多通道图像内容特征融合风格迁移方法及***
CN113379661A (zh) * 2021-06-15 2021-09-10 中国工程物理研究院流体物理研究所 红外与可见光图像融合的双分支卷积神经网络及融合方法
CN118135390A (zh) * 2024-05-10 2024-06-04 国家***北海信息中心(国家***北海档案馆) 基于gis的海底路由管道智慧管理识别***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780546A (zh) * 2016-12-06 2017-05-31 南京航空航天大学 基于卷积神经网络的运动模糊编码点的身份识别方法
CN107463954A (zh) * 2017-07-21 2017-12-12 华中科技大学 一种模糊异谱图像的模板匹配识别方法
WO2018000309A1 (en) * 2016-06-30 2018-01-04 Intel Corporation Importance-aware model pruning and re-training for efficient convolutional neural networks
CN107578432A (zh) * 2017-08-16 2018-01-12 南京航空航天大学 融合可见光与红外两波段图像目标特征的目标识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018000309A1 (en) * 2016-06-30 2018-01-04 Intel Corporation Importance-aware model pruning and re-training for efficient convolutional neural networks
CN106780546A (zh) * 2016-12-06 2017-05-31 南京航空航天大学 基于卷积神经网络的运动模糊编码点的身份识别方法
CN107463954A (zh) * 2017-07-21 2017-12-12 华中科技大学 一种模糊异谱图像的模板匹配识别方法
CN107578432A (zh) * 2017-08-16 2018-01-12 南京航空航天大学 融合可见光与红外两波段图像目标特征的目标识别方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110398986A (zh) * 2019-04-28 2019-11-01 清华大学 一种多源数据迁移的无人机密集树林感知技术
CN110223334A (zh) * 2019-05-07 2019-09-10 深圳云天励飞技术有限公司 一种景深图获取方法及装置
CN110334747A (zh) * 2019-06-13 2019-10-15 河北科技大学 基于改进卷积神经网络的图像识别方法及应用
CN110427875B (zh) * 2019-07-31 2022-11-11 天津大学 基于深度迁移学习和极限学习机的红外图像目标检测方法
CN110427875A (zh) * 2019-07-31 2019-11-08 天津大学 基于深度迁移学习和极限学习机的红外图像目标检测方法
CN110580503A (zh) * 2019-08-22 2019-12-17 江苏和正特种装备有限公司 一种基于ai的双光谱目标自动识别方法
CN110781935A (zh) * 2019-10-16 2020-02-11 张磊 一种通过迁移学习实现轻量级图像分类的方法
CN110781935B (zh) * 2019-10-16 2023-09-15 张磊 一种通过迁移学习实现轻量级图像分类的方法
CN110782481A (zh) * 2019-10-18 2020-02-11 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 无人艇智能决策方法及***
CN110782481B (zh) * 2019-10-18 2023-09-05 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 无人艇智能决策方法及***
CN110781690A (zh) * 2019-10-31 2020-02-11 北京理工大学 一种多源神经机器翻译模型的融合和压缩方法
CN111401439A (zh) * 2020-03-13 2020-07-10 重庆第二师范学院 目标识别方法、装置、计算机设备及存储介质
CN112651278A (zh) * 2020-09-21 2021-04-13 武昌理工学院 一种基于特征筛选的探测数据处理方法
CN112487899A (zh) * 2020-11-19 2021-03-12 武汉高德飞行器科技有限公司 基于无人机的目标识别方法、***、存储介质及电子设备
CN113157678A (zh) * 2021-04-19 2021-07-23 中国人民解放军91977部队 一种多源异构数据关联方法
CN113114697B (zh) * 2021-04-21 2022-03-11 合肥工业大学 一种基于特征自降维标记的整车云测试数据在线封装方法
CN113114697A (zh) * 2021-04-21 2021-07-13 合肥工业大学 一种基于特征自降维标记的整车云测试数据在线封装方法
CN113191944A (zh) * 2021-05-31 2021-07-30 大连民族大学 一种多通道图像内容特征融合风格迁移方法及***
CN113191944B (zh) * 2021-05-31 2023-11-07 大连民族大学 一种多通道图像内容特征融合风格迁移方法及***
CN113379661A (zh) * 2021-06-15 2021-09-10 中国工程物理研究院流体物理研究所 红外与可见光图像融合的双分支卷积神经网络及融合方法
CN113379661B (zh) * 2021-06-15 2023-03-07 中国工程物理研究院流体物理研究所 红外与可见光图像融合的双分支卷积神经网络装置
CN118135390A (zh) * 2024-05-10 2024-06-04 国家***北海信息中心(国家***北海档案馆) 基于gis的海底路由管道智慧管理识别***
CN118135390B (zh) * 2024-05-10 2024-06-28 国家***北海信息中心(国家***北海档案馆) 基于gis的海底路由管道智慧管理识别***

Also Published As

Publication number Publication date
CN109308483B (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
CN109308483A (zh) 基于卷积神经网络的双源图像特征提取及融合识别方法
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
CN108491880B (zh) 基于神经网络的物体分类和位姿估计方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN105488517B (zh) 一种基于深度学习的车辆品牌型号识别方法
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN108830296A (zh) 一种改进的基于深度学习的高分遥感影像分类方法
CN113807464B (zh) 基于改进yolo v5的无人机航拍图像目标检测方法
CN107169435A (zh) 一种基于雷达仿真图像的卷积神经网络人体动作分类方法
Chen et al. A UAV-based forest fire detection algorithm using convolutional neural network
CN106446930A (zh) 基于深层卷积神经网络的机器人工作场景识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN112215296B (zh) 基于迁移学习的红外图像识别方法及存储介质
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN103218831A (zh) 一种基于轮廓约束的视频运动目标分类识别方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN111652247A (zh) 一种基于深度卷积神经网络的双翅目昆虫识别方法
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
CN112348758B (zh) 一种光学遥感图像数据增强方法及目标识别方法
CN106874929A (zh) 一种基于深度学习的珍珠分类方法
CN109242928A (zh) 一种轻量级具有融合层的近红外图像彩色化深度学习模型
Zhou et al. FSODS: A lightweight metalearning method for few-shot object detection on SAR images
CN116824485A (zh) 一种基于深度学习的开放场景伪装人员小目标检测方法
CN117409339A (zh) 一种用于空地协同的无人机作物状态视觉识别方法
CN117197676A (zh) 一种基于特征融合的目标检测识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant