CN111461067A - 基于先验知识映射及修正的零样本遥感影像场景识别方法 - Google Patents

基于先验知识映射及修正的零样本遥感影像场景识别方法 Download PDF

Info

Publication number
CN111461067A
CN111461067A CN202010338879.6A CN202010338879A CN111461067A CN 111461067 A CN111461067 A CN 111461067A CN 202010338879 A CN202010338879 A CN 202010338879A CN 111461067 A CN111461067 A CN 111461067A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
mapping
scene
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010338879.6A
Other languages
English (en)
Other versions
CN111461067B (zh
Inventor
李彦胜
孔德宇
张永军
季铮
肖锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010338879.6A priority Critical patent/CN111461067B/zh
Publication of CN111461067A publication Critical patent/CN111461067A/zh
Application granted granted Critical
Publication of CN111461067B publication Critical patent/CN111461067B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于先验知识映射及修正的零样本遥感影像场景识别方法。基于带类别标签的可见类遥感影像场景样本和可见类类别的先验知识表示向量集合,通过遥感场景类别学习和视觉特征向量与先验知识表示向量之间的跨模态学习,学习得到深度特征提取器和鲁棒的视觉特征到先验知识表示特征的映射模型。基于全体类别的类别先验知识表示向量和不可见类的遥感影像场景样本,分别通过无监督协同表示学习和无监督k近邻算法来渐进修正不可见类类别的先验知识表示向量,从而有效提高零样本遥感影像场景的分类精度。

Description

基于先验知识映射及修正的零样本遥感影像场景识别方法
技术领域
本发明属于遥感和摄影测量技术领域,涉及一种零样本遥感影像场景分类方法,尤其是涉及一种基于先验知识映射及修正的零样本遥感影像场景识别方法。
背景技术
进入21世纪之后,遥感技术发展越发迅猛,在土地资源调查、生态环境监测、灾害分析和预测等方面发挥着重要的作用。随着遥感影像分辨率的提高,基于像素和对象的分类方法广泛受到高分辨率遥感影像“同物异谱、同谱异物”现象的影响,无法满足高效稳定遥感影像解译的需求。基于这一考虑,遥感影像场景分类受到国内外研究学者的广泛关注。遥感影像场景分类旨在通过挖掘遥感影像场景(影像块)内的视觉基元及视觉基元间的空间关系来预测影像块的语义类别,可以极大程度上降低像素级或对象级地物解译的混淆度,从而提高高分辨率遥感影像解译的稳定性及准确度,在基于内容的遥感影像检索和遥感影像目标检测等方面都有重要应用。
随着遥感影像场景数据集的不断开放,多领域研究人员提出了大量基于人工特征或深度学习的遥感影像场景分类方法。但是已有遥感影像场景分类方法大都依赖全部类别的遥感影像样本来学习分类模型。随着遥感大数据时代的来临,遥感地物类别呈现***式增长趋势,因此为所有类别都搜集充足的遥感影像样本是不现实的。如何将遥感领域的先验知识引入遥感影像场景理解过程,仅通过学习含有遥感影像的部分类别,就可以识别在训练阶段从未出现类别的遥感影像场景,在遥感大数据时代具有重要现实意义。因此,近年来零样本学习(Zero-shot learning)的发展为遥感影像场景分类提供了新的思路。零样本学习旨在模拟人类学习的过程,通过可见类(seen)样本学习,以类别先验知识(例如类别的属性向量,类别的自然语言语义向量)的辅助来推理识别不可见类(unseen)中的样本。目前,零样本学习主要集中于计算机视觉领域,其在遥感影像场景分类中的研究还很少,需要大量研究工作来推进零样本遥感影像场景分类技术的发展。
发明内容
本发明立足于底层遥感影像场景样本与高层先验知识表示之间的模态跨度大、可见类类别先验知识空间与不可见类类别先验知识空间的漂移问题、遥感影像场景映射产生的不可见类先验知识表示空间与基于可见类类别先验知识空间修正后不可见类语义空间的偏移问题,提出了一种基于先验知识映射及修正的零样本遥感影像场景识别方法。基于带类别标签的可见类遥感影像场景样本和可见类类别的先验知识表示向量集合,通过遥感场景类别学习和视觉特征向量与先验知识表示向量之间的跨模态学习,学习得到深度特征提取器和鲁棒的视觉特征到先验知识表示特征的映射模型。基于全体类别的类别先验知识表示向量和不可见类的遥感影像场景样本,分别通过无监督协同表示学习和无监督k近邻算法来渐进修正不可见类类别的先验知识表示向量,从而有效提高零样本遥感影像场景的分类精度。
本发明所采用的技术方案是:一种基于先验知识映射及修正的零样本遥感影像场景识别方法,包括以下步骤:
训练阶段:
步骤1:基于公开自然语言语料库或领域专家知识,创建可见类每个类别对应的先验知识表示向量
Figure BDA0002467631140000021
不可见类每个类别对应的先验知识表示向量
Figure BDA0002467631140000022
其中p和q分别表示可见类和不可见类的类别数,ds为先验知识表示向量的维数;
步骤2:输入原始遥感影像场景数据集D={(xi,yi):i=1,...,M},
Figure BDA0002467631140000023
其中D为可见类数据集,xi表示可见类中的第i张遥感影像场景,yi表示可见类中第i张影像的类别标签,M为可见类遥感数据的样本总数;DU为不可见类数据集,
Figure BDA0002467631140000024
表示不可见类中的第k张遥感影像场景,
Figure BDA0002467631140000025
表示不可见类中第k张影像的类别标签,N为不可见类数据的样本总数;
Figure BDA0002467631140000026
利用深度卷积网络提取可见类数据集的图像特征F和不可见类数据集的图像特征FU
步骤3:基于视觉特征自编码约束的鲁棒跨模态映射目标函数,求出F到S的映射矩阵W,至此,完成深度跨模态映射的学习;
步骤4:基于无监督协同表示学习,修正SU,得到
Figure BDA0002467631140000027
步骤5:用步骤3中的映射矩阵W将FU映射到
Figure BDA0002467631140000028
步骤6:利用k近邻算法求
Figure BDA0002467631140000031
在经过映射得到的语义向量
Figure BDA0002467631140000032
中的近邻向量并求其均值,得到
Figure BDA0002467631140000033
测试阶段:
步骤7:给定一张不可见类的测试遥感影像场景,按照步骤2-步骤5,提取视觉特征并映射得到语义向量
Figure BDA0002467631140000034
步骤8:计算
Figure BDA0002467631140000035
Figure BDA0002467631140000036
之间的余弦相似度,得到测试遥感影像场景的标签。
进一步的,步骤2中令T表示深度卷积网络的卷积层超参数,V为最后一个全连接层特征与分类层的映射超参数;通过微调深度卷积网络学习卷积层超参数T和全连接层映射超参数V,利用卷积层超参数T,提取可见类数据集的图像特征
Figure BDA0002467631140000037
微调深度网络过程仅使用可见类数据;其中,fi=Q(xi;T),Q(.;.)表示深度卷积网络的非线性映射,基于遥感影像场景数据集的深度卷积网络优化损失函数如式壹,其中,ci=σ(fi*V),σ(.)表示Softmax映射,
Figure BDA0002467631140000038
其中,M为可见类遥感数据的样本总数,p表示可见类的类别数。
进一步的,步骤3中的映射矩阵W通过自编码器得到,目标函数如下:
Figure BDA0002467631140000039
其中,α是自编码的正则化系数,
Figure BDA00024676311400000310
表示F范数,s表示与fi对应的先验知识语义向量,式贰化简为Sylvester方程,利用Bartels-Stewart算法求解出W。
进一步的,步骤4中无监督协同表示学习中的协同表示系数ρ的目标函数为:
Figure BDA00024676311400000311
其中,β为正则化常数,上式的闭式解为:
Figure BDA00024676311400000312
其中,I为判别矩阵,利用式肆求得的最优协同表示系数
Figure BDA00024676311400000313
与S作矩阵运算,得到重建后的不可见类语义向量
Figure BDA00024676311400000314
Figure BDA00024676311400000315
进一步的,步骤5中的
Figure BDA00024676311400000316
按下式计算:
Figure BDA0002467631140000041
进一步的,步骤6中的
Figure BDA0002467631140000042
按下式计算:
Figure BDA0002467631140000043
其中,
Figure BDA0002467631140000044
表示
Figure BDA0002467631140000045
中第k类不可见类先验知识表示向量在
Figure BDA0002467631140000046
中寻找的m个近邻先验知识表示向量,k=1…q,o=1…m。
进一步的,步骤8中不可见类测试遥感影像场景的标签按照下式计算:
Figure BDA0002467631140000047
具体的,给定一副测试遥感影像场景
Figure BDA0002467631140000048
遥感场景图像的视觉特征
Figure BDA0002467631140000049
进一步用矩阵W将其映射为语义向量
Figure BDA00024676311400000410
计算
Figure BDA00024676311400000411
Figure BDA00024676311400000412
之间的余弦相似性,其中,
Figure BDA00024676311400000413
是场景图像
Figure BDA00024676311400000414
的预测标签,d(·)是余弦距离方程。
本发明具有如下优点:本发明着眼于遥感场景零样本分类任务中先验知识的映射学习和基准修正问题。基于可见类的类别先验知识表示向量和遥感影像场景样本,联合场景类别分类和自编码跨模态映射的多任务学习来实现遥感影像场景的视觉空间到类别先验知识表示空间的深度跨模态映射。针对可见类先验知识表示空间与不可见类先验知识表示空间的偏移问题和自编码跨模态映射模型映射后不可见类先验知识表示空间与协同表示后不可见类先验知识表示空间的偏移问题,本发明基于全体类别的类别先验知识表示向量和不可见类遥感影像样本,分别通过无监督协同表示学习和无监督k近邻算法来修正不可见类类别的先验知识表示向量,实现稳定的不可见类遥感影像场景识别任务。
附图说明
图1:为本发明实施例的总体流程图;
图2:为本发明实施例的数据集所含样本示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
见图1,本发明提供的一种基于先验知识映射及修正的零样本遥感影像场景识别方法,包括以下步骤:
步骤1:基于公开自然语言语料库或领域专家知识,创建可见类每个类别对应的先验知识表示向量
Figure BDA0002467631140000051
不可见类每个类别对应的先验知识表示向量
Figure BDA0002467631140000052
其中p和q分别表示可见类和不可见类的类别数,ds为语义向量维数。
步骤2:输入原始遥感影像场景数据集D={(xi,yi):i=1,...,M},
Figure BDA0002467631140000053
利用深度卷积网络提取可见类数据集的图像特征F和不可见类数据集的图像特征FU
令T表示深度卷积网络Resnet-50的卷积层超参数,V为最后一个全连接层特征f与分类层y的映射超参数。通过微调深度卷积网络学习卷积层超参数T和全连接层映射超参数V。基于遥感影像场景数据集的网络优化损失函数如式壹,其中,ci=σ(fi*V),σ(.)表示Softmax映射,fi=Q(xi;T),Q(.;.)表示深度卷积网络的非线性映射。
Figure BDA0002467631140000054
通过微调深度卷积网络学习卷积层超参数T和全连接层映射超参数V。利用参数T,提取可见类数据集的图像特征
Figure BDA0002467631140000055
提取可见类数据集的图像特征
Figure BDA0002467631140000056
D为可见类数据集,xi表示可见类中的第i张遥感影像场景,yi表示可见类中第i张影像的类别标签,M为可见类遥感数据的样本总数;DU为不可见类数据集,
Figure BDA0002467631140000057
表示不可见类中的第i张遥感影像场景,
Figure BDA0002467631140000058
表示不可见类中第i张影像的类别标签,N为不可见类数据的样本总数;
Figure BDA0002467631140000059
微调深度网络过程仅使用可见类遥感影像场景样本。
步骤3:求出F到S的映射矩阵W。映射矩阵W通过自编码器得到,目标函数如下:
Figure BDA00024676311400000510
其中,α是自编码的正则化系数,通过实验分析其最佳取值为0.001。
Figure BDA0002467631140000061
表示F范数,s表示与fi对应的先验知识语义向量,式壹可以化简为Sylvester方程,利用Bartels-Stewart算法求解出W。
步骤4:利用协同表示修正SU,得到
Figure BDA0002467631140000062
协同表示系数ρ的目标函数为:
Figure BDA0002467631140000063
其中,β为正则化常数。上式的闭式解为:
Figure BDA0002467631140000064
其中,I为判别矩阵。利用式叁求得的最优协同表示系数
Figure BDA0002467631140000065
与S作矩阵运算即可以得到重建后的不可见类语义向量
Figure BDA0002467631140000066
Figure BDA0002467631140000067
步骤5:用步骤3中的映射矩阵W将FU映射到
Figure BDA0002467631140000068
Figure BDA0002467631140000069
按下式计算:
Figure BDA00024676311400000610
步骤6:利用k近邻算法求
Figure BDA00024676311400000611
在经过映射得到的先验知识表示向量
Figure BDA00024676311400000612
中的近邻向量并求其均值,得到
Figure BDA00024676311400000613
其中
Figure BDA00024676311400000614
按下式计算:
Figure BDA00024676311400000615
Figure BDA00024676311400000616
表示
Figure BDA00024676311400000617
中第j类不可见类先验知识表示向量在
Figure BDA00024676311400000618
中寻找的m个近邻先验知识表示向量。
步骤7:给定一张不可见类的影像,提取视觉特征并映射得到先验知识表示向量
Figure BDA00024676311400000619
步骤8:计算
Figure BDA00024676311400000620
Figure BDA00024676311400000621
之间的余弦相似度,预测测试影像的标签。不可见类测试图像的标签可按照下式计算:
Figure BDA00024676311400000622
具体的,给定一副测试遥感场景图像
Figure BDA00024676311400000623
遥感场景图像的视觉特征
Figure BDA00024676311400000624
进一步用矩阵W将其映射为先验知识表示向量
Figure BDA00024676311400000625
计算
Figure BDA00024676311400000626
Figure BDA00024676311400000627
之间的余弦相似性,其中,
Figure BDA00024676311400000628
是场景图像
Figure BDA00024676311400000629
的预测标签,d(·)是余弦距离方程。
为了验证本发明公开技术的有效性,我们整合多个已有公开的遥感影像场景数据集,组建了一个具有更多场景类别的遥感影像场景数据集。基于自然语言模型Word2vec和Bert,我们为新组建遥感场景数据集的每个类别创建了两种类型的类别先验知识表示向量。基于两种不同的类别先验知识表示方法,实验结果表明本发明公开的算法在多种不同的可见类与不可见类的划分情况下都可以获得理想的分类精度。
该描述方法已经在通过整合公开数据集获得的新数据集上进行了评估测试,可以反映该方法的有效性。具体的,公开评估数据集如图2所示,该数据集包含70类场景类别,每类包含800张影像。表1给出了可见类和不可见类在不同划分方式下,使用Word2vec和Bert两种先验知识表示向量测试的结果。
表1.可见类与不可见类以不同比例划分在Word2vec和Bert两种先验知识表示向量下方法在测试数据集上的总体精确度
Figure BDA0002467631140000071
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (7)

1.一种基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于,包括以下步骤:
训练阶段:
步骤1:基于公开自然语言语料库或领域专家知识,创建可见类每个类别对应的先验知识表示向量
Figure FDA0002467631130000011
不可见类每个类别对应的先验知识表示向量
Figure FDA0002467631130000012
其中p和q分别表示可见类和不可见类的类别数,ds为先验知识表示向量的维数;
步骤2:输入原始遥感影像场景数据集D={(xi,yi):i=1,...,M},
Figure FDA0002467631130000013
其中D为可见类数据集,xi表示可见类中的第i张遥感影像场景,yi表示可见类中第i张影像的类别标签,M为可见类遥感数据的样本总数;DU为不可见类数据集,
Figure FDA0002467631130000014
表示不可见类中的第k张遥感影像场景,
Figure FDA0002467631130000015
表示不可见类中第k张影像的类别标签,N为不可见类数据的样本总数;
Figure FDA0002467631130000016
利用深度卷积网络提取可见类数据集的图像特征F和不可见类数据集的图像特征FU
步骤3:基于视觉特征自编码约束的鲁棒跨模态映射目标函数,求出F到S的映射矩阵W,至此,完成深度跨模态映射的学习;
步骤4:基于无监督协同表示学习,修正SU,得到
Figure FDA0002467631130000017
步骤5:用步骤3中的映射矩阵W将FU映射到
Figure FDA0002467631130000018
步骤6:利用k近邻算法求
Figure FDA0002467631130000019
在经过映射得到的语义向量
Figure FDA00024676311300000110
中的近邻向量并求其均值,得到
Figure FDA00024676311300000111
测试阶段:
步骤7:给定一张不可见类的测试遥感影像场景,按照步骤2-步骤5,提取视觉特征并映射得到语义向量
Figure FDA00024676311300000112
步骤8:计算
Figure FDA00024676311300000113
Figure FDA00024676311300000114
之间的余弦相似度,得到测试遥感影像场景的标签。
2.根据权利要求1所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤2中令T表示深度卷积网络的卷积层超参数,V为最后一个全连接层特征与分类层的映射超参数;通过微调深度卷积网络学习卷积层超参数T和全连接层映射超参数V,利用卷积层超参数T,提取可见类数据集的图像特征
Figure FDA0002467631130000021
微调深度网络过程仅使用可见类数据;其中,fi=Q(xi;T),Q(.;.)表示深度卷积网络的非线性映射,基于遥感影像场景数据集的深度卷积网络优化损失函数如式壹,其中,ci=σ(fi*V),ρ(.)表示Softmax映射,
Figure FDA0002467631130000022
其中,M为可见类遥感数据的样本总数,p表示可见类的类别数。
3.根据权利要求2所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤3中的映射矩阵W通过自编码器得到,目标函数如下:
Figure FDA0002467631130000023
其中,α是自编码的正则化系数,
Figure FDA0002467631130000024
表示F范数,s表示与fi对应的先验知识语义向量,式贰化简为Sylvester方程,利用Bartels-Stewart算法求解出W。
4.根据权利要求1所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤4中无监督协同表示学习中的协同表示系数ρ的目标函数为:
Figure FDA0002467631130000025
其中,β为正则化常数,上式的闭式解为:
Figure FDA0002467631130000026
其中,I为判别矩阵,利用式肆求得的最优协同表示系数
Figure FDA0002467631130000027
与S作矩阵运算,得到重建后的不可见类语义向量
Figure FDA0002467631130000028
Figure FDA0002467631130000029
5.根据权利要求1所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤5中的
Figure FDA00024676311300000210
按下式计算:
Figure FDA00024676311300000211
6.根据权利要求1所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤6中的
Figure FDA0002467631130000031
按下式计算:
Figure FDA0002467631130000032
其中,
Figure FDA0002467631130000033
表示
Figure FDA0002467631130000034
中第k类不可见类先验知识表示向量在
Figure FDA0002467631130000035
中寻找的m个近邻先验知识表示向量,k=1…q,o=1…m。
7.根据权利要求3和6所述的基于先验知识映射及修正的零样本遥感影像场景识别方法,其特征在于:步骤8中不可见类测试遥感影像场景的标签按照下式计算:
Figure FDA0002467631130000036
具体的,给定一副测试遥感影像场景
Figure FDA0002467631130000037
遥感场景图像的视觉特征
Figure FDA0002467631130000038
进一步用矩阵W将其映射为语义向量
Figure FDA0002467631130000039
计算
Figure FDA00024676311300000310
Figure FDA00024676311300000311
之间的余弦相似性,其中,
Figure FDA00024676311300000312
是场景图像
Figure FDA00024676311300000313
的预测标签,d(·)是余弦距离方程。
CN202010338879.6A 2020-04-26 2020-04-26 基于先验知识映射及修正的零样本遥感影像场景识别方法 Active CN111461067B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010338879.6A CN111461067B (zh) 2020-04-26 2020-04-26 基于先验知识映射及修正的零样本遥感影像场景识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010338879.6A CN111461067B (zh) 2020-04-26 2020-04-26 基于先验知识映射及修正的零样本遥感影像场景识别方法

Publications (2)

Publication Number Publication Date
CN111461067A true CN111461067A (zh) 2020-07-28
CN111461067B CN111461067B (zh) 2022-06-14

Family

ID=71686040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010338879.6A Active CN111461067B (zh) 2020-04-26 2020-04-26 基于先验知识映射及修正的零样本遥感影像场景识别方法

Country Status (1)

Country Link
CN (1) CN111461067B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070023A (zh) * 2020-09-09 2020-12-11 郑州轻工业大学 一种邻域先验嵌入型协同表示模式识别方法
CN115018472A (zh) * 2022-08-03 2022-09-06 中国电子科技集团公司第五十四研究所 一种基于可解释机制的交互式增量化情报分析***
CN115100532A (zh) * 2022-08-02 2022-09-23 北京卫星信息工程研究所 小样本遥感图像目标检测方法和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054274A (zh) * 2010-12-01 2011-05-11 南京大学 一种海岸带水体遥感信息全自动提取方法
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
CN109558890A (zh) * 2018-09-30 2019-04-02 天津大学 基于自适应权重哈希循环对抗网络的零样本图像分类方法
CN110334781A (zh) * 2019-06-10 2019-10-15 大连理工大学 一种基于Res-Gan的零样本学习算法
CN110728187A (zh) * 2019-09-09 2020-01-24 武汉大学 一种基于容错性深度学习的遥感影像场景分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054274A (zh) * 2010-12-01 2011-05-11 南京大学 一种海岸带水体遥感信息全自动提取方法
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
CN109558890A (zh) * 2018-09-30 2019-04-02 天津大学 基于自适应权重哈希循环对抗网络的零样本图像分类方法
CN110334781A (zh) * 2019-06-10 2019-10-15 大连理工大学 一种基于Res-Gan的零样本学习算法
CN110728187A (zh) * 2019-09-09 2020-01-24 武汉大学 一种基于容错性深度学习的遥感影像场景分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AOXUE LI 等: "Zero-Shot Scene Classification for High Spatial Resolution Remote Sensing Images", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
谭琨 等: "结合深度学习和半监督学习的遥感影像分类进展", 《中国图象图形学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070023A (zh) * 2020-09-09 2020-12-11 郑州轻工业大学 一种邻域先验嵌入型协同表示模式识别方法
CN115100532A (zh) * 2022-08-02 2022-09-23 北京卫星信息工程研究所 小样本遥感图像目标检测方法和***
CN115018472A (zh) * 2022-08-03 2022-09-06 中国电子科技集团公司第五十四研究所 一种基于可解释机制的交互式增量化情报分析***
CN115018472B (zh) * 2022-08-03 2022-11-11 中国电子科技集团公司第五十四研究所 一种基于可解释机制的交互式增量化情报分析***

Also Published As

Publication number Publication date
CN111461067B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN111461067B (zh) 基于先验知识映射及修正的零样本遥感影像场景识别方法
CN110516095B (zh) 基于语义迁移的弱监督深度哈希社交图像检索方法和***
Zhu et al. Intelligent logging lithological interpretation with convolution neural networks
CN110443293B (zh) 基于双判别生成对抗网络文本重构的零样本图像分类方法
CN105760821B (zh) 基于核空间的分类聚集稀疏表示的人脸识别方法
Liu et al. Remote sensing image change detection based on information transmission and attention mechanism
CN112396027A (zh) 基于图卷积神经网络的车辆重识别方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN113223042B (zh) 一种遥感影像深度学习样本智能采集方法及设备
CN108805102A (zh) 一种基于深度学习的视频字幕检测与识别方法及***
CN110929746A (zh) 一种基于深度神经网络的电子卷宗标题定位提取与分类方法
CN115049841A (zh) 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法
CN117572457B (zh) 一种基于伪标签学习的跨场景多光谱点云分类方法
CN115496950A (zh) 邻域信息嵌入的半监督判别字典对学习的图像分类方法
CN113988147A (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN115546553A (zh) 一种基于动态特征抽取和属性修正的零样本分类方法
CN115393666A (zh) 图像分类中基于原型补全的小样本扩充方法及***
CN116910571A (zh) 一种基于原型对比学习的开集域适应方法及***
CN114579794A (zh) 特征一致性建议的多尺度融合地标图像检索方法及***
CN111783526B (zh) 一种利用姿势不变和图结构对齐的跨域行人重识别方法
CN117315556A (zh) 改进的Vision Transformer昆虫细粒度识别方法
CN115497006B (zh) 基于动态混合策略的城区遥感图像变化深度监测方法及***
CN111652265A (zh) 一种基于自调整图的鲁棒半监督稀疏特征选择方法
CN113688879B (zh) 一种基于置信度分布外检测的广义零样本学习分类方法
CN111401519B (zh) 一种基于物体内和物体间相似性距离的深层神经网络无监督学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant