CN111461258B - 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 - Google Patents
耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 Download PDFInfo
- Publication number
- CN111461258B CN111461258B CN202010339528.7A CN202010339528A CN111461258B CN 111461258 B CN111461258 B CN 111461258B CN 202010339528 A CN202010339528 A CN 202010339528A CN 111461258 B CN111461258 B CN 111461258B
- Authority
- CN
- China
- Prior art keywords
- graph
- network
- matrix
- neural network
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,首先在利用遥感影像场景数据集训练卷积神经网络后,将卷积神经网络作为特征提取器提取遥感影像的深层卷积层特征输出;接着利用超像素分割算法将遥感影像分割为互不重叠的区域,以区域作为节点构建区域邻接图,分别结合卷积层输出和区域间相邻关系构造出图数据的特征矩阵和邻接矩阵;最后把特征矩阵、邻接矩阵以及对应的影像标签作为数据集输入到图卷积网络进行训练,利用训练好的网络可进行影像场景的标签预测。本发明可以有效提高遥感影像场景分类精度,并可广泛用于单标签和多标签的遥感影像场景分类情况。
Description
技术领域
本发明属于遥感和摄影测量技术领域,涉及基于深度学习的遥感影像场景分类方法,该方法耦合了卷积神经网络和图卷积网络技术,可用于单标签和多标签的遥感影像场景分类。
背景技术
遥感影像是重要的对地观测数据源,有着广泛的应用前景。随着传感器技术的发展,遥感影像的数量和质量也在不断提高。高分辨率遥感影像涵盖的细节丰富,涉及的地物类别众多,有着复杂的几何结构和空间格局。因此,使用基于像素和基于对象的遥感影像分类方法难以有效地理解和描述影像的语义内容。遥感影像场景分类以影像块作为基本解译单元,旨在根据影像内容为影像贴上语义标签。根据一幅影像所需对应的标签类别数目不同,可把遥感影像场景分类任务分为单标签和多标签的场景分类。遥感影像场景分类需要借助影像场景的视觉特征和空间上下文信息区分语义类别,它假设相同类型的场景有着更相似的特征,所以场景分类的关键在于影像特征的提取。传统的人工特征提取方法只能获取影像的中、低层特征表示,这类方法缺乏泛化能力且难以准确描述影像语义。利用深度学习技术的层次化抽象表达能力可以自动学习关于影像场景的高层视觉特征,有效提高场景分类的性能。相关的研究中多使用深度卷积神经网络来进行特征学习并结合分类器完成分类任务。然而,这类方法在利用视觉特征感知目标信息辅助分类时,只能学习到一个关于场景的全局化表达,并不可以学习场景中局部目标之间的空间分布关系。事实上,目标的视觉信息和空间分布关系对于影像场景的判识都是十分重要的。图神经网络的出现提供了从拓扑数据中学习空间特征的可能,但难以直接运用到遥感影像的场景分类中。在挖掘影像深度视觉特征的基础上,学习场景局部目标的空间分布关系对于提升场景分类性能有着很大的潜力,相关方法的研究还需要大量的探索。
发明内容
本发明提出了一种耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,通过挖掘和学习遥感影像中的视觉信息和目标空间分布关系有效提高分类精度。并且,该方法可以广泛适用于单标签和多标签的遥感影像场景分类任务。
本发明所采用的技术方案是:耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于,包括以下步骤:
步骤1:将原始遥感影像场景数据集S={(I1,Y1),(I2,Y2),...,(Is,Ys)}随机划分为训练集Strain和测试集Stest。其中,Ii和Yi分别代表第i个样本的影像和对应真实标签。
步骤2:用训练集Strain训练卷积神经网络的网络参数Λcnn。
步骤3:用步骤2得到的神经网络参数Λcnn初始化卷积神经网络模型,将训练集的影像输入到初始化后卷积神经网络模型,直接提取卷积神经网络深层卷积层的特征图输出其中,L、W、D分别代表特征图的长、宽和通道数。对M用上采样的方法放大到原始影像的大小,得到M′。
步骤4:用超像素分割算法将训练集的影像分割为互不重叠的区域,每幅影像对应的区域集合记为R={R1,R2,...,RN}。
步骤5:根据步骤3中得到的M′和步骤4中得到的R构建关于每幅训练影像的区域邻接图,即获取图数据的特征矩阵X和邻接矩阵A。
步骤6:将步骤5得到的特征矩阵X和邻接矩阵A以及对应的影像标签Y输入到图卷积网络中学习网络参数Agcn。
步骤7:预测标签时,用测试集影像代替训练集影像执行步骤3-5得到关于测试影像的区域邻接图,将测试影像的区域邻接图输入到由步骤6训练好的参数Λgcn所初始化的图卷积网络模型中,得到预测标签。
作为优选,步骤2中当进行单标签场景分类时,卷积神经网络模型的分类层用softmax函数激活,用分类交叉熵作为损失函数;当进行多标签场景分类时,卷积神经网络模型的分类层用sigmoid函数激活,用二值交叉熵作为损失函数。
作为优选,步骤3中对M采用双线性插值的方法放大到原始影像的大小,得到M′。
作为优选,步骤4中采用简单的线性迭代聚类算法将训练集的影像分割为互不重叠的区域。
作为优选,步骤5的具体实现包括以下子步骤:
步骤5.2:对于步骤4得到的R中的每个区域,获取区域中心像素位置c和区域方位角o,同时统计每个区域的相邻区域,相邻区域集合记为R′。
步骤5.3:按照下式计算每一对相邻区域之间的邻接权值:
aij=β1||ci-cj||2+β2|oi-oj| (式壹);
其中,aij表示相邻区域Ri∈R和Rj∈R′之间的邻接权值,ci和cj分别表示相邻两个区域的中心像素位置,oi和oj分别表示相邻两个区域的中心方位角,β1和β2是经验参数。
作为优选,步骤6的具体实现包括以下子步骤:
步骤6.1:随机初始化神经网络的参数Λgcn;
步骤6.2:通过图卷积操作更新特征矩阵X,图卷积操作按照下式计算:
步骤6.4:结合步骤6.3通过图池化操作更新特征矩阵X和邻接矩阵A,图池化操作公式如下:
步骤6.5:进行若干的图卷积和图池化操作,将特征矩阵X的大小转化为1×C,其中C是影像场景的总类别数。
步骤6.6:当进行单标签场景分类时,最后的特征矩阵用softmax函数激活,图卷积网络用分类交叉熵作为损失函数;当进行多标签场景分类时,最后的特征矩阵用sigmoid函数激活,图卷积网络用二值交叉熵作为损失函数。
步骤6.7:根据损失函数的梯度通过后向传播修正整个网络的参数Λgcn,以此作为步骤6.1中的初始参数,并迭代进行步骤6.1-6.7直到网络的分类精度趋于稳定。
本发明具有如下优点:耦合了卷积神经网络和图卷积网络进行遥感影像场景分类,可以有效学习影像场景中的视觉特征和局部目标间的空间关系,提高分类特征的表示能力,从而提高分类精度;提出的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法可广泛用于单标签和多标签的遥感影像场景分类,并保证较高的分类精度。
附图说明
图1:为本发明实施例的总体流程图;
图2:为本发明实施例的耦合卷积神经网络和图卷积网络结构框架示意图;
图3:为本发明实施例的单标签遥感影像场景分类数据集样本示意图;
图4:为本发明实施例的多标签遥感影像场景分类数据集样本示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用限定本发明。
请见图1,本发明提供的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,包括以下步骤:
步骤1:将原始遥感影像场景数据集S={(I1,Y1),(I2,Y2),...,(Is,Ys)}随机划分为训练集Strain和测试集Stest。其中,Ii和Yi分别代表第i个样本的影像和对应真实标签。
步骤2:用训练集Strain训练卷积神经网络的网络参数Λcnn。当进行单标签场景分类时,卷积神经网络模型的分类层用softmax函数激活,用分类交叉熵作为损失函数;当进行多标签场景分类时,卷积神经网络模型的分类层用sigmoid函数激活,用二值交叉熵作为损失函数。卷积神经网络结构请见图2,包括卷积层、池化层、全连接层和分类层。
步骤3:用步骤2得到的神经网络参数Λcnn初始化卷积神经网络模型,将训练集的影像输入到初始化后卷积神经网络模型,直接提取卷积神经网络深层卷积层的特征图输出其中,L、W、D分别代表特征图的长、宽和通道数。对M用上采样的方法,如双线性插值,放大到原始影像的大小,得到M′。
步骤4:用超像素分割算法,如简单的线性迭代聚类算法,将训练集的影像分割为互不重叠的区域,每幅影像对应的区域集合记为R={R1,R2,…,RN}。
步骤5:根据步骤3中得到的M′和步骤4中得到的R构建关于每幅训练影像的区域邻接图,即获取图数据的特征矩阵X和邻接矩阵A。具体包括以下子步骤:
步骤5.2:对于步骤4得到的R中的每个区域,获取区域中心像素位置c和区域方位角o,同时统计每个区域的相邻区域,相邻区域集合记为R′。
步骤5.3:按照下式计算每一对相邻区域之间的邻接权值:
aij=β1||ci-cj||2+β2|oi-oj| (式壹);
其中,aij表示相邻区域Ri∈R和Rj∈R′之间的邻接权值,ci和cj分别表示相邻两个区域的中心像素位置,oi和oj分别表示相邻两个区域的中心方位角,β1和β2是经验参数,可分别设为0.8和0.2。
步骤6:将步骤5得到的特征矩阵X和邻接矩阵A以及对应的影像标签Y输入到图卷积网络中学习网络参数Λgcn。图卷积网络结构请见图2,包括图卷积层、图池化层和分类层。图卷积网络的学习应包括以下步骤:
步骤6.1:随机初始化神经网络的参数Λgcn;
步骤6.2:通过图卷积操作更新特征矩阵X,图卷积操作按照下式计算:
步骤6.4:结合步骤6.3通过图池化操作更新特征矩阵X和邻接矩阵A,图池化操作公式如下:
步骤6.5:进行若干的图卷积和图池化操作,将特征矩阵X的大小转化为1×C,其中C是影像场景的总类别数。
步骤6.6:当进行单标签场景分类时,最后的特征矩阵用softmax函数激活,图卷积网络用分类交叉熵作为损失函数;当进行多标签场景分类时,最后的特征矩阵用sigmoid函数激活,图卷积网络用二值交叉熵作为损失函数。
步骤6.7:根据损失函数的梯度,通过后向传播修正整个网络的参数Λgcn,以此作为步骤6.1中的初始参数,并迭代进行步骤6.1-6.7直到网络的分类精度趋于稳定。
步骤7:预测标签时,用测试集影像代替训练集影像执行步骤3-5得到关于测试影像的区域邻接图,将此输入到由步骤6训练好的参数Λgcn所初始化的图卷积网络模型中,得到预测标签。
该描述方法已经在公开数据集上进行了评估测试,可以反映该方法的有效性。具体的,用于单标签遥感影像场景分类的2个数据集如图3所示,分别包含21类和30类场景;用于多标签遥感影像场景分类的2个数据集如图4所示,都包含17类场景。表1给出了实施例的单标签遥感影像场景分类的测试精度以及与基于卷积神经网络的方法的对比,表2给出了实施例的多标签遥感影像场景分类的测试精度以及与基于卷积神经网络的方法的对比。
表1.本发明实施例的单标签遥感影像场景分类在不同数据集的总体精度
表2.本发明实施例的多标签遥感影像场景分类在不同数据集的分类精度
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (5)
1.一种耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于,包括以下步骤:
步骤1:将原始遥感影像场景数据集随机划分为训练集和测试集,其中,和分别代表第i个样本的影像和对应真实标签;
步骤2:用训练集训练卷积神经网络模型的网络参数;
步骤3:用步骤2得到的网络参数初始化卷积神经网络模型,将训练集的影像输入到初始化后卷积神经网络模型,直接提取卷积神经网络深层卷积层的特征图输出,其中,L、W、D分别代表特征图的长、宽和通道数;对用上采样的方法放大到原始影像的大小,得到;
步骤4:采用超像素分割算法将训练集的影像分割为互不重叠的区域,每幅影像对应的区域集合记为;
步骤5:根据步骤3中得到的和步骤4中得到的构建关于每幅训练影像的区域邻接图,即获取图数据的特征矩阵和邻接矩阵;
步骤5中的具体实现包括以下子步骤,
步骤5.1:对于每幅影像,根据步骤4中得到的N个区域范围分别提取步骤3中每个通道的特征最大值,统计得到特征矩阵;
步骤5.2:对于步骤4得到的中的每个区域,获取区域中心像素位置和区域方位角,同时统计每个区域的相邻区域,相邻区域集合记为;
步骤5.3:按照下式计算每一对相邻区域之间的邻接权值:
(1);
其中,表示相邻区域和之间的邻接权值,和分别表示相邻两个区域的中心像素位置,和分别表示相邻两个区域的中心方位角,和是经验参数;
步骤5.4:对于每幅影像,统计每一对相邻区域之间的邻接权值,构造邻接矩阵;
步骤6:将步骤5得到的特征矩阵和邻接矩阵,以及对应的影像标签输入到图卷积网络中学习网络参数;
步骤7:预测标签时,用测试集影像代替训练集影像执行步骤3-5得到关于测试影像的区域邻接图,将测试影像的区域邻接图输入到由步骤6训练好的参数所初始化的图卷积网络模型中,得到预测标签。
2.根据权利要求1所述的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于:步骤2中当进行单标签场景分类时,卷积神经网络模型的分类层用softmax函数激活,用分类交叉熵作为损失函数;当进行多标签场景分类时,卷积神经网络模型的分类层用sigmoid函数激活,用二值交叉熵作为损失函数。
3.根据权利要求1所述的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于:步骤3中对采用双线性插值的方法放大到原始影像的大小,得到。
4.根据权利要求1所述的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于:步骤4中采用简单的线性迭代聚类算法将训练集的影像分割为互不重叠的区域。
5.根据权利要求1所述的耦合卷积神经网络和图卷积网络的遥感影像场景分类方法,其特征在于:步骤6中的具体实现包括以下子步骤,
步骤6.1:随机初始化神经网络的参数;
步骤6.2:通过图卷积操作更新特征矩阵,图卷积操作按照下式计算:
(2);
其中,表示图卷积操作的输出特征矩阵,F是更新后的特征维数,表示图卷积操作的输入特征矩阵,表示图卷积操作的输入邻接矩阵,表示与大小相同的单位矩阵,、和代表可学习的参数;
步骤6.3:按照下式学习嵌入矩阵:
(3);
其中,,N'是更新后的区域个数,、和代表可学习的参数;
步骤6.4:结合步骤6.3通过图池化操作更新特征矩阵和邻接矩阵,图池化操作公式如下:
(4);
(5);
其中,表示图池化操作的输出特征矩阵,表示图池化操作的输出邻接矩阵;
步骤6.5:进行若干的图卷积和图池化操作,将特征矩阵的大小转化为,其中C是影像场景的总类别数;
步骤6.6:当进行单标签场景分类时,最后的特征矩阵用softmax函数激活,图卷积网络用分类交叉熵作为损失函数;当进行多标签场景分类时,最后的特征矩阵用sigmoid函数激活,图卷积网络用二值交叉熵作为损失函数;
步骤6.7:根据损失函数的梯度通过后向传播修正整个网络的参数,以此作为步骤6.1中的初始参数,并迭代进行步骤6.1-6.7直到网络的分类精度趋于稳定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010339528.7A CN111461258B (zh) | 2020-04-26 | 2020-04-26 | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010339528.7A CN111461258B (zh) | 2020-04-26 | 2020-04-26 | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111461258A CN111461258A (zh) | 2020-07-28 |
CN111461258B true CN111461258B (zh) | 2023-04-18 |
Family
ID=71681911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010339528.7A Active CN111461258B (zh) | 2020-04-26 | 2020-04-26 | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111461258B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022041222A1 (en) * | 2020-08-31 | 2022-03-03 | Top Team Technology Development Limited | Process and system for image classification |
CN112163550A (zh) * | 2020-10-14 | 2021-01-01 | 中南大学 | 基于深度神经网络自动学习的遥感影像场景分类方法 |
CN112329852B (zh) * | 2020-11-05 | 2022-04-05 | 西安锐思数智科技股份有限公司 | 地表覆盖影像的分类方法、装置和电子设备 |
CN112347970B (zh) * | 2020-11-18 | 2024-04-05 | 江苏海洋大学 | 一种基于图卷积神经网络的遥感影像地物识别方法 |
CN112464057A (zh) * | 2020-11-18 | 2021-03-09 | 苏州浪潮智能科技有限公司 | 一种网络数据分类方法、装置、设备及可读存储介质 |
CN112634281A (zh) * | 2020-12-10 | 2021-04-09 | 浙江大学 | 一种基于图卷积网络的网格分割方法 |
CN112541904B (zh) * | 2020-12-16 | 2023-03-24 | 西安电子科技大学 | 一种无监督遥感图像变化检测方法、存储介质及计算设备 |
CN112712087A (zh) * | 2020-12-29 | 2021-04-27 | 哈尔滨工业大学 | 一种基于深度卷积神经网络的遥感影像地物语义分割方法 |
CN112990081B (zh) * | 2021-03-30 | 2022-10-04 | 武汉大学 | 一种基于图卷积神经网络的遥感影像小水体提取方法 |
CN113160177A (zh) * | 2021-04-23 | 2021-07-23 | 杭州电子科技大学 | 一种基于超像素和图卷积网络的平面分割方法 |
CN113298129B (zh) * | 2021-05-14 | 2024-02-02 | 西安理工大学 | 基于超像素和图卷积网络的极化sar图像分类方法 |
CN113222068B (zh) * | 2021-06-03 | 2022-12-27 | 西安电子科技大学 | 基于邻接矩阵指导标签嵌入的遥感图像多标签分类方法 |
CN113435268A (zh) * | 2021-06-09 | 2021-09-24 | 武汉理工大学 | 基于图变换知识嵌入算法的地震灾区遥感影像解译方法 |
CN113469226B (zh) * | 2021-06-16 | 2022-09-30 | 中国地质大学(武汉) | 一种基于街景图像的土地利用分类方法及*** |
CN113449640B (zh) * | 2021-06-29 | 2022-02-11 | 中国地质大学(武汉) | 基于多任务cnn+gcn的遥感影像建筑物语义分割边缘优化方法 |
CN113469119B (zh) * | 2021-07-20 | 2022-10-04 | 合肥工业大学 | 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法 |
CN113343942B (zh) * | 2021-07-21 | 2023-05-23 | 西安电子科技大学 | 一种遥感图像缺陷检测方法 |
CN114155193B (zh) * | 2021-10-27 | 2022-07-26 | 北京医准智能科技有限公司 | 一种基于特征强化的血管分割方法及装置 |
CN113988147B (zh) * | 2021-12-08 | 2022-04-26 | 南京信息工程大学 | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 |
CN116310826B (zh) * | 2023-03-20 | 2023-09-22 | 中国科学技术大学 | 一种基于图神经网络的高分遥感影像林地二级分类方法 |
CN116721301B (zh) * | 2023-08-10 | 2023-10-24 | 中国地质大学(武汉) | 目标场景分类模型训练方法、分类方法、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550709A (zh) * | 2015-12-14 | 2016-05-04 | 武汉大学 | 一种遥感影像输电线路走廊森林区域提取方法 |
CN107169956A (zh) * | 2017-04-28 | 2017-09-15 | 西安工程大学 | 基于卷积神经网络的色织物疵点检测方法 |
CN110909801A (zh) * | 2019-11-26 | 2020-03-24 | 山东师范大学 | 基于卷积神经网络的数据分类方法、***、介质及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11556777B2 (en) * | 2017-11-15 | 2023-01-17 | Uatc, Llc | Continuous convolution and fusion in neural networks |
US20200074301A1 (en) * | 2018-09-04 | 2020-03-05 | Beijing Jingdong Shangke Information Technology Co., Ltd. | End-to-end structure-aware convolutional networks for knowledge base completion |
-
2020
- 2020-04-26 CN CN202010339528.7A patent/CN111461258B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550709A (zh) * | 2015-12-14 | 2016-05-04 | 武汉大学 | 一种遥感影像输电线路走廊森林区域提取方法 |
CN107169956A (zh) * | 2017-04-28 | 2017-09-15 | 西安工程大学 | 基于卷积神经网络的色织物疵点检测方法 |
CN110909801A (zh) * | 2019-11-26 | 2020-03-24 | 山东师范大学 | 基于卷积神经网络的数据分类方法、***、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111461258A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461258B (zh) | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 | |
Zhu et al. | A global context-aware and batch-independent network for road extraction from VHR satellite imagery | |
CN108985238B (zh) | 联合深度学习和语义概率的不透水面提取方法及*** | |
CN111612066B (zh) | 基于深度融合的卷积神经网络的遥感图像分类方法 | |
CN109886066B (zh) | 基于多尺度和多层特征融合的快速目标检测方法 | |
CN109446970B (zh) | 一种基于深度学习的变电站巡检机器人道路场景识别方法 | |
Lian et al. | Road extraction methods in high-resolution remote sensing images: A comprehensive review | |
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
CN108052966A (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN112347970B (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN109743642B (zh) | 基于分层循环神经网络的视频摘要生成方法 | |
CN113780149A (zh) | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 | |
CN109741340B (zh) | 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法 | |
Jiang et al. | Intelligent image semantic segmentation: a review through deep learning techniques for remote sensing image analysis | |
Guo et al. | Using multi-scale and hierarchical deep convolutional features for 3D semantic classification of TLS point clouds | |
CN116797787B (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
JP2024513596A (ja) | 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体 | |
CN112488025A (zh) | 基于多模态特征融合的双时相遥感影像语义变化检测方法 | |
CN113988147B (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
Saltori et al. | Gipso: Geometrically informed propagation for online adaptation in 3d lidar segmentation | |
Khesali et al. | Semi automatic road extraction by fusion of high resolution optical and radar images | |
CN116129280B (zh) | 一种遥感影像雪检测的方法 | |
CN111209813B (zh) | 基于迁移学习的遥感图像语义分割方法 | |
CN117011701A (zh) | 一种层次化特征自主学习的遥感图像特征提取方法 | |
CN117011714A (zh) | 基于伪标签辅助的高光谱图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |