CN116403058B - 一种遥感跨场景多光谱激光雷达点云分类方法 - Google Patents
一种遥感跨场景多光谱激光雷达点云分类方法 Download PDFInfo
- Publication number
- CN116403058B CN116403058B CN202310678187.XA CN202310678187A CN116403058B CN 116403058 B CN116403058 B CN 116403058B CN 202310678187 A CN202310678187 A CN 202310678187A CN 116403058 B CN116403058 B CN 116403058B
- Authority
- CN
- China
- Prior art keywords
- scene
- multispectral
- point cloud
- source
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012546 transfer Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 5
- 230000003595 spectral effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 abstract description 14
- 238000013528 artificial neural network Methods 0.000 abstract description 5
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000011156 evaluation Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种遥感跨场景多光谱激光雷达点云分类方法,属于多光谱激光雷达点云技术领域。首先分别将带标签源场景和不带标签目标场景多光谱激光雷达点云根据K最邻近算法构造为图数据;然后采用图卷积神经网络分别提取两个场景的图特征,采用源场景分类器用于源场景多光谱激光雷达点云分类,采用目标场景分类器用于目标场景多光谱激光雷达点云分类。再添加可学习场景间信息转移模块用于两个场景间信息转移。采用域判别器用于区分点云属于源场景还是目标场景。最后迭代更新网络参数,直至模型收敛。本发明能够有效缓解多光谱激光雷达点云不同场景之间的光谱漂移现象,实现多光谱雷达点云一致性特征提取与分类。
Description
技术领域
本发明涉及一种遥感跨场景多光谱激光雷达点云分类方法,属于多光谱激光雷达点云技术领域。
背景技术
多光谱LiDAR***能够同步获取场景中的三维空间分布信息和光谱信息,为遥感场景解译任务提供更加丰富的特征信息。在多光谱LiDAR的相关处理任务中,现有的方法通常依赖于密集注释的点级别语义标签为网络训练提供监督,这类方法需要大量的带标签数据集,但是对于包含数千万个点的大尺度的现实场景,为每一个点都进行标注是费时费力不切实际的。
多光谱LiDAR对遥感场景进行数据采集时,激光脉冲发射角度、地物空间分布等因素都会影响接收激光脉冲的强度,即产生光谱漂移现象。此外,无论传统方法还是基于深度学习的方法,它们的场景自适应能力较差,当训练样本与测试样本存在分布差异时性能会显著下降。显然,多光谱点云同时具有地物的空间几何信息和光谱信息,通过从源场景多光谱点云中学习表征地物本质属性的空间几何-光谱一致性信息,指导目标场景多光谱点云分类,能够提高多光谱点云地物分类网络在目标场景中的性能,克服不同场景多光谱点云不同分布为地物分类带来的影响,提高网络的场景自适应能力。因此,如何在不同场景中多光谱点云光谱漂移、地物分布不一致等情况下,从源场景多光谱点云中学习表征地物本质属性的空间几何-光谱一致性信息,实现有效和可靠的信息转移以实现对无标签目标场景进行地物分类,是目前亟待解决的技术问题。
发明内容
本发明要解决的技术问题是提供一种遥感跨场景多光谱激光雷达点云分类方法,以缓解多光谱激光雷达点云不同场景之间的光谱漂移现象,实现多光谱雷达点云一致性特征提取与分类。
本发明的技术方案是:一种遥感跨场景多光谱激光雷达点云分类方法,具体步骤为:
Step1:根据K最邻近算法(K-Nearest Neighbor, KNN),分别将带标签源场景和不带标签目标场景多光谱激光雷达点云构造为图数据,将每个多光谱点的特征作为节点特征;
Step2:采用图卷积神经网络(Graph Convolution Neural Networks, GCN)分别提取两个场景的图特征,采用源场景分类器用于源场景多光谱激光雷达点云分类,采用目标场景分类器用于目标场景多光谱激光雷达点云分类;
Step3:添加可学习场景间信息转移模块用于两个场景间信息转移。采用域判别器用于区分点云属于源场景还是目标场景;
Step4:更新网络参数,判断模型是否收敛,是则结束,否则重复Step2和Step3,直至模型收敛。
在Step1中,所述带标签源场景多光谱激光雷达点云数据记为(Ps,L),无标签目标场景记为(Pt,),其中/>表示源场景包含Ns个有标签多光谱点,/>分别表示目标场景包含Nt个无标签多光谱点,/>是所有源场景多光谱点对应的标签。
在Step1中,所述将每个多光谱点的特征作为节点特征具体步骤为:
(1)将每个多光谱点记为,其中,x、y、z是多光谱激光雷达点云包含点的空间特征,/>是多光谱激光雷达点云包含点的光谱特征。
(2)将每个点作为图节点,则每个节点特征为。
在Step2中,GCN提取的源场景和目标场景图特征分别为和/>,源场景分类器采用交叉熵损失进行优化,具体交叉熵损失公式为:
其中,是源场景中第i个图节点的标签,/>是源场景中第i个图节点的预测标签。
由于目标场景中没有标签,所以目标场景分类器采用改进的交叉熵损失进行优化,具体损失公式为:
其中,是目标场景中第i个图节点的标签,/>是目标场景中第i个图节点的预测标签。
在Step3中,可学习场景间信息转移模块根据以下公式将提取得到的和/>作对齐。
其中,Wsp表示可学习信息转移参数,为控制源场景对目标场景特征学习的贡献的超参数,/>表示激活函数。
采用域判别器区分点云属于哪个场景,通过混淆域判别器提取多光谱点云域不变特征,具体优化函数为:
其中,代表多光谱点属于哪个场景,/>代表源场景和目标场景第i个图节点的预测标签。
所述Step4中更新网络参数,具体为:
(1)所有参数都使用标准反向传播算法进行优化。
(2)在训练中,整体损失为源场景损失、目标场景损失、域分类损失的组合,训练的整体损失为:
其中,和/>是平衡损失的平衡系数。
传统的方法在进行点云分类时,场景自适应能力较差,当训练样本与测试样本存在分布差异时性能会显著下降。本发明通过设计可学习场景间信息转移模块,促进多光谱点云中地物空间分布和光谱信息的迁移,提取遥感场景地物在多光谱点云中的本征一致性判别特征,实现利用有标签源场景多光谱点云训练图神经网络,对无标签的目标场景多光谱点云进行有效分类,缓解不同场景间光谱漂移现象。
本发明的有益效果是:本发明与现有技术相比,主要缓解了不同场景间光谱漂移现象,在不同场景中多光谱点云光谱漂移、地物分布不一致等情况下,从源场景多光谱点云中学习表征地物本质属性的空间几何-光谱一致性信息,实现了有效和可靠的信息转移以实现对无标签目标场景进行地物分类。
附图说明
图1是本发明的遥感跨场景多光谱激光雷达点云分类方法框架;
图2是实施例中数据集真实地物分布图。
具体实施方式
下面结合附图和具体实施方式,对本发明作进一步说明。
如图1所示,一种遥感跨场景多光谱激光雷达点云分类方法,所述方法的具体步骤如下:
步骤S1:使用K最邻近算法,分别将带标签源场景和不带标签目标场景的多光谱激光雷达点云构造为图数据,将带标签源场景多光谱激光雷达点云数据记为(Ps,L),无标签目标场景记为(Pt,),其中/>表示源场景包含Ns个有标签多光谱点,/>分别表示目标场景包含Nt个无标签多光谱点,/>是所有源场景多光谱点对应的标签。 将每个多光谱点的特征作为节点特征,(1)将每个多光谱点记为/>,其中,x、y、z是多光谱激光雷达点云包含点的空间特征,/>是多光谱激光雷达点云包含点的光谱特征;(2)将每个点作为图节点,则每个节点特征为/>。
步骤S2:采用GCN网络分别提取两个场景的图特征,提取的源场景和目标场景图特征分别为和/>,采用源场景分类器用于源场景多光谱激光雷达点云分类,采用目标场景分类器用于目标场景多光谱激光雷达点云分类,具体地:源场景分类器采用交叉熵损失进行优化,具体交叉熵损失公式为:
其中,是源场景中第i个图节点的标签,/>是源场景中第i个图节点的预测标签。
由于目标场景中没有标签,所以目标场景分类器采用改进的交叉熵损失进行优化,具体损失公式为:
其中,是目标场景中第i个图节点的标签,/>是目标场景中第i个图节点的预测标签。
步骤S3:添加可学习场景间信息转移模块用于两个场景间信息转移。采用域判别器用于区分点云属于源场景还是目标场景,具体地:可学习场景间信息转移模块根据以下公式将提取得到的和/>作对齐。
其中,Wsp表示可学习信息转移参数,为控制源场景对目标场景特征学习的贡献的超参数,取值为0.5,/>表示激活函数,主要作用是将线性变换的结果转换为非线性的输出,/>激活函数可以将线性输出映射为非线性的激活值,这种非线性变换能够增加神经网络的表达能力,使其能够学习更加复杂的函数关系。
采用域判别器区分点云属于哪个场景,通过混淆域判别器提取多光谱点云域不变特征,具体优化函数为:
其中,代表多光谱点属于哪个场景,/>代表源场景和目标场景第i个图节点的预测标签。
步骤S4:在训练中,整体损失为源场景损失、目标场景损失、域分类损失的组合,训练的整体损失为:
使用标准反向传播算法更新网络参数,判断模型是否收敛,是则结束,否则重复步骤S2和步骤步骤S3,直至模型收敛。
其中,和/>是平衡损失的平衡系数,取值为1。
下面在具体实施记载的基础上,通过实验的方式来对本发明进一步说明。
1、 实验数据
Harbor of Tobermory数据集:该数据集场景是位于英国托伯莫里的一个小型海港,由Optech Titan激光雷达采集的三波段点云数据,波长分别为1550nm、1064nm和532nm,数据集可视化效果如图2(a)所示。根据土地覆盖的高度、材料和语义信息将研究区域划分为7类,分别为裸地、草地、道路、建筑物、树木、电力线和汽车。
University of Houston数据集:该数据集场景是休斯顿校园的一部分区域,由Optech Titan激光雷达采集的三波段点云数据,波长分别为1550nm、1064nm和532nm。根据土地覆盖的高度、材料和语义信息将研究区域划分为7类,分别为裸地、汽车、草地、道路、电力线、建筑物和树木。采用召回率、精度和F分数作为评价指标。数据集的可视化效果如图2(b)所示。
2、 实验内容
在实验中,采用本发明方法和传统GCN方法对以上数据集进行分类验证。将Harborof Tobermory数据集作为源场景,将University of Houston数据集作为目标场景,为节约计算资源,采用超点分割方法将两个场景分别分割为8000个超点作为输入。采用本发明方法进行点云分类,评估结果如表1所示,将分类结果采用分割召回率(racall)、精度(precision)和F分数(F_score)进行评估。
其中,TP是被分割到正类点中正类点的数量、FP是被分割到正类点中负类点的数量、FN是被分割到负类点中正类点的数量。
表1对多光谱激光雷达点云数据超点分割得到的评估数据
从表1中可以看出,本发明方法相对于传统方法,在不同类别数据下,所得到的评估结果综合看来均优于传统方法,证明了本方法的可行性。
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (5)
1.一种遥感跨场景多光谱激光雷达点云分类方法,其特征在于:
Step1:使用K最邻近算法,分别将带标签源场景和不带标签目标场景的多光谱激光雷达点云构造为图数据,将每个多光谱点的特征作为节点特征;
Step2:采用GCN网络分别提取两个场景的图特征,采用源场景分类器对源场景多光谱激光雷达点云分类,采用目标场景分类器对目标场景多光谱激光雷达点云分类;
Step3:添加可学习场景间信息转移模块用于两个场景间信息转移,采用域判别器区分点云属于源场景还是目标场景;
Step4:更新GCN网络参数,判断其是否收敛,是则结束,否则重复Step2和Step3,直至网络收敛;
所述Step3具体过程为:
在Step3中,可学习场景间信息转移模块根据以下公式将提取得到的和/>作对齐:
;
其中,Wsp表示可学习信息转移参数,为控制源场景对目标场景特征学习的贡献的超参数,/>表示激活函数;
采用域判别器区分点云属于哪个场景,通过混淆域判别器提取多光谱点云域不变特征,具体优化函数为:
;
其中,代表多光谱点属于哪个场景,/>代表对应场景中第i个图节点的预测标签。
2.根据权利要求1所述的一种遥感跨场景多光谱激光雷达点云分类方法,其特征在于:在Step1中,所述带标签源场景多光谱激光雷达点云数据记为(Ps,L),无标签目标场景记为(Pt,),其中/>,表示源场景包含Ns个有标签多光谱点,/>,表示目标场景包含Nt个无标签多光谱点,/>是所有源场景多光谱点对应的标签。
3.根据权利要求1所述的一种遥感跨场景多光谱激光雷达点云分类方法,其特征在于:在Step1中,所述将每个多光谱点的特征作为节点特征具体步骤为:
(1)将每个多光谱点记为,其中,x、y、z是多光谱激光雷达点云包含点的空间特征,/>是多光谱激光雷达点云包含点的光谱特征;
(2)将每个点作为图节点,则每个节点特征为。
4.根据权利要求1所述的一种遥感跨场景多光谱激光雷达点云分类方法,其特征在于:所述Step2具体过程为:
在Step2中,GCN网络提取的源场景和目标场景图特征分别为和/>,源场景分类器采用交叉熵损失进行优化,具体交叉熵损失/>为:
;
其中,是源场景中第i个图节点的标签,/>是源场景中第i个图节点的预测标签;
目标场景分类器采用改进的交叉熵损失进行优化,具体交叉熵损失为:
;
其中,是目标场景中第i个图节点的标签,/>是目标场景中第i个图节点的预测标签。
5.根据权利要求1所述的一种遥感跨场景多光谱激光雷达点云分类方法,其特征在于:所述Step4中更新GCN网络参数,具体为:
(1)所有参数都使用标准反向传播算法进行优化;
(2)在训练中,整体损失为源场景损失、目标场景损失、域分类损失的组合,训练的整体损失为:
;
其中,和/>是平衡损失的平衡系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678187.XA CN116403058B (zh) | 2023-06-09 | 2023-06-09 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678187.XA CN116403058B (zh) | 2023-06-09 | 2023-06-09 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116403058A CN116403058A (zh) | 2023-07-07 |
CN116403058B true CN116403058B (zh) | 2023-09-12 |
Family
ID=87010959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310678187.XA Active CN116403058B (zh) | 2023-06-09 | 2023-06-09 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116403058B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994071A (zh) * | 2023-09-25 | 2023-11-03 | 云南联合视觉科技有限公司 | 一种基于自适应光谱残差的多光谱激光雷达点云分类方法 |
CN117572457B (zh) * | 2024-01-16 | 2024-04-05 | 昆明理工大学 | 一种基于伪标签学习的跨场景多光谱点云分类方法 |
CN117830752B (zh) * | 2024-03-06 | 2024-05-07 | 昆明理工大学 | 一种用于多光谱点云分类的自适应空-谱掩码图卷积方法 |
CN117953384B (zh) * | 2024-03-27 | 2024-06-07 | 昆明理工大学 | 一种跨场景多光谱激光雷达点云建筑物提取与矢量化方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085086A (zh) * | 2020-09-03 | 2020-12-15 | 哈尔滨工业大学 | 一种基于图卷积神经网络的多源迁移学习方法 |
CN112488210A (zh) * | 2020-12-02 | 2021-03-12 | 北京工业大学 | 一种基于图卷积神经网络的三维点云自动分类方法 |
CN112633376A (zh) * | 2020-12-24 | 2021-04-09 | 南京信息工程大学 | 基于深度学习的点云数据地物分类方法、***与存储介质 |
CN112633350A (zh) * | 2020-12-18 | 2021-04-09 | 湖北工业大学 | 一种基于图卷积的多尺度点云分类实现方法 |
CN113449612A (zh) * | 2021-06-15 | 2021-09-28 | 燕山大学 | 一种基于子流型稀疏卷积的三维目标点云识别的方法 |
CN113505856A (zh) * | 2021-08-05 | 2021-10-15 | 大连海事大学 | 一种高光谱影像无监督自适应分类方法 |
CN114358246A (zh) * | 2021-12-27 | 2022-04-15 | 东北林业大学 | 三维点云场景的注意力机制的图卷积神经网络模块 |
CN114549537A (zh) * | 2022-02-18 | 2022-05-27 | 东南大学 | 基于跨模态语义增强的非结构化环境点云语义分割方法 |
CN114676755A (zh) * | 2022-03-04 | 2022-06-28 | 南京邮电大学 | 基于图卷积网络的无监督域自适应的分类方法 |
CN115049841A (zh) * | 2022-06-14 | 2022-09-13 | 西安电子科技大学 | 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法 |
CN115410088A (zh) * | 2022-10-10 | 2022-11-29 | 中国矿业大学 | 一种基于虚拟分类器的高光谱图像领域自适应方法 |
CN115661904A (zh) * | 2022-11-10 | 2023-01-31 | 驭势科技(北京)有限公司 | 数据标注和域适应模型训练方法、装置、设备及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230094415A1 (en) * | 2021-09-28 | 2023-03-30 | Adobe Inc. | Generating a target classifier for a target domain via source-free domain adaptation using an adaptive adversarial neural network |
EP4181081B1 (en) * | 2021-11-16 | 2024-02-28 | Tata Consultancy Services Limited | Energy efficient hierarchical snn architecture for classification and segmentation of high-resolution images |
-
2023
- 2023-06-09 CN CN202310678187.XA patent/CN116403058B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085086A (zh) * | 2020-09-03 | 2020-12-15 | 哈尔滨工业大学 | 一种基于图卷积神经网络的多源迁移学习方法 |
CN112488210A (zh) * | 2020-12-02 | 2021-03-12 | 北京工业大学 | 一种基于图卷积神经网络的三维点云自动分类方法 |
CN112633350A (zh) * | 2020-12-18 | 2021-04-09 | 湖北工业大学 | 一种基于图卷积的多尺度点云分类实现方法 |
CN112633376A (zh) * | 2020-12-24 | 2021-04-09 | 南京信息工程大学 | 基于深度学习的点云数据地物分类方法、***与存储介质 |
CN113449612A (zh) * | 2021-06-15 | 2021-09-28 | 燕山大学 | 一种基于子流型稀疏卷积的三维目标点云识别的方法 |
CN113505856A (zh) * | 2021-08-05 | 2021-10-15 | 大连海事大学 | 一种高光谱影像无监督自适应分类方法 |
CN114358246A (zh) * | 2021-12-27 | 2022-04-15 | 东北林业大学 | 三维点云场景的注意力机制的图卷积神经网络模块 |
CN114549537A (zh) * | 2022-02-18 | 2022-05-27 | 东南大学 | 基于跨模态语义增强的非结构化环境点云语义分割方法 |
CN114676755A (zh) * | 2022-03-04 | 2022-06-28 | 南京邮电大学 | 基于图卷积网络的无监督域自适应的分类方法 |
CN115049841A (zh) * | 2022-06-14 | 2022-09-13 | 西安电子科技大学 | 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法 |
CN115410088A (zh) * | 2022-10-10 | 2022-11-29 | 中国矿业大学 | 一种基于虚拟分类器的高光谱图像领域自适应方法 |
CN115661904A (zh) * | 2022-11-10 | 2023-01-31 | 驭势科技(北京)有限公司 | 数据标注和域适应模型训练方法、装置、设备及介质 |
Non-Patent Citations (1)
Title |
---|
基于目标域局部近邻几何信息的域自适应图像分类方法;唐宋 等;《计算机应用》;第37卷(第4期);1164-1168 * |
Also Published As
Publication number | Publication date |
---|---|
CN116403058A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116403058B (zh) | 一种遥感跨场景多光谱激光雷达点云分类方法 | |
Zhang et al. | Cross-scene joint classification of multisource data with multilevel domain adaption network | |
CN111079847B (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
CN117572457B (zh) | 一种基于伪标签学习的跨场景多光谱点云分类方法 | |
EP0913793B1 (en) | Image interpretation method and apparatus | |
Fan et al. | Semi-MCNN: A semisupervised multi-CNN ensemble learning method for urban land cover classification using submeter HRRS images | |
Xu et al. | A supervoxel approach to the segmentation of individual trees from LiDAR point clouds | |
CN115019123B (zh) | 一种遥感图像场景分类的自蒸馏对比学习方法 | |
Zheng et al. | A two-stage adaptation network (TSAN) for remote sensing scene classification in single-source-mixed-multiple-target domain adaptation (S²M²T DA) scenarios | |
Sumbul et al. | Informative and representative triplet selection for multilabel remote sensing image retrieval | |
CN102867192B (zh) | 一种基于监督测地线传播的场景语义迁移方法 | |
Xiong et al. | Contrastive learning for automotive mmWave radar detection points based instance segmentation | |
CN116310350B (zh) | 基于图卷积和半监督学习网络的城市场景语义分割方法 | |
Cai et al. | A comparative study of deep learning approaches to rooftop detection in aerial images | |
Ver Hoef et al. | A primer on topological data analysis to support image analysis tasks in environmental science | |
Matsuoka et al. | Automatic detection of stationary fronts around Japan using a deep convolutional neural network | |
Dong et al. | Combination of modified U‐Net and domain adaptation for road detection | |
CN116910571A (zh) | 一种基于原型对比学习的开集域适应方法及*** | |
CN116912595A (zh) | 一种基于对比学习的跨域多模态遥感图像分类方法 | |
Toms et al. | Testing the reliability of interpretable neural networks in geoscience using the madden-julian oscillation | |
Varlik et al. | Filtering airborne LIDAR data by using fully convolutional networks | |
CN113011511B (zh) | 基于深度学习多光谱LiDAR数据分类的样本生成方法 | |
Yang et al. | Extraction of land covers from remote sensing images based on a deep learning model of NDVI-RSU-Net | |
Sayed et al. | Point clouds reduction model based on 3D feature extraction | |
CN114821809A (zh) | 基于标记分布学习的多源域领域泛化行人重识别***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240329 Address after: 510000, 4th Floor, No.4 and No.6 Yadun Street, Dongxiao Road, Haizhu District, Guangzhou City, Guangdong Province (Location: Room 426) Patentee after: Guangdong Zhengtu Information Technology Co.,Ltd. Country or region after: China Address before: 650093 No. 253, Xuefu Road, Wuhua District, Yunnan, Kunming Patentee before: Kunming University of Science and Technology Country or region before: China |