CN116935121B - 面向跨地域光谱图像地物分类的双驱动特征学习方法 - Google Patents

面向跨地域光谱图像地物分类的双驱动特征学习方法 Download PDF

Info

Publication number
CN116935121B
CN116935121B CN202310899005.1A CN202310899005A CN116935121B CN 116935121 B CN116935121 B CN 116935121B CN 202310899005 A CN202310899005 A CN 202310899005A CN 116935121 B CN116935121 B CN 116935121B
Authority
CN
China
Prior art keywords
domain
target
feature
projection
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310899005.1A
Other languages
English (en)
Other versions
CN116935121A (zh
Inventor
李骜
吴起慧
孙悦恭
于露
许浩越
谢委衡
邵春锐
冯聪
王泽宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202310899005.1A priority Critical patent/CN116935121B/zh
Publication of CN116935121A publication Critical patent/CN116935121A/zh
Application granted granted Critical
Publication of CN116935121B publication Critical patent/CN116935121B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向跨地域光谱图像地物分类的双驱动特征学习方法,属于光谱图像地物分类技术领域,该方法构建基于统计分布驱动的域特征对齐项和基于模型驱动的域特征对齐项,共同驱动源域和目标域数据的投影特征子空间相互对齐,不仅优化了高光谱跨地域对齐能力,还提高了模型鲁棒性;构建了判别信息约束项,提高了投影特征子空间的领域判别性。最后采用交替方向乘子算法,通过交替优化策略求解目标函数,分别得到源域和目标域的两个对齐子空间;利用源域数据集在其子空间中的投影特征及类别标签训练分类器;将目标域数据在其子空间中投影特征送入训练好的分类器,以获得所述目标域数据集的分类标签。在公开跨地域光谱数据集上的实施结果表明,与现有方法相比,该方法分类精度更高,性能更加稳健。

Description

面向跨地域光谱图像地物分类的双驱动特征学习方法
技术领域
本发明属于光谱图像地物分类技术领域,具体涉及一种面向跨地域光谱图像地物分类的双驱动特征学习方法
背景技术
近年来,许多基于特征学习的分类方法被用于遥感图像地物分类,尤其是在光谱图像地物分类领域。然而,大多数地物分类方法需要大量且准确的标记样本,而样本标记过程通常耗时且需要大量人力资源。为了解决这一问题,一种直接的思想是利用源域中已标记地物类别标签的样本对新获取的未标记地物类别标签的相似目标域进行分类。这种任务被称为跨域地物分类任务。然而,在实际任务中,由于源域数据与目标域数据取自不同地域,两个域的地理条件、地表覆盖类型和环境因素的不同会导致同一地物在源域和目标域的条件分布和光谱反射率存在差异。这时直接使用源域对目标域进行分类往往得不到理想的分类效果,这种挑战就是所谓的跨地域光谱图像地物分类,为应对这一挑战,我们提出了一种面向跨地域光谱图像地物分类的双驱动特征学习方法。
发明内容
为解决上述挑战,本发明提供了一种面向跨地域光谱图像地物分类的双驱动特征学习方法,以使用边缘分布约束和条件分布约束来构造基于统计分布驱动的域特征对齐项;此外,构造基于模型驱动的域特征对齐项,通过强迫目标域数据与源域数据之间互相线性表示来寻求不变的子空间,以实现源域与目标域进一步对齐;进一步地,为提高投影特征子空间的领域判别性,将数据重构引入目标函数作为判别信息约束项。最后采用交替方向乘子算法,通过交替优化策略求解目标函数。
在本发明实施方式中,提供了一种面向跨地域光谱图像地物分类的双驱动特征学习方法,包括:加载源域数据集与目标域数据集,源域数据为某一地域位置采集的有地物类别标签的光谱数据样本,目标域数据为另一不同地域位置采集的没有地物类别标签的待分类光谱数据样本;定义关于跨地域光谱图像地物分类的双驱动特征学习模型的目标函数,该目标函数中包含两种驱动形式的特征对项,分别是基于统计分布驱动的域特征对齐项和基于模型驱动的域特征对齐项,上述两个对齐项共同驱动源域和目标域数据的投影特征子空间相互对齐;为提高投影特征子空间的领域判别性,将数据重构引入目标函数作为判别信息约束项,重新拟定目标函数;利用交替方向乘子算法,通过交替优化策略求解目标函数,分别得到源域和目标域的两个对齐子空间;利用源域数据集在其子空间中的投影特征及类别标签训练分类器;将目标域数据在其子空间中投影特征送入训练好的分类器,以获得所述目标域数据集的分类标签。
进一步地,在所述定义关于跨地域光谱图像地物分类的双驱动特征学习模型的目标函数的定义步骤如下:
为了约束源域和目标域投影子空间的关联,引入投影子空间约束项,拟定的目标函数如下:
其中λ1为平衡参数,Wsd×k和Wtd×k分别为源域子空间和目标域子空间,d表示源域数据和目标域数据的维度,k为通过主成分分析获得的特征向量
进一步地,为构建基于统计分布驱动的域特征对齐项,引入边缘分布约束如下:
其中ns与nt分别为源样本和目标样本的数量,和/>分别表示源域的第i个光谱数据样本和目标域的第j个光谱数据样本。
进一步地,为构建基于统计分布驱动的域特征对齐项,引入条件分布约束如下:
其中c为样本类别数,和/>分别为源域和目标域数据集中第l类样本的数量。
将边缘分布约束和条件分布约束以及投影子空间约束合并得到基于统计分布驱动的域特征对齐项的表达式如下:
进一步地,构建基于模型驱动的域特征对齐项的表达式如下:
其中,λ3~λ6为平衡参数,分别为源域和目标域的重构系数矩阵,/>和/>分别表示源域和目标域的光谱数据集合。
将基于统计分布驱动的域特征对齐项与基于模型驱动的域特征对齐项合并得到目标函数的表达式如下:
进一步地,向目标函数引入判别信息约束项,将其重新拟定为如下的形式:
其中表示两个正交重构矩阵。
进一步地,求解目标函数值最小化时各个变量的值的步骤包括:利用交替方向乘子算法,在其他变量不变的条件下针对每个变量迭代地求解最小化问题;固定其他变量,删除与Ps无关的函数项,得到变量Ps的目标函数式,通过奇异值收缩算子求解;固定其他变量,删除与Pt无关的函数项,得到变量Pt的目标函数式,通过奇异值收缩算子求解;固定其他变量,删除与Zs无关的函数项,得到变量Zs的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;固定其他变量,删除与Zt无关的函数项,得到变量Zt的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;固定其他变量,删除与W s无关的函数项,得到变量W s的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;固定其他变量,删除与W t无关的函数项,得到变量W t的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式。
根据本发明实施方式的面向跨地域光谱图像地物分类的双驱动特征学习方法,用于跨地域光谱图像的地物分类,将基于统计分布驱动的域特征对齐项和基于模型驱动的域特征对齐项引入到学习框架中共同驱动源域和目标域数据的投影特征子空间相互对齐。在此基础上,为提高投影特征子空间的领域判别性,将数据重构项引入到目标函数中。最终交替方向乘子算法,通过交替优化策略求解目标函数;本发明与现有方法相比,该方法分类精度更高,性能更加稳健。
具体优势如下:
1.本发明的实施例采用了一个新的双驱动特征学习模型,将基于统计分布驱动的域特征对齐和基于模型驱动的域特征对齐结合到一个统一的框架中;新模型中,基于统计分布驱动的域特征对齐项分别从边缘分布位移和条件分布位移两个角度对两个域进行对齐,这有助于提高模型的表达能力,并降低过拟合的风险;基于模型驱动的域特征对齐项在学习过程中不需要样本的标签信息,而是利用数据本身的结构进行互相表示学习。这使得其在处理数据未标注或标注有限的情况下具有重要的应用价值。
2.本发明的实施例将数据重构项引入到框架中,有效的提高了源域和目标域的投影特征子空间的领域判别性。
3.本发明的实施例采用交替方向乘子算法,通过交替优化策略求解目标函数,推导出算法中各变量的解。
附图说明
为了更清楚地说明本发明示例性实施方式或现有技术中的技术方案,下面将对发明示例性实施方式或现有技术描述中所需要使用的附图作简单地介绍。
通过参考下文中的详细描述,并结合附图进行阅读,可以好地理解本发明示例性实施方式的上述和其他目的、特征和优点。附图中展示了本发明的若干实施方式,仅供示例而非限制性展示,其中:
图1是本发明提供的一种面向跨地域光谱图像地物分类的双驱动特征学习方法的流程图;
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是只是示例性的,而并非要限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地达给本领域的技术人员。
本发明提供了一种面向跨地域光谱图像地物分类的双驱动特征学习方法,所述方法步骤如下:
如图1所示,处理流程开始后,首先执行步骤S1。
在步骤S1中,加载数据集,包含人工标注了地物类别标签的源域数据集以及没有地物类别标签待分类的目标域数据集。
接着,在步骤S2中,定义基于统计分布驱动的域特征对齐项。
作为示例,步骤S2中定义的于统计分布驱动的域特征对齐项的表达式如下:
其中其中λ1、λ2为平衡参数,Wsd×k和Wtd×k分别表示源域子空间和目标域的投影子空间,d表示源域数据和目标域数据的维度,k为通过主成分分析获得的特征向量。为边缘分布约束,ns与nt分别为源样本和目标样本的数量,/>和/>分别表示源域的第i个光谱数据样本和目标域的第j个光谱数据样本。为条件分布约束,其中c为样本类别数,/>与/>分别为源域和目标域数据集中第l类样本的数量。/>为源域和目标域投影子空间的关联约束项。通过上述联合对齐约束模型,能够从统计分布驱动的角度迫使源域和目标域数据的投影特征子空间具有相近的分布特性,达到提高目标域数据在源域数据所训分类器中的分类准确性的目的。
然后,在步骤S3中,基于模型驱动的域特征对齐项。
作为示例,步骤S3中定义的基于模型驱动的域特征对齐项采用如下表达形式:
其中,λ3~λ6为平衡参数,分别为源域和目标域的重构系数矩阵,/>和/>分别表示源域和目标域的光谱数据集合。
然后,在步骤S4中,将基于统计分布驱动的域特征对齐项与基于模型驱动的域特征对齐项合并定义为目标函数。
作为示例,步骤S4中定义的目标函数表示如下:
接着,在步骤S5中,向步骤S4中定义的目标函数引入判别信息约束项,并重新拟定目标函数。
作为示例,步骤S5中重新拟定的目标函数表示如下:
作为示例,步骤S6例如可以包括如下将要描述的子流程,该子流程包括步骤S601~S606。
在步骤S601中,利用交替方向乘子算法ADMM(Alternating Direction Method ofMultipliers),针对每个变量迭代地求解最小化,固定其他变量(此处“其他变量”是指Ps以外的所有变量),删除与Ps无关的函数项,得到如下公式:
式(5)可用奇异值分解(SVD)求解,使Ps的解为Ps=UVT
类似的,在步骤S602中,利用交替方向乘子算法ADMM,固定其他变量(此处“其他变量”是指Pt以外的所有变量),删除与Pt无关的函数项,得到如下公式:
SVD同样可以求解式(6),使Pt的解为Pt=UVT
在步骤S603中,同样利用交替方向乘子算法ADMM,固定其他变量(此处“其他变量”是指Zs以外的所有变量),删除与Zs无关的函数项,如下:
然后,在步骤S603中,令式(7)对Zs求导的结果为0,得到如下结果:
类似的,在步骤S604中,利用交替方向乘子算法ADMM,固定其他变量(此处“其他变量”是指Zt以外的所有变量),删除与Zt无关的函数项,得到如下公式:
然后,在步骤S604中,令式(9)对Zt求导的结果为0,得到如下结果:
在步骤S605中,利用交替方向乘子算法ADMM,固定其他变量(此处“其他变量”是指Ws以外的所有变量),删除与Ws无关的函数项,得到如下公式:
然后,在步骤S605中,令式(11)对Ws求导的结果为0,得到如下结果:
在步骤S606中,利用交替方向乘子算法ADMM,固定其他变量(此处“其他变量”是指Wt以外的所有变量),删除与Wt无关的函数项,得到如下公式:
然后,在步骤S606中,令式(13)对Wt求导的结果为0,得到如下结果:
通过执行完步骤S6,分别得到源域和目标域的两个对齐子空间。
最后,在步骤S7中,利用源域数据集在其子空间中的投影特征及类别标签训练分类器;将目标域数据在其子空间中投影特征送入训练好的分类器,以获得所述目标域数据集的分类标签。
具体实施方式结果
本实施方式采用HYRANK数据集。数据集的细节描述如下:
HYRANK数据集是在国际摄影测量学会和RS(ISPRS)科学倡议的框架内开发的。HYRANK数据集包含两个不同地域的场景Dioni和Loukia,分别由250×1376像素和249×945像素组成。在表1中展示了实验类的编号和名称以及类别样本在两个不同地域场景中的样本数量。为了验证本实施方式(Ours)的优越性,将本实施方式与几种现有的方法进行比较,包括KNN、TCA等方法,将会比较这些方法对于上述公开数据集分类的精确度,具体的数据对比如表2所示。
表1 HYRANK数据集的源样本和目标样本的数量
表2 HYRANK数据集分类结果
续表2
通过上表中的数据对比,可以清楚地看到,本方法达到了很好的性能,显著提高了分类性能。
本实施例提出了一种面向跨地域光谱图像地物分类的双驱动特征学习方法。建立了一个基于统计分布驱动的域特征对齐项和基于模型驱动的域特征对齐项的双驱动特征学习模型,并对该模型设计了一种基于交替方向乘子法的数值求解方法对目标函数进行求解。在公开测试数据集上的结果表明了本实施方式的优越性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

Claims (2)

1.面向跨地域光谱图像地物分类的双驱动特征学习方法,其特征在于,包括步骤:
将光谱图像数据集分成源域数据集和目标域数据集,源域数据为某一地域位置采集的有地物类别标签的光谱数据样本,目标域数据为另一不同地域位置采集的没有地物类别标签的待分类光谱数据样本;定义关于投影特征子空间学习模型的目标函数,该目标函数中包含两种驱动形式的特征对项,分别是基于统计分布驱动的域特征对齐项和基于模型驱动的域特征对齐项,上述两个对齐项共同驱动源域和目标域数据的投影特征子空间相互对齐;
所述目标函数中的基于统计分布驱动的域特征对齐项的表达式如下:
其中λ1、λ2为平衡参数,和/>分别表示源域子空间和目标域的投影子空间,d表示源域数据和目标域数据的维度,k为通过主成分分析获得的特征向量;为边缘分布约束,ns和nt分别为源样本和目标样本的数量,/>和/>分别表示源域的第i个光谱数据样本和目标域的第j个光谱数据样本,为条件分布约束,其中c为样本类别数,/>和/>分别为源域和目标域数据集中第l类样本的数量;/>为源域和目标域投影子空间的关联约束项,通过联合对齐约束模型,能够从统计分布驱动的角度迫使源域和目标域数据的投影特征子空间具有相近的分布特性,达到提高目标域数据在源域数据所训分类器中的分类准确性的目的;
所述目标函数中的基于模型驱动的域特征对齐项的表达式如下:
其中,λ3~λ6为平衡参数,分别为源域和目标域的重构系数矩阵,/>和/>分别表示源域和目标域的光谱数据集合,通过上述模型驱动的域特征对齐项,能够使得源域数据和目标域数据在投影子空间的特征能够交互的线性重构,进一步从线性表示模型驱动的角度迫使数据投影特征具有相近分布特性;
为提高投影特征子空间的领域判别性,将数据重构引入目标函数作为判别信息约束项,将其重新拟定为如下的形式:
其中其中表示两个正交重构矩阵,判别性约束项能够有效的保持源域和目标域数据在投影后保留各自领域的判别性信息;
最后利用交替方向乘子算法,通过交替优化策略求解重新拟定的目标函数,分别得到源域和目标域的两个对齐子空间;利用源域数据集在其子空间中的投影特征及类别标签训练分类器;将目标域数据在其子空间中投影特征送入训练好的分类器,以获得所述目标域数据集的分类标签。
2.根据权利要求1所述的双驱动特征学习方法,其特征在于,所述利用交替方向乘子算法求解重新拟定的目标函数,通过在其他变量不变的条件下针对每个变量迭代地求解最小化问题:
固定其他变量,删除与Ps无关的函数项,得到变量Ps的目标函数式,通过奇异值收缩算子求解;
固定其他变量,删除与Pt无关的函数项,得到变量Pt的目标函数式,通过奇异值收缩算子求解;
固定其他变量,删除与Zs无关的函数项,得到变量Zs的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;
固定其他变量,删除与Zt无关的函数项,得到变量Zt的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;
固定其他变量,删除与Ws无关的函数项,得到变量Ws的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式;
固定其他变量,删除与Wt无关的函数项,得到变量Wt的目标函数式,进行强制目标函数式导数为零的求解,得到封闭形式,通过逐项迭代更新变量来求解。
CN202310899005.1A 2023-07-20 2023-07-20 面向跨地域光谱图像地物分类的双驱动特征学习方法 Active CN116935121B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310899005.1A CN116935121B (zh) 2023-07-20 2023-07-20 面向跨地域光谱图像地物分类的双驱动特征学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310899005.1A CN116935121B (zh) 2023-07-20 2023-07-20 面向跨地域光谱图像地物分类的双驱动特征学习方法

Publications (2)

Publication Number Publication Date
CN116935121A CN116935121A (zh) 2023-10-24
CN116935121B true CN116935121B (zh) 2024-04-19

Family

ID=88383946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310899005.1A Active CN116935121B (zh) 2023-07-20 2023-07-20 面向跨地域光谱图像地物分类的双驱动特征学习方法

Country Status (1)

Country Link
CN (1) CN116935121B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389174A (zh) * 2018-10-23 2019-02-26 四川大学 一种人群聚集敏感图像检测方法
CN110619367A (zh) * 2019-09-20 2019-12-27 哈尔滨理工大学 联合低秩约束跨视角判别子空间学习方法及装置
CN112052888A (zh) * 2020-08-26 2020-12-08 西安电子科技大学 基于耦合投影和嵌入子空间的领域自适应模式识别方法
CN112836736A (zh) * 2021-01-28 2021-05-25 哈尔滨理工大学 一种基于深度自编码器构图的高光谱图像半监督分类方法
CN113240030A (zh) * 2021-05-24 2021-08-10 哈尔滨理工大学 一种基于交互表示的域自适应子空间学习方法
CN113627084A (zh) * 2021-08-06 2021-11-09 西南大学 基于极限学习机的电子鼻信号漂移补偿子空间对齐方法
CN115034369A (zh) * 2022-06-14 2022-09-09 天津国能盘山发电有限责任公司 故障诊断的方法、装置、存储介质和电子设备
US11487273B1 (en) * 2021-04-30 2022-11-01 Dalian University Of Technology Distributed industrial energy operation optimization platform automatically constructing intelligent models and algorithms
CN116451179A (zh) * 2023-04-18 2023-07-18 常州工业职业技术学院 一种基于投影重构的领域适应字典对学习方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684951B2 (en) * 2014-03-31 2017-06-20 Los Alamos National Security, Llc Efficient convolutional sparse coding
EP3618287B1 (en) * 2018-08-29 2023-09-27 Université de Genève Signal sampling with joint training of learnable priors for sampling operator and decoder

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389174A (zh) * 2018-10-23 2019-02-26 四川大学 一种人群聚集敏感图像检测方法
CN110619367A (zh) * 2019-09-20 2019-12-27 哈尔滨理工大学 联合低秩约束跨视角判别子空间学习方法及装置
CN112052888A (zh) * 2020-08-26 2020-12-08 西安电子科技大学 基于耦合投影和嵌入子空间的领域自适应模式识别方法
CN112836736A (zh) * 2021-01-28 2021-05-25 哈尔滨理工大学 一种基于深度自编码器构图的高光谱图像半监督分类方法
US11487273B1 (en) * 2021-04-30 2022-11-01 Dalian University Of Technology Distributed industrial energy operation optimization platform automatically constructing intelligent models and algorithms
CN113240030A (zh) * 2021-05-24 2021-08-10 哈尔滨理工大学 一种基于交互表示的域自适应子空间学习方法
CN113627084A (zh) * 2021-08-06 2021-11-09 西南大学 基于极限学习机的电子鼻信号漂移补偿子空间对齐方法
CN115034369A (zh) * 2022-06-14 2022-09-09 天津国能盘山发电有限责任公司 故障诊断的方法、装置、存储介质和电子设备
CN116451179A (zh) * 2023-04-18 2023-07-18 常州工业职业技术学院 一种基于投影重构的领域适应字典对学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cross-Scene Hyperspectral Image Classification With Discriminative Cooperative Alignment;Yuxiang Zhang 等;《IEEE Transactions on Geoscience and Remote Sensing》;20210113;第59卷(第11期);9646-9600 *
多核低冗余表示学习的稳健多视图子空间聚类方法;李骜 等;《通信学报》;20211130;第42卷(第11期);193-204 *

Also Published As

Publication number Publication date
CN116935121A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
Amid et al. TriMap: Large-scale dimensionality reduction using triplets
US11875267B2 (en) Systems and methods for unifying statistical models for different data modalities
Noroozi et al. Representation learning by learning to count
Gui et al. Joint learning of visual and spatial features for edit propagation from a single image
Du et al. Spatial and spectral unmixing using the beta compositional model
CN106777318B (zh) 基于协同训练的矩阵分解跨模态哈希检索方法
US7512273B2 (en) Digital ink labeling
US9070047B2 (en) Decision tree fields to map dataset content to a set of parameters
US9449395B2 (en) Methods and systems for image matting and foreground estimation based on hierarchical graphs
Díaz et al. Micro‐structural tissue analysis for automatic histopathological image annotation
CN112232374B (zh) 基于深度特征聚类和语义度量的不相关标签过滤方法
Sui et al. Robust tracking via locally structured representation
Simran et al. Content based image retrieval using deep learning convolutional neural network
CN115457311A (zh) 一种基于自表达迁移学习的高光谱遥感影像波段选择方法
Ma et al. Multifeature-based discriminative label consistent K-SVD for hyperspectral image classification
Zhang et al. Efficient history matching with dimensionality reduction methods for reservoir simulations
CN111259176B (zh) 融合有监督信息的基于矩阵分解的跨模态哈希检索方法
CN116935121B (zh) 面向跨地域光谱图像地物分类的双驱动特征学习方法
Wang et al. Conscience online learning: an efficient approach for robust kernel-based clustering
Bhattacharjya et al. A genetic algorithm for intelligent imaging from quantum-limited data
Biswas et al. Attendance Tracking with Face Recognition Through Hidden Markov Models
CN111401519B (zh) 一种基于物体内和物体间相似性距离的深层神经网络无监督学习方法
CN115392474A (zh) 一种基于迭代优化的局部感知图表示学习方法
CN114299342A (zh) 一种基于深度学习的多标记图片分类中未知标记分类方法
Fushimi et al. Accelerating Greedy K-Medoids Clustering Algorithm with Distance by Pivot Generation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant