CN113298189B - 一种基于无监督域自适应的跨域图像分类方法 - Google Patents

一种基于无监督域自适应的跨域图像分类方法 Download PDF

Info

Publication number
CN113298189B
CN113298189B CN202110743638.4A CN202110743638A CN113298189B CN 113298189 B CN113298189 B CN 113298189B CN 202110743638 A CN202110743638 A CN 202110743638A CN 113298189 B CN113298189 B CN 113298189B
Authority
CN
China
Prior art keywords
domain
network
feature
classification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110743638.4A
Other languages
English (en)
Other versions
CN113298189A (zh
Inventor
曹江中
卫宁宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110743638.4A priority Critical patent/CN113298189B/zh
Publication of CN113298189A publication Critical patent/CN113298189A/zh
Application granted granted Critical
Publication of CN113298189B publication Critical patent/CN113298189B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种基于无监督域自适应的跨域图像分类方法,包括S1:构建源域图像样本数据和目标域图像样本数据作为训练数据;S2:将所述训练数据中的图像进行归一化处理;S3:将归一化处理后的训练数据中的图像输入至域自适应网络进行训练,所述域自适应网络用于跨域图像分类;S4:训练域自适应网络时,在总损失值未达到预设的收敛条件时,迭代更新所述域自适应网络的参数,直至总损失值达到预设的收敛条件时,将收敛之后的域自适应网络记录为训练完成的域自适应分类模型;S5:利用训练完成的域自适应分类模型进行跨域图像分类。本发明减少了特征提取过程中重要信息的丢失,获取更多的共有特征,提高了图像跨域分类准确性和图像分类网络模型泛化性。

Description

一种基于无监督域自适应的跨域图像分类方法
技术领域
本发明涉及跨域图像分类领域,更具体地,涉及一种基于无监督域自适应的跨域图像分类方法。
背景技术
近年来,随着机器视觉技术的飞速发展,图像分类技术在人们的日常生活中无处不在,体现出了其强大的实用性。简单的来说,图像分类技术是对相机拍到的图像及相关信息进行处理、分析和理解的技术,多用于在不同环境中找到目标及目标对象。图像识别及相关的分类技术在主体为机器视觉的智能化数据处理和控制的体系中,是非常重要的存在。
由于机器学习算法和深度神经网络等技术得到快速发展和良好的运用,使得图像分类模型的性能得以大幅度提升。当训练样本和测试样本满足独立同分布基本假设时,分类模型可以获得很好的分类效果。但是,在实际应用中,由于各种因素不可能保证训练样本始终与测试样本具有相同的分布,例如,用于训练人脸识别***的高分辨率ID卡照片和低分辨率嘈杂的监视图像之间的分布不同;从互联网下载的用于训练的图像与来自真实场景中不同照明或角度的图像之间的分布也不同。当出现训练数据和测试数据分布之间存在明显差异的情况下,训练集和测试集之间的较大分布差异将模糊数据集所具有的类间差异,获得的模型通常会失效。
迁移学习可以有效的解决以上问题,其原理是通过利用数据之间的相关性,将从源域学习到的知识转移到目标域。既通过运用与目标领域相关联的先验知识来完成既定目标。其中领域自适应是一种比较具有代表性的迁移学习方法,领域自适应学习方法主要是通过完成分类器从源域适配到目标区域的相关问题来实现的,可有效减少由训练样本和测试样本之间的分布不同而造成的影响,并通过学习源领域与目标领域之间的共同点来提升模型的性能,最终达到分类器适应的目的。目前许多学者将图像细粒度信息加入到域自适应中提高了域自适应能力,但在域不变表示的获取过程中存在重要信息过多丢失的问题。
公开日为2020年10月27日,公开号为CN111832605A的中国专利公开了一种无监督图像分类模型的训练方法、装置和电子设备,通过将获取的目标域数据集和至少一个源域数据集分批次输入至无监督图像分类模型中进行处理,以训练无监督图像分类模型的特征生成网络、分类网络、域判别网络和联合标签分类网络,响应于特征生成网络、分类网络、域判别网络和联合标签分类网络对应的损失满足预定条件,确定无监督图像分类模型训练完成。该专利同样存在特征信息丢失的问题。
发明内容
本发明提供一种基于无监督域自适应的跨域图像分类方法,解决在包含细粒度信息的域自适应中域不变表示不准确的问题。
为解决上述技术问题,本发明的技术方案如下:
一种基于无监督域自适应的跨域图像分类方法,包括以下步骤:
S1:构建源域图像样本数据和目标域图像样本数据作为训练数据;
S2:将所述训练数据中的图像进行归一化处理;
S3:将归一化处理后的训练数据中的图像输入至域自适应网络进行训练,所述域自适应网络用于跨域图像分类;
S4:训练域自适应网络时,在总损失值未达到预设的收敛条件时,迭代更新所述域自适应网络的参数,直至总损失值达到预设的收敛条件时,将收敛之后的域自适应网络记录为训练完成的域自适应分类模型;
S5:利用训练完成的域自适应分类模型进行跨域图像分类。
优选地,所述步骤S1中源域图像样本数据和目标域图像样本数据的类别数相同。
优选地,所述步骤S1中,源域图像样本数据带有标签,目标域图像样本数据无标签。
优选地,所述域自适应网络包括特征提取模型、分类模型和特征对齐模型,其中,所述特征提取模型获取图像特征表示,通过所述分类模型计算分类损失值,通过所述特征对齐模型计算特征对齐损失值。
优选地,所述步骤S4中总损失值为分类损失值与特征对齐损失值的和。
优选地,所述特征提取模型包括共享网络,非共享网络和特征融合网络,其中,所述共享网络进行第一次特征提取后,非共享网络进行第二次特征提取,将提取得到的不同特征通过所述特征融合网络进行特征融合得到图像特征表示。
优选地,所述共享网络为resnet50卷积层,非共享网络由5种不同的网络分别代替resnet50最后的平均池化层组成,使用预训练的resnet50网络参数初始化。
优选地,所述分类损失值的计算方法如下:
Figure BDA0003142160680000031
式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure BDA0003142160680000032
表示源域数据,
Figure BDA0003142160680000033
为域自适应网络中分类模型测得的分类结果,/>
Figure BDA0003142160680000034
为源域数据的标签。
优选地,所述特征对齐损失值的计算方法如下:
获得源域特征和目标域特征,使用局部最大均值差异来计算源域特征与目标域特征之间的距离,此距离为特征对齐损失值,计算式为:
Figure BDA0003142160680000035
式中,p、q分别代表源域数据分布和目标域数据分布,C为数据类别总数,ns、nt分别为源域数据和目标域数据的个数,
Figure BDA0003142160680000036
和/>
Figure BDA0003142160680000037
代表/>
Figure BDA0003142160680000038
属于c类的权重,/>
Figure BDA0003142160680000039
和/>
Figure BDA00031421606800000310
代表/>
Figure BDA00031421606800000311
属于c类的权重,/>
Figure BDA00031421606800000312
和/>
Figure BDA00031421606800000313
都为1,/>
Figure BDA00031421606800000314
为选取的适应层的特征,k为核函数,/>
Figure BDA00031421606800000315
为样本图像Xi属于c类的权重。
优选地,所述步骤S4中迭代更新所述域自适应网络的参数,具体为:
Figure BDA00031421606800000316
以上式为目标函数迭代更新所述域自适应网络的参数;式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure BDA00031421606800000317
表示源域数据,/>
Figure BDA00031421606800000318
为域自适应网络中分类模型测得的分类结果,/>
Figure BDA00031421606800000319
为源域数据的标签,/>
Figure BDA00031421606800000320
为特征对齐损失值。
与现有技术相比,本发明技术方案的有益效果是:
本发明的域自适应网络获取所述图像的不同特征表示,将不同的特征表示进行特征融合后得到所述图像的最终特征表示,减少了特征提取过程中重要信息的丢失,使得网络可获取更多源域图像与目标域图像的共有特征,提高了图像跨域分类的准确性和图像分类网络模型的泛化性。
附图说明
图1为本发明的方法流程示意图。
图2为实施例中特征提取模型的结构示意图。
图3为office-31数据库示例图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于无监督域自适应的跨域图像分类方法,如图1所示,包括以下步骤:
S1:构建源域图像样本数据和目标域图像样本数据作为训练数据;
S2:将所述训练数据中的图像进行归一化处理;
S3:将归一化处理后的训练数据中的图像输入至域自适应网络进行训练,所述域自适应网络用于跨域图像分类;
S4:训练域自适应网络时,在总损失值未达到预设的收敛条件时,迭代更新所述域自适应网络的参数,直至总损失值达到预设的收敛条件时,将收敛之后的域自适应网络记录为训练完成的域自适应分类模型;
S5:利用训练完成的域自适应分类模型进行跨域图像分类。
所述步骤S1中源域图像样本数据和目标域图像样本数据的类别数相同。
所述步骤S1中,源域图像样本数据带有标签,目标域图像样本数据无标签。
所述S2步骤中,在不影响图像中物体的前提下,对训练数据中的每张图像进行相同的尺寸缩放
所述S3步骤中,域自适应网络中目标域中的伪标签是使用经过特征融合后的分类网络得到的概率值。
所述S3步骤中,域自适应网络使用混合网络结构提取域不变特征并使用局部最大均值差异来计算域间的特征分布距离。
所述域自适应网络包括特征提取模型、分类模型和特征对齐模型,其中,所述特征提取模型获取图像特征表示,通过所述分类模型计算分类损失值,通过所述特征对齐模型计算特征对齐损失值。
所述步骤S4中总损失值为分类损失值与特征对齐损失值的和。
所述特征提取模型如图2,包括共享网络,非共享网络和特征融合网络,其中,所述共享网络进行第一次特征提取后,非共享网络进行第二次特征提取,将提取得到的不同特征通过所述特征融合网络进行特征融合得到图像特征表示。
所述S3步骤中,域自适应网络中的适应层为特征融合网络的最后一层。
所述共享网络为resnet50卷积层,非共享网络由5种不同的网络分别代替resnet50最后的平均池化层组成,使用预训练的resnet50网络参数初始化,所述非共享网络的网络结构以及参数见表1:
表1
Figure BDA0003142160680000051
所述分类损失值的计算方法如下:
Figure BDA0003142160680000061
式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure BDA0003142160680000062
表示源域数据,
Figure BDA0003142160680000063
为域自适应网络中分类模型测得的分类结果,/>
Figure BDA0003142160680000064
为源域数据的标签。
所述特征对齐损失值的计算方法如下:
获得源域特征和目标域特征,使用局部最大均值差异来计算源域特征与目标域特征之间的距离,此距离为特征对齐损失值,计算式为:
Figure BDA0003142160680000065
式中,p、q分别代表源域数据分布和目标域数据分布,C为数据类别总数,ns、nt分别为源域数据和目标域数据的个数,
Figure BDA0003142160680000066
和/>
Figure BDA0003142160680000067
代表/>
Figure BDA0003142160680000068
属于c类的权重,/>
Figure BDA0003142160680000069
和/>
Figure BDA00031421606800000610
代表/>
Figure BDA00031421606800000611
属于c类的权重,/>
Figure BDA00031421606800000612
和/>
Figure BDA00031421606800000613
都为1,/>
Figure BDA00031421606800000614
为选取的适应层的特征,k为核函数,/>
Figure BDA00031421606800000615
为样本图像Xi属于c类的权重,计算方式为:
Figure BDA00031421606800000616
yic为代表样本标签的向量yi,在源域样本中使用真实的样本标签
Figure BDA00031421606800000617
的one-hot向量计算/>
Figure BDA00031421606800000618
在目标域中使用预测的概率分布值来计算/>
Figure BDA00031421606800000619
总损失为:
Figure BDA00031421606800000620
所述步骤S4中迭代更新所述域自适应网络的参数,具体为:
Figure BDA00031421606800000621
以上式为目标函数迭代更新所述域自适应网络的参数;式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure BDA00031421606800000622
表示源域数据,/>
Figure BDA00031421606800000623
为域自适应网络中分类模型测得的分类结果,/>
Figure BDA0003142160680000071
为源域数据的标签,/>
Figure BDA0003142160680000072
为特征对齐损失值。
在具体实施过程中,使用的office-31数据集视觉自适应领域中通用的基准数据集,如图3所示,由三个不同对象域组成Amazon在线商家下载的图像,Webcam网络摄像头拍摄的低分辨率图像和DSLR高分辨率图像,共包含31个类,4,652张图像。为了实现无偏估计,设计了六种域自适应任务,即Amazon→Webcam,DSLR→Webcam,Webcam→DSLR,Amazon→DSLR,DSLR→Amazon,Webcam→Amazon。
涉及到的对比算法有:ResNet(deep convolutional neural network),DDC(deepdomain confusion),DAN,D-CORAL(Deep CORAL),DANNs(domain adversarial neuralnetworks),RTN(residual transfer network),ADDA(adversarial discriminativedomain adaptation),JANs(joint adaptation networks),CAN and iCAN(collaborativeand adversarial network),GTA(generate to adapt),CDAN(conditional adversarialdomain adaptation)。对比结果如表2所示:
Figure BDA0003142160680000073
Figure BDA0003142160680000081
从表1可见,本方法的分类效果优于其他对比方法。通过以上仿真实验可以验证本发明的有效性。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种基于无监督域自适应的跨域图像分类方法,其特征在于,包括以下步骤:
S1:构建源域图像样本数据和目标域图像样本数据作为训练数据;
S2:将所述训练数据中的图像进行归一化处理;
S3:将归一化处理后的训练数据中的图像输入至域自适应网络进行训练,所述域自适应网络用于跨域图像分类;
S4:训练域自适应网络时,在总损失值未达到预设的收敛条件时,迭代更新所述域自适应网络的参数,直至总损失值达到预设的收敛条件时,将收敛之后的域自适应网络记录为训练完成的域自适应分类模型;
S5:利用训练完成的域自适应分类模型进行跨域图像分类;
所述域自适应网络包括特征提取模型、分类模型和特征对齐模型,其中,所述特征提取模型获取图像特征表示,通过所述分类模型计算分类损失值,通过所述特征对齐模型计算特征对齐损失值,域自适应网络使用混合网络结构提取域不变特征并使用局部最大均值差异来计算域间的特征分布距离;
所述特征对齐损失值的计算方法如下:
获得源域特征和目标域特征,使用局部最大均值差异来计算源域特征与目标域特征之间在特征融合网络最后一层网络的距离,此距离为特征对齐损失值,计算式为:
Figure FDA0004253185170000011
式中,p、q分别代表源域数据分布和目标域数据分布,C为数据类别总数,ns、nt分别为源域数据和目标域数据的个数,
Figure FDA0004253185170000012
和/>
Figure FDA0004253185170000013
代表/>
Figure FDA0004253185170000014
属于c类的权重,/>
Figure FDA0004253185170000015
和/>
Figure FDA0004253185170000016
代表/>
Figure FDA0004253185170000017
属于c类的权重,/>
Figure FDA0004253185170000018
和/>
Figure FDA0004253185170000019
都为1,/>
Figure FDA00042531851700000110
为选取的适应层的特征,k为核函数,/>
Figure FDA00042531851700000111
为样本图像Xi属于c类的权重;
所述步骤S4中迭代更新所述域自适应网络的参数,具体为:
Figure FDA0004253185170000021
以目标函数迭代更新所述域自适应网络的参数;式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure FDA0004253185170000022
表示源域数据,/>
Figure FDA0004253185170000023
为域自适应网络中分类模型测得的分类结果,
Figure FDA0004253185170000024
为源域数据的标签,/>
Figure FDA0004253185170000025
为特征对齐损失值。
2.根据权利要求1所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述步骤S1中源域图像样本数据和目标域图像样本数据的类别数相同。
3.根据权利要求1所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述步骤S1中,源域图像样本数据带有标签,目标域图像样本数据无标签。
4.根据权利要求3所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述步骤S4中总损失值为分类损失值与特征对齐损失值的和。
5.根据权利要求3所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述特征提取模型包括共享网络,非共享网络和特征融合网络,其中,所述共享网络进行第一次特征提取后,非共享网络进行第二次特征提取,通过共享网络与非共享网络获得图像的不同特征表示,将提取得到的不同特征通过所述特征融合网络进行特征融合得到图像特征表示。
6.根据权利要求5所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述共享网络为resnet50卷积层,非共享网络由5种不同的网络分别代替resnet50最后的平均池化层组成,使用预训练的resnet50网络参数初始化。
7.根据权利要求3所述的基于无监督域自适应的跨域图像分类方法,其特征在于,所述分类损失值的计算方法如下:
Figure FDA0004253185170000026
式中,J(·,·)为交叉熵损失函数,ns为源域数据的个数,
Figure FDA0004253185170000027
表示源域数据,/>
Figure FDA0004253185170000028
为域自适应网络中分类模型测得的分类结果,/>
Figure FDA0004253185170000029
为源域数据的标签。
CN202110743638.4A 2021-06-30 2021-06-30 一种基于无监督域自适应的跨域图像分类方法 Active CN113298189B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110743638.4A CN113298189B (zh) 2021-06-30 2021-06-30 一种基于无监督域自适应的跨域图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110743638.4A CN113298189B (zh) 2021-06-30 2021-06-30 一种基于无监督域自适应的跨域图像分类方法

Publications (2)

Publication Number Publication Date
CN113298189A CN113298189A (zh) 2021-08-24
CN113298189B true CN113298189B (zh) 2023-07-07

Family

ID=77330328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110743638.4A Active CN113298189B (zh) 2021-06-30 2021-06-30 一种基于无监督域自适应的跨域图像分类方法

Country Status (1)

Country Link
CN (1) CN113298189B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762203B (zh) * 2021-09-17 2023-05-12 中国人民解放军国防科技大学 基于仿真数据的跨域自适应sar图像分类方法、装置及设备
CN114048546B (zh) * 2021-11-17 2024-04-23 大连理工大学 一种基于图卷积网络和无监督域自适应的航空发动机剩余使用寿命预测方法
CN114511521A (zh) * 2022-01-21 2022-05-17 浙江大学 基于多重表示与多重子域自适应的轮胎瑕疵检测方法
CN116188830B (zh) * 2022-11-01 2023-09-29 青岛柯锐思德电子科技有限公司 基于多层级特征对齐的高光谱图像跨域分类方法
CN117093929B (zh) * 2023-07-06 2024-03-29 珠海市伊特高科技有限公司 基于无监督域自适应网络的截流过电压预测方法及装置
CN117152563B (zh) * 2023-10-16 2024-05-14 华南师范大学 混合目标域自适应模型的训练方法、装置及计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法
CN110135579A (zh) * 2019-04-08 2019-08-16 上海交通大学 基于对抗学习的无监督领域适应方法、***及介质
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和***
CN111832605A (zh) * 2020-05-22 2020-10-27 北京嘀嘀无限科技发展有限公司 无监督图像分类模型的训练方法、装置和电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法
CN110135579A (zh) * 2019-04-08 2019-08-16 上海交通大学 基于对抗学习的无监督领域适应方法、***及介质
CN111476168A (zh) * 2020-04-08 2020-07-31 山东师范大学 一种基于三阶段的跨域行人重识别方法和***
CN111832605A (zh) * 2020-05-22 2020-10-27 北京嘀嘀无限科技发展有限公司 无监督图像分类模型的训练方法、装置和电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卷积-反卷积网络的正交人脸特征学习算法;孙文赟;宋昱;陈昌盛;;深圳大学学报(理工版)(05);第38-45页 *

Also Published As

Publication number Publication date
CN113298189A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN113298189B (zh) 一种基于无监督域自适应的跨域图像分类方法
Bhagat et al. Indian sign language gesture recognition using image processing and deep learning
Bheda et al. Using deep convolutional networks for gesture recognition in american sign language
Tao et al. Principal component 2-D long short-term memory for font recognition on single Chinese characters
CN109101865A (zh) 一种基于深度学习的行人重识别方法
Kumar et al. Learning-based approach to real time tracking and analysis of faces
CN109544603B (zh) 基于深度迁移学习的目标跟踪方法
Guo et al. Improved hand tracking system
CN112446423A (zh) 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
CN110110668B (zh) 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
Haque et al. Two-handed bangla sign language recognition using principal component analysis (PCA) and KNN algorithm
Kumbhar et al. Facial expression recognition based on image feature
Kishore et al. Selfie sign language recognition with convolutional neural networks
Pan et al. Attention-based sign language recognition network utilizing keyframe sampling and skeletal features
Ashfaq et al. Classification of hand gestures using Gabor filter with Bayesian and naïve Bayes classifier
Ravi et al. Sign language recognition with multi feature fusion and ANN classifier
CN110222568B (zh) 一种基于时空图的跨视角步态识别方法
CN108062557A (zh) 基于快速压缩跟踪算法的尺度自适应目标跟踪方法
Biswas et al. Face recognition in low-resolution videos using learning-based likelihood measurement model
CN117373062A (zh) 一种基于联合学习的实时端到端跨分辨率行人重识别方法
Elguebaly et al. Infinite generalized gaussian mixture modeling and applications
Lee et al. Face recognition: elastic relation encoding and structural matching
CN114973305A (zh) 一种针对拥挤人群的精确人体解析方法
Liang Unrestricted Face Recognition Algorithm Based on Transfer Learning on Self‐Pickup Cabinet
Praseeda Lekshmi et al. Analysis of facial expressions from video images using PCA

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant