CN111401434B - 一种基于无监督特征学习的图像分类方法 - Google Patents

一种基于无监督特征学习的图像分类方法 Download PDF

Info

Publication number
CN111401434B
CN111401434B CN202010173425.8A CN202010173425A CN111401434B CN 111401434 B CN111401434 B CN 111401434B CN 202010173425 A CN202010173425 A CN 202010173425A CN 111401434 B CN111401434 B CN 111401434B
Authority
CN
China
Prior art keywords
image
matrix
original
feature
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010173425.8A
Other languages
English (en)
Other versions
CN111401434A (zh
Inventor
聂飞平
陆继韬
王榕
李学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010173425.8A priority Critical patent/CN111401434B/zh
Publication of CN111401434A publication Critical patent/CN111401434A/zh
Application granted granted Critical
Publication of CN111401434B publication Critical patent/CN111401434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于无监督特征学习的图像分类方法。首先,构建图块矩阵,并利用PCA算法学习滤波器组、进行特征图降维,再将输出作为输入,重复此过程以构建深层网络,得到两层降维后的特征图集合;然后,将降维后的特征图进行二值化,计算哈希值并分块统计直方图,得到原始图像的特征嵌入;接着,利用原始图像标签和特征嵌入对分类器进行训练;最后,对未标识的待分类图像计算特征嵌入并利用训练好的分类器进行处理,得到最终分类结果。

Description

一种基于无监督特征学习的图像分类方法
技术领域
本发明属机器学习和计算机视觉技术领域,具体涉及一种基于无监督特征学习的图像分类方法。
背景技术
随着计算能力的飞速提升和数据的***式增长,以卷积神经网络(ConvNet或CNN)为代表的深度学习方法在多种计算机视觉任务中取得了巨大的成功。众所周知,数据的特征提取对于机器学习的性能有着重要影响。CNN取得成功的主要原因之一,就是它通过级联的卷积滤波器提取图像多层次的语义信息,优于传统的手工设计的特征。CNN通常是有监督的,而网络上公开的免费数据集不一定适用于当前的任务,因此使用者通常需要付出高额的成本收集适用于欲完成任务的数据,并聘请人工对数据进行标记以便用于网络的训练。为了克服对数据标签的依赖,降低获取数据的成本,人们提出了许多无监督学习方法,即从大量未标记的图片和视频等样本中自动学习特征。使用无监督方法取代当前大规模应用的有监督方法,具有极高的经济价值与社会价值,是当前机器学习研究中的一个热点领域。
图像分类问题是计算机视觉中最基础、最重要也最具有挑战性的任务之一,是其他“高级”任务,如目标检测、语义分割、行人识别等的基础,提高图像分类的性能将间接提高其他数十项计算机视觉任务的性能。图像分类任务十分具有挑战性,主要原因是同一类图像中可能存在巨大的类内差异。
由于低级特征对类内差异的敏感性较低,人们曾花费了众多精力手工设计各种低级特征来克服类内差异。如文献“Jain A K,Farrokhnia F.Unsupervised texturesegmentation using Gabor filters[J].Pattern recognition,1991,24(12):1167-1186.”设计了用于纹理分类的特征,文献“Ahonen T,Hadid A,Pietikainen M.Facedescription with local binary patterns:Application to face recognition[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2006(12):2037-2041.”设计了用于面部分类的特征,文献“Lowe D G.Distinctive image features fromscale-invariant keypoints[J].International journal of computer vision,2004,60(2):91-110.设计特征用于物体分类,文献Dalal N,Triggs B.Histograms of orientedgradients for human detection[C].2005.”设计了用于行人检测的特征等等。尽管这些手工设计的特征在特定领域的任务中取得了巨大的成功,但绝大多数手工设计的特征无法简单适应新条件,为新任务设计有效的特征通常需要设计者拥有特定领域的知识。
从感兴趣的数据中学习特征被认为是对手工设计特征的补救措施,典型的是深度神经网络。深度神经网络的核心思想是学习多个层次的特征表示,希望高层的特征能表示数据中更多抽象的语义,而这些抽象表示对类内差异具有更强的鲁棒性。文献“Bruna J,Mallat S.Invariant scattering convolution networks[J].IEEE transactions onpattern analysis and machine intelligence,2013,35(8):1872-1886.”提出了小波散射网络,使用了类似CNN的级联卷积结构,但其滤波器组是简单的小波算子,不再需要学习滤波器参数,是一种无监督学习方法。尽管使用了固定的滤波器组,它在手写数字识别、纹理识别任务中仍展现了优越的性能。但是,该结构在人脸识别等光照条件变化明显的任务中泛化性能不够好。文献“Chan T H,Jia K,Gao S,et al.PCANet:A simple deeplearning baseline for image classification?[J].IEEE transactions on imageprocessing,2015,24(12):5017-5032.”提出了主成分分析网络(PCANet算法),仍使用级联的卷积结构,但不再使用固定的滤波器组,而是使用PCA无监督地从数据中学习参数。该网络在特征学习阶段不使用标签,在手写数字识别、人脸识别等任务中取得了优异的效果。但是,该算法提取特征的维度随网络深度指数增加,很难通过提高深度来抽取层次更丰富的语义信息。
发明内容
为了克服现有技术的不足,本发明提供一种基于无监督特征学习的图像分类方法。首先,构建图块矩阵,并利用PCA算法学习滤波器组、进行特征图降维,再将输出作为输入,重复此过程以构建深层网络,得到两层降维后的特征图集合;然后,将降维后的特征图进行二值化,计算哈希值并分块统计直方图,得到原始图像的特征嵌入;接着,利用原始图像标签和特征嵌入对分类器进行训练;最后,对未标识的待分类图像计算特征嵌入并利用训练好的分类器进行处理,得到最终分类结果。本发明方法可以解决现有PCANet算法特征维度指数增长的问题,可以通过简单的线性PCA算子有效地提取图像的特征用于分类任务。
一种基于无监督特征学习的图像分类方法,其特征在于步骤如下:
步骤1:对于原始第i幅输入图像,i=1,2,…,N,N为输入图像的数量,按照以下过程提取得到其降维后特征图集合其中,/>表示原始第i幅输入图像的第j幅降维后的特征图,j=1,2,…,D1,D1为设定的目标维度:
步骤1.1:以步长为1的滑动窗口提取图像中以每个像素为中心的图像块,然后,将每个图像块拉伸为一维向量,并分别对每个向量进行去均值化处理,以每个去均值化后的向量作为矩阵的一列,得到矩阵X;其中,设输入图像的大小为p×p,所述的图像块的大小为k×k,k的取值范围为1<k<p;
步骤1.2:采用主成分分析算法求解一组标准正交基构成的正交矩阵V,满足:
其中,L1为设定的滤波器个数,取值范围为1≤L1<k2
将矩阵V的每一列由向量变换为k×k大小的矩阵,以变换得到的每个矩阵为一个滤波器,再将每个滤波器分别与原始输入图像做卷积运算,且通过补零操作使卷积后得到的特征图与原始图像大小相同,得到L1幅大小为p×p的特征图;
步骤1.3:将步骤1.2输出的每幅特征图拉伸为一个一维向量,并以其作为矩阵的一行,得到原始特征图矩阵再采用主成分分析算法求解一组标准正交基构成的投影矩阵U1,满足:
其中,D1为设定的目标维度,取值范围为1≤D1≤L1
按照计算得到降维后矩阵P,将P的每一个行向量变换为p×p大小的矩阵,每个矩阵即为一幅降维后的特征图,共得到D1幅降维后的特征图,构成原始输入图像降维后的特征图集合;
步骤2:对于步骤1得到的每一个降维后特征图集合以其中的每一幅图像/>为输入图像,j=1,2,…,D1,并令步骤1.2中所述的滤波器个数为L2,取值范围为1≤L2<k2,步骤1.3中所述的目标维度为D2,取值范围为1≤D2≤L2,按照步骤1计算得到第二次降维后特征图集合/>
步骤3:对于步骤2得到的每一个特征图集合将其中的所有图像都进行二值化处理,使图像中所有的像素值为0或1,然后,提取不同图像中同一位置的所有像素点值构成一个长度为D2的二进制串,对所有位置的像素点都如此进行提取,再将每一个二进制串转换为一个十进制数,并以每个十进制数作为其对应的二进制串所提取像素位置的新的像素值,得到一幅新图像,记为/>
至此,对于原始第i幅输入图像,得到一个新图像集合
步骤4:对于步骤3得到原始第i幅输入图像的新图像集合Γi,i=1,2,…,N,将其中的每一幅图像以步长为s、大小为b×b的滑动窗口进行区块提取,其中,1≤b≤p,1≤s≤b,然后,分别在每个区块中统计含有个bin的直方图,再将所有直方图连接成一个向量;将集合中所有图像按前述过程得到的向量相连接,并以连接后的向量作为原始第i幅输入图像的特征嵌入;
对原始每一幅输入图像的新图像集合Γi,i=1,2,…,N,都按照上述过程进行处理,得到其对应的特征嵌入,得到全部原始N幅输入图像的N个特征嵌入;
步骤5:以步骤4得到的N个特征嵌入作为分类器的输入数据,原始N幅输入图像的标签作为分类器的输入标签,对分类器进行训练,得到训练好的分类器;所述的分类器包括最邻近分类器、支持向量机;
步骤6:以未标记的待分类M幅图像为输入图像,按照步骤1-4计算得到其M个特征嵌入,再将这M个特征嵌入输入到步骤5得到的训练好的分类器,得到分类结果。
本发明的有益效果是:由于不使用梯度反向传播,而是利用PCA无监督地学习多阶段的滤波器组,与卷积神经网络相比,计算量大大降低,适用于非专用硬件环境下进行快速计算;由于以降维后特征图作为下一层输入图像,与PCANet相比,解决了参数数量随层数增加指数增长的问题,使构建更深层网络以提取更高层的语义信息成为可能;由于特征提取过程不依赖标记数据,可以在不增加额外人工标记成本的情况下,将网络上大量的未标记数据加入训练集,进一步提高特征提取性能;由于各个步骤均可并行化实现以缩短运行时间,可用于在分布式集群上进行大规模数据集训练。
附图说明
图1是本发明的一种基于无监督特征学习的图像分类方法基本流程图;
图2是本发明使用主成分分析算法计算滤波器组的过程示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于无监督特征学习的图像分类方法,其基本实现过程如下:
1、提取第一层降维后特征图集合。
(1)构建图块矩阵。
假定训练集由N幅大小均为p×p的图像组成,对于每一幅图像,以滑动窗口形式提取以其中的每个像素为中心的大小为k×k的图块,滑动步长为1。然后,将二维图块拉伸为列向量,并对所有图块向量去均值,即:
其中,xi,j表示第i幅图像的第j个图块的列向量,表示去均值后的第i幅图像的第j个图块的列向量,1是各维度全为1的向量,i=1,2,…,N,j=1,2,…,m,m=(p-k+1)2为每幅图像所提取图块的数量。
对于原始第i幅图像,i=1,2,…,N,以其每一个去均值后的图块向量作为矩阵的一列,得到矩阵
(2)求解滤波器组并计算特征图。
使用主成分分析算法求解出一组标准正交基,使重构误差最小,即:
其中,L1为设定的滤波器个数,取值范围为1≤L1<k2。该优化问题的解是协方差矩阵XiXi T最大的L1个特征值对应的特征向量所构成的正交矩阵。这些特征向量捕捉了训练样本图块间的主要差异,将这些特征向量变换为L1个k×k的矩阵,即得到第一层的滤波器组。
使用第一层的L1个滤波器分别与原始输入图像上卷积,得到第一层的原始输出特征图:
其中,*表示二维卷积运算,Ii表示原始第i幅输入图像,W1 l表示第一层的第l个滤波器,表示第i幅原始输入图像与第l个滤波器卷积生成的特征图。卷积前在原始图像Ii周围补零,使卷积后输出的特征图像保持与卷积前的原始图像大小相同。
(3)对特征图降维。
如果直接重复前述步骤(1)-(2)来构建深层网络,即将步骤(2)得到的所有特征图输入步骤(1)并迭代若干次,则输出特征图的数量会呈指数级增长。为了避免特征图数量随网络深度指数增长,本发明在输入下一层之前增加一个降维模块。将步骤(2)输出的所有特征图拉伸为一维向量,得到原始特征图矩阵再采用主成分分析算法求解一组标准正交基构成的投影矩阵U1,满足:
其中,D1为设定的目标维度,取值范围为1≤D1≤L1。该优化问题的解U1是协方差矩阵最大的D1个特征值对应的特征向量所构成的正交矩阵。
按照计算得到降维后矩阵P,P的大小为/>将P的每个行向量还原为大小为p×p的矩阵,得到一幅降维后的特征图,矩阵P共对应得到D1幅大小为p×p的降维后特征图,构成降维后特征图集合;
至此,对于原始第i幅输入图像Ii,得到一个降维后特征图集合
2、迭代构建深层网络。
将步骤1得到的每一个降维后特征图集合作为下一层的输入,即以每个集合/>中的每一幅图像/>为输入图像,j=1,2,…,D1,按照前述过程从步骤1开始进行计算,并令其中的步骤(2)中所述的滤波器个数为L2,取值范围为1≤L2<k2,步骤(3)中所述的目标维度为D2,取值范围为1≤D2≤L2。至此,对于每一幅原始图像Ii,i=1,2,…,N,会得到D1个图像集合/>其中,每一个图像集合/>又包含D2幅图像,即
3、哈希计算。
对于步骤2得到每一个特征图集合按照以下过程进行处理,将每个集合编码为一幅新图像:
(1)二值化。
将集合中所有图像都进行二值化处理,令负数为0,非负数为1,则图像中的像素值均变为0或1。
(2)二进制哈希。
提取集合中D2幅图像同一位置的所有D2个二进制值,构成一个长度为D2的二进制串,对所有位置的像素点都如此进行提取。将每一个二进制串看作构成一个十进制数的二进制表示,转换为一个十进制数,于是输出的D2幅实数特征图便转化为一幅整数图像,即:
其中,表示集合/>经上述处理得到的新图像,H(·)表示前面步骤(1)所述的对图像进行二值化处理,/>表示集合/>中的第d幅图像。得到的新图像中的每个像素是闭区间/>中的一个整数。
至此,对于原始第i幅输入图像,得到一个新图像集合
4、分块统计直方图。
对于步骤3得到原始第i幅输入图像的新图像集合Γi,i=1,2,…,N,将其中的每一幅图像采用b×b的滑动窗口划分区块,其中1≤b≤p,滑动的步长s取值范围为1≤s≤b。设得到的区块个数为B,统计每个区块含有个区间(bin)的直方图,再将所有B个区块的直方图连接成一个向量。将集合中所有图像按前述过程得到的向量相连接,至此,对于每个集合Γi得到一个向量/>作为原始第i幅输入图像的特征嵌入。
对原始每一幅输入图像的新图像集合Γi,i=1,2,…,N,都按照上述过程进行处理,得到其对应的特征嵌入,则可以得到全部原始N幅输入图像的N个特征嵌入。
5、利用特征嵌入训练分类器。
以步骤4得到的N个特征嵌入作为分类器的输入数据,原始N幅输入图像的标签作为分类器的输入标签,对分类器进行训练,得到训练好的分类器;所述的分类器包括最邻近分类器、支持向量机;
6、图像分类。
以未标记的待分类M幅图像为输入图像,并保持计算训练图像特征嵌入时设定的滤波器个数L1、L2和得到的投影矩阵U1、U2不变,按照步骤1-4计算得到其M个特征嵌入,再将这M个特征嵌入输入到步骤5得到的训练好的分类器,得到分类结果。
本实施例在中央处理器为Intel(R)Xeon(R)CPU E5-2680 [email protected]、内存512G的Ubuntu 16.04操作***上使用Python与PyTorch软件进行仿真实验,分别利用数据集MNIST和CIFAR-10数据集进行实验,数据集信息如表1所示。采用本发明步骤1-4进行特征提取,并使用线性SVM作为分类器进行分类的准确度如表2所示,特征提取所用时间如表3所示。可以看出,本发明方法可以在较短的时间内进行大规模数据的特征提取,并使用提取到的特征较好地完成分类任务。
表1
数据集 样本数 类别数
MNIST 60000 10
CIFAR-10 50000 10
表2
数据集 准确度
MNIST 99.39%
CIFAR-10 77.09%
表3
数据集 时间(秒)
MNIST 587.88
CIFAR-10 2564.04

Claims (1)

1.一种基于无监督特征学习的图像分类方法,其特征在于步骤如下:
步骤1:对于原始第i幅输入图像,i=1,2,…,N,N为输入图像的数量,按照以下过程提取得到其降维后特征图集合其中,/>表示原始第i幅输入图像的第j幅降维后的特征图,j=1,2,…,D1,D1为设定的目标维度:
步骤1.1:以步长为1的滑动窗口提取图像中以每个像素为中心的图像块,然后,将每个图像块拉伸为一维向量,并分别对每个向量进行去均值化处理,以每个去均值化后的向量作为矩阵的一列,得到矩阵X;其中,设输入图像的大小为p×p,所述的图像块的大小为k×k,k的取值范围为1<k<p;
步骤1.2:采用主成分分析算法求解一组标准正交基构成的正交矩阵V,满足:
其中,L1为设定的滤波器个数,取值范围为1≤L1<k2
将矩阵V的每一列由向量变换为k×k大小的矩阵,以变换得到的每个矩阵为一个滤波器,再将每个滤波器分别与原始输入图像做卷积运算,且通过补零操作使卷积后得到的特征图与原始图像大小相同,得到L1幅大小为p×p的特征图;
步骤1.3:将步骤1.2输出的每幅特征图拉伸为一个一维向量,并以其作为矩阵的一行,得到原始特征图矩阵再采用主成分分析算法求解一组标准正交基构成的投影矩阵U1,满足:
其中,D1为设定的目标维度,取值范围为1≤D1≤L1
按照计算得到降维后矩阵P,将P的每一个行向量变换为p×p大小的矩阵,每个矩阵即为一幅降维后的特征图,共得到D1幅降维后的特征图,构成原始输入图像降维后的特征图集合;
步骤2:对于步骤1得到的每一个降维后特征图集合以其中的每一幅图像/>为输入图像,j=1,2,…,D1,并令步骤1.2中所述的滤波器个数为L2,取值范围为1≤L2<k2,步骤1.3中所述的目标维度为D2,取值范围为1≤D2≤L2,按照步骤1计算得到第二次降维后特征图集合/>
步骤3:对于步骤2得到的每一个特征图集合将其中的所有图像都进行二值化处理,使图像中所有的像素值为0或1,然后,提取不同图像中同一位置的所有像素点值构成一个长度为D2的二进制串,对所有位置的像素点都如此进行提取,再将每一个二进制串转换为一个十进制数,并以每个十进制数作为其对应的二进制串所提取像素位置的新的像素值,得到一幅新图像,记为/>
至此,对于原始第i幅输入图像,得到一个新图像集合
步骤4:对于步骤3得到原始第i幅输入图像的新图像集合Γi,i=1,2,…,N,将其中的每一幅图像以步长为s、大小为b×b的滑动窗口进行区块提取,其中,1≤b≤p,1≤s≤b,然后,分别在每个区块中统计含有个bin的直方图,再将所有直方图连接成一个向量;将集合中所有图像按前述过程得到的向量相连接,并以连接后的向量作为原始第i幅输入图像的特征嵌入;
对原始每一幅输入图像的新图像集合Γi,i=1,2,…,N,都按照上述过程进行处理,得到其对应的特征嵌入,得到全部原始N幅输入图像的N个特征嵌入;
步骤5:以步骤4得到的N个特征嵌入作为分类器的输入数据,原始N幅输入图像的标签作为分类器的输入标签,对分类器进行训练,得到训练好的分类器;所述的分类器包括最邻近分类器、支持向量机;
步骤6:以未标记的待分类M幅图像为输入图像,按照步骤1-4计算得到其M个特征嵌入,再将这M个特征嵌入输入到步骤5得到的训练好的分类器,得到分类结果。
CN202010173425.8A 2020-03-12 2020-03-12 一种基于无监督特征学习的图像分类方法 Active CN111401434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010173425.8A CN111401434B (zh) 2020-03-12 2020-03-12 一种基于无监督特征学习的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010173425.8A CN111401434B (zh) 2020-03-12 2020-03-12 一种基于无监督特征学习的图像分类方法

Publications (2)

Publication Number Publication Date
CN111401434A CN111401434A (zh) 2020-07-10
CN111401434B true CN111401434B (zh) 2024-03-08

Family

ID=71432455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010173425.8A Active CN111401434B (zh) 2020-03-12 2020-03-12 一种基于无监督特征学习的图像分类方法

Country Status (1)

Country Link
CN (1) CN111401434B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898710B (zh) * 2020-07-15 2023-09-29 中国人民解放***箭军工程大学 一种图的特征选择方法及***
CN112766367A (zh) * 2021-01-18 2021-05-07 北京工商大学 基于PCANet的图像分类方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881682A (zh) * 2015-05-26 2015-09-02 东南大学 一种基于保局映射与主成分分析的图像分类方法
CN105426919A (zh) * 2015-11-23 2016-03-23 河海大学 基于显著性指导非监督特征学习的图像分类方法
CN106845525A (zh) * 2016-12-28 2017-06-13 上海电机学院 一种基于底层融合特征的深度置信网络图像分类协议
CN108460391A (zh) * 2018-03-09 2018-08-28 西安电子科技大学 基于生成对抗网络的高光谱图像无监督特征提取方法
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN110473140A (zh) * 2019-07-18 2019-11-19 清华大学 一种基于图嵌入的极限学习机的图像降维方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218880B2 (en) * 2008-05-29 2012-07-10 Microsoft Corporation Linear laplacian discrimination for feature extraction
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881682A (zh) * 2015-05-26 2015-09-02 东南大学 一种基于保局映射与主成分分析的图像分类方法
CN105426919A (zh) * 2015-11-23 2016-03-23 河海大学 基于显著性指导非监督特征学习的图像分类方法
CN106845525A (zh) * 2016-12-28 2017-06-13 上海电机学院 一种基于底层融合特征的深度置信网络图像分类协议
CN108460391A (zh) * 2018-03-09 2018-08-28 西安电子科技大学 基于生成对抗网络的高光谱图像无监督特征提取方法
CN108921029A (zh) * 2018-06-04 2018-11-30 浙江大学 一种融合残差卷积神经网络和pca降维的sar自动目标识别方法
CN110473140A (zh) * 2019-07-18 2019-11-19 清华大学 一种基于图嵌入的极限学习机的图像降维方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
无监督局部特征学习的鲁棒性人脸识别;冯姝;计算机应用;20170210;全文 *
采用无监督学习算法与卷积的图像分类模型;王改华等;华侨大学学报(自然科学版);20180120;全文 *

Also Published As

Publication number Publication date
CN111401434A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
Yang et al. Canonical correlation analysis networks for two-view image recognition
CN112437926B (zh) 使用前馈卷积神经网络的快速鲁棒摩擦脊印痕细节提取
Fan et al. Superpixel guided deep-sparse-representation learning for hyperspectral image classification
Tarawneh et al. Stability and reduction of statistical features for image classification and retrieval: Preliminary results
Narang et al. Devanagari ancient character recognition using HOG and DCT features
CN111401434B (zh) 一种基于无监督特征学习的图像分类方法
CN111079514A (zh) 一种基于clbp和卷积神经网络的人脸识别方法
Dhar et al. Accurate segmentation of complex document image using digital shearlet transform with neutrosophic set as uncertainty handling tool
Song et al. MPPCANet: A feedforward learning strategy for few-shot image classification
Goyal et al. Multiclass twin support vector machine for plant species identification
Sari et al. Papaya fruit type classification using LBP features extraction and naive bayes classifier
Khalaf et al. Robust partitioning and indexing for iris biometric database based on local features
Dandotiya et al. Image retrieval using edge detection, RLBP, color moment method for YCbCr and HSV color space
CN105844299B (zh) 一种基于词袋模型的图像分类方法
Özyurt et al. A new method for classification of images using convolutional neural network based on Dwt-Svd perceptual hash function
CN109840914B (zh) 一种基于用户交互式的纹理分割方法
Cheng et al. An android application for plant identification
Padma et al. Entropy based texture features useful for automatic script identification
CN114913610A (zh) 一种基于指纹和指静脉的多模态识别方法
Liu et al. Oracle-bone-inscription image segmentation based on simple fully convolutional networks
Bhagyalakshmi et al. Image retrieval using color and texture binary patterns
Mallek et al. Deep learning with sparse prior-application to text detection in the wild
Lakshika et al. Computer-aided interpretable features for leaf image classification
Kalaivani et al. Medical image retrieval using convolution neural networks
Huang et al. Bark classification using RBPNN in different color space

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant