CN109447098B - 一种基于深度语义嵌入的图像聚类算法 - Google Patents

一种基于深度语义嵌入的图像聚类算法 Download PDF

Info

Publication number
CN109447098B
CN109447098B CN201810982183.XA CN201810982183A CN109447098B CN 109447098 B CN109447098 B CN 109447098B CN 201810982183 A CN201810982183 A CN 201810982183A CN 109447098 B CN109447098 B CN 109447098B
Authority
CN
China
Prior art keywords
semantic
space
data
clustering
training set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810982183.XA
Other languages
English (en)
Other versions
CN109447098A (zh
Inventor
郭军
袁璇
许鹏飞
柏浩
刘宝英
陈锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwest University
Original Assignee
Northwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University filed Critical Northwest University
Priority to CN201810982183.XA priority Critical patent/CN109447098B/zh
Publication of CN109447098A publication Critical patent/CN109447098A/zh
Application granted granted Critical
Publication of CN109447098B publication Critical patent/CN109447098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明的一种基于深度语义嵌入的图像聚类算法,包括如下步骤:步骤1:将图像数据集分为训练集和测试集,并获得各自的数据特征空间;步骤2:求图像数据从步骤1得到的训练集的数据特征空间映射到训练集的语义空间的映射函数,通过映射函数得到测试集的语义空间;步骤3:对步骤2得到的结果作为输入层,通过自编码进行融合降维,得到低维的带有语义信息和原始特征的嵌入空间;步骤4:利用KL散度函数,在步骤4得到的低维的带有语义信息和原始特征的嵌入空间内进行聚类,如果KL散度函数收敛,则结束;否则返回步骤3,并更新步骤3的输入层。本发明有效改善了数据特征的可判别性,提高了聚类效果。

Description

一种基于深度语义嵌入的图像聚类算法
技术领域
本发明属于图像聚类与深度学习技术领域,具体涉及一种基于深度语义嵌入的图像聚类算法。
背景技术
在机器学习和计算机视觉领域,高维图像聚类是一个巨大的挑战。传统的聚类算法主要是聚焦于距离函数的优化以及分组算法的研究,这类算法包括k-means算法,高斯混合模型以及光谱聚类等。然而这些算法受限于线性嵌入很难去处理更复杂的高维数据的聚类任务。因此,为了解决更复杂的高维数据的聚类问题,融合了降维的聚类算法应运而生。
不同于上述传统的聚类算法,深度聚类算法通过学习更典型的数据特征从而可以获得更可观的聚类结果。现有的深度聚类算法分为两种方法:第一种方法是更注重于特征提取,特征提取即为通过降维算法获得更典型更低维的特征表达,在此基础上再利用传统的聚类算法来进行聚类,该方法取得了一定的聚类效果。第二种方法是集中于特征提取与聚类的结合操作,这种做法既提取了典型的特征表达又对聚类算法进行了一定的改进,使得特征提取与聚类更加的兼容,获得了更好地聚类效果。在使用第二种方法时,提出了一种重要的降维算法即自编码算法。相比于传统的降维算法,自编码有多种形式,例如传统自编码,稀疏自编码,降噪自编码等。这些不同的自编码其实就是原始数据的重构过程,通过使重构函数最小化来提取最典型的数据低维特征表达。自编码一般都包含三层网络结构,分别为输入层,输出层,以及隐藏层。我们可以通过增加隐藏层的层数来改变自编码网络的内部结构,从而获得高维数据更复杂的特征关系。
然而,即使自编码是通过分析高维数据复杂的特征关系来进行降维,对高维图像数据而言,也避免不了会丢失一些有识别力的信息。因此弥补缺失的有用信息,成为了聚类算法亟待解决的问题。
发明内容
针对现有技术中存在的问题,一种基于深度语义嵌入的图像聚类算法,包括:
步骤1:将图像数据集分为训练集和测试集,并分别提取训练集和测试集的特征作为各自的数据特征空间;
步骤2:求得图像数据从步骤1得到的训练集的数据特征空间映射到训练集的语义空间的映射函数,通过映射函数得到测试集的语义空间;
步骤3:对步骤2得到的测试集的语义空间及步骤1提取到的测试集的数据特征空间进行深度语义嵌入联合,并将联合后的测试集的语义空间和测数据特征空间作为升维的输入层,然后通过自编码对升维的输入层进行融合降维,得到低维的带有语义信息和原始特征的嵌入空间;
步骤4:利用KL散度函数,在步骤3得到的降维后的带有语义信息和原始特征的嵌入空间内进行聚类,如果KL散度函数收敛,则结束;否则返回步骤3,并更新步骤3的输入层。
进一步的,步骤1包括如下子步骤:
步骤1.1:将带视觉属性的图像数据集分为训练集和测试集,且训练集和测试集的类别无交集,视觉属性相关联;
步骤1.2:采用卷积神经网络GooleNet分别提取训练集和测试集的特征,并将得到的训练集和测试集的特征分别作为各自的数据特征空间。
进一步的,步骤2包括如下子步骤:
步骤2.1:通过公式1构建数据从数据特征空间映射到语义空间的模型,对公式1利用Sylvester函数求得映射函数W:
Figure BDA0001778845590000021
其中,X表示训练集的数据特征空间,S表示训练集的语义空间,W表示数据从特征空间映射到语义空间的映射函数,WT表示数据从语义空间映射到原始特征空间的映射函数,δ表示权重系数取值为50000,F表示求矩阵的范式;
步骤2.2:利用步骤2.1得到的映射函数W通过公式2,得到测试集的语义空间:
Su=WU (公式2)
其中,U是数据测试集,Su是测试集的语义空间。
进一步的,步骤3包括如下子步骤:
步骤3:对步骤2得到的测试集的语义空间及步骤1提取到的测试集的数据特征空间进行深度语义嵌入联合,并将联合后的测试集的语义空间和测数据特征空间T作为升维的输入层,然后通过由多层去噪自编码器组成的堆叠编码器对升维的输入层进行降维,最终得到低维语义嵌入特征层Z。
进一步的,步骤4包括如下子步骤:
步骤4.1:在步骤3得到的降维后的带有语义信息和原始特征的嵌入空间内,利用公式3所示的KL散度函数进行聚类:
Figure BDA0001778845590000031
式中,P表示软分配,Q表示辅助目标分配,zi表示语义嵌入点,μj表示聚类中心点,L表示收敛函数符号;i表示第i个样本,取值范围为:1至测试集的总样本个数,j表示第j类别,取值范围为:1至测试集的总类别数;pij表示第i个样本分配到第j类的概率,qij表示第i个样本分配到第j类的辅助目标概率。
步骤4.2:通过随机梯度下降算法进行迭代,如果KL散度函数收敛,则结束迭代;否则每次迭代后先通过公式4更新语义嵌入点zi和聚类中心点μj,然后将更新后的zi带入步骤3的输入层中返回执行步骤3;
所述的随机梯度下降算法中的更新公式为:
Figure BDA0001778845590000032
Figure BDA0001778845590000033
式中:λ表示学习率,取值为0.1。
本发明提供的技术方案带来的有益效果是:
提出了一种基于深度神经网络的自编码方法来进行原始特征与语义信息的提取和嵌入,从而得到一个低维的带有语义信息和原始特征的嵌入空间。最后在更低维的嵌入语义信息的特征空间完成图像的聚类任务,有效改善了数据特征的可判别性,提高了聚类效果。
附图说明
图1为本发明方法的流程图;
图2为提取语义特征的结构图;
图3为深度语义嵌入的堆叠自编码;
图4为AWA数据集的聚类accuracy结果;
图5为CUB数据集的聚类accuracy结果;
图6为SUN数据集的聚类accuracy结果;
图7为AWA数据集的聚类NMI结果;
图8为CUB数据集的聚类NMI结果;
图9为SUN数据集的聚类NMI结果。
具体实施方式
首先介绍三种带属性的图像数据集AwA、SUN和CUB:
动物视觉属性数据集(AWA):它是从各大图片网站收集了50类动物图片,共30475张。其中40类的所有样本作为训练数据,总共24295个样例,其他10类样本作为测试数据,共6180个样本。同时,数据集定义了85个属性,并为每个训练样例提供了利用先验知识定义的属性值。
CUB数据集:加利福尼亚理工学院鸟类数据库,这个数据库总共包含11788个样例,分为200个类别。根据实验需要,选取175类的样本作为训练数据,其余25类的样本作为测试数据使用。同时这个数据集包含312个属性,同样每个训练样例提供了人工定义的属性值。
SUN数据集:SUN数据集主要是在SUN类别数据库的基础上创建的,样本总共有14340个,共有类别717类,一般研究者们选择645/72,和707/10两种分片方式来分训练数据和测试数据的类别。本实验选择707个类别作为训练数据,其余10类作为测试数据。这个数据及包含102个属性,同样每个训练样例提供了人工定义的属性值。
以下给出本发明的具体实施方式,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。
一种基于深度语义嵌入的图像聚类方法,包括以下步骤:
步骤1:将图像数据集分为训练集和测试集,并分别提取训练集和测试集的特征作为各自的数据特征空间,包括如下子步骤:
步骤1.1:将带视觉属性的图像数据集分为训练集和测试集,且训练集和测试集的类别无交集,视觉属性相关联;
步骤1.2:采用卷积神经网络GooleNet分别提取训练集和测试集的特征,并将得到的训练集和测试集的特征分别作为各自的数据特征空间;
具体的,步骤1.2中每个训练集或测试集提取出1024维特征。
该步骤优点:本方法将视觉属性作为语义空间去连接不同的图像对象是因为,相较于其他的属性,图像的视觉属性能够提供更多有识别力的信息,这些信息可以直观的被理解,它不受图像的压缩,旋转,缩放的影响,可以被多种目标物体共享,同时它也容易被获取。在现实生活中,人类擅长通过一些和未见过的物体带有相同属性的物体来识别这些未曾见过的目标物体,例如我们可以通过曾经见过的鸟类它们共有的属性特征来识别未见过的鸟的种类。将人类的这个特性应用在本方法中,我们将视觉属性作为连接训练集和测试集的枢纽,使得我们能够把训练集中得到的结论直接用在测试集中。
步骤2:求得图像数据从步骤1得到的训练集的数据特征空间映射到训练集的语义空间的映射函数,通过映射函数得到测试集的语义空间,包括如下子步骤:
步骤2.1:通过公式1构建数据从特征空间映射到语义空间的模型,对公式1利用Sylvester函数可以求得映射矩阵W:
Figure BDA0001778845590000051
其中,X表示训练集的数据特征空间,S表示训练集的语义空间,W表示数据从特征空间映射到语义空间的映射函数,WT表示数据从语义空间映射到原始特征空间的映射函数,δ表示权重系数取值为50000,F表示求矩阵的范式。
具体的,对于步骤2.1,在对公式1进行求解时,
首先,定义方法的目标函数为:
Figure BDA0001778845590000052
对上式进行WX=S的替换,可变换函数形式为:
Figure BDA0001778845590000053
定义一个权重系数δ来解决WX=S这个约束条件,把目标函数变为标准的二次方程,便于求解,得到:
Figure BDA0001778845590000054
对这个函数进行求导,最终得到:
-S(XT-STW)+δ(WX-S)XT=0
SSTW+δWXXT=SXT+δSXT
上式满足Sylvester函数的基本形式,通过该函数解出映射函数W。
步骤2.2:利用步骤2.1得到的映射函数W通过公式2,得到测试集的语义空间:
Su=WU (公式2)
其中,U是数据测试集,Su是测试集的语义空间。
该步骤优点:将训练集输入到一个基本的三层自编码网络结构中,根据训练集的数据原始特征和语义特征去提取测试集的语义空间,即X是输入层,W是隐藏层,用属性来作为数据的语义表达。在学习映射函数的过程中,X'是重构后的训练集特征空间,表示我们通过重建数据的限制也就是最小化重构错误率来保证所求的语义空间尽可能准确表达数据本身,使得语义特征提取更准确。
步骤3:对步骤2得到的测试集的语义空间及步骤1提取到的测试集的数据特征空间进行深度语义嵌入联合,并将联合后的测试集的语义空间和测数据特征空间作为升维的输入层,然后通过自编码对升维的输入层进行融合降维,得到低维的带有语义信息和原始特征的嵌入空间,其中:
所述堆叠编码器包含编码和解码的过程,每一层是一个去噪自编码器,对数据进行随机映射,让数据的某些维度设为0.采用逐层训练的方式,每一层的输出作为下一层的输入去继续进行训练,所有层编码训练完成即完成编码过程。解码过程是通过逆向训练来微调参数,以达到最小化重建损失函数的目的。本方法采用三层去噪自编码器,最终形成一个包含三个中间层h1,h2,h3的深度自编码器。
我们首先利用测试集的原始特征与完整语义表达的融合T∈R(d+s)×n作为输入层,R(d+s)×n表示一个n行(d+s)列的矩阵,定义一个非线性映射函数fθ,其中θ是迭代过程的权重参数,并利用零均值高斯分布初始化θ,目的是为了获得最终的低维语义嵌入特征层Z∈Pk ×n,Pk×n表示一个n行k列的矩阵,其中k是最终提取的低维带语义嵌入的特征维度,zi=fθ(ti)∈Z,ti∈T。那么解码阶段ti'=f'θ'(zi)∈T,zi∈Z,利用反向传播算法来微调参数,以达到最小化重建损失函数的目的。最终形成一个包含三个中间层h1,h2,h3的深度自编码器。
该步骤优点:通过这个三层复杂的中间网络更能表达高维数据复杂的特征关系,使得最终提取的带语义嵌入的低维特征更能代表数据本身,以此为基础来进行图像聚类,从而提升聚类效果。
步骤4:利用KL散度函数,在步骤4得到的降维后的带有语义信息和原始特征的嵌入空间内进行聚类,如果KL散度函数收敛,则结束;否则返回步骤3,并更新步骤3的输入层,具体包括如下子步骤:
步骤4.1:在步骤3得到的降维后的带有语义信息和原始特征的嵌入空间内,利用公式3所示的KL散度函数进行聚类:
Figure BDA0001778845590000071
式中,P表示软分配,代表低维的语义嵌入特征点zi和每个聚类中心点μj的相似性概率,Q表示辅助目标分配,强调数据点分布带有高置信度,归一化每个中心的损失贡献,从而保证聚类分布的可信度,zi表示语义嵌入点,μj表示聚类中心点,L表示收敛函数符号;i表示第i个样本,取值范围为:1至测试集的总样本个数,j表示第j类别,取值范围为:1至测试集的总类别数;pij表示第i个样本分配到第j类的概率,qij表示第i个样本分配到第j类的辅助目标概率。
在第一次聚类操作时,利用k-means聚类算法初始化聚类中心
Figure BDA0001778845590000072
其中c是聚类个数。
该步骤优点:KL聚类中,辅助目标分布是由软分配派生出来的,这种方法既强调数据点分布要带有高置信度,又强化预测,还能规范每个质心的损失贡献,以防止大类扭曲隐藏的特征空间,最终能够使KL优化过程同时改进聚类与特征表达。
步骤4.2:通过随机梯度下降算法进行迭代,如果KL散度函数收敛,则结束迭代;否则每次迭代后先通过公式4更新语义嵌入点zi和聚类中心点μj,然后将更新后的zi带入步骤4的输入层中返回执行步骤4,随机梯度下降算法中的更新公式为:
Figure BDA0001778845590000081
Figure BDA0001778845590000082
其中,最小化重构率为
Figure BDA0001778845590000083
当它的值小于0.1时则停止更新参数zi
该步骤优点:随机梯度下降算法(SGD)能把数据集分成N个batch,每次更新都利用一个batch的数据,可以使公式3更快地达到收敛。
下面将本方法应用在具体的数据集上来证明其更为突出的聚类效果。
(1)表中所示是三个数据集的具体信息。
数据集 样本个数 语义空间 语义维度 标签/无标签
AwA 30475 属性 85 40/10
CUB 11788 属性 312 175/25
SUN 14340 属性 102 707/10
表1
(2)评价标准:按照我们的聚类算法具体实施步骤,完成图像聚类任务。我们用准确率(ACC)和归一化互信息(NMI)作为聚类性能的评估标准,下面简单介绍一下两种评估标准。
ACC:对于数据集中的第i个样本,如果定义gi作为最终获得的簇标签,hi作为真实的标签。那么ACC的计算公式如下:
Figure BDA0001778845590000084
其中N是训练集中的样本个数,map(gi)是映射函数,用于把获得的簇标签映射到真正标签上。δ是一个实现x和y匹配的函数,如果x=y,那么δ(x,y)=1,反之是0.
NMI:归一化信息是另一个重要的聚类评估标准。对于任意两个变量C和D,
Figure BDA0001778845590000091
其中I(C,D)用来计算C和D的共同信息,H(C)和H(D)是分别计算C和D熵的函数。我们定义tl作为簇
Figure BDA0001778845590000094
中的样本个数,
Figure BDA0001778845590000092
作为第h个真实的类中的样本个数,其中tl.h是簇
Figure BDA0001778845590000095
和第h个真实的类之间交叉的样本数。那么,可以通过下面的公式计算NMI:
Figure BDA0001778845590000093
(3)结果分析:
算法 AWA CUB SUN
K-means 0.8427 0.4703 0.7417
K-means++ 0.8436 0.4649 0.8
SAE+k-means 0.9159 0.4969 0.845
DEC 0.9125 0.4902 0.8449
DSEC 0.9307 0.5138 0.875
表2
表2展示了所有的方法在三个数据集中的聚类精确度(accuracy),从表中我们可以看到我们的方法优于其他算法,尤其在AwA和SUN数据集中更为明显。这意味着基于深度神经网络的深度自编码在高维数据聚类任务中具有举足轻重的作用。通过对比SAE+k-means算法和DEC算法,说明语义表达在图像聚类中跟像素特征同样重要,说明语义嵌入的实现使得最终获取的低维特征更能表达数据本身。
图3、图4、图5描述了三个数据集在DEC和DSEC算法中聚类accuracy的结果。
从图中看出两种算法都随着迭代次数的增加acc值逐渐增高,最终达到收敛。我们的方法比DEC算法效果好,同时从AwA和CUB数据集上可以看出我们的算法迭代次数稍微比DEC多一点,花费的时间也相对多一点。这是因为在自编码的输入层我们的输入维度包含语义特征,相对而言维度比原始特征维度更高。SUN数据集由于数据样本比较少,两种算法的迭代次数没有明显差别,花费的时间差别也不大。
算法 AWA CUB SUN
K-means 0.8373 0.6059 0.775
K-means++ 0.8364 0.6009 0.8096
DEC 0.9029 0.6304 0.8118
DSEC 0.9212 0.6447 0.8374
表3
表3展示了所有的聚类方法在三个数据集中NMI标准下的聚类结果。从图中可以看出深度聚类算法DEC和我们的DSEC算法明显优于其他传统聚类算法。同时我们的算法比DEC算法聚类性能高两个百分点左右。
图7,图8,图9展示了DEC和DSEC两种算法在NMI标准下的迭代收敛过程。从图中我们同样看出我们的算法优于DEC算法。

Claims (3)

1.一种基于深度语义嵌入的图像聚类算法,其特征在于,包括:
步骤1:将图像数据集分为训练集和测试集,并分别提取训练集和测试集的特征作为各自的数据特征空间;
步骤2:求得图像数据从步骤1得到的训练集的数据特征空间到训练集的语义空间的映射函数,通过映射函数得到测试集的语义空间;
步骤3:对步骤2得到的测试集的语义空间及步骤1提取到的测试集的数据特征空间进行深度语义嵌入联合,并将联合后的测试集的语义空间和测数据特征空间T作为升维的输入层,然后通过由多层去噪自编码器组成的堆叠编码器对升维的输入层进行降维,最终得到低维语义嵌入特征层Z;
步骤4:利用KL散度函数,在步骤3得到的降维后的带有语义信息和原始特征的嵌入空间内进行聚类,如果KL散度函数收敛,则结束;否则返回步骤3,并更新步骤3的输入层;
步骤4包括如下子步骤:
步骤4.1:在步骤3得到的低维语义嵌入特征层Z,利用公式3所示的KL散度函数进行聚类:
Figure FDA0003286387960000011
式中,P表示软分配,Q表示辅助目标分配,zi表示语义嵌入点,μj表示聚类中心点,L表示收敛函数符号;i表示第i个样本,取值范围为:1至测试集的总样本个数,j表示第j类别,取值范围为:1至测试集的总类别数;pij表示第i个样本分配到第j类的概率,qij表示第i个样本分配到第j类的辅助目标概率;
步骤4.2:通过随机梯度下降算法进行迭代,如果KL散度函数收敛,则结束迭代;否则每次迭代后先通过公式4更新语义嵌入点zi和聚类中心点μj,然后将更新后的zi带入步骤3的输入层中返回执行步骤3;
所述的随机梯度下降算法中的更新公式为:
Figure FDA0003286387960000021
Figure FDA0003286387960000022
式中:λ表示学习率且取值为0.1。
2.如权利要求1所述的基于深度语义嵌入的图像聚类算法,其特征在于,步骤1包括如下子步骤:
步骤1.1:将带视觉属性的图像数据集分为训练集和测试集,且训练集和测试集的类别无交集,视觉属性相关联;
步骤1.2:采用卷积神经网络GooleNet分别提取训练集和测试集的特征,并将得到的训练集和测试集的特征分别作为各自的数据特征空间。
3.如权利要求1所述的基于深度语义嵌入的图像聚类算法,其特征在于,步骤2包括如下子步骤:
步骤2.1:通过公式1构建数据从数据特征空间映射到语义空间的模型,对公式1利用Sylvester函数求得映射函数W:
Figure FDA0003286387960000023
其中,X表示训练集的数据特征空间,S表示训练集的语义空间,W表示数据从特征空间映射到语义空间的映射函数,WT表示数据从语义空间映射到原始特征空间的映射函数,δ表示权重系数且取值为50000,F表示求矩阵的范式;
步骤2.2:利用步骤2.1得到的映射函数W通过公式2,得到测试集的语义空间:
Su=WU (公式2)
其中,U是数据测试集,Su是测试集的语义空间。
CN201810982183.XA 2018-08-27 2018-08-27 一种基于深度语义嵌入的图像聚类算法 Active CN109447098B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810982183.XA CN109447098B (zh) 2018-08-27 2018-08-27 一种基于深度语义嵌入的图像聚类算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810982183.XA CN109447098B (zh) 2018-08-27 2018-08-27 一种基于深度语义嵌入的图像聚类算法

Publications (2)

Publication Number Publication Date
CN109447098A CN109447098A (zh) 2019-03-08
CN109447098B true CN109447098B (zh) 2022-03-18

Family

ID=65530191

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810982183.XA Active CN109447098B (zh) 2018-08-27 2018-08-27 一种基于深度语义嵌入的图像聚类算法

Country Status (1)

Country Link
CN (1) CN109447098B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309853B (zh) * 2019-05-20 2022-09-09 湖南大学 基于变分自编码器的医学图像聚类方法
CN110472514B (zh) * 2019-07-22 2022-05-31 电子科技大学 一种自适应车辆目标检测算法模型及其构建方法
CN110751191A (zh) * 2019-09-27 2020-02-04 广东浪潮大数据研究有限公司 一种图像的分类方法及***
CN111243045B (zh) * 2020-01-10 2023-04-07 杭州电子科技大学 一种基于高斯混合模型先验变分自编码器的图像生成方法
CN111582912B (zh) * 2020-04-20 2023-04-25 佛山科学技术学院 一种基于深度嵌入聚类算法的画像建模方法
CN116522143B (zh) * 2023-05-08 2024-04-05 深圳市大数据研究院 模型训练方法、聚类方法、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102253996A (zh) * 2011-07-08 2011-11-23 北京航空航天大学 一种多视角阶段式的图像聚类方法
CN102609719A (zh) * 2012-01-19 2012-07-25 北京工业大学 基于改进概率主题模型的地点图像识别方法
CN106909944A (zh) * 2017-03-01 2017-06-30 西北大学 一种人脸图片聚类的方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886336B (zh) * 2014-04-09 2017-02-01 西安电子科技大学 基于稀疏自动编码器的极化sar图像分类方法
CN104778281A (zh) * 2015-05-06 2015-07-15 苏州搜客信息技术有限公司 一种基于社区分析的图像索引并行构建方法
US11238362B2 (en) * 2016-01-15 2022-02-01 Adobe Inc. Modeling semantic concepts in an embedding space as distributions
US20180107682A1 (en) * 2016-10-16 2018-04-19 Ebay Inc. Category prediction from semantic image clustering
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
CN106919951B (zh) * 2017-01-24 2020-04-21 杭州电子科技大学 一种基于点击与视觉融合的弱监督双线性深度学习方法
CN107657276B (zh) * 2017-09-15 2023-07-07 赤峰学院 一种基于寻找语义类簇的弱监督语义分割方法
CN108108687A (zh) * 2017-12-18 2018-06-01 苏州大学 一种手写体数字图像聚类方法、***及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102253996A (zh) * 2011-07-08 2011-11-23 北京航空航天大学 一种多视角阶段式的图像聚类方法
CN102609719A (zh) * 2012-01-19 2012-07-25 北京工业大学 基于改进概率主题模型的地点图像识别方法
CN106909944A (zh) * 2017-03-01 2017-06-30 西北大学 一种人脸图片聚类的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Semantic Autoencoder for Zero-Shot Learning;Elyor Kodirov等;《https://arxiv.org/pdf/1704.08345.pdf》;20170429;第3节、第4.1-4.2节、第5.1节 *
Unsupervised Deep Embedding for Clustering Analysis;Junyuan Xie等;《http://de.arxiv.org/pdf/1511.06335》;20160527;摘要、第3节 *

Also Published As

Publication number Publication date
CN109447098A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN109447098B (zh) 一种基于深度语义嵌入的图像聚类算法
Trigeorgis et al. A deep matrix factorization method for learning attribute representations
Huang et al. Analysis and synthesis of 3D shape families via deep‐learned generative models of surfaces
CN107122809B (zh) 基于图像自编码的神经网络特征学习方法
Chowdhury et al. An entropy-based initialization method of K-means clustering on the optimal number of clusters
CN108108854B (zh) 城市路网链路预测方法、***及存储介质
Van Der Maaten Accelerating t-SNE using tree-based algorithms
CN107316294B (zh) 一种基于改进的深度玻尔兹曼机肺结节特征提取方法
Ortiz et al. Segmentation of brain MRI using SOM‐FCM‐based method and 3D statistical descriptors
CN111259979A (zh) 一种基于标签自适应策略的深度半监督图像聚类方法
CN103985112B (zh) 基于改进多目标粒子群优化聚类的图像分割方法
CN108268872B (zh) 一种基于增量学习的鲁棒非负矩阵分解方法
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN115732034A (zh) 一种空间转录组细胞表达模式的识别方法及***
CN115640842A (zh) 一种基于图注意力自编码器的网络表示学习方法
CN115344693B (zh) 一种基于传统算法和神经网络算法融合的聚类方法
CN105160598B (zh) 一种基于改进em算法的电网业务分类方法
CN114067915A (zh) 一种基于深度对抗变分自编码器的scRNA-seq数据降维方法
CN113920210A (zh) 基于自适应图学习主成分分析方法的图像低秩重构方法
CN109063725B (zh) 面向多视图聚类的多图正则化深度矩阵分解方法
CN117093849A (zh) 一种基于自动生成模型的数字矩阵特征分析方法
CN111353525A (zh) 一种不均衡不完整数据集的建模及缺失值填补方法
CN109063766B (zh) 一种基于判别性预测稀疏分解模型的图像分类方法
CN110472010A (zh) 一种实现文本匹配的可解释神经网络的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant