CN105389560B - 基于局部约束的图优化维数约简方法 - Google Patents

基于局部约束的图优化维数约简方法 Download PDF

Info

Publication number
CN105389560B
CN105389560B CN201510777140.4A CN201510777140A CN105389560B CN 105389560 B CN105389560 B CN 105389560B CN 201510777140 A CN201510777140 A CN 201510777140A CN 105389560 B CN105389560 B CN 105389560B
Authority
CN
China
Prior art keywords
matrix
graph
sample
local
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510777140.4A
Other languages
English (en)
Other versions
CN105389560A (zh
Inventor
齐妙
王建中
孔俊
易玉根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeast Normal University
Original Assignee
Northeast Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Normal University filed Critical Northeast Normal University
Priority to CN201510777140.4A priority Critical patent/CN105389560B/zh
Publication of CN105389560A publication Critical patent/CN105389560A/zh
Application granted granted Critical
Publication of CN105389560B publication Critical patent/CN105389560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明涉及一种基于局部约束的图优化维数约简方法,属于图像处理领域。首先将图优化和投影矩阵学习整合到一个统一框架,在维数约简的过程中使得图可以自适应的更新,其次通过引入局部约束,可以很好的挖掘和保持高维数据的局部信息,还提出一个有效且快速的更新策略来求解提出的算法。大量的实验和对比结果表明,本发明具有良好的性能而且优于现有的相关方法,适用于目标识别、数据聚类和数据可视化。

Description

基于局部约束的图优化维数约简方法
技术领域
本发明属于数字图像处理领域。
背景技术
真实世界中的很多数据都是高维的,尽管高维数据拥有更多的信息量,但在实际应用中对高维数据进行直接操作会带来维数灾难、空空间现象和集中现象等。为了解决高维数据所面临的问题,维数约简是一个有效的方法,通过降维能够有效地消除无关和冗余特征,可以提高挖掘任务的效率,揭示数据的本质规律,改善预测性能等。因此,维数约简通常是很多实践应用的重要环节,具有重要的现实研究价值。
目前,现有的维数约简方法可分为两类:线性方法和非线性方法。线性方法通过学习一个线性变换将高维空间中的数据点映射到低维度空间中。具有代表性的线性降维方法有主成分分析(PCA)和线性判别分析(LDA)。尽管这类方法能够得到低维表示并且具有操作简单的特点,但是它们不能挖掘高维数据的本征非线性结构。因此,学者们提出了大量的非线性流形方法,如等距离特征映射(ISOMAP),局部线性嵌入(LLE)和拉普拉斯特征映射(LE)等。虽然这类方法在一些基准人工数据集上得到了理想的效果,但是它们只能获得训练样本的低维表示而不能给出高维到低维的显示函数映射,即不能获得测试样本的低维表示。因此,这些非线性降维方法不适合分类和识别任务。为了克服这个限制,一系列线性化的流形学习方法相继被提出,该类方法都是基于图构建的降维方法,且能够学习到一个从高维数据变换到低维子空间的投影矩阵,如邻域保持嵌入(NPE)和局部保持投影(LPP)。具体地说,首先根据输入数据或先验知识构建一个图,然后基于构建的图得到低维表示。因此,图的构建在维数约简方法中变得尤为重要。
然而,在实际中,构建一个高质量的图通常十分困难。基于k近邻和ε图是两种简单且应用广泛的构图方法,如ISOMAP,LLE,NPE和LPP方法。在这些方法中,k和ε的值经常需要经验地给出,如果这两个参数值设置得不合适,就不能很好地挖掘高维数据的本征结构。而且,这两种方法通常对所有样本都设置相同的近邻参数而忽略每个样本的不同局部结构,进而降低方法的性能。针对这一问题,Yang和Chen等提出一个样本相关方法构建图,该方法根据样本对间的相似性自适应地决定每个样本的邻域。基于稀疏表示理论,Qiao等人提出了一种稀疏保持投影降维方法(SPP),该方法利用L1范数正则化的最小二乘方法自动的进行图构建。Liu等人提出低秩表示的方法进行图构建(LRR),通过强制稀疏表示系数是低秩的,可以联合地获得所有高维数据的低维表示,进而保持了数据的全局结构。虽然这类方法能够在一定从程度上能够克服k近邻和图方法的限制,其主要缺点是图的构建过程是独立于后续的维数约简任务。也就是说,在维数约简过程中图是固定的,进而降低维数约简任务的性能。
最近,图优化成为研究的一个热点。Zhang等人提出了一个图优化的局部保持投影方法(GoLPP),该方法将图构建和维数约简过程集成到一个统一的框架。Qiao等人提出自适应图的维数约简方法(DRAG),该方法联合地构建图和学习投影矩阵。Zhang等人提出基于稀疏约束的图优化算法进行维数约简(GODRSC),通过加入L1正则项,该方法能够获得一个更灵活的稀疏图。这三种方法将图构建和维数约简联合在一起,在学习投影矩阵过程中自动的更新图并且获得了良好的性能。然而,这些方法忽略了原始高维数据的局部信息,即没有考虑原始高维数据的相似性,进而不能保证相近的高维样本在低维空间中也相近,导致降维效果不是很理想。
发明内容
本发明提出一种基于局部约束的图优化维数约简方法,以解决降维效果不很理想的问题。
本发明采取的技术方案包括以下步骤:
1、读取高维数据其中,xi为第i个样本,D为样本维数,n为样本个数;
2、构建基于近邻重构关系的局部约束;
为了使高维数据的低维表示能够保持原始数据的局部关系,在求投影矩阵过程中需构建一个图矩阵S,利用一个样本的近邻重构该样本能够有效地捕捉数据的局部信息,因此在构建图矩阵S过程中考虑如下约束关系:
其中,代表对应元素相乘操作,为样本xi的指示向量,ri,j=exp(||xi-xj||2/σ),S=[Sij]n×n为图矩阵,S·i为图矩阵S的第i列;
3、构建基于样本相似性的局部约束;
考虑到在高维空间中相近的样本应该具有相似的重构系数,因此在构建图矩阵S过程中考虑如下约束关系:
其中,S·i和S·j为图矩阵S的第i列和第j列,分别表示样本xi与xj的重构系数,wij=exp(-||xi-xj||2/σ)为热核函数;
4、构建基于两种局部约束的维数约简目标函数:
s.t.PTP=I
其中,为投影矩阵,(xi-XS·i)表示样本xi被X中其它样本重构误差,PT表示矩阵P的转置,I为单位矩阵,λ>0为折中参数;
5、通过迭代策略优化目标函数,首先固定投影矩阵P,更新图矩阵S;然后固定图矩阵S,更新投影矩阵P;最后,经过N(N≤15)迭代,得到优化的投影矩阵P和图矩阵S;
6、为了后续的识别与聚类等任务,将高维数据X向矩阵P投影,得到高维数据的低维表示,从而达到维数约简的目的;
Xlow=PTX (13)
其中,为高维数据X的低维表示,即高维空间中每个样本由原来的D维为变成低维空间的d维。
发明将投影矩阵学习和图构建过程统一到一个框架下,在维数约简过程中能够自动的更新图,同时,通过建立近邻重建关系和样本相似性两种局部约束关系,能够有效地挖掘并保持高维数据的局部信息。特别地,提出一种基于迭代更新策略的算法求解投影矩阵和图,实现高维数据的有效约简。大量的实验和比较结果表明,该方法具有良好性能并且由于现有的具有代表性的维数约简方法,适用于目标识别、聚类与数据可视化等。
本发明针对3个标准人脸数据库和3个标准聚类数据集进行了实验对比与分析,并且定量地评价了提出方法的有效性和优越性。大量的对比实验结果表明,本发明提出的方法不仅能够进行有效地人脸识别和数据自动聚类,而且具有较好的稳定性。
本发明具有下述有益效果:
(1)本发明是针对高维数据的进行有效维数约简方法;
(2)建立两种局部约束而非单一的约束进行维数约简,使得低维数据能够更好的保持高维数据的局部关系;
(3)将投影矩阵学习和图优化过程统一到一个框架下,使得构建的图能够自适应的更新,提高维数约简的性能;
(4)提出了一种有效且快速的迭代更新求解方法,使得目标函数在较少的迭代数次内即可收敛;
(5)本发明可广泛应用于高维数据的维数约简,有助于后续识别、聚类和数据可视化等任务。
附图说明
图1(a)是本发明中使用的人脸数据库Yale中的部分人脸图像;
图1(b)是本发明中使用的人脸数据库Extended YaleB中的部分人脸图像;
图1(c)是本发明中使用的人脸数据库CMU PIE中的部分人脸图像;
图2是本发明中使用的COIL 20数据集中的部分图像;
图3(a)是人脸数据库Yale上不同方法在不同维数下的对比结果;
图3(b)是人脸数据库Extended YaleB上不同方法在不同维数下的对比结果;
图3(c)是人脸数据库CMU PIE上不同方法在不同维数下的对比结果;
图4(a)是LC-GODR方法在人脸数据库Yale上的收敛曲线;
图4(b)是LC-GODR方法在人脸数据库Extended YaleB上的收敛曲线;
图4(c)是LC-GODR方法在人脸数据库CMU PIE上的收敛曲线;
图5(a)是LC-GODR方法在聚类数据集Glass上的收敛曲线;
图5(b)是LC-GODR方法在聚类数据集Sonar上的收敛曲线;
图5(c)是LC-GODR方法在聚类数据集COIL 20上的收敛曲线。
具体实施方式
包括以下步骤:
1、读取高维数据其中,xi为第i个样本,D为样本维数,n为样本个数;
2、构建基于近邻重构关系的局部约束;
为了使高维数据的低维表示能够保持原始数据的局部关系,在求投影矩阵过程中需构建一个图矩阵S。一般地,如果样本xi和样本xj是近邻关系,则样本xi能够被样本xj有效地重构,构建的图矩阵S中顶点xi与xj之间存在一条边,且边上的权重可赋值重构系数。也就是说,用样本的近邻样本重构该样本能够有效地捕捉数据的局部信息。基于以上分析,建立如下基于近邻重构局部约束:
其中:代表对应元素相乘操作,为样本xi的指示向量,ri,j=exp(||xi-xj||2/σ)为样本xi与样本xj之间的相似性,S=[Sij]n×n为图矩阵,S·i为图矩阵S的第i列;
从指示向量可以看出,样本xi与样本xj越相近,ri,j值越小,通过最小化公式(1),使得图矩阵S中相应的边上赋予较大的重构系数;
3、构建基于样本相似性的局部约束;
高维空间中相似的样本应该具有相似的重构系数已经被证明是一个挖掘局部信息的重要条件,因此,建立如下基于样本相似性的局部约束:
其中,S·i和S·j为图矩阵S的第i列和第j列,分别表示样本xi与样本xj的重构系数,wij=exp(-||xi-xj||2/σ)为热核函数,用来刻画样本xi与样本xj之间的相似性,通过最小化公式(2),使相似的样本具有相似的重构系数;
4、将投影矩阵学习和图构建统一到统一框架下,建立基于两种局部约束的维数约简目标函数:
s.t.PTP=I
其中,为投影矩阵,(xi-XS·i)表示样本xi被X中其它样本重构误差,PT表示矩阵P的转置,I为单位矩阵,λ>0为折中参数;
利用代数变换,将公式(3)重写为:
其中,ST表示矩阵S的转置,为局部指示向量Ri的对角化形式,L=D-W为拉普拉斯阵,W=[wij]n×n是对称的样本相似阵,D是一个对角阵,其对角元素为W的行和或列和,tr(·)表示矩阵的迹;
5、与GoLPP和DRAG方法相似,通过交替迭代策略优化目标函数:
(1)首先固定投影矩阵P,更新图矩阵S,公式(4)可写为:
其中,yi=PTxi和Y=PTX,公式(5)约束项的最后一项可重写为:
通过代数变换,公式(5)可重写为:
可逐列更新图矩阵S,对于S的第i列S·i,目标函数可更新为:
对公式(8)中的S·i求偏导并令倒数等于零,则有:
S·i=(YTY+λEi+λL)-1YTyi (10)
(2)接下来,固定图矩阵S,更新投影矩阵P,通过移除无关项,公式(3)关于P的优化问题为:
s.t.PTP=I
设M=X(I-S-ST+STS)XT和C=XXT,公式(11)可写为:
s.t.PTP=I
明显地,公式(12)是一个迹比优化问题,可通过迭代的迹比法(ITR)或牛顿分解法(DNR)进行求解;
最后,经过N(N≤15)迭代,得到优化的投影矩阵P和图矩阵S;
为了证明提出算法的收敛性,提出的算法可分解成两个子问题,如公式(5)和公式(11)。对于第一个子问题,通过公式(10)能得到图矩阵S的闭式解,很明显,在迭代求解S的过程中我们的目标函数值是呈下降的趋势。对于第二个子问题,已有前人证明了ITR和DNR方法能够得到迹比问题的全局最优解。因此,用ITR或DNR求解公式(12)也能够使我们的目标函数值呈下降趋势。最后,由于公式(3)中所有项都不小于0,所以我们的目标函数具有一个下界。因此,根据柯西收敛规则,我们提出的算法是收敛的;
6、将高维数据X向矩阵P投影,得到高维数据的低维表示,从而达到维数约简的目的;
Xlow=PTX (13)
其中,为高维数据X的低维表示,即高维空间中每个样本由原来的D维为变成低维空间的d维。
实验例:下边通过具体实验结果的分析与对比来进一步说明本发明的有益效果。
本发明提出了一种有效的基于局部约束的图优化维数约简方法。为了有效地和***地评价提出的方法,我们在3个标准人脸数据库(Yale,Extended YaleB和CMU PIE)和UCI数据库上的3个标准数据集(Glass,Sonar和COIL 20)上进行了大量的分类识别与聚类实验,其中Yale,Extended YaleB,CMU PIE和COIL 20中每个样本是一个图像,Glass和Sonar中的每个样本是一个向量,在使用我们提出的方法进行维数约简时,每幅图像可表示为一个高维向量。图1(a)~(c)和图2分别给出了人脸数据库和COIL 20数据集中的部分图像。表1和表2分别给出了3个人脸数据库和3个UCI数据集的详细信息。此外,从定量的角度将本发明提出方法(简称LC-GODR)与一些有代表性的方法进行性能对比,包括LPP、NPE、SGLPP、LSR-NPE、LRR-NPE、SPP、GoLPP、DRAG和GODRSC。
在进行人脸识别任务时,随机选择每个人脸的l幅图像作为训练样本,用来求得投影矩阵P,剩余的t幅图像作为测试样本,采用简单有效的欧式距离和最近邻分类器(NN)进行识别。为了验证提出的方法具有良好的稳定性,将该过程重复10次,10次的平均识别结果作为最终的识别率。
其中,T为被正确识别的样本数目,N为所有被识别的样本数目。
明显地,参数λ和样本的低维表示维数d是影响人脸识别结果两个重要参数,表3给出了参数λ对人脸识别率的影响。可以看出,针对Yale数据库,当λ取得较小的值时,我们提出的算法取得了最高的识别率。相对地,当λ取得较大的值时,提出的算法在ExtendedYaleB和CMU PIE展现了更好的性能。这是因为,相对于Extended YaleB和CMU PIE来说,Yale数据库的训练样本个数少而类内方差大,来自同一类的样本在特征空间上可能是不相邻的,所以样本的重构关系应该加强。相反地,由于Extended YaleB和CMU PIE包含更多的训练样本,而且头部姿势和面部表情变化较小,相对Yale数据库具有较小的类内方差,所以,局部约束应赋予较大的权重。
图3(a)~(c)给出了低维子空间维数d对识别率的影响。从该图可以看出,当子空间维数较低时,提出的LC-GODR方法性能劣低于一些其它方法。然而,随着维数的增高,LC-GODR方法的识别率具有很大的改善。表3给出了不同方法最高识别率和标准差对比结果,其中括弧内的数值表示取得最高识别率时对应的低维子空间维数d。标准差是10次识别率的标准差,越小说明稳定性越好。我们可以看出,提出的方法在三个数据库上都得到了最高的识别率,分别为89.86%,90.59%和93.75%,且具有较好的稳定性。相对地,DRAG和GODRSC方法也得到了较好的性能,但是还是劣于LC-GODR方法。
图4(a)~(c)给出LC-GODR方法在3个人脸数据库上的收敛曲线。其中横轴代表迭代的次数,纵轴代表目标函数值,可以看出提出的迭代更新策略具有很快的收敛速度,即迭代次数在20以内函数达到收敛。
在实现聚类任务时,利用K均值算法对低维表示进行自动聚类,并利用聚类精度(AC)评价聚类性能,AC定义如下:
其中,n是训练样本总数量,li是数据xi的真实标签,ci是样本xi获得的聚类标签,map(·)是最优映射函数,它通过Kuhn-Munkres算法将每个簇标签映射到等价的真实标签。
从公式(15)中可知,AC值范围属于[0,1]区间,AC值越大,说明算法聚类性能越好。由于K均值聚类方法对初始聚类中心是敏感的,所以我们随机初始化类中心10次,并将10次的平均聚类精度作为最终的聚类结果。参数λ和低维表示维数d的设置过程与人脸识别相同,表5给出了不同方法的聚类结果对比。从该表可以看出,由于LPP和NEP采用k近邻方法构图,其性能低于在大多情况下低于其它方法。在SGLPP方法中,每个样本的邻居个数是自适应的,其性能在两个UCI数据集上都优于LPP。由于LSR-NPE,LRR-NPE,SPP,GoLPP,DRAG和GODRSC方法采用更先进的技术来构建图,所以它们比LPP,NEP和SGLPP方法获得的更高的聚类精度。明显地,由于考虑了两种约束,LC-GODR方法展现了最好的性能,聚类精度分别为0.5754,0.6730和0.6337。
图5(a)~(c)给出了LC-GODR方法在3个聚类数据集上的收敛曲线,与图4相似,在迭代20次以内曲线趋***稳,说明提出的方法能具有很快的收敛速度。
表1 3个人脸数据库的详细信息
表2 3个UCI数据集的详细信息
表3参数λ对识别率的影响
表4不同方法的最高识别率和标准差对比
表5不同方法的最高聚类精度和标准差对比
该方法将图优化和投影矩阵学习整合到一个统一框架,在维数约简的过程中使得图可以自适应的更新。其次,通过引入局部约束,可以很好能够有效地挖掘和保持高维数据的局部信息。特别地,提出一个有效的更新策略来求解提出的算法。大量的实验和对比结果表明,本发明具有良好的性能而且优于现有的相关方法。本发明提出的方法适用于目标识别、数据聚类和数据可视化。
鉴于此,本发明提出一种基于局部约束的图优化维数约简方法,该方法在降维过程中同时考虑了两种局部约束,使得高维样本的低维表示能够很好的保持原始高维数据的局部关系。特别地,分别在3个国际标准人脸数据库上和3个由加州大学欧文分校建立的3个标准数据集进行识别与聚类实验(表1和表2分别给出了3个人脸数据库和3个UCI数据集的详细信息),通过对比实验验证了提出方法具有良好的性能。
以上所述仅为本发明的优选实施方式,本发明的保护范围并不仅限于上述实施方式,凡是属于本发明的原理的技术方案均属于本方面的保护范围,对于本领域的技术人员而言,在不脱离本发明的前提下进行的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于局部约束的图优化维数约简方法,其特征在于包括下列步骤:
1)、读取高维数据其中,xi为第i个样本,D为样本维数,n为样本个数;
2)、构建基于近邻重构关系的局部约束;
为了使高维数据的低维表示能够保持原始数据的局部关系,在求投影矩阵过程中需构建一个图矩阵S,利用一个样本的近邻重构该样本能够有效地捕捉数据的局部信息,因此在构建图矩阵S过程中考虑如下约束关系:
<mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>&amp;CircleTimes;</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,代表对应元素相乘操作,为样本xi的指示向量,为图矩阵,S·i为图矩阵S的第i列;
3)、构建基于样本相似性的局部约束;
考虑到在高维空间中相近的样本应该具有相似的重构系数,因此在构建图矩阵S过程中考虑如下约束关系:
<mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,S·i和S·j为图矩阵S的第i列和第j列,分别表示样本xi与xj的重构系数,wij=exp(-||xi-xj||2/σ)为热核函数;
4)、构建基于两种局部约束的维数约简目标函数:
<mrow> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mrow> <mi>P</mi> <mo>,</mo> <mi>S</mi> </mrow> </munder> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>XS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mfrac> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>&amp;CircleTimes;</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>P</mi> <mo>=</mo> <mi>I</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中,为投影矩阵,D>>d,(xi-XS·i)表示样本xi被X中其它样本重构误差,PT表示矩阵P的转置,I为单位矩阵,λ>0为折中参数;
5)、通过迭代策略优化目标函数,首先固定投影矩阵P,更新图矩阵S;然后固定图矩阵S,更新投影矩阵P;最后,经过N次迭代,N≤15,得到优化的投影矩阵P和图矩阵S;
6)、为了后续的识别与聚类任务,将高维数据X向矩阵P投影,得到高维数据的低维表示,从而达到维数约简的目的;
Xlow=PTX (13)
其中,为高维数据X的低维表示,即高维空间中每个样本由原来的D维为变成低维空间的d维。
2.根据权利要求1所述的基于局部约束的图优化维数约简方法,其特征在于:在步骤4)中,利用代数变换,将公式(3)重写为:
<mrow> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mrow> <mi>P</mi> <mo>,</mo> <mi>S</mi> </mrow> </munder> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>XS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mfrac> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>&amp;CircleTimes;</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>j</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <munder> <mi>min</mi> <mrow> <mi>P</mi> <mo>,</mo> <mi>S</mi> </mrow> </munder> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>XS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mfrac> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <mi>t</mi> <mi>r</mi> <mo>(</mo> <mrow> <msup> <mi>S</mi> <mi>T</mi> </msup> <mi>L</mi> <mi>S</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,ST表示矩阵S的转置,为局部指示向量Ri的对角化形式,L=D-W为拉普拉斯阵,W=[wij]n×n是对称的样本相似阵,D是一个对角阵,其对角元素为W的行和或列和,tr(·)表示矩阵的迹。
3.根据权利要求2所述的基于局部约束的图优化维数约简方法,其特征在于:在步骤5)中,首先固定投影矩阵P,更新图矩阵S,公式(4)可写为:
<mrow> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mi>S</mi> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>XS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <mi>t</mi> <mi>r</mi> <mo>(</mo> <mrow> <msup> <mi>S</mi> <mi>T</mi> </msup> <mi>L</mi> <mi>S</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <munder> <mi>min</mi> <mi>S</mi> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <mi>t</mi> <mi>r</mi> <mo>(</mo> <mrow> <msup> <mi>S</mi> <mi>T</mi> </msup> <mi>L</mi> <mi>S</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,yi=PTxi和Y=PTX,公式(5)约束项的最后一项可重写为:
通过代数变换,公式(5)可重写为:
<mrow> <munder> <mi>min</mi> <mi>S</mi> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mi>+</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>LS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
可逐列更新图矩阵S,对于S的第i列S·i,目标函数可更新为:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msub> <mi>LS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> </mrow> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>(</mo> <mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> </mrow> <mo>)</mo> <mo>+</mo> <msubsup> <mi>&amp;lambda;S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <mo>(</mo> <mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>L</mi> </mrow> <mo>)</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>T</mi> </msubsup> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>2</mn> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msup> <mi>Y</mi> <mi>T</mi> </msup> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <msubsup> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <msup> <mi>Y</mi> <mi>T</mi> </msup> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>&amp;lambda;S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> <mi>T</mi> </msubsup> <mo>(</mo> <mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>L</mi> </mrow> <mo>)</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
对公式(8)中的S·i求偏导并令倒数等于零,则有:
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>J</mi> <mrow> <mo>(</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mn>2</mn> <msup> <mi>Y</mi> <mi>T</mi> </msup> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>2</mn> <msup> <mi>Y</mi> <mi>T</mi> </msup> <msub> <mi>YS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>+</mo> <mn>2</mn> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <mo>+</mo> <mi>L</mi> <mo>)</mo> </mrow> <msub> <mi>S</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
S·i=(YTY+λEi+λL)-1YTyi (10)。
4.根据权利要求1所述的基于局部约束的图优化维数约简方法,其特征在于:在步骤5)中,
固定图矩阵S,更新投影矩阵P,通过移除无关项,公式(3)关于P的优化问题为:
<mrow> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mi>P</mi> </munder> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>XS</mi> <mrow> <mo>&amp;CenterDot;</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mfrac> <mrow> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>X</mi> <mo>(</mo> <mrow> <mi>I</mi> <mo>-</mo> <mi>S</mi> <mo>-</mo> <msup> <mi>S</mi> <mi>T</mi> </msup> <mo>+</mo> <msup> <mi>S</mi> <mi>T</mi> </msup> <mi>S</mi> </mrow> <mo>)</mo> <msup> <mi>X</mi> <mi>T</mi> </msup> <mi>P</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <msup> <mi>XX</mi> <mi>T</mi> </msup> <mi>P</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>P</mi> <mo>=</mo> <mi>I</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
设M=X(I-S-ST+STS)XT和C=XXT,公式(11)可写为:
<mrow> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mi>P</mi> </munder> <mo>=</mo> <mfrac> <mrow> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>M</mi> <mi>P</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>C</mi> <mi>P</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mi>P</mi> <mi>T</mi> </msup> <mi>P</mi> <mo>=</mo> <mi>I</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
公式(12)通过迭代的迹比法(ITR)或牛顿分解法(DNR)进行求解。
CN201510777140.4A 2015-11-13 2015-11-13 基于局部约束的图优化维数约简方法 Active CN105389560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510777140.4A CN105389560B (zh) 2015-11-13 2015-11-13 基于局部约束的图优化维数约简方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510777140.4A CN105389560B (zh) 2015-11-13 2015-11-13 基于局部约束的图优化维数约简方法

Publications (2)

Publication Number Publication Date
CN105389560A CN105389560A (zh) 2016-03-09
CN105389560B true CN105389560B (zh) 2018-05-11

Family

ID=55421832

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510777140.4A Active CN105389560B (zh) 2015-11-13 2015-11-13 基于局部约束的图优化维数约简方法

Country Status (1)

Country Link
CN (1) CN105389560B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825215B (zh) * 2016-03-15 2019-07-19 云南大学 一种基于局部近邻嵌入核函数的仪表定位方法及使用载体
CN108805179B (zh) * 2018-05-24 2022-03-29 华南理工大学 一种基于人脸局部约束编码校准识别方法
CN109815440B (zh) * 2019-01-16 2023-06-23 江西师范大学 联合图优化和投影学习的维数约简方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218617A (zh) * 2013-05-13 2013-07-24 山东大学 一种多线性大间距的特征提取方法
CN103226699A (zh) * 2013-04-16 2013-07-31 哈尔滨工程大学 一种基于分离度差有监督局部保持投影的人脸识别方法
CN103605889A (zh) * 2013-11-13 2014-02-26 浙江工业大学 一种基于数据全局-局部结构保持投影的数据降维方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100543707B1 (ko) * 2003-12-04 2006-01-20 삼성전자주식회사 서브그룹별 pca 학습을 이용한 얼굴인식방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226699A (zh) * 2013-04-16 2013-07-31 哈尔滨工程大学 一种基于分离度差有监督局部保持投影的人脸识别方法
CN103218617A (zh) * 2013-05-13 2013-07-24 山东大学 一种多线性大间距的特征提取方法
CN103605889A (zh) * 2013-11-13 2014-02-26 浙江工业大学 一种基于数据全局-局部结构保持投影的数据降维方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于有监督降维的人脸识别方法;姚明海等;《计算机工程》;20140625;第40卷(第5期);第228-233页 *
基于特征子空间邻域的局部保持流形学习算法;王娜等;《计算机应用研究》;20120626;第29卷(第4期);第1318-1321页 *

Also Published As

Publication number Publication date
CN105389560A (zh) 2016-03-09

Similar Documents

Publication Publication Date Title
Xie et al. Hyper-Laplacian regularized multilinear multiview self-representations for clustering and semisupervised learning
Kümmerer et al. DeepGaze II: Reading fixations from deep features trained on object recognition
Zhao et al. On similarity preserving feature selection
CN107203787B (zh) 一种无监督正则化矩阵分解特征选择方法
CN110222213B (zh) 一种基于异构张量分解的图像分类方法
CN109993208B (zh) 一种有噪声图像的聚类处理方法
Wang et al. Minimum error entropy based sparse representation for robust subspace clustering
CN105389560B (zh) 基于局部约束的图优化维数约简方法
Zhang et al. Enabling in-situ data analysis for large protein-folding trajectory datasets
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
Ma et al. The BYY annealing learning algorithm for Gaussian mixture with automated model selection
CN109815440B (zh) 联合图优化和投影学习的维数约简方法
CN109657693B (zh) 一种基于相关熵和迁移学习的分类方法
CN111027582A (zh) 基于低秩图学习的半监督特征子空间学习方法及装置
CN109063555B (zh) 基于低秩分解和稀疏表示残差对比的多姿态人脸识别方法
CN114863151A (zh) 一种基于模糊理论的图像降维聚类方法
Su et al. Graph regularized low-rank tensor representation for feature selection
Zhao et al. A novel multi-view clustering method via low-rank and matrix-induced regularization
CN113744209A (zh) 基于多尺度残差U-net网络的心脏分割方法
CN109614581B (zh) 基于对偶局部学习的非负矩阵分解聚类方法
Chen et al. A general model for robust tensor factorization with unknown noise
Fu et al. Structure-Preserved and Weakly Redundant Band Selection for Hyperspectral Imagery
Lv et al. A robust mixed error coding method based on nonconvex sparse representation
Meng et al. Robust discriminant projection via joint margin and locality structure preservation
Han et al. Modify self-attention via skeleton decomposition for effective point cloud transformer

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant