CN107145841A - 一种基于矩阵的低秩稀疏人脸识别方法及其*** - Google Patents
一种基于矩阵的低秩稀疏人脸识别方法及其*** Download PDFInfo
- Publication number
- CN107145841A CN107145841A CN201710255515.XA CN201710255515A CN107145841A CN 107145841 A CN107145841 A CN 107145841A CN 201710255515 A CN201710255515 A CN 201710255515A CN 107145841 A CN107145841 A CN 107145841A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msup
- mover
- msubsup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
本发明涉及一种基于矩阵的低秩稀疏人脸识别方法,包括:A、对任意人脸样本进行特征提取;B、针对特征提取后数据进行判别分类并给出人脸识别结果。用线性稀疏的投影矩阵从高维度的图像中提取出有鉴别力的特征,从而提高人脸识别的效率;直接对图像矩阵进行特征提取,大大加快了算法的计算速度;用最近较为流行的L*范数替代传统的子空间学习方法中的L1范数或L2范数作为矩阵距离度量,增强算法的鲁棒性;通过加入L2,1范数正则项,算法能对迭代求解过程中有鉴别力的投影进行选择,从而达到联合稀疏的效果,这不仅使得投影结果具有更高的可解释性,还可以进一步提升算法的鲁棒性;通过使用L*范数和加入联合稀疏性,该方法提高了人脸识别的性能以及稳定性。
Description
技术领域
本发明属于模式识别技术改进领域,尤其涉及一种基于矩阵的低秩稀 疏人脸识别方法及其***。
背景技术
智慧城市理念的提出意味着城市要启动智能化的进程,其中一个方面 是通过视频监控、智能识别减少城市犯罪率。而这一个想法的实现最为重 要的环节是提升人脸识别的成功率。而在人脸识别技术领域中,如何从高 维度的图像中提取出有用的特征并减少数据维度,具有非常重要的研究意 义。因为高维度的图像不仅加大了计算复杂度,还存在大量冗余的信息严 重影响分类器的识别成功率,所以如何有效的对图像进行特征提取则显得 尤为重要了。在这样的需求下,大量的特征提取算法被相继提出。其中较 为经典的有基于图像全局结构的主成分分析技术PCA和线性鉴别分析技 术LDA。基于图像局部结构的局部线性嵌入技术LLE和正交邻域保留投 影技术ONPP。这几个经典的特征提取技术由于其大大提高了图像识别率, 被广泛运用在了人脸识别,指纹识别等应用上。然而,随着技术的发展, 人们发现了经这些经典的特征提取技术所产生的投影矩阵不够稀疏,所以 对于特征提取的结果缺乏可靠的解释性,这在一定程度上影响了算法的有 效性。
因此在这些技术的基础上,人们还提出了许多基于稀疏表示的特征提 取技术。比如基于PCA提出的SPCA,基于LDA提出的SDA,基于ONPP 提出的SLE等等。稀疏表示的主要目的是进一步突出图像的主要特征,让 大多数冗余信息变为零。经过改进后的稀疏特征提取技术通过对投影矩阵 增加约束范数,让模型选择更具有鉴别力的投影元素,从而从根本上改变 了投影矩阵的组成成分,让提取结果更负说服力。稀疏表示的另一个好处 就是投影矩阵的大部分元素变成零,程序运算速度因此大大增加。
以上方法均是基于图像向量的特征提取技术,与之对应的,便是基于 图像矩阵的方法。基于图像矩阵的特征提取技术能更好的挖掘图像的结构 化信息同时增加算法的计算效率。传统的特征提取技术习惯于将图像矩阵 转化为一维的向量后再进行处理,这不仅让图像从低维度转变成高维度, 还把原本的结构信息忽略了,除此之外,基于一维向量的方法容易产生因 训练样本太少而导致散列矩阵奇异的问题。基于二维图像的特征提取技术 自然而然的避免了这些问题,所以一经提出便引起了广泛的关注,比如从 PCA技术衍生出的2-DPCA,-2-DPCA,从LDA技术衍生出的2-DLDA。
上述基于二维图像的特征提取技术在模式识别领域里被频繁的利用并 展现出良好的性能,但是这些技术仍然存在一些缺陷,若是对此加以改进, 识别效果会再进一步提升。
以上介绍的基于二维图像的特征提取技术仍然存在一些缺陷,主要是 以下两点:①鲁棒性不足。鲁棒性不足的原因是由于这些技术普遍采用对 噪声较为敏感的L1或L2范数作为矩阵度量,导致算法在面对噪声较多或不 完整的图像时变得不稳定且低效。事实上我们所获得的图像的清晰度主要 依赖于拍摄设备的分辨率和拍摄角度,而在监控视频中获得一张清晰且完 整的图像是较为困难的,也就是说鲁棒性不足的问题亟待解决。而本发明将采用核范数作为主要的约束范数达到低秩学习的效果,从而解决鲁棒性 不足的问题。②不具备联合稀疏的功能。虽然SPCA和SDA能够产生稀疏 投影矩阵,但它们都是基于一维向量的特征提取技术且同样有鲁棒性不足 的问题。缺乏联合稀疏的性质让算法所提取出的特征缺乏可靠的解释性, 算法的性能也因此降低,为此我们需要提出一个能够进行稀疏特征提取的 基于二维图像的技术。不同于SPCA等技术采用L2范数作为正则项选择有 鉴别力但随机性大的特征,本发明将利用L2,1范数作为正则项进行联合稀疏 学习,进一步提升人脸识别性能。
发明内容
本发明的目的在于提供一种基于矩阵的低秩稀疏人脸识别方法,旨在 解决上述的技术问题。
本发明是这样实现的,一种基于矩阵的低秩稀疏人脸识别方法,所述 低秩稀疏人脸识别方法包括以下步骤:
A、对任意人脸样本进行特征提取;
B、针对特征提取后数据进行判别分类并给出人脸识别结果。
本发明的进一步技术方案是:所述步骤A包括以下步骤:
A1、初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵,P(0)为随机矩 阵,G(0)为单位矩阵;
A2、通过迭代操作,求出稀疏投影子空间P;
A3、将计算得到的进行归一化处理,其公式为:
A4、计算映射后的人脸特征矩阵,其公式为:Yi=PTXiP(i=1,...,N)。
本发明的进一步技术方案是:所述步骤A2中包括以下步骤:
A21、判断迭代过程中t的大小是否大于Tmax;如小于等于Tmax,则执行 步骤A22,如大于Tmax,则执行步骤A3;
A22、利用矩阵X,U(t-1),P(t-1)和函数式计算得出其函数式为:
A23、利用等式关系将矩阵P(t)进行更新,其中等式:
A24、对做SVD分解得到
A25、通过函数式对矩阵进行更新并且使得t=t+1,其中函数式:
本发明的进一步技术方案是:所述步骤B中还包括以下步骤:
B1、对提取后的训练集和测试集的数据使用最近邻分类器进行判别分 类。
本发明的进一步技术方案是:在人脸识别中求得稀疏、有鉴别力的投 影矩阵用于把图像映射到代维空间。
本发明的另一目的在于提供一种基于矩阵的低秩稀疏人脸识别***, 所述低秩稀疏人脸识别***包括:
特征提取模块,用于对任意人脸样本进行特征提取;
识别结果模块,用于针对特征提取后数据进行判别分类并给出人脸识 别结果。
本发明的进一步技术方案是:所述特征提取模块中包括:
初始化单元,用于初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵, P(0)为随机矩阵,G(0)为单位矩阵;
求投影空间单元,用于通过迭代操作,求出稀疏投影子空间P;
归一化单元,用于将计算得到的进行归一化处理,其公式为:
计算人脸特征矩阵单元,用于计算映射后的人脸特征矩阵,其公式为:
Yi=PTXiP(i=1,...,N)。
本发明的进一步技术方案是:所述求投影空间单元中包括:
判断模块,用于判断迭代过程中t的大小是否大于Tmax;如小于等于Tmax, 则执行计算模块,如大于Tmax,则执行归一化单元;
计算模块,用于利用矩阵X,U(t-1),P(t-1)和函数式计算得出其函数式 为:
更新模块,用于利用等式关系将矩阵P(t)进行更新,其中等式:
分解模块,对做SVD分解得到
矩阵更新模块,用于通过函数式对矩阵进行更新并且使得t=t+1,其中 函数式:
本发明的进一步技术方案是:所述识别结果模块中还包括:
分类单元,用于对提取后的训练集和测试集的数据使用最近邻分类器 进行判别分类。
本发明的进一步技术方案是:在人脸识别中求得稀疏、有鉴别力的投 影矩阵用于把图像映射到代维空间。
本发明的有益效果是:用线性稀疏的投影矩阵从高维度的图像中提取 出有鉴别力的特征,从而提高人脸识别的效率;直接对图像矩阵进行特征 提取,大大加快了算法的计算速度;用最近较为流行的L*范数替代传统的 子空间学习方法中的L1范数或L2范数作为矩阵距离度量,增强算法的鲁棒 性;通过加入L2,1范数正则项,算法能对迭代求解过程中有鉴别力的投影进 行选择,从而达到联合稀疏的效果,这不仅使得投影结果具有更高的可解释性,还可以进一步提升算法的鲁棒性;通过使用L*范数和加入联合稀疏 性,该方法提高了人脸识别的性能以及稳定性。
附图说明
图1是本发明实施例提供的基于矩阵的低秩稀疏人脸识别方法的流程 图。
图2是本发明实施例提供的基于矩阵的低秩稀疏人脸识别***的结构 框图。
图3是本发明实施例提供的AR人脸数据库部分样本示意图。
具体实施方式
图1示出了本发明提供的基于矩阵的低秩稀疏人脸识别方法,其详述 如下:
针对任意一个人脸样本矩阵我们自定义求出最终 的投影空间P的迭代步长Tmax和映射后的图像尺寸di(di≤mi),i=1,2。通过以 下操作以后,我们映射后的训练样本矩阵记为Yi=PTXiP(i=1,...,N)。
步骤S1,对任意人脸样本进行特征提取;在提取人脸的任意样本特征 中分为如下步骤:第一步,初始化迭代步骤t=1,初始化U(0)为随机列正交 矩阵,P(0)为随机矩阵,G(0)为单位矩阵。第二步,通过迭代操作,求出稀 疏投影子空间P。在求稀疏投影子空间P时包括以下过程,第1步,判断 迭代步骤t的大小是否大于Tmax。如果小于等于Tmax,执行下面的操作;如果 大于Tmax,跳出循环,到第三步;第2步,利用矩阵X,U(t-1),P(t-1)和公式
计算出第3步,利用等式更新矩阵P(t);其中等式: 第4步,对做SVD分解,得到第5步,利用公式更新矩阵G(t),并且t=t+1。第三步,将计算得 到的进行归一化处理,其利用下述函数式:
第四步,计算映射后的人脸特征 矩阵,其公式为:Yi=PTXiP(i=1,...,N)。
步骤S2,针对特征提取后数据进行判别分类并给出人脸识别结果。对 提取后的训练集和测试集的数据使用最近邻分类器进行判别分类。
在人脸识别中求得稀疏、有鉴别力的投影矩阵用于把图像映射到代维 空间。
本发明提出的基于矩阵表示的低秩稀疏人脸识别(Low Rank Sparse FaceRecognition,LRSFR)模型通过使用核范数和实现联合稀疏提升了最近 比较流行的基于矩阵表示的特征提取方法的性能。并且通过交替迭代的方 式,我们可以求得稀疏、有鉴别力的投影矩阵用于把图像映射到低维空间。
假设训练样本表示为其中N代表训练样本的总个 数,设Nc和分别代表类标的个数和第i类样本的个数。参考以往的研究 成果,本发明使用的LRSFR模型首先构造投影矩阵原始 的图像信息通过该矩阵投影到低维的特征矩阵中,得到的结果表示为
Yi=UTXi (0.1)
首先定义一些变量用于后面的模型介绍:
①样本的基于核范数的类内线性散度矩阵变量Jw:
其中符号|| ||*代表核范数,P表示用于计算稀疏子空间的投影矩阵,代表第j类训练样本对应的均值。
②样本的基于核范数的类间线性散度矩阵变量JB:
其中代表全部训练样本的均值,代表第j类样本的平均值。
为了利用核范数增强基于图像矩阵的特征提取技术的鲁棒性,基本的 目标函数定为:
s.t. UTU=Id (3.4)
其中变量μ∈[0,1]用于平衡两个散度矩阵的值。为了得到的子空间具有 稀疏性进而实现更好的分类效果,本发明在公式(3.4)上使用L2,1范数作为正 则项。因此,本发明的最终目标函数为:
s.t. UTU=Id (3.5)
变量γi与μ有相同的作用。为了解决公式(3.5),我们采用交替迭代的方 式。首先固定变量U,P。则从(3.2)和(3.3)可以推导出
其中Wi,j=((Xi-U PTXj)(Xi-U PTXj)T)-1/4
其中
将公式(3.6)和公式(3.7)代入目标函数(3.5),可以得到如下最小值问题
UTU=Id (3.8)
其中
然后,我们定义对角矩阵G,其对角元素为
其中Pi表示矩阵P的第i行。
固定矩阵U求P,则由公式(3.8-3.10)我们有:
对P求导并令其等于0,移项解得
然后固定矩阵P求U。我们可以看到用公式(3.8)求U时,和 γ||P||2,1变成常数项,则(3.8)等同于求解一个最大化问题
s.t. UTU=Id (3.13)
根据SPCA论文中的理论四,(3.13)的最优解可以通过对做SVD 分解得到
则
下面详细介绍该发明技术方案中所涉及的各个细节问题的说明:
针对任意一个人脸样本矩阵我们自定义求出最终 的投影空间P的迭代步长Tmax和映射后的图像尺寸di(di≤mi),i=1,2。通过以 下操作以后,我们映射后的训练样本矩阵记为Yi=PTXiP(i=1,...,N)。
步骤一、特征提取
(1)初始化。
我们首先初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵,P(0)为随 机矩阵,G(0)为单位矩阵。
(2)通过迭代操作,求出稀疏投影子空间P。
第一步,判断迭代步骤t的大小是否大于Tmax。如果小于等于Tmax,执行 下面的操作;如果大于Tmax,跳出循环,到(3);
第二步,利用矩阵X,U(t-1),P(t-1)和公式(3.6),(3.7),(3.9)计算出
第三步,利用等式更新矩阵P(t)。
第四步,对做SVD分解,得到
第五步,利用公式(3.10)更新矩阵G(t),并且t=t+1。
(3)归一化。
将计算得到的进行归一化。
(4)计算映射后的人脸特征矩阵
Yi=PTXiP(i=1,...,N)
步骤二、分类
针对特征提取后的训练集和测试集数据,我们使用最近邻分类器进行 判别分类,给出人脸识别结果。
下面结合实例对本发明进行详细的描述。
如图3所示为本发明所用的AR人脸识别验证数据样本图。本发明所 提供的方法在AR上进行了实验验证。该库包括了120个人的人脸图像, 每人有26张不同光照和表性的相片。实验中我们每个人取10张包括不同 光照表情和戴眼镜的人脸图片组成一个子集进行实验,在实验中,我们随 机选取5张作为训练数据,剩下的为测试数集。
在实验中,我们比较了线性鉴别分析方法(Linear discriminant analysis,LDA)、多线性鉴别分析(Multilinear discrimianant analysis,MLDA)、MLDA 加LDA(MLDA+LDA)、张量大边界准则(tensor maximal marginal criterion, TMMC)、TMMC加LDA(TMMC+LDA)、及本专利所提出的LRSFR、LRSFR 加LDA(LRSFR+LDA)人脸识别方法得到的具体实验结果如下。
表1.识别率的对比
由表1的实验结果可知,在具有表性、光照和戴眼镜的情况下,本专 利所提供的方法的识别率达到88.46%,比LDA高214%;在LRSFR提取 特征并再用LDA进行识别时,识别率达到了91.87%。本专利的方法达到 大大高于其它方法,包括LDA、MLDA、MLDA+LDA、TMMC、TMMC+LDA。 故本专利所提供的方法较其它方法具有更高的识别性能。其中的主要原因 是我们利用了一个更为鲁棒的全新的度量方法,该方法所学习得到的投影 是不仅是更为鲁棒,而且是联合稀疏的,在特征提取过程中选择了更优的 特征。
如图2所示,本发明的另一目的在于提供一种基于矩阵的低秩稀疏人 脸识别***,所述低秩稀疏人脸识别***包括:
特征提取模块,用于对任意人脸样本进行特征提取;
识别结果模块,用于针对特征提取后数据进行判别分类并给出人脸识 别结果。
所述特征提取模块中包括:
初始化单元,用于初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵, P(0)为随机矩阵,G(0)为单位矩阵;
求投影空间单元,用于通过迭代操作,求出稀疏投影子空间P;
归一化单元,用于将计算得到的进行归一化处理,其公式为:
计算人脸特征矩阵单元,用于计算映射后的人脸特征矩阵,其公式为:
Yi=PTXiP(i=1,...,N)。
所述求投影空间单元中包括:
判断模块,用于判断迭代过程中t的大小是否大于Tmax;如小于等于Tmax, 则执行计算模块,如大于Tmax,则执行归一化单元;
计算模块,用于利用矩阵X,U(t-1),P(t-1)和函数式计算得出其函数式 为:
更新模块,用于利用等式关系将矩阵P(t)进行更新,其中等式:
分解模块,对做SVD分解得到
矩阵更新模块,用于通过函数式对矩阵进行更新并且使得t=t+1,其中 函数式:
所述识别结果模块中还包括:
分类单元,用于对提取后的训练集和测试集的数据使用最近邻分类器 进行判别分类。
在人脸识别中求得稀疏、有鉴别力的投影矩阵用于把图像映射到代维 空间。
基于矩阵表示的低秩稀疏人脸识别方法,属于模式识别技术领域。该 方法的核心思想是用线性稀疏的投影矩阵从高维度的图像中提取出有鉴别 力的特征,从而提高人脸识别的效率。相较于传统的基于向量表示的人脸 识别方法,本发明直接对图像矩阵进行特征提取,大大加快了算法的计算 速度。同时为了增强算法的鲁棒性,我们采用最近较为流行的L*范数替代 传统的子空间学习方法中的L1范数或L2范数作为矩阵距离度量,使用该范数的方法又称低秩学习方法。还有,通过加入L2,1范数正则项,算法能对迭 代求解过程中有鉴别力的投影进行选择,从而达到联合稀疏的效果,这不 仅使得投影结果具有更高的可解释性,还可以进一步提升算法的鲁棒性。 实验结果表明,通过使用L*范数和加入联合稀疏性,该方法提高了人脸识 别的性能以及稳定性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在 本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含 在本发明的保护范围之内。
Claims (10)
1.一种基于矩阵的低秩稀疏人脸识别方法,其特征在于,所述低秩稀疏人脸识别方法包括以下步骤:
A、对任意人脸样本进行特征提取;
B、针对特征提取后数据进行判别分类并给出人脸识别结果。
2.根据权利要求1所述的低秩稀疏人脸识别方法,其特征在于,所述步骤A包括以下步骤:
A1、初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵,P(0)为随机矩阵,G(0)为单位矩阵;
A2、通过迭代操作,求出稀疏投影子空间P;
A3、将计算得到的进行归一化处理,其公式为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>P</mi>
<mi>U</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
<mo>:</mo>
<msub>
<mi>d</mi>
<mn>1</mn>
</msub>
<mo>;</mo>
</mrow>
A4、计算映射后的人脸特征矩阵,其公式为:Yi=PTXiP(i=1,...,N)。
3.根据权利要求1所述的低秩稀疏人脸识别方法,其特征在于,所述步骤A2中包括以下步骤:
A21、判断迭代过程中t的大小是否大于Tmax;如小于等于Tmax,则执行步骤A22,如大于Tmax,则执行步骤A3;
A22、利用矩阵X,U(t-1),P(t-1)和函数式计算得出其函数式为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>J</mi>
<mi>W</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mo>*</mo>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<msubsup>
<mi>X</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<msubsup>
<mi>X</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msubsup>
<mi>X</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
1
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>J</mi>
<mi>B</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>|</mo>
<msub>
<mo>|</mo>
<mo>*</mo>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>j</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>j</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<msub>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
<mi>&mu;</mi>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>n</mi>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>;</mo>
</mrow>
A23、利用等式关系将矩阵P(t)进行更新,其中等式:
<mrow>
<msup>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>&gamma;G</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<msubsup>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
<mo>,</mo>
<mi>T</mi>
</mrow>
</msubsup>
<msup>
<mi>U</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>;</mo>
</mrow>
A24、对做SVD分解得到
A25、通过函数式对矩阵进行更新并且使得t=t+1,其中函数式:
<mrow>
<msub>
<mi>G</mi>
<mrow>
<mi>i</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<mo>|</mo>
<mo>|</mo>
<msup>
<mi>P</mi>
<mi>i</mi>
</msup>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
</mrow>
</mfrac>
<mo>.</mo>
</mrow>
4.根据权利要求3所述的低秩稀疏人脸识别方法,其特征在于,所述步骤B中还包括以下步骤:
B1、对提取后的训练集和测试集的数据使用最近邻分类器进行判别分类。
5.根据权利要求4所述的低秩稀疏人脸识别方法,其特征在于,在人脸识别中求得稀疏、有鉴别力的投影矩阵用于把图像映射到代维空间。
6.一种基于矩阵的低秩稀疏人脸识别***,其特征在于,所述低秩稀疏人脸识别***包括:
特征提取模块,用于对任意人脸样本进行特征提取;
识别结果模块,用于针对特征提取后数据进行判别分类并给出人脸识别结果。
7.根据权利要求6所述的低秩稀疏人脸识别***,其特征在于,所述特征提取模块中包括:
初始化单元,用于初始化迭代步骤t=1,初始化U(0)为随机列正交矩阵,P(0)为随机矩阵,G(0)为单位矩阵;
求投影空间单元,用于通过迭代操作,求出稀疏投影子空间P;
归一化单元,用于将计算得到的进行归一化处理,其公式为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mi>max</mi>
</msub>
<mo>)</mo>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>P</mi>
<mi>U</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mi>max</mi>
</msub>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
<mo>:</mo>
<msub>
<mi>d</mi>
<mn>1</mn>
</msub>
<mo>;</mo>
</mrow>
计算人脸特征矩阵单元,用于计算映射后的人脸特征矩阵,其公式为:Yi=PTXiP(i=1,...,N)。
8.根据权利要求7所述的低秩稀疏人脸识别***,其特征在于,所述求投影空间单元中包括:
判断模块,用于判断迭代过程中t的大小是否大于Tmax;如小于等于Tmax,则执行计算模块,如大于Tmax,则执行归一化单元;
计算模块,用于利用矩阵X,U(t-1),P(t-1)和函数式计算得出其函数式为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>J</mi>
<mi>B</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>|</mo>
<msub>
<mo>|</mo>
<mo>*</mo>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mi>F</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<mo>-</mo>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>j</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>N</mi>
<mi>j</mi>
</msub>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mn>2</mn>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<msup>
<mi>PU</mi>
<mi>T</mi>
</msup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<msup>
<mi>UP</mi>
<mi>T</mi>
</msup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>&rsqb;</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<msub>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>C</mi>
<mi>j</mi>
</msub>
</mrow>
<msub>
<mi>N</mi>
<mi>w</mi>
</msub>
</munderover>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>T</mi>
</msubsup>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
<mi>&mu;</mi>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>C</mi>
</munderover>
<msub>
<mi>n</mi>
<mi>j</mi>
</msub>
<msubsup>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mover>
<mi>X</mi>
<mo>&OverBar;</mo>
</mover>
<mo>;</mo>
</mrow>
更新模块,用于利用等式关系将矩阵P(t)进行更新,其中等式:
<mrow>
<msup>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>&gamma;G</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<msubsup>
<mover>
<mi>S</mi>
<mo>~</mo>
</mover>
<mi>P</mi>
<mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>T</mi>
</mrow>
</msubsup>
<msup>
<mi>U</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>;</mo>
</mrow>
分解模块,对做SVD分解得到
矩阵更新模块,用于通过函数式对矩阵进行更新并且使得t=t+1,其中函数式:
9.根据权利要求8所述的低秩稀疏人脸识别***,其特征在于,所述识别结果模块中还包括:
分类单元,用于对提取后的训练集和测试集的数据使用最近邻分类器进行判别分类。
10.根据权利要求9所述的低秩稀疏人脸识别***,其特征在于,在人脸识别中求得稀疏、有鉴别力的投影矩阵用于把图像映射到代维空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710255515.XA CN107145841B (zh) | 2017-07-20 | 2017-07-20 | 一种基于矩阵的低秩稀疏人脸识别方法及其*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710255515.XA CN107145841B (zh) | 2017-07-20 | 2017-07-20 | 一种基于矩阵的低秩稀疏人脸识别方法及其*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107145841A true CN107145841A (zh) | 2017-09-08 |
CN107145841B CN107145841B (zh) | 2021-08-10 |
Family
ID=59775443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710255515.XA Active CN107145841B (zh) | 2017-07-20 | 2017-07-20 | 一种基于矩阵的低秩稀疏人脸识别方法及其*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107145841B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958229A (zh) * | 2017-12-21 | 2018-04-24 | 苏州大学 | 一种基于近邻保持低秩表示的人脸识别方法、装置及设备 |
CN108021950A (zh) * | 2017-12-28 | 2018-05-11 | 河南科技大学 | 基于低秩稀疏表示的图像分类方法 |
CN108121964A (zh) * | 2017-12-21 | 2018-06-05 | 深圳大学 | 基于矩阵的联合稀疏局部保持投影人脸识别方法 |
CN108875686A (zh) * | 2018-07-02 | 2018-11-23 | 扬州大学 | 一种基于非负稀疏的鉴别性低秩表示分类方法 |
CN109522841A (zh) * | 2018-11-16 | 2019-03-26 | 重庆邮电大学 | 一种基于群稀疏表示与低秩矩阵恢复的人脸识别方法 |
WO2022006734A1 (zh) * | 2020-07-07 | 2022-01-13 | 香港中文大学(深圳) | 一种数据稀疏投影算法、***、电子装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226590A (zh) * | 2008-01-31 | 2008-07-23 | 湖南创合制造有限公司 | 一种人脸识别方法 |
CN103632134A (zh) * | 2013-10-17 | 2014-03-12 | 浙江师范大学 | 基于Fisher低秩矩阵恢复的人脸识别方法 |
CN104318261A (zh) * | 2014-11-03 | 2015-01-28 | 河南大学 | 一种图嵌入低秩稀疏表示恢复稀疏表示人脸识别方法 |
US9336433B1 (en) * | 2013-07-24 | 2016-05-10 | University Of Central Florida Research Foundation, Inc. | Video face recognition |
-
2017
- 2017-07-20 CN CN201710255515.XA patent/CN107145841B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226590A (zh) * | 2008-01-31 | 2008-07-23 | 湖南创合制造有限公司 | 一种人脸识别方法 |
US9336433B1 (en) * | 2013-07-24 | 2016-05-10 | University Of Central Florida Research Foundation, Inc. | Video face recognition |
CN103632134A (zh) * | 2013-10-17 | 2014-03-12 | 浙江师范大学 | 基于Fisher低秩矩阵恢复的人脸识别方法 |
CN104318261A (zh) * | 2014-11-03 | 2015-01-28 | 河南大学 | 一种图嵌入低秩稀疏表示恢复稀疏表示人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
WAI KEUNG WONG ET AL: "Low-Rank Embedding for Robust Image", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958229A (zh) * | 2017-12-21 | 2018-04-24 | 苏州大学 | 一种基于近邻保持低秩表示的人脸识别方法、装置及设备 |
CN108121964A (zh) * | 2017-12-21 | 2018-06-05 | 深圳大学 | 基于矩阵的联合稀疏局部保持投影人脸识别方法 |
CN107958229B (zh) * | 2017-12-21 | 2021-12-24 | 苏州大学 | 一种基于近邻保持低秩表示的人脸识别方法、装置及设备 |
CN108021950A (zh) * | 2017-12-28 | 2018-05-11 | 河南科技大学 | 基于低秩稀疏表示的图像分类方法 |
CN108021950B (zh) * | 2017-12-28 | 2021-05-25 | 河南科技大学 | 基于低秩稀疏表示的图像分类方法 |
CN108875686A (zh) * | 2018-07-02 | 2018-11-23 | 扬州大学 | 一种基于非负稀疏的鉴别性低秩表示分类方法 |
CN109522841A (zh) * | 2018-11-16 | 2019-03-26 | 重庆邮电大学 | 一种基于群稀疏表示与低秩矩阵恢复的人脸识别方法 |
WO2022006734A1 (zh) * | 2020-07-07 | 2022-01-13 | 香港中文大学(深圳) | 一种数据稀疏投影算法、***、电子装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107145841B (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN107145841A (zh) | 一种基于矩阵的低秩稀疏人脸识别方法及其*** | |
Cui et al. | Identifying materials of photographic images and photorealistic computer generated graphics based on deep CNNs. | |
CN106372581B (zh) | 构建及训练人脸识别特征提取网络的方法 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
Thai et al. | Image classification using support vector machine and artificial neural network | |
CN110516616A (zh) | 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法 | |
CN107463920A (zh) | 一种消除局部遮挡物影响的人脸识别方法 | |
CN112257647A (zh) | 基于注意力机制的人脸表情识别方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN102156871B (zh) | 基于类别相关的码本和分类器投票策略的图像分类方法 | |
CN106295694A (zh) | 一种迭代重约束组稀疏表示分类的人脸识别方法 | |
CN105138951B (zh) | 基于图模型表示的人脸画像-照片识别方法 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN106022241B (zh) | 一种基于小波变换及稀疏表示的人脸识别方法 | |
CN112818850B (zh) | 基于渐进式神经网络和注意力机制的跨姿态人脸识别方法和*** | |
CN106203256A (zh) | 一种基于稀疏保持典型相关分析的低分辨率人脸识别方法 | |
CN106897669A (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
CN105740908B (zh) | 基于核空间自解释稀疏表示的分类器设计方法 | |
CN106096517A (zh) | 一种基于低秩矩阵与特征脸的人脸识别方法 | |
CN109977887A (zh) | 一种抗年龄干扰的人脸识别方法 | |
CN110414513A (zh) | 基于语义增强卷积神经网络的视觉显著性检测方法 | |
CN109977830A (zh) | 基于颜色纹理双通道卷积神经网络及循环神经网络的人脸融合检测方法 | |
CN105574489A (zh) | 基于层次级联的暴力群体行为检测方法 | |
CN109614866A (zh) | 基于级联深度卷积神经网络的人脸检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |