CN102446269A - 可抑制杂讯及环境影响的脸部识别方法 - Google Patents

可抑制杂讯及环境影响的脸部识别方法 Download PDF

Info

Publication number
CN102446269A
CN102446269A CN2010105078767A CN201010507876A CN102446269A CN 102446269 A CN102446269 A CN 102446269A CN 2010105078767 A CN2010105078767 A CN 2010105078767A CN 201010507876 A CN201010507876 A CN 201010507876A CN 102446269 A CN102446269 A CN 102446269A
Authority
CN
China
Prior art keywords
face
image
subcharacter
current
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010105078767A
Other languages
English (en)
Other versions
CN102446269B (zh
Inventor
李威霆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MICRO ONE ELECTRONICS (KUNSHAN) Inc
MSI Computer Shenzhen Co Ltd
Original Assignee
MICRO ONE ELECTRONICS (KUNSHAN) Inc
MSI Computer Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MICRO ONE ELECTRONICS (KUNSHAN) Inc, MSI Computer Shenzhen Co Ltd filed Critical MICRO ONE ELECTRONICS (KUNSHAN) Inc
Priority to CN201010507876.7A priority Critical patent/CN102446269B/zh
Publication of CN102446269A publication Critical patent/CN102446269A/zh
Application granted granted Critical
Publication of CN102446269B publication Critical patent/CN102446269B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

一种可抑制杂讯及环境影响的脸部识别方法,执行于一数据处理装置,用以判别一当前脸部影像与一参考脸部影像是否相符合。此方法是对当前脸部影像与参考脸部影像施行高斯模糊降噪处理,再将当前脸部影像与参考脸部影像分割为多个区块,以分别取得代表当前脸部影像与参考脸部影像的子特征向量群。接着,依据环境状态的变化,选取适当的动态阈值,比对子特征向量群的差异,从而决定当前脸部影像与参考脸部影像是否相符合。

Description

可抑制杂讯及环境影响的脸部识别方法
技术领域
本发明涉及脸部识别方法,特别是涉及一种可抑制杂讯(blur noise)及环境影响的脸部识别方法。
背景技术
传统的使用权限取得方式,例如通过门禁***或登入计算机***等,其步骤为输入使用者帐号并输入对应的密码。
输入使用者帐号及输入对应的密码的动作,有完全手动的;亦有通过识别卡,例如接触式识别卡或RFID识别卡自动输入使用者帐号及密码的。完全手动的常有帐号密码外流或被使用者遗忘的问题,而识别卡则有被盗用或是非法复制的问题。
为了避免前述问题发生,脸部识别技术目前逐渐被用于作为识别身份以取得特定权限。
脸部识别技术大致分为二个阶段,分别为脸部学习阶段及脸部识别阶段。脸部学习阶段在于撷取使用者的脸部的影像,经特定的数值处理操作,以将影像转换特定的数据化资料,并以数据表现其特征。脸部识别阶段则在于撷取待识别的脸部的影像,同样地将影像转换为特定型态的数据化资料,并以数据表现其特征。最后再将两笔数据化资料加以比对,确认其特征是否近似,以判别待识别的脸部是否与使用者的脸部相符合。
而将脸部的影像转换为数据化资料以供识别的核心技术大致有主成分分析法(Principal Components Analysis)、三维脸部识别法、以五官为基础的识别法、子特征向量比对等等。前述各种方法各有其优缺点,然而,其等所共通面临的问题在于:取得待识别的脸部的环境,往往与脸部学习阶段的环境有很大的差异,或是待识别的脸部的影像包含了杂讯,这些环境影响或杂讯,将使得待识别的脸部无法通过脸部识别。为了避免使用者经常性地无法通过脸部识别,脸部识别阶段就必须降低比对门槛。但是降低比对门槛,将使得脸部识别过于容易通过,而让陌生人通过脸部识别。
发明内容
鉴于上述问题,本发明基于子特征向量比对,提出一种可抑制杂讯及环境影响的脸部识别方法,以降低杂讯或环境对脸部识别的可靠度的影响。
本发明提出一种可抑制杂讯及环境影响的脸部识别方法,执行于一数据处理装置,用以判别一当前脸部影像与一参考脸部影像是否相符合,所述方法包含下列步骤:
提供一特征向量数据库,储存该参考脸部影像的一参考子特征向量群、一参考环境状态向量及一动态阈值表;
撷取该当前脸部影像;
取得该当前脸部影像的当前子特征向量群;
将该当前子特征向量群中每一子特征向量,与该参考子特征向量群中对应的子特征向量进行比对,找出该当前脸部影像中每一该区块的子特征向量差距;
将这些子特征向量差距由小至大排列;
由数值较小的开始选取各该子特征向量差距,而仅取得这些子特征向量差距中一特定个数,并加总这些该子特征向量差距为一总差距;
取得该当前脸部影像的当前环境状态向量;
计算该参考环境状态向量与该当前环境状态向量之间的欧氏距离;
依据该参考环境状态向量与该当前环境状态向量之间的欧氏距离,于该动态阈值表上取得一对应的动态阈值,其中该动态阈值表记载多个动态阈值,且每一动态阈值与一特定范围的欧氏距离关连;
判别该总差距是否超过该动态阈值,并于总差距未超过该动态阈值时决定该当前脸部影像与该参考脸部影像相符合。
通过前述可抑制杂讯及环境影响的脸部识别方法,本发明可在取得子特征向量群之前,先降低各脸部影像的杂讯。接着在取得子特征向量群的差距之后,本发明进一步考量环境状态的变化,而动态地选取比对前述差距的阈值,从而使每一次取得的动态阈值都可以符合环境状态的变化,以改善脸部识别的可靠度。
附图说明
图1为执行本发明的可抑制杂讯及环境影响的脸部识别方法的数据处理装置。
图2为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(一)。
图3为转换参考脸部影像为参考子特征向量群的示意图。
图4为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(二)。
图5为取得参考环境状态向量的示意图。
图6为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(三)。
图7为转换当前脸部影像为当前子特征向量群的示意图。
图8为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(四)。
图9为自适性比对的示意图。
图10为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(五)。
图11为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(六)。
图12为取得计算欧氏距离以取得动态阈值的示意图。
图13为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(七)。
图14为多层次取样的示意图。
图15为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(八)。
图16为多尺寸取样的示意图。
图17图为本发明的可抑制杂讯及环境影响的脸部识别方法的流程图(九)。
附图符号说明
20    数据处理装置
40    特征向量数据库
30    影像撷取装置
R     参考脸部影像
Rs    参考缩小脸部影像
C     当前脸部影像
Cs    当前缩小脸部影像
F     脸部影像
F1    第一层影像
F2    第二层影像
具体实施方式
请参阅「图1」至「图2」所示,其为本发明实施例所提出的一种可抑制杂讯及环境影响的脸部识别方法,执行于一数据处理装置20,用以判别一当前脸部影像C与一参考脸部影像R是否相符合,而产生一识别结果,而找出对应的识别身份。前述识别结果及其所对应的识别身份可用于取代该数据处理装置20的登入帐号及密码,从而简化取得该数据处理装置20使用权限的步骤。
该数据处理装置20(例如计算机或笔记型计算机)安装有一脸部识别程序,藉以执行可抑制杂讯及环境影响的脸部识别方法。该数据处理装置20连接或内建一特征向量数据库40,并通过一影像撷取装置30撷取当前脸部影像C或参考脸部影像R。
本发明的可抑制杂讯及环境影响的脸部识别方法,主要包含脸部影像特征向量处理程序,前述脸部影像特征向量处理程序不只用于脸部特征学习阶段,也用于脸部识别阶段。
如「图1」所示,本发明的可抑制杂讯及环境影响的脸部识别方法通过影像撷取装置30撷取使用者的当前脸部影像C或参考脸部影像R,并传送至数据处理装置20。影像撷取装置30可为一摄影机,外接或内建于该数据处理装置20。
参阅「图2」及「图3」所示,于此先说明脸部特征学习阶段所包含的步骤,该脸部特征学习阶段实际上包含一脸部影像特征向量处理程序,以提供特征向量数据库40。
参阅「图2」及「图3」所示,首先,于脸部影像特征向量处理程序的部分,使用者先使影像撷取装置30对准脸部,以通过该影像撷取装置30撷取参考脸部影像R,传送至数据处理装置20,如步骤Step 110所示。
参阅「图2」及「图3」所示,接着,数据处理装置20对该参考脸部影像R施行高斯模糊降噪处理(Gaussian Blur Noise Reduction),以降低该脸部影像R中的杂讯,如步骤Step 120所示。
该高斯模糊降噪处理用于降低杂讯,其也可以用其他的降低杂讯处理方式取代;或是,若撷取脸部影像R的场所照明充足而可确保撷取脸部影像R具有低杂讯时,也可以不施行步骤Step 120的高斯模糊降噪处理。
参阅「图2」及「图3」所示,接着,数据处理装置20将参考脸部影像R分割成N×N个区块,每一个区块都给予一区块识别码(Block_ID),如步骤Step 130所示。
参阅「图2」及「图3」所示,数据处理装置20分析每一区块中,每一像素的像素值,并对每一区块进行局部二值化处理(Local Binary Pattern,LBP)。数据处理装置20依据像素值的变化,将每一区块转换为具有M个维度的子特征向量,如步骤Step 140所示。
参阅「图2」及「图3」所示,该参考脸部影像R共可获得N×N个子特征向量,因此数据处理装置20结合这些子特征向量为一参考子特征向量群,以储存于特征向量数据库40,如步骤Step 150所示。
参阅「图2」及「图3」所示,数据处理装置20并将该参考子特征向量群传送至特征向量数据库40,如步骤Step 160所示。
前述的操作,是用以建立参考子特征向量群,以供后续比对之用。于建立参考子特征向量群时,数据处理装置20可同时接受识别身份的数据的输入,以使参考子特征向量群与一对应的识别身份产生关连。
经过前述的步骤后,可得一特征向量数据库40,该特征向量数据库40中储存至少一参考子特征向量群,该参考子特征向量群与一识别身份被设定互相关连。
之后,针对该参考脸部影像R,取得参考环境状态向量,取得步骤如下:
参阅「图4」及「图5」所示,数据处理装置20先将参考脸部影像R分割为4个等分,由左上等分开始逆时针排列依序为第一等分1、第二等分2、第三等分3、第四等分4,如步骤Step 170所示。
参阅「图4」及「图5」所示,接着,数据处理装置20分别计算第一等分1、第二等分2、第三等分3、第四等分4的平均灰阶值m1、m2、m3、m4,如步骤Step 181所示。
参阅「图4」及「图5」所示,如步骤Step 182所示,数据处理装置20接着以下列规则:以左边等分的平均灰阶值减右边等分的平均灰阶值、以上方等分的平均灰阶值减下方等分的平均灰阶值,再取得四个灰阶值差值(m1-m4)、(m2-m3)、(m1-m2)、(m4-m3),前述的规则主要是用以计算每一平均灰阶值与其他平均灰阶值的差值,因此并不限定于前述规则。且等分的数量亦不限定于四个(2×2),亦可为3×3、4×4...等。
如步骤Step 190所示,接着,结合第一等分1、第二等分2、第三等分3、第四等分4的平均灰阶值m1、m2、m3、m4,及四个灰阶值差值(m1-m4)、(m2-m3)、(m1-m2)、(m4-m3)作为每一维度的数值为一参考环境状态向量,储存于特征向量数据库40中。
接着说明可抑制杂讯及环境影响的脸部识别方法的中的脸部识别阶段。于脸部识别阶段中,同样地,是先执行脸部影像特征向量处理程序,取得一当前子特征向量群,再将该当前子特征向量群,与特征向量数据库40中的参考子特征向量群逐一比对。
参阅「图6」及「图7」所示,使用者先使影像撷取装置30对准脸部,通过该影像撷取装置30撷取当前脸部影像C,传送当前脸部影像C至数据处理装置20,如步骤Step 210所示。
参阅「图6」及「图7」所示,接着,数据处理装置20对该当前脸部影像C施行高斯模糊降噪处理,以降低当前脸部影像C中的杂讯,如步骤Step 220所示。如同步骤Step 120,该高斯模糊降噪处理是用于降低杂讯,也可以用其他的降低杂讯处理方式取代;或是,若撷取脸部影像C的场所照明充足而可确保撷取脸部影像C具有低杂讯时,也可以不施行步骤Step220的高斯模糊降噪处理。
参阅「图6」及「图7」所示,接着,数据处理装置20将当前脸部影像C分割成N×N个区块,每一个区块都给予一区块识别码(Block_ID),如步骤Step 230所示。
参阅「图6」及「图7」所示,数据处理装置20分析每一区块中,每一像素的像素值,并对每一区块进行局部二值化处理。数据处理装置20依据像素值的变化,将当前脸部影像C的每一区块转换为具有M个维度的子特征向量,如步骤Step 240所示。
参阅「图6」及「图7」所示,该当前脸部影像C共可获得N×N个子特征向量,因此数据处理装置20结合这些子特征向量为一当前子特征向量群,如步骤Step 250所示。
参阅「图8」及「图9」所示,数据处理装置20将对应于当前脸部影像C的当前子特征向量群中每一子特征向量,与参考脸部影像R的参考子特征向量群中对应的子特征向量进行比对,找出当前脸部影像C中每一该区块的子特征向量差距,如步骤Step 300所示。
参考「图10」所示,步骤Step 300的自适性比对的细节如下。
首先,数据处理装置20由特征向量数据库40载入一个参考子特征向量群,如步骤Step 310所示。
将参考子特征向量群及当前子特征向量群中,具有相同区块识别码(Block_ID)而互相对应的子特征向量进行比对,而得到N×N组子特征向量差距,如步骤Step 320所示。
以数据处理装置20将前述的这些子特征向量差距由小至大排列,由数值较小的开始选取各该子特征向量差距,而仅选取这些子特征向量差距中一特定个数,例如仅取前65%,其余数值较大的舍弃不采用,如步骤Step 330所示。
如步骤Step 340所示,数据处理装置20加总前述选取的子特征向量差距为一总差距。
步骤Step 330中,舍弃子特征向量差距中数值较大的不采用的原因在于执行步骤Step 140、Step 240的局部二值化处理(LBP)时,每一区块的子特征向量实际上都会受到杂讯影响,而使其子特征向量受到影响。而子特征向量差距数值较大的舍弃不采用时,被舍弃的区块实际上都是受到杂讯影响较大的,特别是阴影、浏海、脸部光滑处的颗粒状杂讯,重要的脸部特征被舍弃的机率不高。
反之,在光线正常场合下,虽杂讯极少,但欠缺鉴别性的区块有时会更被凸显出来,例如光滑的额头、脸颊在强光作用下的颗粒状杂讯,这些区块不但欠缺鉴别性的特征,而且充足的光线也会使其子特征向量受到影响而在特征向量组合中被突显出来,并造成其对应的子特征向量差距数值较大。因此,在光线正常场合下,舍弃子特征向量差距数值较大的并不会舍弃重要的脸部特征,反而可以提升重要的脸部特征的权重。
接着,数据处理装置20指定一动态阈值,进行动态阈值检查,如步骤Step 400所示。动态阈值检查用以判别当前脸部影像C与特征向量数据库40中参考脸部影像R的子特征向量差距的总差距是否超过该动态阈值。亦即,当前子特征向量群与参考子特征向量群的差异是否超过该动态阈值。
参阅「图11」至「图12」所示,以下说明步骤Step 400的细节。
参阅「图11」至「图12」所示,数据处理装置20先将当前脸部影像C分割为4个等分,由左上等分开始逆时针排列依序为第一等分1、第二等分2、第三等分3、第四等分4,如步骤Step 410所示。
参阅「图11」至「图12」所示,数据处理装置20分别计算第一等分1、第二等分2、第三等分3、第四等分4的平均灰阶值m1、m2、m3、m4,如步骤Step 420所示。
参阅「图11」至「图12」,如步骤Step 430所示,数据处理装置20接着计算每一平均灰阶值与其他平均灰阶值的差值(m1-m4)、(m2-m3)、(m1-m2)、(m4-m3)。
如步骤Step 440所示,接着,以第一等分1、第二等分2、第三等分3、第四等分4的平均灰阶值m1、m2、m3、m4,及四个灰阶值差值(m1-m4)、(m2-m3)、(m1-m2)、(m4-m3)作为每一维度的数值,结合为一当前环境状态向量。
实际上,步骤Step 410至Step 440所执行的步骤,是与步骤Step 160至Step 190相同,其差异仅在于实施对象为参考脸部影像R或当前脸部影像C。
如步骤Step 450所示,数据处理装置20计算参考环境状态向量与当前环境状态向量之间的欧氏距离(Euclidean distance)。
如步骤Step 460所示,数据处理装置20由特征向量数据库40载入一动态阈值表。动态阈值表记载多个动态阈值,且每一动态阈值与一特定范围的欧氏距离关连。前述动态阈值表可通过在不同环境测试后,逐一建立出每一动态阈值与一特定范围的欧氏距离的关连性。
如步骤Step 470所示,数据处理装置20依据参考环境状态向量及当前环境状态向量之间的欧氏距离,取得一对应的动态阈值。
参阅「图8」所示,如步骤Step 500,以数据处理装置20判别总差距是否超过动态阈值。
若当前子特征向量群与参考子特征向量群的总差距超过该动态阈值,则判定当前脸部影像C与该参考脸部图像R不相符,而属于一陌生人,如步骤Step 510所示。
若当前子特征向量群与参考子特征向量群的差距,未超过该动态阈值,则决定当前脸部影像C与该参考脸部图像R相符合,而属于使用者,如步骤Step 520所示。
上述识别结果及参考子特征向量群所对应的识别身份,可用于取代该数据处理装置20的登入帐号及密码,从而简化取得该数据处理装置20使用权限的步骤。
动态阈值可以反映出取得当前脸部影像C及取得参考脸部影像R时的环境影响,随该环境影响调整比对阈值,从而避免脸部识别方法的识别门槛过于严苛,也仍可降低陌生人通过脸部识别的机率。
为了提升脸部识别的正确性,本发明脸部识别方法的步骤可进行下列二种修正。
其一,执行多层次取样,增加当前子特征向量群与参考子特征向量群中的子特征向量数,以增加有效的比对样本数。
参阅「图13」及「图14」所示,执行多层次取样的步骤,是用以取代步骤Step 130至步骤Step 140或步骤Step 230至步骤Step 240。以下不再区隔当前脸部影像C及参考脸部影像R,仅以脸部影像F称之。
参阅「图13」及「图14」所示,取得脸部影像F并进行降低杂讯处理之后(如步骤Step 110至步骤Step 120之后,或步骤Step 210至步骤Step220),数据处理装置20将脸部影像F分为第一层影像F1及第二层影像F2,其中第一层影像F1为原始的脸部影像F,第二层影像F2为原始的脸部影像F中的局部区域,特别是脸部中心特征明显的区域,如步骤Step 610所示。
参阅「图13」及「图14」所示,数据处理装置20将第一层影像F1及第二层影像F2分别分割为多个区块;例如第一层影像F1分割成N×N个区块,第二层影像F2分割成L×L个区块。同样地,所有的每一个区块都给予一区块识别码(Block_ID),如步骤Step 620所示。
参阅「图13」及「图14」所示,数据处理装置20分析每一区块中,每一像素的像素值,并对每一区块进行局部二值化处理。数据处理装置20依据像素值的变化,将每一区块转换为具有M个维度的子特征向量,如步骤Step 630所示。
参阅「图13」及「图14」所示,该参考脸部影像R共可获得N×N个加上L×L个子特征向量,该L×L个都来自脸部特征明显处,而可增加脸部特征的权重。数据处理装置20结合这些子特征向量为一参考子特征向量群,以储存于特征向量数据库40,如步骤Step 640所示。而该脸部影像F共可获得N×N加上L×L个子特征向量的子特征向量组合,以作为参考子特征向量群。
如此一来,子特征向量即可原来的N×N个,再增加L×L个,且该L×L个都来自脸部特征明显处,而可增加脸部特征的权重。
其二,执行多尺寸取样,修正当前脸部影像C与特征向量数据库40中的参考脸部影像R的欧氏距离,以降低杂讯的影响。
参阅「图15」及「图16」所示,执行多尺寸取样的步骤,是用以取代步骤Step 130至步骤Step 140或步骤Step 230至步骤Step 240。
参阅「图15」及「图16」所示,取得参考脸部影像R或当前脸部影像C之后(如步骤Step 110至步骤Step 120之后,或步骤Step 210至步骤Step220),数据处理装置20进一步变更参考脸部影像R及当前脸部影像C的解析度,分别取得一参考缩小脸部影像Rs及一当前缩小脸部影像Cs,如步骤Step 710所示。产生缩小脸部影像的过程中,杂讯部分可以被消除,但人脸特征的权重也会被降低。因此,原始的脸部影像F仍需在后续的步骤中用到。
参阅「图15」所示,接着,数据处理装置20将参考脸部影像R、该当前脸部影像C、参考缩小脸部影像Rs或当前缩小脸部影像Cs分别分割为多个区块;所有的每一个区块都给予一区块识别码(Block_ID),如步骤Step720所示。
参阅「图15」所示,数据处理装置20分析每一区块中,每一像素的像素值,并对每一区块进行局部二值化处理。数据处理装置20依据像素值的变化,将每一区块转换为具有M个维度的子特征向量,如步骤Step 730所示。
参阅「图15」及「图16」所示,最后,数据处理装置20分别取得该参考缩小脸部影像Rs及该当前缩小脸部影像Cs的子特征向量群,以找出当前缩小脸部影像Cs的子特征向量群中每一该区块的子特征向量差距,如步骤Step 740所示。
参阅「图16」及「图17图」所示,而原有的步骤Step 300,亦即对当前脸部影像C的当前子特征向量群,与特征向量数据库40中的每一参考子特征向量群进行自适性比对的步骤,则区分为两个平行支线执行,分别为步骤Step 300’及Step 300”。
参阅「图16」及「图17图」所示,Step 300’仍为找出该当前脸部影像C中每一区块的子特征向量差距,亦即Step 310’至Step 340’与Step 310至Step 340相同。
参阅「图16」及「图17图」所示,Step 300”是找出当前缩小脸部影像Cs的子特征向量群中每一该区块的子特征向量差距,亦即Step 310”至Step340”与Step 310至Step 340相同,但比较对象为当前缩小脸部影像Cs及参考缩小影像Rs。
最后,加总当前缩小脸部影像Cs的子特征向量群中每一区块的子特征向量差距至由当前脸部影像C取得的总差距,取得的总差距,用以于步骤Step 500中与动态阈值进行比对。
本发明的脸部识别方法主要是考量环境状态的变化,而改变每一次比对的动态阈值,使每一次取得的动态阈值都可以符合环境状态的变化,以改善脸部识别的可靠度。

Claims (9)

1.一种可抑制杂讯及环境影响的脸部识别方法,执行于一数据处理装置,用以判别一当前脸部影像与一参考脸部影像是否相符合,该方法包含下列步骤:
提供一特征向量数据库,储存该参考脸部影像的一参考子特征向量群、一参考环境状态向量及一动态阈值表;
撷取该当前脸部影像;
取得该当前脸部影像的当前子特征向量群;
将该当前子特征向量群中每一子特征向量,与该参考子特征向量群中对应的子特征向量进行比对,找出该当前脸部影像中每一该区块的子特征向量差距;
将该子特征向量差距由小至大排列;
由数值较小的开始选取各该子特征向量差距,而仅取得该子特征向量差距中一特定个数,并加总该子特征向量差距为一总差距;
取得该当前脸部影像的当前环境状态向量;
计算该参考环境状态向量与该当前环境状态向量之间的欧氏距离;
依据该参考环境状态向量与该当前环境状态向量之间的欧氏距离,于该动态阈值表上取得一对应的动态阈值,其中该动态阈值表记载多个动态阈值,且每一动态阈值与一特定范围的欧氏距离关连;
判别该总差距是否超过该动态阈值,并于总差距未超过该动态阈值时决定该当前脸部影像与该参考脸部影像相符合。
2.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中取得参考子特征向量群或该当前子特征向量群的步骤包含:
通过一影像撷取装置撷取一参考脸部影像或一当前脸部影像;
传送该参考脸部影像或该当前脸部影像至该数据处理装置;
以该数据处理装置对该参考脸部影像或该当前脸部影像施行降低杂讯处理;
以该数据处理装置将该参考脸部影像或该当前脸部影像分割成多个区块;以及
以该数据处理装置对每一该区块进行局部二值化处理,将每一该区块转换为多个子特征向量,而结合为一子特征向量群。
3.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中撷取该参考脸部影像或该当前脸部影像之后,还包含下列步骤:
以该数据处理装置将该参考脸部影像或该当前脸部影像分为第一层影像及第二层影像;其中该第一层影像为该参考脸部影像或该当前脸部影像,该第二层影像为该参考脸部影像或该当前脸部影像中的局部区域;及
将该第一层影像及该第二层影像分别分割为多个区块。
4.如权利要求2所述的可抑制杂讯及环境影响的脸部识别方法,其中该降低杂讯处理的步骤是执行高斯模糊降噪处理。
5.如权利要求2所述的可抑制杂讯及环境影响的脸部识别方法,其中撷取该参考脸部影像或该当前脸部影像之后,其中还包含:
变更该参考脸部影像及该当前脸部影像的解析度,分别取得一参考缩小脸部影像及一当前缩小脸部影像;
分别取得该参考缩小脸部影像及该当前缩小脸部影像的子特征向量群,以找出当前缩小脸部影像的子特征向量群中每一该区块的子特征向量差距;
加总当前缩小脸部影像的子特征向量群中每一该区块的子特征向量差距至由当前脸部影像取得的总差距。
6.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中该参考子特征向量群与一对应的识别身份产生关连。
7.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中取得参考环境状态向量或当前环境状态向量的步骤包含:
先将一该参考脸部影像或该当前脸部影像分割为多个等分;
分别计算每一该等分的平均灰阶值;
计算每一该平均灰阶值与其他该平均灰阶值的差值;
以该平均灰阶值及四个灰阶值差值作为每一维度的数值,结合为该环境状态向量。
8.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中,找出该当前脸部影像与参考脸部影像的该子特征向量差距的步骤包含:
以该数据处理装置由该特征向量数据库载入该参考子特征向量群;
将参考子特征向量群及当前子特征向量群中,属于相同区块的子特征向量进行比对,以得到该子特征向量差距。
9.如权利要求1所述的可抑制杂讯及环境影响的脸部识别方法,其中,所选取的子特征向量差距,为该由小至大排列的子特征向量差距的前65%。
CN201010507876.7A 2010-10-15 2010-10-15 可抑制杂讯及环境影响的脸部识别方法 Active CN102446269B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010507876.7A CN102446269B (zh) 2010-10-15 2010-10-15 可抑制杂讯及环境影响的脸部识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010507876.7A CN102446269B (zh) 2010-10-15 2010-10-15 可抑制杂讯及环境影响的脸部识别方法

Publications (2)

Publication Number Publication Date
CN102446269A true CN102446269A (zh) 2012-05-09
CN102446269B CN102446269B (zh) 2015-10-14

Family

ID=46008758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010507876.7A Active CN102446269B (zh) 2010-10-15 2010-10-15 可抑制杂讯及环境影响的脸部识别方法

Country Status (1)

Country Link
CN (1) CN102446269B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701763A (zh) * 2015-12-30 2016-06-22 青岛海信移动通信技术股份有限公司 一种调整人脸图像的方法及装置
CN108241836A (zh) * 2016-12-23 2018-07-03 同方威视技术股份有限公司 用于安检的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060204058A1 (en) * 2004-12-07 2006-09-14 Kim Do-Hyung User recognition system and method thereof
CN101021899A (zh) * 2007-03-16 2007-08-22 南京搜拍信息技术有限公司 综合利用人脸及人体辅助信息的交互式人脸识别***及方法
CN101281598A (zh) * 2008-05-23 2008-10-08 清华大学 基于多部件多特征融合的人脸识别方法
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060204058A1 (en) * 2004-12-07 2006-09-14 Kim Do-Hyung User recognition system and method thereof
CN101021899A (zh) * 2007-03-16 2007-08-22 南京搜拍信息技术有限公司 综合利用人脸及人体辅助信息的交互式人脸识别***及方法
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和***
CN101281598A (zh) * 2008-05-23 2008-10-08 清华大学 基于多部件多特征融合的人脸识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701763A (zh) * 2015-12-30 2016-06-22 青岛海信移动通信技术股份有限公司 一种调整人脸图像的方法及装置
CN105701763B (zh) * 2015-12-30 2019-05-21 青岛海信移动通信技术股份有限公司 一种调整人脸图像的方法及装置
CN108241836A (zh) * 2016-12-23 2018-07-03 同方威视技术股份有限公司 用于安检的方法及装置

Also Published As

Publication number Publication date
CN102446269B (zh) 2015-10-14

Similar Documents

Publication Publication Date Title
TWI453680B (zh) 可抑制雜訊及環境影響之臉部辨識方法
CN110188641B (zh) 图像识别和神经网络模型的训练方法、装置和***
CN105450411B (zh) 利用卡片特征进行身份验证的方法、装置及***
CN102985933B (zh) 区分真人面部与平坦表面
JP6089577B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN107545277B (zh) 模型训练、身份验证方法、装置、存储介质和计算机设备
US9619753B2 (en) Data analysis system and method
KR101412727B1 (ko) 얼굴 인식 장치 및 방법
CN110674677A (zh) 一种多模态多层融合的用于人脸反欺骗的深度神经网络
JP2018026115A (ja) 火炎検出方法、火炎検出装置及び電子機器
Selwal et al. Template security analysis of multimodal biometric frameworks based on fingerprint and hand geometry
US10402554B2 (en) Technologies for depth-based user authentication
CN102446269A (zh) 可抑制杂讯及环境影响的脸部识别方法
CN109255311A (zh) 一种基于图像的信息识别方法及***
CN111291780A (zh) 一种跨域网络训练及图像识别方法
Shoyaib et al. Skin detection using statistics of small amount of training data
Wan et al. Face detection method based on skin color and adaboost algorithm
CN104392443A (zh) 用于检测二维24位彩色图像的主要特征色的方法
KR102257883B1 (ko) 얼굴 인식 방법 및 장치
JP2013218530A (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
Geng et al. Skin detection with illumination adaptation in single image
Hu et al. Optimizing pixel predictors based on self-similarities for reversible data hiding
KR101611267B1 (ko) 객체 인식방법 및 이를 이용한 객체 인식장치
Singh et al. Dynamic video steganography using LBP on CIELAB based K-means clustering
Wang et al. Camera source identification of digital images based on sample selection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant