CN112418060B - 一种基于神经网络的面部识别*** - Google Patents

一种基于神经网络的面部识别*** Download PDF

Info

Publication number
CN112418060B
CN112418060B CN202011303035.4A CN202011303035A CN112418060B CN 112418060 B CN112418060 B CN 112418060B CN 202011303035 A CN202011303035 A CN 202011303035A CN 112418060 B CN112418060 B CN 112418060B
Authority
CN
China
Prior art keywords
face
control module
central control
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011303035.4A
Other languages
English (en)
Other versions
CN112418060A (zh
Inventor
董滔
胡文婕
李华青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Xuanyi Intelligent Technology Co ltd
Original Assignee
Southwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University filed Critical Southwest University
Priority to CN202011303035.4A priority Critical patent/CN112418060B/zh
Publication of CN112418060A publication Critical patent/CN112418060A/zh
Application granted granted Critical
Publication of CN112418060B publication Critical patent/CN112418060B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明涉及一种基于神经网络的面部识别***,包括:外壳、摄像装置、显示屏和中控模块,在使用面部识别***前,在中控模块内输入多张使用用户不同角度的照片,所述中控模块对同一用户的不同的照片进行识别,通过内设算法获取人脸静态特征数据;在使用面部识别***时,摄像装置采集人脸视频信息并将视频信息传递至中控模块,中控模块选取最适合人脸图像并通过距离与亮度对人脸图像进行补偿,在对比时,将人脸图像分为若干个区域运用微积分思想逐一对比。本发明通通过前期数据识别,全面获取人面部特征,在进行人脸识别时加快识别速度;通过微积分与权重分配,增大识别的准确性。

Description

一种基于神经网络的面部识别***
技术领域
本发明涉及人脸识别技术领域,尤其涉及一种基于神经网络的面部识别***。
背景技术
人类进入21世纪,随着计算机和网络技术的日渐发达,信息安全体的隐患日益突出,各国越来越重视社会的公共安全,信息识别与检测显示出前所未有的重要性,其应用领域之广,几乎可以包含社会的各个领域。现今生活中主要采用号码、磁卡、口令等识别方法,这些都存在着易丢失、易伪造、易遗忘等诸多问题。随着技术的不断发展,传统的身份识别方法已经受到越来越多的挑战,可靠性大为降低,势必出现新的信息识别和检测技术。人们逐渐的把目光转向了生物体征,这些都是人类遗传的DNA所决定的,并且每个人都拥有自己独一无二的生物体征。
生物识别技术大致可以分为两大类,一类是物体体征,例如指纹、虹膜、人脸、体味等。另一类是行为体征,例如书写、步频、惯性动作等,这些都可以通过现在的计算机图像处理技术进行识别。与其他人类的生理特征相比,人脸存在易采集、非接触、静态等优点,比较容易被大众所接受。
人脸识别是计算机视觉研究领域中的热门研究方向之一,并且有着广泛的应用,在安防、监控、泛娱乐等领域都有着重要的作用。
据调查,人与人接触时,90%的人是通过观察一个人的脸部特征来了解对方,获取对方的基本信息,这就是所谓的第一印象。虽然外部条件例如年龄、表情、光照等发生巨大变化,是一个人的面部特征发生巨大变化,但是人类仍然可以识别,这一现象说明人的脸部存有大量特征信息,通过提出人脸部的特征信息,就可以判断一个人。
当前,拥有人脸识别功能的装置质量参差不齐,部分装置存在人脸识别效率低,识别过程缓慢的现象。
发明内容
为此,本发明提供一种基于神经网络的面部识别***,用以克服现有技术中人脸识别效率低的问题。
为实现上述目的,本发明提供一种基于神经网络的面部识别***,包括:
摄像装置,其设置在所述面部识别***上部,用以扫描检测区域内人脸;
显示屏,其设置在所述面部识别***上部,显示屏位于所述摄像装置的一侧并与所述摄像装置相连,用以实时显示摄像装置检测到的画面并将扫描到的人脸状态反馈至用户,用户根据反馈信息调整自身面部的位置;
中控模块,其设置在所述面部识别***内部并与所述摄像装置相连,摄像装置将扫描到的人脸信息传送至中控模块;
在使用所述面部识别***时,通过向所述中控模块内输入多张使用用户不同角度的照片,所述中控模块对同一用户的不同的照片进行识别,通过中控模块内设算法获取人脸静态特征数据,中控模块将人脸静态特征数据作为标准图像数据样本,每一图像数据样本用以生成对应用户的人脸图像,中控模块将多个用户的数据样本进行合并,生成数据样本矩阵组K0;
所述摄像装置采集人脸视频信息并将视频信息传递至所述中控模块,中控模块对视频的每一帧图片进行分析,获取多帧待识别人脸图像,以选取最适合人脸图像k;
所述摄像装置具有红外检测功能,能够检测人员与摄像装置之间距离L并将检测结果传递至中控模块,中控模块根据距离L将人脸图像k补偿为k’;
所述中控模块将人脸图像k’投射到平面,以像素为单位将人脸划分为n个区域,所述中控模块检测人脸图像k’内所有区域的亮度、对亮度进行调节并生成新的人脸图像k”;
所述中控模块将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,中控模块将人脸图像k”分为脸部整体图像、眼部图像、鼻子图像和嘴部图像,其中,脸部整体图像分为n个区域,眼部图像分为n2个区域,鼻子图像分为n3个区域,嘴部图像分为n4个区域;中控模块将所有单一区域图像与选取的两张人脸图像对应部分做对比,判定单一区域是否吻合并计算各划分图像内的吻合率,各划分图像拥有不同权重,中控模块结合所述各划分图像内的吻合率和权重计算人脸图像k”是否通过,在人脸识别通过时,将识别图像并入到的数据样本中。
进一步地,在所述面部识别***进行面部识别时,所述摄像装置采集人脸视频信息并将视频信息传递至中控模块,中控模块对视频的每一帧图片进行分析,获取多帧待识别人脸图像,其中,中控模块选取最适合人脸图像k、人脸图像长为M1、宽为N1;
所述摄像装置通过红外检测功能检测人员与摄像装置之间距离L并将检测结果传递至所述中控模块,中控模块根据距离L将人脸图像k补偿为k’,补偿后的图像长为M,宽为N,M=M1×L×m’,N=N1×L×n’,m’为人脸图像长度补偿参数,n’为人脸图像宽度补偿参数;
所述中控模块将人脸图像k’投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域。
进一步地,所述中控模块内设有亮度矩阵C0和亮度调节参数矩阵D0;
对于亮度矩阵C0,C0(C1,C2,C3,C4),其中,C1为第一预设亮度参数,C2为第二预设亮度参数,C3为第三预设亮度参数,C4为第四预设亮度参数,所述各亮度参数按照顺序依次增大;
对于亮度调节参数矩阵D0,D0(D1,D2,D3,D4),其中,D1为第一预设亮度调节参数,D2为第二预设亮度调节参数,D3为第三预设亮度调节参数,D4为第四预设亮度调节参数;
所述中控模块检测人脸图像k’第i区域的亮度Wi并将Wi与C0矩阵内参数做对比:
当Wi≤C1时,中控模块判定第i区域亮度不足并从D0矩阵中选取D1作为亮度调节参数;
当C1<Wi≤C2时,中控模块判定第i区域亮度不足并从D0矩阵中选取D2作为亮度调节参数;
当C2<Wi≤C3时,中控模块判定第i区域亮度处于标准状态;
当C3<Wi≤C4时,中控模块判定第i区域亮度过高并从D0矩阵中选取D3作为亮度调节参数;
当Wi>C4时,中控模块判定亮度第i区域过高并从D0矩阵中选取D4作为亮度调节参数;
当所述中控模块判定第i区域亮度不处于标准状态时,中控模块将第i区域亮度调节至Wi’,当中控模块判定第i区域亮度不足时,Wi’=Wi+(C3-Wi)×Dj,j=1,2;当中控模块判定第i区域亮度过高时,Wi’=Wi-(Wi-C2)×Dr,r=3,4;
当所述中控模块将第i区域亮度调节至Wi’时,中控模块将Wi’与C0矩阵内参数做对比,当C2<Wi’≤C3时,中控模块判定第i区域亮度处于标准状态;当Wi’不在C2~C3时,重复上述操作,直至C2<Wi’≤C3;
所述中控模块对人脸图像k’内所有区域进行调节并生成新的人脸图像k”,人脸图像k”区域亮度均在C2~C3范围内,中控模块根据k”生成人脸图像矩阵组H0。
进一步地,所述中控模块将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,所述两张人脸图像对应数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun)与数据样本矩阵组Kv(Kv1,Kv2,Kv3……Kvn);
所述中控模块将矩阵组Ku内人脸图像ku投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域;
设定所述数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun),对于其中的第一组Ku1(au1,bu1),au1为Ku1区域内第u人脸轮廓与该区域内相交的第一端点,bu1为Ku1区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku1;
对于其中的第二组Ku2(au2,bu2),au2为Ku2区域内第u人脸轮廓与该区域内相交的第一端点,bu2为Ku2区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku2;
对于其中的第三组Ku3(au3,bu3),au3为Ku3区域内第u人脸轮廓与该区域内相交的第一端点,bu3为Ku3区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku3;
对于其中的第n组Kun(aun,bun),aun为Kun区域内第u人脸轮廓与该区域内相交的第一端点,bun为Kun区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段kun。
进一步地,所述中控模块将人脸图像k”进行数据提取并生成矩阵k0(k1,k2,k3,k4),其中,k1为人脸图像k脸部整体图像,k2为人脸图像k眼部图像,k3为人脸图像k鼻子图像,k4为人脸图像k嘴部图像;
对于生成人脸图像矩阵组H0(H1,H2,H3,……Hn),其中,H1~Hn在k1区域,Ha~Hb在k2区域,Hc~Hd在k3区域,He~Hf在k4区域;
对于H1(p1,q1),p1为H1区域内H人脸轮廓与该区域内相交的第一端点,q1为H1区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h1;
对于H2(p2,q2),p2为H2区域内H人脸轮廓与该区域内相交的第一端点,q2为H2区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h2;
对于H3(p3,q3),p3为H3区域内H人脸轮廓与该区域内相交的第一端点,q3为H3区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h3;
对于Hn(pn,qn),pn为Hn区域内H人脸轮廓与该区域内相交的第一端点,qn为Hn区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段hn。
进一步地,所述中控模块将所述人脸图像矩阵组H0(H1,H2,H3,……Hn)与所述数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun)进行对比并生成对比矩阵M0(M1,M2,M3……Mn),对于M1(h1,ku1)其定义为:
Figure GDA0003170838350000051
其中,∠(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的角度θ1,⊥(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的垂直距离α1,||(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的水平距离β1;
所述中控模块内设有单个区域对比度参数P和判断值Q计算公式:
Figure GDA0003170838350000052
其中γ为θ1对判断值Q的计算权重,∈为α1对判断值Q的计算权重,η为β1对判断值Q的计算权重;
当Q<P时,判断H1区域与Ku1区域图像相吻合;
当Q≥P时,判断H1区域与Ku1区域图像不吻合。
进一步地,所述中控模块将矩阵组H0内所有区域与矩阵组Ku内所述区域做对比,其中,k1区域分为n个区域,图像相吻合区域有m个;k2区域分为n2个区域,图像相吻合区域有m2个;k3区域分为n3个区域,图像相吻合区域有m3个;k4区域分为n4个区域,图像相吻合区域有m4个;中控模块计算各区域吻合率:
k1区域吻合率为
Figure GDA0003170838350000061
k2区域吻合率为
Figure GDA0003170838350000062
k3区域吻合率为
Figure GDA0003170838350000063
k4区域吻合率为
Figure GDA0003170838350000064
中控模块计算人脸图像k”与人脸图像ku吻合率Sz:
Figure GDA0003170838350000065
其中,z1为S1对Sz的权重参数,z2为S2对Sz的权重参数,z3为S3对Sz的权重参数,z4为S4对Sz的权重参数;
所述中控模块还设有人脸图像k”与人脸图像ku吻合率参数S,中控模块将Sz与S做对比:
当Sz>S时,中控模块判定人脸图像k”与人脸图像ku为同一用户人脸;
当Sz≤S时,中控模块判定人脸图像k”与人脸图像ku为不同人脸。
进一步地,当所述中控模块判定人脸图像k”与人脸图像ku为同一用户人脸时,中控模块将人脸图像k”按照预设算法获取人脸静态特征数据,人脸静态特征数据作为标准图像并入到ku的数据样本中;
当所述中控模块判定人脸图像k”与人脸图像ku为不同人脸时,中控模块将矩阵组Kv内人脸图像kv投射到平面,重复上述操作对人脸图像kv进行识别。
进一步地,当中控模块判定人脸图像k”与人脸图像ku和人脸图像kv均为不同人脸时,中控模块判定人脸不通过。
与现有技术相比,本发明的有益效果在于,在使用所述面部识别***时,首先在所述中控模块内输入多张使用用户不同角度的照片,所述中控模块对同一用户的不同的照片进行识别,通过内设算法获取人脸静态特征数据,人脸静态特征数据作为标准图像数据样本,每一图像数据样本可生成对应用户的人脸图像;将多个用户的数据样本进行合并,生成数据样本矩阵组K0;通过前期数据识别,全面获取人面部特征,在进行人脸识别时加快识别速度。
进一步地,摄像装置采集人脸视频信息并将视频信息传递至中控模块中控模块对视频每一帧图片进行分析,获取多帧待识别人脸图像;选取最适合人脸图像k;所述摄像装置具有红外检测功能,能够检测人员与摄像装置之间距离L并将检测结果传递至中控模块,中控模块根据距离L将人脸图像k补偿为k’;所述中控模块将人脸图像k’投射到平面,以像素为单位将人脸划分为n个区域;所述中控模块检测人脸图像k’内所有区域的亮度、对亮度进行调节并生成新的人脸图像k”;通过对采集到的信息进行选取补偿,进一步加快识别速度;同时,红外检测装置能够进行生物识别,防止人员用照片、雕塑进行识别。
进一步地,所述中控模块将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,中控模块将人脸图像k”分为脸部整体图像、眼部图像、鼻子图像和嘴部图像,其中,脸部整体图像分为n个区域,眼部图像分为n2个区域,鼻子图像分为n3个区域,嘴部图像分为n4个区域;中控模块将所有单一区域图像与选取的两张人脸图像对应部分做对比,判定单一区域是否吻合并计算各划分图像内的吻合率,各划分图像拥有不同权重,中控模块结合所述各划分图像内的吻合率和权重计算人脸图像k”是否通过;通过微积分与权重分配,增大识别的准确性。
进一步地,人脸识别通过时,将识别图像并入到的数据样本中;对样本进行及时补充,增加样本数量,加强所述识别***识别能力,进一步加快识别速度。
附图说明
图1为本发明所述一种基于神经网络的面部识别***的结构示意图。
具体实施方式
为了使本发明的目的和优点更加清楚明白,下面结合实施例对本发明作进一步描述;应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非在限制本发明的保护范围。
需要说明的是,在本发明的描述中,术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方向或位置关系的术语是基于附图所示的方向或位置关系,这仅仅是为了便于描述,而不是指示或暗示所述装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,还需要说明的是,在本发明的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可根据具体情况理解上述术语在本发明中的具体含义。
请参阅图1所示,为本发明所述一种基于神经网络的面部识别***的结构示意图,本发明所述基于神经网络的面部识别***包括:外壳1、摄像装置2、显示屏3和中控模块4,其中,所述外壳1用以保护其内部装载的部件;所述摄像装置2设置在所述外壳1上部,用以扫描检测区域内人脸;所述显示屏3设置在所述外壳1上部,显示屏3位于所述摄像装置2的一侧并与所述摄像装置2相连,用以实时显示摄像装置2检测到的画面并将扫描到的人脸状态反馈至用户,用户根据反馈信息调整自身面部的位置;所述中控模块4设置在所述外壳1内部并与所述摄像装置2相连,摄像装置2将扫描到的人脸信息传送至中控模块4;
在使用所述面部识别***时,首先在所述中控模块4内输入多张使用用户不同角度的照片,所述中控模块4对同一用户的不同的照片进行识别,通过内设算法获取人脸静态特征数据,人脸静态特征数据作为标准图像数据样本,每一图像数据样本可生成对应用户的人脸图像;将多个用户的数据样本进行合并,生成数据样本矩阵组K0;
摄像装置2采集人脸视频信息并将视频信息传递至中控模块4中控模块4对视频每一帧图片进行分析,获取多帧待识别人脸图像;选取最适合人脸图像k;
所述摄像装置2具有红外检测功能,能够检测人员与摄像装置2之间距离L并将检测结果传递至中控模块4,中控模块4根据距离L将人脸图像k补偿为k’;
所述中控模块4将人脸图像k’投射到平面,以像素为单位将人脸划分为n个区域;所述中控模块4检测人脸图像k’内所有区域的亮度、对亮度进行调节并生成新的人脸图像k”;
所述中控模块4将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,中控模块4将人脸图像k”分为脸部整体图像、眼部图像、鼻子图像和嘴部图像,其中,脸部整体图像分为n个区域,眼部图像分为n2个区域,鼻子图像分为n3个区域,嘴部图像分为n4个区域;中控模块4将所有单一区域图像与选取的两张人脸图像对应部分做对比,判定单一区域是否吻合并计算各划分图像内的吻合率,各划分图像拥有不同权重,中控模块4结合所述各划分图像内的吻合率和权重计算人脸图像k”是否通过;人脸识别通过时,将识别图像并入到的数据样本中。
具体而言,在所述面部识别******进行面部识别时,摄像装置2采集人脸视频信息并将视频信息传递至中控模块4中控模块4对视频每一帧图片进行分析,获取多帧待识别人脸图像;选取最适合人脸图像k;人脸图像长为M1,宽为N1;
所述摄像装置2具有红外检测功能,能够检测人员与摄像装置2之间距离L并将检测结果传递至中控模块4,中控模块4根据距离L将人脸图像k补偿为k’,补偿后的图像长为M,宽为N,M=M1×L×m’,N=N1×L×n’,m’为人脸图像长度补偿参数,n’为人脸图像宽度补偿参数;
所述中控模块4将人脸图像k’投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域。
具体而言,所述中控模块4内设有亮度矩阵C0和亮度调节参数矩阵D0;
对于亮度矩阵C0,C0(C1,C2,C3,C4),其中,C1为第一预设亮度参数,C2为第二预设亮度参数,C3为第三预设亮度参数,C4为第四预设亮度参数,所述各亮度参数按照顺序依次增大;
对于亮度调节参数矩阵D0,D0(D1,D2,D3,D4),其中,D1为第一预设亮度调节参数,D2为第二预设亮度调节参数,D3为第三预设亮度调节参数,D4为第四预设亮度调节参数;
所述中控模块4检测人脸图像k’第i区域的亮度Wi并将Wi与C0矩阵内参数做对比:
当Wi≤C1时,中控模块4判定第i区域亮度不足并从D0矩阵中选取D1作为亮度调节参数;
当C1<Wi≤C2时,中控模块4判定第i区域亮度不足并从D0矩阵中选取D2作为亮度调节参数;
当C2<Wi≤C3时,中控模块4判定第i区域亮度处于标准状态;
当C3<Wi≤C4时,中控模块4判定第i区域亮度过高并从D0矩阵中选取D3作为亮度调节参数;
当Wi>C4时,中控模块4判定亮度第i区域过高并从D0矩阵中选取D4作为亮度调节参数;
当中控模块4判定第i区域亮度不处于标准状态时,中控模块4将第i区域亮度调节至Wi’,当中控模块4判定第i区域亮度不足时,Wi’=Wi+(C3-Wi)×Dj,j=1,2;当中控模块4判定第i区域亮度过高时,Wi’=Wi-(Wi-C2)×Dr,r=3,4;
当中控模块4将第i区域亮度调节至Wi’时,中控模块4将Wi’与C0矩阵内参数做对比,当C2<Wi’≤C3时,中控模块4判定第i区域亮度处于标准状态;当Wi’不在C2~C3时,重复上述操作,直至C2<Wi’≤C3;
中控模块4对人脸图像k’内所有区域进行调节并生成新的人脸图像k”,人脸图像k”区域亮度均在C2~C3范围内,中控模块4根据k”生成人脸图像矩阵组H0。
具体而言,所述中控模块4将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,所述两张人脸图像对应数据样本矩阵组Ku与数据样本矩阵组Kv;
所述中控模块4将矩阵组Ku内人脸图像ku投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域;
Ku(Ku1,Ku2,Ku3……Kun),对于Ku1,(au1,bu1),au1为Ku1区域内第u人脸轮廓与该区域内相交的第一端点,bu1为Ku1区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku1;
对于Ku2(au2,bu2),au2为Ku2区域内第u人脸轮廓与该区域内相交的第一端点,bu2为Ku2区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku2;
对于Ku3(au3,bu3),au3为Ku3区域内第u人脸轮廓与该区域内相交的第一端点,bu3为Ku3区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku3;
对于Kun(aun,bun),aun为Kun区域内第u人脸轮廓与该区域内相交的第一端点,bun为Kun区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段kun。
具体而言,所述中控模块4将人脸图像k”进行数据提取并生成矩阵k0(k1,k2,k3,k4)其中,k1为人脸图像k脸部整体图像,k2为人脸图像k眼部图像,k3为人脸图像k鼻子图像,k4为人脸图像k嘴部图像;
对于生成人脸图像矩阵组H0(H1,H2,H3,……Hn),其中,H1~Hn在k1区域,Ha~Hb在k2区域,Hc~Hd在k3区域,He~Hf在k4区域;
对于H1(p1,q1),p1为H1区域内H人脸轮廓与该区域内相交的第一端点,q1为H1区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h1;
对于H2(p2,q2),p2为H2区域内H人脸轮廓与该区域内相交的第一端点,q2为H2区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h2;
对于H3(p3,q3),p3为H3区域内H人脸轮廓与该区域内相交的第一端点,q3为H3区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h3;
对于Hn(pn,qn),pn为Hn区域内H人脸轮廓与该区域内相交的第一端点,qn为Hn区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段hn。
具体而言,中控模块4将H0与Ku进行对比并生成对比矩阵M0(M1,M2,M3……Mn),对于M1(h1,ku1)其定义为:
Figure GDA0003170838350000111
其中,∠(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的角度θ1,⊥(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的垂直距离α1,||(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的水平距离β1;
所述中控模块4内设有单个区域对比度参数P和判断值Q计算公式:
Figure GDA0003170838350000112
其中γ为θ1对判断值Q的计算权重,∈为α1对判断值Q的计算权重,η为β1对判断值Q的计算权重;
当Q<P时,判断H1区域与Ku1区域图像相吻合;
当Q≥P时,判断H1区域与Ku1区域图像不吻合。
具体而言,所述中控模块4将矩阵组H0内所有区域与矩阵组Ku内所述区域做对比,其中,k1区域分为n个区域,图像相吻合区域有m个;k2区域分为n2个区域,图像相吻合区域有m2个;k3区域分为n3个区域,图像相吻合区域有m3个;k4区域分为n4个区域,图像相吻合区域有m4个;中控模块4计算各区域吻合率:
k1区域吻合率为
Figure GDA0003170838350000121
k2区域吻合率为
Figure GDA0003170838350000122
k3区域吻合率为
Figure GDA0003170838350000123
k4区域吻合率为
Figure GDA0003170838350000124
中控模块4计算人脸图像k”与人脸图像ku吻合率Sz:
Figure GDA0003170838350000125
其中,z1为S1对Sz的权重参数,z2为S2对Sz的权重参数,z3为S3对Sz的权重参数,z4为S4对Sz的权重参数;
所述中控模块4还设有人脸图像k”与人脸图像ku吻合率参数S,中控模块4将Sz与S做对比:
当Sz>S时,中控模块4判定人脸图像k”与人脸图像ku为同一用户人脸;
当Sz≤S时,中控模块4判定人脸图像k”与人脸图像ku为不同人脸。
具体而言,当中控模块4判定人脸图像k”与人脸图像ku为同一用户人脸时,中控模块4将人脸图像k”按照预设算法获取人脸静态特征数据,人脸静态特征数据作为标准图像并入到ku的数据样本中;
当中控模块4判定人脸图像k”与人脸图像ku为不同人脸时,中控模块4将矩阵组Kv内人脸图像kv投射到平面,重复上述操作对人脸图像kv进行识别。
具体而言,当中控模块4判定人脸图像k”与人脸图像ku和人脸图像kv均为不同人脸时,中控模块4判定人脸不通过。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (9)

1.一种基于神经网络的面部识别***,其特征在于,包括:
摄像装置,其设置在所述面部识别***上部,用以扫描检测区域内人脸;
显示屏,其设置在所述面部识别***上部,显示屏位于所述摄像装置的一侧并与所述摄像装置相连,用以实时显示摄像装置检测到的画面并将扫描到的人脸状态反馈至用户,用户根据反馈信息调整自身面部的位置;
中控模块,其设置在所述面部识别***内部并与所述摄像装置相连,摄像装置将扫描到的人脸信息传送至中控模块;
在使用所述面部识别***时,通过向所述中控模块内输入多张使用用户不同角度的照片,所述中控模块对同一用户的不同的照片进行识别,通过中控模块内设算法获取人脸静态特征数据,中控模块将人脸静态特征数据作为标准图像数据样本,每一图像数据样本用以生成对应用户的人脸图像,中控模块将多个用户的数据样本进行合并,生成数据样本矩阵组K0;
所述摄像装置采集人脸视频信息并将视频信息传递至所述中控模块,中控模块对视频的每一帧图片进行分析,获取多帧待识别人脸图像,以选取最适合人脸图像k;
所述摄像装置具有红外检测功能,能够检测人员与摄像装置之间距离L并将检测结果传递至中控模块,中控模块根据距离L将人脸图像k补偿为k’;
所述中控模块将人脸图像k’投射到平面,以像素为单位将人脸划分为n个区域,所述中控模块检测人脸图像k’内所有区域的亮度、对亮度进行调节并生成新的人脸图像k”;
所述中控模块将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,中控模块将人脸图像k”分为脸部整体图像、眼部图像、鼻子图像和嘴部图像,其中,脸部整体图像分为n个区域,眼部图像分为n2个区域,鼻子图像分为n3个区域,嘴部图像分为n4个区域;中控模块将所有单一区域图像与选取的两张人脸图像对应部分做对比,判定单一区域是否吻合并计算各划分图像内的吻合率,各划分图像拥有不同权重,中控模块结合所述各划分图像内的吻合率和权重计算人脸图像k”是否通过,在人脸识别通过时,将识别图像并入到的数据样本中。
2.根据权利要求1所述的基于神经网络的面部识别***,其特征在于,在所述面部识别***进行面部识别时,所述摄像装置采集人脸视频信息并将视频信息传递至中控模块,中控模块对视频的每一帧图片进行分析,获取多帧待识别人脸图像,其中,中控模块选取最适合人脸图像k、人脸图像长为M1、宽为N1;
所述摄像装置通过红外检测功能检测人员与摄像装置之间距离L并将检测结果传递至所述中控模块,中控模块根据距离L将人脸图像k补偿为k’,补偿后的图像长为M,宽为N,M=M1×L×m’,N=N1×L×n’,m’为人脸图像长度补偿参数,n’为人脸图像宽度补偿参数;
所述中控模块将人脸图像k’投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域。
3.根据权利要求2所述的基于神经网络的面部识别***,其特征在于,所述中控模块内设有亮度矩阵C0和亮度调节参数矩阵D0;
对于亮度矩阵C0,C0(C1,C2,C3,C4),其中,C1为第一预设亮度参数,C2为第二预设亮度参数,C3为第三预设亮度参数,C4为第四预设亮度参数,所述各亮度参数按照顺序依次增大;
对于亮度调节参数矩阵D0,D0(D1,D2,D3,D4),其中,D1为第一预设亮度调节参数,D2为第二预设亮度调节参数,D3为第三预设亮度调节参数,D4为第四预设亮度调节参数;
所述中控模块检测人脸图像k’第i区域的亮度Wi并将Wi与C0矩阵内参数做对比:
当Wi≤C1时,中控模块判定第i区域亮度不足并从D0矩阵中选取D1作为亮度调节参数;
当C1<Wi≤C2时,中控模块判定第i区域亮度不足并从D0矩阵中选取D2作为亮度调节参数;
当C2<Wi≤C3时,中控模块判定第i区域亮度处于标准状态;
当C3<Wi≤C4时,中控模块判定第i区域亮度过高并从D0矩阵中选取D3作为亮度调节参数;
当Wi>C4时,中控模块判定亮度第i区域过高并从D0矩阵中选取D4作为亮度调节参数;
当所述中控模块判定第i区域亮度不处于标准状态时,中控模块将第i区域亮度调节至Wi’,当中控模块判定第i区域亮度不足时,Wi’=Wi+(C3-Wi)×Dj,j=1,2;当中控模块判定第i区域亮度过高时,Wi’=Wi-(Wi-C2)×Dr,r=3,4;
当所述中控模块将第i区域亮度调节至Wi’时,中控模块将Wi’与C0矩阵内参数做对比,当C2<Wi’≤C3时,中控模块判定第i区域亮度处于标准状态;当Wi’不在C2~C3时,重复上述操作,直至C2<Wi’≤C3;
所述中控模块对人脸图像k’内所有区域进行调节并生成新的人脸图像k”,人脸图像k”区域亮度均在C2~C3范围内,中控模块根据k”生成人脸图像矩阵组H0。
4.根据权利要求3所述的基于神经网络的面部识别***,其特征在于,所述中控模块将人脸图像k”与矩阵组K0内存有的用户人脸图像做对比,选取相似度最高的两张人脸图像做精确对比,所述两张人脸图像对应数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun)与数据样本矩阵组Kv;
所述中控模块将矩阵组Ku内人脸图像ku投射到平面,以鼻尖为原点建立直角坐标系,以脸的横向作为X轴,以脸的纵向作为Y轴,以像素为单位将人脸划分为n个区域;
设定所述数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun),对于其中的第一组Ku1(au1,bu1),au1为Ku1区域内第u人脸轮廓与该区域内相交的第一端点,bu1为Ku1区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku1;
对于其中的第二组Ku2(au2,bu2),au2为Ku2区域内第u人脸轮廓与该区域内相交的第一端点,bu2为Ku2区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku2;
对于其中的第三组Ku3(au3,bu3),au3为Ku3区域内第u人脸轮廓与该区域内相交的第一端点,bu3为Ku3区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段ku3;
对于其中的第n组Kun(aun,bun),aun为Kun区域内第u人脸轮廓与该区域内相交的第一端点,bun为Kun区域内第u人脸轮廓与该区域内相交的第二端点,连接两点生成线段kun。
5.根据权利要求4所述的基于神经网络的面部识别***,其特征在于,所述中控模块将人脸图像k”进行数据提取并生成矩阵k0(k1,k2,k3,k4),其中,k1为人脸图像k脸部整体图像,k2为人脸图像k眼部图像,k3为人脸图像k鼻子图像,k4为人脸图像k嘴部图像;
对于生成人脸图像矩阵组H0(H1,H2,H3,……Hn),其中,H1~Hn在k1区域,Ha~Hb在k2区域,Hc~Hd在k3区域,He~Hf在k4区域;
对于H1(p1,q1),p1为H1区域内H人脸轮廓与该区域内相交的第一端点,q1为H1区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h1;
对于H2(p2,q2),p2为H2区域内H人脸轮廓与该区域内相交的第一端点,q2为H2区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h2;
对于H3(p3,q3),p3为H3区域内H人脸轮廓与该区域内相交的第一端点,q3为H3区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段h3;
对于Hn(pn,qn),pn为Hn区域内H人脸轮廓与该区域内相交的第一端点,qn为Hn区域内H人脸轮廓与该区域内相交的第二端点,连接两点生成线段hn。
6.根据权利要求5所述的基于神经网络的面部识别***,其特征在于,所述中控模块将所述人脸图像矩阵组H0(H1,H2,H3,……Hn)与所述数据样本矩阵组Ku(Ku1,Ku2,Ku3……Kun)进行对比并生成对比矩阵M0(M1,M2,M3……Mn),对于M1(h1,ku1)其定义为:
Figure FDA0003170838340000041
其中,∠(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的角度θ1,⊥(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的垂直距离α1,||(h1,ku1)表示线段h1和线段ku1在预设直角坐标系内的水平距离β1;
所述中控模块内设有单个区域对比度参数P和判断值Q计算公式:
Figure FDA0003170838340000042
其中γ为θ1对判断值Q的计算权重,∈为α1对判断值Q的计算权重,η为β1对判断值Q的计算权重;
当Q<P时,判断H1区域与Ku1区域图像相吻合;
当Q≥P时,判断H1区域与Ku1区域图像不吻合。
7.根据权利要求6所述的基于神经网络的面部识别***,其特征在于,所述中控模块将矩阵组H0内所有区域与矩阵组Ku内所述区域做对比,其中,k1区域分为n个区域,图像相吻合区域有m个;k2区域分为n2个区域,图像相吻合区域有m2个;k3区域分为n3个区域,图像相吻合区域有m3个;k4区域分为n4个区域,图像相吻合区域有m4个;中控模块计算各区域吻合率:
k1区域吻合率为
Figure FDA0003170838340000051
k2区域吻合率为
Figure FDA0003170838340000052
k3区域吻合率为
Figure FDA0003170838340000053
k4区域吻合率为
Figure FDA0003170838340000054
中控模块计算人脸图像k”与人脸图像ku吻合率Sz:
Figure FDA0003170838340000055
其中,z1为S1对Sz的权重参数,z2为S2对Sz的权重参数,z3为S3对Sz的权重参数,z4为S4对Sz的权重参数;
所述中控模块还设有人脸图像k”与人脸图像ku吻合率参数S,中控模块将Sz与S做对比:
当Sz>S时,中控模块判定人脸图像k”与人脸图像ku为同一用户人脸;
当Sz≤S时,中控模块判定人脸图像k”与人脸图像ku为不同人脸。
8.根据权利要求7所述的基于神经网络的面部识别***,其特征在于,当所述中控模块判定人脸图像k”与人脸图像ku为同一用户人脸时,中控模块将人脸图像k”按照预设算法获取人脸静态特征数据,人脸静态特征数据作为标准图像并入到ku的数据样本中;
当所述中控模块判定人脸图像k”与人脸图像ku为不同人脸时,中控模块将矩阵组Kv内人脸图像kv投射到平面,重复上述操作对人脸图像kv进行识别。
9.根据权利要求8所述的基于神经网络的面部识别***,其特征在于,当中控模块判定人脸图像k”与人脸图像ku和人脸图像kv均为不同人脸时,中控模块判定人脸不通过。
CN202011303035.4A 2020-11-19 2020-11-19 一种基于神经网络的面部识别*** Active CN112418060B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011303035.4A CN112418060B (zh) 2020-11-19 2020-11-19 一种基于神经网络的面部识别***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011303035.4A CN112418060B (zh) 2020-11-19 2020-11-19 一种基于神经网络的面部识别***

Publications (2)

Publication Number Publication Date
CN112418060A CN112418060A (zh) 2021-02-26
CN112418060B true CN112418060B (zh) 2021-09-10

Family

ID=74773135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011303035.4A Active CN112418060B (zh) 2020-11-19 2020-11-19 一种基于神经网络的面部识别***

Country Status (1)

Country Link
CN (1) CN112418060B (zh)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1359536A3 (en) * 2002-04-27 2005-03-23 Samsung Electronics Co., Ltd. Face recognition method and apparatus using component-based face descriptor
CN103024530A (zh) * 2012-12-18 2013-04-03 天津三星电子有限公司 智能电视语音应答***及方法
CN104573639A (zh) * 2014-12-23 2015-04-29 苏州福丰科技有限公司 一种三维人脸门禁识别***
CN104766062A (zh) * 2015-04-07 2015-07-08 广西大学 基于轻量级智能终端的人脸识别***及注册、识别方法
CN105447459B (zh) * 2015-11-18 2019-03-22 上海海事大学 一种无人机自动检测目标和跟踪方法
CN106022313A (zh) * 2016-06-16 2016-10-12 湖南文理学院 一种能自动适应场景的人脸识别方法
CN106250825A (zh) * 2016-07-22 2016-12-21 厚普(北京)生物信息技术有限公司 一种在医保应用中场景自适应的人脸识别***
CN108664908A (zh) * 2018-04-27 2018-10-16 深圳爱酷智能科技有限公司 人脸识别方法、设备及计算机可读存储介质
CN111391755B (zh) * 2020-03-10 2021-10-12 京东方科技集团股份有限公司 盲区图像的显示方法、装置及***

Also Published As

Publication number Publication date
CN112418060A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN107818305B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
KR102041906B1 (ko) 안면피부촬영장치를 통해 촬영된 영상 이미지를 활용하여 피부질환을 판별하는 인공지능 기반의 안면 피부질환 판별용 api 엔진
EP3332403B1 (en) Liveness detection
CN108549886A (zh) 一种人脸活体检测方法及装置
RU2431190C2 (ru) Способ и устройство распознавания рельефности лица
JP4611575B2 (ja) 本人認証用の顔画像照合装置
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及***
JP2000306095A (ja) 画像照合・検索システム
CN108230383A (zh) 手部三维数据确定方法、装置及电子设备
CN105138954A (zh) 一种图像自动筛选查询识别***
CN109948476B (zh) 一种基于计算机视觉的人脸皮肤检测***及其实现方法
CN107437067A (zh) 人脸活体检测方法及相关产品
JP4206053B2 (ja) ユーザインタフェース装置およびユーザインタフェースプログラム
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2008204200A (ja) 顔解析システム及びプログラム
KR20150031085A (ko) 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법
CN112232128B (zh) 基于视线追踪的老年残障人士照护需求识别方法
KR20160009972A (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
CN112183200A (zh) 一种基于视频图像的眼动追踪方法和***
CN112185515A (zh) 一种基于动作识别的病患辅助***
Hossain et al. Facial emotion verification by infrared image
JP2000331167A (ja) 顔画像照合方法及び装置
CN113920591A (zh) 基于多模态生物特征识别的中远距离身份认证方法及装置
CN112418060B (zh) 一种基于神经网络的面部识别***
AU2021101197A4 (en) Facial recognition system based on neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230526

Address after: No. 216 Tiansheng Road, Beibei District, Chongqing, 400700

Patentee after: Southwest University Asset Management Co.,Ltd.

Address before: 400715 No. 2, natural road, Beibei District, Chongqing

Patentee before: SOUTHWEST University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230822

Address after: 402760 No.92 Donglin Avenue, Biquan street, Bishan District, Chongqing

Patentee after: Chongqing Xuanyi Intelligent Technology Co.,Ltd.

Address before: No. 216 Tiansheng Road, Beibei District, Chongqing, 400700

Patentee before: Southwest University Asset Management Co.,Ltd.