CN110569826A - 一种人脸识别方法、装置、设备及介质 - Google Patents
一种人脸识别方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN110569826A CN110569826A CN201910882737.3A CN201910882737A CN110569826A CN 110569826 A CN110569826 A CN 110569826A CN 201910882737 A CN201910882737 A CN 201910882737A CN 110569826 A CN110569826 A CN 110569826A
- Authority
- CN
- China
- Prior art keywords
- image
- training sample
- region
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种人脸识别方法、装置、设备及介质,包括:获取训练样本;训练样本为包括人脸标签信息的人脸图像;对训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,第一区域图像为包括人眼区域的图像,第二区域图像为不包括人眼区域的图像;将第一区域图像和第二区域图像输入至卷积神经网络模型,对第一区域图像和第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对第一特征和第二特征进行融合,得到目标特征,并利用目标特征得到训练后模型;其中,第一特征的特征维度低于第二特征的特征维度;当获取到待识别人脸图像,利用训练后模型输出对应的识别结果。这样,能够提升戴眼镜人脸识别的准确率。
Description
技术领域
本申请涉及人脸识别技术领域,特别涉及一种人脸识别方法、装置、设备及介质。
背景技术
随着图像处理与模式识别技术的快速进步及人脸识别的便捷性,基于视频图像处理的人脸识别***得到广泛的运用,例如考勤,出入口控制,安全监控等领域都已经出现了人脸识别***。
在现有技术中,人脸识别效果往往受到光线、化妆、戴眼镜等因素的影响,尤其是戴大黑边框眼镜,严重影响了人脸识别的效果和人脸识别设备的体验感。
发明内容
有鉴于此,本申请的目的在于提供一种人脸识别方法、装置、设备及介质,能够减少戴眼镜眼镜对人脸识别的影响,从而提升戴眼镜人脸识别的准确率。其具体方案如下:
第一方面,本申请公开了一种人脸识别方法,包括:
获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;
对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;
将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;
当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
可选的,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:
获取所述训练样本中眼睛和鼻尖的位置信息;
利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;
利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
可选的,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:
获取所述训练样本中眼镜下边框的位置信息;
利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;
利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
可选的,所述获取训练样本,包括:
获取初始训练样本;
对所述初始训练样本中的人脸区域进行提取;
将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。
第二方面,本申请公开了一种人脸识别装置,包括:
样本获取模块,用于获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;
区域划分模块,用于对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;
模型训练模块,用于将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;
图像识别模块,用于当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
第三方面,本申请公开了一种电子设备,包括处理器和存储器;其中,
所述存储器,用于保存计算机程序;
所述处理器,用于执行所述计算机程序以实现前述的人脸识别方法。
第四方面,本申请公开了一种人脸识别设备,包括前述的电子设备。
第五方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述的人脸识别方法。
可见,本申请先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种人脸识别方法流程图;
图2为本申请公开的一种具体的人脸识别方法流程图;
图3为本申请公开的一种具体的人脸图像区域划分图;
图4为本申请公开的一种卷积神经网络模型训练方法流程图
图5为本申请公开的一种具体的人脸识别方法流程图;
图6为本申请公开的一种人脸识别装置结构示意图;
图7为本申请公开的一种电子设备结构图;
图8为本申请公开的一种人脸识别设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在现有技术中,人脸识别效果往往受到光线、化妆、戴眼镜等因素的影响,尤其是戴大黑边框眼镜,严重影响了人脸识别的效果和人脸识别设备的体验感。为此,本申请提供了一种人脸识别方案,能够减少戴眼镜对人脸识别的影响,从而提升戴眼镜人脸识别的准确率。
参见图1所示,本申请实施例公开了一种人脸识别方法,其特征在于,包括:
步骤S11:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。
在具体的实施方式中,本实施例可以先获取初始训练样本,然后对所述初始训练样本中的人脸区域进行提取,并将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。比如,先获取VGG-face2中的全部图像作为初始训练样本,然后利用MTCNN(即Multi-task convolutional neural network,多任务卷积神经网络)人脸检测和对齐算法将获取到的9131个人约320万个初始训练样本进行检测和对齐处理,得到优化后的训练样本,本实施例可以将所有训练样本处理成预设尺寸,比如128*128。
步骤S12:对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像。
在具体的实施方式中,可以对所述训练样本进行区域划分,得到尺寸相同的第一区域图像和第二区域图像,具体的,可以将所述训练样本划分为大小均为64*128的所述第一区域图像和所述第二区域图像。例如,参见图2所示,图2为本申请实施例公开的一种具体的人脸图像区域划分图。
步骤S13:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。
例如,本实施例可以采用开源的ResNet20为待训练的卷积神经网络模型,将所述第一区域图像和所述第二区域图像输入至ResNet20,然后分别进行卷积和prelu等操作,分别得到两部分特征,本实施例中将最终融合后的特征维度设置成512维,然后将所述第一区域图像和所述第二区域图像的特征分别设置成112维和400维,最后将这两部分特征进行融合得到新的512维特征,最后将得到的512维特征送入开源的AMsoftmax Loss损失函数中继续进行训练,得到训练后模型。具体过程参见图3,图3为本申请公开的一种卷积神经网络模型训练方法流程图。
步骤S14:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
本实施例可以利用摄像头获取待识别人脸图像,然后将获取到的待识别人脸图像输入至所述训练后模型,利用所述训练后模型输出对应的识别结果。
另外,本实施例以相同的人脸识别数据集分别采用现有技术的人脸识别方法和本实施例公开的人脸识别方法进行识别测试,其中,所述人脸识别数据集包括戴眼镜人脸识别数据集和标准人脸识别数据集,并且,所述标准人脸识别数据集为包括戴眼镜人脸图像和不戴眼镜人脸图像的数据集。具体结果如表1所示,可以发现,采用本申请实施例中的人脸识别方法,在标准人脸识别数据集上和戴眼镜人脸识别数据集上识别率均得到了一定提升,尤其在戴眼镜人脸识别数据集上识别率大约提升了3%,表明该人脸识别方法对于提升戴眼镜人脸识别率的有效。
表1
识别率 | 标准人脸识别数据集 | 戴眼镜人脸识别数据集 |
现有人脸识别方法 | 96.75% | 83.49% |
本申请中的人脸方法 | 97.26% | 86% |
可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。
参见图4所示,本申请实施例公开了一种具体的人脸识别方法,包括:
步骤S21:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。
其中,关于上述步骤S21的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S22:获取所述训练样本中眼睛和鼻尖的位置信息。
步骤S23:利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线。
步骤S24:利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
在具体的实施方式中,本实施例可以利用MTCNN检测算法获取训练样本中眼睛和鼻尖三个点的位置信息,利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线。比如,利用眼睛两点的位置信息确定出第一参考线段,其中,所述第一参考线段包括眼睛两点,然后确定鼻尖位置与第一参考线段之间的一条与第一参考线段平行的线段为第一分界线,并且,本实施例可以调整所述第一界分界线与鼻尖位置和第一参考线段之间的距离,具体可以结合眼镜大小调整前述距离。然后利用第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像。
步骤S25:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。
步骤S26:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
其中,关于上述步骤S25和S26的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
参见图5所示,本申请实施例公开了一种具体的人脸识别方法,包括:
步骤S31:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。
其中,关于上述步骤S31的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S32:获取所述训练样本中眼镜下边框的位置信息。
步骤S33:利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线。
步骤S34:利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
在具体的实施方式中,本实施例中的训练样本可以为戴眼镜人脸图像。本实施例可以利用图像检测算法获取训练样本中眼镜下边框两点的位置信息,然后利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线。比如,可以确定出包括眼镜下边框两点的线段为第二分界线,也可以先确定出包括眼镜下边框两点的线段为第二参考线段,然后确定出与所述第二参考线段平行的在所述第二参考线段与预先检测的鼻子位置之间的一条线段为第二分界线,然后利用第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,其中,所述第一区域图像为包括人眼区域的图像,即所述第一区域图像为包括戴眼镜区域的图像,所述第二区域图像为不包括人眼区域的图像。
步骤S35:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。
步骤S36:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
其中,关于上述步骤S35和S36的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
参见图6所示,本申请实施例公开了一种人脸识别装置,包括:
样本获取模块11,用于获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;
区域划分模块12,用于对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;
模型训练模块13,用于将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;
图像识别模块14,用于当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。
其中,所述样本获取模块11,具体可以包括:
初始样本获取子模块,用于获取初始训练样本。
人脸区域提取子模块,用于对所述初始训练样本中的人脸区域进行提取。
人脸区域调整子模块,用于将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。
在一种具体的实施方式中,所述区域划分模块12可以包括
目标位置获取子模块,用于获取所述训练样本中眼睛和鼻尖的位置信息;
第一分界线确定子模块,用于利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;
区域划分子模块,用于利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
在另一种具体的实施方式中,所述区域划分模块12可以包括
目标位置获取子模块,用于获取所述训练样本中眼镜下边框的位置信息;
第二分界线确定子模块,用于利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;
区域划分子模块,用于利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
参见图7所示,本申请实施例公开了一种电子设备,本包括处理器21和存储器22;其中,所述存储器22,用于保存计算机程序;所述处理器21,用于执行所述计算机程序,以实现以下步骤:
获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取所述训练样本中眼睛和鼻尖的位置信息;利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取所述训练样本中眼镜下边框的位置信息;利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取初始训练样本;对所述初始训练样本中的人脸区域进行提取;将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。
参见图8所示,本申请实施例公开了一种人脸识别设备20,包括前述实施例中公开的包括处理器21和存储器22的电子设备。关于上述处理器21具体可以执行的步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。
进一步的,本实施例中的人脸识别设备20,还可以具体包括:
摄像头23,用于采集待识别人脸图像。
进一步的,本申请实施例还公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现以下步骤:
获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。
本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取所述训练样本中眼睛和鼻尖的位置信息;利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取所述训练样本中眼镜下边框的位置信息;利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取初始训练样本;对所述初始训练样本中的人脸区域进行提取;将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的人脸识别方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (8)
1.一种人脸识别方法,其特征在于,包括:
获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;
对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;
将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;
当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
2.根据权利要求1所述的人脸识别方法,其特征在于,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:
获取所述训练样本中眼睛和鼻尖的位置信息;
利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;
利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
3.根据权利要求1所述的人脸识别方法,其特征在于,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:
获取所述训练样本中眼镜下边框的位置信息;
利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;
利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。
4.根据权利要求1至3任一项所述的人脸识别方法,其特征在于,所述获取训练样本,包括:
获取初始训练样本;
对所述初始训练样本中的人脸区域进行提取;
将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。
5.一种人脸识别装置,其特征在于,包括:
样本获取模块,用于获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;
区域划分模块,用于对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;
模型训练模块,用于将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;
图像识别模块,用于当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。
6.一种电子设备,其特征在于,包括处理器和存储器;其中,
所述存储器,用于保存计算机程序;
所述处理器,用于执行所述计算机程序以实现如权利要求1至4任一项所述的人脸识别方法。
7.一种人脸识别设备,其特征在于,包括如权利要求6所述的电子设备。
8.一种计算机可读存储介质,其特征在于,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的人脸识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910882737.3A CN110569826B (zh) | 2019-09-18 | 2019-09-18 | 一种人脸识别方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910882737.3A CN110569826B (zh) | 2019-09-18 | 2019-09-18 | 一种人脸识别方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569826A true CN110569826A (zh) | 2019-12-13 |
CN110569826B CN110569826B (zh) | 2022-05-24 |
Family
ID=68780904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910882737.3A Active CN110569826B (zh) | 2019-09-18 | 2019-09-18 | 一种人脸识别方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569826B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310808A (zh) * | 2020-02-03 | 2020-06-19 | 平安科技(深圳)有限公司 | 图片识别模型的训练方法、装置、计算机***及存储介质 |
CN111598051A (zh) * | 2020-06-16 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 一种脸部验证方法、装置、设备及可读存储介质 |
CN112101261A (zh) * | 2020-09-22 | 2020-12-18 | 北京百度网讯科技有限公司 | 人脸识别方法、装置、设备及存储介质 |
CN112115790A (zh) * | 2020-08-18 | 2020-12-22 | 北京嘀嘀无限科技发展有限公司 | 人脸识别方法、装置、可读存储介质和电子设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163289A (zh) * | 2011-04-06 | 2011-08-24 | 北京中星微电子有限公司 | 人脸图像中眼镜的去除方法和装置、佩戴方法和装置 |
CN103902961A (zh) * | 2012-12-28 | 2014-07-02 | 汉王科技股份有限公司 | 一种人脸识别方法及装置 |
CN106407912A (zh) * | 2016-08-31 | 2017-02-15 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
CN108846355A (zh) * | 2018-06-11 | 2018-11-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN108985155A (zh) * | 2018-06-06 | 2018-12-11 | 平安科技(深圳)有限公司 | 嘴巴模型训练方法、嘴巴识别方法、装置、设备及介质 |
CN108985159A (zh) * | 2018-06-08 | 2018-12-11 | 平安科技(深圳)有限公司 | 人眼模型训练方法、人眼识别方法、装置、设备及介质 |
US20180357501A1 (en) * | 2017-06-07 | 2018-12-13 | Alibaba Group Holding Limited | Determining user authenticity with face liveness detection |
CN109033938A (zh) * | 2018-06-01 | 2018-12-18 | 上海阅面网络科技有限公司 | 一种基于可区分性特征融合的人脸识别方法 |
CN109241934A (zh) * | 2018-09-21 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109416727A (zh) * | 2016-10-18 | 2019-03-01 | 华为技术有限公司 | 一种人脸图像中眼镜去除方法及装置 |
CN109934062A (zh) * | 2017-12-18 | 2019-06-25 | 比亚迪股份有限公司 | 眼镜摘除模型的训练方法、人脸识别方法、装置和设备 |
-
2019
- 2019-09-18 CN CN201910882737.3A patent/CN110569826B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163289A (zh) * | 2011-04-06 | 2011-08-24 | 北京中星微电子有限公司 | 人脸图像中眼镜的去除方法和装置、佩戴方法和装置 |
CN103902961A (zh) * | 2012-12-28 | 2014-07-02 | 汉王科技股份有限公司 | 一种人脸识别方法及装置 |
CN106407912A (zh) * | 2016-08-31 | 2017-02-15 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
CN109416727A (zh) * | 2016-10-18 | 2019-03-01 | 华为技术有限公司 | 一种人脸图像中眼镜去除方法及装置 |
US20180357501A1 (en) * | 2017-06-07 | 2018-12-13 | Alibaba Group Holding Limited | Determining user authenticity with face liveness detection |
CN109934062A (zh) * | 2017-12-18 | 2019-06-25 | 比亚迪股份有限公司 | 眼镜摘除模型的训练方法、人脸识别方法、装置和设备 |
CN109033938A (zh) * | 2018-06-01 | 2018-12-18 | 上海阅面网络科技有限公司 | 一种基于可区分性特征融合的人脸识别方法 |
CN108985155A (zh) * | 2018-06-06 | 2018-12-11 | 平安科技(深圳)有限公司 | 嘴巴模型训练方法、嘴巴识别方法、装置、设备及介质 |
CN108985159A (zh) * | 2018-06-08 | 2018-12-11 | 平安科技(深圳)有限公司 | 人眼模型训练方法、人眼识别方法、装置、设备及介质 |
CN108846355A (zh) * | 2018-06-11 | 2018-11-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN109241934A (zh) * | 2018-09-21 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310808A (zh) * | 2020-02-03 | 2020-06-19 | 平安科技(深圳)有限公司 | 图片识别模型的训练方法、装置、计算机***及存储介质 |
CN111310808B (zh) * | 2020-02-03 | 2024-03-22 | 平安科技(深圳)有限公司 | 图片识别模型的训练方法、装置、计算机***及存储介质 |
CN111598051A (zh) * | 2020-06-16 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 一种脸部验证方法、装置、设备及可读存储介质 |
CN111598051B (zh) * | 2020-06-16 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 一种脸部验证方法、装置、设备及可读存储介质 |
CN112115790A (zh) * | 2020-08-18 | 2020-12-22 | 北京嘀嘀无限科技发展有限公司 | 人脸识别方法、装置、可读存储介质和电子设备 |
CN112101261A (zh) * | 2020-09-22 | 2020-12-18 | 北京百度网讯科技有限公司 | 人脸识别方法、装置、设备及存储介质 |
CN112101261B (zh) * | 2020-09-22 | 2023-12-26 | 北京百度网讯科技有限公司 | 人脸识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110569826B (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569826B (zh) | 一种人脸识别方法、装置、设备及介质 | |
RU2762142C1 (ru) | Способ и устройство для определения ключевой точки лица, компьютерное устройство и носитель данных | |
CN108701216B (zh) | 一种人脸脸型识别方法、装置和智能终端 | |
JP6994588B2 (ja) | 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
CN108463823B (zh) | 一种用户头发模型的重建方法、装置及终端 | |
US9501689B2 (en) | Image processing apparatus and image processing method | |
CN111626371A (zh) | 一种图像分类方法、装置、设备及可读存储介质 | |
CN112101123B (zh) | 一种注意力检测方法及装置 | |
WO2019061659A1 (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
EP3503023A1 (en) | Improved age modelling method | |
CN112633221A (zh) | 一种人脸方向的检测方法及相关装置 | |
CN113763348A (zh) | 图像质量确定方法、装置、电子设备及存储介质 | |
CN111680546A (zh) | 注意力检测方法、装置、电子设备及存储介质 | |
CN105979283A (zh) | 视频转码方法和装置 | |
CN114698399A (zh) | 人脸识别方法、装置及可读存储介质 | |
US20170006281A1 (en) | Video Quality Detection Method and Apparatus | |
CN107346544B (zh) | 一种图像处理方法和电子设备 | |
CN112800923A (zh) | 人体图像质量检测方法及装置、电子设备、存储介质 | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN109034117B (zh) | 一种视频提取方法及装置 | |
CN112132011B (zh) | 一种面部识别方法、装置、设备及存储介质 | |
CN112907206A (zh) | 一种基于视频对象识别的业务审核方法、装置及设备 | |
CN108446653B (zh) | 用于处理面部图像的方法和装置 | |
CN111666908B (zh) | 视频用户的兴趣画像生成方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |