CN108614999B - 基于深度学习的眼睛睁闭状态检测方法 - Google Patents
基于深度学习的眼睛睁闭状态检测方法 Download PDFInfo
- Publication number
- CN108614999B CN108614999B CN201810335992.1A CN201810335992A CN108614999B CN 108614999 B CN108614999 B CN 108614999B CN 201810335992 A CN201810335992 A CN 201810335992A CN 108614999 B CN108614999 B CN 108614999B
- Authority
- CN
- China
- Prior art keywords
- layer
- eye
- size
- image
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的眼睛睁闭状态检测方法。本发明直接对单幅图像进行处理,只要能在图像上检测到人脸,就能检测到人眼中心点的位置,并以此得到眼睛区域图像;眼睛睁闭状态分类的准确率较高;对光照变化,场景变化和脸部转动、倾斜等姿态变化有较强的鲁棒性;运行速率快,能够满足实际应用的实时性要求;硬件要求简单,易于大规模推广。
Description
技术领域
本发明涉及图像处理技术领域,具体为一种基于深度学习的眼睛睁闭状态检测方法。
背景技术
眼睛是人脸最重要的组成部分,能够传递许多的信息。通过检测眼睛的睁闭状态,可以计算眨眼频率并以此判断人是否处于疲劳状态,相比传统的利用心电或者脑电的穿戴式设备更加经济简便,对使用者无侵入性。此外,眼睛的睁闭状态还与人的表情紧密相关,对人眼的状态检测能够辅助表情识别等相关工作。
目前专门针对眼睁闭眼状态检测的方法主要分为基于特征分析和基于模式分类的检测方法。基于特征分析的方法主要有模板匹配、脸部投影、瞳孔检测等;基于模式分类的检测算法主要是提取眼睛区域的特征,比如LBP特征、Gabor小波等特征,并借助SVM、Adaboost等分类器判断眼睛区域图像是睁眼图像还是闭眼图像。然而,在实际应用中,这些方法都很容易受到光照变化、面部表情变化、脸部转动等姿态变化的干扰,出现眼睛定位不准确、睁闭眼状态错误判断等问题。
发明内容
针对现有技术的不足,本发明提供了一种基于深度学习的眼睛睁闭状态检测方法,它能对眼睛的睁闭状态进行判断,而且准确率较高,对光照变化,场景变化和脸部转动、倾斜等姿态变化有较强的鲁棒性,运行速率快,能够满足实际应用的实时性要求,且硬件要求低,以克服现有技术的不足。
为实现以上目的,本发明通过以下技术方案予以实现:基于深度学习的眼睛睁闭状态检测方法,包括如下步骤:
1)对输入图像进行人脸检测,如果检测到人脸,就记录下当前人脸区域,得到人脸区域图像,如果当前输入图像没有检测到人脸,则结束对当前输入图像的处理,继续对下一帧输入图像进行人脸检测;
2)将人脸区域图像统一尺寸后输入到用于人眼关键点检测的卷积神经网络模型,获得左眼和右眼的中心点的横纵坐标值;
3)根据眼睛中心点坐标值和12*6的宽高值确定眼睛所在的矩形区域,分别得到左眼和右眼的区域图像;
4)分别将左眼和右眼图像统一尺寸后输入到用于眼睛睁闭状态分类的卷积神经网络模型,得到双眼的睁闭状态结果。
在步骤2)中所述的利用卷积神经网络模型进行人眼关键点检测的具体步骤如下:
2-1)将人脸图像统一为39*39大小的灰度图像;
2-2)将步骤2-1)得到的灰度人脸图像输入到用于人眼关键点检测的卷积神经网络模型,卷积神经网络模型输出四个坐标点值,分别对应左眼中心点的横坐标值、左眼中心点的纵坐标值、右眼中心点的横坐标值及右眼中心点的纵坐标值。
所述的用于人眼关键点检测的卷积神经网络模型是一个由三个卷积层,三个最大池化层和两个全连接层组成的卷积神经网络,具体描述如下:
网络输入层是大小为39*39*1的人脸灰度图像;第一层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第二层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第三层卷积核大小为2*2,卷积核步长为1,卷积核个数为256个;第一层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为48;第二个全连接层的节点数量为4;每个卷积层后都经过Relu激活函数处理,增加网络的非线性映射能力,第三层卷积层后接了一个Dropout层防止过拟合,其比例为0.5;输出结果对应着双眼中心点的四个坐标点值,依次为左眼中心点的横坐标值、左眼中心点的纵坐标值、右眼中心点的横坐标值及右眼中心点的纵坐标值,坐标系原点为人脸图像左上角,x轴水平向右,y轴水平向下。
在39*39的人脸图像中,以步骤2)得到的坐标值为中心点,宽为12个像素点,高为6个像素点确定的矩形区域图像,作为眼睛区域图像。
在所述的步骤4)中,判断双眼睁闭状态的具体步骤如下:
4-1)将眼睛区域图像统一为31*51大小的灰度图像;
5-2)分别将左眼和右眼的眼睛区域图像输入到用于睁闭状态分类的卷积神经网络模型,得到左右眼的状态:睁眼或者闭眼。
所述的用于眼睛睁闭状态分类的卷积神经网络模型是一个由两个卷积层,两个最大池化层,两个全连接层和一个softmox层组成的卷积神经网络,具体描述如下:
网络输入层是大小为31*51*1的眼睛灰度图像;第一层卷积核大小为5*5,卷积核步长为1,卷积核个数为32;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为5*5,卷积核步长为1,卷积核个数为64个;第二层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为128个;第二个全连接层的结点数量为2个;每个卷积层后都经Relu激活函数处理,以增加网络的非线性映射能力;第二层卷积层后还接了一个Dropout层防止过拟合,其比例为0.5;经过softmax层后输出分类结果:睁眼或闭眼。
有益效果
与现有技术相比,本发明具有如下优点:
(1)直接对单幅图像进行处理,只要能在图像上检测到人脸,就能检测到人眼中心点的位置,并以此得到眼睛区域图像;(2)眼睛睁闭状态分类的准确率较高;(3)对光照变化,场景变化和脸部转动、倾斜等姿态变化有较强的鲁棒性;(4)运行速率快,能够满足实际应用的实时性要求;(5)硬件要求简单,易于大规模推广。
附图说明
图1是本发明的算法流程图;
图2是本发明用于人眼关键点检测的卷积神经网络模型结构图;
图3是本发明用于眼睛睁闭状态分类的卷积神经网络模型结构图;
图4是本发明的人眼关键点检测及眼睛睁闭状态分类结果。
具体实施方式
本发明的实施例:基于深度学习的眼睛睁闭状态检测方法:
第一步:人脸检测。
对输入的原始图像,本发明利用Piotr's Computer Vision Matlab Toolbox工具箱直接进行人脸检测。如果检测到人脸,就记录下当前人脸区域,得到人脸区域图像,如果当前输入图像没有检测到人脸,则结束对当前输入图像的处理,继续对下一帧输入图像进行人脸检测。
第二步:人眼中心点定位。
本发明训练了一个卷积神经网络模型对人脸图像进行人眼关键点检测与定位。人眼关键点检测的卷积神经网络模型结构图如图2所示,是一个由三个卷积层,三个最大池化层和两个全连接层组成的卷积神经网络。网络输入层是大小为39*39*1的人脸灰度图像;第一层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第二层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第三层卷积核大小为2*2,卷积核步长为1,卷积核个数为256个;第一层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为48;第二个全连接层的节点数量为4;每个卷积层后都经过Relu激活函数处理,增加网络的非线性映射能力,第三层卷积层后接了一个Dropout层防止过拟合,其比例为0.5;输出结果对应着双眼中心点的四个坐标点值,依次为左眼中心点的横坐标值、左眼中心点的纵坐标值、右眼中心点的横坐标值、右眼中心点的纵坐标值,坐标系原点为人脸图像左上角,x轴水平向右,y轴水平向下。
将人脸图像统一为39*39大小的灰度图像后,输入到训练后的用于人眼关键点检测的卷积神经网络模型,即可得到双眼中心点的坐标。
第三步:确定人眼区域。
在39*39的人脸图像中得到双眼中心点的坐标后,分别以中心点检测结果点为中心点,宽为12个像素点,高为6个像素点确定的矩形区域图像,作为左眼眼睛区域图像和右眼眼睛区域图像。
第四步:眼睛睁闭状态检测。
本发明训练了一个卷积神经网络模型用于眼睛睁闭状态检测。眼睛睁闭状态检测的卷积神经网络模型结构图如如3所示,是一个由两个卷积层,两个最大池化层,两个全连接层和一个softmox层组成的卷积神经网络。其中,网络输入层是大小为31*51*1的眼睛灰度图像;第一层卷积核大小为5*5,卷积核步长为1,卷积核个数为32;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为5*5,卷积核步长为1,卷积核个数为64个;第二层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为128个;第二个全连接层的结点数量为2个;每个卷积层后都经Relu激活函数处理,以增加网络的非线性映射能力;第二层卷积层后还接了一个Dropout层防止过拟合,其比例为0.5;经过softmax层后,网络输出分类结果:睁眼或闭眼。
分别将左眼和右眼的眼睛区域图像统一为31*51大小的灰度图像后,输入到用于睁闭状态分类的卷积神经网络模型,即可得到左右眼的状态:睁眼或者闭眼。
图4给出了本发明的眼睛睁闭状态检测结果。第一行是不戴眼镜时的睁眼检测结果,第二行是不戴眼镜时的闭眼检测结果,第三行是戴眼镜时的睁眼检测结果,第四行是戴眼镜时的闭眼检测结果。其中,其中,绿色“+”表示双眼中心点检测结果,矩形框表示眼睛区域,其上方或下方为睁闭眼文本标签。
为了进一步验证本发明的技术效果,发明人将本发明的是实施例与现有技术进行对于,结果见基于深度学习的眼睛睁闭状态检测方法对比数据。
表1不同分类器的结果对比
算法 | 闭眼分类准确率 | 睁眼分类准确率 | 总体分类准确率 | 算法耗时/帧 |
LBP+SVM | 94.53% | 96.92% | 95.96% | 0.082s |
HOG+SVM | 93.80% | 97.29% | 95.88% | 0.024s |
LBP+Adaboost | 83.06% | 90.20% | 87.21% | 0.299s |
HOG+Adaboost | 78.19% | 88.35% | 84.24% | 0.282s |
Alexnet | 96.65% | 97.09% | 96.91% | 0.00885s |
VGG-16 | 96.95% | 94.07% | 95.24% | 12.63s |
实施例 | 96.45% | 97.46% | 97.07% | 0.00263s |
表2与其他算法的结果对比
根据表1、表2的结果得知,本发明的方法,从闭眼分类准确率、睁眼分类准确率上都能达到非常好的检测效果,而且算法耗时极少,相应速度能得到有效保证。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.一种基于深度学习的眼睛睁闭状态检测方法,其特征在于:包括如下步骤:
1)对输入图像进行人脸检测,如果检测到人脸,就记录下当前人脸区域,得到人脸区域图像,如果当前输入图像没有检测到人脸,则结束对当前输入图像的处理,继续对下一帧输入图像进行人脸检测;
2)将人脸区域图像统一尺寸后输入到用于人眼关键点检测的卷积神经网络模型,获得左眼和右眼的中心点的横纵坐标值;具体步骤如下:
2-1)将人脸图像统一为39*39大小的灰度图像;
2-2)将步骤2-1)得到的灰度人脸图像输入到用于人眼关键点检测的卷积神经网络模型,卷积神经网络模型输出四个坐标点值,分别对应左眼中心点的横坐标值、左眼中心点的纵坐标值、右眼中心点的横坐标值及右眼中心点的纵坐标值;
3)根据眼睛中心点坐标值和12 *6的宽高值确定眼睛所在的矩形区域,分别得到左眼和右眼的区域图像;
4)分别将左眼和右眼图像统一尺寸后输入到用于眼睛睁闭状态分类的卷积神经网络模型,得到双眼的睁闭状态结果。
2.根据权利要求1所述的基于深度学习的眼睛睁闭状态检测方法,其特征在于:所述的用于人眼关键点检测的卷积神经网络模型是一个由三个卷积层,三个最大池化层和两个全连接层组成的卷积神经网络,具体描述如下:
网络输入层是大小为39*39*1的人脸灰度图像;第一层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为3*3,卷积核步长为1,卷积核个数为128个;第二层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第三层卷积核大小为2*2,卷积核步长为1,卷积核个数为256个;第一层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为48;第二个全连接层的节点数量为4;每个卷积层后都经过Relu激活函数处理,增加网络的非线性映射能力,第三层卷积层后接了一个Dropout层防止过拟合,其比例为0.5;输出结果对应着双眼中心点的四个坐标点值,依次为左眼中心点的横坐标值、左眼中心点的纵坐标值、右眼中心点的横坐标值及右眼中心点的纵坐标值,坐标系原点为人脸图像左上角,x轴水平向右,y轴水平向下。
3.根据权利要求2所述的基于深度学习的眼睛睁闭状态检测方法,其特征在于:在39*39的人脸图像中,以步骤2)得到的坐标值为中心点,宽为12个像素点,高为6个像素点确定的矩形区域图像,作为眼睛区域图像。
4.根据权利要求2所述的基于深度学习的眼睛睁闭状态检测方法,其特征在于:在所述的步骤4)中,判断双眼睁闭状态的具体步骤如下:
4-1)将眼睛区域图像统一为31*51大小的灰度图像;
5-2)分别将左眼和右眼的眼睛区域图像输入到用于睁闭状态分类的卷积神经网络模型,得到左右眼的状态:睁眼或者闭眼。
5.根据权利要求4所述的基于深度学习的眼睛睁闭状态检测方法,其特征在于:所述的用于眼睛睁闭状态分类的卷积神经网络模型是一个由两个卷积层,两个最大池化层,两个全连接层和一个softmox层组成的卷积神经网络,具体描述如下:
网络输入层是大小为31*51*1的眼睛灰度图像;第一层卷积核大小为5*5,卷积核步长为1,卷积核个数为32;第一层最大池化层的核大小为3*3,移动步长为2,边缘填充数为1;第二层卷积核大小为5*5,卷积核步长为1,卷积核个数为64个;第二层最大池化层的核大小为2*2,移动步长为2;第一个全连接层的结点数量为128个;第二个全连接层的结点数量为2个;每个卷积层后都经Relu激活函数处理,以增加网络的非线性映射能力;第二层卷积层后还接了一个Dropout层防止过拟合,其比例为0.5;经过softmax层后输出分类结果:睁眼或闭眼。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810335992.1A CN108614999B (zh) | 2018-04-16 | 2018-04-16 | 基于深度学习的眼睛睁闭状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810335992.1A CN108614999B (zh) | 2018-04-16 | 2018-04-16 | 基于深度学习的眼睛睁闭状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108614999A CN108614999A (zh) | 2018-10-02 |
CN108614999B true CN108614999B (zh) | 2022-09-16 |
Family
ID=63659953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810335992.1A Active CN108614999B (zh) | 2018-04-16 | 2018-04-16 | 基于深度学习的眼睛睁闭状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108614999B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711309B (zh) * | 2018-12-20 | 2020-11-27 | 北京邮电大学 | 一种自动识别人像图片是否闭眼的方法 |
CN111626087A (zh) * | 2019-02-28 | 2020-09-04 | 北京市商汤科技开发有限公司 | 神经网络训练及眼睛睁闭状态检测方法、装置及设备 |
CN110008930A (zh) * | 2019-04-16 | 2019-07-12 | 北京字节跳动网络技术有限公司 | 用于识别动物面部状态的方法和装置 |
CN111860056B (zh) * | 2019-04-29 | 2023-10-20 | 北京眼神智能科技有限公司 | 基于眨眼的活体检测方法、装置、可读存储介质及设备 |
CN110223279B (zh) * | 2019-05-31 | 2021-10-08 | 上海商汤智能科技有限公司 | 一种图像处理方法和装置、电子设备 |
CN111898454A (zh) * | 2020-07-02 | 2020-11-06 | 中国地质大学(武汉) | 权重二值化神经网络与迁移学习人眼状态检测方法及设备 |
CN112381871A (zh) * | 2020-10-16 | 2021-02-19 | 华东交通大学 | 一种基于人脸识别的机车警惕装置的实现方法 |
CN112836630A (zh) * | 2021-02-01 | 2021-05-25 | 清华大学深圳国际研究生院 | 基于cnn的注意力检测***及方法 |
CN113598789B (zh) * | 2021-06-21 | 2024-07-09 | 天津大学 | 一种基于脑电信号的跨个体热舒适判别方法 |
CN113705460B (zh) * | 2021-08-30 | 2024-03-15 | 平安科技(深圳)有限公司 | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093215A (zh) * | 2013-02-01 | 2013-05-08 | 北京天诚盛业科技有限公司 | 人眼定位方法及装置 |
KR101276792B1 (ko) * | 2011-12-29 | 2013-06-20 | 전자부품연구원 | 눈 검출 장치 및 방법 |
CN107016381A (zh) * | 2017-05-11 | 2017-08-04 | 南宁市正祥科技有限公司 | 一种快速驾驶员疲劳检测方法 |
CN107292251A (zh) * | 2017-06-09 | 2017-10-24 | 湖北天业云商网络科技有限公司 | 一种基于人眼状态的驾驶员疲劳检测方法及*** |
-
2018
- 2018-04-16 CN CN201810335992.1A patent/CN108614999B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101276792B1 (ko) * | 2011-12-29 | 2013-06-20 | 전자부품연구원 | 눈 검출 장치 및 방법 |
CN103093215A (zh) * | 2013-02-01 | 2013-05-08 | 北京天诚盛业科技有限公司 | 人眼定位方法及装置 |
CN107016381A (zh) * | 2017-05-11 | 2017-08-04 | 南宁市正祥科技有限公司 | 一种快速驾驶员疲劳检测方法 |
CN107292251A (zh) * | 2017-06-09 | 2017-10-24 | 湖北天业云商网络科技有限公司 | 一种基于人眼状态的驾驶员疲劳检测方法及*** |
Non-Patent Citations (1)
Title |
---|
基于并行卷积神经网络的人脸关键点定位方法研究;杨海燕等;《计算机应用研究》;20150831;第32卷(第8期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108614999A (zh) | 2018-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108614999B (zh) | 基于深度学习的眼睛睁闭状态检测方法 | |
Feng et al. | Static hand gesture recognition based on HOG characters and support vector machines | |
Radman et al. | Automated segmentation of iris images acquired in an unconstrained environment using HOG-SVM and GrowCut | |
Hassner et al. | Effective face frontalization in unconstrained images | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
US20160253550A1 (en) | Eye location method and device | |
CN108182397B (zh) | 一种多姿态多尺度的人脸验证方法 | |
Rouhi et al. | A review on feature extraction techniques in face recognition | |
CN110728185B (zh) | 一种判别驾驶人存在手持手机通话行为的检测方法 | |
WO2019153175A1 (zh) | 基于机器学习的遮挡人脸识别***、方法及存储介质 | |
CN103971096B (zh) | 一种基于mb‑lbp特征和人脸能量图的多姿态人脸识别方法 | |
CN104346602A (zh) | 一种基于特征向量的人脸识别方法及装置 | |
CN104008364A (zh) | 人脸识别方法 | |
CN103034840B (zh) | 一种性别识别方法 | |
Wu et al. | Appearance-based gaze block estimation via CNN classification | |
Huang et al. | Human emotion recognition based on face and facial expression detection using deep belief network under complicated backgrounds | |
Dai et al. | Iris center localization using energy map with image inpaint technology and post-processing correction | |
Jie et al. | A face detection and recognition system in color image series | |
Lin et al. | A gender classification scheme based on multi-region feature extraction and information fusion for unconstrained images | |
CN111898454A (zh) | 权重二值化神经网络与迁移学习人眼状态检测方法及设备 | |
Karaaba et al. | Machine learning for multi-view eye-pair detection | |
Rajeshwari et al. | Survey on skin based face detection on different illumination, poses and occlusion | |
Ahmad et al. | Convolutional neural network based algoritm for eye center localization | |
Zhao et al. | Fast localization algorithm of eye centers based on improved hough transform | |
Nguyen et al. | SVM classifier based face detection system using BDIP and BVLC moments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |