CN107679448A - 眼球动作分析方法、装置及存储介质 - Google Patents
眼球动作分析方法、装置及存储介质 Download PDFInfo
- Publication number
- CN107679448A CN107679448A CN201710709112.8A CN201710709112A CN107679448A CN 107679448 A CN107679448 A CN 107679448A CN 201710709112 A CN201710709112 A CN 201710709112A CN 107679448 A CN107679448 A CN 107679448A
- Authority
- CN
- China
- Prior art keywords
- eye
- eyeball
- real
- human eye
- characteristic point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种眼球动作分析方法、装置及存储介质,该方法包括:获取摄像装置拍摄的实时图像,从该实时图像中提取一张实时脸部图像;将所述实时脸部图像输入预先训练好的眼部平均模型,识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;根据所述(n1+n2)个特征点确定眼部区域,利用所述人眼分类模型判断该眼部区域是否为人眼区域;若是,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。本发明根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼部区域的分析及对眼球动作的实时捕捉。
Description
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种眼球动作分析方法、装置及计算机可读存储介质。
背景技术
眼球动作捕捉是基于人的脸部特征信息进行用户眼部动作识别的一种生物识别技术。目前,眼球动作捕捉的应用领域很广泛,在金融支付、门禁考勤、身份识别等众多领域起到非常重要的作用,给人们的生活带来很大便利。一般产品的做法是使用专业设备检测眼球周围的电场变化,从而实现眼球的捕捉;或者使用摄像机设备,识别虹膜角度的变化,来实现对眼球的跟踪。
然而,以上两种做法均存在不足,第一种,需要佩戴专业设备,对环境要求十分苛刻。第二种,虹膜检测时,要求人眼与摄像机的距离较近,并且虹膜检测速度慢,不适合用在实时情况下。
发明内容
本发明提供一种眼球动作分析方法、装置及计算机可读存储介质,其主要目的在于根据眼部特征点的坐标计算实时脸部图像中眼球的运动信息,实现对眼部区域的分析及对眼球动作的实时捕捉。
为实现上述目的,本发明提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作分析程序,所述眼球动作分析程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;
人眼区域识别步骤:根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域;及
眼球运动判断步骤:若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼球动作分析程序被所述处理器执行时,还实现如下步骤:
提示步骤:当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。
可选地,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的第一样本库,在第一样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
可选地,所述人眼分类模型的训练步骤包括:
收集m张人眼正样本图像和m张人眼负样本图像;
提取每张人眼正样本图像、人眼负样本图像的局部特征;及
利用人眼正样本图像、人眼睛负样本图像及其局部特征对支持向量机分类器进行训练,得到人眼分类模型。
可选地,所述眼球运动判断步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
此外,为实现上述目的,本发明还提供一种眼球动作分析方法,该方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;
人眼区域识别步骤:根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域;及
眼球运动判断步骤:若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的第一样本库,在第一样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
可选地,所述人眼分类模型的训练步骤包括:
收集m张人眼正样本图像和m张人眼负样本图像;
提取每张人眼正样本图像、人眼负样本图像的局部特征;及
利用人眼正样本图像、人眼睛负样本图像及其局部特征对支持向量机分类器)进行训练,得到人眼分类模型。
可选地,该方法还包括:
提示步骤:当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。
可选地,所述眼球运动判断步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作分析程序,所述眼球动作分析程序被处理器执行时,实现如上所述的眼球动作分析方法中的任意步骤。
本发明提出的眼球动作分析方法、装置及计算机可读存储介质,通过从实时脸部图像中识别出眼眶特征点、眼球特征点,首先判断眼部特征点组成的区域是否为人眼区域,若是,则根据眼部特征点的坐标计算得到人眼眼球的运动信息。该方法不需要检测眼球周围的电场变化,也无需识别虹膜角度的变化,仅通过眼部特征点的坐标,即可实现对眼部区域的分析及对眼球动作的实时捕捉。
附图说明
图1为本发明电子装置较佳实施例的示意图;
图2为图1中眼球动作分析程序的功能模块图;
图3为本发明眼球动作分析方法第一实施例的流程图;
图4为本发明眼球动作分析方法步骤S40的细化流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种电子装置1。参照图1所示,为本发明电子装置1较佳实施例的示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。其中,摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。通信总线15用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的眼球动作分析程序10、人脸图像样本库、人眼样本库及构建并训练好的眼部平均模型及人眼分类模型等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行眼球动作分析程序10等。
图1仅示出了具有组件11-15以及眼球动作分析程序10的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括RF(Radio Frequency,射频)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作***、以及眼球动作分析程序10;处理器12执行存储器11中存储的眼球动作分析程序10时实现如下步骤:
获取摄像装置13拍摄的实时图像,处理器12利用人脸识别算法从该实时图像中提取出实时脸部图像,从存储器11中调用眼部平均模型及人眼分类模型,并将该实时脸部图像输入所述眼部平均模型,识别出该实时脸部图像中眼眶特征点、眼球特征点,将所述n1个眼眶特征点、n2个眼球特征点确定的眼部区域输入所述人眼分类模型,判断该眼部区域是否为人眼区域,若是,则根据眼眶特征点、眼球特征点的坐标计算得到该实时脸部图像中眼球的运动信息,否则继续进行实时脸部图像获取步骤。
在其他实施例中,眼球动作分析程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
参照图2所示,为图1中眼球动作分析程序10的功能模块图。
所述眼球动作分析程序10可以被分割为:获取模块110、识别模块120、判断模块130、计算模块140及提示模块150。
获取模块110,用于获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接受到该实时图像后,所述获取模块110利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
识别模块120,用于将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。例如,假设眼部平均模型中有6个眼眶特征点、1个眼球特征点,当获取模块110提取出实时脸部图像后,所述识别模块120从存储器11中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。其中,所述人脸的眼部平均模型是预先构建并训练好的,具体实施方式将在下述眼球动作分析方法中进行说明。
在本实施例中,所述特征提取算法为SIFT(scale-invariant featuretransform)算法。SIFT算法从人脸的眼部平均模型后提取每个眼部特征点的局部特征,如6个眼眶特征点、1个眼球特征点,选择一个眼部特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点,例如,两个特征点的局部特征的差值是否在预设范围内,若是,则表明该特征点与参考特征点的局部特征相同或相似,并将其作为一个眼部特征点。依此原理直到在实时脸部图像中查找出所有眼部特征点。在其他实施例中,该特征提取算法还可以为SURF(Speeded Up Robust Features)算法,LBP(LocalBinary Patterns)算法,HOG(Histogram of Oriented Gridients)算法等。
判断模块130,用于根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域。当所述识别模块120从实时脸部图像中识别到6个眼眶特征点、1个眼球特征点后,可以根据该6个眼眶特征点、1个眼球特征点确定一个眼部区域,然后将确定的眼部区域输入训练好的人眼分类模型,根据模型所得的结果判断所述确定的眼部区域是否为人眼区域。其中,所述人眼分类模型是预先构建并训练好的,具体实施方式将在下述眼球动作分析方法中进行说明。
计算模块140,用于若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标,计算得到该实时脸部图像中眼球的运动方向及运动距离。
具体地,所述计算模块140用于:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若所述识别模块120从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,且判断模块130判断所述眼部区域为人眼区域,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
所述计算模块140利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x>0,则说明眼球向左移动,△x<0,则说明眼球向右移动;△y>0,说明眼球向上移动,△y<0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,识别模块120将会从实时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
提示模块150,用于当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。若判断模块130将所述6个眼眶特征点、1个眼球特征点确定的眼部区域输入人眼分类模型后,根据模型结果判断该眼部区域不是人眼区域,所述提示模块150提示未识别到人眼区域,无法进行下一步计算眼球运动信息步骤,同时,返回至步骤S20重新获取摄像装置拍摄的实时图像,并进行后续步骤。
本实施例提出的电子装置1,从实时图像中提取实时脸部图像,利用眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,利用人眼分类模型对特征点确定的眼部区域进行分析,若该眼部区域为人眼区域,则根据眼眶特征点、眼球特征点的坐标,计算得到该实时脸部图像中眼球的运动信息,实现对眼部区域的分析及对眼球动作的实时捕捉。
此外,本发明还提供一种眼球动作分析方法。参照图3所示,为本发明眼球动作分析方法较佳实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,眼球动作分析方法包括:步骤S10-步骤S50。
步骤S10,获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,当处理器接受到该实时图像后,利用人脸识别算法提取出实时的脸部图像。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点。获取到实时脸部图像后,从存储器中调用训练好的人脸的眼部平均模型后,将实时脸部图像与眼部平均模型进行对齐,利用特征提取算法在该实时脸部图像中搜索与该眼部平均模型的6个眼眶特征点、1个眼球特征点匹配的6个眼眶特征点、1个眼球特征点。
其中,所述眼部平均模型通过以下步骤得到:
建立一个有n张人脸图像的第一样本库,在第一样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S。每张人脸图像中眼眶特征点、眼球特征点是由人工手动标记。
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。
其中S(t)为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和S(t)来预测一个增量把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),...,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,第一样本库中人脸图像的数量为n,假设每一张样本图片有7个特征点(x,y),其中,6个眼眶特征点、1个眼球特征点,特征向量 x1~x6表示眼眶特征点的横坐标,x7表示眼球特征点的横坐标。取所有样本图片的部分特征点(例如在每个样本图片的7个特征点中随机取4个特征点)训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的4个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到人脸的眼部平均模型(mean shape),并将模型文件及样本库保存至存储器中。因为训练模型的样本标记了6个眼眶特征点、1个眼球特征点,则训练得到的人脸的眼部平均模型可用于从人脸图像中识别6个眼眶特征点、1个眼球特征点。
具体地,该特征提取算法还可以为SIFT算法,SURF算法,LBP算法,HOG算法等。
步骤S30,根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域。然后将确定的眼部区域输入训练好的人眼分类模型,根据模型所得的结果判断所述确定的眼部区域是否为人眼区域。
其中,所述人眼分类模型通过以下步骤训练得到:
收集m张人眼正样本图像和m张人眼负样本图像。人眼正样本图像是指包含人眼的眼睛样本,可以从人脸图像样本库中抠出双眼部分作为眼睛样本,人眼负眼睛样本图像是指眼睛区域残缺的图像,多张人眼正样本图像及负样本图像形成第二样本库。
提取每张人眼正样本图像、人眼负样本图像的局部特征。利用特征提取算法提取人眼样本图像的方向梯度直方图(Histogram of Oriented Gradient,简称HOG)特征。由于人眼样本图像中颜色信息作用不大,通常将其转化为灰度图,并将整个图像进行归一化,计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值,以捕获轮廓、人影和一些纹理信息,且进一步弱化光照的影响。然后把整个图像分割为一个个的Cell单元格(8*8像素),为每个Cell单元格构建梯度方向直方图,以***部图像梯度信息并进行量化,得到局部图像区域的特征描述向量。接着把cell单元格组合成大的块(block),由于局部光照的变化以及前景-背景对比度的变化,使得梯度强度的变化范围非常大,这就需要对梯度强度做归一化,进一步地对光照、阴影和边缘进行压缩。最后将所有“block”的HOG描述符组合在一起,形成最终的HOG特征描述向量。
用上述第二样本库中的正、负样本图像及提取的HOG特征对支持向量机分类器(Support Vector Machine,SVM)进行训练,得到所述人眼分类模型。
步骤S40,若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
参照图4所示,为本发明眼球动作分析方法中步骤S40的细化流程示意图。具体地,步骤S40包括:
步骤S41,根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
步骤S42,通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
若从实时脸部图像识别出的眼部特征点中,有6个眼眶特征点、1个眼球特征点,其中,(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)、(x5、y5)及(x6、y6)分别为6个眼眶特征点的坐标,(x7、y7)为眼球特征点的坐标,且判断模块130判断所述眼部区域为人眼区域,则实时脸部图像中眼眶的中心点坐标(X、Y)的计算公式如下:
centerX=(x1+x2+x3+x4+x5+x6)/6,
centerY=(y1+y2+y3+y4+y5+y6)/6。
利用眼眶中心点的坐标(X、Y)与眼球特征点的坐标(x7、y7),计算两者的位置关系,并判断眼球的运动方向及运动距离,计算公式如下:
△x=x7-centerX,△y=y7-centerY。
其中,△x、△y的值表示眼球在某一方向(左-右、上-下)的移动距离。
例如,若△x>0,则说明眼球向左移动,△x<0,则说明眼球向右移动;△y>0,说明眼球向上移动,△y<0,则说明眼球向下运动。
同理,当n2>1,也就是眼部平均模型中有多个眼球特征点时,将会从实时脸部图像中识别出多个眼球特征点,那么,取多个眼球特征点x、y坐标的均值作为眼球中心点的的坐标,与眼眶中心点的坐标计算差值。
步骤S50,当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。将所述6个眼眶特征点、1个眼球特征点确定的眼部区域输入人眼分类模型后,若根据模型结果判断该眼部区域不是人眼区域,将提示未识别到人眼区域,无法进行下一步计算眼球运动信息步骤,同时,返回至步骤S10重新获取摄像装置拍摄的实时图像,并进行后续步骤。
本实施例提出的眼球动作分析方法,利用该眼部平均模型识别出该实时脸部图像中眼眶特征点、眼球特征点,利用人眼分类模型对特征点确定的眼部区域进行分析,若该眼部区域为人眼区域,则根据眼眶特征点、眼球特征点的坐标,计算得到该实时脸部图像中眼球的运动信息,实现对眼部区域的分析及对眼球动作的实时捕捉。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括眼球动作分析程序,所述眼球动作分析程序被处理器执行时实现如下操作:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;
人眼区域识别步骤:根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域;及
眼球运动判断步骤:若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
可选地,所述眼球动作分析程序被处理器执行时,还实现如下操作::
提示步骤:当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。
可选地,所述眼球运动判断步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
本发明之计算机可读存储介质的具体实施方式与上述眼球动作分析方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种电子装置,其特征在于,所述装置包括:存储器、处理器及摄像装置,所述存储器中包括眼球动作分析程序,所述眼球动作分析程序被所述处理器执行时实现如下步骤:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;
人眼区域识别步骤:根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域;及
眼球运动判断步骤:若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
2.根据权利要求1所述的电子装置,其特征在于,所述眼球动作分析程序被所述处理器执行时,还实现如下步骤:
提示步骤:当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。
3.根据权利要求1所述的电子装置,其特征在于,所述眼部平均模型的训练步骤包括:
建立一个有n张人脸图像的第一样本库,在第一样本库中的每张人脸图像中标记n1个眼眶特征点、n2个眼球特征点,每张人脸图像中的该(n1+n2)个特征点组成一个形状特征向量S,得到眼部的n个形状特征向量S;及
利用所述n个形状特征向量S对人脸特征识别模型进行训练得到关于人脸的眼部平均模型。
4.根据权利要求3所述的电子装置,其特征在于,所述人眼分类模型的训练步骤包括:
收集m张人眼正样本图像和m张人眼负样本图像;
提取每张人眼正样本图像、人眼负样本图像的局部特征;及
利用人眼正样本图像、人眼睛负样本图像及其局部特征对支持向量机分类器进行训练,得到人眼分类模型。
5.根据权利要求1所述的电子装置,其特征在于,所述眼球运动判断步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
6.一种眼球动作分析方法,其特征在于,所述方法包括:
实时脸部图像获取步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
特征点识别步骤:将所述实时脸部图像输入预先训练好的眼部平均模型,利用该眼部平均模型识别出该实时脸部图像中代表眼部位置的n1个眼眶特征点、n2个眼球特征点;
人眼区域识别步骤:根据所述n1个眼眶特征点、n2个眼球特征点确定眼部区域,将该眼部区域输入预先训练好的人眼分类模型,判断该眼部区域是否为人眼区域;及
眼球运动判断步骤:若该眼部区域为人眼区域,根据该实时脸部图像中n1个眼眶特征点、n2个眼球特征点的x、y坐标计算得到该实时脸部图像中眼球的运动方向及运动距离。
7.根据权利要求6所述的眼球动作分析方法,其特征在于,该方法还包括:
提示步骤:当人眼分类模型判断该眼部区域不是人眼区域时,提示未从当前实时图像中检测到人眼区域、无法判断眼球运动,流程返回到实时图像捕获步骤,捕获下一张实时图像。
8.根据权利要求6所述的眼球动作分析方法,其特征在于,所述人眼分类模型的训练步骤包括:
收集m张人眼正样本图像和m张人眼负样本图像;
提取每张人眼正样本图像、人眼负样本图像的局部特征;及
利用人眼正样本图像、人眼睛负样本图像及其局部特征对支持向量机分类器进行训练,得到人眼分类模型。
9.根据权利要求6所述的眼球动作分析方法,其特征在于,所述眼球运动判断步骤包括:
根据所述n1个眼眶特征点的x、y坐标,计算所述实时脸部图像中眼眶的中心点坐标;及
通过计算眼眶中心点与眼球特征点的位置关系判断眼球的运动方向及运动距离。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括眼球动作分析程序,所述眼球动作分析程序被处理器执行时,实现如权利要求6至9中任一项所述的眼球动作分析方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709112.8A CN107679448B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作分析方法、装置及存储介质 |
SG11201902856QA SG11201902856QA (en) | 2017-08-17 | 2017-10-31 | Eyeball movement analysis method and device, and storage medium |
US16/338,457 US10534957B2 (en) | 2017-08-17 | 2017-10-31 | Eyeball movement analysis method and device, and storage medium |
PCT/CN2017/108748 WO2019033569A1 (zh) | 2017-08-17 | 2017-10-31 | 眼球动作分析方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709112.8A CN107679448B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作分析方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107679448A true CN107679448A (zh) | 2018-02-09 |
CN107679448B CN107679448B (zh) | 2018-09-25 |
Family
ID=61135004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710709112.8A Active CN107679448B (zh) | 2017-08-17 | 2017-08-17 | 眼球动作分析方法、装置及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10534957B2 (zh) |
CN (1) | CN107679448B (zh) |
SG (1) | SG11201902856QA (zh) |
WO (1) | WO2019033569A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564531A (zh) * | 2018-05-08 | 2018-09-21 | 麒麟合盛网络技术股份有限公司 | 一种图像处理方法及装置 |
CN108563238A (zh) * | 2018-06-15 | 2018-09-21 | 歌尔科技有限公司 | 一种遥控无人机的方法、装置、设备及*** |
CN109389069A (zh) * | 2018-09-28 | 2019-02-26 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
CN109389105A (zh) * | 2018-12-20 | 2019-02-26 | 北京万里红科技股份有限公司 | 一种基于多任务的虹膜检测和视角分类方法 |
CN111160303A (zh) * | 2019-12-31 | 2020-05-15 | 深圳大学 | 一种眼动反应信息检测方法、装置、移动终端及存储介质 |
CN111353429A (zh) * | 2020-02-28 | 2020-06-30 | 深圳壹账通智能科技有限公司 | 基于眼球转向的感兴趣度方法与*** |
CN112446322A (zh) * | 2020-11-24 | 2021-03-05 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10521661B2 (en) * | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
JP7290930B2 (ja) * | 2018-09-27 | 2023-06-14 | 株式会社アイシン | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム |
CN109901716B (zh) * | 2019-03-04 | 2022-08-26 | 厦门美图之家科技有限公司 | 视线点预测模型建立方法、装置及视线点预测方法 |
CN110297539A (zh) * | 2019-06-19 | 2019-10-01 | 重庆工商职业学院 | 一种基于人工智能的眼动识别方法及装置 |
CN111062786B (zh) * | 2019-12-25 | 2023-05-23 | 创新奇智(青岛)科技有限公司 | 一种基于建立商品外观特征映射表的模型更新方法 |
US10860098B1 (en) * | 2019-12-30 | 2020-12-08 | Hulu, LLC | Gesture-based eye tracking |
CN111563633A (zh) * | 2020-05-15 | 2020-08-21 | 上海乂学教育科技有限公司 | 基于眼动仪的阅读训练***及方法 |
CN112022642B (zh) * | 2020-09-16 | 2023-01-10 | 杭州集视智能科技有限公司 | 一种基于视野中心损伤的边缘视野训练设备及训练方法 |
CN112329629B (zh) * | 2020-11-05 | 2023-11-14 | 平安科技(深圳)有限公司 | 在线培训的评价方法、装置、计算机设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070247524A1 (en) * | 2006-04-19 | 2007-10-25 | Tomoaki Yoshinaga | Attention Level Measuring Apparatus and An Attention Level Measuring System |
CN101706872A (zh) * | 2009-11-26 | 2010-05-12 | 上海交通大学 | 通用的开放式人脸识别*** |
US8331616B2 (en) * | 2007-08-27 | 2012-12-11 | Sony Corporation | Face image processing apparatus, face image processing method, and computer program |
CN104123543A (zh) * | 2014-07-23 | 2014-10-29 | 泰亿格电子(上海)有限公司 | 一种基于人脸识别的眼球运动识别方法 |
CN105069745A (zh) * | 2015-08-14 | 2015-11-18 | 济南中景电子科技有限公司 | 基于普通图像传感器及增强现实技术的带表情变脸***及方法 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
CN106845425A (zh) * | 2017-01-25 | 2017-06-13 | 迈吉客科技(北京)有限公司 | 一种视觉跟踪方法和跟踪装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7206435B2 (en) * | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
CN102073435A (zh) * | 2009-11-23 | 2011-05-25 | 英业达股份有限公司 | 画面操作方法及应用该方法的电子装置 |
CN101984453B (zh) | 2010-11-02 | 2013-05-08 | 中国科学技术大学 | 一种人眼识别***及方法 |
CN104428732A (zh) * | 2012-07-27 | 2015-03-18 | 诺基亚公司 | 与近眼显示器的多模交互 |
US9176581B2 (en) * | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US20160378079A1 (en) * | 2015-06-24 | 2016-12-29 | Hon Hai Precision Industry Co., Ltd. | Computing device and electrical device controlling method |
WO2018013200A1 (en) * | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
CN110178104A (zh) * | 2016-11-07 | 2019-08-27 | 新自动公司 | 用于确定驾驶员分心的***和方法 |
US20180271364A1 (en) * | 2017-03-24 | 2018-09-27 | Osaka University | Method and apparatus for detecting ocular movement disorders |
-
2017
- 2017-08-17 CN CN201710709112.8A patent/CN107679448B/zh active Active
- 2017-10-31 WO PCT/CN2017/108748 patent/WO2019033569A1/zh active Application Filing
- 2017-10-31 US US16/338,457 patent/US10534957B2/en active Active
- 2017-10-31 SG SG11201902856QA patent/SG11201902856QA/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070247524A1 (en) * | 2006-04-19 | 2007-10-25 | Tomoaki Yoshinaga | Attention Level Measuring Apparatus and An Attention Level Measuring System |
US8331616B2 (en) * | 2007-08-27 | 2012-12-11 | Sony Corporation | Face image processing apparatus, face image processing method, and computer program |
CN101706872A (zh) * | 2009-11-26 | 2010-05-12 | 上海交通大学 | 通用的开放式人脸识别*** |
CN104123543A (zh) * | 2014-07-23 | 2014-10-29 | 泰亿格电子(上海)有限公司 | 一种基于人脸识别的眼球运动识别方法 |
CN105069745A (zh) * | 2015-08-14 | 2015-11-18 | 济南中景电子科技有限公司 | 基于普通图像传感器及增强现实技术的带表情变脸***及方法 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
CN106845425A (zh) * | 2017-01-25 | 2017-06-13 | 迈吉客科技(北京)有限公司 | 一种视觉跟踪方法和跟踪装置 |
Non-Patent Citations (1)
Title |
---|
于登淼: "基于OpenCv与MFC的PC端眼控***", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564531A (zh) * | 2018-05-08 | 2018-09-21 | 麒麟合盛网络技术股份有限公司 | 一种图像处理方法及装置 |
CN108564531B (zh) * | 2018-05-08 | 2022-07-08 | 麒麟合盛网络技术股份有限公司 | 一种图像处理方法及装置 |
CN108563238B (zh) * | 2018-06-15 | 2021-08-24 | 歌尔科技有限公司 | 一种遥控无人机的方法、装置、设备及*** |
CN108563238A (zh) * | 2018-06-15 | 2018-09-21 | 歌尔科技有限公司 | 一种遥控无人机的方法、装置、设备及*** |
CN109389069A (zh) * | 2018-09-28 | 2019-02-26 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
US11295474B2 (en) | 2018-09-28 | 2022-04-05 | Beijing Sensetime Technology Development Co., Ltd. | Gaze point determination method and apparatus, electronic device, and computer storage medium |
CN109389069B (zh) * | 2018-09-28 | 2021-01-05 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
CN109389105A (zh) * | 2018-12-20 | 2019-02-26 | 北京万里红科技股份有限公司 | 一种基于多任务的虹膜检测和视角分类方法 |
CN109389105B (zh) * | 2018-12-20 | 2022-02-08 | 北京万里红科技有限公司 | 一种基于多任务的虹膜检测和视角分类方法 |
CN111160303A (zh) * | 2019-12-31 | 2020-05-15 | 深圳大学 | 一种眼动反应信息检测方法、装置、移动终端及存储介质 |
CN111160303B (zh) * | 2019-12-31 | 2023-05-02 | 深圳大学 | 一种眼动反应信息检测方法、装置、移动终端及存储介质 |
WO2021169642A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 基于视频的眼球转向确定方法与*** |
CN111353429A (zh) * | 2020-02-28 | 2020-06-30 | 深圳壹账通智能科技有限公司 | 基于眼球转向的感兴趣度方法与*** |
CN112446322A (zh) * | 2020-11-24 | 2021-03-05 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
CN112446322B (zh) * | 2020-11-24 | 2024-01-23 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019033569A8 (zh) | 2019-11-21 |
CN107679448B (zh) | 2018-09-25 |
WO2019033569A1 (zh) | 2019-02-21 |
US20190362144A1 (en) | 2019-11-28 |
SG11201902856QA (en) | 2019-05-30 |
US10534957B2 (en) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN107633204B (zh) | 人脸遮挡检测方法、装置及存储介质 | |
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
CN107633205B (zh) | 嘴唇动作分析方法、装置及存储介质 | |
CN107862292B (zh) | 人物情绪分析方法、装置及存储介质 | |
CN107808120B (zh) | 眼镜定位方法、装置及存储介质 | |
CN107633206B (zh) | 眼球动作捕捉方法、装置及存储介质 | |
CN110163076B (zh) | 一种图像数据处理方法和相关装置 | |
CN107679449B (zh) | 嘴唇动作捕捉方法、装置及存储介质 | |
CN107679447A (zh) | 面部特征点检测方法、装置及存储介质 | |
US8750573B2 (en) | Hand gesture detection | |
US8792722B2 (en) | Hand gesture detection | |
WO2019033573A1 (zh) | 面部情绪识别方法、装置及存储介质 | |
Guo et al. | Improved hand tracking system | |
CN109829448A (zh) | 人脸识别方法、装置及存储介质 | |
CN112001932A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN115223239B (zh) | 一种手势识别方法、***、计算机设备以及可读存储介质 | |
Lahiani et al. | Hand pose estimation system based on Viola-Jones algorithm for android devices | |
CN110175500B (zh) | 指静脉比对方法、装置、计算机设备及存储介质 | |
Sudha et al. | A fast and robust emotion recognition system for real-world mobile phone data | |
Curran et al. | The use of neural networks in real-time face detection | |
Hilado et al. | Face detection using neural networks with skin segmentation | |
CN109583471A (zh) | 用于智能手机识别的方法及装置 | |
CN108108010A (zh) | 一种全新的静态手势检测与识别*** | |
Watson et al. | Person re-identification using partial least squares appearance modelling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246926 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |