CN109271914B - 检测视线落点的方法、装置、存储介质和终端设备 - Google Patents
检测视线落点的方法、装置、存储介质和终端设备 Download PDFInfo
- Publication number
- CN109271914B CN109271914B CN201811044578.1A CN201811044578A CN109271914B CN 109271914 B CN109271914 B CN 109271914B CN 201811044578 A CN201811044578 A CN 201811044578A CN 109271914 B CN109271914 B CN 109271914B
- Authority
- CN
- China
- Prior art keywords
- observer
- region
- face
- eye
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种检测视线落点的方法、装置、存储介质和终端设备,其中,所述方法包括:获取观测者观看显示屏时的脸部图像;从所述脸部图像中提取脸部区域和眼部区域的特征点;跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态;根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置。采用本发明,可以方便快速准确地确定观测者的视线落点位置。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种检测视线落点的方法、装置、存储介质和终端设备。
背景技术
人们往往通过频繁的注视来表达对对象或某一视觉区域的兴趣。通过跟踪人眼的视点运动,收集和分析人眼运动数据数据,获得用户兴趣。例如,在用户观看视频、电子书或网上商店时,通过跟踪用户的人眼运动,可以获知判断用户的偏好。其中,眼睛的视线落点可以传递大量反映人体心理活动的信息。
现有技术中,为了准确地测量眼睛的视线落点,通常要将被测试者的头部固定以固定头部姿态。或者,被测试者的头部戴上头戴式装置来跟踪头部姿态的变化数据,进而准确地计算视线落点。
但是,上述方案会给被测试者带来不便。仅利用二维彩色图像进行检测,所获取的数据有可能存在错误,进而导致视线落点的确定不准确。因此,如何方便准确地计算视线落点是目前亟需解决的技术问题。
发明内容
本发明实施例提供一种检测视线落点的方法、装置、存储介质和终端设备,以解决或缓解现有技术中的以上一个或多个技术问题。
第一方面,本发明实施例提供了一种检测视线落点的方法,包括:
获取观测者观看显示屏时的脸部图像;
从所述脸部图像中提取脸部区域和眼部区域的特征点;
跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态;
根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;
根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置。
结合第一方面,在第一方面的第一种实施方式中,所述脸部图像包括深度图像和彩色图像;以及,所述从所述脸部图像中提取脸部区域和眼部区域的特征点,包括:
从所述深度图像中提取前景区域;
判断所述前景区域是否包括人体脸部;
当所述前景区域包括人体脸部时,在所述深度图像中定位所述人体脸部的位置;以及
从所述人体脸部在所述彩色图像中的位置提取脸部区域和眼部区域的特征点。
结合第一方面,在第一方面的第二种实施方式中,所述跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态,包括:
跟踪所述脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,所述粒子滤波估计值用于估计所述头部姿态;
根据所述粒子滤波估计值,从依据所述观测者的观测范围划分的各视线区域中确定所述头部姿态所朝向的视线区域;以及
基于所述头部姿态所朝向的视线区域和所述粒子滤波估计值,利用最近点迭代算法对所述脸部区域的特征点进行迭代计算,获得所述头部姿态。
结合第一方面,在第一方面的第三种实施方式中,所述根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数,包括:
依据所述眼部区域的特征点,构建眼部外观;
根据所述眼部外观范围内的特征点,定位瞳孔中心位置;
根据眼球中心位置和所述瞳孔中心位置,确定所述观测者的视线角度;
将所述眼部区域的特征点投影到高维特征空间中,获得眼部特征数据集;
对所述眼部特征数据集进行分类检测,获得视线置线参数。
结合第一方面,在第一方面的第四种实施方式中,所述根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的眼部视线在所述显示屏的落点位置,包括:
根据所述头部姿态、所述视线角度和所述视线置信参数,计算所述观测者的眼部视线的注视方向;
从所述脸部图像的深度图像中,获取所述眼部区域的瞳孔中心位置的像素值,以确定所述观测者的瞳孔中心到所述显示屏的距离;以及
根据所述注视方向和所述观测者的瞳孔中心到所述显示屏的距离,计算所述观测者的眼部视线在所述显示屏的落点位置。
第二方面,本发明实施例提供一种检测视线落点的装置,包括:
脸部图像获取模块,用于获取观测者观看显示屏时的脸部图像;
特征点提取模块,用于从所述脸部图像中提取脸部区域和眼部区域的特征点;
头部姿态获取模块,用于跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态;
视线确定模块,用于根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;以及
视线落点确定模块,用于根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置。
结合第二方面,在第二方面的第一种实施方式中,所述脸部图像包括深度图像和彩色图像;以及,所述特征点提取模块包括:
前景区域提取单元,用于从所述深度图像中提取前景区域;
人体脸部判断单元,用于判断所述前景区域是否包括人体脸部;
脸部位置定位单元,用于当所述前景区域包括人体脸部时,在所述深度图像中定位所述人体脸部的位置;以及
脸部眼部特征提取单元,用于从所述人体脸部在所述彩色图像中的位置提取脸部区域和眼部区域的特征点。
结合第二方面,在第二方面的第二种实施方式中,所述头部姿态获取模块包括:
粒子滤波单元,用于跟踪所述脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,所述粒子滤波估计值用于估计所述头部姿态;
当前视线区域确定单元,用于根据所述粒子滤波估计值,从依据所述观测者的观测范围划分的各视线区域中确定所述头部姿态所朝向的视线区域;以及
头部姿态迭代单元,用于基于所述头部姿态所朝向的视线区域和所述粒子滤波估计值,利用最近点迭代算法对所述脸部区域的特征点进行迭代计算,获得所述头部姿态。
结合第二方面,在第二方面的第三种实施方式中,所述视线落点确定模块包括:
注视方向确定单元,用于根据所述头部姿态、所述视线角度和所述视线置信参数,计算所述观测者的眼部视线的注视方向;
距离获取单元,用于从所述脸部图像的深度图像中,获取所述眼部区域的瞳孔中心位置的像素值,以确定所述观测者的瞳孔中心到所述显示屏的距离;以及
落点计算单元,用于根据所述注视方向和所述观测者的瞳孔中心到所述显示屏的距离,计算所述观测者的眼部视线在所述显示屏的落点位置。
所述装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,检测视线落点的结构中包括处理器和存储器,所述存储器用于检测视线落点的装置执行上述检测视线落点的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述检测视线落点的装置还可以包括通信接口,用于检测视线落点的装置与其他设备或通信网络通信。
第三方面,本发明实施例还提供一种计算机可读存储介质,用于检测视线落点的装置所用的计算机软件指令,其中包括用于执行上述检测视线落点的方法所涉及的程序。
上述技术方案中的任意一个技术方案具有如下优点或有益效果:
本发明实施例通过获取观测者的脸部图像以及脸部图像的初始图片序列,即可以确定观测者的视线在显示屏中的落点位置,无需要观测者固定头部位置或者需要观测者带上相应的检测装置,方便检测。此外,结合头部姿态、以及视线角度、视线置信参数来确定显示屏的落点位置,可以有效地提高准确程度。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1是本发明提供的检测视线落点的方法的一个实施例的流程示意图;
图2是本发明提供的提取特征点的过程的一个实施例的流程示意图;
图3是本发明提供的头部姿态的过程的一个实施例的流程示意图;
图4是本发明提供的划分显示屏的一个实施例的示意图;
图5是本发明提供的视线角度与视线置信参数的获取过程的一个实施例的流程示意图;
图6是本发明提供的眼部外观的一个示意图;
图7是本发明提供的3D眼球模型的一个示意图;
图8是本发明提供的落点位置的计算过程的一个实施例的流程示意图;
图9是本发明提供的多人眼动仪设备的一个应用示例的结构示意图;
图10是本发明提供的检测视线落点的装置的另一个实施例的结构示意图;
图11是本发明提供的终端设备的一个实施例的结构示意图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
请参阅图1,本发明实施例提供了一种检测视线落点的方法。本实施例可以应用在人机交互的领域中:例如,在用户浏览电子书、视频、网上商店等情况下获取用户的兴趣。本实施例也可以应用于在汽车、轮船、飞机等交通工具中驾驶员在驾驶时的注意力检测场景中。本实施例包括步骤S100至步骤S500,具体如下:
S100,获取观测者观看显示屏时的脸部图像。
在本实施例中,显示屏可以包括电子书、平板、个人电脑、笔记本、车载终端等设备的显示器。可以通过摄像头获取观测者的上半身的图像或者仅仅包含脸部的图像。摄像头可以包括普通彩色摄像头、红外摄像头等。例如,彩色摄像头可以获取彩色图像。红外摄像镜头可以获取深度图像。结合两者可以对驾驶员的脸部数据进行二维、三维数据的整合。
S200,从脸部图像中提取脸部区域和眼部区域的特征点。
在本实施例中,本实施例可以采用ASM(Active Shape Model,主动形状模型)、AAM(Active Appearance Model,主动外观模型)算法来获取脸部的特征点。
以AAM方法为例,其是广泛应用于模式识别领域的一种特征点提取方法。基于AAM的人脸特征定位方法在建立人脸模型过程中,不但考虑局部特征信息,而且综合考虑到全局形状和纹理信息,通过对人脸形状特征和纹理特征进行统计分析,建立人脸混合模型,即为最终对应的AAM模型。在图像的匹配过程中,为了能够既快速又准确地进行人脸特征标定,在对被测试人脸对象进行特征点定位时采取一种图像匹配拟合的方法,可形象概括为“匹配→比较→调整再匹配→再比较”的过程。AAM算法主要分为AAM建模和AAM匹配计算两部分。AAM建模所建立的模型是对象的主动表观模型。所谓表观模型,就是在AAM形状模型的基础上结合所提取人脸对象的纹理信息建立起来的人脸模型;“主动”一词则形象具体地体现在AAM匹配计算中。
首先,采用主成分分(Principal Component Analysis,PCA)方法来描述形状特征点的动态变化。形状特征点可以表明了人脸特征的位置。其次,以具体AAM模型实例与输入图像的均方差来定义一个能量函数,利用该能量函数来评价AAM模型的匹配程度。在人脸定位匹配的过程中,模型的线性表达式可以有效地利用匹配算法变化模型参数组,以控制形状特征点的位置变化来生成当前新的AAM模型实例。再次,利用当前得到的能量函数值来更新模型的参数,如此反复迭代以实现能量函数的最小化。从而达到模型实例与输入图像相匹配的目的,最终得到的形状特征点位置就描述了当前人脸图像的特征点位置。
由于驾驶员在张嘴、闭眼等较大表情动作时,利用非刚性头部模型,AAM方法是无法从脸部图像中检测出形成脸部的点云数据。因此,AM方法可以在此种情况下,找出三维头像的刚性头部模型来代替非刚性头部模型。可以避免获取到错误的特征点,提高头部姿态确定的准确度。
S300,跟踪脸部图像的初始图片序列,对脸部区域的特征点进行迭代计算,获得驾驶员的头部姿态。
本实施例可以通过粒子滤波算法、最近点迭代算法(Iterative Closet Point,ICP)等方法的结合预估头部姿态。粒子滤波(Particle Filter,PF)算法,通过寻找一组在状态空间中传播的随机样本来近似的表示概率密度函数,用样本均值代替积分运算,进而获得样本状态的最小方差估计的过程。这此样本可以形象地称为“粒子”,故称,粒子滤波。基本的粒子滤波算法包括:最优贝叶斯估计算法、顺序重要采样算法、辅助采样-重采样算法、规则化采样算法、自适应粒子滤波算法等。本实施例可以采用最近点迭代算法(Iterative Closet Point,ICP)对头部姿态进行迭代计算。例如、Point to Point(点对点)搜索算法、Point to Plane(点对面)搜索算法、Point to Projection(点到对象)搜索算法等。采用最近点迭代算法可以从测量点集中确定其对应的最近点点集后,运用基于自由形态曲面的配准算法来计算新的最近点点集,直到残差平方和所构成的目标函数值不变,结束迭代过程。
初始图片序列可以包括拍摄脸部图像之前的第一帧或连续几帧的图片序列。可以用y1:t={y1,...,yt}来表示。头部姿态可以以三维角度或向量表达的形式来表示。
S400,根据眼部区域的特征点,确定观测者的视线角度和视线置信参数。
在本实施例中,可以采用SVM(Support Vector Machine,支持向量机)算法等机器学习的算法,视线置信参数。在观测者佩戴眼镜的时,难以准确地计算出观测的瞳孔中心,进而视线角度的确定也受到影响。为了估计出视线角度的可靠性,本实施例将影响眼睛的因素加入到视线检测的过程,采用SVM算法检测观测者是否佩戴眼镜。
S500,根据头部姿态、视线角度和视线置信参数以及观测者到显示屏的距离,确定观测者的视线在显示屏的落点位置。
在本实施例中,观测者到显示屏的距离可以通过深度图像来确定。也可以通过特定的红外发射器向观测者的脸部发射红外光,红外接收器接收红外光,进而通过发射角、接收角以及红外发射器到红外接收器之间的距离,确定观测者的脸部到红外接收器之间。
本发明实施例能过获取观测者的脸部图像以及脸部图像的初始图片序列,即可以确定观测者的视线在显示屏中的落点位置,无需要观测者固定头部位置或者需要观测者带上相应的检测装置,方便检测。此外,结合头部姿态、以及视线角度、视线置信参数来确定显示屏的落点位置,可以有效地提高准确程度。
在一种可能的实现方式中,脸部图像包括深度图像和彩色图像。深度图像和彩色图像是在同一时刻且在同一拍摄角度的情况下获取的驾驶员的上半身图像。如图2所示,上述步骤S200的提取特征点的过程,可以包括步骤S210至步骤S240,如下:
S210,从深度图像中提取前景区域。
在本实施例中,深度图像由点组成的,每一个都是0-255之间的数值。数值代表的是这个点对应的图像到深度相机的距离,可以根据深度图像中每个点的值大小来得到它们到相机的距离。因此,可以利用前景区域与背景区域的深度的不同,从深度图像中提取出前景区域。
示例性地,在获取图像数据阶段,可以通过Kinect(微软生产的一个体感外部设备)中不同的摄像头获取RGB图像和深度图像。RGB图像由Kinect的CCD(Charge-coupledDevice,电荷耦合器件)镜头获得,而深度图像则由红外探测器镜头获得。其均为人体上半身的图像。
S220,判断前景区域是否包括人体脸部。
本实施例利用AAM或ASM方法等方法,检测前景区域是否包括人脸脸部,可以在短时间内迅速判断RGB图像中是否包括人体脸部。
S230,当前景区域包括人体脸部时,在深度图像中定位人体脸部的位置。可以根据脸部的各像素点的深度变化情况,从中确定人体脸部的位置。
S240,从人体脸部在彩色图像中的位置提取脸部区域和眼部区域的特征点。
在本实施例中,可以利用AAM(Active Appearance Model,主动外观模型)或ASM(Active Shape Model,主动形状模型)方法从彩色图像中提取特征点。例如:AAM方法可以利用最小二乘法的方法,在匹配、比较、调整,再次匹配、比较、调整的迭代过程后,快速地匹配到新的图像。并利用刚性头部模型进行匹配,可以得到刚性头部点云数据。所谓刚性,是指脸部没有闭眼、张嘴、表情纹等表情。利用刚性头部模型获取到的特征点相比非刚性头部模型更为准确。AAM方法的建模过程以及迭代过程是一种常用的方法,在此不再赘述。
本实施例的特征点的提取过程,利用深度图像与彩色图像的结合,不受光线较弱、非均匀光照以及空间狭小等情况的影响,可以准确地获取脸部与眼部特征,大大提高检测视线的落点位置的准确性。
在一种可能的实现方式中,如图3所示,上述步骤S300获取头部姿态的过程,可以包括:
S310,跟踪脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,粒子滤波估计值用于估计头部姿态。
本实施例可以利用粒子滤波算法来估计头部姿态。可以减少后续步骤S330的头部姿态的校准过程的迭代次数,并提高校准的准确度。粒子滤波的过程可以包括以下步骤:
第一步,从所述初始图片序列中的首帧图片开始,采样n个初始粒子姿态样本。其中,各所述初始粒子姿态样本的权重值为1/n,采用表示;各所述初始粒子姿态样本的先验密度为预设值,采用p(b0)表示。初始粒子姿态样本采用表示。
第二步,按照前一帧图片所采样到的各粒子姿态样本的权重值之间的比例,从当前帧图片中重新采样粒子姿态样本。
假设首帧图片第0帧图片,当前帧图片为第t帧图片,则可以根据第t-1帧图片所采样到的各粒子姿态样本的权重值之间形成的比例进行采样。例如,粒子1、粒子2和粒子3的权重值分别为2:3:5,则可以粒子1可以按0.2的总体采样比例进行采样,粒子2可以按0.3的总体采样比例进行采样,粒子3可以按0.5的总体采样比例进行采样。
第三步,根据前一帧图片的头部姿态向量与当前帧图片的头部姿态向量的关系,确定新采样到的粒子姿态样本的权重值。
在本实施例中,可以采用似然函数来表达两个头部姿态向量之间的关系。例如,以当前帧图片的头部姿态向量bt为例,可以采用似然函数p(xt|bt)进行表示,p(xt|bt)可以表示如下:
第四步,利用最大后验概率估计公式,对新采样到的粒子姿态样本的权重值进行计算,获得下一帧图片的头部姿态向量的预测值。具体地,公式如下:
除了第0帧图片,对于每一帧图片均可以上述第二步至第三步进行计算,直到计算出最后一帧图片的头部姿态向量的预测值。步骤S320和步骤S330可以利用头部姿态向量的预测值进行后续的计算。
具体地,上述第三步可以包括如下:
然后,根据所述近似预测分布p(bt|x1:(t-1)),计算新采样到的粒子姿态样本的几何相似特征x(bt);
最后,按照新采样到的粒子姿态样本的似然值的比例分布,确定新采样到的粒子姿态样本的权重值。对于第j个粒子姿态样本,其确定的权重值为:
S320,根据粒子滤波估计值,从依据观测者的观测范围划分的各视线区域中确定头部姿态所朝向的视线区域。
在本实施例中,可以预先将观测者观测显示屏的观测范围划分成多个视线区域,例如,划分成6、9、12等数量的区域。如图4所示,显示屏划分成9个区域。在划分区域时,可以按显示屏的尺寸大小进行划分。尺寸越大划分的区域数量越多。
以及,在划分视线区域的同时,可以预先为各视线区域建立头部姿态模板。例如,利用自学习算法,对预设划分的各视线区域的头部姿态进行分类,建立索引。每个视线区域的头部姿态模板可以包括1个或多个。每个头部姿态模板可以对应一个头部姿态向量。由于头部姿态的粒子滤波估计值,实际上也表示为头部姿态向量。因此,计算各视线区域的各头部姿态模板的头部姿态向量与粒子滤波估计值之间的空间距离,可以得到各视线区域的距离概率分布。依据距离概率分布,可以确定头部姿态所朝向的视线区域。
具体地,本步骤可以包括:在获取到粒子滤波估计值之后,获取预设划分的各视线区域对应的头部姿态模板。然后,测量各头部姿态模板中的各点与粒子滤波估计值的距离,并确定各视线区域的距离概率分布。根据各视线区域的距离概率分布,可以确定头部姿态所朝向的视线区域。
S330,基于头部姿态所朝向的视线区域和粒子滤波估计值,利用最近点迭代算法对脸部区域的特征点进行迭代计算,获得头部姿态。
在本实施例中,除去头部向前或向后移动以及尺度的情况下,头部姿态向量被定义成六维列向量b。其中,θx,θy,θz是Yaw,Pitch,Roll三个方向的角度,tx,ty,tz是x,y,z轴上的偏差。Yaw方向是指Y轴旋转,Pitch是围绕X轴旋转,Roll是围绕Z轴旋转。
本实施例可以采用ICP算法进行迭代计算。粒子滤波估计值实际上一个头部姿态向量,可依据此将其转换成相应的初始转换矩阵,代入到ICP算法进行计算。因此,上述步骤S330的实施过程可以如下:
(1),根据粒子滤波估计值,计算初始转换矩阵。
在本实施例中,在迭代过程可以将脸部图像的第一帧或者连续图片的前几帧的头部姿态向量,作为初始头部姿态向量。
(2),获取头部姿态所朝向的视线区域以及相邻视线区域的头部姿态模板。
在本实施例中,头部姿态的角度可以通过欧几里德角度空间进行表示,即用Yaw,Pitch和Roll来表示。通过计算头部姿态所朝向的视线区域与其他区域的头部姿态模板之间的欧式角度,来确度相邻视线匹配假设视线区域的总数9,则各视线区域的头部姿态模板可以包括:P1,P2,...,Pm,...P9。
(3),基于所述初始转换矩阵,计算各所述头部姿态模板对应的最优转换矩阵。其中,最优转换矩阵能使所述头部姿态模板与刚性点云数据的两个点集之间的误差最小。第(3)步的计算过程可以分步骤实现,如下:
(3.1),对于刚性点云矩阵中的各点,确定属于模板矩阵且与该点最近的点。其中,初始的刚性点云矩阵Q表示所述刚性点云数据,模板矩阵Pm表示所述头部姿态模板。
具体地,可以利用NNSP(Nearest Neighbor Search Point,最近邻域搜索点)算法计算两矩阵的最近点。公式如下:
其中,Pm表示模板矩阵,pj为模块矩阵Pm中的第j个点;qi为刚性点云矩阵Q中的第i个点。m为头部姿态所朝向的视线区域的序号。
(3.2),计算最优转换矩阵,使刚性点云矩阵的各点与对应在模板矩阵的最近点的误差函数结果最小化。具体地,误差函数如下:
(3.3),如果误差函数结果大于预设的误差阈值,则根据最优转换矩阵和模板矩阵,更新刚性点云矩阵,并返回重新计算最优转换矩阵。
经第(3.2)步计算得到的适用于矩阵Q,更新后的刚性点云矩阵Q可以为:将上述(3.2)和(3.3)不断地进行迭代,直至误差函数的耦合误差的变化降低到设定的阈值内,迭代停止。阈值大小为:ei-1-ei<τ。
(3.4),如果误差函数结果小于预设的误差阈值,则输出当前计算的最优转换矩阵,停止迭代。
对于视线区域m的相邻视线区域的头部姿态模板,均可以执上述第(3.1)步至第(3.4)步,获得其对应的最优转换矩阵(Rneighbor,tneighbor)。
(4),对各最优转换矩阵进行加权并求均值,获得所述头部姿态的角度。
假设当前确定头部姿态所朝向的视线区域的头部姿态模板和相邻一个区域的头部姿态模板,则最优转换矩阵可以分别表示为:和(Rneighbor,tneighbor)。此时,可以对这两者进行加权并求均值,计算出头部姿态的θx,θy,θz的角度精确值。
在一种可能的实现方式中,如图5所示,上述步骤S400的视线角度与视线置信参数的获取过程,可以包括:
S410,依据眼部区域的特征点,构建眼部外观。
在本实施例中,可以按照人眼六边形的概念,从特征点中选取出眼部的六个特征,如图6所示的人眼边缘的六个圆点的位置。包括两个眼角、上眼皮边缘和下眼皮边缘的特征点。本实施例并不限于六边形,也可以包括八边形等能够描述人眼的关键特征的形状。将获取的特征点按位置顺序连接起来,获得一个封闭的多边形。
S420,根据眼部外观范围内的特征点,定位瞳孔中心位置。
在获得一个封闭的六边形后,将检测瞳孔中心位置的范围限定在此封闭的六边形内,可以加快定位速度。
进一步地,还可以利用梯度下降法进行定位。具体如下:
首先,构建一个可能的瞳孔中心与图像上的梯度信息关系。
以C表示可能的瞳孔中心,gi是在点xi处的梯度向量。标准化的位移向量为di与梯度向量gi具有相同的方向。因而,我们可以通过标准化向量和梯度向量gi中计算他们的内积来提取图像的梯度向量场。其中,此图像上圆形的最优中心点c的像素位置是xi,i∈{1,...,N}。此计算过程,如下公式:
进一步地,为了低算法的时间复杂度,我们可以只考虑到梯度向量的主要分量,忽略到梯度均匀的区域。为了获得图像的梯度,我们计算偏导数:
由于瞳孔通常的比皮肤和巩膜的颜色要深很多,我们采用一个权值wc来为每一个中心点c赋值,颜色深的中心点权值高于较亮区域的权值。计算过程可以如下公式:
其中,wc=I*(cx,cy)是经过平滑和反向输入的图像在点(cx,cy)的灰度值。
需要注意的是,图像需要先经过高斯平滑操作,可以防止一些反光的亮点。
经过以上计算,可以获得瞳孔中心的位置C。
S430,根据眼球中心位置和瞳孔中心位置,确定观测者的视线角度。
在本实施例中,由于人眼为球形,且眼球中心位置相对于头部的位置是相对不变的。因此,本实施例可以采用人眼3D模型,通过瞳孔中心位置与眼球中心位置组成的射线来估计视线角度。可以如图7所示。
S440,将眼部区域的特征点投影到高维特征空间中,获得眼部特征数据集。
在本实施例中,可以将眼部区域的特征点的二维数据投射到高维空间中。例如,二维数据G投射到空间H,可以表示为HoG。
S450,对眼部特征数据集进行分类检测,获得视线置线参数。
采用SVM算法,对投影到高维特征空间中的特征进行分类。在SVM分类的过程中,可以使眼部的特征以及眼睛周围的信息加入到视线检测中,从而对视线是否可信作出评价,使得检测结果更加准确。
在一种可能的实现方式中,如图8所示,上述步骤500的落点位置的计算过程,可以包括:
S510,根据头部姿态、视线角度和视线置信参数,计算观测者的眼部视线的注视方向。
示例性地,Φhead为头部姿态、Φgaze人脸视线角度以及λ为置信参数,则注视方向可表示为:Vgaze=Φhead+λΦgaze。
S520,从脸部图像的深度图像中,获取眼部区域的瞳孔中心位置的像素值,以确定观测者的瞳孔中心到显示屏的距离。
由于深度图像由点组成的,每一个都是0-255之间的数值,数值代表的是这个点对应的图像到深度相机的距离,因此,可以根据深度图像中每个点的值大小来得到它们到相机的距离。
基于前述步骤可以确定瞳孔中心位置,则可以依据此瞳孔中心位置在深度图像中找到相应的像素点,并提取此像素点的深度数值。此深度数值表示像素点到摄像头的距离。在确定摄像头与显示屏的位置关系,则可以获得观测者的瞳孔中心到显示屏的距离。
S530,根据注视方向和观测者的瞳孔中心到显示屏的距离,计算观测者的眼部视线在显示屏的落点位置。
由于观测者的瞳孔中心到显示屏的距离为垂直距离,因而可以确定瞳孔中心投射在显示屏上的垂直落点。基于此垂直落点、垂直距离以及注视方向,即可计算出眼部视线落在在显示屏的落点位置。
参见图9,其是本发明实施例提供的多人眼动仪设备的一个应用示例的结构示意图。
本实施例可以解决现有技术中被试者在使用眼动仪时,必须头戴或是将头部固定的问题。由于头部不需要固定,所以可以同时进行多人眼部信息数据的采集以及多人眼部视线落点检测的工作。
多人眼动仪设备包括眼动仪1和支架2。眼动仪1包含主机1.1和深度摄像头1.2。支架2包括可旋转的基座2.1、支撑杆2.2和脸托2.3。
深度摄像头1.2为Kinect(Kinect为索尼出品的一个外设产品)摄像头,包含红外线发射装置等所需设备。
主机1.1包括位于显示屏1.11、图像采集卡1.12和图像处理模块1.13。显示屏1.11设置在主机表面。图像采集卡1.12和图像处理模块1.13位于显示屏1.11后方且内嵌在主机1.1内部。深度摄像头1.2与图像采集卡1.12相连,图像采集卡1.12还与图像处理模块1.13相连。
显示屏1.11用于播放需要观测者观看的图像或者视频。深度摄像头1.12用于采集用户的脸部区域的图像。图像采集卡1.12用来将深度摄像头1.12采集到的实时图像,传到图像处理模块1.13进行相应处理。其中,图像处理模块1.13使用CES-5250作为主处理器,DSP作为协处理器。CES-5250可以控制图像处理过程的开始、结束以及处理结果的显示等操作。DSP用于提取旋转基座2.1的标号标记被试者,标定头部姿态以及人眼数据的相关信息。DSP还用于利用深度摄像机1.12采集到的深度图、通过AAM方法提取脸部区域和眼部区域、利用迭代最近点方法得到头部姿态、利用眼部区域标定出来的六个点求出瞳孔中心以及利用随机森林对头部姿态和瞳孔中心做分类,求出视线方向。并且,通过支架和眼动仪位置的角度关系,追踪眼睛注视点,得到运动轨迹。可以为后续的人机交互、心理研究等方向提供信息支撑。
可旋转的基座2.1固定在支架2所在的平面上,距离可自行设定。当被试者为1人时,底座距离眼动仪的预设距离在50~100cm。当被试者为多人时,底座距离眼动仪的预设距离应该在100cm~200cm。有利用提高测试效果。
旋转基座2.1上标有标号,方便多人使用时进行人员的标定。
支撑杆2.2连接脸托2.3和基座2.1。支撑杆可进行手动纵向伸缩,调整脸托的位置,使观测者可以舒适的使用该装置。
脸托2.3用于支撑被试者的头部。中央向外突出形成弧形带状。材质为橡胶等软性材料,可延竖直方向运动,用来调节被试者竖直方向的头部的转向。观测者的头部想要左右运动时,可以通过旋转基座的转动调节头部的转向。脸托的作用还可以保证观测者在长时间的测试过程中能够充分的放松,与此同时确保观测者的头部与眼动仪1保持预设距离。此外,通过控制脸托2.3的上下转动角度,旋转底座的左右转动角度,可以调控被试者使用该装置时的头部转动范围,使该装置采集的数据更有可用性。
本实施例提供了一种非头戴式的多人眼动仪设备,可以解决现有技术中被试者在使用眼动仪时必须头戴或是将头部固定的问题。同时因为头部不需要固定,因此可以同时进行多人眼部信息数据的采集。具体地,观测者在观测时可以带上与其使用的脸托2.3的序号的标答。当设备获得深度图像之后,可以先利用OCR(Optical Character Recognition,光学字符识别)方法提取图片中的数字。提取的数字即为旋转底座2.1标记的序号。然后利用深度图像的深度进行头部检测,粗略地找到头部的位置。计算和该头部位置最近的数字,将此头部位置以此数字n进行标记,即可得到多人的带标记数据,处理时依次进行处理并保存相关结果。
参见图10,本发明实施例提供一种检测视线落点的装置,包括:
脸部图像获取模块100,用于获取观测者观看显示屏时的脸部图像;
特征点提取模块200,用于从所述脸部图像中提取脸部区域和眼部区域的特征点;
头部姿态获取模块300,用于跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态;
视线确定模块400,用于根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;以及
视线落点确定模块500,用于根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置。
在一种可能的实现方式中,所述脸部图像包括深度图像和彩色图像;以及,所述特征点提取模块包括:
前景区域提取单元,用于从所述深度图像中提取前景区域;
人体脸部判断单元,用于判断所述前景区域是否包括人体脸部;
脸部位置定位单元,用于当所述前景区域包括人体脸部时,在所述深度图像中定位所述人体脸部的位置;以及
脸部眼部特征提取单元,用于从所述人体脸部在所述彩色图像中的位置提取脸部区域和眼部区域的特征点。
在一种可能的实现方式中,所述头部姿态获取模块包括:
粒子滤波单元,用于跟踪所述脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,所述粒子滤波估计值用于估计所述头部姿态;
当前视线区域确定单元,用于根据所述粒子滤波估计值,从依据所述观测者的观测范围划分的各视线区域中确定所述头部姿态所朝向的视线区域;以及
头部姿态迭代单元,用于基于所述头部姿态所朝向的视线区域和所述粒子滤波估计值,利用最近点迭代算法对所述脸部区域的特征点进行迭代计算,获得所述头部姿态。
在一种可能的实现方式中,所述视线落点确定模块包括:
注视方向确定单元,用于根据所述头部姿态、所述视线角度和所述视线置信参数,计算所述观测者的眼部视线的注视方向;
距离获取单元,用于从所述脸部图像的深度图像中,获取所述眼部区域的瞳孔中心位置的像素值,以确定所述观测者的瞳孔中心到所述显示屏的距离;以及
落点计算单元,用于根据所述注视方向和所述观测者的瞳孔中心到所述显示屏的距离,计算所述观测者的眼部视线在所述显示屏的落点位置。
所述装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,检测视线落点的结构中包括处理器和存储器,所述存储器用于检测视线落点的装置执行上述第一方面中检测视线落点的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述检测视线落点的装置还可以包括通信接口,用于检测视线落点的装置与其他设备或通信网络通信。
本发明实施例还提供一种检测视线落点的终端设备,如图11所示,该设备包括:存储器21和处理器22,存储器21内存储有可在处理器22上的计算机程序。处理器22执行计算机程序时实现上述实施例中的检测视线落点的方法。存储器21和处理器22的数量可以为一个或多个。
该设备还包括:
通信接口23,用于处理器22与外部设备之间的通信。
存储器21可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
如果存储器21、处理器22和通信接口23独立实现,则存储器21、处理器22和通信接口23可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,Peripheral Component)总线或扩展工业标准体系结构(EISA,Extended Industry Standard Component)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器21、处理器22及通信接口23集成在一块芯片上,则存储器21、处理器22及通信接口23可以通过内部接口完成相互间的通信。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。
本发明实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质的更具体的示例至少(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读存储介质甚至可以是可在其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其存储在计算机存储器中。
在本发明实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于指令执行***、输入法或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、射频(Radio Frequency,RF)等等,或者上述的任意合适的组合。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成的程序,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。存储介质可以是只读存储器,磁盘或光盘等。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种检测视线落点的方法,其特征在于,包括:
获取观测者观看显示屏时的脸部图像;
从所述脸部图像中提取脸部区域和眼部区域的特征点;
跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态,所述初始图片序列包括拍摄所述脸部图像之前的第一帧或连续几帧的图片序列;
根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;
根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置;
其中,所述跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态,包括:
跟踪所述脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,所述粒子滤波估计值用于估计所述头部姿态;
根据所述粒子滤波估计值,从依据所述观测者的观测范围划分的各视线区域中确定所述头部姿态所朝向的视线区域;以及
基于所述头部姿态所朝向的视线区域和所述粒子滤波估计值,利用最近点迭代算法对所述脸部区域的特征点进行迭代计算,获得所述头部姿态。
2.如权利要求1所述的方法,其特征在于,所述脸部图像包括深度图像和彩色图像;以及,所述从所述脸部图像中提取脸部区域和眼部区域的特征点,包括:
从所述深度图像中提取前景区域;
判断所述前景区域是否包括人体脸部;
当所述前景区域包括人体脸部时,在所述深度图像中定位所述人体脸部的位置;以及
从所述人体脸部在所述彩色图像中的位置提取脸部区域和眼部区域的特征点。
3.如权利要求1所述的方法,其特征在于,所述根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数,包括:
依据所述眼部区域的特征点,构建眼部外观;
根据所述眼部外观范围内的特征点,定位瞳孔中心位置;
根据眼球中心位置和所述瞳孔中心位置,确定所述观测者的视线角度;
将所述眼部区域的特征点投影到高维特征空间中,获得眼部特征数据集;
对所述眼部特征数据集进行分类检测,获得视线置线参数。
4.如权利要求1所述的方法,其特征在于,所述根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的眼部视线在所述显示屏的落点位置,包括:
根据所述头部姿态、所述视线角度和所述视线置信参数,计算所述观测者的眼部视线的注视方向;
从所述脸部图像的深度图像中,获取所述眼部区域的瞳孔中心位置的像素值,以确定所述观测者的瞳孔中心到所述显示屏的距离;以及
根据所述注视方向和所述观测者的瞳孔中心到所述显示屏的距离,计算所述观测者的眼部视线在所述显示屏的落点位置。
5.一种检测视线落点的装置,其特征在于,包括:
脸部图像获取模块,用于获取观测者观看显示屏时的脸部图像;
特征点提取模块,用于从所述脸部图像中提取脸部区域和眼部区域的特征点;
头部姿态获取模块,用于跟踪所述脸部图像的初始图片序列,对所述脸部区域的特征点进行迭代计算,获得所述观测者的头部姿态,所述初始图片序列包括拍摄所述脸部图像之前的第一帧或连续几帧的图片序列;
所述头部姿态获取模块包括:
粒子滤波单元,用于跟踪所述脸部图像的初始图片序列,获得头部姿态的粒子滤波估计值;其中,所述粒子滤波估计值用于估计所述头部姿态;
当前视线区域确定单元,用于根据所述粒子滤波估计值,从依据所述观测者的观测范围划分的各视线区域中确定所述头部姿态所朝向的视线区域;以及
头部姿态迭代单元,用于基于所述头部姿态所朝向的视线区域和所述粒子滤波估计值,利用最近点迭代算法对所述脸部区域的特征点进行迭代计算,获得所述头部姿态;
视线确定模块,用于根据所述眼部区域的特征点,确定所述观测者的视线角度和视线置信参数;以及
视线落点确定模块,用于根据所述头部姿态、所述视线角度和所述视线置信参数以及所述观测者到所述显示屏的距离,确定所述观测者的视线在所述显示屏的落点位置。
6.如权利要求5所述的装置,其特征在于,所述脸部图像包括深度图像和彩色图像;以及,所述特征点提取模块包括:
前景区域提取单元,用于从所述深度图像中提取前景区域;
人体脸部判断单元,用于判断所述前景区域是否包括人体脸部;
脸部位置定位单元,用于当所述前景区域包括人体脸部时,在所述深度图像中定位所述人体脸部的位置;以及
脸部眼部特征提取单元,用于从所述人体脸部在所述彩色图像中的位置提取脸部区域和眼部区域的特征点。
7.如权利要求5所述的装置,其特征在于,所述视线落点确定模块包括:
注视方向确定单元,用于根据所述头部姿态、所述视线角度和所述视线置信参数,计算所述观测者的眼部视线的注视方向;
距离获取单元,用于从所述脸部图像的深度图像中,获取所述眼部区域的瞳孔中心位置的像素值,以确定所述观测者的瞳孔中心到所述显示屏的距离;以及
落点计算单元,用于根据所述注视方向和所述观测者的瞳孔中心到所述显示屏的距离,计算所述观测者的眼部视线在所述显示屏的落点位置。
8.一种实现检测视线落点的终端设备,其特征在于,所述终端设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的检测视线落点的方法。
9.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的检测视线落点的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811044578.1A CN109271914B (zh) | 2018-09-07 | 2018-09-07 | 检测视线落点的方法、装置、存储介质和终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811044578.1A CN109271914B (zh) | 2018-09-07 | 2018-09-07 | 检测视线落点的方法、装置、存储介质和终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109271914A CN109271914A (zh) | 2019-01-25 |
CN109271914B true CN109271914B (zh) | 2020-04-17 |
Family
ID=65188061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811044578.1A Active CN109271914B (zh) | 2018-09-07 | 2018-09-07 | 检测视线落点的方法、装置、存储介质和终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109271914B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109885169B (zh) * | 2019-02-25 | 2020-04-24 | 清华大学 | 基于三维眼球模型的眼球参数标定和视线方向跟踪方法 |
CN110245601B (zh) * | 2019-06-11 | 2022-03-01 | Oppo广东移动通信有限公司 | 眼球追踪方法及相关产品 |
CN110244853A (zh) * | 2019-06-21 | 2019-09-17 | 四川众信互联科技有限公司 | 手势控制方法、装置、智能显示终端及存储介质 |
CN110321820B (zh) * | 2019-06-24 | 2022-03-04 | 东南大学 | 一种基于非接触式设备的视线落点检测方法 |
CN110516553A (zh) * | 2019-07-31 | 2019-11-29 | 北京航空航天大学 | 工作状态的监测方法和装置 |
CN110531853B (zh) * | 2019-08-23 | 2021-01-19 | 西安交通大学 | 一种基于人眼注视点检测的电子书阅读器控制方法及*** |
CN112702506A (zh) * | 2019-10-23 | 2021-04-23 | 北京小米移动软件有限公司 | 拍摄方法、拍摄装置及电子设备 |
CN110909611B (zh) * | 2019-10-29 | 2021-03-05 | 深圳云天励飞技术有限公司 | 一种关注区域检测方法、装置、可读存储介质及终端设备 |
CN112749600B (zh) * | 2019-10-31 | 2024-03-12 | Oppo广东移动通信有限公司 | 人眼位置确定方法及相关产品 |
US11614797B2 (en) * | 2019-11-05 | 2023-03-28 | Micron Technology, Inc. | Rendering enhancement based in part on eye tracking |
CN111046744B (zh) * | 2019-11-21 | 2023-04-18 | 深圳云天励飞技术股份有限公司 | 一种关注区域检测方法、装置、可读存储介质及终端设备 |
US11587122B2 (en) | 2019-11-26 | 2023-02-21 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for interactive perception and content presentation |
CN110717482B (zh) * | 2019-12-12 | 2020-04-14 | 支付宝(杭州)信息技术有限公司 | 虹膜图像采集方法以及装置、对焦方法以及装置 |
CN111325172B (zh) * | 2020-02-28 | 2023-04-21 | 英华达(上海)科技有限公司 | 以视线追踪达成驾驶习惯养成的装置及方法 |
CN111597916A (zh) * | 2020-04-24 | 2020-08-28 | 深圳奥比中光科技有限公司 | 一种专注度检测方法、终端设备及*** |
CN111857461B (zh) * | 2020-06-29 | 2021-12-24 | 维沃移动通信有限公司 | 图像显示方法、装置、电子设备及可读存储介质 |
CN112541400B (zh) * | 2020-11-20 | 2024-06-21 | 小米科技(武汉)有限公司 | 基于视线估计的行为识别方法及装置、电子设备、存储介质 |
CN112869701B (zh) * | 2021-01-11 | 2024-03-29 | 上海微创医疗机器人(集团)股份有限公司 | 视线检测方法、手术机器人***、控制方法和存储介质 |
CN113052064B (zh) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
CN113128417B (zh) * | 2021-04-23 | 2023-04-07 | 南开大学 | 一种基于头部姿态的双区域眼动跟踪方法 |
WO2023010301A1 (zh) * | 2021-08-04 | 2023-02-09 | 华为技术有限公司 | 视线检测方法、眼球模型的建模方法及其装置 |
CN113709375B (zh) * | 2021-09-06 | 2023-07-11 | 维沃移动通信有限公司 | 一种图像显示方法及其装置、电子设备 |
CN114967935B (zh) * | 2022-06-29 | 2023-04-07 | 深圳职业技术学院 | 基于视线估计的交互方法、装置、终端设备及存储介质 |
CN116704589B (zh) * | 2022-12-01 | 2024-06-11 | 荣耀终端有限公司 | 一种注视点估计方法、电子设备和计算机可读存储介质 |
CN117133043A (zh) * | 2023-03-31 | 2023-11-28 | 荣耀终端有限公司 | 注视点估计方法、电子设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1700242A (zh) * | 2005-06-15 | 2005-11-23 | 北京中星微电子有限公司 | 一种判别视线方向的方法和装置 |
CN105303170A (zh) * | 2015-10-16 | 2016-02-03 | 浙江工业大学 | 一种基于人眼特征的视线估计方法 |
CN106598221A (zh) * | 2016-11-17 | 2017-04-26 | 电子科技大学 | 基于眼部关键点检测的3d视线方向估计方法 |
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104182723B (zh) * | 2013-05-24 | 2017-07-18 | 汉王科技股份有限公司 | 一种视线估计的方法和装置 |
CN108171152A (zh) * | 2017-12-26 | 2018-06-15 | 深圳大学 | 深度学习人眼视线估计方法、设备、***及可读存储介质 |
-
2018
- 2018-09-07 CN CN201811044578.1A patent/CN109271914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1700242A (zh) * | 2005-06-15 | 2005-11-23 | 北京中星微电子有限公司 | 一种判别视线方向的方法和装置 |
CN105303170A (zh) * | 2015-10-16 | 2016-02-03 | 浙江工业大学 | 一种基于人眼特征的视线估计方法 |
CN106598221A (zh) * | 2016-11-17 | 2017-04-26 | 电子科技大学 | 基于眼部关键点检测的3d视线方向估计方法 |
CN107193383A (zh) * | 2017-06-13 | 2017-09-22 | 华南师范大学 | 一种基于人脸朝向约束的二级视线追踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109271914A (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271914B (zh) | 检测视线落点的方法、装置、存储介质和终端设备 | |
US10684681B2 (en) | Neural network image processing apparatus | |
US9864430B2 (en) | Gaze tracking via eye gaze model | |
CN105574518B (zh) | 人脸活体检测的方法和装置 | |
CN109255329B (zh) | 确定头部姿态的方法、装置、存储介质和终端设备 | |
US9189855B2 (en) | Three dimensional close interactions | |
CN109145864A (zh) | 确定视线区域的方法、装置、存储介质和终端设备 | |
CN110703904B (zh) | 一种基于视线跟踪的增强虚拟现实投影方法及*** | |
CN104809424B (zh) | 一种基于虹膜特征实现视线追踪的方法 | |
CN110913751A (zh) | 具有滑动检测和校正功能的可穿戴眼睛跟踪*** | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
EP3893090B1 (en) | Method for eye gaze tracking | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2021536609A (ja) | 注視点推定方法及びシステム | |
CN115482574B (zh) | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 | |
WO2014028477A1 (en) | Systems and methods for iris detection and gaze estimation | |
JP2014194617A (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
CN109711239B (zh) | 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法 | |
CN106843492B (zh) | 一种多人视点校准***及方法 | |
Jafari et al. | Gaze estimation using Kinect/PTZ camera | |
CN110750157B (zh) | 基于3d眼球模型的眼控辅助输入装置及方法 | |
Arar et al. | Towards convenient calibration for cross-ratio based gaze estimation | |
JP3822482B2 (ja) | 顔向き計算方法及びその装置 | |
Li et al. | Visual interpretation of natural pointing gestures in 3D space for human-robot interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |