CN112288855A - 一种操作者眼睛注视模型的建立方法及装置 - Google Patents

一种操作者眼睛注视模型的建立方法及装置 Download PDF

Info

Publication number
CN112288855A
CN112288855A CN202011180492.9A CN202011180492A CN112288855A CN 112288855 A CN112288855 A CN 112288855A CN 202011180492 A CN202011180492 A CN 202011180492A CN 112288855 A CN112288855 A CN 112288855A
Authority
CN
China
Prior art keywords
operator
model
eye
face
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011180492.9A
Other languages
English (en)
Inventor
张也弛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011180492.9A priority Critical patent/CN112288855A/zh
Publication of CN112288855A publication Critical patent/CN112288855A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本文提供了一种操作者眼睛注视模型的建立方法及装置,其中,方法包括:生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;根据各三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。本实施例能够省去红外摄像装置的使用,简化眼睛跟踪的方法,降低眼睛注视位置确定的成本。

Description

一种操作者眼睛注视模型的建立方法及装置
技术领域
本文涉及人眼追踪技术领域,尤其涉及一种操作者眼睛注视模型的建立方法及装置。
背景技术
眼动追踪技术,又称视线追踪技术,目前主要应用于网页布局优化、场景研究、人机交互、虚拟现实、临床医学等领域。视线追踪目前都是依赖于眼动仪设备来实现的。目前市场上有头戴式和遥测式眼动仪两类。头戴式眼动仪需要在头部佩带头盔或眼睛上佩带眼镜,给被试增加了一定的负担。遥测式眼动仪无需给被试佩带任何装置,对被试的干扰性小,可以检测到被试自然状态的眼动数据。
现有的头戴式眼动仪以及遥测式眼动仪均是利用红外摄像原理实现的,利用红外摄像头照向眼睛角膜,根据角膜发射的光线,确定高光点,并确定高光点与瞳孔之间的距离,进而根据高光点与瞳孔之间的距离确定眼睛的注视角度。
现有的眼球追踪技术主要基于瞳孔角膜反射法(Pupil Center CornealReflection,PCCR)实现,而PCCR技术需要用到红外光源以及红外摄像头,因此,具有设备复杂、费用高的缺陷。
PRRC技术依靠用红外线照射角膜,确定高光点,确定高光点与瞳孔之间的距离,确定人眼看向哪里,具有造价高,对设备精度要求高的问题。
发明内容
本文用于解决现有技术中人眼追踪的方式存在设备及计算方法复杂、费用高的问题。
为了解决上述技术问题,本文的第一方面提供一种操作者眼睛注视模型的建立方法,包括:
生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
根据各三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;
根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
本文进一步实施例中,生成包含操作者面部、眼球以及所看向不同目光靶点的三维空间模型,包括:
操作者看向目光靶点阵列中各目光靶点时,利用三维扫描仪扫描操作者面部及目光靶点;
根据扫描数据,生成包含操作者面部、眼球及所看向目光靶点的三维空间模型。
本文进一步实施例中,根据所有三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,包括:
在每一个三维空间模型中,确定相应视轴线、瞳孔中心点及虹膜边缘曲线;
将所有三维空间模型以操作者面部为基准进行重合,确定视轴线交点及特征点,其中,所述特征点为不随面部表情而动的点;
将所有三维空间模型中的瞳孔中心点进行连接,确定瞳孔中心点的运动轨迹曲面。
本文进一步实施例中,根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型,包括:
根据任一三维空间模型的视轴线、瞳孔中心点以及虹膜边缘曲线或根据所有三维空间模型的视轴线、瞳孔中心点以及虹膜边缘曲线加权平均后得到的视轴线、瞳孔中心点以及虹膜边缘曲线,生成眼球模型;
根据所述特征点、视轴线交点以及瞳孔中心点的运动轨迹曲面,生成面部模型。
本文进一步实施例中,根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型,包括:
设定所述眼球模型中的视轴线位于所述面部模型中的视轴线交点上;
设定所述眼球模型中瞳孔中心点位于所述面部模型中的瞳孔中心点的运动轨迹曲面上。
本文的第二方面提供一种模拟操作者眼睛注视物体的方法,包括:
利用前述任一实施例所述的操作者眼睛注视模型的建立方法预先建立所述操作者的操作者眼睛注视模型;
根据采集的所述操作者的图像,生成所述操作者眼睛注视模型与注视物体模型在内的虚拟空间;
根据所述虚拟空间,确定所述操作者眼睛注视模型中的视轴线交点与所述注视物体模型中被关注点之间的连接线;
将所述操作者眼睛注视模型中的视轴线旋转至与所述连接线重叠,从而完成模拟操作者眼睛注视物体。
本文的第三方面提供一种操作者眼睛注视模型的建立装置,包括:三维空间建立模块,用于生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
运动规律确定模块,用于根据各三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
第一模型建立模块,用于根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;
第二模型建立模块,用于根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
本文的第四方面提供一种模拟操作者眼睛注视物体的装置,包括:
建模模块,用于利用前述任一实施例所述的操作者眼睛注视模型的建立方法预先建立所述操作者的操作者眼睛注视模型;
采集模块,用于根据采集的所述操作者的图像,生成所述操作者眼睛注视模型与注视物体模型在内的虚拟空间;
处理模块,用于根据所述虚拟空间,确定所述操作者眼睛注视模型中的视轴线交点与所述注视物体模型中被关注点之间的连接线;
模拟模块,用于将操作者眼睛注视模型中的视轴线旋转至与连接线重叠,从而完成模拟操作者眼睛注视物体。
本文的第五方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现利用前述任一实施例所述的操作者眼睛注视模型的建立方法。
本文的第六方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有执行计算机程序,所述计算机程序被处理器执行时实现利用前述任一实施例所述的操作者眼睛注视模型的建立方法。
本文通过生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;根据各三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型,能够省去红外摄像装置的使用,简化眼睛跟踪的方法,降低眼睛注视位置确定的成本。
为让本文的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本文实施例操作者眼睛注视模型的建立方法的流程图;
图2示出了本文实施例三维空间模型建立过程的流程图;
图3示出了本文实施例操作者注视目光靶点的示意图;
图4示出了本文实施例三维点阵数字模型的示意图;
图5示出了本文实施例运动规律的确定过程流程图;
图6示出了本文实施例三维空间模型的示意图;
图7示出了本文实施例三维空间模型对应的视轴线重合的示意图;
图8示出了本文实施例三维空间模型对应的视轴线重合的局部放大图;
图9示出了本文实施例瞳孔中心点的运动轨迹的示意图;
图10示出了本文实施例操作者眼球模型的示意图;
图11A示出了本文实施例操作者面部模型的示意图;
图11B及图11C示出了本文实施例左眼及右眼处面部模型的局部示意图;
图12A示出了本文实施例操作者眼睛注视模型确定中间过程示意图;
图12B示出了本文实施例操作者眼睛注视模型示意图;
图13A示出了本文实施例模拟操作者眼睛注视物体的方法的流程图;
图13B示出了本文实施例操作者眼睛注视模型模拟眼睛注视物体的示意图;
图14示出了本文实施例操作者眼睛注视模型的建立装置的结构图;
图15示出了本文实施例模拟操作者眼睛注视物体的装置的结构图;
图16示出了本文实施例计算机设备的结构图。
附图符号说明:
300、三维扫描仪;
300’、目光靶点阵列;
410、操作者眼睛特征;
420、周围面部特征;
430、目光靶点特征;
601、602、瞳孔中心点;
603、目光靶点中心点;
604、605、直线(即视轴线);
701、702、视轴线交点;
1000、眼球模型;
1010、视轴线;
1020、瞳孔中心点;
1030、虹膜边缘曲线;
1110、特征点;
1120、视轴线交点;
1130、瞳孔中心点的运动轨迹曲面;
131、被关注点;
132、连接线;
1410、三维空间建立模块;
1420、运动规律确定模块;
1430、第一模型建立模块;
1440、第二模型建立模块;
1510、建模模块;
1520、采集模块;
1530、处理模块;
1540、模拟模块;
1602、计算机设备;
1604、处理器;
1606、存储器;
1608、驱动机构;
1610、输入/输出模块;
1612、输入设备;
1614、输出设备;
1616、呈现设备;
1618、图形用户接口;
1620、网络接口;
1622、通信链路;
1624、通信总线。
具体实施方式
下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。
本文提供的操作者眼睛注视模型的建立方法适用于终端控制领域,涉及到的终端包括但不限于智能终端、虚拟设备等。如图1所示,图1示出了操作者眼睛注视模型的建立方法,本实施例能够通过建立操作者眼睛注视模型的方式简化人眼追踪定位的方法,具体的,操作者眼睛注视模型的建立方法包括:
步骤110,生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
步骤120,根据所有三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
步骤130,根据操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定操作者的面部模型及眼球模型;
步骤140,根据操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
本实施例确定出的操作者眼睛注视模型能够模拟真实操作者眼球转动时眼球与面部之间相对位置关系,进而能够利用操作者眼睛注视模型根据操作者实时图像,识别出操作者注视位置(具体注视位置识别过程参见后续实施例),相较于现有技术中利用红外技术进行眼球注视位置定位的方法,具有简单、节约成本的优势。
本文一实施例中,如图2所示,上述步骤110生成包含操作者面部、眼球以及所看向不同目光靶点的三维空间模型,即操作者每看向一目光靶点,就会对应一三维空间模型,对于任一三维空间模型,其具体实现过程包括:
步骤210,操作者看向目光靶点阵列中各目光靶点时,利用三维扫描仪扫描操作者面部及目光靶点;
步骤220,根据扫描数据,生成包含操作者面部、眼球及所看向目光靶点的三维空间模型。
详细的说,步骤210中,为了后续能够便于确定虹膜边缘曲线,使用的三维扫描仪可以为色彩三维扫描仪。操作者可按预先设定的规律逐一看向目光靶点阵列中的目光靶点。目标靶点阵列中的目光靶点可按矩形、方形、圆形、三角形等排列,目光靶点的图案可以相同也可以不同,用于引导操作者眼睛看向目光靶点。如图3所示,将目光靶点的图案绘制成十字形状,该举例中目光靶点包括35个,每个目光靶点分别赋予不同的编号,例如301号目光靶点,302号目光靶点,303号目光靶点……335号目光靶点。
让操作者面部完全正对目光靶点阵列300’中各目光靶点的几何中心,即图3所示目光靶点十字中心位置,操作者保持头部不动,眼睛逐一看向不同位置的目光靶点。每当操作者眼睛看向某一个十字目光引导靶时,需要停留几秒,由三维扫描仪300从不同角度扫描操作者面部及所看向的目光靶点,得到三维点阵数字模型(即扫描数据),如图4所示,该三维点阵数字模型包括:操作者眼睛特征410及其周围面部特征420,以及目光靶点的特征430。因为现有的三维扫描仪扫描物体得到的三维点阵数字模型,相对于被扫面的真实模型的误差较小,所以理想状态下扫描得到的三维点阵数字模型可以近似还原真实操作者眼睛看向目光靶点中心瞬间的操作者眼睛、眼睛周围面部特征,以及目光靶点的形状,以及所述三者的空间位置关系。
根据扫描数据生成包含操作者面部、眼球及所看向目光靶点的三维空间模型,当操作者逐一看过这35个靶点时,会生成35个独立的三维空间模型。
为了便于后续调用三维空间模型的数据,三维空间模型保存于计算机的信息存储介质中,可根据目光靶点的名称顺序对三维空间模型进行命名,例如一号目光靶点的三维空间模型、二号目光靶点的三维空间模型、三号目光靶点的三维空间模型……,三十五号目光靶点的三维空间模型。
本文一实施例中,如图5所示,上述步骤120根据各视角三维的空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律包括:
步骤510,在每一三维空间模型中,确定视轴线、瞳孔中心点及虹膜边缘曲线;
步骤520,将所有三维空间模型中的操作者面部做为基准进行重合,确定视轴线交点及特征点,其中,所述特征点为不随面部表情而动的点;
步骤530,将所有三维空间模型中的瞳孔中心点进行连接,确定瞳孔中心点的运动轨迹曲面。
上述步骤510中,以其中一个三维空间模型为例,如图6所示,可按如下流程实施:
1)从该三维空间模型中确定左侧眼睛的瞳孔中心点601及右侧眼睛的瞳孔中心点602,具体实施时,先确定瞳孔的特征点,然后将瞳孔的特征点中最中心的点作为瞳孔中心点。
2)在瞳孔中心点601与该三维空间模型对应的目光靶点中心点603之间作直线604,在瞳孔中心点602与该三维空间模型对应的目光靶点中心点603之间作直线605,直线604及605为操作者眼睛注视目光靶点的注视中心线,即视轴线。操作者的眼睛看向任何角度时,操作者眼睛以及眼睛的视轴线的相对位置始终保持不变,并指向操作者所注视的物体。
3)从每一个三维空间模型中抽取虹膜边缘的特征点,根据虹膜边缘的特征点确定虹膜边缘曲线。
上述步骤520中,视轴线交点即为视轴线的旋转点,当操作者眼睛看向任何角度时,操作者的视轴线始终围绕视轴线交点进行转动,通过确定视轴线旋转点能够为后续定位操作者眼球模型及面部模型的相对位置关系提供依据。
具体实施时,先将所有三维扫描仪扫描得到的三维空间模型以三维模型中操作者面部为基准进行重合。提取操作者面部上带有明显特征且不随面部表情而动的特征点,这类特征点例如包括两个外眼角、两个内眼角、耳朵、鼻子、鼻梁等,可以构成简化的操作者面部,具体实施时,可通过人脸识别软件实现特征点的识别。如图7及图8所示,对重合后模型中的左眼视轴线604及右眼视轴线605作延长处理,根据是视轴线延长线相交最密集的区域确定视轴线交点701及702,视轴线交点可以为该区域中任意一点,或该区域的中心点,本文对此不作限定。
上述步骤530中,将三维空间模型中左右眼的瞳孔中心点分别进行拟合,确定左右眼的瞳孔中心点的运动轨迹曲面,具体的,对于每只眼睛,可用平滑的曲面将该只眼睛所有的瞳孔中心点连接成瞳孔中心点的运动轨迹曲面。如图9所示,瞳孔中心点的运动轨迹曲面为一类似矩形的曲面。瞳孔中心点的运动轨迹与操作者面部模型保持不变的位置关系,当操作者眼睛看向任何角度时,操作者的瞳孔中心点始终在瞳孔中心点运动轨迹曲线上运动,基于此,可以确定操作者眼球模型与操作者面部模型的位置关系,以模拟真实操作者眼球转动。
本文一实施例中,如图10、图11A、图11B及图11C所示,A及B分别表示左眼及右眼,上述步骤130根据操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定操作者的面部模型及眼球模型,包括:
根据任一三维空间模型的视轴线1010、瞳孔中心点1020以及虹膜边缘曲线1030或根据所有三维空间模型的视轴线、瞳孔中心点以及虹膜边缘曲线加权平均后得到的视轴线、瞳孔中心点以及虹膜边缘曲线,生成眼球模型;
根据特征点1110、视轴线交点1120以及瞳孔中心点的运动轨迹曲面1130,生成面部模型。
详细的说,眼球模型可由视轴线、瞳孔中心点及虹膜边缘曲线这三个特征组合表示。眼球模型内的特征保持形状和相对位置不变,用于模拟真实操作者眼睛。
面部模型可由特征点、视轴线交点以及瞳孔中心点的运动轨迹曲面这三个特征组合表示。面部模型中的特征点、视轴线交点以及瞳孔中心点的运动轨迹曲面形状及相对位置不变,用于模拟真实操作者面部。
本文一实施例中,如图12A及图12B所示,上述步骤140根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型,包括:
设定眼球模型1000中的视轴线1010位于面部模型中的视轴线交点1120上,如图12A所示;
设定眼球模型1000中瞳孔中心点1020位于面部模型中的瞳孔中心点的运动轨迹曲面1130上,如图12B所示。
本实施例能够使得操作者眼睛注视模型能够真实、准确的模式实际人眼注视。
本文一实施例中,还提供一种利用前述实施例建立的操作者眼睛注视模型模拟操作者眼睛注视物体的方法,具体的,如图13A及图13B所示,包括:
步骤1310,利用操作者眼睛注视模型的建立的方法,预先建立操作者的操作者眼睛注视模型;
步骤1320,根据采集的操作者的图像,生成操作者眼睛注视模型与注视物体模型在内的虚拟空间;
步骤1330,根据虚拟空间,确定操作者眼睛注视模型A中的视轴线交点与注视物体模型B中被关注点131之间的连接线132;
步骤1340,将所述操作者眼睛注视模型中的视轴线旋转至与所述连接线重叠,从而完成模拟操作者眼睛注视物体,如图13B所示。
详细的说,本文适用于智能终端控制、人机交互等应用场景,本文对适用的应用场景不做具体限定。
步骤1320采集的操作者图像为实时采集的面部图像,可将图像采集设备设置于操作者眼前的可穿戴设备上,从而获得操作者的图像。或是将图像采集设备设置于注视物体上,从而获得操作者的图像。
步骤1320中,例如可以采用激光定位的方式,在操作者图像采集设备的前置摄像头设置激光测距单元,从而可以获得物体与操作者的相对位置关系,也即获得操作者眼睛注视模型与注视物体的相对位置关系。或者,还可以利用图像采集设备采集得到的操作者图像,通过对图像的分析。例如根据操作者在图像中的大小或者根据普遍操作者的臂长等,通过计算得到操作者与注视物体的相对位置关系。又例如,根据采集的操作者图像,确定操作者面部及人眼特征信息(左外眼角、右外眼角、鼻尖、右侧额头与头发拐角形状相接处及虹膜边缘曲线),根据面部及人眼特征信息确定人眼特征像素处摄入图像采集设备的光线与图像采集设备镜头法线之间的角度,该角度用于表示操作者与注视物体之间的相对位置关系。
步骤1330中,注视物体模型中的被关注点为可以为注视物体上的任意一点,本文对此不作限定,操作者眼睛注视模型中视轴线交点与注视物体模型中被关注点之间的连接线可以确定操作者眼睛的视轴线。通过步骤1340将操作者眼睛注视模型中的视轴线旋转至与步骤1330确定出的连接线重叠,可以完成模拟操作者眼睛关注注视物体的被关注点。
本实施例适用于普通图像采集设备,能够省去红外摄像装置的使用,简化眼睛跟踪的方法,降低眼睛注视位置确定的成本。基于同一发明构思,本文还提供一种操作者眼睛注视模型的建立装置,如下面的实施例所述。由于操作者眼睛注视模型的建立装置解决问题的原理与操作者眼睛注视模型的建立方法相似,因此操作者眼睛注视模型的建立装置的实施可以参见操作者眼睛注视模型的建立方法的实施,重复之处不再赘述。
如图14所示,操作者眼睛注视模型的建立装置包括:
三维空间建立模块1410,用于生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
运动规律确定模块1420,用于根据各三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
第一模型建立模块1430,用于根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;
第二模型建立模块1440,用于根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
详细的说,操作者眼睛注视模型的建立装置中的功能模块均可以由专用或者通用芯片实现,还可以通过软件程序实现,本文对其实现方式不做限定。
本文一实施例中,如图15所示,还提供一种模拟操作者眼睛注视物体的装置,包括:
建模模块1510,用于利用操作者眼睛注视模型的建立的方法,预先建立所述操作者的操作者眼睛注视模型;
采集模块1520,用于根据采集的所述操作者的图像,生成所述操作者眼睛注视模型与注视物体模型在内的虚拟空间;
处理模块1530,用于根据虚拟空间,确定所述操作者眼睛注视模型中的视轴线交点与注视物体模型中被关注点之间的连接线;
模拟模块1540,用于将操作者眼睛注视模型中的视轴线旋转至与连接线重叠,从而完成模拟操作者眼睛注视物体。
本实施例提供的模拟操作者眼睛注视物体的装置,可以以软件或硬件的方式设置于普通终端设备上,能够省去红外摄像装置的使用,简化眼睛跟踪的方法,降低眼睛注视位置确定的成本。
本文一实施例中,还提供一种计算机设备,如图16所示,计算机设备1602可以包括一个或多个处理器1604,诸如一个或多个中央处理单元(CPU),每个处理单元可以实现一个或多个硬件线程。计算机设备1602还可以包括任何存储器1606,其用于存储诸如代码、设置、数据等之类的任何种类的信息。非限制性的,比如,存储器1606可以包括以下任一项或多种组合:任何类型的RAM,任何类型的ROM,闪存设备,硬盘,光盘等。更一般地,任何存储器都可以使用任何技术来存储信息。进一步地,任何存储器可以提供信息的易失性或非易失性保留。进一步地,任何存储器可以表示计算机设备1602的固定或可移除部件。存储器1606上存储有可在处理器1604上运行的计算机程序,处理器1604执行计算机程序时实现前述任一实施例所述的操作者眼睛注视模型的建立方法或模拟操作者眼睛注视物体的方法。在一种情况下,当处理器1604执行被存储在任何存储器或存储器的组合中的相关联的指令时,计算机设备1602可以执行相关联指令的任一操作。计算机设备1602还包括用于与任何存储器交互的一个或多个驱动机构1608,诸如硬盘驱动机构、光盘驱动机构等。
计算机设备1602还可以包括输入/输出模块1610(I/O),其用于接收各种输入(经由输入设备1612)和用于提供各种输出(经由输出设备1614))。一个具体输出机构可以包括呈现设备1616和相关联的图形用户接口1618(GUI)。在其他实施例中,还可以不包括输入/输出模块1610(I/O)、输入设备1612以及输出设备1614,仅作为网络中的一台计算机设备。计算机设备1602还可以包括一个或多个网络接口1620,其用于经由一个或多个通信链路1622与其他设备交换数据。一个或多个通信总线1624将上文所描述的部件耦合在一起。
通信链路1622可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路1622可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务器等的任何组合。
本文一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行前述任一实施例所述的操作者眼睛注视模型的建立方法或模拟操作者眼睛注视物体的方法。
本文一实施例中,还提供一种计算机可读指令,其中当处理器执行所述指令时,其中的程序使得处理器执行前述任一实施例所述的操作者眼睛注视模型的建立方法或模拟操作者眼睛注视物体的方法。
应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。
还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本文所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。
另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。

Claims (10)

1.一种操作者眼睛注视模型的建立方法,其特征在于,包括:
生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
根据所有三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;
根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
2.如权利要求1所述的方法,其特征在于,生成包含操作者面部、眼球以及所看向不同目光靶点的三维空间模型,包括:
操作者看向目光靶点阵列中各目光靶点时,利用三维扫描仪扫描操作者面部及目光靶点;
根据扫描数据,生成包含操作者面部、眼球及所看向目光靶点的三维空间模型。
3.如权利要求1所述的方法,其特征在于,根据所有三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,包括:
在每一个三维空间模型中,确定相应视轴线、瞳孔中心点及虹膜边缘曲线;
将所有三维空间模型以操作者面部为基准进行重合,确定视轴线交点及特征点,其中,所述特征点为不随面部表情而动的点;
将所有三维空间模型中的瞳孔中心点进行连接,确定瞳孔中心点的运动轨迹曲面。
4.如权利要求3所述的方法,其特征在于,根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型,包括:
根据任一三维空间模型的视轴线、瞳孔中心点以及虹膜边缘曲线或根据所有三维空间模型的视轴线、瞳孔中心点以及虹膜边缘曲线加权平均后得到的视轴线、瞳孔中心点以及虹膜边缘曲线,生成眼球模型;
根据所述特征点、视轴线交点以及瞳孔中心点的运动轨迹曲面,生成面部模型。
5.如权利要求4所述的方法,其特征在于,根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型,包括:
设定所述眼球模型中的视轴线位于所述面部模型中的视轴线交点上;
设定所述眼球模型中瞳孔中心点位于所述面部模型中的瞳孔中心点的运动轨迹曲面上。
6.一种模拟操作者眼睛注视物体的方法,其特征在于,包括:
利用权利要求1至5中任一项所述的方法,预先建立所述操作者眼睛注视模型;
根据采集的所述操作者的图像,生成所述操作者眼睛注视模型与注视物体模型在内的虚拟空间;
根据所述虚拟空间,确定所述操作者眼睛注视模型中的视轴线交点与所述注视物体模型中被关注点之间的连接线;
将所述操作者眼睛注视模型中的视轴线旋转至与所述连接线重叠,从而完成模拟操作者眼睛注视物体。
7.一种操作者眼睛注视模型的建立装置,其特征在于,包括:
三维空间建立模块,用于生成包含操作者面部、眼球及所看向不同目光靶点的三维空间模型;
运动规律确定模块,用于根据所有三维空间模型,确定所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律;
第一模型建立模块,用于根据所述操作者眼睛注视各目光靶点时眼球相对面部的转动规律,确定所述操作者的面部模型及眼球模型;
第二模型建立模块,用于根据所述操作者的面部模型和眼球模型,确定操作者眼睛注视模型。
8.一种模拟操作者眼睛注视物体的装置,其特征在于,包括:
建模模块,用于利用权利要求1至5中任一项所述的方法,预先建立所述操作者的操作者眼睛注视模型;
采集模块,用于根据采集的所述操作者的图像,生成所述操作者眼睛注视模型与注视物体模型在内的虚拟空间;
处理模块,用于根据所述虚拟空间,确定所述操作者眼睛注视模型中的视轴线交点与所述注视物体模型中被关注点之间的连接线;
模拟模块,用于将操作者眼睛注视模型中的视轴线旋转至与连接线重叠,从而完成模拟操作者眼睛注视物体。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行计算机程序,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法。
CN202011180492.9A 2020-10-29 2020-10-29 一种操作者眼睛注视模型的建立方法及装置 Pending CN112288855A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011180492.9A CN112288855A (zh) 2020-10-29 2020-10-29 一种操作者眼睛注视模型的建立方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011180492.9A CN112288855A (zh) 2020-10-29 2020-10-29 一种操作者眼睛注视模型的建立方法及装置

Publications (1)

Publication Number Publication Date
CN112288855A true CN112288855A (zh) 2021-01-29

Family

ID=74374019

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011180492.9A Pending CN112288855A (zh) 2020-10-29 2020-10-29 一种操作者眼睛注视模型的建立方法及装置

Country Status (1)

Country Link
CN (1) CN112288855A (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1787012A (zh) * 2004-12-08 2006-06-14 索尼株式会社 用于处理图像的方法、装置和计算机程序
CN101172034A (zh) * 2006-11-03 2008-05-07 上海迪康医学生物技术有限公司 一种眼球运动轨迹检测方法
US20080192990A1 (en) * 2007-02-09 2008-08-14 Kabushiki Kaisha Toshiba Gaze detection apparatus and the method of the same
US20080309671A1 (en) * 2007-06-18 2008-12-18 Brian Mark Shuster Avatar eye control in a multi-user animation environment
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US20150293588A1 (en) * 2014-04-10 2015-10-15 Samsung Electronics Co., Ltd. Eye gaze tracking method and apparatus and computer-readable recording medium
US20160202756A1 (en) * 2015-01-09 2016-07-14 Microsoft Technology Licensing, Llc Gaze tracking via eye gaze model
CN108334191A (zh) * 2017-12-29 2018-07-27 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置
CN108427503A (zh) * 2018-03-26 2018-08-21 京东方科技集团股份有限公司 人眼追踪方法及人眼追踪装置
US20180357790A1 (en) * 2017-06-09 2018-12-13 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method
CN109102734A (zh) * 2018-09-04 2018-12-28 北京精英智通科技股份有限公司 模拟驾驶训练***及方法
CN109885169A (zh) * 2019-02-25 2019-06-14 清华大学 基于三维眼球模型的眼球参数标定和视线方向跟踪方法
CN109947253A (zh) * 2019-03-25 2019-06-28 京东方科技集团股份有限公司 眼球追踪的模型建立方法、眼球追踪方法、设备、介质
CN209310751U (zh) * 2019-01-23 2019-08-27 新拓三维技术(深圳)有限公司 一种三维扫描仪
CN110196640A (zh) * 2019-05-31 2019-09-03 维沃移动通信有限公司 一种操作控制方法及终端
CN110585592A (zh) * 2019-07-31 2019-12-20 毕宏生 一种个性化电子针灸装置及其生成方法与生成装置
CN111176434A (zh) * 2018-11-13 2020-05-19 本田技研工业株式会社 视线检测装置、计算机可读存储介质以及视线检测方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1787012A (zh) * 2004-12-08 2006-06-14 索尼株式会社 用于处理图像的方法、装置和计算机程序
CN101172034A (zh) * 2006-11-03 2008-05-07 上海迪康医学生物技术有限公司 一种眼球运动轨迹检测方法
US20080192990A1 (en) * 2007-02-09 2008-08-14 Kabushiki Kaisha Toshiba Gaze detection apparatus and the method of the same
US20080309671A1 (en) * 2007-06-18 2008-12-18 Brian Mark Shuster Avatar eye control in a multi-user animation environment
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US20150293588A1 (en) * 2014-04-10 2015-10-15 Samsung Electronics Co., Ltd. Eye gaze tracking method and apparatus and computer-readable recording medium
US20160202756A1 (en) * 2015-01-09 2016-07-14 Microsoft Technology Licensing, Llc Gaze tracking via eye gaze model
US20180357790A1 (en) * 2017-06-09 2018-12-13 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method
CN108334191A (zh) * 2017-12-29 2018-07-27 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置
CN108427503A (zh) * 2018-03-26 2018-08-21 京东方科技集团股份有限公司 人眼追踪方法及人眼追踪装置
CN109102734A (zh) * 2018-09-04 2018-12-28 北京精英智通科技股份有限公司 模拟驾驶训练***及方法
CN111176434A (zh) * 2018-11-13 2020-05-19 本田技研工业株式会社 视线检测装置、计算机可读存储介质以及视线检测方法
CN209310751U (zh) * 2019-01-23 2019-08-27 新拓三维技术(深圳)有限公司 一种三维扫描仪
CN109885169A (zh) * 2019-02-25 2019-06-14 清华大学 基于三维眼球模型的眼球参数标定和视线方向跟踪方法
CN109947253A (zh) * 2019-03-25 2019-06-28 京东方科技集团股份有限公司 眼球追踪的模型建立方法、眼球追踪方法、设备、介质
CN110196640A (zh) * 2019-05-31 2019-09-03 维沃移动通信有限公司 一种操作控制方法及终端
CN110585592A (zh) * 2019-07-31 2019-12-20 毕宏生 一种个性化电子针灸装置及其生成方法与生成装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
丁宾等: "基于单张图像的三维人脸建模与表情动画", 《计算机工程与设计》 *
满毅等: "基于双眼模型的三维视线估计方法", 《机械科学与技术》 *

Similar Documents

Publication Publication Date Title
CN109086726B (zh) 一种基于ar智能眼镜的局部图像识别方法及***
JP6960494B2 (ja) 眼画像の収集、選択および組み合わせ
AU2019419376B2 (en) Virtual try-on systems and methods for spectacles
CN110187855B (zh) 近眼显示设备的避免全息影像阻挡视线的智能调节方法
WO2023011339A1 (zh) 视线方向追踪方法和装置
US11300784B2 (en) Multi-perspective eye acquisition
US11475592B2 (en) Systems and methods for determining an ear saddle point of a user to produce specifications to fit a wearable apparatus to the user's head
CN112099622B (zh) 一种视线追踪方法及装置
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
US20220365342A1 (en) Eyeball Tracking System and Method based on Light Field Sensing
Nitschke et al. I see what you see: point of gaze estimation from corneal images
CN112288855A (zh) 一种操作者眼睛注视模型的建立方法及装置
CN117058749B (zh) 一种多摄像头透视方法、装置、智能眼镜及存储介质
Lee et al. The eye tracking and gaze estimation system by low cost wearable devices
Lee et al. Low-cost Wearable Eye Gaze Detection and Tracking System
CN113760083A (zh) 操作者目光在终端设备屏幕上落点位置的确定方法及装置
WO2024059927A1 (en) Methods and systems for gaze tracking using one corneal reflection
Zhang et al. Integrated neural network-based pupil tracking technology for wearable gaze tracking devices in flight training
CN117406949A (zh) 终端设备屏幕调节方法及装置
CN115834858A (zh) 显示方法、装置、头戴显示设备及存储介质
CN117765049A (zh) 对齐用户表示
CN111208905A (zh) 一种多模组视线追踪方法、***和视线追踪设备
Wibirama et al. Realtime 3D Eyeball Visualization on Stereo Eye Movements Tracking System
Kikinis Design Considerations for a Computer-Vision-Enabled Ophthalmic Augmented Reality Environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210129

WD01 Invention patent application deemed withdrawn after publication