CN109271030B - 一种三维空间下注视点轨迹多维度比较方法 - Google Patents

一种三维空间下注视点轨迹多维度比较方法 Download PDF

Info

Publication number
CN109271030B
CN109271030B CN201811113784.3A CN201811113784A CN109271030B CN 109271030 B CN109271030 B CN 109271030B CN 201811113784 A CN201811113784 A CN 201811113784A CN 109271030 B CN109271030 B CN 109271030B
Authority
CN
China
Prior art keywords
similarity
point
track
fixation
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201811113784.3A
Other languages
English (en)
Other versions
CN109271030A (zh
Inventor
李拥军
张旭航
谢锦松
谢嵘
周玮康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201811113784.3A priority Critical patent/CN109271030B/zh
Publication of CN109271030A publication Critical patent/CN109271030A/zh
Application granted granted Critical
Publication of CN109271030B publication Critical patent/CN109271030B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种三维空间下注视点轨迹多维度比较方法。该方法先进行两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC‐VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;然后进行两组眼动数据滤波;注视点轨迹生成;进行轨迹矢量匹配:使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。本发明为三维视觉空间实际眼动轨迹相似性度量提供方便灵活和多层面多角度的分析比较结果。

Description

一种三维空间下注视点轨迹多维度比较方法
技术领域
本发明涉及视觉路径比较方法,特别是涉及一种三维空间下的注视点轨迹多维特征比较方法。
背景技术
虚拟现实技术与图像处理技术的发展,使得眼球追踪技术在虚拟现实领域也开始得到广泛应用。眼球追踪设备一般是嵌入在虚拟头戴显示器(如HTC-VICE、Oculus等)中的类似眼镜的模块,可以对人眼的瞳孔或者其他的特征通过各种方法进行采集,然后将采集到的数据作为输入,经过计算,以一定的方式映射到三维虚拟空间中。对这些映射到虚拟环境中的人眼焦点进行滤波、简化、删除等一系列扫视点处理后,得到人眼扫描路径。这些扫描路径代表了人在一段时间内视线的焦点以及移动方向,是很有价值的数据。
眼动路径比较分析在VR中对有着广泛应用需求,在三维虚拟博物馆中对参观者的注视点轨迹进行分析可以得到大家感兴趣的区域,对这些区域进行高精度渲染,简化处理那些不被人注意的区域,可以有效的节省硬件资源。对比分析医学情境中实习医生与资深专家观察病人器官时的扫描路径,可以发现不同经验的医生认知能力方面的差异,并将结果用以培训新人。目前眼动路径比较技术主要应用在二维空间。
一种方法是基于字符串匹配的注视轨迹比较法,将图像分成很多小块,每个小块标记上字符,根据注视点所处的小块的字符按照先后顺序用字符串的形式表达出注视点轨迹。通过对一个字符串***删除变为另外一个字符串所需要的步骤来定义两者的相似度。
另一种方法是基于不同注视轨迹注视点之间欧氏距离的比较法,该方法通过比较一条注视点轨迹中每一个注视点到另外一条轨迹中距离该点最近的注视点的距离,最后通过归一化求和得到两条轨迹相似度。
还有一种方法是基于方向矢量的注视轨迹比较法,这种方法使用矢量来表示每条注视点轨迹,然后根据矢量之间的关系定义两条注视点轨迹之间的相似度。
但是现有技术尚未能实现眼动路径比较技术在三维空间的应用。
发明内容
本发明的目的在于克服现有技术存在的不足,提供了针对三维场景的注视点轨迹多维度特征比较方法。
本发明目的通过如下技术方案实现:
一种三维空间下注视点轨迹多维度比较方法,包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:选择除了两组眼动数据起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔;若vi大于滤波阈值,则定义视角焦点i为异常点,舍去;
3)注视点轨迹生成:针对滤波后的视觉焦点,首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个视觉焦点合并形成一个注视点;顺序连接注视点形成注视点轨迹;
4)轨迹矢量匹配:对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;
5)多维特征比较:对轨迹矢量匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。
为进一步实现本发明目的,优选地,所述的滤波阈值设为扫描路径平均扫视速度的5倍。
优选地,所述的△t为采样频率的倒数;采样频率设定为24Hz,△t为1/24。
优选地,所述的速度阈值设为持续时间3帧;夹角阈值为10°。
优选地,所述的轨迹矢量匹配是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式
Figure GDA0002373435880000021
计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵,其中每一个元素为对应一个节点;根据Dijkstra算法得到最短路径,在前进方向按照从左往右,从上往下的顺序进行计算最短路径节点。
优选地,所述的注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量;
所述的扫视长度用来比较相互配对的两个矢量模的差值,是扫视振幅上的相似性度量。计算得到的相似性度量值按较长矢量段长度进行归一化处理;
所述的扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量;相似性计算结果进行归一化处理;
所述的扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值;相似性结果同样按进行归一化处理;
所述的注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量;用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。
优选地,所述的注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
本发明首先通过实验设备对两名受试者进行视觉焦点采集,然后输入要进行对比的两组原始数据;对原始数据进行滤波,设定阈值将一定范围内的视觉焦点聚合为注视点,舍弃扫视点,再对注视点轨迹进行简化,舍弃掉非转角处且持续时间短的注视点;最后将两条注视点轨迹在注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个维度进行对比分析,对不同的特征维度赋予不同的权值,最后得出注视点轨迹之间的相似度。
与现有技术相比,本发明具有如下优点和技术效果:
1)本发明以SMI公司的高性能眼球追踪模块为基础,以滤波、注视点合并、路径简化等方法将原始视觉焦点路径加工成注视点轨迹,减少了数据量且保留了特征信息;使用注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个特征维度进行相似度比较,以及对不同的特征赋予不同的权重,确保了相似度结果的可靠性。
2)本发明将传统的基于二维图像的路径比较方法进行综合改进并应用到三维领域,为快速发展的虚拟现实以及眼球追踪领域提供了一个新的实验思路,能够在显著性计算、认知心理学、军事、医学等很多领域得到应用。
3)相比于基于字符串匹配的注视轨迹比较法,在本发明中,由于没有将视觉场景划分为多个区域,而是采用矢量之间的空间几何特性来对比,能够将更多地细节信息考虑进去,区分轨迹间细微的差别,同时将注视点持续时间考虑了进来,使得轨迹包含的信息更加多维立体。
4)相比于基于不同注视轨迹注视点之间欧氏距离的比较法,在本发明中,因为使用了注视轨迹矢量间的匹配方法,将注视轨迹的时间特征和空间特征都考虑了进去,注视轨迹的行进顺序将很大程度影响相似度结果;匹配的时候会产生匹配度,那么不仅将相似的部分进行了计算,同时对差异的部分也进行了计算。
5)相比基于方向矢量的注视轨迹比较法,在本发明中,将方向矢量拓展到三维视觉空间,并在矢量序列的基础上添加了注视点序列、注视时间序列,能够对三维空间下的注视点轨迹进行更加详细地描述。
附图说明
图1为本发明整体方案流程图;
图2为本发明实施例滤波算法效果示意图;
图3为本发明实施例对视觉焦点加工成注视点及路径简化示意图;
图4为本发明实施例中选取的两条注视轨迹;
图5为本发明实施例对图4中路径进行匹配的结果;
图6为本发明实施例路径匹配中所使用到的特征维度;
图7为本发明实施例两个不同的注视点轨迹在不同特征维度上的相似性评分以及总体相似度情况图。
具体实施方式
为更好地理解本发明,下面结合附图和实施方式以及具体场景对本发明作进一步的说明,但本发明的实施例方式不限如此。
实施例
为了能够对人类在三维虚拟现实空间中观察时候的眼动数据进行分析对比,以下提供一种三维空间下注视点轨迹多维度比较方法。
如图1所示,一种三维空间下注视点轨迹多维度比较方法,具体包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:如图2所示,由于采样误差等原因,使得一些不真实的注视焦点坐标被设备采集进来,这些焦点坐标往往是一些偏离实际扫描路径很远的坐标点,使用基于扫视速度的滤波算法可以有效减少这些异常视觉焦点。滤波阈值可以设定为扫描路径平均扫视速度的5倍。具体方式是首先选择除了起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔,△t可以为采样频率的倒数。使用路径生成时间除视觉焦点个数得到整条扫描路径的平均扫视速度
Figure GDA0002373435880000051
Figure GDA0002373435880000052
则定义视角焦点i为异常点,舍去。
3)注视点轨迹生成:如图3所示,针对滤波后的视觉焦点,要将视觉焦点路径加工成注视点轨迹,这里采用的是邻域阈值范围视觉焦点合并法,该方法具体是:对于处于一定邻域范围内的视觉焦点,将其合并称为注视点。视觉焦点合并首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个点加入一个注视点集合,以此类推直到没有点可以进入这个集合;该集合就形成一个注视点。速度阈值可以设定为持续时间小于3帧。具体步骤为:计算每一个视觉焦点相邻两条矢量的夹角以及该注视点的持续时间。若持续时间小于设定的速度阈值,且夹角小于10°,则去掉该点,形成图4所示三维空间中两组注视点轨迹。
4)对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,然后使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;具体是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式
Figure GDA0002373435880000053
计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵如表1所示,其中每一个元素为对应一个节点,按顺序共有9个节点。
表1矩阵M(i,j)
v<sub>1</sub> v<sub>1</sub> v<sub>3</sub>
u<sub>1</sub> 0.04 0.49 0.15
u<sub>2</sub> 0.61 0.38 0.71
u<sub>3</sub> 0.36 0.55 0.41
如图5所示,根据Dijkstra算法得到最短路径,在表1中的前进方向按照从左往右,从上往下的顺序进行。最终计算除了最短路径即节点1→节点5→节点9,路径为图中虚线部分,对应的下标分别为(1,1)、(2,2)、(3,3),为最终二条路径的匹配矢量序列。
5)多维特征比较:如图6所示,对匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。其中:
注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量。
扫视长度主要用来比较相互配对的两个矢量模的差值,是一种扫视振幅上的相似性度量。由此计算得到的相似性度量值按较长矢量段长度进行归一化处理。
扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量。相似性计算结果进行归一化处理。
扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值。相似性结果同样进行归一化处理。
注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量。用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。该方法避免了AOIs使用中可能出现的量化噪声。相似性计算结果按三维空间体对角线做归一化处理。
对于相互配对的矢量间的长度、矢量前进方向、相对于上一条矢量的夹角、矢量之间的距离、矢量两端注视点持续时间分别计算相似度,每种相似度相对于整体进行归一化。图7为本实施例两个不同的注视点轨迹在不同特征维度上的相似性评分以及总体相似度,总体相似度由每个特征的相似度加权求和得到,权重可以根据需求进行调节,本实施例为注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
有上述可见,本实施例能够实现对三维空间中产生的人眼注视点轨迹进行整理分析,从多种特征维度进行比较得到两条注视点轨迹的相似度。
本发明以SMI公司的高性能眼球追踪模块为基础,以滤波、注视点合并、路径简化等方法将原始视觉焦点路径加工成注视点轨迹,减少了数据量且保留了特征信息;使用注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个特征维度进行相似度比较,以及对不同的特征赋予不同的权重,确保了相似度结果的可靠性。
本发明将传统的基于二维图像的路径比较方法进行综合改进并应用到三维领域,为快速发展的虚拟现实以及眼球追踪领域提供了一个新的实验思路,能够在显著性计算、认知心理学、军事、医学等很多领域得到应用。
相比于基于字符串匹配的注视轨迹比较法,在本发明中,由于没有将视觉场景划分为多个区域,而是采用矢量之间的空间几何特性来对比,能够将更多地细节信息考虑进去,区分轨迹间细微的差别,同时将注视点持续时间考虑了进来,是的轨迹包含的信息更加多维立体。
相比于基于不同注视轨迹注视点之间欧氏距离的比较法,在本发明中,因为使用了注视轨迹矢量间的匹配方法,将注视轨迹的时间特征和空间特征都考虑了进去,注视轨迹的行进顺序将很大程度影响相似度结果;匹配的时候会产生匹配度,那么不仅将相似的部分进行了计算,同时对差异的部分耶进行了计算。
相比基于方向矢量的注视轨迹比较法,在本发明中,将方向矢量拓展到三维视觉空间,并在矢量序列的基础上添加了注视点序列、注视时间序列,能够对三维空间下的注视点轨迹进行更加详细地描述。
本行业技术人员应该了解,本发明不受实施例的限制。凡在本发明的精神和原则之内所做的任何修改,等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种三维空间下注视点轨迹多维度比较方法,其特征在于包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:选择除了两组眼动数据起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔;若vi大于滤波阈值,则定义视角焦点i为异常点,舍去;
3)注视点轨迹生成:针对滤波后的视觉焦点,首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个视觉焦点合并形成一个注视点;顺序连接注视点形成注视点轨迹;
4)轨迹矢量匹配:对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;
5)多维特征比较:对轨迹矢量匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。
2.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的滤波阈值设为扫描路径平均扫视速度的5倍;使用路径生成时间除视觉焦点个数得到整条扫描路径的平均扫视速度
Figure FDA0002373435870000011
3.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的△t为采样频率的倒数;采样频率设定为24Hz,△t为1/24。
4.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的速度阈值设为持续时间3帧;夹角阈值为10°。
5.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的轨迹矢量匹配是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式
Figure FDA0002373435870000021
计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵,其中每一个元素为对应一个节点;根据Dijkstra算法得到最短路径,在前进方向按照从左往右,从上往下的顺序进行计算最短路径节点。
6.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量;
所述的扫视长度用来比较相互配对的两个矢量模的差值,是扫视振幅上的相似性度量;计算得到的相似性度量值按较长矢量段长度进行归一化处理;
所述的扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量;相似性计算结果进行归一化处理;
所述的扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值;相似性结果同样按进行归一化处理;
所述的注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量;用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。
7.根据权利要求6所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
CN201811113784.3A 2018-09-25 2018-09-25 一种三维空间下注视点轨迹多维度比较方法 Expired - Fee Related CN109271030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811113784.3A CN109271030B (zh) 2018-09-25 2018-09-25 一种三维空间下注视点轨迹多维度比较方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811113784.3A CN109271030B (zh) 2018-09-25 2018-09-25 一种三维空间下注视点轨迹多维度比较方法

Publications (2)

Publication Number Publication Date
CN109271030A CN109271030A (zh) 2019-01-25
CN109271030B true CN109271030B (zh) 2020-12-22

Family

ID=65197355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811113784.3A Expired - Fee Related CN109271030B (zh) 2018-09-25 2018-09-25 一种三维空间下注视点轨迹多维度比较方法

Country Status (1)

Country Link
CN (1) CN109271030B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348296B (zh) * 2019-05-30 2022-04-12 北京市遥感信息研究所 一种基于人机融合的目标识别方法
CN112446012A (zh) * 2019-08-28 2021-03-05 南京深视光点科技有限公司 眼球追踪解锁***及其实施方法
CN111309144B (zh) * 2020-01-20 2022-02-01 北京津发科技股份有限公司 三维空间内注视行为的识别方法、装置及存储介质
CN113660477A (zh) * 2021-08-16 2021-11-16 吕良方 一种vr眼镜及其图像呈现方法
CN113827238A (zh) * 2021-09-02 2021-12-24 苏州中科先进技术研究院有限公司 基于虚拟现实和眼动信息的情绪评估方法、装置
CN114022642B (zh) * 2021-10-08 2022-07-19 北京津发科技股份有限公司 时空行为轨迹采集、生成方法、装置、设备、***及存储介质
CN115686199B (zh) * 2022-10-11 2023-05-23 北京津发科技股份有限公司 一种群体眼动轨迹生成方法、装置、计算设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749991A (zh) * 2012-04-12 2012-10-24 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012157177A1 (ja) * 2011-05-19 2012-11-22 パナソニック株式会社 輻輳能力判定装置及びその方法
WO2014186620A1 (en) * 2013-05-15 2014-11-20 The Johns Hopkins University Eye tracking and gaze fixation detection systems, components and methods using polarized light
MX2016004899A (es) * 2013-10-17 2017-01-18 Children's Healthcare Of Atlanta Inc Metodos para evaluar el desarrollo de bebes y niños via rastreo ocular.
CN106681484B (zh) * 2015-11-06 2019-06-25 北京师范大学 结合眼动跟踪的图像目标分割***
US10372591B2 (en) * 2016-09-07 2019-08-06 International Business Machines Corporation Applying eye trackers monitoring for effective exploratory user interface testing
CN108345386A (zh) * 2018-02-09 2018-07-31 万间网络科技(天津)有限公司 基于虚拟现实技术实现施工安全考核的方法和装置
CN108932473A (zh) * 2018-05-28 2018-12-04 中国建设银行股份有限公司 眼动轨迹特征提取方法、装置和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749991A (zh) * 2012-04-12 2012-10-24 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法

Also Published As

Publication number Publication date
CN109271030A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
CN109271030B (zh) 一种三维空间下注视点轨迹多维度比较方法
Song et al. Richly activated graph convolutional network for robust skeleton-based action recognition
Hu et al. Sgaze: A data-driven eye-head coordination model for realtime gaze prediction
Kasprowski et al. Guidelines for the eye tracker calibration using points of regard
CN110544301A (zh) 一种三维人体动作重建***、方法和动作训练***
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
Kumar et al. Indian sign language recognition using graph matching on 3D motion captured signs
Bawa et al. The saras endoscopic surgeon action detection (esad) dataset: Challenges and methods
Chen et al. Measurement of body joint angles for physical therapy based on mean shift tracking using two low cost Kinect images
Hori et al. Silhouette-based synthetic data generation for 3D human pose estimation with a single wrist-mounted 360° camera
Xu et al. Self-supervised monocular depth estimation with 3-d displacement module for laparoscopic images
Mousas et al. Data-driven motion reconstruction using local regression models
Lin et al. Representative body points on top-view depth sequences for daily activity recognition
Ting et al. Kinect-based badminton movement recognition and analysis system
Yashas et al. Hand gesture recognition: a survey
Ngo et al. Quantitative analysis of facial paralysis based on three-dimensional features
Rodríguez et al. Nr-slam: Non-rigid monocular slam
Karthik et al. Automated Home-Based Physiotherapy
Xu et al. Beyond two-stream: Skeleton-based three-stream networks for action recognition in videos
Nguyen et al. Vision-based global localization of points of gaze in sport climbing
CN106910225A (zh) 超声波多普勒影像之分群、噪声抑制及可视化方法
Khajarian et al. Image-based Live Tracking and Registration for AR-Guided Liver Surgery Using Hololens2: A Phantom Study
Ngô et al. Deception detection by 2d-to-3d face reconstruction from videos
Saaidia et al. Face detection by neural network trained with Zernike moments
Vujić et al. A method for laser rangefinder reticle position calibration in a multi-sensor imaging system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Li Yongjun

Inventor after: Zhang Xuhang

Inventor after: Xie Jinsong

Inventor after: Xie Rong

Inventor after: Zhou Weikang

Inventor before: Li Yongjun

Inventor before: Xie Jinsong

Inventor before: Xie Rong

Inventor before: Zhou Weikang

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201222