CN108415955A - 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法 - Google Patents

一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法 Download PDF

Info

Publication number
CN108415955A
CN108415955A CN201810116386.0A CN201810116386A CN108415955A CN 108415955 A CN108415955 A CN 108415955A CN 201810116386 A CN201810116386 A CN 201810116386A CN 108415955 A CN108415955 A CN 108415955A
Authority
CN
China
Prior art keywords
point
interest
model
eye movement
blinkpunkt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810116386.0A
Other languages
English (en)
Other versions
CN108415955B (zh
Inventor
张桦
戴美想
戴国骏
周文晖
王彧
张悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201810116386.0A priority Critical patent/CN108415955B/zh
Publication of CN108415955A publication Critical patent/CN108415955A/zh
Application granted granted Critical
Publication of CN108415955B publication Critical patent/CN108415955B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。

Description

一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法
技术领域
本发明涉及了一种利用眼动仪收集人眼观察三维模型时眼动注视点移动轨迹,对轨迹进行分析处理,建立三维模型的感兴趣点数据库的方法。
背景技术
目前作为参考量较大的三维模型的感兴趣点数据库,是来自于Helin Dutagaci等人2012年发表在Vis Comput的“Evaluation of 3D interest point detectiontechniques via human-generated ground truth”一文。该文的实验是将24个三维模型显示在一个网站的窗口上,23名实验者可以通过窗口设置的按键来获取来自模型不同角度的视图,实验者经过观察后可以通过鼠标标注自己对于模型感兴趣的区域。收集实验者标记的数据,通过算法剔除伪兴趣点,整合出三维模型的感兴趣点数据集。
该数据库通过这种方式获得的感兴趣点并不具有客观性。因为实验者通过长时间观察数据,选取的角点经过大脑思考带有强烈的主观性。这与模型进入人眼视线,第一时间引起人类视觉注意的兴趣点不同。本发明通过眼动注视点移动轨迹建立感兴趣点数据库,能真实反映出人类观察模型时的感兴趣点。
发明内容
鉴于目前的三维模型兴趣点数据集不能反映出人类在观察模型时的真实情况。本发明提出一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。利用本方法建立的感兴趣点数据库能反映出人眼在观察模型时的真实情况,数据更加真实可靠。
为实现上述目的,本发明通过以下技术方案予以实现,具体包括如下4个步骤:
步骤(1)收集三维模型并制作成实验所需的视频素材。
步骤(2)将视频放在眼动仪上让实验者观看,获得眼动注视点的数据,并通过相应软件合成附带眼动注视点的视频。
步骤(3)将附带眼动注视点的视频通过动点提取和三维映射算法,生成附带眼动注视点的三维模型。
步骤(4)对实验者的眼动注视点做分析,对所有实验者的眼动注视点进行整理,得到三维模型感兴趣点集合,舍弃一些不合适,异常的数据,并对感兴趣点进行合并,建立感兴趣点数据库。
所述步骤(1)制作视频素材的方法如下:
选择24个斯坦福三维模型库和SHREC2007模型数据库中模型,这些三维模型被广泛用于三维模型研究的标准库。利用MATLAB为每个三维模型保存两组数据,一组是三维模型围绕X轴依次间隔旋转60度:分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;一组是三维模型围绕Y轴依次间隔旋转60度:分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;选择Z轴方向作为视点,将12个角度上的模型投影在XOY平面,由此一个模型将得到12张二维的投影图片。
三维模型旋转的公式以及投影于XOY平面的公式。
围绕X轴旋转:
z′=zcosθ-xsinθ
x′=xcosθ+zsinθ
y′=y
围绕Y轴旋转:
z′=zcosθ-ysinθ
x′=x
y′=ycosθ+zsinθ
平行投影的公式:
x′=x
y′=y
z′=0
利用视频编辑器Movie Maker,每隔1.5秒变换一张图片,将每个模型的12张二维图片合成一段短视频,并在每两个模型间***十秒钟空白图片作为休息时间,将6个模型合成一个长视频。24个模型共制成4个长视频。
所述步骤(2)中让实验者进行实验的前提条件如下:
a)图像的显示设备放置在左侧,实验者坐在图像的显示设备正前方,并且保持距离为70cm,同时实验者保持眼睛与屏幕高度一致,能够平视屏幕中心。
b)操作人员在右侧,用电脑控制视频播放在显示设备上,操作人员和实验者之间用隔光挡板隔离。
c)实验者的四周需要用隔光挡板隔离,实验室周围使用隔光窗帘,防止其他光源对实验者造成实验干扰。
d)保持实验室环境声音不超过30dB,创造较为理想的安静环境,防止其他声源对实验者造成实验干扰。
所述步骤(2)中具体实验的如下:
首先使用iViewX软件对测试者的眼睛位置进行调整。在Eye Image框出现实验者瞳孔影像后,操作者需要通过调整屏幕与实验者相对位置,使得屏幕上的瞳孔影像能够居中稳定呈现。其中,实验者头部轻微移动不会对投影造成影响,对于由于眨眼引起的影像丢失也能很快恢复。
然后利用Experiment Center软件收集实验者观看视频时眼动注视点移动轨迹。需要校准实验者眼睛的视线,当校准完后,会出现校准反馈即X、Y方向上的偏差,当偏差X,Y都小于1.0的时候,则可进入实验,之后会出现模型视频播放;
最后利用BeGaze分析软件将素材视频和眼动注视点追踪轨迹进行合成,得到附带实验者眼动注视点轨迹的模型视频。
所述步骤(3)通过将眼动仪获取的附带实验者眼动注视点轨迹的模型视频按帧剪切,通过提取动点算法获得每张图片上的眼动注视点坐标,再通过三维映射算法将动点在图片上的二维坐标转成空间上的三维坐标。
首先进行二维眼动注视点的坐标提取,利用FFmpeg Build软件将合成的视频按帧截成图片获得二维图片;获取图片中的眼动注视点颜色,眼动注视点移动轨迹通过眼动注视点在模型上移动的形式体现,通过上一个步骤中的软件设置,本实验眼动注视点呈橘色。我们在这称它为动点颜色,并且设置颜色容差值;接着又设置二维数组,并对其进行初始化设值为1,与二维图片相比较,如果与动点颜色比较,得到的RGB三个值都在容差范围内,满足条件;否则该点不是我们要找的眼动点。如果没有点满足条件,则感兴趣点标志置0,反之置1。将满足条件的点放入point数组中,分别需要记录满足条件的点最大最小的行和列,并取最大最小的行和列坐标的中值,即为所求感兴趣点坐标(row,rank),输出感兴趣点坐标点。
再通过三维映射算法获得附带眼动注视点的三维模型。因为模型的二维图片是通过投影在三维的XOY平面上获得的,由投影的性质我们可以看出二维和三维的坐标点相互之间存在联系。首先使模型投影在XOY平面,因此x,y坐标值是确定的,而z坐标则是取模型表面离视点距离最近的顶点,该顶点在三维模型上的z坐标值就是眼动注视点在三维模型上的z坐标值,如果模型表面上不存在该顶点则选择距离在阈值范围内的模型顶点的坐标值作为眼动注视点的坐标值,如此确定三维坐标(x,y,z)。并且,因为准备图片素材的时候将模型绕坐标轴进行旋转,所以现在需要将它反向旋转相应的角度。最后获得利用眼动仪收集的感兴趣点的数据。
步骤(4)对实验者的实验数据结果做相应的分析,以此把所有提取的眼动注视点进行整理,得到一个感兴趣点集合的数据库,舍弃一些不合适,异常的数据,并对感兴趣点适当地进行合并,整合方法如下:
在构建评估感兴趣点算子的评价库的时候,选择两个标准,一个是感兴趣区域的半径,另一个是在该区域内动点数量。将感兴趣区域的半径设为σdM,其中dM代表模型直径,即模型M的所有顶点之间的最大欧几里得距离,σ代表常系数。将测量距离小于2σdM的所有感兴趣点划分在同一个区域,如果区域中不同的实验者的数据量少于n,则丢弃该区域的感兴趣点。从每个区域中以下述的标准选出一个点作为代表,把它作为一个标准的感兴趣点,标准为:这些被选定为标准的感兴趣点需要满足它与其所在的区域内所有其他的感兴趣点几何距离之和最小。注意,如果两个区域的感兴趣点出现重叠,这个情况也是合理的。如果两个区域之间的距离小于2σdM,那么两个区域中点数较少的代表将从评价标准的感兴趣点集合中丢弃,将区域中点数较多的代表作为标准的感兴趣点。我们用参数n和σ表示感兴趣点标准库,即GM(n,σ)表示为特定模型M的感兴趣点数据集。这两个参数对应的值决定了感兴趣点标准库。当n值取得相应较高时,随着σ的增加,将会有更多的动点落在这个兴趣区域内,因为不是所有的志愿者都选择某个模型的细节作为感兴趣点,而σ的增加接受更多的标记点的本地局部变化,所以认为σ的变化是合理的。但是,随着σ的进一步增加,它所定义的区域往往会包含不同的兴趣区域,因此在不同结构上标记的紧密感兴趣点开始合并。给出的感兴趣点评价标准库的平均数量会随着n和σ的变化而变化的。
本发明有益效果如下:
本发明提出的建立感兴趣点数据库的方法更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,这样可以减少模型重建的工作量和存储量。
附图说明
图1是数据库设计流程图。
图2是视频时序图。
图3是实验环境图。
图4二维眼动提取的流程图。
图5是数据点整合流程图。
具体实施方式
以下结合附图对本发明作进一步的说明。
一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法的设计流程如图1所示,具体包括如下4个步骤:
步骤(1)首先需要收集三维数据库模型,并制作实验所需的素材。具体操作如下:
选择24个斯坦福三维模型库和SHREC2007模型数据库中模型,这些三维模型被广泛用于三维模型研究的标准库。利用MATLAB为每个三维模型保存两组数据,一组是三维模型围绕X轴依次旋转60度,分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;一组是三维模型围绕Y轴依次旋转60度,分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;选择Z轴方向作为视点,将12个角度上的模型投影在XOY平面,由此一个模型将得到12张二维的投影图片。以下是三维模型旋转的公式以及投影于XOY平面的公式。
围绕X轴旋转:
z′=zcosθ-xsinθ
x′=xcosθ+zsinθ
y′=y
围绕Y轴旋转:
z′=zcosθ-ysinθ
x′=x
y′=ycosθ+zsinθ
平行投影的公式:
x′=x
y′=y
z′=0
利用视频编辑器Movie Maker,每隔1.5秒变换一张图片,将每个模型的12张二维图片合成一段短视频,并在每两个模型间***十秒钟空白图片作为休息时间,将6个模型合成一个长视频。24个模型共制成4个长视频,时序图如图2所示。
步骤(2)将视频放到眼动仪上,让实验者观看,利用眼动仪和相应的软件获取实验数据,如图3所示。
具体实验条件如下:
a)图像的显示设备放置在左侧,实验者坐在图像的显示设备正前方,并且保持距离为70cm,同时实验者保持眼睛与屏幕高度一致,能够平视屏幕中心。
b)操作人员在右侧,用电脑控制视频播放在显示设备上,操作人员和实验者之间用隔光挡板隔离。
c)实验者的四周需要用隔光挡板隔离,实验室周围使用隔光窗帘,防止其他光源对实验者造成实验干扰。
d)保持实验室环境声音不超过30dB,创造较为理想的安静环境,防止其他声源对实验者造成实验干扰。
使用iViewX软件对测试者的眼睛位置进行调整。在Eye Image框出现实验者瞳孔影像后,操作者需要通过调整屏幕与实验者相对位置,使得屏幕上的瞳孔影像能够居中稳定呈现。其中,实验者头部轻微移动不会对投影造成影响,对于由于眨眼引起的影像丢失也能很快恢复。然后利用Experiment Center软件收集实验者观看视频时眼动注视点移动轨迹。我们需要校准实验者眼睛的视线,当校准完后,会出现校准反馈即X、Y方向上的偏差,当偏差X,Y都小于1.0的时候,则可进入实验,屏幕播放模型视频;最后利用BeGaze分析软件,该软件将素材视频和眼动注视点追踪轨迹进行合成,得到附带实验者眼动注视点轨迹的视频。
步骤(3)将眼动仪获取的附带实验者眼动注视点轨迹的视频按帧剪切,提取每张图片上的眼动注视点坐标,通过映射将动点在图片上的二维坐标转成空间上的三维坐标。具体操作分如下两步:
1、二维眼动注视点的坐标提取
眼动注视点的提取流程如图4所示。首先利用FFmpeg Build软件将合成的视频按帧截成图片获得二维图片;获取图片中的动点颜色,眼动注视点移动轨迹通过动点在模型上移动的形式体现,通过上一个步骤中的软件设置,本实验动点呈橘色。我们在这称它为动点颜色,并且设置颜色容差值;接着又设置二维数组,并对其进行初始化设值为1,与二维图片相比较,如果与动点颜色比较,得到的RGB三个值都在容差范围内,满足条件;否则该点不是我们要找的眼动点。如果没有点满足条件,则感兴趣点标志置0,反之置1。将满足条件的点放入point数组中,分别需要记录满足条件的点最大最小的行和列,并取最大最小的行和列坐标的中值,即为所求感兴趣点坐标(row,rank),输出感兴趣点坐标点。
2、三维映射
模型的二维图片是通过投影在三维的XOY平面上获得的,由投影的性质我们可以看出二维和三维的坐标点相互之间存在联系。首先使模型投影在XOY平面,因此x,y坐标值是确定的,而z坐标则是取模型表面离视点距离最近的顶点,该顶点在三维模型上的z坐标值就是眼动注视点在三维模型上的z坐标值,如果模型表面上不存在该顶点则选择距离在阈值范围内的模型顶点的坐标值作为眼动注视点的坐标值,如此确定三维坐标(x,y,z)。并且,因为准备图片素材的时候将模型绕坐标轴进行旋转,所以现在需要将它反向旋转相应的角度。最后获得利用眼动仪收集的感兴趣点的数据模型。
步骤(4)对实验者的实验数据结果做相应的分析,以此把所有提取的眼动注视点进行整理,得到一个感兴趣点集合的数据库,舍弃一些不合适,异常的数据,并对感兴趣点适当地进行合并,数据的整合流程如图5所示,就可得到利用基于眼动注视点移动轨迹的感兴趣点数据库。具体操作如下:
在构建评估感兴趣点算子的评价库的时候,选择两个标准,一个是感兴趣区域的半径,另一个是在该区域内动点数量。将感兴趣区域的半径设为σdM,其中dM代表模型直径,即模型M的所有顶点之间的最大欧几里得距离,σ代表常系数。将测量距离小于2σdM的所有感兴趣点划分在同一个区域,如果区域中不同的实验者的数据量少于n,则丢弃该区域的感兴趣点。从每个区域中以下述的标准选出一个点作为代表,把它作为一个标准的感兴趣点,标准为:这些被选定为标准的感兴趣点需要满足它与其所在的区域内所有其他的感兴趣点几何距离之和最小。注意,如果两个区域的感兴趣点出现重叠,这个情况也是合理的。如果两个区域之间的距离小于2σdM,那么两个区域中点数较少的代表将从评价标准的感兴趣点集合中丢弃,将区域中点数较多的代表作为标准的感兴趣点。我们用参数n和σ表示感兴趣点标准库,即GM(n,σ)表示为特定模型M的感兴趣点数据集。这两个参数对应的值决定了感兴趣点标准库。当n值取得相应较高时,随着σ的增加,将会有更多的动点落在这个兴趣区域内,因为不是所有的志愿者都选择某个模型的细节作为感兴趣点,而σ的增加接受更多的标记点的本地局部变化,所以认为σ的变化是合理的。但是,随着σ的进一步增加,它所定义的区域往往会包含不同的兴趣区域,因此在不同结构上标记的紧密感兴趣点开始合并。给出的感兴趣点评价标准库的平均数量会随着n和σ的变化而变化的。

Claims (6)

1.一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于包括如下步骤:
步骤(1)收集三维模型并制作成实验所需的视频素材;
步骤(2)将视频放在眼动仪上让实验者观看,获得眼动注视点的数据,并通过相应软件合成附带眼动注视点的视频;
步骤(3)将附带眼动注视点的视频通过动点提取和三维映射算法,生成附带眼动注视点的三维模型;
步骤(4)对实验者的眼动注视点做分析,对所有实验者的眼动注视点进行整理,得到三维模型感兴趣点集合,舍弃集合中异常的数据,然后对感兴趣点进行合并,建立感兴趣点数据库。
2.根据权利要求1所述的一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于步骤(1)制作视频素材的方法如下:
选择24个斯坦福三维模型库和SHREC2007模型数据库中模型,这些三维模型被广泛用于三维模型研究的标准库;利用MATLAB为每个三维模型保存两组数据,一组是三维模型围绕X轴依次间隔旋转60度:分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;一组是三维模型围绕Y轴依次间隔旋转60度:分别是旋转0度,60度,120度,180度,240度,300度,360度的三维模型;选择Z轴方向作为视点,将12个角度上的模型投影在XOY平面,由此一个模型将得到12张二维的投影图片;
三维模型旋转的公式以及投影于XOY平面的公式;
围绕X轴旋转:
z′=zcosθ-xsinθ
x′=xcosθ+zsinθ
y′=y
围绕Y轴旋转:
z′=zcosθ-ysinθ
x′=x
y′=ycosθ+zsinθ
平行投影的公式:
x′=x
y′=y
z′=0
利用视频编辑器Movie Maker,每隔1.5秒变换一张图片,将每个模型的12张二维图片合成一段短视频,并在每两个模型间***十秒钟空白图片作为休息时间,将6个模型合成一个长视频;24个模型共制成4个长视频。
3.根据权利要求2所述的一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于步骤(2)中让实验者进行实验的前提条件如下:
a)图像的显示设备放置在左侧,实验者坐在图像的显示设备正前方,并且保持距离为70cm,同时实验者保持眼睛与屏幕高度一致,能够平视屏幕中心;
b)操作人员在右侧,用电脑控制视频播放在显示设备上,操作人员和实验者之间用隔光挡板隔离;
c)实验者的四周需要用隔光挡板隔离,实验室周围使用隔光窗帘,防止其他光源对实验者造成实验干扰;
d)保持实验室环境声音不超过30dB,创造较为理想的安静环境,防止其他声源对实验者造成实验干扰。
4.根据权利要求3所述的一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于步骤(2)中具体实验的如下:
首先,使用iViewX软件对测试者的眼睛位置进行调整;在Eye Image框出现实验者瞳孔影像后,操作者通过调整屏幕与实验者相对位置,使得屏幕上的瞳孔影像能够居中稳定呈现;
然后,利用Experiment Center软件收集实验者观看视频时眼动注视点移动轨迹;收集过程前需要校准实验者眼睛的视线,当校准完后,会出现校准反馈即X、Y方向上的偏差,当偏差X,Y都小于1.0的时候,则可进入实验,之后会出现模型素材视频播放;
最后,利用BeGaze分析软件将模型素材视频和眼动注视点追踪轨迹进行合成,得到附带实验者眼动注视点轨迹的模型视频。
5.根据权利要求4所述的一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于步骤(3)先通过将眼动仪获取的附带实验者眼动注视点轨迹的模型视频按帧剪切,通过提取动点算法获得每张图片上的眼动注视点坐标,再通过三维映射算法将动点在图片上的二维坐标转成空间上的三维坐标,具体实现如下:
首先,进行二维眼动注视点的坐标提取,利用FFmpeg Build软件将合成的视频按帧截成图片获得二维图片;获取图片中的眼动注视点颜色,眼动注视点移动轨迹通过眼动注视点在模型上移动的形式体现,步骤(2)中通过BeGaze分析软件的设置,将眼动注视点设置为呈橘色,即动点颜色为橘色,并且设置颜色容差值;
接着设置二维数组,并对其进行初始化设值为1;将初始化后的二维数组与二维图片相比较,如果与动点颜色比较,得到的RGB三个值都在颜色容差值范围内,满足条件;否则该点不是要找的眼动点;如果没有点满足条件,则感兴趣点标志置0,反之置1;将满足条件的点放入point数组中,分别需要记录满足条件的点最大最小的行和列,并取最大最小的行和列坐标的中值,即为所求感兴趣点坐标(row,rank),输出感兴趣点坐标点;
然后通过三维映射算法获得附带眼动注视点的三维模型;因为模型的二维图片是通过投影在三维的XOY平面上获得的,由投影的性质能够看出二维和三维的坐标点相互之间存在联系:首先使模型投影在XOY平面,因此x,y坐标值是确定的,而z坐标则是取模型表面离视点距离最近的顶点,该顶点在三维模型上的z坐标值就是眼动注视点在三维模型上的z坐标值,如果模型表面上不存在该顶点则选择距离在阈值范围内的模型顶点的坐标值作为眼动注视点的坐标值,如此确定三维坐标(x,y,z);并且因为准备图片素材的时候将模型绕坐标轴进行旋转,所以现在需要将它反向旋转相应的角度;最后获得利用眼动仪收集的感兴趣点的数据。
6.根据权利要求5所述的一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法,其特征在于步骤(4)对实验者的实验数据结果做相应的分析,以此把所有提取的眼动注视点进行整理,得到一个感兴趣点集合的数据库,舍弃异常的数据,并对感兴趣点进行合并,整合方法如下:
在构建评估感兴趣点算子的评价库的时候,选择两个标准,一个是感兴趣区域的半径,另一个是在该区域内动点数量;将感兴趣区域的半径设为σdM,其中dM代表模型直径,即模型M的所有顶点之间的最大欧几里得距离,σ代表常系数;将测量距离小于2σdM的所有感兴趣点划分在同一个区域,如果区域中不同的实验者的数据量少于n,则丢弃该区域的感兴趣点;
从每个区域中以下述的标准选出一个点作为代表,把它作为一个标准的感兴趣点,标准为:被选定为标准的感兴趣点需要满足它与其所在的区域内所有其他的感兴趣点几何距离之和最小;如果两个区域之间的距离小于2σdM,那么两个区域中点数较少的代表将从评价标准的感兴趣点集合中丢弃,将区域中点数较多的代表作为标准的感兴趣点;用参数n和σ表示感兴趣点标准库,即GM(n,σ)表示为特定模型M的感兴趣点数据集;这两个参数对应的值决定了感兴趣点标准库;当n值取得相应较高时,随着σ的增加,将会有更多的动点落在这个兴趣区域内,因为不是所有的实验者都选择某个模型的细节作为感兴趣点,而σ的增加接受更多的标记点的本地局部变化,所以认为σ的变化是合理的;但是随着σ的进一步增加,它所定义的区域往往会包含不同的兴趣区域,因此在不同结构上标记的紧密感兴趣点开始合并;给出的感兴趣点评价标准库的平均数量会随着n和σ的变化而变化的。
CN201810116386.0A 2018-02-06 2018-02-06 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法 Active CN108415955B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810116386.0A CN108415955B (zh) 2018-02-06 2018-02-06 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810116386.0A CN108415955B (zh) 2018-02-06 2018-02-06 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法

Publications (2)

Publication Number Publication Date
CN108415955A true CN108415955A (zh) 2018-08-17
CN108415955B CN108415955B (zh) 2021-12-28

Family

ID=63126834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810116386.0A Active CN108415955B (zh) 2018-02-06 2018-02-06 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法

Country Status (1)

Country Link
CN (1) CN108415955B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和***
CN109887583A (zh) * 2019-03-11 2019-06-14 数坤(北京)网络科技有限公司 基于医生行为的数据获取方法/***、医学图像处理***
CN110032278A (zh) * 2019-03-29 2019-07-19 华中科技大学 一种人眼感兴趣物体的位姿识别方法、装置及***
CN110786868A (zh) * 2019-10-18 2020-02-14 天津大学 一种面向asd筛查的非入侵式检测及眼动分析方法
CN111079740A (zh) * 2019-12-02 2020-04-28 咪咕文化科技有限公司 图像的质量评价方法、电子设备和计算机可读存储介质
CN111382591A (zh) * 2018-12-27 2020-07-07 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN111510630A (zh) * 2020-04-24 2020-08-07 Oppo广东移动通信有限公司 图像处理方法、装置及存储介质
CN111966225A (zh) * 2020-08-31 2020-11-20 东莞市东全智能科技有限公司 一种基于视觉数据的多媒体数据交互平台及分析方法
CN113158879A (zh) * 2021-04-19 2021-07-23 天津大学 基于匹配特征的三维注视点估计及三维眼动模型建立方法
CN114283348A (zh) * 2021-04-07 2022-04-05 赢富仪器科技(上海)有限公司 眼动仪数据分析方法、***、设备及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521595A (zh) * 2011-12-07 2012-06-27 中南大学 一种基于眼动数据和底层特征的图像感兴趣区域提取方法
CN205563453U (zh) * 2015-12-16 2016-09-07 中国科学院西安光学精密机械研究所 视线追踪及人眼感兴趣区域定位***
US20160284123A1 (en) * 2015-03-27 2016-09-29 Obvious Engineering Limited Automated three dimensional model generation
US20160360186A1 (en) * 2015-06-03 2016-12-08 University Of Connecticut Methods and systems for human action recognition using 3d integral imaging
US20170232300A1 (en) * 2016-02-02 2017-08-17 Bao Tran Smart device
CN107179829A (zh) * 2017-05-22 2017-09-19 贵州大学 利用眼动数据预测用户个性化偏好的方法
CN107506751A (zh) * 2017-09-13 2017-12-22 重庆爱威视科技有限公司 基于眼动控制的广告投放方法
CN107656613A (zh) * 2017-09-08 2018-02-02 国网山东省电力公司电力科学研究院 一种基于眼动追踪的人机交互***及其工作方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521595A (zh) * 2011-12-07 2012-06-27 中南大学 一种基于眼动数据和底层特征的图像感兴趣区域提取方法
US20160284123A1 (en) * 2015-03-27 2016-09-29 Obvious Engineering Limited Automated three dimensional model generation
US20160360186A1 (en) * 2015-06-03 2016-12-08 University Of Connecticut Methods and systems for human action recognition using 3d integral imaging
CN205563453U (zh) * 2015-12-16 2016-09-07 中国科学院西安光学精密机械研究所 视线追踪及人眼感兴趣区域定位***
US20170232300A1 (en) * 2016-02-02 2017-08-17 Bao Tran Smart device
CN107179829A (zh) * 2017-05-22 2017-09-19 贵州大学 利用眼动数据预测用户个性化偏好的方法
CN107656613A (zh) * 2017-09-08 2018-02-02 国网山东省电力公司电力科学研究院 一种基于眼动追踪的人机交互***及其工作方法
CN107506751A (zh) * 2017-09-13 2017-12-22 重庆爱威视科技有限公司 基于眼动控制的广告投放方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HELIN DUTAGACI 等: ""Evaluation of 3D interest point detection techniques via human-generated ground truth"", 《THE VISUAL COMPUTER》 *
WOLF KIENZLE 等: ""How to Find Interesting Locations in Video: A Spatiotemporal Interest Point Detector Learned from Human Eye Movements"", 《PATTERN RECOGNITION》 *
李双 等: ""基于眼动感知信息的彩色图像感兴趣区域提取算法"", 《光学工程》 *
闫苗苗 等: ""基于感兴趣区域图像眼动数据库的建立"", 《西安理工大学学报》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255342B (zh) * 2018-11-20 2020-07-10 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和***
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和***
CN111382591A (zh) * 2018-12-27 2020-07-07 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN111382591B (zh) * 2018-12-27 2023-09-29 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN109887583B (zh) * 2019-03-11 2020-12-22 数坤(北京)网络科技有限公司 基于医生行为的数据获取方法/***、医学图像处理***
CN109887583A (zh) * 2019-03-11 2019-06-14 数坤(北京)网络科技有限公司 基于医生行为的数据获取方法/***、医学图像处理***
CN110032278A (zh) * 2019-03-29 2019-07-19 华中科技大学 一种人眼感兴趣物体的位姿识别方法、装置及***
CN110032278B (zh) * 2019-03-29 2020-07-14 华中科技大学 一种人眼感兴趣物体的位姿识别方法、装置及***
CN110786868A (zh) * 2019-10-18 2020-02-14 天津大学 一种面向asd筛查的非入侵式检测及眼动分析方法
CN111079740A (zh) * 2019-12-02 2020-04-28 咪咕文化科技有限公司 图像的质量评价方法、电子设备和计算机可读存储介质
CN111510630A (zh) * 2020-04-24 2020-08-07 Oppo广东移动通信有限公司 图像处理方法、装置及存储介质
CN111510630B (zh) * 2020-04-24 2021-09-28 Oppo广东移动通信有限公司 图像处理方法、装置及存储介质
CN111966225A (zh) * 2020-08-31 2020-11-20 东莞市东全智能科技有限公司 一种基于视觉数据的多媒体数据交互平台及分析方法
CN114283348A (zh) * 2021-04-07 2022-04-05 赢富仪器科技(上海)有限公司 眼动仪数据分析方法、***、设备及可读存储介质
CN113158879A (zh) * 2021-04-19 2021-07-23 天津大学 基于匹配特征的三维注视点估计及三维眼动模型建立方法
CN113158879B (zh) * 2021-04-19 2022-06-10 天津大学 基于匹配特征的三维注视点估计及三维眼动模型建立方法

Also Published As

Publication number Publication date
CN108415955B (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
CN108415955A (zh) 一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法
Duchowski A breadth-first survey of eye-tracking applications
CN111427150B (zh) 用于虚拟现实头戴式显示下的眼动信号处理方法及可穿戴设备
Dutagaci et al. A benchmark for best view selection of 3D objects
US8343067B2 (en) System and method for quantifying and mapping visual salience
CN113743471A (zh) 一种驾驶评估方法及其***
CN115933930A (zh) 教育元宇宙中学习对象的注意力分析方法、终端及装置
Zhang et al. Age and sex factors integrated 3D statistical models of adults' heads
Sundstedt et al. A systematic review of visualization techniques and analysis tools for eye-tracking in 3D environments
Sun et al. A novel integrated eye-tracking system with stereo stimuli for 3-D gaze estimation
Cotton et al. Dynamic gaussian splatting from markerless motion capture reconstruct infants movements
Stubbemann et al. Neural networks for semantic gaze analysis in xr settings
US11294922B2 (en) Method, apparatus, and computer readable medium for modeling relationships between query responses in a data set
Schuster et al. Kinematics and observer-animator kinematic similarity predict mental state attribution from Heider–Simmel style animations
Lara-Garduno et al. 3D-Trail-Making Test: A Touch-Tablet Cognitive Test to Support Intelligent Behavioral Recognition.
Ali et al. Model for wireless image correlation assisted by sensors based on 3D display technology
Lu et al. Immersive interaction design based on perception of vector field climate data
Price et al. Representations of motion and direction.
Schuster et al. Attributing Minds to Triangles: Kinematics and Observer-Animator Kinematic Similarity predict Mental State Attribution in the Animations Task
Ding et al. Towards mesh saliency in 6 degrees of freedom
Liu et al. Are headforms a poor surrogate for helmet fit?
Bohao et al. User visual attention behavior analysis and experience improvement in virtual meeting
Jiao et al. DiffGaze: A Diffusion Model for Continuous Gaze Sequence Generation on 360 {\deg} Images
Greencorn et al. Photogrammetry: an accurate and cost-effective three-dimensional ice hockey helmet fit acquisition method
Waldern et al. Studying depth cues in a three-dimensional computer graphics workstation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant