CN117976129A - 一种基于多深度线索场景的深度知觉训练方法 - Google Patents

一种基于多深度线索场景的深度知觉训练方法 Download PDF

Info

Publication number
CN117976129A
CN117976129A CN202410384501.8A CN202410384501A CN117976129A CN 117976129 A CN117976129 A CN 117976129A CN 202410384501 A CN202410384501 A CN 202410384501A CN 117976129 A CN117976129 A CN 117976129A
Authority
CN
China
Prior art keywords
training
user
scene
depth
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410384501.8A
Other languages
English (en)
Inventor
张婷婷
张璇
夏岭
毛亿
杨毅
辛元雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Haijiang Aerospace Technology Co ltd
Hohai University HHU
Original Assignee
Jiangsu Haijiang Aerospace Technology Co ltd
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Haijiang Aerospace Technology Co ltd, Hohai University HHU filed Critical Jiangsu Haijiang Aerospace Technology Co ltd
Priority to CN202410384501.8A priority Critical patent/CN117976129A/zh
Publication of CN117976129A publication Critical patent/CN117976129A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Rehabilitation Tools (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种基于多深度线索场景的深度知觉训练方法,包括:设置眼球追踪器,用于跟踪眼球运动,实现用户与训练场景交互,并采集眼动数据;在虚拟环境中构建显示深度知觉的三个训练场景;对待训练用户进行训练并记录训练反馈数据和眼动数据;得到分析报告;据其调整视觉训练场景,继续训练,直至完成预设的训练任务;评估待训练用户的深度知觉能力,生成训练结果报告。本发明基于多深度线索场景,在虚拟现实环境中针对不同用户的个体差异,使用不同的深度线索和视差进行深度知觉训练,用户能够更直观地感受到深度知觉能力的提升。同时,引入眼球跟踪技术,进一步提升用户的训练效果。

Description

一种基于多深度线索场景的深度知觉训练方法
技术领域
本发明涉及一种深度感知训练方法,特别是一种基于多深度线索场景的深度知觉训练方法。
背景技术
虚拟现实(VR)是一种新兴技术,可以创造沉浸式和激励的环境,根据用户需求创建不同深度线索的场景,使用户能够在类似于现实世界的环境中进行视觉训练。
深度知觉是指人类视觉***通过感知和理解物体之间的距离和相对位置关系的能力,在日常生活中起着重要作用。现实世界是一个三维环境,所以准确辨别物体之间的相对位置和深度是至关重要的。近年来,越来越多的研究集中在如何帮助改善深度感知缺损的视觉表现,特别是对于立体视觉缺陷。
然而立体视只是深度知觉的一个方面,立体视较差的用户未必就一定具有较差的深度知觉能力,因为深度知觉是一个综合性的过程,涉及多个深度线索和认知机制的综合运作,其中深度线索包含多种感知信息,可以加强用户的感知能力。
现在对深度知觉仍然缺乏合适的训练和评估方法,且没有有效反馈的问题。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于多深度线索场景的深度知觉训练方法。
为了解决上述技术问题,本发明公开了一种基于多深度线索场景的深度知觉训练方法,所述方法包括:
步骤1,设置眼球追踪器,用于跟踪眼球运动,根据眼球运动实现用户与训练场景交互,并采集眼动数据;
步骤2,通过结合双目深度线索和单目深度线索,在虚拟环境中构建显示深度知觉的三个不同的训练场景;
步骤3,使用上述训练场景对待训练用户进行训练,并分别记录上述训练场景中待训练用户的训练反馈数据和眼动数据;
步骤4,利用所述三种训练场景中记录的训练反馈数据结合对应的眼动数据,分别得到分析报告;
步骤5,根据分析报告,调整视觉训练场景,继续训练,直至完成预设的训练任务;
步骤6,根据分析报告,评估待训练用户的深度知觉能力,生成训练结果报告。
进一步的,步骤1中所述的实现用户与场景交互,具体包括:
通过眼球追踪器实时跟踪采集待训练用户的眼球运动位置和注视焦点;
当待训练用户凝视所述训练场景即虚拟现实环境中的菜单时,在凝视持续时间满足预设条件时触发该菜单功能。
进一步的,步骤2所述的三个不同的训练场景,即深度知觉的第一训练场景、第二训练场景和第三训练场景,具体包括:
第一训练场景,同时具有双目和单目深度线索;其中,单目线索,至少包括:透视效果、高光和阴影的分布、物体相对大小和轮廓的叠加,双目线索,至少包括:物体的运动视差和双眼视差;
第二训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,只保留双目深度线索,即物体的运动视差和双眼视差;
第三训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,同时限制双目深度线索中的物体的运动视差,仅保留双眼视差。
进一步的,步骤2所述的保留双眼视差,具体包括:修改所述场景中物体大小和修改线性透视。
进一步的,步骤2中所述的修改所述场景中物体大小,具体如下:
在所述训练场景中,当一个物体领先于另一个物体时,随着与待训练用户距离的变化,根据后一个物体到人眼的距离调整前一个物体的比例,具体如下:
其中,为后一个物体与待训练用户人眼之间距离,/>为两个物体之间的距离,/>为前一个物体的缩放比例。
进一步的,步骤2中所述的修改线性透视,具体如下:
在所述训练场景中,引入一个参考物体作为后置物体,另一个物体沿着 x 轴放置在离用户更近的位置,将参考物体的位置在倾斜平面中心的 y 轴上偏移预设长度,用于避免两个物体在x-y 平面和 x-z 平面上重叠,并保持人眼与两个物体有一致的视角差,将前一个物体的位置根据待训练用户人眼与后一个物体之间的位置关系进行调整。
进一步的,步骤3中所述的对待训练用户进行训练,具体如下:
在第一训练场景中,待训练用户根据场景中的物体之间的遮挡关系来判断目标的位置和深度;待训练用户根据物体上的光照变化和阴影判断目标的凹凸形状和位置;
在第二训练场景中,待训练用户通过观察物体在运动中的相对速度,推断其远近距离;待训练用户通过观察物体在运动中的轨迹和方向变化,判断物体的相对位置;待训练用户通过比较左右眼的视觉运动差异,判断知物体的距离和深度;
在第三训练场景中,待训练用户通过比较左右眼的视差,判断物体的距离;待训练用户通过整合和比较左右眼的视觉信息,判断物体的深度和空间位置;待训练用户通过观察视差梯度,判断物体的远近关系和深度差异;
训练时,使用步骤2中所述的不同训练场景,根据难度分别设置不同的等级,并将其展示给待训练用户进行判断,根据待训练用户的判断进行打分。
进一步的,步骤4中所述的分析报告,至少包括:用户训练准确率、用户完成时间、熵值和立体视锐度,其中:
用户训练准确率,计算方法如下:
其中,表示训练过程中待训练用户的得分,/>表示训练过程中的总分;
用户完成时间T,即待训练用户在一个场景的一个级别中,完成一次训练的时间;
熵,即通过眼动数据中的凝视数据,计算待训练用户的不确定值,具体计算方法如下:
其中,表示凝视点的香农熵,/>表示凝视点范围概率,/>表示凝视点,/>表示纳特, />表示凝视点取值数量;
立体视锐度,计算方法如下:
其中,表示立体视锐度,/>和/>表示两个物***置/>和/>与眼睛形成的角度。
进一步的,步骤5中所述的根据分析报告,调整视觉训练场景,继续训练,具体包括:
若分析报告中,满足以下条件:待训练用户在同一个场景中训练次数满足预设训练次数,且每次训练准确率、用户完成时间和熵值均满足预设要求,且可辨别场景中不同的视差为
场景在最后一次测试完成后自动进入下一级别。当完成一个场景中的所有级别测试后,场景会自动跳转下一深度场景中进行训练。
进一步的,步骤5中所述的视差,计算方法如下:
其中,代表目标位置,/>和/>分别代表左眼和右眼的位置,/>表示左眼与目标之间的夹角,/>表示右眼与目标之间的夹角,/>表示左眼与目标之间的距离,/>表示右眼与目标之间的距离。
有益效果
1.本发明通过构建具有不同深度线索的训练场景,在虚拟现实环境中为用户提供沉浸式体验并直观的感受视差,从而提升深度知觉。传统的深度知觉训练技术通常只提供单一的深度线索,限制了用户对真实世界深度感的理解和适应能力。
2.本发明通过引入眼球追踪器来跟踪用户眼球运动,实现了对用户信息的实时捕捉和人机交互。相比现有技术,本发明在眼动数据采集和人机交互方面进行了改善,为用户提供了更加精准、高效的交互体验。
3.本发明通过分析用户反馈信息和眼动数据生成训练结果报告,进一步改善了现有技术的不足,为用户提供了更加全面、个性化的训练评估和反馈,从而提升他们的深度知觉能力。
4.本发明通过引入三种等级难度设计,为用户提供了更加有趣、多样化和具有挑战性的训练体验。这种改进相比现有技术的单一乏味性,能够更好地激发用户的积极性和持续参与度,进一步提高他们的深度知觉能力。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1所示为本发明的总体流程示意图。
图2所示为本发明中线性透视示意图。
图3所示为本发明中物体大小示意图。
图4所示为本发明中训练场景示意图。
图5所示为本发明中相对视差测量示意图。
图6所示为本发明中自适应调整游戏级别流程图。
图7所示为本发明中自适应调整视觉场景流程图。
具体实施方式
本发明提出了一种基于多深度线索场景的深度知觉训练方法,解决了对深度感知仍然缺乏合适的训练和评估方法,且没有有效反馈的问题。技术方案具体如下:
眼动模块:采用眼动追踪技术,根据用户眼动信息与场景进行交互。
眼球信息采集单元:使用眼球追踪技术,对被试在虚拟游戏环境中的眼球信息进行采集,记录被试的眼球注视信息,扫视范围,注视次数,眨眼次数等信息。
数据存储单元:用于存储用户的训练数据和眼动数据。
数据分析单元:用于将用户在虚拟环境中的训练数据与眼动数据进行整合、分析。
报告生成单元:根据数据分析结果生成一份关于用户的深度知觉训练结果报告。
第一方面,本发明提供一种基于多深度线索场景的深度知觉训练方法,所述方法如图1所示,具体包括:
通过安装眼球追踪器跟踪用户眼球运动,实现用户与场景交互及眼动数据采集;
通过结合双目深度线索和单目深度线索在虚拟环境中显示深度知觉的第一训练场景;
通过去除单目深度线索保留双目深度线索在虚拟环境中显示深度知觉的第二训练场景;
通过包含双眼视差线索并限制运动视差线索在虚拟环境中显示深度知觉的第三训练场景;
利用所述三种场景的训练反馈数据结合训练过程的眼动信息,分别得到三种分析报告;
根据用户分析报告自适应的调整视觉场景;
根据在三种场景中获得的三种分析报告评估用户的深度知觉能力,生成训练结果报告。
进一步地,通过在眼动模块中的眼球追踪器实时跟踪采集用户眼球运动的位置和注视焦点。当用户凝视着虚拟现实环境中的开始菜单时,通过分析眼球追踪数据,***能够识别用户的意图,并在凝视持续时间满足特定标准时触发游戏的启动。
第二方面,通过变换双目深度线索和单目深度线索在虚拟现实环境中显示深度知觉的训练场景,包括:
第一训练场景,由双目和单目深度线索组成,包括透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加。场景中的目标离用户较远,因此看起来比较小,而离用户较近的目标则看起来比较大;场景中的目标会重叠或者部分遮挡,用户可根据遮挡关系来判断目标的位置和深度;场景中会有固定光照,用户可根据目标上的光照变化和阴影判断目标的凹凸形状和位置。
第二训练场景,去除所有单目深度线索,包括透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,最后只保留双目深度线索。通过观察目标在运动中的相对速度,用户推断出目标的远近距离。较远的目标在相同速度下产生的视觉运动比较慢,而较近的目标则会产生较快的视觉运动;用户通过观察目标在运动中的轨迹和方向变化,感知到物体的相对位置;用户通过比较左右眼的视觉运动差异,更准确地感知物体的距离和深度。
第三训练场景,去除所有单目深度线索,包括透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,同时限制双目深度线索中的运动视差,留下双眼视差线索。通过比较左右眼的视差,用户推断出物体的距离。用户通过将左右眼的视觉信息进行整合和比较,能够感知到目标的深度和空间位置;通过观察视差梯度,用户可以判断物体的远近关系和深度差异。
进一步地,所述的保留双眼视差包括修改物体大小。物体与用户的距离以及自身大小会影响在用户视网膜上投射的视角。当一个物体领先于另一个物体时,随着与用户距离的减小,该物体的视角会增加。因此,为了使物体之间的视角相同,需要根据后一个物体的比例与距离调整后一个球的比例。前一个物体与用户人眼之间距离为D,两个物体之间的距离为∆d,则前一个物体的缩放比例为
进一步地,所述的保留双眼视差包括修改线性透视。引入一个参考物体作为后置物体,另一个球沿着 x 轴放置在离用户更近的位置,为了保持相同的视角,用户、倾斜平面和两个物体必须对齐。然而,这会导致两个物体在凝视方向上重叠,需要避免这种情况。因此,将参考物体的位置在倾斜平面中心的 y 轴上偏移了25厘米。如果前一个物体仅在 x轴上更接近用户,那么用户与每个物体之间的视角将不同。这种效应不仅适用于 x-y 平面,也适用于 x-z 平面。因此,前一个物体必须与用户和参考物体之间的三维矢量保持一致,同时满足所需的视差差。
第三方面,用户通过场景的训练反馈数据结合训练过程的眼动信息,得到分析结果报告,分析结果报告中会含有用户训练准确率、用户完成时间、熵值、立体视锐度,具体包括:
用户训练准确率(A):(训练最后得分/游戏总分)
用户完成时间(T):是指用户在一个场景的一个级别中,完成一次训练的时间
熵:通过眼动追踪器获得凝视数据,并将其应用于凝视行为时,表明凝视位置的可变性和不可预测性。如果凝视位置是随机的并均匀分布在所有可能位置,那么熵会很高,表明用户不确定目标是否正确。但如果它以一种可预测的方法瞄准特定的位置,熵的值就会很低,表明用户确定目标正确概率大。
其中,表示凝视点的香农熵,/>表示凝视点范围概率,/>表示凝视点,/>表示纳特,通常取2,/>表示凝视点取值数量;
立体视锐度:在深度感知能力中,立体视锐度是不可或缺的测量指标。在每种深度场景中还有3种级别。在第一级别中,需要的立体视锐度视度为400弧秒,在第二级别中,需要的立体视锐度视度为200弧秒,而在第四级别中,需要的立体视锐度为100弧秒。这意味着随着级别的提升,用户的立体视锐度将提高。
在式(2)中,表示立体视锐度,/>和/>表示两个目标位置A和B与眼睛形成的角度,量化了视差。
第四方面,根据分析结果报告,自适应的调整训练场景并对用户进行训练,具体包括:
用户在一个场景中最少需要测试2次以上,如果两次训练准确率都达到90%以上,一次测试完成时间不超过 3分钟,熵值能在0.5以下,且可辨别场景中不同的视差
式(3)中,B代表目标位置,和/>分别代表左眼和右眼的位置。
场景在最后一次测试完成后自动进入下一级别。当完成一个场景中的所有级别测试后,场景会自动跳转下一深度场景中进行训练。
进一步地,在虚拟现实设备后端,使用C#编程,采用条件触发事件,当完成以上条件时,触发自适应机制,自动跳转场景的下一级别。当一用户测试完一个场景中的所有级别后,将自动跳转下一深度场景。如果未满足上述任务中的一个,则循环本场景,直至下一次条件触发;
第五方面,用户在训练一个月后会给出训练结果报告。使用训练结果报告中的用户训练准确率、用户完成时间、熵值和立体视锐度得出深度感知能力等级,客观地评估用户训练效果。
实施例1:
本发明实施例提供的一种基于多深度线索场景的深度知觉训练方法,可以在虚拟现实设备中创建一款VR的游戏,游戏包含三种具有不同深度线索的场景,每个场景都会有三个不同等级。在用户视野正前方设置一群具有不同视差的目标怪兽在游戏中,距离用户2米处,目标怪兽会以固定的步数进行移动(每步4秒),为了获得高分,用户需要准确辨别距离自己最近的目标怪兽,并在目标怪兽到达1.5米距离点前迅速击打他们。每次击打正确的怪兽目标会有相应的得分以及正确的提示音效反馈,反之,则不加分,并输出错误的音效反馈。用户从上一次击打到下一次击打之前的时间和完成一次游戏的总时间都被记录。
用户在每次场景训练结束后都会获得一份分析报告,分析报告上显示了用户训练准确率、用户完成时间、熵值和立体视锐度等指标。训练将持续一个月,用户的深度知觉能力和立体视锐度将得到很大提升训练将持续一个月,用户的深度知觉能力和立体视锐度将得到很大提升,使得用户能更准确地判断物体的位置和距离,并提高行动时的安全性。在完成所有训练后,用户将得到训练结果报告。训练结果报告会评价用户深度知觉能力。
从上述描述可知,本发明实施例提供一种基于多深度线索场景的深度知觉训练方法。在本发明中,通过变换双目深度线索和单目深度线索构建出深度知觉场景,并通过VR设备为用户提供了一个丰富多彩、有吸引力的强大的环境,可以改变不同的场景,设置游戏关卡及时间来增加虚拟游戏的趣味性。
实施例2:
本发明提供一种基于虚拟现实游戏的深度感知训练方法,具体包括以下步骤:
S1:通过安装眼球追踪器跟踪用户眼球运动,实现用户与场景交互及眼动数据采集;
S2:通过结合双目深度线索和单目深度线索在虚拟环境中显示深度知觉的第一训练场景;
S3:通过去除单目深度线索保留双目深度线索在虚拟环境中显示深度知觉的第二训练场景;
S4:通过包含双眼视差线索并限制运动视差线索在虚拟环境中显示深度知觉的第三训练场景;
S5:利用所述三种场景的训练反馈数据结合训练过程的眼动信息,分别得到三种分析报告;
S6:根据用户分析报告自适应的调整视觉场景;
S7:根据在三种场景中获得的三种分析报告评估用户的深度知觉能力,生成训练结果报告。
进一步地,通过眼动模块中的高精度眼球追踪器实时跟踪采集用户眼球运动位置和注视焦点。当用户凝视着虚拟现实环境中的开始菜单时,通过分析眼球追踪数据,***能够识别用户的意图,并在凝视持续时间满足特定标准时触发游戏的启动。
本实施例中所述的通过变换双目深度线索和单目深度线索在虚拟现实环境中显示深度知觉的训练场景,包括:
第一训练场景,由双目和单目深度线索组成,包括透视、高光和阴影的分布、运动视差、物体相对大小和遮挡。
进一步地,透视线条线索能够使用户根据线索的收敛程度感知距离的远近;物体大小也是一种重要的单目深度线索,场景中的目标离用户较远,因此看起来比较小,而离用户较近的目标则看起来比较大;场景中的目标会重叠或者部分被遮挡,用户可根据遮挡关系来判断目标的位置和深度。遮挡线索提供了关于目标之间相对位置和距离的重要信息;场景中会有固定光照,用户可根据目标上的光照变化和阴影判断目标的凹凸形状和位置。
第二训练场景,去除所有单目深度线索,包括透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,最后只保留双目深度线索。在保留的双目深度线索中有运动视差。运动视差是当用户自身移动时,由于不同位置的目标在视野中产生的相对运动差异。
进一步地,通过观察目标在运动中的相对速度,用户可以推断出目标的远近距离。较远的目标在相同速度下产生的视觉运动比较慢,而较近的目标则会产生较快的视觉运动。
用户通过观察目标在运动中的轨迹和方向变化,感知到物体的凸出、深入和相对位置。
用户通过比较左右眼的视觉运动差异,能够更准确地感知物体的距离和深度。
第三训练场景,去除所有单目深度线索,包括透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,同时限制双目深度线索中的运动视差,留下双眼视差线索,深度线索条件逐渐减少。
进一步地,双眼视差是指由于两只眼睛在不同位置观察物体而产生的视觉差异。双眼视差是深度感知的关键因素之一,包含视差解释深度、立体视觉和视差梯度,对用户感知物体的远近和空间深度起着重要作用。
通过比较左右眼的视差,用户能够推断出物体的距离。这种视差差异可以帮助用户感知物体的距离和深度。
所述的保留双眼视差包括修改物体大小。物体与用户的距离以及自身大小会影响在用户视网膜上投射的视角。当一个物体领先于另一个物体时,随着与用户距离的减小,该物体的视角会增加。因此,为了使物体之间的视角相同,需要根据后一个物体的比例与距离调整后一个球的比例。
如图2所示,前一个物体与用户人眼之间距离为D,两个物体之间的距离为∆d,则前一个物体的缩放比例为
所述的保留双眼视差包括修改线性透视。如图3所示,引入一个参考物体A’作为后置物体,另一个物体B沿着 x 轴放置在离用户更近的位置,为了保持相同的视角,用户、倾斜平面和两个物体必须对齐。然而,这会导致两个物体在凝视方向上重叠,需要避免这种情况。因此,将参考物体的位置在倾斜平面中心的 y 轴上偏移了25厘米。如果前一个物体仅在 x 轴上更接近用户,那么用户与每个物体之间的视角将不同。这种效应不仅适用于 x-y平面,也适用于 x-z 平面。因此,前一个物体必须与用户和参考物体之间的三维矢量保持一致,同时满足所需的视差差。
本实施例中,用户通过场景的训练反馈数据结合训练过程的眼动信息,得到分析报告,分析结果报告中会含有用户训练准确率、用户完成时间、熵值、立体视锐度,具体包括:
用户训练准确率:(训练最后得分/游戏总分)
用户完成时间:是指用户在一个场景的一个级别中,完成一次训练的时间;
熵:通过眼动追踪器获得凝视数据,并将其应用于凝视行为时,表明凝视位置的可变性和不可预测性。如果凝视位置是随机的并均匀分布在所有可能位置,那么熵会很高,表明用户不确定目标是否正确。但如果它以一种可预测的方法瞄准特定的位置,熵的值就会很低,表明用户确定目标正确概率大。
立体视锐度:在深度感知能力中,立体视锐度是不可或缺的测量指标。在每种深度场景中还有三种级别。在第一级别中,需要的立体视锐度视度为400弧秒,在第二级别中,需要的立体视锐度视度为200弧秒,而在第三级别中,需要的立体视锐度为100弧秒。这意味着随着级别的提升,用户的立体视锐度将提高。
在式(2)中,表示立体视锐度,/>和/>表示两个目标位置A和B与眼睛形成的角度,量化了视差。如图5所示,瞳孔间距表示为a,两个目标位置A和B与眼睛形成的角度/>,量化了视差。两个角度之间的差值越小,目标A和B的距离△d就越小。通过多次减小物体之间的距离△d直至无法辨别两个目标之间的深度差,以此确定视差阈值,评估立体视锐度。
本实施例中,根据分析结果报告,自适应的调整训练场景并对用户进行训练,具体包括:
如图6所示,用户在一个场景中最少需要测试2次以上,如果两次训练准确率都达到90%以上,一次测试完成时间不超过 3分钟,熵值能在0.5以下,且可辨别场景中不同的视差
式(3)中,B代表目标位置,和/>分别代表左眼和右眼的位置。
场景在最后一次测试完成后自动进入下一级别。当完成一个场景中的所有级别测试后,场景会自动跳转下一深度场景中进行训练。
如图7所示,在虚拟现实设备后端,使用C#编程,采用条件触发事件,当完成以上条件时,触发自适应机制,自动跳转场景的下一级别。当用户测试完一个场景中的所有级别后,将自动跳转下一深度场景。如果未满足上述任务中的一个,则循环本场景,直至下一次条件触发;
本实施例中,用户在训练一个月后会给出训练结果报告。使用训练结果报告中的用户训练准确率、用户完成时间、熵值和立体视锐度得出深度感知能力等级,客观地评估用户训练效果。
其中,A表示用户训练准确率,T表示用户完成时间,表示立体视锐度。
实施例3:
本发明提供的模块和单元包括:
眼动模块:采用眼动追踪技术,根据用户眼动信息与场景进行交互。
眼球信息采集单元:使用眼球追踪技术,对被试在虚拟游戏环境中的眼球信息进行采集,记录被试的眼球注视信息,扫视范围,注视次数,眨眼次数等信息。
数据存储单元:用于存储用户的训练数据和眼动数据。
数据分析单元:用于将用户在虚拟环境中的训练数据与眼动数据进行整合、分析。
报告生成单元:根据数据分析结果生成一份关于用户的深度知觉训练结果报告。
进一步地,所述眼动模块,当用户凝视界面的开始菜单,游戏开始。当注视一个目标的持续时间大于为100ms,且注视视角小于1°,认为是凝视该目标。
实施例4:
本发明实施例提供的种基于多深度线索场景的深度知觉训练方法,可以在虚拟现实设备中创建一款VR的游戏,游戏包含三种具有不同深度线索的场景,每个场景都会有三个不同等级。如图4所示,在用户视野正前方设置一群具有不同视差的目标怪兽在游戏中,距离用户2米处,目标怪兽会以固定的步数进行移动(每步4秒),为了获得高分,用户需要准确辨别距离自己最近的目标怪兽,并在目标怪兽到达1.5米距离点前迅速击打他们。每次击打正确的怪兽目标会有相应的得分以及正确的提示音效反馈,反之,则不加分,并输出错误的音效反馈。用户从上一次击打到下一次击打之前的时间和完成一次游戏的总时间都被记录。
在场景中会有三个不同难度的等级并设有得分与计时,每一级别中的目标辨别对立体视锐度有要求,以度量每两个连续目标之间的深度差异。在第一级别中,需要的立体视锐度视度为400弧秒,而在第四级别中,需要的立体视锐度为100弧秒,级别越高难度越大。
用户在一个场景中的一个级别中最少需要测试2次以上,如果两次训练准确率都达到90%以上,一次测试完成时间不超过 3分钟,目标视差测量在给规定场景的视差范围内且熵值能在0.5以下,则场景在最后一次测试完成后自动进入下一级别。当完成一个场景中的所有级别测试后,场景会自动跳转下一深度场景中进行训练。如果未达到上述要求,则需要重新完成本级别,直到达到要求。用户在每次场景训练结束后都会获得一份分析报告,分析报告上显示了用户训练准确率、用户完成时间、熵值和立体视锐度等指标。训练将持续一个月,用户的深度知觉能力和立体视锐度将得到很大提升,使得用户能更准确地判断物体的位置和距离,并提高行动时的安全性。在完成所有训练后,用户将得到训练结果报告。训练结果报告会评价用户深度知觉能力。
具体实现中,本申请提供计算机存储介质以及对应的数据处理单元,其中,该计算机存储介质能够存储计算机程序,所述计算机程序通过数据处理单元执行时可运行本发明提供的一种基于多深度线索场景的深度知觉训练方法的发明内容以及各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术方案可借助计算机程序以及其对应的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机程序即软件产品的形式体现出来,该计算机程序软件产品可以存储在存储介质中,包括若干指令用以使得一台包含数据处理单元的设备(可以是个人计算机,服务器,单片机,MCU或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本发明提供了一种基于多深度线索场景的深度知觉训练方法的思路及方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (10)

1.一种基于多深度线索场景的深度知觉训练方法,其特征在于,所述方法包括:
步骤1,设置眼球追踪器,用于跟踪眼球运动,根据眼球运动实现用户与训练场景交互,并采集眼动数据;
步骤2,通过结合双目深度线索和单目深度线索,在虚拟环境中构建显示深度知觉的三个不同的训练场景;
步骤3,使用上述训练场景对待训练用户进行训练,并分别记录上述训练场景中待训练用户的训练反馈数据和眼动数据;
步骤4,利用所述训练场景中记录的训练反馈数据结合对应的眼动数据,分别得到分析报告;
步骤5,根据分析报告,调整视觉训练场景,继续训练,直至完成预设的训练任务;
步骤6,根据分析报告,评估待训练用户的深度知觉能力,生成训练结果报告。
2.根据权利要求1所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤1中所述的实现用户与训练场景交互,具体包括:
通过眼球追踪器实时跟踪采集待训练用户的眼球运动位置和注视焦点;
当待训练用户凝视所述训练场景即虚拟现实环境中的菜单时,在凝视持续时间满足预设条件时触发该菜单功能。
3.根据权利要求2所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的三个不同的训练场景,即深度知觉的第一训练场景、第二训练场景和第三训练场景,具体包括:
第一训练场景,同时具有双目和单目深度线索;其中,单目线索,至少包括:透视效果、高光和阴影的分布、物体相对大小和轮廓的叠加,双目线索,至少包括:物体的运动视差和双眼视差;
第二训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,只保留双目深度线索,即物体的运动视差和双眼视差;
第三训练场景,去除所有单目深度线索,即去除透视、高光和阴影的分布、运动视差、物体相对大小和轮廓叠加,同时限制双目深度线索中的物体的运动视差,仅保留双眼视差。
4.根据权利要求3所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2所述的保留双眼视差,具体包括:修改所述场景中物体大小和修改线性透视。
5.根据权利要求4所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2中所述的修改所述场景中物体大小,具体如下:
在所述训练场景中,当一个物体领先于另一个物体时,随着与待训练用户距离的变化,根据后一个物体到人眼的距离调整前一个物体的比例,具体如下:
其中,为后一个物体与待训练用户人眼之间距离,/>为两个物体之间的距离,/>为前一个物体的缩放比例。
6.根据权利要求5所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤2中所述的修改线性透视,具体如下:
在所述训练场景中,引入一个参考物体作为后置物体,另一个物体沿着 x 轴放置在离用户更近的位置,将参考物体的位置在倾斜平面中心的 y 轴上偏移预设长度,用于避免两个物体在x-y 平面和 x-z 平面上重叠,并保持人眼与两个物体有一致的视角差,将前一个物体的位置根据待训练用户人眼与后一个物体之间的位置关系进行调整。
7.根据权利要求1所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤3中所述的对待训练用户进行训练,具体如下:
在第一训练场景中,待训练用户根据场景中的物体之间的遮挡关系来判断目标的位置和深度;待训练用户根据物体上的光照变化和阴影判断目标的凹凸形状和位置;
在第二训练场景中,待训练用户通过观察物体在运动中的相对速度,推断其远近距离;待训练用户通过观察物体在运动中的轨迹和方向变化,判断物体的相对位置;待训练用户通过比较左右眼的视觉运动差异,判断知物体的距离和深度;
在第三训练场景中,待训练用户通过比较左右眼的视差,判断物体的距离;待训练用户通过整合和比较左右眼的视觉信息,判断物体的深度和空间位置;待训练用户通过观察视差梯度,判断物体的远近关系和深度差异;
训练时,使用步骤2中所述的不同训练场景,根据难度分别设置不同的等级,并将其展示给待训练用户进行判断,根据待训练用户的判断进行打分。
8.根据权利要求7所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤4中所述的分析报告,至少包括:用户训练准确率、用户完成时间、熵值和立体视锐度,其中:
用户训练准确率,计算方法如下:
其中,表示训练过程中待训练用户的得分,/>表示训练过程中的总分;
用户完成时间T,即待训练用户在一个场景的一个级别中,完成一次训练的时间;
熵,即通过眼动数据中的凝视数据,计算待训练用户的不确定值,具体计算方法如下:
其中,表示凝视点的香农熵,/>表示凝视点范围概率,/>表示凝视点,/>表示纳特, />表示凝视点取值数量;
立体视锐度,计算方法如下:
其中,表示立体视锐度,/>和/>表示两个物***置/>和/>与眼睛形成的角度。
9.根据权利要求8所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤5中所述的根据分析报告,调整视觉训练场景,继续训练,具体包括:
若分析报告中,满足以下条件:待训练用户在同一个场景中训练次数满足预设训练次数,且每次训练准确率、用户完成时间和熵值均满足预设要求,且可辨别场景中不同的视差为
场景在最后一次测试完成后自动进入下一级别;当完成一个场景中的所有级别测试后,场景自动跳转下一深度场景中进行训练。
10.根据权利要求9所述的一种基于多深度线索场景的深度知觉训练方法,其特征在于,步骤5中所述的视差,计算方法如下:
其中,代表目标位置,/>和/>分别代表左眼和右眼的位置,/>表示左眼与目标之间的夹角,/>表示右眼与目标之间的夹角,/>表示左眼与目标之间的距离,/>表示右眼与目标之间的距离。
CN202410384501.8A 2024-04-01 2024-04-01 一种基于多深度线索场景的深度知觉训练方法 Pending CN117976129A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410384501.8A CN117976129A (zh) 2024-04-01 2024-04-01 一种基于多深度线索场景的深度知觉训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410384501.8A CN117976129A (zh) 2024-04-01 2024-04-01 一种基于多深度线索场景的深度知觉训练方法

Publications (1)

Publication Number Publication Date
CN117976129A true CN117976129A (zh) 2024-05-03

Family

ID=90864984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410384501.8A Pending CN117976129A (zh) 2024-04-01 2024-04-01 一种基于多深度线索场景的深度知觉训练方法

Country Status (1)

Country Link
CN (1) CN117976129A (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103239347A (zh) * 2013-05-09 2013-08-14 北京大学 一种采用调控眼优势治疗视觉功能障碍的***
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法
CN110180067A (zh) * 2019-05-09 2019-08-30 北京津发科技股份有限公司 认知能力训练和测试方法、终端设备和存储介质
US20190281211A1 (en) * 2018-03-06 2019-09-12 Eyedaptic, Inc. Adaptive System for Autonomous Machine Learning and Control in Wearable Augmented Reality and Virtual Reality Visual Aids
CN111202663A (zh) * 2019-12-31 2020-05-29 浙江工业大学 一种基于vr技术的视觉训练学习***
CN111613295A (zh) * 2020-04-29 2020-09-01 杭州心景科技有限公司 基于虚拟成像的记忆干预及评估方法、装置及终端设备
CN112102186A (zh) * 2020-09-07 2020-12-18 河海大学 一种水下视频图像实时增强方法
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램
CN113101159A (zh) * 2021-04-08 2021-07-13 杭州深睿博联科技有限公司 一种基于vr的立体视觉训练、评估方法和装置
CN113260300A (zh) * 2018-11-07 2021-08-13 斯达克实验室公司 采用视觉反馈的定点凝视运动训练***及相关方法
CN113797070A (zh) * 2021-10-27 2021-12-17 中国人民解放军陆军军医大学第一附属医院 一种用于治疗弱视的视觉训练方法及***
CN115531150A (zh) * 2022-10-27 2022-12-30 河海大学常州校区 基于虚拟现实的立体视觉测试和训练方法
CN116019693A (zh) * 2023-03-30 2023-04-28 广州视景医疗软件有限公司 一种基于vr的立体视训练方法及装置
CN116942074A (zh) * 2023-09-19 2023-10-27 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法
CN117618723A (zh) * 2023-12-05 2024-03-01 波克医疗科技(上海)有限公司 一种用于改善儿童注意力训练***

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103239347A (zh) * 2013-05-09 2013-08-14 北京大学 一种采用调控眼优势治疗视觉功能障碍的***
CN104853185A (zh) * 2015-06-06 2015-08-19 吉林大学 结合多视差和运动的立体视频舒适度评价方法
US20190281211A1 (en) * 2018-03-06 2019-09-12 Eyedaptic, Inc. Adaptive System for Autonomous Machine Learning and Control in Wearable Augmented Reality and Virtual Reality Visual Aids
CN113260300A (zh) * 2018-11-07 2021-08-13 斯达克实验室公司 采用视觉反馈的定点凝视运动训练***及相关方法
CN110180067A (zh) * 2019-05-09 2019-08-30 北京津发科技股份有限公司 认知能力训练和测试方法、终端设备和存储介质
KR20210019883A (ko) * 2019-08-13 2021-02-23 박시현 영상 기반의 안구운동능력 훈련 장치, 방법 및 프로그램
CN111202663A (zh) * 2019-12-31 2020-05-29 浙江工业大学 一种基于vr技术的视觉训练学习***
CN111613295A (zh) * 2020-04-29 2020-09-01 杭州心景科技有限公司 基于虚拟成像的记忆干预及评估方法、装置及终端设备
CN112102186A (zh) * 2020-09-07 2020-12-18 河海大学 一种水下视频图像实时增强方法
CN113101159A (zh) * 2021-04-08 2021-07-13 杭州深睿博联科技有限公司 一种基于vr的立体视觉训练、评估方法和装置
CN113797070A (zh) * 2021-10-27 2021-12-17 中国人民解放军陆军军医大学第一附属医院 一种用于治疗弱视的视觉训练方法及***
CN115531150A (zh) * 2022-10-27 2022-12-30 河海大学常州校区 基于虚拟现实的立体视觉测试和训练方法
CN116019693A (zh) * 2023-03-30 2023-04-28 广州视景医疗软件有限公司 一种基于vr的立体视训练方法及装置
CN116942074A (zh) * 2023-09-19 2023-10-27 广东视明科技发展有限公司 基于多屏深度多焦点堆栈模式的视功能评估训练方法
CN117618723A (zh) * 2023-12-05 2024-03-01 波克医疗科技(上海)有限公司 一种用于改善儿童注意力训练***

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JIAMIN PING SID STUDENT MEMBER;等: "Depth perception in shuffleboard: Depth cues effect on depth perception in virtual and augmented reality system", REGULAR CONTRIBUTED PAPER, vol. 28, 31 December 2019 (2019-12-31), pages 164 - 176 *
TINGTING ZHANG;等: "Eye movements during change detection: the role of depth of field", COGNITIVE COMPUTATION AND SYSTEMS, vol. 01, no. 02, 31 December 2019 (2019-12-31), pages 55 - 59 *
卢炜;: "斜视弱视患者的双眼视觉状况及其矫治", 眼科, vol. 18, no. 05, 25 September 2009 (2009-09-25), pages 289 - 292 *
周玲;等: "虚拟现实中关于视觉深度感知的讨论", 电子器件, vol. 23, no. 02, 30 June 2000 (2000-06-30), pages 34 - 40 *
彭程: "基于信息论的自顶向下因素与眼动模式相关性分析", 中国优秀硕士学位论文全文数据库 信息科技辑, 15 January 2022 (2022-01-15), pages 10 *
彭程: "基于信息论的自顶向下因素与眼动模式相关性分析", 中国优秀硕士学位论文全文数据库 信息科技辑, 15 January 2022 (2022-01-15), pages 138 - 1724 *

Similar Documents

Publication Publication Date Title
CN109558012B (zh) 一种眼球追踪方法及装置
JP5475893B2 (ja) 視覚疲労度測定装置およびその方法
CN107929007B (zh) 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练***及方法
CN109196447B (zh) 使用姿势和多dof控制器与3d虚拟对象的交互
US9380287B2 (en) Head mounted system and method to compute and render a stream of digital images using a head mounted display
EP4123425A1 (en) Eye tracking calibration techniques
Papenmeier et al. DynAOI: A tool for matching eye-movement data with dynamic areas of interest in animations and movies
Salamin et al. Quantifying effects of exposure to the third and first-person perspectives in virtual-reality-based training
KR101433786B1 (ko) 화상 표시 장치, 게임 프로그램, 및 게임 제어 방법
US10846927B2 (en) Method and apparatus for displaying a bullet-style comment in a virtual reality system
US20110018867A1 (en) Video game machine, gaming image display method, gaming image dispaly program and network game system
WO2013185714A1 (zh) 增强现实中识别对象的方法及***和计算机
Looser et al. An evaluation of virtual lenses for object selection in augmented reality
US20180286259A1 (en) Three dimensional multiple object tracking system with environmental cues
Sundstedt et al. A psychophysical study of fixation behavior in a computer game
CN107422844A (zh) 一种信息处理方法及电子设备
Heydn et al. The golden bullet: A comparative study for target acquisition, pointing and shooting
CN116807388B (zh) 基于眼动追踪的主导眼检测方法、装置、终端设备和介质
Hu et al. Binocular and monocular depth cues in online feedback control of 3D pointing movement
CN117976129A (zh) 一种基于多深度线索场景的深度知觉训练方法
CN114967128B (zh) 一种应用于vr眼镜的视线追踪***及方法
Wang et al. Evaluating the effects of real world distraction on user performance in virtual environments
CN115531150A (zh) 基于虚拟现实的立体视觉测试和训练方法
Essig et al. Application of a novel neural approach to 3D gaze tracking: Vergence eye-movements in autostereograms
US11977679B1 (en) VR rehabilitation training method and system with quantitative evaluation function

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination