CN116019693A - 一种基于vr的立体视训练方法及装置 - Google Patents
一种基于vr的立体视训练方法及装置 Download PDFInfo
- Publication number
- CN116019693A CN116019693A CN202310323654.7A CN202310323654A CN116019693A CN 116019693 A CN116019693 A CN 116019693A CN 202310323654 A CN202310323654 A CN 202310323654A CN 116019693 A CN116019693 A CN 116019693A
- Authority
- CN
- China
- Prior art keywords
- visual target
- training
- optotype
- user
- displacement difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002645 vision therapy Methods 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 126
- 238000012549 training Methods 0.000 claims abstract description 74
- 238000006073 displacement reaction Methods 0.000 claims abstract description 51
- 238000012937 correction Methods 0.000 claims description 11
- 230000008447 perception Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 208000004350 Strabismus Diseases 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 1
- 101100459261 Cyprinus carpio mycb gene Proteins 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Rehabilitation Tools (AREA)
Abstract
本发明公开了一种基于VR的立体视训练方法及装置,至少包括:获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。本发明通过VR设备构建虚拟场景,以模拟现实场景调节物体的远近,从而训练用户的感知深度觉,以达到立体视训练的方式。
Description
技术领域
本发明涉及视觉训练技术领域,尤其涉及一种基于VR的立体视训练方法及装置。
背景技术
双眼同时注视某物体,双眼视线交叉于一点,叫注视点,从注视点反射回到视网膜上的光点是对应的,这两点将信号转入大脑视中枢合成一个物体完整的像。不但看清了这一点,而且这一点与周围物体间的距离、深度、凸凹等等都能辨别出来,这样成的像就是立体的像,这种视觉也叫立体视觉。
现有的立体视训练方案,通过反复观察特制的立体画片,以巩固和提高斜视弱视的矫正训练效果,增强立体视觉能力。正常者能将这两张图像融合成一张完整立体图像。不正常者感觉不到立体图像,只看到一张图像而另一张被抑制或看为两张图像。但仅通过立体画片识别进行立体训练,没有***的训练方案,训练过程单调且重复、训练效果不佳。
发明内容
本发明提供了一种基于VR的立体视训练方法及装置,以解决现有立体视训练种训练过程单调且重复、训练效果不佳的技术问题。
为了解决上述技术问题,本发明实施例提供了一种基于VR的立体视训练方法,包括:
获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
本发明通过VR设备构建虚拟场景,以模拟现实场景调节物体的远近,从而训练用户的感知深度觉,以达到立体视训练的方式;同时,通过实时线性调整立体视训练的锐度,从而提高立体视训练与用户的匹配性,提高立体视训练的效果。
进一步地,所述根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动,具体为:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应所述第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
本发明通过设置纵向距离不同的两个视标,使得用户左右眼观测不同视标,并通过用户操作移动视标,模拟现实场景中双眼视物的远近,从而训练用户的感知深度觉。
进一步地,在所述根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动之前,还包括:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
本发明通过双眼矫正视力设置偏差阈值,从而提高偏差阈值与用户本身的匹配性,使得立体视训练的锐度更准确。
进一步,所述当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作,具体为:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
进一步地,所述判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度,具体为:
若所述纵向位移差在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向远离双眼的方向进行纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向双眼方向进行纵向移动。
本发明通过立体视训练时第一视标和第二视标的位移差,评估用户感知深度觉,并动态调整立体视训练的锐度,从而提高立体视训练的适配性,灵活调整立体视训练的训练难度,提高训练效果。
第二方面,本发明实施还提供了一种基于VR的立体视训练装置,包括:初始化模块、训练模块和锐度调整模块;
所述初始化模块,用于获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
所述训练模块,用于根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
所述锐度调整模块,用于当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
进一步地,所述训练模块,具体用于:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
进一步地,所述锐度调整模块,还用于:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
进一步地,所述锐度调整模块,具体用于:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
进一步地,所述锐度调整模块,还用于:
若所述纵向位移差在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向远离双眼的方向纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向双眼方向纵向移动。
附图说明
图1为本发明实施例提供的基于VR的立体视训练方法的一种流程示意图;
图2为本发明实施例提供的基于VR的立体视训练方法的一种视标示意图;
图3为本发明实施例提供的基于VR的立体视训练方法的一种锐度调整示意图;
图4为本发明实施例提供的基于VR的立体视训练方法的一种视差角示意图;
图5为本发明实施例提供的一种基于VR的立体视训练装置的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参照图1,图1为本发明实施例提供的基于VR的立体视训练方法的一种流程示意图,包括步骤101至步骤103,具体如下:
步骤101:获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
在本实施例中,首先获取用户信息,所述用户信息包括用户的双眼矫正视力。并基于VR设备搭建好虚拟场景,在虚拟场景放置两个虚拟摄像机,两个摄像机间隔为用户瞳距,两个摄像头模拟人的两个眼睛看到的场景,而不是通过分视来分别看不同的物体,此时的VR设备可实现沉浸立体视。
在本实施例中,在虚拟现实场景中放置两个横向有一定距离的第一视标和第二视标,并且所述第一视标和第二视标设置在摄像机正前方,高度与视线点相当。
在本实施例中,进行初始化第一视标和第二视标之前,还包括选取固定视标、视标形状和视标的移动速度。
步骤102:根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
在本实施例中,在根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动之前,还包括:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
在本实施例中,在进行立体视训练之前还需通过用户的双眼矫正视力,设置视标对其的偏差阈值、步长距离。
作为本发明实施例的一种具体举例,请参照表1,表1为本发明实施例提供的一种阈值对照表。
表1
在本实施例中,矫正视力参数默认匹配阈值表,阈值越小代表立体视锐度越小,深度觉要求越高,也可以手动设置。一般双眼视力相差太大或者有斜视的用户立体视觉越差,视标对齐偏差阈值可设置大一些,提高对齐的成功率。
在本实施例中,通过双眼矫正视力设置偏差阈值,从而提高偏差阈值与用户本身的匹配性,使得立体视训练的锐度更准确。
在本实施例中,所述根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动,具体为:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应所述第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
在本实施例中,选取第一视标为固定视标,将所述第一视标和第二视标设置在默认的起始位置,并根据预设的偏移距离,控制第二视标相对于第一视标向远离人眼方向或靠近人眼方向进行纵向偏移,以开始立体视训练。
作为本发明实施例的一种具体举例,请参照图2,图2为本发明实施例提供的基于VR的立体视训练方法的一种视标示意图。
在本实施例中,第一视标的距离纵向距离相机1米开始,第二视标的纵向距离在第一视标前后随机偏移1米距离,开始立体视训练时,用户可通过VR手柄方向键调节第二视标的纵向距离。
在本实施例中,所述第一训练规则指定,训练时,第一视标固定好不动,用户通过手柄调节第二视标的纵向距离,当用户认为两个视标纵向距离一致时,按下手柄确定键确定,并停止第二视标移动。
在本实施例中,通过设置纵向距离不同的两个视标,使得用户左右眼观测不同视标,并通过用户操作移动视标,模拟现实场景中双眼视物的远近,从而训练用户的感知深度觉。
步骤103:当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
在本实施例中,所述当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作,具体为:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
在本实施例中,根据虚拟场景布局位中第一摄像头cam1的三维坐标和第二摄像头cam2的三维坐标计算两者中间的位置坐标v0,那么第一视标的距离d1=(v1-v0)求模,第二视标的距离d2=(v2-v0)求模,d1-d2的绝对值就是判断的偏差值,如果纵向位移差超出设定的偏差阈值则判断失败,否者判断成功。
请参照图3,图3为本发明实施例提供的基于VR的立体视训练方法的一种锐度调整示意图。
在本实施例中,所述判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度,具体为:
若所述纵向位移差在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向远离双眼的方向进行纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向双眼方向进行纵向移动。
在本实施例中,当第二视标停止移动后,设备自动计算出第二视标和第一的纵向偏差值,若所述纵向偏差值在阈值内则判断成功,否则判断失败。如果判断成功则控制所述第一视标按步长距离向前推进,就是第一视标向前移动步长的距离;如果当前第一视标离距离眼睛是1米,步长距离是0.5米,则下一轮立体视训练的第一视标距离人眼1.5米。失败则往后退,即如果当前第一视标离距离眼睛是1米,步长距离是0.5米,则下一轮立体视训练的第一视标距离人眼0.5米。
在本实施例中,通过立体视训练时第一视标和第二视标的位移差,评估用户感知深度觉,并动态调整立体视训练的锐度,从而提高立体视训练的适配性,灵活调整立体视训练的训练难度,提高训练效果。
请参照图4,图4为本发明实施例提供的基于VR的立体视训练方法的一种视差角示意图。
在本实施例中,通过判断两个视标的距离来训练用户的深度感知,也就是立体视锐度(立体视锐度又称深度视觉阈限、立体锐度、实体敏度,指在人的深度视觉中可感知到的最小深度差。正常值为60'以下),单位秒。当两个视标的距离一样时,对观察者的视差均为零(∠A-∠B=0),反之则不为零(∠A-∠B≠0),如图4所示,通过不同距离变化来影响两者视标视差达到训练用户的立体视的目的,训练能感知到最小立体视锐度。
在本实施例中,通过VR设备构建虚拟场景,以模拟现实场景调节物体的远近,从而训练用户的感知深度觉,以达到立体视训练的方式;同时,通过实时线性调整立体视训练的锐度,从而提高立体视训练与用户的匹配性,提高立体视训练的效果。
请参照图5,图5为本发明实施例提供的一种基于VR的立体视训练装置的一种结构示意图,包括初始化模块501、训练模块502和锐度调整模块503;
所述初始化模块501,用于获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
所述训练模块502,用于根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
所述锐度调整模块503,用于当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
在本实施例中,所述训练模块502,具体用于:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
在本实施例中,所述锐度调整模块503,还用于:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
在本实施例中,所述锐度调整模块503,具体用于:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
在本实施例中,所述锐度调整模块503,还用于:
若所述纵向位移差在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向远离双眼的方向纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向双眼方向纵向移动。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于VR的立体视训练方法,其特征在于,包括:
获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
2.如权利要求1所述的基于VR的立体视训练方法,其特征在于,所述根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动,具体为:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应所述第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
3.如权利要求1所述的基于VR的立体视训练方法,其特征在于,在所述根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动之前,还包括:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
4.如权利要求3所述的基于VR的立体视训练方法,其特征在于,所述当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作,具体为:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
5.如权利要求4所述的基于VR的立体视训练方法,其特征在于,所述判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度,具体为:
若所述纵向位移差在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向远离双眼的方向进行纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则控制所述第一视标根据所述步长距离向双眼方向进行纵向移动。
6.一种基于VR的立体视训练装置,其特征在于,包括:初始化模块、训练模块和锐度调整模块;
所述初始化模块,用于获取用户的双眼矫正视力;并基于VR设备构建虚拟场景,根据所述双眼矫正视力初始化第一视标和第二视标,以供用户执行立体视训练操作;
所述训练模块,用于根据第一训练规则和预设的偏移距离控制所述第一视标进行移动,并响应第一用户操作,控制所述第二视标进行移动;
所述锐度调整模块,用于当所述第二视标停止移动后,计算所述第一视标和所述第二视标的位移差,并根据所述位移差调整所述立体视训练的锐度,以供用户执行下一次立体视训练操作;其中,所述锐度用于调整所述第一视标的偏移距离。
7.如权利要求6所述的基于VR的立体视训练装置,其特征在于,所述训练模块,具体用于:
根据所述第一训练规则和所述偏移距离调整所述第一视标和第二视标的位置;其中所述第二视标相对于所述第一视标随机纵向偏移;
固定所述第一视标保持不动,响应第一用户操作,并根据所述用户操作控制所述第二视标向所述第一视标的方向进行纵向移动,且所述第二视标水平方向保持不动。
8.如权利要求6所述的基于VR的立体视训练装置,其特征在于,所述锐度调整模块,还用于:
预设阈值对照表,根据双眼矫正视力和所述阈值对照表设置偏差阈值和步长距离。
9.如权利要求8所述的基于VR的立体视训练装置,其特征在于,所述锐度调整模块,具体用于:
记录所述第一视标和所述第二视标的位置坐标,所述位置坐标包括横坐标和纵坐标;
根据所述第一视标和所述第二视标的纵坐标,计算所述第一视标和所述第二视标的纵向位移差;
判断所述纵向位移差是否在所述偏差阈值的范围内,并根据所述第一训练规则调整所述立体视训练的锐度。
10.如权利要求9所述的基于VR的立体视训练装置,其特征在于,所述锐度调整模块,还用于:
若所述纵向位移差在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向远离双眼的方向纵向移动;
若所述纵向位移差不在所述偏差阈值的范围内,则将所述第一视标根据所述步长距离向双眼方向纵向移动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310323654.7A CN116019693B (zh) | 2023-03-30 | 2023-03-30 | 一种基于vr的立体视训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310323654.7A CN116019693B (zh) | 2023-03-30 | 2023-03-30 | 一种基于vr的立体视训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116019693A true CN116019693A (zh) | 2023-04-28 |
CN116019693B CN116019693B (zh) | 2023-06-16 |
Family
ID=86089679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310323654.7A Active CN116019693B (zh) | 2023-03-30 | 2023-03-30 | 一种基于vr的立体视训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116019693B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116898704A (zh) * | 2023-07-13 | 2023-10-20 | 广州视景医疗软件有限公司 | 一种基于vr的视标物调整方法和装置 |
CN117976129A (zh) * | 2024-04-01 | 2024-05-03 | 河海大学 | 一种基于多深度线索场景的深度知觉训练方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105496347A (zh) * | 2016-01-12 | 2016-04-20 | 夏国滨 | 视深度电子测量装置 |
CN113101159A (zh) * | 2021-04-08 | 2021-07-13 | 杭州深睿博联科技有限公司 | 一种基于vr的立体视觉训练、评估方法和装置 |
-
2023
- 2023-03-30 CN CN202310323654.7A patent/CN116019693B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105496347A (zh) * | 2016-01-12 | 2016-04-20 | 夏国滨 | 视深度电子测量装置 |
CN113101159A (zh) * | 2021-04-08 | 2021-07-13 | 杭州深睿博联科技有限公司 | 一种基于vr的立体视觉训练、评估方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116898704A (zh) * | 2023-07-13 | 2023-10-20 | 广州视景医疗软件有限公司 | 一种基于vr的视标物调整方法和装置 |
CN116898704B (zh) * | 2023-07-13 | 2023-12-26 | 广州视景医疗软件有限公司 | 一种基于vr的视标物调整方法和装置 |
CN117976129A (zh) * | 2024-04-01 | 2024-05-03 | 河海大学 | 一种基于多深度线索场景的深度知觉训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116019693B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116019693B (zh) | 一种基于vr的立体视训练方法及装置 | |
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
CN108600733B (zh) | 一种基于人眼跟踪的裸眼3d显示方法 | |
EP2701390B1 (en) | Apparatus for adjusting displayed picture, display apparatus and display method | |
KR20160067045A (ko) | 안구추적을 기반으로 한 홀로그램 디스플레이 방법 및 홀로그램 디스플레이 장치 | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
US11570426B2 (en) | Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance | |
KR101270025B1 (ko) | 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치 | |
JPWO2018055618A5 (zh) | ||
CN110537897B (zh) | 视线追踪方法和装置、计算机可读存储介质、电子设备 | |
CN107167924A (zh) | 一种虚拟现实设备和虚拟现实设备的透镜调节方法 | |
WO2019109323A1 (zh) | 图像显示方法、穿戴式智能设备及存储介质 | |
JP2002223458A (ja) | 立体映像作成装置 | |
CN113196136A (zh) | 虚拟现实头戴送受话器中的动态会聚调整 | |
EP3238178B1 (en) | Methods and systems for producing a magnified 3d image | |
CN114371779B (zh) | 一种视线深度引导的视觉增强方法 | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
JP6915165B2 (ja) | ビュー画像を生成するための装置および方法 | |
CN111726515A (zh) | 一种深度相机*** | |
JPH0685590B2 (ja) | 立体表示システム | |
CN104216126A (zh) | 一种变焦3d显示技术 | |
KR101873161B1 (ko) | 컨버전스 매칭을 이용한 개인용 3차원 영상 제공 방법 및 장치 | |
CN112578558B (zh) | 用于头戴式装置的、用于更新眼睛追踪模型的方法和*** | |
JP2022519033A (ja) | シーンの画像表現 | |
US10326976B2 (en) | Method and apparatus for providing personal 3-dimensional image using convergence matching algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |