CN108881892A - 用于桌面式虚拟现实***的防眩晕方法、*** - Google Patents
用于桌面式虚拟现实***的防眩晕方法、*** Download PDFInfo
- Publication number
- CN108881892A CN108881892A CN201810503485.4A CN201810503485A CN108881892A CN 108881892 A CN108881892 A CN 108881892A CN 201810503485 A CN201810503485 A CN 201810503485A CN 108881892 A CN108881892 A CN 108881892A
- Authority
- CN
- China
- Prior art keywords
- user
- glasses
- eye
- images
- direction vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了用于桌面式虚拟现实***的防眩晕方法、***,涉及虚拟现实技术领域。该方法包括:根据3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;根据用户左、右眼的位置数据得到用户左、右眼的姿态数据;分别将用户左、右眼的姿态数据赋值给3D显示器内虚拟场景中的左、右摄像机,使虚拟场景根据用户的眼部位置实时更新。本发明提供的防眩晕方法及***,实现了场景随动,使虚拟场景的显示效果更加符合人眼的感受,能够有效防止用户在使用桌面式虚拟现实***时产生眩晕感。
Description
技术领域
本发明涉及虚拟现实技术领域,尤其涉及用于桌面式虚拟现实***的防眩晕方法、***。
背景技术
桌面式虚拟现实***是通过3D立体显示器、追踪设备、交互设备和PC构成的小型虚拟现实***。
目前,虚拟现实设备都存在一个致命的问题,就是容易导致使用者眩晕、恶心甚至呕吐现象,同时还容易造成视觉疲劳,这个问题制约了虚拟现实技术的发展和广泛推进。
目前,对于防止眩晕的方法,主要集中在如何提高屏幕的刷新频率、场景的更新速度等,主要有以下几种技术方法:
1.提高屏幕分辨率。屏幕显示的分辨率决定着显示的清晰度,提高屏幕分辨率可以在一定程度上降低视觉疲劳,减少眩晕感。
2.降低追踪延迟。追踪延迟会导致在交互过程中出现和操作意图不符和卡顿现象,提高追踪准确性和降低延迟时间,可以在一定程度上减少眩晕感。
3.提升刷新频率。通过提升刷新频率和帧率能够减少显示内容卡顿,可以在一定程度上减少眩晕感。
然而以上方法只能通过硬件配置的升级减轻用户的眩晕感,对于防止用户眩晕的效果不明显。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供了用于桌面式虚拟现实***的防眩晕方法、***。
本发明解决上述技术问题的技术方案如下:
一种用于桌面式虚拟现实***的防眩晕方法,所述桌面式虚拟现实***包括:3D眼镜和3D显示器,所述防眩晕方法包括:
根据所述3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;
根据所述用户左、右眼的位置数据得到所述用户左、右眼的姿态数据;
分别将所述用户左、右眼的姿态数据赋值给所述3D显示器内虚拟场景中的左、右摄像机,使所述虚拟场景根据所述用户的眼部位置实时更新。
本发明的有益效果是:本发明提供的防眩晕方法,通过获取用户的眼部空间位置信息,并将眼部空间位置信息赋值给桌面式虚拟现实***的虚拟场景内的摄像机,使摄像机跟随用户的眼部空间位置进行实时更新场景,实现了场景随动,使虚拟场景的显示效果更加符合人眼的感受,能够有效防止用户在使用桌面式虚拟现实***时产生眩晕感。
本发明解决上述技术问题的另一种技术方案如下:
一种用于桌面式虚拟现实***的防眩晕***,所述桌面式虚拟现实***包括:3D眼镜和3D显示器,所述防眩晕***包括:
第一处理单元,用于根据所述3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;
第二处理单元,用于根据所述用户左、右眼的位置数据得到所述用户左、右眼的姿态数据;
传输单元,用于分别将所述用户左、右眼的姿态数据赋值给所述3D显示器内虚拟场景中的左、右摄像机,使所述虚拟场景根据所述用户的眼部位置实时更新。
本发明解决上述技术问题的另一种技术方案如下:
一种终端,所述终端使用如上述技术方案中任一项所述的防眩晕方法控制所述桌面式虚拟现实***。
本发明解决上述技术问题的另一种技术方案如下:
一种存储介质,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如上述技术方案中任一项所述的防眩晕方法。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的流程示意图;
图2为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的眼球与镜片之间的偏移量示意图;
图3为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的mark点的分布示意图;
图4为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的mark点的位置关系示意图;
图5为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的mark点位置识别示意图;
图6为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的直角坐标系示意图;
图7为本发明一种用于桌面式虚拟现实***的防眩晕***的实施例提供的结构框架图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实施例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,为本发明一种用于桌面式虚拟现实***的防眩晕方法的实施例提供的流程示意图,桌面式虚拟现实***包括:3D眼镜、3D显示器和交互设备,用户在佩戴3D眼镜后,就可以观看3D显示器所显示的虚拟图像了,还可以通过交互设备与3D显示器中显示的虚拟图像进行交互。然而部分用户在使用桌面式虚拟现实***时,会出现眩晕感,通过提升屏幕分辨率、刷新频率等方式不能有效防止眩晕,基于此,本实施例提供了以一种可以防止眩晕的方法,该方法包括:
S1,根据3D眼镜左镜片中心点的位置数据和预设偏移量确定用户左眼的位置数据,并根据3D眼镜右镜片中心点的位置数据和预设偏移量确定用户右眼的位置数据。
需要说明的是,预设偏移量为眼球和镜片之间的偏移量,当用户在佩戴3D眼镜后,眼镜的镜片和用户的眼球不是完全重合的,如图2所示,眼球与镜片之间存在一定的距离,这个距离就是偏移量d。分别将左、右镜片中心点的位置数据加上偏移量,就能够得到用户左、右眼的位置数据。
由于不同的用户其面部结构不同,因此偏移量可以根据实际需求设置。例如,根据正常的眼镜距离眼球的距离在2~3cm之间取值,偏移量可以取d=0.025m。
应理解,为了得到3D眼镜左、右镜片中心点的位置数据,可以预先在3D眼镜上设置mark点,由于mark点的位置在3D眼镜上是固定的,因此各个mark点相对于左、右镜片中心点的位置也是固定的,那么在识别出各个mark点的位置数据后,就可以根据mark点的位置数据计算得到左、右镜片中心点的位置数据了。
例如,如图3和图4所示,可以以左镜片的中心点为中心,在左镜片的镜框上设置3个mark点,那么通过这3个mark点就可以确定左镜片的中心点在三维空间内的位置,右镜片也可以通过同样的方式设置mark点。
具体地,可以通过3D显示器上的双目红外摄像头拍摄3D眼镜,得到左摄像机图片和右摄像机图片,如图5所示,假设点P是3D眼镜上的一个mark点,点P在摄像机空间下的坐标为(x,y,z),首先获取点P投影在左摄像机图片和右摄像机图片上的坐标,分别为(Xleft,Yleft)和(Xright,Yright),由于两摄像机是平视摄像机,所以Yleft=Yright=Y,根据相机的内参数焦距f得到如下关系式:
其中,B为双目红外摄像头的基线距离。
由此可以计算出点P在摄像机空间下的坐标(x,y,z):
根据上面的公式,可以计算出3D眼镜上全部mark点的坐标,再根据全部mark点的坐标和与左、右镜片中心点之间的位置关系,就可以得到左、右镜片中心点的位置坐标,即左、右镜片中心点的位置数据。
可以理解,还可以对眼镜的图像进行图像识别处理,通过对图像进行膨胀、二值化、滤波等处理后,可以得到3D眼镜的轮廓图,进而可以通过图像定位方法确定左、右镜片中心点的位置数据。
可以理解,还可以在3D眼镜上加装姿态传感器,实时地获取3D眼镜的位置数据和姿态数据,并根据位置数据和姿态数据计算得到3D眼镜左、右镜片中心点的位置数据。
S2,根据用户左、右眼的位置数据得到用户左、右眼的姿态数据。
需要说明的是,由于3D显示器内虚拟场景中的左、右摄像机模拟用户的双眼,其距离和位置均是固定的,因此其姿态角和用户头部的姿态角是一致的,可以通过将用户的左、右眼的位置数据变换到世界空间后,得到用户左、右眼的姿态矩阵。
应理解,如果是通过识别mark点获取3D眼镜的位置数据,那么可以结合3D眼镜的世界空间坐标系得到用户左、右眼的姿态数据。
应理解,如果是通过姿态传感器获取3D眼镜的位置数据,那么在得到用户左、右眼的位置数据后,可以根据3D眼镜的姿态数据计算得到用户左、右眼的姿态数据。
S3,分别将用户左、右眼的姿态数据赋值给3D显示器内虚拟场景中的左、右摄像机,使虚拟场景根据用户的眼部位置实时更新。
本实施例提供的防眩晕方法,通过获取用户的眼部空间位置信息,并将眼部空间位置信息赋值给桌面式虚拟现实***的虚拟场景内的摄像机,使摄像机跟随用户的眼部空间位置进行实时更新场景,实现了场景随动,使虚拟场景的显示效果更加符合人眼的感受,能够有效防止用户在使用桌面式虚拟现实***时产生眩晕感。
可选地,在一些实施例中,根据3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据,具体可以包括:
分别获取3D眼镜的左镜片的中心点在摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在摄像机空间的第二中心坐标(xr,yr,zr);
建立3D眼镜的直角坐标系,根据第一中心坐标(xl,yl,zl)和第二中心坐标(xr,yr,zr)计算得到直角坐标系的Z轴方向向量w;
需要说明的是,3D眼镜的直角坐标系可以根据实际需求设置,为便于计算,可以将直角坐标系的原点设置在3D眼镜两个镜片之间的中心。
根据第一中心坐标(xl,yl,zl)、第二中心坐标(xr,yr,zr)、预设偏移量d和Z轴方向向量w,分别计算得到用户的左眼在摄像机空间的第一眼部坐标xle,xle=xl+d·w,以及右眼在摄像机空间的第二眼部坐标xre,xre=xr+d·w。
可选地,在一些实施例中,分别获取3D眼镜的左镜片的中心点在摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在摄像机空间的第二中心坐标(xr,yr,zr),具体可以包括:
分别获取3D眼镜上的n个预设点在摄像机空间的n个点坐标,n>2;
应理解,此处的预设点可以为预先设置在3D眼镜上的mark点。
根据n个点坐标的空间几何位置关系分别计算得到3D眼镜的左镜片的中心点在摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在摄像机空间的第二中心坐标(xr,yr,zr)。
例如,以左镜片为例,可以设置3个mark点,这3个mark点可以围成三角形,将三角形的中心与左镜片的中心点重合,那么通过三角几何关系,计算得到这个三角形的中心坐标,就能够得到左镜片的中心坐标了,右镜片同理。
可选地,在一些实施例中,建立3D眼镜的直角坐标系,根据第一中心坐标(xl,yl,zl)和第二中心坐标(xr,yr,zr)计算得到直角坐标系的Z轴方向向量w,具体可以包括:
如图6所示,以3D眼镜左镜片中心点和右镜片中心点之间连线的中心为原点建立直角坐标系,3D眼镜左、右镜片中心点所在的方向为X轴,3D眼镜左、右镜片所在的平面为XY平面;
根据第一中心坐标(xl,yl,zl)和第二中心坐标(xr,yr,zr)计算得到直角坐标系的X轴方向向量u,
确定直角坐标系的Y轴方向向量v,v=(0,1,0);
根据X轴方向向量u和Y轴方向向量v计算Z轴方向向量w,其中,表示右手定则运算。
可选地,在一些实施例中,根据用户左、右眼的位置数据得到用户左、右眼的姿态数据,具体可以包括:
根据预设的坐标系变换矩阵MT-W,分别对第一眼部坐标xle和第二眼部坐标xre进行坐标变换,变换到世界空间,得到第一眼部世界坐标xle′,xle′=MT-W*xle,以及第二眼部世界坐标xre′,xre′=MT-W*xle;
分别将直角坐标系下的X轴方向向量u、Y轴方向向量v和Z轴方向向量w变换到世界空间,分别得到X轴世界方向向量u′,u′=MT-W*u,Y轴世界方向向量v′,v′=MT-W*v,Z轴世界方向向量w′,w′=MT-W*w;
分别根据第一眼部世界坐标xle′、第二眼部世界坐标xre′、X轴世界方向向量u′、Y轴世界方向向量v′和Z轴世界方向向量w′计算得到用户左眼的姿态数据Ml和右眼的姿态数据Mr,
可选地,在一些实施例中,虚拟场景内的虚拟物体的比例、长度、形状和图案与现实场景内的现实物体相同。
需要说明的是,人对虚拟环境中物体的感知一部分是来源于对现实中实际物体的知识积累,虚拟物体相对实际物体过大或过小会影响视觉体验。因此,虚拟场景的物体在制作模型时应使大小和现实物体尽量是同比例的,且单位相同,另外,在虚拟模型制作时模型的材质、纹理要尽量做到和实际物体相同,同时,要避免使用亮色的直线条出现在场景中。这样也可以起到一定的辅助防眩晕作用。
可选地,在一些实施例中,虚拟场景位于3D显示器的以零视差平面为中心的预设区域内。
需要说明的是,目前的3D成像技术是利用双眼的辐辏作用成像于空间点,使虚拟物体跃出或凹陷于屏幕内,从而形成纵深的空间感。当虚拟物体出屏或入屏时,辐辏与焦点调节出现不一致,双眼在这两者之间不断的平衡调节、自适应,终将会在一定时间后出现诸如视力模糊、眼睛干涩、眩晕甚至恶心呕吐等视疲劳症状。而零视差平面是辐辏和焦点唯一一致的平面,离该平面越远辐辏与焦点差距越大,越容易产生疲劳和眩晕。
因此,通过将虚拟场景显示在3D显示器的以零视差平面为中心的预设区域内,能够有效防止用户出现眩晕感,预设区域的大小可以根据实际需求设置。
优选地,本实施例中将虚拟场景设置在相对舒适的一个区域内,该区域在相对于虚拟显示器的零视差平面位置前方0.13米,后方0.3米的立方体区域。
在这个区域内显示虚拟场景,能够得到更好的显示效果,同时能减轻用户的眼部疲劳和眩晕感。
可以理解,可选地,在一些实施例中,可以包含如上述各实施例中的部分或全部步骤。
如图7所示,为本发明一种用于桌面式虚拟现实***的防眩晕***的实施例提供的结构框架图,桌面式虚拟现实***包括:3D眼镜和3D显示器,防眩晕***包括:
第一处理单元1,用于根据3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;
第二处理单元2,用于根据用户左、右眼的位置数据得到用户左、右眼的姿态数据;
传输单元3,用于分别将用户左、右眼的姿态数据赋值给3D显示器内虚拟场景中的左、右摄像机,使虚拟场景根据用户的眼部位置实时更新。
需要说明的是,本实施例是与上述各实施例对应的产品示例,对于本实施例中各部分的说明可以参考上述实施例中的对应说明,在此不再赘述。
在本发明的其他实施例中,还提供一种终端,终端使用如上述实施例中任一项的防眩晕方法控制桌面式虚拟现实***。
在本发明的其他实施例中,还提供一种存储介质,存储介质中存储有指令,当计算机读取指令时,使计算机执行如上述实施例中任一项的防眩晕方法。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种用于桌面式虚拟现实***的防眩晕方法,所述桌面式虚拟现实***包括:3D眼镜和3D显示器,其特征在于,所述防眩晕方法包括:
根据所述3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;
根据所述用户左、右眼的位置数据得到所述用户左、右眼的姿态数据;
分别将所述用户左、右眼的姿态数据赋值给所述3D显示器内虚拟场景中的左、右摄像机,使所述虚拟场景根据所述用户的眼部位置实时更新。
2.根据权利要求1所述的防眩晕方法,其特征在于,所述根据所述3D眼镜左、右镜片各中心点的位置数据和预设偏移量确定用户左、右眼的位置数据,具体包括:
分别获取所述3D眼镜的左镜片的中心点在摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在所述摄像机空间的第二中心坐标(xr,yr,zr);
建立所述3D眼镜的直角坐标系,根据所述第一中心坐标(xl,yl,zl)和所述第二中心坐标(xr,yr,zr)计算得到所述直角坐标系的Z轴方向向量w;
根据所述第一中心坐标(xl,yl,zl)、所述第二中心坐标(xr,yr,zr)、预设偏移量d和所述Z轴方向向量w,分别计算得到用户的左眼在所述摄像机空间的第一眼部坐标xle,xle=xl+d·w,以及右眼在所述摄像机空间的第二眼部坐标xre,xre=xr+d·w。
3.根据权利要求2所述的防眩晕方法,其特征在于,所述分别获取所述3D眼镜的左镜片的中心点在摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在所述摄像机空间的第二中心坐标(xr,yr,zr),具体包括:
分别获取所述3D眼镜上的n个预设点在所述摄像机空间的n个点坐标,n>2;
根据所述n个点坐标的空间几何位置关系分别计算得到所述3D眼镜的左镜片的中心点在所述摄像机空间的第一中心坐标(xl,yl,zl),以及右镜片的中心点在所述摄像机空间的第二中心坐标(xr,yr,zr)。
4.根据权利要求2或3所述的防眩晕方法,其特征在于,所述建立所述3D眼镜的直角坐标系,根据所述第一中心坐标(xl,yl,zl)和所述第二中心坐标(xr,yr,zr)计算得到所述直角坐标系的Z轴方向向量w,具体包括:
以所述3D眼镜左镜片中心点和右镜片中心点之间连线的中心为原点建立直角坐标系,所述3D眼镜左、右镜片中心点所在的方向为X轴,所述3D眼镜左、右镜片所在的平面为XY平面;
根据所述第一中心坐标(xl,yl,zl)和所述第二中心坐标(xr,yr,zr)计算得到所述直角坐标系的X轴方向向量u,
确定所述直角坐标系的Y轴方向向量v,v=(0,1,0);
根据所述X轴方向向量u和所述Y轴方向向量v计算Z轴方向向量w,其中,表示右手定则运算。
5.根据权利要求4所述的防眩晕方法,其特征在于,所述根据所述用户左、右眼的位置数据得到所述用户左、右眼的姿态数据,具体包括:
根据预设的坐标系变换矩阵MT-W,分别对所述第一眼部坐标xle和所述第二眼部坐标xre进行坐标变换,变换到世界空间,得到第一眼部世界坐标xle′,xle′=MT-W*xle,以及第二眼部世界坐标xre′,xre′=MT-W*xle;
分别将所述直角坐标系下的所述X轴方向向量u、所述Y轴方向向量v和所述Z轴方向向量w变换到所述世界空间,分别得到X轴世界方向向量u′,u′=MT-W*u,Y轴世界方向向量v′,v′=MT-W*v,Z轴世界方向向量w′,w′=MT-W*w;
分别根据所述第一眼部世界坐标xle′、所述第二眼部世界坐标xre′、所述X轴世界方向向量u′、所述Y轴世界方向向量v′和所述Z轴世界方向向量w′计算得到所述用户左眼的姿态数据Ml和右眼的姿态数据Mr,
6.根据权利要求1所述的防眩晕方法,其特征在于,所述虚拟场景内的虚拟物体的比例、长度、形状和图案与现实场景内的现实物体相同。
7.根据权利要求1所述的防眩晕方法,其特征在于,所述虚拟场景位于所述3D显示器的以零视差平面为中心的预设区域内。
8.一种用于桌面式虚拟现实***的防眩晕***,所述桌面式虚拟现实***包括:3D眼镜和3D显示器,其特征在于,所述防眩晕***包括:
第一处理单元,用于根据所述3D眼镜左镜片中心点的位置数据、右镜片中心点的位置数据和预设偏移量确定用户左、右眼的位置数据;
第二处理单元,用于根据所述用户左、右眼的位置数据得到所述用户左、右眼的姿态数据;
传输单元,用于分别将所述用户左、右眼的姿态数据赋值给所述3D显示器内虚拟场景中的左、右摄像机,使所述虚拟场景根据所述用户的眼部位置实时更新。
9.一种终端,其特征在于,所述终端使用如权利1至7中任一项所述的防眩晕方法控制所述桌面式虚拟现实***。
10.一种存储介质,其特征在于,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如权利要求1至7中任一项所述的防眩晕方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810503485.4A CN108881892B (zh) | 2018-05-23 | 2018-05-23 | 用于桌面式虚拟现实***的防眩晕方法、*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810503485.4A CN108881892B (zh) | 2018-05-23 | 2018-05-23 | 用于桌面式虚拟现实***的防眩晕方法、*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108881892A true CN108881892A (zh) | 2018-11-23 |
CN108881892B CN108881892B (zh) | 2021-01-05 |
Family
ID=64334561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810503485.4A Active CN108881892B (zh) | 2018-05-23 | 2018-05-23 | 用于桌面式虚拟现实***的防眩晕方法、*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108881892B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113342173A (zh) * | 2021-06-30 | 2021-09-03 | 厦门元馨智能科技有限公司 | 一种基于体感操作一体眼镜的自适应学习方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102045577A (zh) * | 2010-09-27 | 2011-05-04 | 昆山龙腾光电有限公司 | 用于三维立体显示的观察者跟踪***及三维立体显示*** |
CN102780902A (zh) * | 2011-05-13 | 2012-11-14 | Lg电子株式会社 | 处理三维图像的装置和方法 |
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
CN104601980A (zh) * | 2014-12-30 | 2015-05-06 | 深圳市亿思达科技集团有限公司 | 基于眼镜追踪的全息显示装置、***及方法 |
JP2016051126A (ja) * | 2014-09-02 | 2016-04-11 | パナソニックIpマネジメント株式会社 | ヘッドアップディスプレイシステム、虚像表示装置 |
CN107147899A (zh) * | 2017-06-06 | 2017-09-08 | 北京德火新媒体技术有限公司 | 一种采用led 3d屏幕的cave显示***及方法 |
-
2018
- 2018-05-23 CN CN201810503485.4A patent/CN108881892B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102045577A (zh) * | 2010-09-27 | 2011-05-04 | 昆山龙腾光电有限公司 | 用于三维立体显示的观察者跟踪***及三维立体显示*** |
CN102780902A (zh) * | 2011-05-13 | 2012-11-14 | Lg电子株式会社 | 处理三维图像的装置和方法 |
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
JP2016051126A (ja) * | 2014-09-02 | 2016-04-11 | パナソニックIpマネジメント株式会社 | ヘッドアップディスプレイシステム、虚像表示装置 |
CN104601980A (zh) * | 2014-12-30 | 2015-05-06 | 深圳市亿思达科技集团有限公司 | 基于眼镜追踪的全息显示装置、***及方法 |
CN107147899A (zh) * | 2017-06-06 | 2017-09-08 | 北京德火新媒体技术有限公司 | 一种采用led 3d屏幕的cave显示***及方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113342173A (zh) * | 2021-06-30 | 2021-09-03 | 厦门元馨智能科技有限公司 | 一种基于体感操作一体眼镜的自适应学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108881892B (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
Deering | High resolution virtual reality | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
WO2015068656A1 (ja) | 画像生成装置および画像生成方法 | |
CN110187855A (zh) | 近眼显示设备的避免全息影像阻挡视线的智能调节方法 | |
US11170521B1 (en) | Position estimation based on eye gaze | |
CN111007939B (zh) | 一种基于深度感知的虚拟现实***空间定位方法 | |
TW201831947A (zh) | 頭戴式顯示器、其視野校正方法以及混合實境顯示系統 | |
US11956415B2 (en) | Head mounted display apparatus | |
CN104093013A (zh) | 一种立体视觉三维可视化***中自动调节图像视差的方法 | |
CN109799899A (zh) | 交互控制方法、装置、存储介质和计算机设备 | |
US11212502B2 (en) | Method of modifying an image on a computational device | |
US20240036327A1 (en) | Head-mounted display and image displaying method | |
JP4042356B2 (ja) | 画像表示システムおよび画像表示システム用画像補正サービス方法 | |
CN108881892A (zh) | 用于桌面式虚拟现实***的防眩晕方法、*** | |
CN111915739A (zh) | 一种实时三维全景信息互动影息*** | |
US11353953B2 (en) | Method of modifying an image on a computational device | |
WO2017191703A1 (ja) | 画像処理装置 | |
WO2017085803A1 (ja) | 映像表示装置及び映像表示方法 | |
CN108471939B (zh) | 一种潘弄区测量方法、装置以及可穿戴显示设备 | |
WO2020036114A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN109031667B (zh) | 一种虚拟现实眼镜图像显示区域横向边界定位方法 | |
CN111587397B (zh) | 图像生成装置、眼镜片选择***、图像生成方法以及程序 | |
JPH0415772A (ja) | 視線追従形高速画像生成表示方法 | |
Burleigh et al. | Fovography: A naturalistic imaging media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |