CN107340870A - 一种融合vr和ar的虚拟现实展示***及其实现方法 - Google Patents
一种融合vr和ar的虚拟现实展示***及其实现方法 Download PDFInfo
- Publication number
- CN107340870A CN107340870A CN201710569296.2A CN201710569296A CN107340870A CN 107340870 A CN107340870 A CN 107340870A CN 201710569296 A CN201710569296 A CN 201710569296A CN 107340870 A CN107340870 A CN 107340870A
- Authority
- CN
- China
- Prior art keywords
- data
- camera
- client
- service end
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种融合VR和AR的虚拟现实展示***及其实现方法,包括立体交互显示与分享设备和控制***,佩戴有立体显示眼镜的用户通过交互笔来与立体交互显示设备内的虚拟世界进行交互,摄像头获取用户的交互姿态,并在普通显示设备中以增强现实的方式将虚拟世界叠加在现实世界中呈现出来;控制***包括服务器和客户端,服务器和客户端通过通讯层进行通讯。本发明融合VR和AR技术,使用VR交互技术为使用者带来沉浸式的用户体验,同时将沉浸在用户眼前的虚拟世界以AR的方式分享给旁观者,从而为双方的交流沟通提供了一个高质量的虚拟现实平台。
Description
技术领域
本发明涉及虚拟现实领域,具体的说,是涉及一种融合VR和AR的虚拟现实展示***及其实现方法。
背景技术
虚拟现实技术的出现成为人机交互一个重要分支,虚拟现实技术作为新一代的人机交互技术,依靠实时计算空间三维信息。虚拟现实技术(VR)主要包括模拟环境、感知、自然技能和传感设备等方面:模拟环境是由计算机生成的、实时动态的三维立体逼真图像;感知是指理想的VR应该具有一切人所具有的感知,除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知;自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入做出实时响应,并分别反馈到用户的五官;传感设备是指三维交互设备,常用的有立体头盔、数据手套、三维鼠标、数据衣等穿戴于用户身上的装置和设置于现实环境中的传感装置,如摄像机、地板压力传感器等。
目前虚拟现实往往提供的是一种沉浸式交互体验,让用户在以假乱真的虚拟世界中获得高质量的感知体验,而作为站在用户身旁的旁观者来讲,他们往往只能看着用户自娱自乐,不能同用户一起分享这种沉浸式的体验,从而给用户与旁观者之间的实时交流沟通带来一定程度上的阻碍,进而对虚拟现实走进教室、会议室以及其他多人交流场景带来无形的沟壑。
上述缺陷,值得解决。
发明内容
为了克服现有的技术的不足,本发明提供一种融合VR和AR的虚拟现实展示***及其实现方法。
本发明技术方案如下所述:
一种融合VR和AR的虚拟现实展示***,其特征在于,包括立体交互显示与分享设备和控制***;
所述立体交互显示与分享设备中,佩戴有立体显示眼镜的用户通过交互笔来与立体交互显示设备内的虚拟世界进行交互,摄像头获取用户的交互姿态,并在普通显示设备中以增强现实的方式将虚拟世界叠加在现实世界中呈现出来;
所述控制***包括服务器和客户端,所述服务器和所述客户端通过通讯层进行通讯,所述服务端负责管理摄像头、计算摄像头与屏幕相对空间位姿关系数据、接收并解压客户端传送数据后呈现;所述客户端负责提取服务端所需的数据,并将这些数据融合成视频流数据,压缩后传给服务端。
根据上述方案的本发明,其特征在于,所述立体交互显示设备包括立体显示器、工业相机模组、主动式或被动式立体眼镜、交互笔以及计算机***,所述工业相机模组获得视场范围内的两幅或者两幅以上的图像信号,并把该图像信号输入到所述计算机***,所述计算机***区分、跟踪用户佩戴的所述主动式或被动式立体眼镜和所述交互笔上具有高反射涂层的标记点或主动发光元件,分别输出用户视线与所述立体显示器的焦点和所述交互笔的空间位置和方向。
根据上述方案的本发明,其特征在于,使用TCP协议连接客户端和服务端,将客户端压缩加密后的数据流传给服务端。
根据上述方案的本发明,其特征在于,所述客户端包括摄像头管理模块、图像融合模块以及数据压缩与传送模块,所述摄像头管理模块摄取用户的使用数据,所述图像融合模块将图像数据进行融合并传送给所述数据压缩与传送模块,所述数据压缩与传送模块对图像数据进行压缩收传给所述服务器。
根据上述方案的本发明,其特征在于,所述服务端包括位姿估算模块、数据解压与显示模块以及服务端摄像头管理模块,所述服务端摄像头管理模块对所述客户端的摄像头进行管理,所述位姿估算模块计算摄像头与屏幕相对空间位姿关系数据,所述数据解压与显示模块接收并解压客户端传送数据后呈现。
另一方面,一种融合VR和AR的虚拟现实展示***的实现方法,其特征在于,服务端进行初始化,检测***中是否存在摄像头以及该摄像头能否正常运行;初始化完成以后,服务端启动摄像头,调整摄像头,进行位姿计算,得到并保存摄像头与VR交互设备屏幕的空间位姿相对关系;服务端和客户端通过socket协议建立连接,将摄像头与屏幕的空间位姿关系数据传给客户端;客户端开启摄像头,将其获取的图像与虚拟相机里的图像进行融合获得稳定的图像流,客户端压缩图像流并将数据通过TCP传输给服务端,服务端接收数据后解码加载显示。
根据上述方案的本发明,其特征在于,进行位姿计算的过程中,计算出在世界坐标系下,摄像头坐标系到屏幕坐标系的变换关系,具体通过旋转矩阵R和平移矩阵T描述,其中,在三维场景中,当一个点P(x,y,z)平移到另一个点P’(x’,y’,z’):
[x’,y’,z’]=[x,y,z]*T,
当一个点P(x,y,z)旋转到另一个点P’(x’,y’,z’):
[x’,y’,z’]=[x,y,z]*R,
(1)首先提取图像中的特征点,***从图像中提取布满显示器屏幕的角点特征图;
(2)取出特征点后,得出相对应的匹配关系;
(3)根据对极几何,每一组对应点构建一个坐标转换方程,多组对应点可构造方程组AX=0,其中,A是不同组对应点坐标构成的矩阵,X是基本矩阵九个元素重新排列形成的列向量,求解方程组AX=0得到旋转矩阵R和平移矩阵T。
进一步的,(1)在求解旋转矩阵R和平移矩阵T的过程中,对AX=0进行最小二乘估计,矩阵的最小二乘估计采用计算ATA的特征值和特征向量,取最小特征值对应的特征向量作为X的解,具体采用雅各比法对特征值和特征向量进行计算:
设pl和pr是物理坐标值,对应的像素坐标值为ql和qr,摄像头内参矩阵为M,则有:
p=M-1q
从而:
(pr)TEpl = 0 à qr T(Mr -1)TE Ml -1ql = 0
得到:
F= (Mr -1)TE Ml -1
由上式可以得出本质矩阵E;
(2)根据SVD公式描述:
分解拆成r个列向量与行向量的乘积, 其中:
利用SVD分解,通过本质矩阵E求得旋转矩阵R和平移矩阵T。
根据上述方案的本发明,其特征在于,图像进行融合的过程中,客户端在获得服务端传来的位置数据后,在虚拟世界里放置建立代表人眼的虚拟相机和代表屏幕的虚拟显示面,已知虚拟显示面的位置为t,角度为r,则虚拟相机的位置P’为:
P’=t*T,
虚拟相机的角度R’为:
R’=r*R,
客户端打开摄像头设备,将视频流映射到虚拟显示面上,代表操作笔的虚拟操作笔与虚拟物体之间进行互动,虚拟相机通过拍摄将虚拟显示面、虚拟操作笔以及虚拟物体融合一起得到实时的图像流。
根据上述方案的本发明,其特征在于,客户端压缩图像流的过程中:***在获取实时的图像流以后,将流中的每一帧图像转换成byte型数据,对这些数据进行RLE转换,压缩后得到新的数据组,对该组数据进行MD5转换,对该组数据进行压缩和加密处理。
根据上述方案的本发明,其特征在于,服务端接收数据后解码加载显示的过程中:服务端在收到客户端传来的数据后,首先进行MD5解密,然后根据RLE压缩时遵循的规则进行反编码复原数据,服务端将最终的数据转换成图片格式,通过连续不断的图片序列帧,得到视频流,最终显示在界面上。
根据上述方案的本发明,其有益效果在于,本发明针对现有的虚拟现实技术不易展示以及分享程度低等缺点,融合VR和AR技术,使用VR交互技术为使用者带来沉浸式的用户体验,将逼真的虚拟世界呈现在用户眼前,让用户在探索的过程中获取优质的感知体验;同时,本发明将沉浸在用户眼前的虚拟世界以AR的方式分享给旁观者,并且实时保证双方虚拟世界状态(位置以及姿态信息等)的同步,从而为双方的交流沟通提供了一个高质量的虚拟现实平台。
附图说明
图1为本发明实施例一中立体交互显示与分享设备的结构示意图。
图2为本发明实施例二中立体交互显示与分享设备的结构示意图。
图3为本发明立体交互显示设备的结构示意图。
图4为本发明实现的***结构图。
图5为本发明实现的流程图。
图6为本发明姿态估算坐标系关系的示意图。
图7为本发明姿态估算的流程图。
图8为本发明角点特征的示意图。
图9为本发明图像融合的原理图。
图10为本发明数据压缩的流程图。
在图中,1、立体显示交互设备;2、交互笔;3、摄像头;4、普通显示设备;11、立体显示器;12、工业相机模组;13、编码模块;14、虚拟射线;15、主动式或被动式立体眼镜;16、用户交互笔;21、屏幕坐标系;22、相机坐标系;23、世界坐标系;31、虚拟相机;32、虚拟操作笔;33、虚拟相机;34、虚拟物体;35、虚拟显示面;40、角特征点。
具体实施方式
下面结合附图以及实施方式对本发明进行进一步的描述:
如图1-2所示,一种融合VR和AR的虚拟现实展示***,包括立体交互显示与分享设备和控制***。
立体交互显示与分享设备包括立体交互显示设备1、带有支架的摄像头3、普通显示设备4(显示器或者投影显示装置)。立体交互显示与分享设备中,佩戴有立体显示眼镜的用户通过交互笔2来与立体交互显示设备1内的虚拟世界进行交互。通过立体显示眼镜和立体交互显示设备1可以让虚拟世界从屏幕里“走出来”,让用户有一种身临其境的感觉,通过交互笔2,用户可以与虚拟世界中的物体进行沟通和互动。
带有支架的摄像头3获取用户的交互姿态,并在普通显示设备4中以增强现实的方式将虚拟世界叠加在现实世界中呈现出来。
如图3所示,立体交互显示设备1包括立体显示器11、加载窄带滤光片的具有同步触发功能的两个或两个以上的工业相机模组12、编码模块13、有可识别标记点的主动式或被动式立体眼镜15、具有陀螺仪和(或)加速度计和(或)磁力计以及可识别标记点的用户交互笔16以及计算机***,工业相机模组获得视场范围内的两幅或者两幅以上的图像信号,并把该图像信号输入到计算机***,计算机***区分、跟踪用户佩戴的主动式或被动式立体眼镜和用户交互笔16上具有高反射涂层的标记点或主动发光元件,用户交互笔16发射虚拟射线14分别输出用户视线与立体显示器的焦点和交互笔的空间位置和方向。
如图4所示,控制***包括服务器和客户端,服务器和客户端通过通讯层进行通讯,使用TCP协议连接客户端和服务端,将客户端压缩加密后的数据流传给服务端。服务端负责管理摄像头、计算摄像头与屏幕相对空间位姿关系数据、接收并解压客户端传送数据后呈现;客户端负责提取服务端所需的数据,并将这些数据融合成视频流数据,压缩后传给服务端。具体的:
客户端包括摄像头管理模块、图像融合模块以及数据压缩与传送模块,摄像头管理模块摄取用户的使用数据,图像融合模块将图像数据进行融合并传送给数据压缩与传送模块,数据压缩与传送模块对图像数据进行压缩收传给服务器。
服务端包括位姿估算模块、数据解压与显示模块以及服务端摄像头管理模块,服务端摄像头管理模块对客户端的摄像头进行管理,位姿估算模块计算摄像头与屏幕相对空间位姿关系数据,数据解压与显示模块接收并解压客户端传送数据后呈现。
如图5所示,一种融合VR和AR的虚拟现实展示***的实现方法,服务端进行初始化,检测***中是否存在摄像头以及该摄像头能否正常运行;初始化完成以后,服务端启动摄像头,调整摄像头,进行位姿计算,得到并保存摄像头与VR交互设备屏幕的空间位姿相对关系;服务端和客户端通过socket协议建立连接,将摄像头与屏幕的空间位姿关系数据传给客户端;客户端开启摄像头,将其获取的图像与虚拟相机里的图像进行融合获得稳定的图像流,客户端压缩图像流并将数据通过TCP传输给服务端,服务端接收数据后解码加载显示。
启动摄像头时将带有支架的高清摄像头调整并固定到一个合适的位置,一般以高清摄像头与屏幕夹角在20°到60°之间最佳。分享设备可以放在任何一个合适的位置 ,这样搭建完成稳定的硬件环境。服务端启用摄像头管理模块来初始化验证***摄像头硬件时候正常,如果正常,打开摄像头进行姿态标定,保存标定数据并传输给客户端。
如图6所示,摄像头3与屏幕之间存在三个坐标系:屏幕坐标系21、相机坐标系22、世界坐标系23。屏幕坐标系21以屏幕左上点为原点。屏幕坐标系21和相机坐标系22都为右手坐标系。基于视觉的姿态估算方法的目的是计算出在世界坐标系23下,相机坐标系22到屏幕坐标系21的变换关系,这种变换关系可以通过一个旋转矩阵R和一个平移矩阵T描述。其中,在三维场景中,当一个点P(x,y,z)平移到另一个点P’(x’,y’,z’):
[x’,y’,z’]=[x,y,z]*T,
当一个点P(x,y,z)旋转到另一个点P’(x’,y’,z’):
[x’,y’,z’]=[x,y,z]*R,
因此,姿态估算方法的目的是最终计算出旋转矩阵R和平移矩阵T。
如图7所示,估算方法流程包括:
(1)如图8所示,首先提取图像中的特征点,***从图像中提取布满显示器屏幕的角特征点40的图;
(2)取出特征点后,得出相对应的匹配关系;
(3)根据对极几何,形如xT*F*x’=0,其中x,x’分别是分属于两张照片的对应点,以列向量形式表示,而F是基本矩阵。
每一组对应点构建一个坐标转换方程,多组对应点可构造方程组AX=0,其中,A是不同组对应点坐标构成的矩阵,X是基本矩阵九个元素重新排列形成的列向量,求解方程组AX=0得到旋转矩阵R和平移矩阵T。
估算基本矩阵的方法是(1)在求解旋转矩阵R和平移矩阵T的过程中,对AX=0进行最小二乘估计,矩阵的最小二乘估计采用计算ATA的特征值和特征向量,取最小特征值对应的特征向量作为X的解,具体采用雅各比(Jacobi)法对特征值和特征向量进行计算:
设pl和pr是物理坐标值,对应的像素坐标值为ql和qr,摄像头内参矩阵为M,则有:
p=M-1q
从而:
(pr)TEpl = 0 à qr T(Mr -1)TE Ml -1ql = 0
得到:
F= (Mr -1)TE Ml -1
由上式可以得出本质矩阵E;
(2)根据SVD公式描述:
分解拆成r个列向量与行向量的乘积, 其中:
利用SVD分解,通过本质矩阵E求得旋转矩阵R和平移矩阵T。
图像进行融合的过程中,客户端在获得服务端传来的位置数据后,在虚拟世界里放置建立代表人眼的虚拟相机31、33和代表屏幕的虚拟显示面35,已知虚拟显示面35的位置为t,角度为r,则虚拟相机31的位置P’为:
P’=t*T,
虚拟相机31、33的角度R’为:
R’=r*R,
如图9所示,客户端打开摄像头设备,将视频流映射到虚拟显示面35上,代表操作笔的虚拟操作笔32与虚拟物体34之间进行互动,虚拟相机33通过拍摄将虚拟显示面35、虚拟操作笔32以及虚拟物体34融合一起得到实时的图像流。
操作者通过客户端在体验时会通过交互笔对虚拟物体进行平移旋转操作,通过虚拟相机将可以获取实时的图像序列帧,对这些序列帧进行数据转换、压缩、加密后,传送给服务端。
客户端压缩图像流的过程中:***在获取实时的图像流以后,将流中的每一帧图像转换成byte型数据,首先对这些数据进行RLE( Run Length Encoding)转换,所谓RLE转换即对数据流进行编码,如数据:
12,65,14,52,53,93,93,93,93,93,93,32。
其中出现了六次符号“93”,这里可以用3个字节来代替:一个标记字节“0”、重复的次数“6”和符号本身“93”,转换后的数据流为:
12,65,14,52,53,0,6,93,32。
对这些数据进行RLE转换,压缩后得到新的数据组,对该组数据进行MD5(Message-Digest Algorithm 5)转换,对该组数据进行压缩和加密处理。
如图10所示,服务端接收数据后解码加载显示的过程中:服务端在收到客户端传来的数据后,首先进行MD5解密,然后根据RLE压缩时遵循的规则进行反编码复原数据,服务端将最终的数据转换成图片格式,通过连续不断的图片序列帧,得到视频流,最终显示在界面上。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
上面结合附图对本发明专利进行了示例性的描述,显然本发明专利的实现并不受上述方式的限制,只要采用了本发明专利的方法构思和技术方案进行的各种改进,或未经改进将本发明专利的构思和技术方案直接应用于其它场合的,均在本发明的保护范围内。
Claims (10)
1.一种融合VR和AR的虚拟现实展示***,其特征在于,包括立体交互显示与分享设备和控制***;
所述立体交互显示与分享设备中,佩戴有立体显示眼镜的用户通过交互笔来与立体交互显示设备内的虚拟世界进行交互,摄像头获取用户的交互姿态,并在普通显示设备中以增强现实的方式将虚拟世界叠加在现实世界中呈现出来;
所述控制***包括服务器和客户端,所述服务器和所述客户端通过通讯层进行通讯,所述服务端负责管理摄像头、计算摄像头与屏幕相对空间位姿关系数据、接收并解压客户端传送数据后呈现;所述客户端负责提取服务端所需的数据,并将这些数据融合成视频流数据,压缩后传给服务端。
2.根据权利要求1所述的融合VR和AR的虚拟现实展示***,其特征在于,所述立体交互显示设备包括立体显示器、工业相机模组、主动式或被动式立体眼镜、交互笔以及计算机***,所述工业相机模组获得视场范围内的两幅或者两幅以上的图像信号,并把该图像信号输入到所述计算机***,所述计算机***区分、跟踪用户佩戴的所述主动式或被动式立体眼镜和所述交互笔上具有高反射涂层的标记点或主动发光元件,分别输出用户视线与所述立体显示器的焦点和所述交互笔的空间位置和方向。
3.根据权利要求1所述的融合VR和AR的虚拟现实展示***,其特征在于,所述客户端包括摄像头管理模块、图像融合模块以及数据压缩与传送模块,所述摄像头管理模块摄取用户的使用数据,所述图像融合模块将图像数据进行融合并传送给所述数据压缩与传送模块,所述数据压缩与传送模块对图像数据进行压缩收传给所述服务器。
4.根据权利要求1所述的融合VR和AR的虚拟现实展示***,其特征在于,所述服务端包括位姿估算模块、数据解压与显示模块以及服务端摄像头管理模块,所述服务端摄像头管理模块对所述客户端的摄像头进行管理,所述位姿估算模块计算摄像头与屏幕相对空间位姿关系数据,所述数据解压与显示模块接收并解压客户端传送数据后呈现。
5.一种融合VR和AR的虚拟现实展示***的实现方法,其特征在于,服务端进行初始化,检测***中是否存在摄像头以及该摄像头能否正常运行;初始化完成以后,服务端启动摄像头,调整摄像头,进行位姿计算,得到并保存摄像头与VR交互设备屏幕的空间位姿相对关系;服务端和客户端通过socket协议建立连接,将摄像头与屏幕的空间位姿关系数据传给客户端;客户端开启摄像头,将其获取的图像与虚拟相机里的图像进行融合获得稳定的图像流,客户端压缩图像流并将数据通过TCP传输给服务端,服务端接收数据后解码加载显示。
6.根据权利要求5所述的融合VR和AR的虚拟现实展示***的实现方法,其特征在于,进行位姿计算的过程中,
(1)首先提取图像中的特征点,***从图像中提取布满显示器屏幕的角点特征图;
(2)取出特征点后,得出相对应的匹配关系;
(3)根据对极几何,每一组对应点构建一个坐标转换方程,多组对应点可构造方程组AX=0,其中,A是不同组对应点坐标构成的矩阵,X是基本矩阵九个元素重新排列形成的列向量,求解方程组AX=0得到旋转矩阵R和平移矩阵T。
7.根据权利要求6所述的融合VR和AR的虚拟现实展示***的实现方法,其特征在于,
(1)在求解旋转矩阵R和平移矩阵T的过程中,对AX=0进行最小二乘估计,矩阵的最小二乘估计采用计算ATA的特征值和特征向量,取最小特征值对应的特征向量作为X的解,具体采用雅各比法对特征值和特征向量进行计算:
设pl和pr是物理坐标值,对应的像素坐标值为ql和qr,摄像头内参矩阵为M,则有:
p=M-1q
从而:
(pr)TEpl = 0 à qr T(Mr -1)TE Ml -1ql = 0
得到:
F= (Mr -1)TE Ml -1
由上式可以得出本质矩阵E;
(2)根据SVD公式描述:
分解拆成r个列向量与行向量的乘积, 其中:
利用SVD分解,通过本质矩阵E求得旋转矩阵R和平移矩阵T。
8.根据权利要求5所述的融合VR和AR的虚拟现实展示***的实现方法,其特征在于,图像进行融合的过程中,客户端在获得服务端传来的位置数据后,在虚拟世界里放置建立代表人眼的虚拟相机和代表屏幕的虚拟显示面,已知虚拟显示面的位置为t,角度为r,则虚拟相机的位置P’为:
P’=t*T,
虚拟相机的角度R’为:
R’=r*R,
客户端打开摄像头设备,将视频流映射到虚拟显示面上,代表操作笔的虚拟操作笔与虚拟物体之间进行互动,虚拟相机通过拍摄将虚拟显示面、虚拟操作笔以及虚拟物体融合一起得到实时的图像流。
9.根据权利要求5所述的融合VR和AR的虚拟现实展示***的实现方法,其特征在于,客户端压缩图像流的过程中:***在获取实时的图像流以后,将流中的每一帧图像转换成byte型数据,对这些数据进行RLE转换,压缩后得到新的数据组,对该组数据进行MD5转换,对该组数据进行压缩和加密处理。
10.根据权利要求5所述的融合VR和AR的虚拟现实展示***的实现方法,其特征在于,服务端接收数据后解码加载显示的过程中:服务端在收到客户端传来的数据后,首先进行MD5解密,然后根据RLE压缩时遵循的规则进行反编码复原数据,服务端将最终的数据转换成图片格式,通过连续不断的图片序列帧,得到视频流,最终显示在界面上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710569296.2A CN107340870B (zh) | 2017-07-13 | 2017-07-13 | 一种融合vr和ar的虚拟现实展示***及其实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710569296.2A CN107340870B (zh) | 2017-07-13 | 2017-07-13 | 一种融合vr和ar的虚拟现实展示***及其实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107340870A true CN107340870A (zh) | 2017-11-10 |
CN107340870B CN107340870B (zh) | 2020-09-01 |
Family
ID=60218014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710569296.2A Active CN107340870B (zh) | 2017-07-13 | 2017-07-13 | 一种融合vr和ar的虚拟现实展示***及其实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107340870B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108011884A (zh) * | 2017-12-07 | 2018-05-08 | 指挥家(厦门)科技有限公司 | 一种姿态数据传输优化方法及装置 |
CN108389249A (zh) * | 2018-03-06 | 2018-08-10 | 深圳职业技术学院 | 一种多兼容性的vr/ar空间教室及其构建方法 |
CN108776547A (zh) * | 2018-08-30 | 2018-11-09 | 宁波视睿迪光电有限公司 | 一种交互装置及3d计算机*** |
CN109544615A (zh) * | 2018-11-23 | 2019-03-29 | 深圳市腾讯信息技术有限公司 | 基于图像的重定位方法、装置、终端及存储介质 |
CN109613984A (zh) * | 2018-12-29 | 2019-04-12 | 歌尔股份有限公司 | Vr直播中视频图像的处理方法、设备及*** |
CN109710056A (zh) * | 2018-11-13 | 2019-05-03 | 宁波视睿迪光电有限公司 | 虚拟现实交互装置的显示方法及装置 |
CN109859538A (zh) * | 2019-03-28 | 2019-06-07 | 中广核工程有限公司 | 一种基于混合现实的关键设备培训***及方法 |
CN110187774A (zh) * | 2019-06-06 | 2019-08-30 | 北京悉见科技有限公司 | 光学透视式的ar设备及其实体标注方法 |
CN110223394A (zh) * | 2019-05-16 | 2019-09-10 | 谷东科技有限公司 | 一种微弱光线条件下的ar显示方法 |
CN110825333A (zh) * | 2018-08-14 | 2020-02-21 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN110853415A (zh) * | 2019-11-22 | 2020-02-28 | 焦作大学 | 一种基于虚拟现实技术的数字式教学***及教室结构 |
CN111167115A (zh) * | 2018-11-09 | 2020-05-19 | 致伸科技股份有限公司 | 交互式游戏*** |
CN111727924A (zh) * | 2020-07-14 | 2020-10-02 | 山东大学 | 一种立体显示环境下混合现实鱼缸***及生成方法 |
CN111857341A (zh) * | 2020-06-10 | 2020-10-30 | 浙江商汤科技开发有限公司 | 一种展示控制方法及装置 |
CN111885366A (zh) * | 2020-04-20 | 2020-11-03 | 上海曼恒数字技术股份有限公司 | 一种用于虚拟现实屏幕的立体显示方法、装置、存储介质及设备 |
CN112102497A (zh) * | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用和交互附接到静态对象的***和方法 |
CN112162631A (zh) * | 2020-09-18 | 2021-01-01 | 聚好看科技股份有限公司 | 一种交互设备、数据处理方法及介质 |
CN112506347A (zh) * | 2020-12-10 | 2021-03-16 | 中国科学院沈阳计算技术研究所有限公司 | 面向加工过程监控的混合现实交互方法 |
CN112669464A (zh) * | 2020-03-20 | 2021-04-16 | 华为技术有限公司 | 一种分享数据的方法及设备 |
CN112947771A (zh) * | 2021-01-11 | 2021-06-11 | 上海龙旗科技股份有限公司 | 一种实现空间轨迹输入的方法、装置及设备 |
CN113160337A (zh) * | 2021-05-17 | 2021-07-23 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
CN113375662A (zh) * | 2021-01-28 | 2021-09-10 | 深圳市瑞立视多媒体科技有限公司 | 双光球交互笔的刚体姿态确定方法、装置和计算机设备 |
CN114127669A (zh) * | 2019-07-22 | 2022-03-01 | Z空间股份有限公司 | 无源指示笔的可跟踪性增强 |
CN114201039A (zh) * | 2020-09-18 | 2022-03-18 | 聚好看科技股份有限公司 | 一种实现虚拟现实的显示设备 |
CN114332416A (zh) * | 2021-11-30 | 2022-04-12 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
WO2023207345A1 (zh) * | 2022-04-29 | 2023-11-02 | 惠州Tcl移动通信有限公司 | 数据交互方法、装置、计算机设备及计算机可读存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112558761A (zh) * | 2020-12-08 | 2021-03-26 | 南京航空航天大学 | 一种面向移动端的远程虚拟现实交互***及交互方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104731338A (zh) * | 2015-03-31 | 2015-06-24 | 深圳市虚拟现实科技有限公司 | 一种基于封闭式的增强虚拟现实***及方法 |
US20150208060A1 (en) * | 2014-01-23 | 2015-07-23 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting and outputting stereo light field supporting generation of eye's moved point of sight |
CN105159450A (zh) * | 2015-08-25 | 2015-12-16 | 中国运载火箭技术研究院 | 一种便携式可交互桌面级虚拟现实*** |
CN105955456A (zh) * | 2016-04-15 | 2016-09-21 | 深圳超多维光电子有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
US20160300392A1 (en) * | 2015-04-10 | 2016-10-13 | VR Global, Inc. | Systems, media, and methods for providing improved virtual reality tours and associated analytics |
CN205812077U (zh) * | 2016-06-02 | 2016-12-14 | 杭州路宏电力科技有限公司 | 可视化互动教育*** |
CN106302427A (zh) * | 2016-08-09 | 2017-01-04 | 深圳市豆娱科技有限公司 | 在虚拟现实环境中的分享方法及装置 |
-
2017
- 2017-07-13 CN CN201710569296.2A patent/CN107340870B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150208060A1 (en) * | 2014-01-23 | 2015-07-23 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting and outputting stereo light field supporting generation of eye's moved point of sight |
CN104731338A (zh) * | 2015-03-31 | 2015-06-24 | 深圳市虚拟现实科技有限公司 | 一种基于封闭式的增强虚拟现实***及方法 |
US20160300392A1 (en) * | 2015-04-10 | 2016-10-13 | VR Global, Inc. | Systems, media, and methods for providing improved virtual reality tours and associated analytics |
CN105159450A (zh) * | 2015-08-25 | 2015-12-16 | 中国运载火箭技术研究院 | 一种便携式可交互桌面级虚拟现实*** |
CN105955456A (zh) * | 2016-04-15 | 2016-09-21 | 深圳超多维光电子有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
CN205812077U (zh) * | 2016-06-02 | 2016-12-14 | 杭州路宏电力科技有限公司 | 可视化互动教育*** |
CN106302427A (zh) * | 2016-08-09 | 2017-01-04 | 深圳市豆娱科技有限公司 | 在虚拟现实环境中的分享方法及装置 |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108011884A (zh) * | 2017-12-07 | 2018-05-08 | 指挥家(厦门)科技有限公司 | 一种姿态数据传输优化方法及装置 |
CN108011884B (zh) * | 2017-12-07 | 2022-07-01 | 指挥家(厦门)科技有限公司 | 一种姿态数据传输优化方法及装置 |
CN108389249A (zh) * | 2018-03-06 | 2018-08-10 | 深圳职业技术学院 | 一种多兼容性的vr/ar空间教室及其构建方法 |
CN110825333B (zh) * | 2018-08-14 | 2021-12-21 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN110825333A (zh) * | 2018-08-14 | 2020-02-21 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN108776547A (zh) * | 2018-08-30 | 2018-11-09 | 宁波视睿迪光电有限公司 | 一种交互装置及3d计算机*** |
CN111167115A (zh) * | 2018-11-09 | 2020-05-19 | 致伸科技股份有限公司 | 交互式游戏*** |
CN109710056A (zh) * | 2018-11-13 | 2019-05-03 | 宁波视睿迪光电有限公司 | 虚拟现实交互装置的显示方法及装置 |
CN109544615A (zh) * | 2018-11-23 | 2019-03-29 | 深圳市腾讯信息技术有限公司 | 基于图像的重定位方法、装置、终端及存储介质 |
CN109544615B (zh) * | 2018-11-23 | 2021-08-24 | 深圳市腾讯信息技术有限公司 | 基于图像的重定位方法、装置、终端及存储介质 |
CN109613984A (zh) * | 2018-12-29 | 2019-04-12 | 歌尔股份有限公司 | Vr直播中视频图像的处理方法、设备及*** |
CN109613984B (zh) * | 2018-12-29 | 2022-06-10 | 歌尔光学科技有限公司 | Vr直播中视频图像的处理方法、设备及*** |
CN109859538A (zh) * | 2019-03-28 | 2019-06-07 | 中广核工程有限公司 | 一种基于混合现实的关键设备培训***及方法 |
CN110223394A (zh) * | 2019-05-16 | 2019-09-10 | 谷东科技有限公司 | 一种微弱光线条件下的ar显示方法 |
CN110187774A (zh) * | 2019-06-06 | 2019-08-30 | 北京悉见科技有限公司 | 光学透视式的ar设备及其实体标注方法 |
CN112102497A (zh) * | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将应用和交互附接到静态对象的***和方法 |
CN114127669A (zh) * | 2019-07-22 | 2022-03-01 | Z空间股份有限公司 | 无源指示笔的可跟踪性增强 |
CN110853415A (zh) * | 2019-11-22 | 2020-02-28 | 焦作大学 | 一种基于虚拟现实技术的数字式教学***及教室结构 |
CN110853415B (zh) * | 2019-11-22 | 2021-09-17 | 焦作大学 | 一种基于虚拟现实技术的数字式教学*** |
CN112669464A (zh) * | 2020-03-20 | 2021-04-16 | 华为技术有限公司 | 一种分享数据的方法及设备 |
WO2021185375A1 (zh) * | 2020-03-20 | 2021-09-23 | 华为技术有限公司 | 一种分享数据的方法及设备 |
US11989400B2 (en) | 2020-03-20 | 2024-05-21 | Huawei Technologies Co., Ltd. | Data sharing method and device |
CN111885366A (zh) * | 2020-04-20 | 2020-11-03 | 上海曼恒数字技术股份有限公司 | 一种用于虚拟现实屏幕的立体显示方法、装置、存储介质及设备 |
CN111857341A (zh) * | 2020-06-10 | 2020-10-30 | 浙江商汤科技开发有限公司 | 一种展示控制方法及装置 |
CN111727924B (zh) * | 2020-07-14 | 2022-03-18 | 山东大学 | 一种立体显示环境下混合现实鱼缸***及生成方法 |
CN111727924A (zh) * | 2020-07-14 | 2020-10-02 | 山东大学 | 一种立体显示环境下混合现实鱼缸***及生成方法 |
CN114201039A (zh) * | 2020-09-18 | 2022-03-18 | 聚好看科技股份有限公司 | 一种实现虚拟现实的显示设备 |
CN112162631A (zh) * | 2020-09-18 | 2021-01-01 | 聚好看科技股份有限公司 | 一种交互设备、数据处理方法及介质 |
CN112162631B (zh) * | 2020-09-18 | 2023-05-16 | 聚好看科技股份有限公司 | 一种交互设备、数据处理方法及介质 |
CN114201039B (zh) * | 2020-09-18 | 2023-08-29 | 聚好看科技股份有限公司 | 一种实现虚拟现实的显示设备 |
CN112506347A (zh) * | 2020-12-10 | 2021-03-16 | 中国科学院沈阳计算技术研究所有限公司 | 面向加工过程监控的混合现实交互方法 |
CN112506347B (zh) * | 2020-12-10 | 2024-06-11 | 中国科学院沈阳计算技术研究所有限公司 | 面向加工过程监控的混合现实交互方法 |
CN112947771A (zh) * | 2021-01-11 | 2021-06-11 | 上海龙旗科技股份有限公司 | 一种实现空间轨迹输入的方法、装置及设备 |
CN113375662A (zh) * | 2021-01-28 | 2021-09-10 | 深圳市瑞立视多媒体科技有限公司 | 双光球交互笔的刚体姿态确定方法、装置和计算机设备 |
CN113160337A (zh) * | 2021-05-17 | 2021-07-23 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
CN113160337B (zh) * | 2021-05-17 | 2024-02-06 | 视境技术(深圳)有限公司 | 一种ar/vr虚拟现实融合相机控制方法 |
CN114332416A (zh) * | 2021-11-30 | 2022-04-12 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
WO2023207345A1 (zh) * | 2022-04-29 | 2023-11-02 | 惠州Tcl移动通信有限公司 | 数据交互方法、装置、计算机设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107340870B (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107340870A (zh) | 一种融合vr和ar的虚拟现实展示***及其实现方法 | |
CN109375764B (zh) | 一种头戴显示器、云端服务器、vr***及数据处理方法 | |
US10049495B2 (en) | System and method for providing virtual reality content | |
US8780178B2 (en) | Device and method for displaying three-dimensional images using head tracking | |
US7843470B2 (en) | System, image processing apparatus, and information processing method | |
CN105005970B (zh) | 一种增强现实的实现方法及装置 | |
US10192363B2 (en) | Math operations in mixed or virtual reality | |
WO2018214697A1 (zh) | 图形处理方法、处理器和虚拟现实*** | |
KR101822471B1 (ko) | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
CN103677715A (zh) | 一种沉浸式虚拟现实体验*** | |
CN107274491A (zh) | 一种三维场景的空间操控虚拟实现方法 | |
CN108983974B (zh) | Ar场景处理方法、装置、设备和计算机可读存储介质 | |
CN110488981B (zh) | 基于云渲染的手机端vr场景交互式显示方法 | |
CN105278663A (zh) | 一种增强现实的家居体验*** | |
CN104216533B (zh) | 一种基于DirectX9的头戴式虚拟现实显示器 | |
CN206350095U (zh) | 一种基于人体动态跟踪的三维影像*** | |
CN106774870A (zh) | 一种增强现实交互方法及*** | |
US11727645B2 (en) | Device and method for sharing an immersion in a virtual environment | |
Ekong et al. | Teacher-student vr telepresence with networked depth camera mesh and heterogeneous displays | |
Minatani et al. | Face-to-face tabletop remote collaboration in mixed reality | |
CN108008822A (zh) | 一种基于增强现实技术的商场体验*** | |
Chou | Advances in immersive communication: (1) Telephone,(2) Television,(3) Teleportation | |
JP3978508B2 (ja) | 体感型仮想現実空間システム | |
CN111213111B (zh) | 一种可穿戴式设备及其中的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |