CN106710002A - 基于观察者视角定位的ar实现方法及其*** - Google Patents
基于观察者视角定位的ar实现方法及其*** Download PDFInfo
- Publication number
- CN106710002A CN106710002A CN201611244524.0A CN201611244524A CN106710002A CN 106710002 A CN106710002 A CN 106710002A CN 201611244524 A CN201611244524 A CN 201611244524A CN 106710002 A CN106710002 A CN 106710002A
- Authority
- CN
- China
- Prior art keywords
- scene
- real
- observer
- attitude
- dimensional virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及基于观察者视角定位的AR实现方法及其***,所述方法包括获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;发送所述三维虚拟场景至所述观察者所佩戴的显示设备,与所述真实场景进行叠加后显示;将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。本发明实现将真实世界和虚拟世界融合显示,采用服务器中的渲染中心进行渲染,将渲染过程集成在服务器内,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
Description
技术领域
本发明涉及AR的技术领域,更具体地说是指基于观察者视角定位的AR实现方法及其***。
背景技术
VR(即虚拟现实)和AR(即增强现实)作为未来的新型显示手段,最近几年风靡全球,众多企业都在围绕VR以及AR的技术,开发出各种终端显示或提供内容服务。其中,AR技术不仅需要将虚拟场景和真实场景进行图像的完美叠加,还需要保证随着观察者位置和视角的移动,虚拟场景必须和真实场景保持同步运动,因而具有较高的技术难度。
目前AR技术主要有以下两种实现方式:
第一种方式是基于深度识别技术对真实场景进行预先三维扫描和位置提取,并在此基础上进行虚拟物体和场景的设计制作;在实际使用时,实时获取观察者的位置和视角并赋予虚拟像机,根据视点的位置赋予三维虚拟渲染引擎用作三维虚拟物体的位置信息,从而获得真实物理空间与虚拟场景的叠加融合,例如微软的Hololens;
第二种方式是基于图像识别技术对真实三维物体进行预先识别扫描,在实际使用过程中,实时识别真实物体,并针对真实物体做虚拟增强显示,例如青橙视界的0glass眼镜。
上述的两种方式分别存在以下的缺点:第一种方式的缺点一是深度识别的范围有限,4-5米范围内效果最佳,超过10米基本无法识别;二是将微型处理器集成于观察者佩戴的AR眼镜内,因此渲染能力有限,导致场景的精细度、复杂度不够,不能支撑各种动态元素;第二种方式的缺点没有真实场景的三维位置信息,不是对三维的真实场景的增强现实,仅仅针对三维物体的增强现实,应用范围非常有限。
因此,有必要设计一种基于观察者视角定位的AR实现方法,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
发明内容
本发明的目的在于克服现有技术的缺陷,提供基于观察者视角定位的AR实现方法及其***。
为实现上述目的,本发明采用以下技术方案:基于观察者视角定位的AR实现方法,所述方法包括:
获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
其进一步技术方案为:所述获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机的步骤,具体采用光束定位、红外定位以及超声波定位中至少一种定位方式获取位于真实场景中的观察者的位置。
其进一步技术方案为:所述获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机的步骤,具体采用陀螺仪姿态定位方式获取位于真实场景中的观察者的姿态。
其进一步技术方案为:所述发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景的步骤,包括以下具体步骤:
发送所述位置以及所述姿态至服务器的渲染中心;
接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
其进一步技术方案为:所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体包括以下步骤:
基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
其进一步技术方案为:所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体是实时调整渲染中心渲染的所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,直至真实场景中的真实物体和三维虚拟场景的虚拟物体匹配。
其进一步技术方案为:所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤之后,还包括使用交互设备在三维虚拟场景中进行交互式操作。
本发明还提供了基于观察者视角定位的AR实现***,包括获取单元、渲染单元、叠加单元以及匹配单元;
所述获取单元,用于获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
所述渲染单元,用于发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
所述叠加单元,用于发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
所述匹配单元,用于将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
其进一步技术方案为:所述渲染单元包括发送模块以及接收渲染模块;
所述发送模块,用于发送所述位置以及所述姿态至服务器的渲染中心;
所述接收渲染模块,用于接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
其进一步技术方案为:所述匹配单元包括测量模块以及调整模块;
所述测量模块,用于基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
所述调整模块,用于根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
本发明与现有技术相比的有益效果是:本发明的基于观察者视角定位的AR实现方法,通过获取位于真实场景中的观察者的位置与姿态,并将交互式设备的位置、姿态及触发信号数据赋予渲染中心,作触发信号进行各种动画触发渲染,依据此位置与此姿态,采用位于服务器中的渲染中心进行三维虚拟场景的渲染,三维虚拟场景发送至观察者佩戴的AR眼镜上和真实场景进行叠加显示,并对显示内容进行调整匹配,即可实现将真实世界和虚拟世界融合显示,采用服务器中的渲染中心进行渲染,将渲染过程集成在服务器内,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
图1为本发明具体实施例提供的基于观察者视角定位的AR实现方法的流程图;
图2为本发明具体实施例提供的发送位置以及姿态至渲染中心进行渲染并获取三维虚拟场景的具体流程图;
图3为本发明具体实施例提供的将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的具体流程图;
图4为本发明具体实施例提供的基于观察者视角定位的AR实现***的结构框图;
图5为本发明具体实施例提供的渲染单元的结构框图;
图6为本发明具体实施例提供的匹配单元的结构框图。
具体实施方式
为了更充分理解本发明的技术内容,下面结合具体实施例对本发明的技术方案进一步介绍和说明,但不局限于此。
如图1~6所示的具体实施例,本实施例提供的基于观察者视角定位的AR实现方法,可以运用在任何场景内,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
如图1所示,基于观察者视角定位的AR实现方法,该方法包括:
S1、获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
S2、发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
S3、发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
S4、将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
在本实施例中,在某一真实场景中首次使用才需要进行上述的S1至S4步骤,或者,于其他实施例,在某一真实场景中每次使用都需要进行上述的S1至S4步骤,具体的依据实际情况而定。
上述的S1步骤,获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机的步骤,这里主要获取观察者的位置和观察者的姿态,其中,具体采用光束定位、红外定位以及超声波定位中至少一种定位方式获取位于真实场景中的观察者的位置。
上述的光束定位是通过在定位的空间内搭建发射激光的定位光塔,对定位空间进行激光扫射,在待定位物体上设置多个光信号接收器,并在接收端对数据进行运算处理,直接获取三维位置,比如激光定位。
上述的获取位于真实场景中观察者的姿态,并赋予虚拟相机,主要是为了获取观察者的视角,这里具体采用陀螺仪姿态定位方式获取位于真实场景中的观察者的姿态。
更进一步的,上述的S2步骤,发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景的步骤,包括以下具体步骤:
S21、发送所述位置以及所述姿态至服务器的渲染中心;
S22、接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
上述的S21步骤,发送所述位置以及所述姿态至服务器的渲染中心的步骤,渲染中心是一个渲染引擎,其单独设置在服务器,并不集成在观察者所佩戴的所述观察者佩戴的显示设备中,这样由于渲染中心可以采用较高渲染能力的引擎,因此可保证虚拟场景的任意复杂度、精细度,可实现各种复杂的动画及特效。
上述的S22步骤,接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染,这里的渲染主要是根据观察者的视角以及位置赋予虚拟相机,由虚拟相机进行观察者视角和位置所获取的真实场景进行记录,并以此对三维虚拟场景进行渲染。
上述S3的步骤,发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示的步骤,这里是将三维虚拟场景由所述观察者佩戴的显示设备呈现出来,与真实场景进行简单的叠加并显示。这里的发送三维虚拟场景是将虚拟的三维场景的视频信号传过来,现在一般的可穿戴设备是有线传输视频信号,也可以无线传输视频信号。
在本实施例中,上述的S4步骤,将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体包括以下步骤:
S41、基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
S42、根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
上述的S41步骤,基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态,这里主要是先获取观察者视角下的真实物体在真实场景中的具***置和姿态,在生成三维虚拟场景后根据获取的上述具***置和姿态调整三维虚拟场景的虚拟物体的位置和姿态,一步到位,调整和匹配的速度较快。
另外,于其他实施例,上述的S4步骤,将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体是实时调整渲染中心渲染的所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,直至真实场景中的真实物体和三维虚拟场景的虚拟物体匹配。此处是依据叠加显示后的效果来调整,通过改变所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,达到匹配的效果。
无论是上述的哪一种匹配方式,都是基于三维场景的位置和视角信息实现真实物体的识别及其与虚拟物体的匹配,适用性强,且具有广泛的应用范围。
在本实施例中,上述的S4步骤,所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤之后,还包括S5、使用交互设备在三维虚拟场景中进行交互式操作。这里的交互设备包括任意交互设备例如交互式手柄、手套、手环等,通过将交互式手柄的位置、姿态赋予渲染中心用作触发信号,进行各种动画触发渲染,从而实现各种交互式操作。
上述的基于观察者视角定位的AR实现方法,通过获取位于真实场景中的观察者的位置与姿态,并将交互式设备的位置、姿态及触发信号数据赋予渲染中心,作触发信号进行各种动画触发渲染,依据此位置与此姿态,采用位于服务器中的渲染中心进行三维虚拟场景的渲染,三维虚拟场景发送至所述观察者佩戴的显示设备上和真实场景进行叠加显示,并对显示内容进行调整匹配,即可实现将真实世界和虚拟世界融合显示,采用服务器中的渲染中心进行渲染,将渲染过程集成在服务器内,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
上述的显示设备包括AR眼镜、头盔,移动终端中的至少一种,于其他实施例,还包括其他可以显示三维虚拟场景的电子产品。
当显示设备为移动终端时,通过手机等移动终端具有拍摄功能的设备看,真实的场景是通过手机等移动终端的摄像头拍摄,再和虚拟叠加,对真实拍摄的场景做延时,从而可以拍摄的真实前景和渲染的虚拟部分同步。
如图4所示,基于观察者视角定位的AR实现***,包括获取单元10、渲染单元20、叠加单元30以及匹配单元40;
获取单元10,用于获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
渲染单元20,用于发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
叠加单元30,用于发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
匹配单元40,用于将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
上述的获取单元10具体采用光束定位、红外定位以及超声波定位中至少一种定位方式获取位于真实场景中的观察者的位置,采用陀螺仪姿态定位方式获取位于真实场景中的观察者的姿态。
上述的光束定位是通过在定位的空间内搭建发射激光的定位光塔,对定位空间进行激光扫射,在待定位物体上设置多个光信号接收器,并在接收端对数据进行运算处理,直接获取三维位置,比如激光定位。
渲染单元20包括发送模块21以及接收渲染模块22;
发送模块21,用于发送所述位置以及所述姿态至服务器的渲染中心;
接收渲染模块22,用于接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
发送模块21中提及的渲染中心是一个渲染引擎,其单独设置在服务器,并不集成在观察者所佩戴的所述观察者佩戴的显示设备中,这样由于渲染中心可以采用较高渲染能力的引擎,因此可保证虚拟场景的任意复杂度、精细度,可实现各种复杂的动画及特效。
接收渲染模块22的渲染主要是根据观察者的视角以及位置赋予虚拟相机,由虚拟相机进行观察者视角和位置所获取的真实场景进行记录,并以此对三维虚拟场景进行渲染。
叠加单元30是将三维虚拟场景由所述观察者佩戴的显示设备呈现出来,与真实场景进行简单的叠加并显示。
在本实施例中,匹配单元40包括测量模块41以及调整模块42;
测量模块41,用于基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
调整模块42,用于根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
测量模块41主要是先获取观察者视角下的真实物体在真实场景中的具***置和姿态,在生成三维虚拟场景后根据获取的上述具***置和姿态调整三维虚拟场景的虚拟物体的位置和姿态,一步到位,调整和匹配的速度较快。
于其他实施例,上述的匹配单元40是实时调整渲染中心渲染的所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,直至真实场景中的真实物体和三维虚拟场景的虚拟物体匹配。此处是依据叠加显示后的效果来调整,通过改变所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,达到匹配的效果。
上述的匹配单元40都是基于三维场景的位置和视角信息实现真实物体的识别及其与虚拟物体的匹配,适用性强,且具有广泛的应用范围。
在本实施例中,基于观察者视角定位的AR实现***还包括操作单元50,操作单元50用于使用交互设备在三维虚拟场景中进行交互式操作,这里的交互设备包括任意交互设备例如交互式手柄、手套、手环等,通过将交互式手柄的位置、姿态赋予渲染中心用作触发信号,进行各种动画触发渲染,从而实现各种交互式操作。
上述的基于观察者视角定位的AR实现***,通过获取单元10获取位于真实场景中的观察者的位置与姿态,并将交互式设备的位置、姿态及触发信号数据赋予渲染中心,作触发信号进行各种动画触发渲染,渲染单元20依据此位置与此姿态,采用位于服务器中的渲染中心进行三维虚拟场景的渲染,三维虚拟场景发送至所述观察者佩戴的显示设备上,叠加单元30将三维虚拟场景和真实场景进行叠加显示,并匹配单元40对显示内容进行调整匹配,即可实现将真实世界和虚拟世界融合显示,采用服务器中的渲染中心进行渲染,将渲染过程集成在服务器内,实现对真实场景的大小以及复杂程度无限制,渲染能力高、适用性强,且具有广泛的应用范围。
上述的显示设备包括AR眼镜、头盔,移动终端中的至少一种,于其他实施例,还包括其他可以显示三维虚拟场景的电子产品。
上述仅以实施例来进一步说明本发明的技术内容,以便于读者更容易理解,但不代表本发明的实施方式仅限于此,任何依本发明所做的技术延伸或再创造,均受本发明的保护。本发明的保护范围以权利要求书为准。
Claims (10)
1.基于观察者视角定位的AR实现方法,其特征在于,所述方法包括:
获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
2.根据权利要求1所述的基于观察者视角定位的AR实现方法,其特征在于,所述获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机的步骤,具体采用光束定位、红外定位以及超声波定位中至少一种定位方式获取位于真实场景中的观察者的位置。
3.根据权利要求2所述的基于观察者视角定位的AR实现方法,其特征在于,所述获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机的步骤,具体采用陀螺仪姿态定位方式获取位于真实场景中的观察者的姿态。
4.根据权利要求3所述的基于观察者视角定位的AR实现方法,其特征在于,所述发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景的步骤,包括以下具体步骤:
发送所述位置以及所述姿态至服务器的渲染中心;
接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
5.根据权利要求4所述的基于观察者视角定位的AR实现方法,其特征在于,所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体包括以下步骤:
基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
6.根据权利要求4所述的基于观察者视角定位的AR实现方法,其特征在于,所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤,具体是实时调整渲染中心渲染的所述三维虚拟场景的虚拟物体中的位置参数和姿态参数,直至真实场景中的真实物体和三维虚拟场景的虚拟物体匹配。
7.根据权利要求5或6所述的基于观察者视角定位的AR实现方法,其特征在于,所述将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配的步骤之后,还包括使用交互设备在三维虚拟场景中进行交互式操作。
8.基于观察者视角定位的AR实现***,其特征在于,包括获取单元、渲染单元、叠加单元以及匹配单元;
所述获取单元,用于获取位于真实场景中的观察者的位置以及姿态,并赋予虚拟相机;
所述渲染单元,用于发送所述位置以及所述姿态至渲染中心进行渲染,获取三维虚拟场景;
所述叠加单元,用于发送所述三维虚拟场景至所述观察者佩戴的显示设备,与所述真实场景进行叠加后显示;
所述匹配单元,用于将真实场景中的真实物体和三维虚拟场景的虚拟物体进行匹配。
9.根据权利要求8所述的基于观察者视角定位的AR实现***,其特征在于,所述渲染单元包括发送模块以及接收渲染模块;
所述发送模块,用于发送所述位置以及所述姿态至服务器的渲染中心;
所述接收渲染模块,用于接收服务器中的控制端的触发指令,所述渲染中心进行三维虚拟场景的渲染。
10.根据权利要求9所述的基于观察者视角定位的AR实现***,其特征在于,所述匹配单元包括测量模块以及调整模块;
所述测量模块,用于基于所述观察者的视角下,预先测量真实场景中的真实物体的位置以及姿态;
所述调整模块,用于根据测量的所述真实物体的位置以及姿态,调整三维虚拟场景的虚拟物体的位置和姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611244524.0A CN106710002A (zh) | 2016-12-29 | 2016-12-29 | 基于观察者视角定位的ar实现方法及其*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611244524.0A CN106710002A (zh) | 2016-12-29 | 2016-12-29 | 基于观察者视角定位的ar实现方法及其*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106710002A true CN106710002A (zh) | 2017-05-24 |
Family
ID=58903883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611244524.0A Pending CN106710002A (zh) | 2016-12-29 | 2016-12-29 | 基于观察者视角定位的ar实现方法及其*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106710002A (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107198876A (zh) * | 2017-06-07 | 2017-09-26 | 北京小鸟看看科技有限公司 | 游戏场景的加载方法及装置 |
CN107888600A (zh) * | 2017-11-21 | 2018-04-06 | 北京恒华伟业科技股份有限公司 | 一种定位方法 |
CN107944129A (zh) * | 2017-11-21 | 2018-04-20 | 北京恒华伟业科技股份有限公司 | 一种创建电缆模型的方法及装置 |
CN108022306A (zh) * | 2017-12-30 | 2018-05-11 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN108090966A (zh) * | 2017-12-13 | 2018-05-29 | 广州市和声信息技术有限公司 | 一种适用于虚拟场景的虚拟物体重构方法和*** |
CN108255291A (zh) * | 2017-12-05 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 虚拟场景数据的传输方法、装置、存储介质及电子装置 |
CN108762501A (zh) * | 2018-05-23 | 2018-11-06 | 歌尔科技有限公司 | Ar显示方法、智能终端、ar设备及*** |
CN108830944A (zh) * | 2018-07-12 | 2018-11-16 | 北京理工大学 | 光学透视式三维近眼显示***及显示方法 |
CN109214265A (zh) * | 2017-07-06 | 2019-01-15 | 佳能株式会社 | 图像处理装置、其图像处理方法及存储介质 |
CN109218709A (zh) * | 2018-10-18 | 2019-01-15 | 北京小米移动软件有限公司 | 全息内容的调整方法及装置和计算机可读存储介质 |
CN109379551A (zh) * | 2018-11-26 | 2019-02-22 | 京东方科技集团股份有限公司 | 一种增强内容显示方法、处理方法、显示装置及处理装置 |
CN109615703A (zh) * | 2018-09-28 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 增强现实的图像展示方法、装置及设备 |
CN109829964A (zh) * | 2019-02-11 | 2019-05-31 | 北京邮电大学 | Web增强现实的渲染方法和装置 |
CN109978945A (zh) * | 2019-02-26 | 2019-07-05 | 浙江舜宇光学有限公司 | 一种增强现实的信息处理方法和装置 |
CN110850977A (zh) * | 2019-11-06 | 2020-02-28 | 成都威爱新经济技术研究院有限公司 | 一种基于6dof头戴式显示器的立体图像交互方法 |
WO2020078354A1 (zh) * | 2018-10-16 | 2020-04-23 | 北京凌宇智控科技有限公司 | 视频串流***、视频串流方法及装置 |
CN111127621A (zh) * | 2019-12-31 | 2020-05-08 | 歌尔科技有限公司 | 画面渲染方法、装置和可读存储介质 |
CN111162840A (zh) * | 2020-04-02 | 2020-05-15 | 北京外号信息技术有限公司 | 用于设置光通信装置周围的虚拟对象的方法和*** |
CN111937051A (zh) * | 2018-06-15 | 2020-11-13 | 谷歌有限责任公司 | 使用增强现实可视化的智能家居设备放置和安装 |
WO2021083031A1 (zh) * | 2019-10-31 | 2021-05-06 | 中兴通讯股份有限公司 | 一种时延误差校正方法、终端设备、服务器及存储介质 |
CN113129358A (zh) * | 2019-12-30 | 2021-07-16 | 北京外号信息技术有限公司 | 用于呈现虚拟对象的方法和*** |
CN113342167A (zh) * | 2021-06-07 | 2021-09-03 | 深圳市金研微科技有限公司 | 一种基于多人视角定位空间交互ar实现方法和*** |
CN113632498A (zh) * | 2019-03-28 | 2021-11-09 | 多玩国株式会社 | 内容发布***、内容发布方法、以及内容发布程序 |
CN113728301A (zh) * | 2019-06-01 | 2021-11-30 | 苹果公司 | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 |
WO2022040983A1 (zh) * | 2020-08-26 | 2022-03-03 | 南京翱翔智能制造科技有限公司 | 基于cad模型的投影标记和机器视觉的实时注册方法 |
WO2022088918A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
WO2023040551A1 (zh) * | 2021-09-18 | 2023-03-23 | 华为技术有限公司 | 一种在显示屏上显示图像的方法、电子设备与装置 |
CN116400878A (zh) * | 2023-06-07 | 2023-07-07 | 优奈柯恩(北京)科技有限公司 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
US12033288B2 (en) | 2023-02-28 | 2024-07-09 | Google Llc | Smart-home device placement and installation using augmented-reality visualizations |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140168735A1 (en) * | 2012-12-19 | 2014-06-19 | Sheng Yuan | Multiplexed hologram tiling in a waveguide display |
CN104321681A (zh) * | 2012-06-29 | 2015-01-28 | 英特尔公司 | 使用透明显示装置的增强的信息递送 |
CN104603673A (zh) * | 2012-09-03 | 2015-05-06 | Smi创新传感技术有限公司 | 头戴式***以及使用头戴式***计算和渲染数字图像流的方法 |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、***和终端 |
CN106204431A (zh) * | 2016-08-24 | 2016-12-07 | 中国科学院深圳先进技术研究院 | 智能眼镜的显示方法及装置 |
-
2016
- 2016-12-29 CN CN201611244524.0A patent/CN106710002A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104321681A (zh) * | 2012-06-29 | 2015-01-28 | 英特尔公司 | 使用透明显示装置的增强的信息递送 |
CN104603673A (zh) * | 2012-09-03 | 2015-05-06 | Smi创新传感技术有限公司 | 头戴式***以及使用头戴式***计算和渲染数字图像流的方法 |
US20140168735A1 (en) * | 2012-12-19 | 2014-06-19 | Sheng Yuan | Multiplexed hologram tiling in a waveguide display |
CN105468142A (zh) * | 2015-11-16 | 2016-04-06 | 上海璟世数字科技有限公司 | 基于增强现实技术的互动方法、***和终端 |
CN106204431A (zh) * | 2016-08-24 | 2016-12-07 | 中国科学院深圳先进技术研究院 | 智能眼镜的显示方法及装置 |
Non-Patent Citations (2)
Title |
---|
杨铁军: "《产业专利分析报告(第20册)卫星导航终端》", 31 May 2014, 知识产权出版社 * |
王海宇: "《飞机装配工艺学》", 31 August 2013, 西北工业大学出版社 * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107198876A (zh) * | 2017-06-07 | 2017-09-26 | 北京小鸟看看科技有限公司 | 游戏场景的加载方法及装置 |
CN109214265A (zh) * | 2017-07-06 | 2019-01-15 | 佳能株式会社 | 图像处理装置、其图像处理方法及存储介质 |
CN109214265B (zh) * | 2017-07-06 | 2022-12-13 | 佳能株式会社 | 图像处理装置、其图像处理方法及存储介质 |
CN107888600A (zh) * | 2017-11-21 | 2018-04-06 | 北京恒华伟业科技股份有限公司 | 一种定位方法 |
CN107944129A (zh) * | 2017-11-21 | 2018-04-20 | 北京恒华伟业科技股份有限公司 | 一种创建电缆模型的方法及装置 |
CN108255291A (zh) * | 2017-12-05 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 虚拟场景数据的传输方法、装置、存储介质及电子装置 |
CN108090966B (zh) * | 2017-12-13 | 2021-06-01 | 广州市和声信息技术有限公司 | 一种适用于虚拟场景的虚拟物体重构方法和*** |
CN108090966A (zh) * | 2017-12-13 | 2018-05-29 | 广州市和声信息技术有限公司 | 一种适用于虚拟场景的虚拟物体重构方法和*** |
CN108022306B (zh) * | 2017-12-30 | 2021-09-21 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN108022306A (zh) * | 2017-12-30 | 2018-05-11 | 华自科技股份有限公司 | 基于增强现实的场景识别方法、装置、存储介质和设备 |
CN108762501A (zh) * | 2018-05-23 | 2018-11-06 | 歌尔科技有限公司 | Ar显示方法、智能终端、ar设备及*** |
CN111937051A (zh) * | 2018-06-15 | 2020-11-13 | 谷歌有限责任公司 | 使用增强现实可视化的智能家居设备放置和安装 |
US11593999B2 (en) | 2018-06-15 | 2023-02-28 | Google Llc | Smart-home device placement and installation using augmented-reality visualizations |
CN108830944A (zh) * | 2018-07-12 | 2018-11-16 | 北京理工大学 | 光学透视式三维近眼显示***及显示方法 |
CN109615703B (zh) * | 2018-09-28 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 增强现实的图像展示方法、装置及设备 |
CN109615703A (zh) * | 2018-09-28 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 增强现实的图像展示方法、装置及设备 |
TWI712918B (zh) * | 2018-09-28 | 2020-12-11 | 開曼群島商創新先進技術有限公司 | 擴增實境的影像展示方法、裝置及設備 |
US11500455B2 (en) | 2018-10-16 | 2022-11-15 | Nolo Co., Ltd. | Video streaming system, video streaming method and apparatus |
WO2020078354A1 (zh) * | 2018-10-16 | 2020-04-23 | 北京凌宇智控科技有限公司 | 视频串流***、视频串流方法及装置 |
US11409241B2 (en) | 2018-10-18 | 2022-08-09 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus for adjusting holographic content and computer readable storage medium |
CN109218709A (zh) * | 2018-10-18 | 2019-01-15 | 北京小米移动软件有限公司 | 全息内容的调整方法及装置和计算机可读存储介质 |
CN109379551A (zh) * | 2018-11-26 | 2019-02-22 | 京东方科技集团股份有限公司 | 一种增强内容显示方法、处理方法、显示装置及处理装置 |
CN109829964A (zh) * | 2019-02-11 | 2019-05-31 | 北京邮电大学 | Web增强现实的渲染方法和装置 |
CN109978945B (zh) * | 2019-02-26 | 2021-08-31 | 浙江舜宇光学有限公司 | 一种增强现实的信息处理方法和装置 |
CN109978945A (zh) * | 2019-02-26 | 2019-07-05 | 浙江舜宇光学有限公司 | 一种增强现实的信息处理方法和装置 |
US11961190B2 (en) | 2019-03-28 | 2024-04-16 | Dwango Co., Ltd. | Content distribution system, content distribution method, and content distribution program |
CN113632498A (zh) * | 2019-03-28 | 2021-11-09 | 多玩国株式会社 | 内容发布***、内容发布方法、以及内容发布程序 |
CN113728301A (zh) * | 2019-06-01 | 2021-11-30 | 苹果公司 | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 |
WO2021083031A1 (zh) * | 2019-10-31 | 2021-05-06 | 中兴通讯股份有限公司 | 一种时延误差校正方法、终端设备、服务器及存储介质 |
CN110850977A (zh) * | 2019-11-06 | 2020-02-28 | 成都威爱新经济技术研究院有限公司 | 一种基于6dof头戴式显示器的立体图像交互方法 |
CN110850977B (zh) * | 2019-11-06 | 2023-10-31 | 成都威爱新经济技术研究院有限公司 | 一种基于6dof头戴式显示器的立体图像交互方法 |
CN113129358A (zh) * | 2019-12-30 | 2021-07-16 | 北京外号信息技术有限公司 | 用于呈现虚拟对象的方法和*** |
CN111127621A (zh) * | 2019-12-31 | 2020-05-08 | 歌尔科技有限公司 | 画面渲染方法、装置和可读存储介质 |
CN111127621B (zh) * | 2019-12-31 | 2024-02-09 | 歌尔科技有限公司 | 画面渲染方法、装置和可读存储介质 |
CN111162840A (zh) * | 2020-04-02 | 2020-05-15 | 北京外号信息技术有限公司 | 用于设置光通信装置周围的虚拟对象的方法和*** |
WO2022040983A1 (zh) * | 2020-08-26 | 2022-03-03 | 南京翱翔智能制造科技有限公司 | 基于cad模型的投影标记和机器视觉的实时注册方法 |
WO2022088918A1 (zh) * | 2020-10-30 | 2022-05-05 | 北京字节跳动网络技术有限公司 | 虚拟图像的显示方法、装置、电子设备及存储介质 |
CN113342167A (zh) * | 2021-06-07 | 2021-09-03 | 深圳市金研微科技有限公司 | 一种基于多人视角定位空间交互ar实现方法和*** |
WO2023040551A1 (zh) * | 2021-09-18 | 2023-03-23 | 华为技术有限公司 | 一种在显示屏上显示图像的方法、电子设备与装置 |
US12033288B2 (en) | 2023-02-28 | 2024-07-09 | Google Llc | Smart-home device placement and installation using augmented-reality visualizations |
CN116400878A (zh) * | 2023-06-07 | 2023-07-07 | 优奈柯恩(北京)科技有限公司 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
CN116400878B (zh) * | 2023-06-07 | 2023-09-08 | 优奈柯恩(北京)科技有限公司 | 头戴显示设备的显示方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106710002A (zh) | 基于观察者视角定位的ar实现方法及其*** | |
EP3051525B1 (en) | Display | |
EP2979127B1 (en) | Display method and system | |
EP2613296B1 (en) | Mixed reality display system, image providing server, display apparatus, and display program | |
CN106484116B (zh) | 媒体文件的处理方法和装置 | |
CN109358754B (zh) | 一种混合现实头戴显示*** | |
CN108431738A (zh) | 基于波动的光标栓系 | |
CN104380347A (zh) | 视频处理设备、视频处理方法和视频处理*** | |
CN106444023A (zh) | 一种超大视场角的双目立体显示的透射式增强现实*** | |
EP3128413A1 (en) | Sharing mediated reality content | |
US11699259B2 (en) | Stylized image painting | |
WO2018175335A1 (en) | Method and system for discovering and positioning content into augmented reality space | |
CN113228688B (zh) | 在计算设备上创建壁纸图像的***和方法 | |
US20220239886A1 (en) | Depth sculpturing of three-dimensional depth images utilizing two-dimensional input selection | |
Kimura et al. | Eyeglass-based hands-free videophone | |
US11589024B2 (en) | Multi-dimensional rendering | |
WO2017011175A1 (en) | Immersive teleconferencing system with translucent video stream | |
CN109445596B (zh) | 一种一体式混合现实头戴显示*** | |
CN112771856A (zh) | 可分离失真视差确定 | |
CN205610838U (zh) | 一种虚拟立体显示的装置 | |
CN108459716B (zh) | 一种在vr中实现多人协作完成任务的方法 | |
EP2827589A1 (en) | Display device and device for adapting an information | |
KR20190126990A (ko) | 시청자 모션 반응형 vr 시스템 | |
EP3503101A1 (en) | Object based user interface | |
CN108093222A (zh) | 一种手持式vr成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170524 |