CN105005970B - 一种增强现实的实现方法及装置 - Google Patents
一种增强现实的实现方法及装置 Download PDFInfo
- Publication number
- CN105005970B CN105005970B CN201510363780.0A CN201510363780A CN105005970B CN 105005970 B CN105005970 B CN 105005970B CN 201510363780 A CN201510363780 A CN 201510363780A CN 105005970 B CN105005970 B CN 105005970B
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- camera shooting
- fitted
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种增强现实的实现方法及装置,该方法包括:获取现实世界中目标物体的景深信息;根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像;将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示。本发明能够在摄像终端的屏幕上,实现现实世界的目标物体与虚拟的物体的互动,以解决遮挡,光照,阴影等一系列的问题。
Description
技术领域
本发明涉及通讯技术领域,尤其涉及一种增强现实的实现方法及装置。
背景技术
增强现实(Augmented Reality,AR)是在虚拟现实技术基础上发展起来的一种新兴计算机应用和人机交互技术,它以现实世界中的物体作为目标物体,在识别出目标物体之后,获取与该目标物体相关的增强信息,该增强信息例如是与该目标物体相关的广告信息、距离信息或者其他虚拟物体等,再借助计算机和可视化技术将该目标物体与增强信息叠加在同一画面中,就实现了增强现实。
由于摄像终端捕捉到的目标物体是二维信息,缺少现实世界的三维信息,目前的AR技术,只能在真实空间中建立一个二维平面,如果增强信息为虚拟的物体,虚拟物体只能简单地在二维平面空间中活动,无法与现实世界中的三维的目标物体互动,其中遮挡、光照、阴影等现象因没有现实世界的三维信息而无法实现。
发明内容
有鉴于此,本发明实施例提供一种增强现实的实现方法及装置,在摄像终端的屏幕上,实现现实世界的目标物体与虚拟的物体的互动,以解决遮挡,光照,阴影等一系列的问题。
第一方面,本发明实施例提供了一种增强现实的实现方法,包括:
获取现实世界中目标物体的景深信息;
根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像;
将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;
通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示。
第二方面,本发明实施例还提供了一种增强现实的实现装置,包括:
景深信息获取单元,用于获取现实世界中目标物体的景深信息;
立体图像获取单元,用于根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像;
三维拟合图像获取单元,用于将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;
二维拟合图像显示单元,用于通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示。
本发明实施例提供了一种增强现实的方法及装置,该方法根据现实世界中目标物体的景深信息,为现实世界建立立体坐标系,获取目标物体的立体图像;将虚拟图像与目标物体的立体图像进行拟合,获取新的三维拟合图像,最后将通过坐标系转换将三维拟合图像转换成二维拟合图像,并进行显示。本发明实施例在摄像终端屏幕上,实现现实世界的目标物体与虚拟的物体的互动,以解决遮挡,光照,阴影等一系列的问题。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1(a)是本发明实施例一提供的一种增强现实的实现方法流程图;
图1(b)是本发明实施例一提供的现实空间目标物体的状态示意图;
图1(c)是本发明实施例一提供的摄像终端获取的现实空间目标物体的立体图;
图1(d)是本发明实施例一提供的摄像终端将获取的现实空间的目标物体与虚拟物体进行拟合的立体图;
图1(e)是本发明实施例一提供的摄像终端屏幕上显示的现实空间的目标物体与虚拟物体的二维拟合图像示意图;
图2是本发明实施例二提供的一种增强现实的实现方法流程图;
图3是本发明实施例三提供的一种增强现实的实现方法流程图;
图4是本发明实施例四提供的一种增强现实的实现装置的结构框图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
实施例一
图1(a)是本发明实施例一提供的一种增强现实的实现方法流程图。所述方法由增强现实的实现装置来执行,所述的装置通过软件和/或硬件的方式来实现,所述的装置被设于摄像终端中,如图1(a)所示,该方法包括:
步骤101:获取现实世界中目标物体的景深信息。
其中,所述的景深信息为目标物体中每点到摄像终端的距离,景深信息可以由摄像终端的摄像头进行采集。
步骤102:根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像。
在本实施例中,以摄像终端为原点,摄像终端为现实空间建立立体坐标系,通过目标物体的每点到摄像终端的距离,获得目标物体的立体图像,其中所述立体坐标系可以为三维坐标系。举例说明,如图1(b)所示,在现实空间内,地面上存在三个目标物体,分别为书、方盒和胶带,其中书放置在方盒的下面,摄像终端获取这三个目标物体的景深信息,建立立体坐标系,获取这几个物体的立体图像(图1(c)所示)。
步骤103:将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;
在本实施例中,摄像终端中,将虚拟图像与目标物体的立体图像拟合,获取新的拟合图像。继步骤102中的例子,如图1(d)所示,在摄像终端内,将虚拟人物与书、方盒和胶带进行拟合,其中第一虚拟人物1在胶带卷芯的内部,第二虚拟人物2站立在书上,第三虚拟人物3站立在方盒上,第四虚拟人物4站立在方盒的后面,第五虚拟人物5站立在地面上,从图1(d)中可以看出,在新的拟合图像中,由于在摄像终端内部建立了立体坐标系,书、方盒和胶带为立体图像,当第一虚拟人物1在胶带卷芯内部时,胶带卷芯遮挡了第一虚拟人物1身体的一部分。另外,方盒也遮挡了第四虚拟人物4身体的一部分。
步骤104:通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示。
在本实施例中,摄像终端将立体的坐标系转换成二维坐标系,将三维拟合图像转换成二维拟合图像,将所述二维拟合图像显示在摄像终端的屏幕上,如图1(e)所示,在摄像终端屏幕上显示的图像是二维拟合图像,实现了虚拟人物和现实世界目标物体的互动。
本实施例提供了一种增强现实的实现方法,根据现实世界中目标物体的景深信息,为现实世界建立立体坐标系,获取目标物体的立体图像;将虚拟图像与目标物体的立体图像进行拟合,获取新的三维拟合图像,最后将通过坐标系转换将三维拟合图像转换成二维拟合图像,并进行显示。本发明实施例在摄像终端屏幕上,实现现实世界的目标物体与虚拟的物体的互动,以解决遮挡,光照,阴影等一系列的问题。
实施例二
图2为本实施例二提供的一种增强现实的实现方法的流程图;在上述实施例的基础上,在获取现实世界中目标物体的景深信息之前,增加了如下操作:获取现实世界中目标物体的图像颜色信息。采用上述操作,为在摄像终端屏幕上显示目标物体的彩色图像提供了依据。
进一步的,在上述实施例的基础上,通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示,包括:
通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,根据获取的所述目标物体的图像颜色信息,为二维拟合图像中的目标物体进行颜色配置,将颜色配置后的二维拟合图像进行显示。
基于上述的优化,本实施例所提供的方案具体如下:
步骤201:获取现实世界中目标物体的图像颜色信息。
其中图像颜色信息可以是目标物体每点的RGB值。
步骤202:获取现实世界中目标物体的景深信息。
步骤203:根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像。
步骤204:通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,根据获取的所述目标物体的图像颜色信息,为二维拟合图像中的所述目标物体进行颜色配置,将颜色配置后的二维拟合图像进行显示。
具体的,获取的现实世界中目标物体每点的RGB值是固定的,在摄像终端内,根据目标物体每点的RGB值为二维拟合图像中的目标物体进行颜色配置,并在摄像终端的屏幕上进行彩色显示。
本实施例二提供了一种增强现实的实现方法,能够将虚拟图像和现实世界的目标物体进行彩色显示,增加摄像的画面感。
实施例三
图3为本实施例提供的一种增强现实的实现方法的流程图;本实施例在上述实施例的基础上对“所述将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像”步骤进行了优化。
在上述方案中,当摄像终端静止时,所述将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像,包括:将虚拟图像***在预设的坐标位置,使虚拟图像和目标物体的图像拟合成新的图像,作为新的三维拟合图像。
具体的,在摄像终端内,存在为现实空间建立的立体坐标系,用户可以根据自己的需要为虚拟图像设定坐标位置,添加虚拟图像时,虚拟图像会***在预设的坐标位置,实现虚拟图像和目标物体的拟合。
在上述实施例的基础上,当摄像终端移动,本实施例对“所述通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示”进行了优化。
进一步的,基于上述优化,当摄像终端移动时,本实施例提供的技术方案具体如下:
步骤301:获取现实世界中目标物体的图像颜色信息。
步骤302:获取现实世界中目标物体的景深信息。
步骤303:根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像。
步骤304:将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像。
步骤305:实时获取摄像终端的位置坐标。
其中,摄像终端的位置坐标可以通过设于摄像终端上的GPS,加速度,陀螺仪等传感器进行获取。
步骤306:根据摄像终端的位置坐标,通过六轴坐标系计算新的三维拟合的图像中虚拟图像和目标物体的位置坐标,获取摄像终端移动后的目标物体和虚拟图像的拟合图像。
具体的,当摄像终端移动时,摄像终端内部建立六轴坐标系,将虚拟图像和目标物体每点的位置采用六轴坐标进行表示,当摄像终端移动后静止时,虚拟图像和目标物体上每点的位置坐标均与之前相比,均发生了变化,获取的摄像终端移动后的目标物体和虚拟图像的拟合图像与摄像终端移动前相比,均发生了变化。摄像终端内部采用六轴坐标系来确定虚拟图像和目标物体的上每点的位置坐标,对于不同的观测方向所呈现的不同的遮挡、光照、阴影等都能清楚的进行体现。
步骤307:将获取的摄像终端移动后的目标物体和虚拟图像的拟合图像转换为三维拟合图像。
在本实施例中,获取的摄像终端移动后的目标物体和虚拟图像的拟合图像为六轴坐标表示的图像,将其转换成三维拟合图像。
步骤308:将转换后的三维拟合图像转换为对应的二维拟合图像,并进行显示。
本实施例提供了一种增强现实的实现方法,当摄像终端静止时,该方法对“所述将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像”的步骤进行了优化,能够使用户根据自己的需要对虚拟人物的位置进行设置,当摄像终端移动时,该方法对“所述通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示”步骤进行了优化,能够呈现不同角度的拍摄画面,在不同的拍摄角度下呈现不同的遮挡,光照,阴影等情形。
实施例四
图4为本实施例四提供的一种增强现实的实现装置的结构框图,如图4所示,该装置包括:
景深信息获取单元401,用于获取现实世界中目标物体的景深信息;
立体图像获取单元402,用于根据所述的景深信息,为现实空间建立立体坐标系,获取所述目标物体的立体图像;其中,所述的景深信息为目标物体中每点到摄像终端的距离;
三维拟合图像获取单元403,用于将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;
二维拟合图像显示单元404,用于通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示。
在上述实施例的基础上,所述装置还包括,
图像颜色获取单元405,用于获取现实世界中目标物体的景深信息之前,获取现实世界中目标物体的图像颜色信息。
二维拟合图像显示单元404,具体用于,通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,根据获取的所述目标物体的图像颜色信息,为二维拟合的图像中的所述目标物体进行颜色配置,将颜色配置后的二维拟合图像进行显示。
在上述实施例的基础上,当摄像终端静止时;
三维拟合图像获取单元403,具体用于:将虚拟图像***在预设的坐标位置,使虚拟图像和目标物体的图像拟合成新的图像。
在上述实施例的基础上,当摄像终端移动时;二维拟合图像显示单元404,具体用于,
实时获取摄像终端的位置坐标;
根据摄像终端的位置坐标,通过六轴坐标系计算新的三维拟合图像中虚拟图像和目标物体的位置坐标,获取摄像终端移动后的目标物体和虚拟图像的拟合图像;
将获取的摄像终端移动后的目标物体和虚拟图像的拟合图像转换为三维拟合图像;
将转换后的三维拟合图像转换为对应的二维拟合图像,并进行显示。
本实施例提供了一种增强现实的实现装置,该装置根据现实世界中目标物体的景深信息,为现实世界建立立体坐标系,获取目标物体的立体图像;将虚拟图像与目标物体的立体图像进行拟合,获取新的三维拟合图像,最后将通过坐标系转换将三维拟合图像转换成二维拟合图像,并进行显示。本发明实施例在摄像终端显示画面中,实现现实世界的目标物体与虚拟的物体的互动,以解决遮挡,光照,阴影等一系列的问题。
该装置可以用于执行本发明增强现实的实现方法,具备相应的功能和有益效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (6)
1.一种增强现实的实现方法,其特征在于,包括:
通过摄像终端的摄像头获取现实世界中目标物体中每点到所述摄像终端的距离;
根据所述目标物体中每点到所述摄像终端的距离,为现实空间建立立体坐标系,获取所述目标物体的立体图像;
将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像;
当所述摄像终端移动时,实时获取所述摄像终端的位置坐标;
根据所述摄像终端的位置坐标,通过所述摄像终端内部建立的六轴坐标系,将所述虚拟图像和所述目标物体每点的位置采用六轴坐标进行表示,当所述摄像终端移动后静止时,采用六轴坐标系确定新的三维拟合图像中虚拟图像和目标物体的位置坐标,获取所述摄像终端移动后的目标物体和虚拟图像的拟合图像;
将获取的所述摄像终端移动后的采用六轴坐标表示的目标物体和虚拟图像的拟合图像转换为三维拟合图像;
通过坐标系转换将转换后的三维拟合图像转换为对应的二维拟合图像,并进行显示。
2.根据权利要求1所述的方法,其特征在于,在通过摄像终端的摄像头获取现实世界中目标物体中每点到所述摄像终端的距离之前,还包括,获取现实世界中目标物体的图像颜色信息;
通过坐标系转换获取所述新的三维拟合图像对应的二维拟合图像,将所述二维拟合图像进行显示,包括:
通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,根据获取的所述目标物体的图像颜色信息,为二维拟合图像中的所述目标物体进行颜色配置,将颜色配置后的二维拟合图像进行显示。
3.根据权利要求1所述的方法,其特征在于,当摄像终端静止时,
所述将虚拟图像与获取的所述目标物体的立体图像拟合,获取新的三维拟合图像包括:将虚拟图像***在预设的坐标位置,使虚拟图像和目标物体的图像拟合成新的图像,作为新的三维拟合图像。
4.一种增强现实的实现的装置,其特征在于,包括:
景深信息获取单元,用于通过摄像终端的摄像头获取现实世界中目标物体中每点到摄像终端的距离;
立体图像获取单元,用于根据所述目标物体中每点到所述摄像终端的距离,为现实空间建立立体坐标系,获取所述目标物体的立体图像;
三维拟合图像获取单元,用于将虚拟图像与所述获取的目标物体的立体图像拟合,获取新的三维拟合图像;
二维拟合图像显示单元,用于当所述摄像终端移动时,实时获取摄像终端的位置坐标;
根据所述摄像终端的位置坐标,通过所述摄像终端内部建立的六轴坐标系,将所述虚拟图像和所述目标物体每点的位置采用六轴坐标进行表示,当所述摄像终端移动后静止时,采用六轴坐标系确定新的三维拟合图像中虚拟图像和目标物体的位置坐标,获取所述摄像终端移动后的目标物体和虚拟图像的拟合图像;
将获取的所述摄像终端移动后的采用六轴坐标表示的目标物体和虚拟图像的拟合图像转换为三维拟合图像;
通过坐标系转换将转换后的三维拟合图像转换为对应的二维拟合图像,并进行显示。
5.根据权利要求4所述的装置,其特征在于,还包括,
图像颜色获取单元,用于通过摄像终端的摄像头获取现实世界中目标物体中每点到所述摄像终端的距离之前,获取现实世界中目标物体的图像颜色信息;
二维拟合图像显示单元,具体用于,通过坐标系转换获取新的三维拟合图像对应的二维拟合图像,根据获取的所述目标物体的图像颜色信息,为二维拟合的图像中的所述目标物体进行颜色配置,将配色后的二维拟合的图像进行显示。
6.根据权利要求4所述的装置,其特征在于,当摄像终端静止时;
三维拟合图像获取单元,具体用于:将虚拟图像***在预设的坐标位置,使虚拟图像和目标物体的图像拟合成新的图像,作为新的三维拟合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510363780.0A CN105005970B (zh) | 2015-06-26 | 2015-06-26 | 一种增强现实的实现方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510363780.0A CN105005970B (zh) | 2015-06-26 | 2015-06-26 | 一种增强现实的实现方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105005970A CN105005970A (zh) | 2015-10-28 |
CN105005970B true CN105005970B (zh) | 2018-02-16 |
Family
ID=54378629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510363780.0A Expired - Fee Related CN105005970B (zh) | 2015-06-26 | 2015-06-26 | 一种增强现实的实现方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105005970B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105681684A (zh) * | 2016-03-09 | 2016-06-15 | 北京奇虎科技有限公司 | 基于移动终端的图像实时处理方法及装置 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
CN106203292A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种图像的增强现实处理的方法、装置及移动终端 |
CN106227481A (zh) * | 2016-07-22 | 2016-12-14 | 北京奇虎科技有限公司 | 阅读文章时显示ar影像的方法和终端 |
CN106231205B (zh) * | 2016-08-10 | 2019-07-30 | 苏州黑盒子智能科技有限公司 | 增强现实移动终端 |
US11156473B2 (en) * | 2016-08-18 | 2021-10-26 | Sony Corporation | Information processing apparatus, information processing system, and information processing method |
CN106444042A (zh) * | 2016-11-29 | 2017-02-22 | 北京知境科技有限公司 | 一种增强现实与虚拟现实两用显示设备和可穿戴设备 |
CN106898049A (zh) * | 2017-01-18 | 2017-06-27 | 北京商询科技有限公司 | 一种用于混合现实设备的空间匹配方法及*** |
CN107025683A (zh) * | 2017-03-30 | 2017-08-08 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107065196B (zh) * | 2017-06-16 | 2019-03-15 | 京东方科技集团股份有限公司 | 一种增强现实显示装置及增强现实显示方法 |
CN109420336A (zh) * | 2017-08-30 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 基于增强现实的游戏实现方法和装置 |
CN107613223A (zh) * | 2017-09-11 | 2018-01-19 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
CN107734265A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
CN107749083A (zh) * | 2017-09-28 | 2018-03-02 | 联想(北京)有限公司 | 图像展示的方法和装置 |
CN108537889A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
CN109981983B (zh) * | 2019-03-26 | 2021-04-23 | Oppo广东移动通信有限公司 | 增强现实图像处理方法、装置、电子设备和存储介质 |
CN109976533B (zh) * | 2019-04-15 | 2022-06-03 | 珠海天燕科技有限公司 | 显示控制方法及装置 |
CN113066122B (zh) * | 2020-05-15 | 2022-05-13 | 支付宝(杭州)信息技术有限公司 | 图像处理方法以及装置 |
CN112212865B (zh) * | 2020-09-23 | 2023-07-25 | 北京市商汤科技开发有限公司 | Ar场景下的引导方法、装置、计算机设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587542A (zh) * | 2009-06-26 | 2009-11-25 | 上海大学 | 基于眼动轨迹跟踪的景深融合增强显示方法及*** |
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
CN103489214A (zh) * | 2013-09-10 | 2014-01-01 | 北京邮电大学 | 增强现实***中基于虚拟模型预处理的虚实遮挡处理方法 |
CN103500471A (zh) * | 2013-09-27 | 2014-01-08 | 深圳市中视典数字科技有限公司 | 实现高分辨率增强现实***的方法 |
CN104599243A (zh) * | 2014-12-11 | 2015-05-06 | 北京航空航天大学 | 一种多视频流与三维场景的虚实融合方法 |
WO2015075005A1 (fr) * | 2013-11-19 | 2015-05-28 | Commissariat à l'énergie atomique et aux énergies alternatives | Determination de la carte de profondeur image d'une scene |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2353111A1 (en) * | 2008-10-23 | 2011-08-10 | Lokesh Bitra | Virtual tagging method and system |
KR101633620B1 (ko) * | 2010-01-04 | 2016-06-27 | 삼성전자 주식회사 | 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법 |
-
2015
- 2015-06-26 CN CN201510363780.0A patent/CN105005970B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587542A (zh) * | 2009-06-26 | 2009-11-25 | 上海大学 | 基于眼动轨迹跟踪的景深融合增强显示方法及*** |
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
CN103489214A (zh) * | 2013-09-10 | 2014-01-01 | 北京邮电大学 | 增强现实***中基于虚拟模型预处理的虚实遮挡处理方法 |
CN103500471A (zh) * | 2013-09-27 | 2014-01-08 | 深圳市中视典数字科技有限公司 | 实现高分辨率增强现实***的方法 |
WO2015075005A1 (fr) * | 2013-11-19 | 2015-05-28 | Commissariat à l'énergie atomique et aux énergies alternatives | Determination de la carte de profondeur image d'une scene |
CN104599243A (zh) * | 2014-12-11 | 2015-05-06 | 北京航空航天大学 | 一种多视频流与三维场景的虚实融合方法 |
Non-Patent Citations (3)
Title |
---|
LUMAR:A Hybrid Spatial Display System for 2D and 3D Handheld Augmented Reality;Alex Olwal 等;《17th International Conference on Artificial Reality and Telexistence》;20071130;第63-70页 * |
基于视觉的增强现实***的研究;孙磊;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20061215;第I138-1260页 * |
引入摄像机姿态的增强现实虚实遮挡处理算法;李红波 等;《中国科技论文在线》;20130322;摘要、第2.2节 * |
Also Published As
Publication number | Publication date |
---|---|
CN105005970A (zh) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105005970B (zh) | 一种增强现实的实现方法及装置 | |
CN106355153B (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及*** | |
US10089794B2 (en) | System and method for defining an augmented reality view in a specific location | |
WO2017164971A3 (en) | Spatial relationships for integration of visual images of physical environment into virtual reality | |
KR100953931B1 (ko) | 혼합현실 구현 시스템 및 그 방법 | |
EP2700040B1 (en) | Color channels and optical markers | |
EP3218878B1 (en) | Image to item mapping | |
CN107683497A (zh) | 信息处理设备、信息处理方法及程序 | |
CN111833458B (zh) | 图像显示方法及装置、设备、计算机可读存储介质 | |
JP2018528509A (ja) | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 | |
CN107004303A (zh) | 混合现实可视化和方法 | |
CN101246600A (zh) | 用球面全景摄像机实时生成增强现实环境光照模型的方法 | |
CN106204746B (zh) | 一种可实现3d模型实时上色的增强现实*** | |
CN104680532A (zh) | 一种对象标注方法及装置 | |
CN109816745A (zh) | 人体热力图展示方法及相关产品 | |
CN104765156B (zh) | 一种三维显示装置和三维显示方法 | |
CN111696215A (zh) | 一种图像处理方法、装置及设备 | |
CN111275731A (zh) | 面向中学实验的投影式实物交互桌面***和方法 | |
CN208506731U (zh) | 图像展示*** | |
RU2735066C1 (ru) | Способ отображения широкоформатного объекта дополненной реальности | |
CN108628453B (zh) | 虚拟现实图像显示方法及终端 | |
CA3155612A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
WO2016020778A1 (en) | A method, mobile device and computer program for substituting a furnishing covering surface of in an image | |
JP2015008394A (ja) | 情報端末装置 | |
CN112862976B (zh) | 一种数据处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Patentee after: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd. Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Patentee before: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd. |
|
CP01 | Change in the name or title of a patent holder | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180216 |
|
CF01 | Termination of patent right due to non-payment of annual fee |