CN106548519A - 基于orb‑slam和深度相机的真实感的增强现实方法 - Google Patents
基于orb‑slam和深度相机的真实感的增强现实方法 Download PDFInfo
- Publication number
- CN106548519A CN106548519A CN201610963053.2A CN201610963053A CN106548519A CN 106548519 A CN106548519 A CN 106548519A CN 201610963053 A CN201610963053 A CN 201610963053A CN 106548519 A CN106548519 A CN 106548519A
- Authority
- CN
- China
- Prior art keywords
- camera
- depth
- slam
- real
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于ORB SLAM和深度相机的真实感的增强现实方法,包括以下步骤:1)、利用Marker‑less技术确定初始坐标平面,并初始化具有真实尺度的slam坐标系;2)、导入地图,根据提取的特征点,将直接表示的地图和特征地图相结合;3)、单目SLAM构建真实尺度地图,并保存地图;4)、在场景中放置虚拟物体,并通过三维引擎计算虚拟物体和相机之间的距离;5)、利用深度相机,获取场景深度数据;根据三维引擎中获得的虚拟物体距离数据进行深度融合,从而达到遮挡的效果,让真实的物体和虚拟模型直接具有很强的交互感。本发明具有很强的鲁棒性、实现真实物体和虚拟数据能够遮挡交互。
Description
技术领域
本发明属于将SLAM感知环境信息技术与深度相机获取场景三维信息技术融合到AR(Augmented Reality,增强现实)技术领域,涉及一种真实感的增强现实方法。
背景技术
SLAM(simultaneous localization and mapping,即时定位与地图构建)指的是机器人在自身位置不确定的条件下,在完全未知环境中创建地图,同时利用地图进行自主定位和导航。ORB-SLAM(a real-time accurate monocular SLAM system based on ORBfeatures,基于ORB特征点的SLAM***),ORB指的是一种旋转不变性特征,整个算法均是基于ORB特征实现的,最新的ORB-SLAM的进展是基于ORB-SLAM的关键帧做了半稠密场景重建。增强现实是通过计算机***提供的信息应用到真实世界,并将计算机生成的虚拟物体、场景或***提示信息叠加到真实场景中,从而实现对现实的增强。AR技术可应用于医疗、军事、工业维修、游戏娱乐等诸多领域。
目前基于SLAM技术开发的代表性产品有微软的Hololens和谷歌的ProjectTango。微软的HoloLens使用了AR技术,在现实世界中叠加一层虚拟影像。近期风靡全球的Pokemon Go游戏,展现了AR技术在游戏应用中的广阔市场,也从另外一个角度诠释了SLAM技术在未来游戏中的重要性。随着AR概念的普及以及相关的需求逐渐明晰,SLAM算法已经被认为是AR技术中理解现实世界的最优选择之一,越来越多的AR应用将SLAM类算法的表现作为评价的重要参考指标。
然而目前AR***中虚实结合方面仍存在一定的缺陷,主要表现在虚拟物体无法很好的融合到真实场景中。由于AR***通过相机看到的真实场景往往都是通过二维视频进行展现,三维虚拟物体永远放置在视频前面。即使用户想让三维虚拟物体存在与二维视频中两个真实物体之间,但是当这真实物体与虚拟物体之间存在其它物体时,用户仍然会感觉到虚拟物体漂浮在真实场景之外。造成这种现象的主要原因是由于在实际物***于虚拟模型之前时,无法实现遮挡虚拟模型的功能。
发明内容
为了克服现有AR技术不能准确计算物体三维信息,导致遮挡物体不能被正确的理解和构造、鲁棒性较差的不足,本发明提供一种鲁棒性较好的基于ORB-SLAM和深度相机的真实感的增强现实方法,靠SLAM感知物体的三维环境,深度相机获取场景距离信息,将真实物体与虚拟模型深度融合,达到像人眼一样的“视差”效果,使得姿态识别、视角跟踪、场景重建更加的精确,从而实现真实物体能够遮挡虚拟模型的功能。
本发明解决其技术问题所采用的技术方案是:
一种基于ORB-SLAM和深度相机的真实感的增强现实方法,所述方法包括以下步骤:
1)、利用Marker-less(一种基于少量标记的增强现实技术)技术确定初始坐标平面,并初始化具有真实尺度的slam坐标系;Marker-less通过先提取orb特征点,利用knnmatch(K最近邻匹配算法)进行匹配,求得单应矩阵,再根据透视变换,求得四个顶点的坐标,再求得旋转平移矩阵;
2)、导入地图,根据提取的特征点,将直接表示的地图和特征地图相结合。进行SLAM定位导航,把真实相机位置和姿态传给三维引擎中虚拟相机的位置和姿态;
3)、单目SLAM构建真实尺度地图,并保存地图;
4)、在场景中放置虚拟物体,并通过三维引擎计算虚拟物体和相机之间的距离;
5)、利用深度相机,获取场景深度数据;根据三维引擎中获得的虚拟物体距离数据进行深度融合,从而达到遮挡的效果,让真实的物体和虚拟模型直接具有很强的交互感。
进一步,所述步骤1)中,Marker-less是一个四边形,多边形近似结果满足以下条件:
1.1)只有四个顶点;
1.2)一定是凸多边形;
1.3)每一个边的长度不能过小。
1.4)因为marker图片的尺度可以事先得知,那么利用他的真实尺寸使得slam构建的坐标系具有真实的尺度;
通过以上条件,排除大部分轮廓,找到最有可能为Marker-less的部分,找到这样的候选轮廓后,将它的多边形四个顶点保存下来,并做调整,然后从这些候选区域中进一步筛选出真正的Marker-less,要对候选区进行透视变换,得到Marker-less的正视图;
得到四个顶点的坐标后,根据公式x=K[R|T]X求得旋转平移矩阵,其中:X是空间某点的坐标,该坐标相对于世界坐标系,[R|T]是摄像机外参矩阵,用于将某点的世界坐标变换为摄像机坐标,K是摄像机内参,用于将摄像机坐标中的某点投影的像平面上,x即为投影后的像素坐标。
再进一步,所述步骤3)中,通过摄像头感知环境,对获得的信息进行分析,提取环境中的特征并保存,建立环境地图,即通过概率统计的方法,通过多特征匹配来达到定位。
更进一步,所述步骤4)中,通过Unity3D三维引擎计算三维虚拟物体与相机之间的实时深度信息。
所述步骤5)中,数据融合过程如下:
5.1)利用深度相机获取当前帧的真实深度数据;
5.2)因为slam计算得到真实尺度的坐标系,应用到三维引擎后,三维引擎的虚拟坐标系能够和真实世界的坐标系比较好的重合,从而得到的虚拟相机的深度数据也具有真实的尺度;
5.3)将真实的深度数据和虚拟的深度数据进行一个深度比较,深度值在模型前面的点所对应的彩色图的点就渲染到模型前面,而深度值在模型后面的点所对应的彩色图的点就渲染到模型后面。
本发明的有益效果主要表现在:具有很强的鲁棒性,可以很好地处理剧烈运动图像、有比较大的余地自由处理闭环控制、重定位、甚至全自动位置初始化;结合深度相机,将相机获取的真实数据与三维引擎中获得的虚拟深度数据进行深度融合,实现真实物体和虚拟数据能够遮挡交互,使得AR场景有更加真实的体验和运用。
具体实施方式
下面对本发明作进一步描述。
一种基于ORB-SLAM和深度相机的真实感的增强现实方法,包括以下步骤:
1)利用Marker-less技术确定初始坐标平面,提取ORB特征点,求得旋转平移矩阵,并初始化具有真实尺度的slam坐标系。
由于Marker-less是一个四边形,其多边形近似结果应该满足以下条件:
1.1)只有四个顶点;
1.2)一定是凸多边形;
1.3)每一个边的长度不能过小。
1.4)因为marker图片的尺度可以事先得知,那么就可以利用他的真实尺寸使得slam构建的坐标系具有真实的尺度。
通过以上几个条件,可以排除大部分轮廓,从而找到最有可能为Marker-less的部分,找到这样的候选轮廓后,将它的多边形四个顶点保存下来,并做适当的调整,然后从这些候选区域中进一步筛选出真正的Marker-less。为了方便提取Marker-less中的信息,要对候选区进行透视变换,得到Marker-less的正视图。
知道四个顶点的坐标,根据公式x=K[R|T]X求得旋转平移矩阵。其中:X是空间某点的坐标(相对于世界坐标系),[R|T]是摄像机外参矩阵,用于将某点的世界坐标变换为摄像机坐标,K是摄像机内参,用于将摄像机坐标中的某点投影的像平面上,x即为投影后的像素坐标;
2)SLAM定位导航。
根据提取的特征点,将直接表示的地图与构建的特征地图相结合,在构建环境的同时估计相机的轨迹,把真实相机位置和姿态传给三维引擎中虚拟相机的位置和姿态;
3)单目SLAM构建真实尺度地图。
通过视觉(摄像头)感知环境,对获得的信息进行分析,提取环境中的特征并保存,建立环境地图。SLAM的基本原理是通过概率统计的方法,通过多特征匹配来达到定位和减少定位误差。视觉SLAM方法通过观测模型及完成准确的帧间运动参数估计,降低了算法高复杂度的限制要求;
4)根据设计需求,将三维虚拟物体放置在合适位置,通常是放置在第三步所确定的平面位置。通过Unity3D三维引擎计算三维虚拟物体与相机之间的实时深度信息。可以通过函数“UNITY_SAMPLE_DEPTH”获取深度信息,但是此深度信息是非线性深度信息,不能直接与真实场景深度信息融合,还需要通过处理获得虚拟物体线性深度。过程伪代码如下:
4.1)通过_DepthPower设定非线性深度转换到线性深度的参数;
4.2)使用函数UNITY_SAMPLE_DEPTH计算虚拟物体的非线性深度d;
4.3)使用函数pow和4.1)中参数将d转换为线性深度;
5)利用深度相机,将深度数据映射到真实环境中,达到虚拟物体与真实物体相互遮挡的效果。
深度相机能够快速完成对目标的识别与追踪,可通过距离信息获取物体之间更加丰富的位置关系,即区分前景与后景,实时获取场景中深度数据。然后在三维引擎中获得的虚拟物体深度数据与相机获取的场景深度数据进行融合,实现虚拟物体与真实物体之间相互遮挡的效果,从而使得AR场景具有更强的真实感。
数据融合步骤:
5.1)利用深度相机获取当前帧的真实深度数据;
5.2)因为slam计算得到真实尺度的坐标系,应用到三维引擎后,三维引擎的虚拟坐标系能够和真实世界的坐标系比较好的重合,从而得到的虚拟相机的深度数据也具有真实的尺度;
5.3)将真实的深度数据和虚拟的深度数据进行一个深度比较,深度值在模型前面的点所对应的彩色图的点就渲染到模型前面,而深度值在模型后面的点所对应的彩色图的点就渲染到模型后面。
Claims (5)
1.一种基于ORB SLAM和深度相机的真实感的增强现实方法,其特征在于:所述方法包括以下步骤:
1)、利用Marker-less技术确定初始坐标平面,并初始化具有真实尺度的slam坐标系;Marker-less通过先提取orb特征点,利用knnmatch进行匹配,求得单应矩阵,再根据透视变换,求得四个顶点的坐标,再求得旋转平移矩阵;
2)、导入地图,根据提取的特征点,将直接表示的地图和特征地图相结合,进行SLAM定位导航,把真实相机位置和姿态传给三维引擎中虚拟相机的位置和姿态;
3)、单目SLAM构建真实尺度地图,并保存地图;
4)、在场景中放置虚拟物体,并通过三维引擎计算虚拟物体和相机之间的距离;
5)、利用深度相机,获取场景深度数据;根据三维引擎中获得的虚拟物体距离数据进行深度融合,从而达到遮挡的效果,让真实的物体和虚拟模型直接具有很强的交互感。
2.如权利要求1所述的基于ORB SLAM和深度相机的真实感的增强现实方法,其特征在于:所述步骤1)中,Marker-less是一个四边形,多边形近似结果满足以下条件:
1.1)只有四个顶点;
1.2)一定是凸多边形;
1.3)每一个边的长度不能过小;
1.4)因为marker图片的尺度可以事先得知,那么利用他的真实尺寸使得slam构建的坐标系具有真实的尺度;
通过以上条件,排除大部分轮廓,找到最有可能为Marker-less的部分,找到这样的候选轮廓后,将它的多边形四个顶点保存下来,并做调整,然后从这些候选区域中进一步筛选出真正的Marker-less,要对候选区进行透视变换,得到Marker-less的正视图;
得到四个顶点的坐标后,根据公式x=K[R|T]X求得旋转平移矩阵,其中:X是空间某点的坐标,该坐标相对于世界坐标系,[R|T]是摄像机外参矩阵,用于将某点的世界坐标变换为摄像机坐标,K是摄像机内参,用于将摄像机坐标中的某点投影的像平面上,x即为投影后的像素坐标。
3.如权利要求1或2所述的基于ORB SLAM和深度相机的真实感的增强现实方法,其特征在于:所述步骤3)中,通过摄像头感知环境,对获得的信息进行分析,提取环境中的特征并保存,建立环境地图,即通过概率统计的方法,通过多特征匹配来达到定位。
4.如权利要求1或2所述的基于ORB SLAM和深度相机的真实感的增强现实方法,其特征在于:所述步骤4)中,通过Unity3D三维引擎计算三维虚拟物体与相机之间的实时深度信息。
5.如权利要求1或2所述的基于ORB SLAM和深度相机的真实感的增强现实方法,其特征在于:所述步骤5)中,数据融合过程如下:
5.1)利用深度相机获取当前帧的真实深度数据;
5.2)因为slam计算得到真实尺度的坐标系,应用到三维引擎后,三维引擎的虚拟坐标系能够和真实世界的坐标系比较好的重合,从而得到的虚拟相机的深度数据也具有真实的尺度;
5.3)将真实的深度数据和虚拟的深度数据进行一个深度比较,深度值在模型前面的点所对应的彩色图的点就渲染到模型前面,而深度值在模型后面的点所对应的彩色图的点就渲染到模型后面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610963053.2A CN106548519A (zh) | 2016-11-04 | 2016-11-04 | 基于orb‑slam和深度相机的真实感的增强现实方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610963053.2A CN106548519A (zh) | 2016-11-04 | 2016-11-04 | 基于orb‑slam和深度相机的真实感的增强现实方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106548519A true CN106548519A (zh) | 2017-03-29 |
Family
ID=58394247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610963053.2A Pending CN106548519A (zh) | 2016-11-04 | 2016-11-04 | 基于orb‑slam和深度相机的真实感的增强现实方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106548519A (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107185245A (zh) * | 2017-05-31 | 2017-09-22 | 武汉秀宝软件有限公司 | 一种基于slam技术的虚实同步显示方法及*** |
CN107204015A (zh) * | 2017-05-27 | 2017-09-26 | 中山大学 | 基于色彩图像和红外图像融合的即时定位与建图*** |
CN107564089A (zh) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | 三维图像处理方法、装置、存储介质和计算机设备 |
CN107564107A (zh) * | 2017-07-19 | 2018-01-09 | 中国农业大学 | 一种增强现实实现工具的设计方法与设备 |
CN107766855A (zh) * | 2017-10-25 | 2018-03-06 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、***、存储介质及机器人 |
CN107958466A (zh) * | 2017-12-01 | 2018-04-24 | 大唐国信滨海海上风力发电有限公司 | 一种Slam算法优化基于模型的跟踪方法 |
CN108109208A (zh) * | 2017-12-01 | 2018-06-01 | 同济大学 | 一种海上风电场增强现实方法 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
CN108537889A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
CN108537844A (zh) * | 2018-03-16 | 2018-09-14 | 上海交通大学 | 一种融合几何信息的视觉slam回环检测方法 |
CN108596964A (zh) * | 2018-05-02 | 2018-09-28 | 厦门美图之家科技有限公司 | 深度数据获取方法、装置及可读存储介质 |
CN108735052A (zh) * | 2018-05-09 | 2018-11-02 | 北京航空航天大学青岛研究院 | 一种基于slam的增强现实自由落体实验方法 |
CN108805985A (zh) * | 2018-03-23 | 2018-11-13 | 福建数***信息科技有限公司 | 虚拟空间方法和装置 |
CN108876900A (zh) * | 2018-05-11 | 2018-11-23 | 重庆爱奇艺智能科技有限公司 | 一种与现实场景融合的虚拟目标投射方法和*** |
CN108905208A (zh) * | 2018-06-21 | 2018-11-30 | 珠海金山网络游戏科技有限公司 | 一种基于增强现实的电子游戏方法和装置 |
CN109471521A (zh) * | 2018-09-05 | 2019-03-15 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | Ar环境下的虚实遮挡交互方法及*** |
CN109636916A (zh) * | 2018-07-17 | 2019-04-16 | 北京理工大学 | 一种动态标定的大范围虚拟现实漫游***及方法 |
CN109636852A (zh) * | 2018-11-23 | 2019-04-16 | 浙江工业大学 | 一种单目slam初始化方法 |
CN110009732A (zh) * | 2019-04-11 | 2019-07-12 | 司岚光电科技(苏州)有限公司 | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 |
CN110120098A (zh) * | 2018-02-05 | 2019-08-13 | 浙江商汤科技开发有限公司 | 场景尺度估计及增强现实控制方法、装置和电子设备 |
CN110599432A (zh) * | 2018-06-12 | 2019-12-20 | 光宝电子(广州)有限公司 | 影像处理***及影像处理方法 |
CN110827411A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 自适应环境的增强现实模型显示方法、装置、设备及存储介质 |
CN110827376A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 增强现实多平面模型动画交互方法、装置、设备及存储介质 |
CN110910484A (zh) * | 2019-12-03 | 2020-03-24 | 上海世长信息科技有限公司 | 一种基于slam的二维图像到三维实景中的物体贴图方法 |
CN111815696A (zh) * | 2019-04-11 | 2020-10-23 | 曜科智能科技(上海)有限公司 | 基于语义实例分割的深度图优化方法、装置、设备和介质 |
US10853649B2 (en) * | 2018-08-27 | 2020-12-01 | Dell Products, L.P. | Context-aware hazard detection using world-facing cameras in virtual, augmented, and mixed reality (xR) applications |
CN112258633A (zh) * | 2020-10-23 | 2021-01-22 | 华中科技大学鄂州工业技术研究院 | 一种基于slam技术的场景高精度重建方法及装置 |
CN112308980A (zh) * | 2020-10-30 | 2021-02-02 | 脸萌有限公司 | 增强现实交互显示方法及设备 |
CN117853694A (zh) * | 2024-03-07 | 2024-04-09 | 河南百合特种光学研究院有限公司 | 一种连续深度的虚实结合渲染方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489214A (zh) * | 2013-09-10 | 2014-01-01 | 北京邮电大学 | 增强现实***中基于虚拟模型预处理的虚实遮挡处理方法 |
-
2016
- 2016-11-04 CN CN201610963053.2A patent/CN106548519A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489214A (zh) * | 2013-09-10 | 2014-01-01 | 北京邮电大学 | 增强现实***中基于虚拟模型预处理的虚实遮挡处理方法 |
Non-Patent Citations (4)
Title |
---|
HAOMIN LIU ET AL: "Robust Keyframe-based Monocular SLAM for Augmented Reality", 《2016 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY》 * |
刘浩敏 等: "基于单目视觉的同时定位与地图构建方法综述", 《计算机辅助设计与图形学学报》 * |
李红波 等: "动态变换背景帧的虚实遮挡处理方法", 《计算机工程与设计》 * |
饶玲珊 等: "增强现实游戏的场景重建和运动物体跟踪技术", 《计算机工程与应用》 * |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107204015A (zh) * | 2017-05-27 | 2017-09-26 | 中山大学 | 基于色彩图像和红外图像融合的即时定位与建图*** |
CN107204015B (zh) * | 2017-05-27 | 2021-06-08 | 中山大学 | 基于色彩图像和红外图像融合的即时定位与建图*** |
CN107185245A (zh) * | 2017-05-31 | 2017-09-22 | 武汉秀宝软件有限公司 | 一种基于slam技术的虚实同步显示方法及*** |
CN107564107A (zh) * | 2017-07-19 | 2018-01-09 | 中国农业大学 | 一种增强现实实现工具的设计方法与设备 |
CN107564089A (zh) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | 三维图像处理方法、装置、存储介质和计算机设备 |
CN107564089B (zh) * | 2017-08-10 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 三维图像处理方法、装置、存储介质和计算机设备 |
CN107766855A (zh) * | 2017-10-25 | 2018-03-06 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、***、存储介质及机器人 |
CN107766855B (zh) * | 2017-10-25 | 2021-09-07 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、***、存储介质及机器人 |
CN107958466A (zh) * | 2017-12-01 | 2018-04-24 | 大唐国信滨海海上风力发电有限公司 | 一种Slam算法优化基于模型的跟踪方法 |
CN108109208A (zh) * | 2017-12-01 | 2018-06-01 | 同济大学 | 一种海上风电场增强现实方法 |
CN108109208B (zh) * | 2017-12-01 | 2022-02-08 | 同济大学 | 一种海上风电场增强现实方法 |
CN107958466B (zh) * | 2017-12-01 | 2022-03-29 | 大唐国信滨海海上风力发电有限公司 | 一种Slam算法优化基于模型的跟踪方法 |
CN110120098A (zh) * | 2018-02-05 | 2019-08-13 | 浙江商汤科技开发有限公司 | 场景尺度估计及增强现实控制方法、装置和电子设备 |
CN110120098B (zh) * | 2018-02-05 | 2023-10-13 | 浙江商汤科技开发有限公司 | 场景尺度估计及增强现实控制方法、装置和电子设备 |
CN108364344A (zh) * | 2018-02-08 | 2018-08-03 | 重庆邮电大学 | 一种基于回环测试的单目实时三维重建方法 |
CN108537844B (zh) * | 2018-03-16 | 2021-11-26 | 上海交通大学 | 一种融合几何信息的视觉slam回环检测方法 |
CN108537844A (zh) * | 2018-03-16 | 2018-09-14 | 上海交通大学 | 一种融合几何信息的视觉slam回环检测方法 |
CN108805985B (zh) * | 2018-03-23 | 2022-02-15 | 福建数***信息科技有限公司 | 虚拟空间方法和装置 |
CN108805985A (zh) * | 2018-03-23 | 2018-11-13 | 福建数***信息科技有限公司 | 虚拟空间方法和装置 |
CN108537889A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
WO2019184889A1 (zh) * | 2018-03-26 | 2019-10-03 | Oppo广东移动通信有限公司 | 增强现实模型的调整方法、装置、存储介质和电子设备 |
CN108596964A (zh) * | 2018-05-02 | 2018-09-28 | 厦门美图之家科技有限公司 | 深度数据获取方法、装置及可读存储介质 |
CN108735052A (zh) * | 2018-05-09 | 2018-11-02 | 北京航空航天大学青岛研究院 | 一种基于slam的增强现实自由落体实验方法 |
CN108876900A (zh) * | 2018-05-11 | 2018-11-23 | 重庆爱奇艺智能科技有限公司 | 一种与现实场景融合的虚拟目标投射方法和*** |
CN110599432B (zh) * | 2018-06-12 | 2023-02-24 | 光宝电子(广州)有限公司 | 影像处理***及影像处理方法 |
CN110599432A (zh) * | 2018-06-12 | 2019-12-20 | 光宝电子(广州)有限公司 | 影像处理***及影像处理方法 |
CN108905208A (zh) * | 2018-06-21 | 2018-11-30 | 珠海金山网络游戏科技有限公司 | 一种基于增强现实的电子游戏方法和装置 |
CN109636916A (zh) * | 2018-07-17 | 2019-04-16 | 北京理工大学 | 一种动态标定的大范围虚拟现实漫游***及方法 |
CN109636916B (zh) * | 2018-07-17 | 2022-12-02 | 北京理工大学 | 一种动态标定的大范围虚拟现实漫游***及方法 |
CN110827411A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 自适应环境的增强现实模型显示方法、装置、设备及存储介质 |
CN110827376A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 增强现实多平面模型动画交互方法、装置、设备及存储介质 |
US10853649B2 (en) * | 2018-08-27 | 2020-12-01 | Dell Products, L.P. | Context-aware hazard detection using world-facing cameras in virtual, augmented, and mixed reality (xR) applications |
CN109471521A (zh) * | 2018-09-05 | 2019-03-15 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | Ar环境下的虚实遮挡交互方法及*** |
CN109636852A (zh) * | 2018-11-23 | 2019-04-16 | 浙江工业大学 | 一种单目slam初始化方法 |
CN110009732B (zh) * | 2019-04-11 | 2023-10-03 | 司岚光电科技(苏州)有限公司 | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 |
CN111815696A (zh) * | 2019-04-11 | 2020-10-23 | 曜科智能科技(上海)有限公司 | 基于语义实例分割的深度图优化方法、装置、设备和介质 |
CN110009732A (zh) * | 2019-04-11 | 2019-07-12 | 司岚光电科技(苏州)有限公司 | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 |
CN111815696B (zh) * | 2019-04-11 | 2023-08-22 | 曜科智能科技(上海)有限公司 | 基于语义实例分割的深度图优化方法、装置、设备和介质 |
CN110910484A (zh) * | 2019-12-03 | 2020-03-24 | 上海世长信息科技有限公司 | 一种基于slam的二维图像到三维实景中的物体贴图方法 |
CN112258633B (zh) * | 2020-10-23 | 2023-02-28 | 华中科技大学鄂州工业技术研究院 | 一种基于slam技术的场景高精度重建方法及装置 |
CN112258633A (zh) * | 2020-10-23 | 2021-01-22 | 华中科技大学鄂州工业技术研究院 | 一种基于slam技术的场景高精度重建方法及装置 |
CN112308980A (zh) * | 2020-10-30 | 2021-02-02 | 脸萌有限公司 | 增强现实交互显示方法及设备 |
CN112308980B (zh) * | 2020-10-30 | 2024-05-28 | 脸萌有限公司 | 增强现实交互显示方法及设备 |
CN117853694A (zh) * | 2024-03-07 | 2024-04-09 | 河南百合特种光学研究院有限公司 | 一种连续深度的虚实结合渲染方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548519A (zh) | 基于orb‑slam和深度相机的真实感的增强现实方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与*** | |
CN105631861B (zh) | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 | |
CN106228538B (zh) | 基于logo的双目视觉室内定位方法 | |
Hagbi et al. | Shape recognition and pose estimation for mobile augmented reality | |
CN109671120A (zh) | 一种基于轮式编码器的单目slam初始化方法及*** | |
CN101681423B (zh) | 捕获、处理、以及绘制图像的方法 | |
CN103177269B (zh) | 用于估计对象姿态的设备和方法 | |
US8675972B2 (en) | Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking | |
CN107990899A (zh) | 一种基于slam的定位方法和*** | |
CN105528082A (zh) | 三维空间及手势识别追踪交互方法、装置和*** | |
KR20090110357A (ko) | 비디오 스트림 내에서 마커 없는 직조된 기하학적 평면 개체의 실시간 자동 추적을 사용하는 증대된 현실성 방법 및 장치 | |
US20100103196A1 (en) | System and method for generating a mixed reality environment | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN108955718A (zh) | 一种视觉里程计及其定位方法、机器人以及存储介质 | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、***及装置 | |
KR101639161B1 (ko) | 골격 정보를 이용한 사용자 인증 방법 | |
CN111784775A (zh) | 一种标识辅助的视觉惯性增强现实注册方法 | |
WO2021002025A1 (ja) | 骨格認識方法、骨格認識プログラム、骨格認識システム、学習方法、学習プログラムおよび学習装置 | |
CN109978919A (zh) | 一种基于单目相机的车辆定位方法及*** | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
CN104166995B (zh) | 一种基于马步测度的Harris‑SIFT双目视觉定位方法 | |
Michael et al. | Model-based generation of personalized full-body 3D avatars from uncalibrated multi-view photographs | |
CN109584347A (zh) | 一种基于主动表观模型的增强现实虚实遮挡处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170329 |