CN111882590A - 一种基于单张图片定位的ar场景应用方法 - Google Patents
一种基于单张图片定位的ar场景应用方法 Download PDFInfo
- Publication number
- CN111882590A CN111882590A CN202010587809.4A CN202010587809A CN111882590A CN 111882590 A CN111882590 A CN 111882590A CN 202010587809 A CN202010587809 A CN 202010587809A CN 111882590 A CN111882590 A CN 111882590A
- Authority
- CN
- China
- Prior art keywords
- data
- algorithm
- point cloud
- single picture
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000003213 activating effect Effects 0.000 claims abstract description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000009616 inductively coupled plasma Methods 0.000 claims description 4
- 238000011084 recovery Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单张图片定位的AR场景应用方法,服务器对全局场景的图像数据进行三维地图建模;所述三维地图建模包括图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数;移动端获取单张图片数据上传至服务器;服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿;将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用。
Description
技术领域
本发明涉及AR图像识别技术领域,具体为一种基于单张图片定位的AR场景应用方法。
背景技术
基于图像的建模技术一直是计算机视觉领域的一个重要研究方向。目前来说主要的流程是通过特征点提取和特征点的描述子匹配建立图像之间的连接,然后使用三维视觉和对物理世界的数学建模技术,从图像中建立真实世界的模型。缺陷在于:各种来源的图片相机参数和模型不一,对相机模型的估计误差导致***误差;且图像数据量过大,导致计算的时间过长(从几天到一周不等)。
目前AR(增强现实)技术飞速发展,手机AR例如,Google的ArCore,苹果的ArKit;AR眼镜,例如微软的Hololens,国内的ShadowCreator公司等。都在致力于AR的发展,同时在AR中最重要的基础技术就是SLAM(实时定位和制图技术)。缺陷在于,目前的AR应用都集中在小范围,同时被平面识别和图像识别限制,无法实现在预先建立的大场景模型中的AR。
发明内容
本发明目的在于提供一种能够通过单张图片定位的AR场景的方法,以降低移动端获取AR场景的运算量,实现移动端高效呈现。
本发明所述的一种基于单张图片定位的AR场景应用方法,包括以下步骤:
步骤1:服务器对全局场景的图像数据进行三维地图建模;所述三维地图建模包括图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数;
步骤2:移动端获取单张图片数据上传至服务器;
步骤3:服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;
步骤4:将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿;
步骤5:将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用。
本发明所述一种基于单张图片定位的AR场景应用方法,服务器视频数据进行三维建模,并获取图像数据中全局场景模型的每个特征点对应的描述子,以及描述子对应的三维坐标参数,移动端获取单张图片数据上传至服务器;服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿。可以将全局场景模型进行统一三维坐标参数的建立,避免了各种来源的图片相机参数和模型不一的问题。且移动设备仅负责获取单张图片数据,不需要进行大的计算且余缀信息少,在建图过程中采集数据的设备,和定位算法投入运行之后用户使用的设备采集的图片的统一,能够提供更加稳定的数据源,增加了图像建模精度的同时也减少了运算量。将整个应用分为两部分,分别在服务器和移动设备运行,减轻了移动设备的运算负担。最终将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用,为图像建模提供了完美的应用场景。基于单张图像的坐标参数的定位方法也为AR应用提供了极高精度的定位。
附图说明
图1为本发明一种基于单张图片定位的AR场景应用方法的流程示意图。
具体实施方式
如图1所示,本发明所述的一种AR图像识别方法,包括以下步骤:
步骤1:服务器对全局场景的图像数据进行三维地图建模;所述三维地图建模包括图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数;
步骤2:移动端获取单张图片数据上传至服务器;
步骤3:服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;
步骤4:将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿;
步骤5:将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用。
本发明所述一种基于单张图片定位的AR场景应用方法,服务器视频数据进行三维建模,并获取图像数据中全局场景模型的每个特征点对应的描述子,以及描述子对应的三维坐标参数,移动端获取单张图片数据上传至服务器;服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿。可以将全局场景模型进行统一三维坐标参数的建立,避免了各种来源的图片相机参数和模型不一的问题。且移动设备仅负责获取单张图片数据,不需要进行大的计算且余缀信息少,在建图过程中采集数据的设备,和定位算法投入运行之后用户使用的设备采集的图片的统一,能够提供更加稳定的数据源,增加了图像建模精度的同时也减少了运算量。将整个应用分为两部分,分别在服务器和移动设备运行,减轻了移动设备的运算负担。最终将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用,为图像建模提供了完美的应用场景。基于单张图像的坐标参数的定位方法也为AR应用提供了极高精度的定位。
所述步骤1包括以下步骤:
步骤1-A1:服务器对图像数据进行特征点提取,获取每一个特征点对应的描述子,以及描述子对应的三维坐标参数,由特征点算法以及计算机多视角几何算法,恢复图像流中的特征点的三维数据,并形成稀疏的点云;
步骤1-A2:通过对应的IMU的数据,通过VISLAM算法,依据形成稀疏的点云结果的真实尺度的数据源,恢复点云的真实尺度;
步骤1-A3:通过计算机视觉的多视角光度匹配算法,计算稠密的三维点云。
基于图像数据的三维稀疏/稠密重建,并且支持使用IMU数据恢复真实尺度,单张图片在已知场景即重建全局场景模型中的6个自由度(3个位置自由度 + 3个方向自由度)的误差在10厘米内的定位,为高精度的AR应用提供了基础。且使用VISLAM算法能够更好的恢复高质量的稀疏点云地图,使用IMU数据能够更好的恢复VISLAM算法缺失的尺度信息。
所述步骤1-A1包括以下步骤:
步骤1-A1-1:服务器使用图像流的光流追踪算法,提取和筛选图像数据,建立图像数据的关键帧的集合;
步骤1-A1-2:依据关键帧的集合,提取SIFT或深度学习的特征点,并计算每个特征点的描述子;
步骤1-A1-3:依据每一个特征点对应的描述子,以及描述子对应的三维坐标参数,对关键帧进行匹配,找寻特征点的一一对应关系,并通过计算机视觉几何关系验证筛选的结果;
步骤1-A1-4:依据关键帧的匹配结果,结合计算机视觉的物理观测模型进行建模,并使用Bundle Adjustment算法进行优化,最终得到高精度的稀疏点云。使用关键帧的匹配从而解决了关键帧筛选的问题,进一步剔除余缀数据。加快建图流程。在筛选关键帧之后提高了建图精度。
所述步骤1-A2包括以下步骤:
步骤1-A2-1:整理同步的图像和IMU数据,并结合SFM算法的结果,获取图像对应的在稀疏点云中的位姿;
步骤1-A2-2:通过VISLAM算法,估计帧间的具有真实尺度的相对位姿;
步骤1-A2-3:通过VISLAM算法计算的位姿,和SFM算法计算的位姿,使用优化算法计算建立的稀疏的点云的真实尺度的数据源,从而恢复点云的真实尺度。
所述步骤1-A3中包括以下步骤:
步骤1-A3-1:收集稀疏点云的深度信息,和关键帧之间的共视关系图;
步骤1-A3-2:建立以光度误差为基础的多视角几何的物理模型;
步骤1-A3-3:将多视角几何的物理模型使用Primal-Dual的凸优化的方法,进行快速的稠密深度图恢复;
步骤1-A3-4:使用稠密深度图像重建的算法,计算稠密的三维点云。
所述三维地图建模还包括真实尺度的数据源。步骤1还包括以下步骤:
步骤1-B1:服务器获取激光数据,所述激光数据包括真实尺度的数据和图像数据;
步骤1-B2:服务器提取图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数,并对应的真实尺度的数据,通过视觉SLAM追踪算法,估算设备的位姿,和运动的速度;
步骤1-B3:依据位姿结果和运动速度,对激光点云数据进行解扭曲操作;
步骤1-B4:使用解扭曲的激光点云,通过三维点云ICP算法,计算高精度的设备位姿;
步骤1- B5:使用Bundle Adjustment优化算法,结合视觉和激光的观测,再一次优化位姿的估计;
步骤1- B6:使用点云融合的算法,同时计算稠密的点云数据,和稀疏的特征点云数据,服务器依据稠密的点云数据,和稀疏的特征点云数据对场景进行三维地图建模。使用激光设备扫描地图,并建立模型。精度会大大提高。激光设备虽然可以提供高精度的数据,但是激光的设备存在频率低和存在扭曲的问题。这些问题是可以通过高频率的视觉算法解决的。
将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用,支持任何设备和用户的图片,使用图片在重建模型的地图中提供高精度的定位,以支持手机SLAM的累计误差修正,并能够关系所有用户统一到已经建好的模型地图的坐标系下。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (7)
1.一种基于单张图片定位的AR场景应用方法,其特征在于,包括以下步骤:
步骤1:服务器对全局场景的图像数据进行三维地图建模;所述三维地图建模包括图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数;
步骤2:移动端获取单张图片数据上传至服务器;
步骤3:服务器对单张图片数据进行特征点提取,获取每一个特征点对应的描述子;
步骤4:将单张图片中的每一个特征点对应的描述子和全局场景模型的每个特征点对应的描述子进行匹配,通过描述子对应的三维坐标参数获取单张图片在全局场景模型的位姿;
步骤5:将单张图片在全局场景模型的位姿转换到AR应用坐标***下,并激活AR应用。
2.根据权利要求1所述一种基于单张图片定位的AR场景应用方法,其特征在于,所述步骤1包括以下步骤:
步骤1-A1:服务器对图像数据进行特征点提取,获取每一个特征点对应的描述子,以及描述子对应的三维坐标参数,由特征点算法以及计算机多视角几何算法,恢复图像流中的特征点的三维数据,并形成稀疏的点云;
步骤1-A2:通过对应的IMU的数据,通过VISLAM算法,依据形成稀疏的点云结果的真实尺度的数据源,恢复点云的真实尺度;
步骤1-A3:通过计算机视觉的多视角光度匹配算法,计算稠密的三维点云。
3.根据权利要求2所述一种基于单张图片定位的AR场景应用方法,其特征在于,所述步骤1-A1包括以下步骤:
步骤1-A1-1:服务器使用图像流的光流追踪算法,提取和筛选图像数据,建立图像数据的关键帧的集合;
步骤1-A1-2:依据关键帧的集合,提取SIFT或深度学习的特征点,并计算每个特征点的描述子;
步骤1-A1-3:依据每一个特征点对应的描述子,以及描述子对应的三维坐标参数,对关键帧进行匹配,找寻特征点的一一对应关系,并通过计算机视觉几何关系验证筛选的结果;
步骤1-A1-4:依据关键帧的匹配结果,结合计算机视觉的物理观测模型进行建模,并使用Bundle Adjustment算法进行优化,最终得到高精度的稀疏点云。
4.根据权利要求2所述一种基于单张图片定位的AR场景应用方法,其特征在于,所述步骤1-A2包括以下步骤:
步骤1-A2-1:整理同步的图像和IMU数据,并结合SFM算法的结果,获取图像对应的在稀疏点云中的位姿;
步骤1-A2-2:通过VISLAM算法,估计帧间的具有真实尺度的相对位姿;
步骤1-A2-3:通过VISLAM算法计算的位姿,和SFM算法计算的位姿,使用优化算法计算建立的稀疏的点云的真实尺度的数据源,从而恢复点云的真实尺度。
5.根据权利要求2所述一种基于单张图片定位的AR场景应用方法,其特征在于,所述步骤1-A3中包括以下步骤:
步骤1-A3-1:收集稀疏点云的深度信息,和关键帧之间的共视关系图;
步骤1-A3-2:建立以光度误差为基础的多视角几何的物理模型;
步骤1-A3-3:将多视角几何的物理模型使用Primal-Dual的凸优化的方法,进行快速的稠密深度图恢复;
步骤1-A3-4:使用稠密深度图像重建的算法,计算稠密的三维点云。
6.根据权利要求1所述一种基于单张图片定位的AR场景应用方法,其特征在于,所述三维地图建模还包括真实尺度的数据源。
7.根据权利要求6所述一种基于单张图片定位的AR场景应用方法,其特征在于,步骤1还包括以下步骤:
步骤1-B1:服务器获取激光数据,所述激光数据包括真实尺度的数据和图像数据;
步骤1-B2:服务器提取图像数据的每个特征点对应的描述子,以及描述子对应的三维坐标参数,并对应的真实尺度的数据,通过视觉SLAM追踪算法,估算设备的位姿,和运动的速度;
步骤1-B3:依据位姿结果和运动速度,对激光点云数据进行解扭曲操作;
步骤1-B4:使用解扭曲的激光点云,通过三维点云ICP算法,计算高精度的设备位姿;
步骤1- B5:使用Bundle Adjustment优化算法,结合视觉和激光的观测,再一次优化位姿的估计;
步骤1- B6:使用点云融合的算法,同时计算稠密的点云数据,和稀疏的特征点云数据,服务器依据稠密的点云数据,和稀疏的特征点云数据对场景进行三维地图建模。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010587809.4A CN111882590A (zh) | 2020-06-24 | 2020-06-24 | 一种基于单张图片定位的ar场景应用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010587809.4A CN111882590A (zh) | 2020-06-24 | 2020-06-24 | 一种基于单张图片定位的ar场景应用方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111882590A true CN111882590A (zh) | 2020-11-03 |
Family
ID=73156572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010587809.4A Pending CN111882590A (zh) | 2020-06-24 | 2020-06-24 | 一种基于单张图片定位的ar场景应用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111882590A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022252347A1 (zh) * | 2021-06-04 | 2022-12-08 | 华为技术有限公司 | 3d地图的检索方法和装置 |
CN116468878A (zh) * | 2023-04-25 | 2023-07-21 | 深圳市兰星科技有限公司 | 一种基于定位地图的ar设备定位方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745498A (zh) * | 2014-01-16 | 2014-04-23 | 中国科学院自动化研究所 | 一种基于图像的快速定位方法 |
CN103854283A (zh) * | 2014-02-21 | 2014-06-11 | 北京理工大学 | 一种基于在线学习的移动增强现实跟踪注册方法 |
US20170186212A1 (en) * | 2015-03-31 | 2017-06-29 | Baidu Online Network Technology (Beijing) Co., Ltd. | Picture presentation method and apparatus |
CN107223269A (zh) * | 2016-12-29 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN108108748A (zh) * | 2017-12-08 | 2018-06-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN108447116A (zh) * | 2018-02-13 | 2018-08-24 | 中国传媒大学 | 基于视觉slam的三维场景重建方法和装置 |
CN108780228A (zh) * | 2016-01-19 | 2018-11-09 | 奇跃公司 | 利用映像的增强现实***和方法 |
CN109978931A (zh) * | 2019-04-04 | 2019-07-05 | 北京悉见科技有限公司 | 三维场景重建方法及设备、存储介质 |
CN110243370A (zh) * | 2019-05-16 | 2019-09-17 | 西安理工大学 | 一种基于深度学习的室内环境三维语义地图构建方法 |
CN110238831A (zh) * | 2019-07-23 | 2019-09-17 | 青岛理工大学 | 基于rgb-d图像及示教器的机器人示教***及方法 |
CN110634150A (zh) * | 2018-06-25 | 2019-12-31 | 上海汽车集团股份有限公司 | 一种即时定位与地图构建的生成方法、***及装置 |
CN110766716A (zh) * | 2019-09-10 | 2020-02-07 | 中国科学院深圳先进技术研究院 | 一种空间未知运动目标的信息获取方法及*** |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN110889349A (zh) * | 2019-11-18 | 2020-03-17 | 哈尔滨工业大学 | 一种基于vslam的稀疏三维点云图的视觉定位方法 |
-
2020
- 2020-06-24 CN CN202010587809.4A patent/CN111882590A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745498A (zh) * | 2014-01-16 | 2014-04-23 | 中国科学院自动化研究所 | 一种基于图像的快速定位方法 |
CN103854283A (zh) * | 2014-02-21 | 2014-06-11 | 北京理工大学 | 一种基于在线学习的移动增强现实跟踪注册方法 |
US20170186212A1 (en) * | 2015-03-31 | 2017-06-29 | Baidu Online Network Technology (Beijing) Co., Ltd. | Picture presentation method and apparatus |
CN108780228A (zh) * | 2016-01-19 | 2018-11-09 | 奇跃公司 | 利用映像的增强现实***和方法 |
CN107223269A (zh) * | 2016-12-29 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN108108748A (zh) * | 2017-12-08 | 2018-06-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN108447116A (zh) * | 2018-02-13 | 2018-08-24 | 中国传媒大学 | 基于视觉slam的三维场景重建方法和装置 |
CN110634150A (zh) * | 2018-06-25 | 2019-12-31 | 上海汽车集团股份有限公司 | 一种即时定位与地图构建的生成方法、***及装置 |
CN109978931A (zh) * | 2019-04-04 | 2019-07-05 | 北京悉见科技有限公司 | 三维场景重建方法及设备、存储介质 |
CN110243370A (zh) * | 2019-05-16 | 2019-09-17 | 西安理工大学 | 一种基于深度学习的室内环境三维语义地图构建方法 |
CN110238831A (zh) * | 2019-07-23 | 2019-09-17 | 青岛理工大学 | 基于rgb-d图像及示教器的机器人示教***及方法 |
CN110766716A (zh) * | 2019-09-10 | 2020-02-07 | 中国科学院深圳先进技术研究院 | 一种空间未知运动目标的信息获取方法及*** |
CN110849367A (zh) * | 2019-10-08 | 2020-02-28 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN110889349A (zh) * | 2019-11-18 | 2020-03-17 | 哈尔滨工业大学 | 一种基于vslam的稀疏三维点云图的视觉定位方法 |
Non-Patent Citations (5)
Title |
---|
RUIZHUO ZHANG等: "Automatic Extraction of High-Voltage Power Transmission Objects from UAV Lidar Point Clouds", 《REMOTE SENSING》, vol. 11, pages 1 - 33 * |
张建越: "基于嵌入式并行处理的视觉惯导SLAM算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2019, pages 138 - 3168 * |
扬奇智能社区: "AICUG公开课笔记|滴滴三维技术发展与实践", pages 1 - 17, Retrieved from the Internet <URL:《https://zhuanlan.zhihu.com/p/137105471?utm_id=0》> * |
李凯: "面向数字化工厂的便携式实时三维重建***研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2019, pages 138 - 505 * |
陈丁等: "融合IMU 与单目视觉的无人机自主定位方法", 《***仿真学报》, vol. 29, no. 1, pages 9 - 14 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022252347A1 (zh) * | 2021-06-04 | 2022-12-08 | 华为技术有限公司 | 3d地图的检索方法和装置 |
CN116468878A (zh) * | 2023-04-25 | 2023-07-21 | 深圳市兰星科技有限公司 | 一种基于定位地图的ar设备定位方法 |
CN116468878B (zh) * | 2023-04-25 | 2024-05-24 | 深圳市兰星科技有限公司 | 一种基于定位地图的ar设备定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503703B (zh) | 用于生成图像的方法和装置 | |
CN110648398B (zh) | 基于无人机航摄数据的正射影像实时生成方法及*** | |
US20200357136A1 (en) | Method and apparatus for determining pose of image capturing device, and storage medium | |
WO2019219012A1 (zh) | 联合刚性运动和非刚性形变的三维重建方法及装置 | |
CN110189399B (zh) | 一种室内三维布局重建的方法及*** | |
US11557083B2 (en) | Photography-based 3D modeling system and method, and automatic 3D modeling apparatus and method | |
WO2019179168A1 (zh) | 投影畸变校正方法、装置、***及存储介质 | |
JP6456347B2 (ja) | 平面固有の特徴のターゲットのinsitu生成 | |
WO2021218123A1 (zh) | 用于检测车辆位姿的方法及装置 | |
CN108089191B (zh) | 一种基于激光雷达的全局定位***及方法 | |
US20200357158A1 (en) | Remote visualization of three-dimensional (3d) animation with synchronized voice in real-time | |
WO2023280038A1 (zh) | 一种三维实景模型的构建方法及相关装置 | |
CN108958469B (zh) | 一种基于增强现实的在虚拟世界增加超链接的方法 | |
US20190073825A1 (en) | Enhancing depth sensor-based 3d geometry reconstruction with photogrammetry | |
CN111882590A (zh) | 一种基于单张图片定位的ar场景应用方法 | |
US20180350137A1 (en) | Methods and systems for changing virtual models with elevation information from real world image processing | |
CN109788270B (zh) | 3d-360度全景图像生成方法及装置 | |
CN111784776A (zh) | 视觉定位方法及装置、计算机可读介质和电子设备 | |
CN111739137A (zh) | 一种三维姿态估计数据集的生成方法 | |
CN107330980A (zh) | 一种基于无标志物的虚拟家具布置*** | |
CN114882106A (zh) | 位姿确定方法和装置、设备、介质 | |
CN112714263A (zh) | 视频生成方法、装置、设备及存储介质 | |
CN113496503A (zh) | 点云数据的生成及实时显示方法、装置、设备及介质 | |
CN116012509A (zh) | 一种虚拟形象的驱动方法、***、设备及存储介质 | |
WO2023086398A1 (en) | 3d rendering networks based on refractive neural radiance fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220801 Address after: 510000 room 617, No. 193, Kexue Avenue, Huangpu District, Guangzhou City, Guangdong Province Applicant after: Guangzhou Gaowei Network Technology Co.,Ltd. Address before: Room 604, No. 193, Kexue Avenue, Huangpu District, Guangzhou, Guangdong 510000 Applicant before: Guangzhou wanwei Innovation Technology Co.,Ltd. |
|
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201103 |