CN110796706A - 视觉定位方法及*** - Google Patents

视觉定位方法及*** Download PDF

Info

Publication number
CN110796706A
CN110796706A CN201911089425.3A CN201911089425A CN110796706A CN 110796706 A CN110796706 A CN 110796706A CN 201911089425 A CN201911089425 A CN 201911089425A CN 110796706 A CN110796706 A CN 110796706A
Authority
CN
China
Prior art keywords
key frame
image
parameters
mobile terminal
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911089425.3A
Other languages
English (en)
Inventor
刘孟红
赵鹏博
展华益
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Changhong Electric Co Ltd
Original Assignee
Sichuan Changhong Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Changhong Electric Co Ltd filed Critical Sichuan Changhong Electric Co Ltd
Priority to CN201911089425.3A priority Critical patent/CN110796706A/zh
Publication of CN110796706A publication Critical patent/CN110796706A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)

Abstract

本发明涉及定位技术领域,本发明旨在解决现有技术存在的在大规模室内环境中导航方案部署成本和运营成本很高的问题,提出一种视觉定位方法,包括:构建环境地图,获取构建环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库;接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将图像数据进行重投影,得到重投影图像;将重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。本发明减少了导航方案的部署成本和运营成本。

Description

视觉定位方法及***
技术领域
本发明涉及定位技术领域,具体来说涉及一种视觉定位方法及***。
背景技术
随着社会经济的快速发展,各种大型建筑物层出不穷,如商场、博物馆、办公楼、游乐场等。在这些场景大、道路复杂的地方,如何快速的找到出口、快速的找到某个门店、快速的找到停车场的汽车等,成为人们强烈的需求。
基于地图的GPS导航,是应用较为普遍的技术,但在室内,特别是针对多层建筑物,GPS导航效果不佳。
室内导航的现有技术中,基于WiFi进行导航,是可行的方案。但该方案存在的问题如下:需要部署大量的WiFi基站(AP,接入点),还需要安装网络线路、供电线路等,部署成本和运营成本都很高。
发明内容
本发明旨在解决现有技术存在的在大规模室内环境中导航方案部署成本和运营成本很高的问题,提出一种视觉定位方法及***。
本发明解决上述技术问题所采用的技术方案是:视觉定位方法,包括以下步骤:
步骤1.构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述图像关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
步骤2.接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
步骤3.根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
步骤4.将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
进一步的,步骤1中,所述构建环境地图包括:
通过深度相机、双目相机或单目相机融合IMU,构建三维环境地图。
进一步的,步骤3中,所述根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数将所述图像数据进行重投影包括:
根据所述第二相机内参和第二畸变参数,计算移动终端发送的图像数据的像素点对应的相机坐标,根据所述第一相机内参和第一畸变参数将所述相机坐标进行投影成像。
进一步的,步骤4中,所述将重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧包括:
提取重投影图像的第一特征点信息,与图像关键帧数据库中的所有关键帧的第二特征点信息进行匹配,将与第一特征点信息匹配度超过第一预设值的第二特征点信息对应的关键帧确定为定位目标关键帧。
进一步的,步骤4中,所述将重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧包括:
提取重投影图像的特征点信息,并将所述特征点信息转化为第一词袋向量,将所述第一词袋向量与图像关键帧数据库中的所有关键帧的第二词袋向量进行匹配,将与第一词袋向量匹配度超过第二预设值的第二词袋向量对应的关键帧确定为定位目标关键帧。
进一步的,步骤4中,所述计算重投影图像与定位目标关键帧的相对位置信息的方法至少包括:RANSAC PnP算法或Bundle Adjustment算法。
进一步的,还包括:
接收移动终端发送的目的地信息;
根据计算得到的移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
将所述规划路径反馈给移动终端。
本发明还提出一种视觉定位***,包括:
构建模块,用于构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
第一接收模块,用于接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
图像重投影模块,用于根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
全局定位模块,用于将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
进一步的,所述根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数将所述图像数据进行重投影包括:
根据所述第二相机内参和第二畸变参数,计算移动终端发送的图像数据的像素点对应的相机坐标,根据所述第一相机内参和第一畸变参数将所述相机坐标进行投影成像。
进一步的,还包括:
第二接收模块,用于接收移动终端发送的目的地信息;
路径规划模块,用于根据计算得到的移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
反馈模块,用于将所述规划路径反馈给移动终端。
本发明的有益效果是:本发明所述的视觉定位方法及***,在大规模室内环境中,用户仅需要手机拍照,即可快速知道自己的位置和到达目的地的路径,无需部署大量的WiFi基站,无需安装网络线路和供电线路,减少了导航方案的部署成本和运营成本。
附图说明
图1为本发明实施例一所述的视觉定位方法的流程示意图;
图2为本发明实施例二所述的视觉定位***的结构示意图。
具体实施方式
下面将结合附图对本发明的实施方式进行详细描述。
本发明所述的视觉定位方法,包括以下步骤:步骤1.构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述图像关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;步骤2.接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;步骤3.根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;步骤4.将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
首先,建立环境地图和图像关键帧数据库,其中,图像关键帧数据库存储有关键帧信息及其对应的全局位置信息和深度信息,在使用时,用户通过移动终端拍摄环境照片,当获取到移动终端拍摄的环境照片对应的图像数据后,根据相机内参和畸变参数对图像数据进行重投影,得到重投影图像,然后获取在图像关键帧数据库中匹配该重投影图像的定位目标关键帧,并获取定位目标关键帧对应的全局位置信息,进而得到移动终端的全局位置信息,实现对移动终端的定位,用户通过移动终端的全局位置信息即可知道自己的位置。
实施例一
图1示出了本发明实施例一所述的视觉定位方法的流程图,包括:
步骤S1.构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述图像关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
其中,构建环境地图的方法,至少包括:通过深度相机或双目相机或单目相机融合IMU,构建三维环境地图,通常的做法是采用SLAM算法,关键帧数据库是在SLAM过程中建立,因此关键帧的全局位置信息在SLAM过程中获取,而关键帧的数量和分布,可根据场景的情况进行调整。
为了后续步骤中准确计算移动终端的全局位置,关键帧的深度信息是必须要获取的,深度相机和双目相机可直接给出深度图。单目相机没有尺度,需要IMU来辅助计算,可以采用深度滤波器获取深度信息。
步骤S2.接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
用户可通过移动终端对周围环境进行拍照获取图像数据,移动终端可以是智能手机、平板电脑等。
步骤S3.根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
其中,重投影具体实现方法可以为:
根据用户的移动终端的相机内参及畸变参数,计算移动终端发送的图像的所有像素点对应的相机坐标,再根据建图所用的第一相机内参和第一畸变参数,对所述相机坐标进行投影成像,得到重投影图像。
因为构建地图和图像关键帧数据库时,采用的是一种相机,而移动终端的相机与之不同,因此需要通过步骤2和步骤3来统一,以便于后续对移动终端全局位置的准确计算。
步骤S4.将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
其中,寻找定位目标关键帧的方法可以为:
提取重投影图像的第一特征点信息,与图像关键帧数据库中的所有关键帧的第二特征点信息进行匹配,将与第一特征点信息匹配度超过第一预设值的第二特征点信息对应的关键帧确定为定位目标关键帧。
特征点信息包括关键点和描述子。特别地,图像特征可以为SIFT、SURF或ORB等。
寻找定位目标关键帧的方法还还可以为:
提取重投影图像的特征点信息,并将所述特征点信息转化为第一词袋向量,将所述第一词袋向量与图像关键帧数据库中的所有关键帧的第二词袋向量进行匹配,将与第一词袋向量匹配度超过第二预设值的第二词袋向量对应的关键帧确定为定位目标关键帧。
其中,计算重投影图像与定位目标关键帧的相对位置信息的方法,至少包括:RANSAC PnP算法或Bundle Adjustment算法。
在上述四个步骤的基础上,还可以为用户提供导航功能,具体方法包括:
1)接收移动终端发送的目的地信息;
2)根据计算得到移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
3)将所述规划路径反馈给移动终端。
用户通过移动终端输入目的地信息后,自动生成用户所在位置到目的地的导航信息。接收移动终端发送的目的地信息,可以是文字信息,也可以是一张图像,图像由***按照步骤S2-S4计算得到目的地的全局位置。
在获取用户的当前全局位置和目的地的全局位置后,可采用多种方法得到到达目的地的规划路径,如Dijkstra算法、A*、D*等,上述获取规划路径的方法均为较为成熟的现有技术,此处不再赘述。
本发明实施例一提供的方法,在大规模室内环境中,用户仅需要手机拍照,即可快速知道自己的位置和到达目的地的路径,无需部署大量的WiFi基站,无需安装网络线路和供电线路,减少了导航方案的部署成本和运营成本。
实施例二
图2示出了本发明实施例二所述的视觉定位***的结构示意图,包括:
构建模块,用于构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
第一接收模块,用于接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
图像重投影模块,用于根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
全局定位模块,用于将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
其中,所述根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数将所述图像数据进行重投影包括:
根据所述第二相机内参和第二畸变参数,计算移动终端发送的图像数据的像素点对应的相机坐标,根据所述第一相机内参和第一畸变参数将所述相机坐标进行投影成像。
为满足用户的导航需求,还包括:
第二接收模块,用于接收移动终端发送的目的地信息;
路径规划模块,用于根据计算得到的移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
反馈模块,用于将所述规划路径反馈给移动终端。
可以理解,由于本发明实施例二所述的视觉定位***是用于实现实施例一所述视觉定位方法的***,对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的较为简单,相关之处参见方法的部分说明即可。由于上述视觉定位方法能够减少了导航方案的部署成本和运营成本,因此,实现上述视觉定位方法的***同样能够减少了导航方案的部署成本和运营成本。

Claims (10)

1.视觉定位方法,其特征在于,包括以下步骤:
步骤1.构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述图像关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
步骤2.接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
步骤3.根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
步骤4.将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
2.如权利要求1所述的是视觉定位方法,其特征在于,步骤1中,所述构建环境地图包括:
通过深度相机、双目相机或单目相机融合IMU,构建三维环境地图。
3.如权利要求1所述的视觉定位方法,其特征在于,步骤3中,所述根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数将所述图像数据进行重投影包括:
根据所述第二相机内参和第二畸变参数,计算移动终端发送的图像数据的像素点对应的相机坐标,根据所述第一相机内参和第一畸变参数将所述相机坐标进行投影成像。
4.如权利要求1所述的视觉定位方法,其特征在于,步骤4中,所述将重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧包括:
提取重投影图像的第一特征点信息,与图像关键帧数据库中的所有关键帧的第二特征点信息进行匹配,将与第一特征点信息匹配度超过第一预设值的第二特征点信息对应的关键帧确定为定位目标关键帧。
5.如权利要求1所述的视觉定位方法,其特征在于,步骤4中,所述将重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧包括:
提取重投影图像的特征点信息,并将所述特征点信息转化为第一词袋向量,将所述第一词袋向量与图像关键帧数据库中的所有关键帧的第二词袋向量进行匹配,将与第一词袋向量匹配度超过第二预设值的第二词袋向量对应的关键帧确定为定位目标关键帧。
6.如权利要求1所述的视觉定位方法,其特征在于,步骤4中,所述计算重投影图像与定位目标关键帧的相对位置信息的方法至少包括:RANSAC PnP算法或Bundle Adjustment算法。
7.如权利要求1至6任一项所述的视觉定位方法,其特征在于,还包括:
接收移动终端发送的目的地信息;
根据计算得到的移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
将所述规划路径反馈给用户终端。
8.视觉定位***,其特征在于,包括:
构建模块,用于构建环境地图,获取构建所述环境地图的第一相机内参和第一畸变参数,并建立图像关键帧数据库,所述关键帧数据库存储所有关键帧信息,所述关键帧信息至少包括关键帧的全局位置信息和深度信息;
第一接收模块,用于接收移动终端发送的图像数据以及移动终端的第二相机内参和第二畸变参数;
图像重投影模块,用于根据所述第一相机内参、第一畸变参数、第二相机内参和第二畸变参数,将所述图像数据进行重投影,得到重投影图像;
全局定位模块,用于将所述重投影图像在图像关键帧数据库中进行匹配,寻找定位目标关键帧,计算重投影图像与定位目标关键帧的相对位置信息,获得定位目标关键帧的全局位置信息,并根据定位目标关键帧的全局位置信息,得到移动终端发送的图像数据的全局位置信息。
9.如权利要求8所述的视觉定位***,其特征在于,所述根据第一相机内参、第一畸变参数、第二相机内参和第二畸变参数将所述图像数据进行重投影包括:
根据所述第二相机内参和第二畸变参数,计算移动终端发送的图像数据的像素点对应的相机坐标,根据所述第一相机内参和第一畸变参数将所述相机坐标进行投影成像。
10.如权利要求8所述的视觉定位***,其特征在于,还包括:
第二接收模块,用于接收移动终端发送的目的地信息;
路径规划模块,用于根据计算得到的移动终端的当前全局位置信息,计算到达所述目的地的规划路径;
反馈模块,用于将所述规划路径反馈给移动终端。
CN201911089425.3A 2019-11-08 2019-11-08 视觉定位方法及*** Pending CN110796706A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911089425.3A CN110796706A (zh) 2019-11-08 2019-11-08 视觉定位方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911089425.3A CN110796706A (zh) 2019-11-08 2019-11-08 视觉定位方法及***

Publications (1)

Publication Number Publication Date
CN110796706A true CN110796706A (zh) 2020-02-14

Family

ID=69443428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911089425.3A Pending CN110796706A (zh) 2019-11-08 2019-11-08 视觉定位方法及***

Country Status (1)

Country Link
CN (1) CN110796706A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102410A (zh) * 2020-09-24 2020-12-18 四川长虹电器股份有限公司 基于粒子滤波器和视觉辅助的移动机器人定位方法及装置
WO2022078240A1 (zh) * 2020-10-14 2022-04-21 佳都科技集团股份有限公司 一种应用于电子地图中的摄像头精准定位方法及处理终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN108717710A (zh) * 2018-05-18 2018-10-30 京东方科技集团股份有限公司 室内环境下的定位方法、装置及***
CN108748184A (zh) * 2018-06-13 2018-11-06 四川长虹电器股份有限公司 一种基于区域地图标识的机器人巡逻方法及机器人设备
CN110189373A (zh) * 2019-05-30 2019-08-30 四川长虹电器股份有限公司 一种基于视觉语义信息的快速重定位方法及装置
CN110322500A (zh) * 2019-06-28 2019-10-11 Oppo广东移动通信有限公司 即时定位与地图构建的优化方法及装置、介质和电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN108717710A (zh) * 2018-05-18 2018-10-30 京东方科技集团股份有限公司 室内环境下的定位方法、装置及***
CN108748184A (zh) * 2018-06-13 2018-11-06 四川长虹电器股份有限公司 一种基于区域地图标识的机器人巡逻方法及机器人设备
CN110189373A (zh) * 2019-05-30 2019-08-30 四川长虹电器股份有限公司 一种基于视觉语义信息的快速重定位方法及装置
CN110322500A (zh) * 2019-06-28 2019-10-11 Oppo广东移动通信有限公司 即时定位与地图构建的优化方法及装置、介质和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102410A (zh) * 2020-09-24 2020-12-18 四川长虹电器股份有限公司 基于粒子滤波器和视觉辅助的移动机器人定位方法及装置
WO2022078240A1 (zh) * 2020-10-14 2022-04-21 佳都科技集团股份有限公司 一种应用于电子地图中的摄像头精准定位方法及处理终端

Similar Documents

Publication Publication Date Title
US10740975B2 (en) Mobile augmented reality system
KR102145109B1 (ko) 지도 생성 및 운동 객체 위치 결정 방법 및 장치
US8872851B2 (en) Augmenting image data based on related 3D point cloud data
CN108921894B (zh) 对象定位方法、装置、设备和计算机可读存储介质
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP5736526B2 (ja) 電子マップに基づく位置検索方法及び装置
US9129429B2 (en) Augmented reality on wireless mobile devices
CN111627114A (zh) 室内视觉导航方法、装置、***及电子设备
US20140300775A1 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP2020091273A (ja) 位置更新方法、位置及びナビゲーション経路の表示方法、車両並びにシステム
JP2017021328A (ja) カメラの空間特性を決定する方法及びシステム
US10733777B2 (en) Annotation generation for an image network
KR101413011B1 (ko) 위치 정보 기반 증강현실 시스템 및 제공 방법
CN102831816B (zh) 一种提供实时场景地图的装置
CN110796706A (zh) 视觉定位方法及***
CN109034214B (zh) 用于生成标记的方法和装置
CN102946476B (zh) 一种快速定位的方法及装置
WO2018103544A1 (zh) 一种在图像中展现业务对象数据的方法和装置
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
CN109982239A (zh) 基于机器视觉的商场楼层定位***及方法
US20160086339A1 (en) Method of providing cartograic information of an eletrical component in a power network
KR102272757B1 (ko) 파노라믹 영상 컨텐츠 제작 시스템 및 방법
CN113763561B (zh) Poi数据生成方法、装置、存储介质及电子设备
CN110276837B (zh) 一种信息处理方法、电子设备
Chang et al. An Automatic Indoor Positioning Robot System Using Panorama Feature Matching.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200214