CN105509716B - 一种基于增强现实技术的地理信息采集方法及装置 - Google Patents

一种基于增强现实技术的地理信息采集方法及装置 Download PDF

Info

Publication number
CN105509716B
CN105509716B CN201510836680.5A CN201510836680A CN105509716B CN 105509716 B CN105509716 B CN 105509716B CN 201510836680 A CN201510836680 A CN 201510836680A CN 105509716 B CN105509716 B CN 105509716B
Authority
CN
China
Prior art keywords
roll
calculated
camera
point
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510836680.5A
Other languages
English (en)
Other versions
CN105509716A (zh
Inventor
麦家杰
李论
黄宇
陈新伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geospace Information Technology Co ltd
Original Assignee
WUDA GEOINFORMATICS CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WUDA GEOINFORMATICS CO Ltd filed Critical WUDA GEOINFORMATICS CO Ltd
Priority to CN201510836680.5A priority Critical patent/CN105509716B/zh
Publication of CN105509716A publication Critical patent/CN105509716A/zh
Application granted granted Critical
Publication of CN105509716B publication Critical patent/CN105509716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

本发明涉及一种移动端地理信息采集方法及装置。包括:将终端的摄像头照准采集目标,获取此时终端所在位置的基准点坐标(Ax,Ay);利用摄影测量***传感器获取目标点与基准点的方位角Az以及翻滚角Roll,通过翻滚角Roll和终端摄像头高度计算得到目标点与移动终端的距离L,并且基于下式:Bx=Ax+L×sin(Az)By=Ay+L×cos(Az)计算得到目标点坐标(Bx,By)。本发明可以采集任何相机能够拍摄到的位置,不需要亲临定位点,不依赖地图数据和采集人员的技能。

Description

一种基于增强现实技术的地理信息采集方法及装置
技术领域
本发明涉及一种信息采集方法及装置,属于GIS信息采集方法领域,具体涉及一种移动端地理信息采集方法及装置。
背景技术
在国土与规划行业中,有许多业务都涉及到使用移动终端实施地理信息采集的工作,例如国土巡查、地块报建,而在后续的业务中,地理信息在移动设备上的显示也尤为重要。地理信息采集工作指用户对某地物进行地理信息进行录入的过程,其中地理信息包括位置信息、属性信息等。地理信息显示指在移动端设备屏幕上将地理信息数据通过各种手段和方式展示出来。
传统的移动端地理信息采集***,在信息采集方面,信息采集的手段分为两种:使用GPS定位采集和在电子地图上通过选点采集。使用GPS定位采集地理位置信息的准确度依赖于移动端设备接收卫星或通讯基站发出的信号强度,在楼群密集或基站稀疏的地方会遇到定位精度低或定位用时长等不利因素。而在电子地图上采集位置的准确度取决于操作者使用电子地图的熟练度和识图能力,对操作者本身要求高,需要对操作者进行培训以后才能上手。
在信息显示方面,信息显示的手段分为两种:使用列表显示和在电子地图上显示。使用列表显示地理信息不够直观,用户很难从充满密密麻麻的数字和文字中高效提取出感兴趣的信息。而在电子地图上显示地理信息,虽然可以直观地在地图上展示地物要素的地理位置,但是对于不熟练使用电子地图的用户来说,很难通过在电子地图上描绘的地理位置判断出地物要素在现实中相对于用户当前位置的方位和距离。并且二维电子地图不具备高程属性,无法直观展示高程信息。
增强现实(Augmented Reality,简称AR)技术,它是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息,声音,味道,触觉等),通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。
本发明提供一种新的地理信息采集手段,利用增强现实技术,在信息采集方面,可以像日常生活中使用手机拍照一样简单地采集地物的位置信息,在信息显示方面,在手机屏幕中构建三维空间,将地理信息与摄像头获取的现实场景互相叠加,使地理信息的展示更加直观,让用户轻易获取地物的相对方位和距离。
发明内容
本发明主要是解决现有技术中在采集地理信息时所存在的使用GPS定位耗时长,信息采集效率低,并且使用电子地图采集位置对地图和操作者本身要求高的技术问题,提供了一种基于增强现实技术的地理信息采集方法及装置。该方法可以采集任何相机能够拍摄到的位置,不需要亲临定位点,并且不依赖地图数据,用户不需要进行耗时的切图工作,设备也无需储存大容量的地图数据。
为了解决上述问题,根据本发明的一个方面,提供了一种基于增强现实技术的地理信息采集方法,包括:
将终端的摄像头照准采集目标,获取此时终端所在位置的基准点坐标(Ax,Ay);利用摄影测量***传感器获取目标点与基准点的方位角Az以及翻滚角Roll,通过翻滚角Roll和终端摄像头高度计算得到目标点与移动终端的距离L,并且基于下式:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
计算得到目标点坐标(Bx,By)。
优化的,上述的一种基于增强现实技术的地理信息采集方法,所述方位角Az通过下式计算得到:
Az=atan2(R12,R21)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R12,R21分别为旋转矩阵R中的相应矩阵元素。
优化的,上述的一种基于增强现实技术的地理信息采集方法,所述翻滚角Roll通过下式计算得出:
Roll=atan2(-R31,R33)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R31,R33分别为旋转矩阵R中的相应矩阵元素。
优化的,上述的一种基于增强现实技术的地理信息采集方法,所述距离L通过下式计算得出:
L=H×tan(Roll)
式中,H为摄像头高度。
为了解决上述问题,根据本发明的另一个方面,提供了一种基于增强现实技术的地理信息采集装置,包括:
基准坐标采集装置,用于将终端的摄像头照准采集目标,并获取此时终端所在位置的基准点坐标(Ax,Ay);
姿态参数采集装置,用于利用摄影测量***传感器获取目标点与基准点的方位角Az以及翻滚角Roll;
目标距离计算装置,用于通过翻滚角Roll和终端摄像头高度计算得到目标点与移动终端的距离L,
目标坐标计算装置,用于基于下式:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
计算得到目标点坐标(Bx,By)。
优化的,上述的一种基于增强现实技术的地理信息采集装置,所述姿态参数采集装置通过下式计算得到方位角Az:
Az=atan2(R12,R21)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R12,R21分别为旋转矩阵R中的相应矩阵元素。
优化的,上述的一种基于增强现实技术的地理信息采集装置,所述姿态参数采集装置通过下式计算得出翻滚角Roll:
Roll=atan2(-R31,R33)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R31,R33分别为旋转矩阵R中的相应矩阵元素。
优化的,上述的一种基于增强现实技术的地理信息采集装置,所述目标距离计算装置通过下式计算得出距离L:
L=H×tan(Roll)
式中,H为摄像头高度。
因此,本发明具有如下优点:
1.信息采集不受位置所在环境限制,只要照相机可以拍摄到的位置,都可以通过本方法直接采集其位置信息,不需要亲临定位点;
2.信息采集不依赖于地图数据,不需要进行耗时的切图工作,设备也无需储存大容量的地图数据;
附图说明
附图1是本发明的传感器坐标采集功能界面图;
附图2是直角坐标系中的方位角和距离示意图;
附图3是直角坐标系中的多个目标点的坐标时的方位角和距离示意图;
附图4是手机空间直角坐标系示意图;
附图5是手机姿态角定义图;
附图6是摄像机C、采集点B与基准点A在横截方向的几何关系图;
附图7是基准点(A)推算误差的误差范围示意图;
附图8是相机高误差与相机高真值的几何关系示意图;
附图9是距离解算误差与各结算参数之间的几何关系示意图;
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
本实施例包括地理信息的采集两部分。下面分别介绍。
一、地理信息采集。
本发明的地理信息采集方法及装置中,需要一台具备GPS传感器、姿态传感器(方向传感器、陀螺仪)、运动传感器(方向传感器)的移动设备,并安装具有传感器坐标采集的应用程序。
当用户启动传感器坐标采集功能时,应用程序将打开摄像头并启动GPS定位功能;待用户设置相机高后,应用程序进入传感器坐标采集状态,如图1所示。用户将屏幕中的十字丝准心(图1中间箭头位置)照准采集点,点击右下角红色按钮,即可完成一个坐标点的采集工作。
下面详细介绍本实施例的具体原理。
1、坐标推导原理
如图2所示,确定直角坐标系中一个坐标点(B)相对于另外一个已知坐标点(A)的相对位置时,需要提供两个参数:方位角(Az)、距离(L)。
根据三角关系原理,B点的绝对坐标推算公式如下:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
其中,x轴自西向东,y轴自南向北,Bx和By分别为B点的x坐标和y坐标,Ax和Ay分别为A点的x坐标和y坐标。
即当已知至少一个基准点的坐标时,目标点的坐标计算需要方位角(Az)和距离(L)即可计算得出。计算多个目标点的坐标时,确定所有坐标点的方位角(Az)和距离(L)后,逐个结算,如图3所示。
根据上述,坐标B与坐标C的绝对坐标推算公式如下:
Bx=Ax+L1×sin(Az1)
By=Ay+L1×cos(Az1)
Cx=Ax+L2×sin(Az2)
Cy=Ay+L2×cos(Az2)
2、移动终端实现原理
移动端实现传感器采点法坐标计算分为三个个步骤:确定目标点的方位角(Az),确定目标点到已知点的距离(L)以及确定基准点平面坐标(A)。
方位角(Az)通过手机方向传感器直接获取;距离(L)结合手机传感器获得的翻滚角(Roll)和用户设置的相机高计算得出;基准点坐标通过AGPS技术得出。
2.1手机坐标系建立
首先,为手机建立空间直角坐标系,手机屏幕朝向天顶,手机顶部朝向磁北。其中,x轴自左向右;y轴自手机底部向手机顶部;z轴自手机背面向手机正面,如图4所示。
参考摄影测量IMU***传感器姿态角的表示方式,手机姿态角方位角(Azimuth)、翻滚角(Roll)、俯仰角(Pitch)的表示与正方向的指定如图5所示。
2.2确定方位角Az
手机的方位角通过方向传感器直接获得。方向传感器是基于软件的虚拟传感器,它的数据是通过加速度传感器和磁场传感器共同获得的。
方向传感器的测量结果为一个3乘以3的旋转矩阵R。根据旋转矩阵的特性以及计算机视觉原理,当获得旋转矩阵R(3*3)后,方位角可以通过公式计算得出:
Az=atan2(R12,R21)
Az的计算结果即为手机姿态坐标系中的方位角(Azimuth)。
手机的方向传感器的数据是通过加速度传感器和磁场传感器共同获得的。组合传感器输出的参数为一个长度为9的一维数组,在线性代数领域称之为3乘以3的旋转矩阵。旋转矩阵是在乘以一个向量的时候有改变向量的方向但不改变大小的效果的矩阵,是当手机摄像头照准方向在现实场景中发生改变时,应用程序实现重绘地物标签使得地物标签在手机三维场景内的位置不发生改变的算法中的一个重要参数。旋转矩阵的获取是本领域的公知常识,在此不再累述。
2.3确定距离L
假定采集点(B)与基准点(A)处于同一水平面上,在用户使用手机摄像头照准目标时,摄像机(C)、采集点(B)与基准点(A)在横截方向上的几何关系如图6所示。
其中,角Roll为手机翻滚角,H为相机高,L为A、B两点间的平面距离。
根据旋转矩阵的特性以及计算机视觉原理,当获得旋转矩阵R(3*3)后,翻滚角可以通过公式计算得出:
Roll=atan2(-R31,R33)
根据三角关系原理,L的长度计算公式如下:
L=H×tan(Roll)
2.4确定基准点坐标A
手机通过AGPS技术获得手机坐标(C),假设用户在照准目标点时处于垂直站立状态,那么相机坐标(C)与基准点(A)的平面坐标值相同,综上所述得出:
Ax=Cx
Ay=Cy。
2.5解算目标点坐标
当手机通过传感器获得方位角(Az)和解得距离(L),并通过AGPS技术获得基准点(A)的坐标值后,目标点坐标B的绝对坐标推算公式如下:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)。
3.误差分析
3.1传感器采点法的误差源
传感器采点法的误差来源于以下几个要素:相机坐标(C)GPS定位误差,基准点(A)推算误差,用户设定相机高误差,距离(L)解算误差。
(1)相机坐标(C)GPS定位误差
目前移动设备不再仅通过GPS技术获得空间坐标值,而是使用多定位技术结合的AGPS技术综合结算空间坐标值。
AGPS的普适定位精度为10米;在截止高度角大于60度的开阔区域,定位精度提高到5米;若定位区内覆盖有WIFI信号或蜂窝网络信号,定位精度进一步提高到1至3米。
通过观察市面上众多地图服务应用的实际情况,以及我部门巡查***的实际使用情况,GPS定位精度完全符合人们的使用要求,精度中位数达到2米。通俗的说,站在一条宽为5米的马路北边缘进行GPS定位时,定位结果一直稳定在马路北边缘正负1米的范围内,鲜有越过马路中线而定位到马路南端。
因此,相机坐标(C)的误差表达式如下:
Cx观测=Cx+ΔGPSx
Cy观测=Cy+ΔGPSy
其中ΔGPSx和ΔGPSy分别为GPS在x方向和y方向上的定位误差。根据实际使用情况推算,ΔGPSx和ΔGPSy的最大或然值可取2米。
(2)基准点(A)推算误差
本发明解算目标点坐标的前提是基准点坐标(A)与相机坐标(C)在竖直方向上重合。而实际使用中,用户由于在逐步照准不同的目标点时相机的方向以人体为圆心不断转动,并且由于照准是通过手持相机进行的,相机的位置与用户站立的位置并不重合,两者间相差一段弯曲手臂的距离。
因此,基准点(A)推算误差的误差范围如图7所示。
其中,A为基准点,C1、C2、C3分别为三次照准时的相机坐标,矢量c为两点间的误差,因为用户在移动的过程中,手持相机的姿态基本不变,所以认为三次照准中的误差矢量的模恒为固定值。
根据人们习惯使用的手持相机拍照方式,米。
(3)用户设定相机高误差
解算距离(L)时需要用户指定相机高(H)。若用户指定相机高(H)的值为其身高,那么相机高误差与相机高真值的几何关系如图8所示。
即H与用户设定的相机高H与相机高误差ΔH之间的关系式为:
H=H设置-ΔH
根据人们习惯使用的手持相机拍照方式,ΔH≈0.1米。
(4)距离L解算误差
H的值直接影响L的结果,在考虑相机高误差ΔH时,距离解算误差ΔL与各结算参数之间的几何关系如图9所示。
根据三角关系原理,ΔL的大小推算公式如下:
ΔL=ΔH×tan(Roll)
根据人们习惯使用的手持相机拍照方式,Roll≈70o,ΔH≈0.1米。所以ΔL约为0.27米。L=L+ΔL。
3.2传感器采点法的误差值
根据前述传感器采点法的误差源以及移动端实现原理得出方程组:
Cx观测=Cx+ΔGPSx
Cy观测=Cy+ΔGPSy
Ax观测=Cx观测
Ay观测=Cy观测
ΔH=H设置-H
ΔL=ΔH×tan(Roll)
L=L观测-ΔL
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
未知数目标点坐标(B)的误差方程为:
ΔBx=ΔGPSx+ΔH×tan(Roll))×sin(Az)
ΔBy=ΔGPSy+ΔH×tan(Roll))×cos(Az)
未知数目标点坐标(B)的结算结果为:
综上所述,传感器采点法的目标点(B)在x和y方向上的误差值的最大或然值如下:
3.3误差对比
目前在国土与规划行业的移动端应用中,坐标采集的手段有图上采点和GPS定位采点两种,现简单分析这两种方法的误差值并与传感器采点法作对比。
(1)图上采点误差
图上采点的使用方式是直接通过手指在电子地图上点击屏幕采集坐标数据,精度取决于指尖跟屏幕的触点位置、移动设备屏幕分辨率与电子地图的比例尺。
假设用户的指尖跟屏幕的重合面积无限小,屏幕分辨率无限大,那么触摸点在不同比例尺的电子地图中,偏移1毫米而造成的误差如下表所示:
表1图上采点法误差
1:500 0.5米
1:200 0.2米
1:100 0.1米
1:50 0.05米
1:20 0.02米
那么,图上采点误差ΔMap_Col与触摸点偏移距离ΔTouch在1:500电子地图中的误差公式为:
ΔMap_Col=ΔTouch×0.5米
其中,ΔTouch单位为毫米。
按照人们实行图上采点的实际情况,用户点击屏幕选取目标点在屏幕上的偏移量约为2毫米,那么图上采点误差ΔMap_Col在使用1:500电子地图时的最大或然值为1米。
(2)GPS定位采点误差
GPS定位采点的方式为用户将设备置于采集点上,或手持移动设备,站在采集点上,随即开启GPS定位功能,采集目标点的坐标信息。
GPS定位采点的误差来源于两个部分:设备与目标点之间的偏移量和GPS定位误差。GPS采点误差ΔGPS_Col与偏移误差ΔC以及GPS误差ΔGPS之间的关系式如下:
ΔGPS_Col=ΔC+ΔGPS
如误差源一节中基准点(A)推算误差所述,ΔC约为0.4米;如本文4.1传感器采点法的误差源一节中相机坐标(C)GPS定位误差所述,ΔGPS约为2米。那么GPS定位采点误差ΔGPS_Col的最大或然值为2.4米。
(3)综合对比
1:500电子地图图上采点误差,GPS定位采点误差以及传感器采点法误差的对比如下表:
表2误差对比
4.可行性分析
从技术层面考虑,传感器采点法有坚实的数学理论基础,是可靠的新采点技术。
从实现条件层面考虑,目前的移动设备均具备方法中涉及到的所有传感器,可以在几乎所有国土与规划行业应用是实现传感器采点法。
从误差分析层面考虑,虽然传感器采点法的误差比其余两者的误差大,甚至3倍于图上采点法,但是与另外一种主流采点方式,即GPS定位采点法,相比,误差十分接近。竟然GPS定位采点法的误差被行业所接受,那么传感器采点法误差比GPS采点法误差稍大11%的情况也可以考虑被行业接受。
从使用环境层面考虑,传感器采点法有着独特的优越性,甚至超越其他两种采集手段。在使用图上采集法时,目标在地图中的位置靠地图中目标附近的参照物决定,如果地图版本老旧,地图中采集目标的位置在地图中处于一片荒地之中,那么就无法通过图上采点法采集目标的位置;而GPS定位采集法十分费时,需要逐个亲身到达采集点进行定位采集,有些难以驻足的地方,例如被沙土堆包围的工地,水洼地等,将无法使用GPS。
本发明在采集同一地块的多个角点时,若各角点间通视正常,则只需定位一次即可。传统方法每定位一个点耗时t(s),定位n个点总耗时T=nt(s)。本方法定位基准点耗时t(s),设立m个基准点,照准n个定位点后总耗时T=mt(s)。即总耗时与定位点数无关,与基准点个数有关,若照准点间通视正常,则只需设立一个基准点,即m=1。
二、地理信息显示
本实施例中,利用增强现实技术,可以在屏幕上根据地物的位置坐标直接在虚拟三维空间中准确绘制出地物标签,用户可以直接通过标签的位置判断地物的方向和距离。
增强现实展示数据是基于三维立体坐标(纬度(B),经度(L),高程(H)),而电子地图基于二维平面坐标(纬度(B),经度(L)),本方法可以在屏幕上直观的显示高程信息,让用户得知地物间的高程分布情况。
具体实现方法如下:
获取所有待显示要素的数据集合;获取设备在手机XYZ轴轴向上的加速度、俯仰角、偏航角、翻滚角,并基于所获取的数据计算旋转矩阵R_r;利用旋转矩阵R_r的参数执行竖屏坐标系到手机横屏坐标系的转换从而获取手机旋转姿态矩阵R_p;通过数据集合的地理信息数据生成纹理标签,根据各个显示要素的地理位置将对应的纹理标签绘制在OpenGLES三维场景中。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (7)

1.一种基于增强现实技术的地理信息采集方法,其特征在于,包括:
将终端的摄像头照准采集目标,获取此时终端所在位置的基准点坐标(Ax,Ay);利用摄影测量***传感器获取目标点与基准点的方位角Az以及翻滚角Roll,通过翻滚角Roll和终端摄像头高度计算得到目标点与移动终端的距离L,并且基于下式:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
计算得到目标点坐标(Bx,By);
其中,GPS采点误差ΔGPS_Col与偏移误差ΔC以及GPS误差ΔGPS之间的关系式如下:ΔGPS_Col=ΔC+ΔGPS;所述方位角Az通过下式计算得到:
Az=atan2(R12,R21)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R12,R21分别为旋转矩阵R中的相应矩阵元素。
2.根据权利要求1所述的一种基于增强现实技术的地理信息采集方法,其特征在于,所述翻滚角Roll通过下式计算得出:
Roll=atan2(-R31,R33)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R31,R33分别为旋转矩阵R中的相应矩阵元素。
3.根据权利要求1所述的一种基于增强现实技术的地理信息采集方法,其特征在于,获取所有待显示要素的数据集合;获取设备在手机XYZ轴轴向上的加速度、俯仰角、偏航角、翻滚角,并基于所获取的数据计算旋转矩阵R_r;利用旋转矩阵R_r的参数执行竖屏坐标系到手机横屏坐标系的转换从而获取手机旋转姿态矩阵R_p;通过数据集合的地理信息数据生成纹理标签,根据各个显示要素的地理位置将对应的纹理标签绘制在OpenGL ES三维场景中。
4.一种基于增强现实技术的地理信息采集装置,其特征在于,包括:
基准坐标采集装置,用于将终端的摄像头照准采集目标,并获取此时终端所在位置的基准点坐标(Ax,Ay);
姿态参数采集装置,用于利用摄影测量***传感器获取目标点与基准点的方位角Az以及翻滚角Roll;
目标距离计算装置,用于通过翻滚角Roll和终端摄像头高度计算得到目标点与移动终端的距离L,
目标坐标计算装置,用于基于下式:
Bx=Ax+L×sin(Az)
By=Ay+L×cos(Az)
计算得到目标点坐标(Bx,By);
其中,图上采点误差ΔMap_Col与触摸点偏移距离ΔTouch在1:500电子地图中的误差公式为:
ΔMap_Col=ΔTouch×0.5米。
5.根据权利要求4所述的一种基于增强现实技术的地理信息采集装置,其特征在于,所述姿态参数采集装置通过下式计算得到方位角Az:
Az=atan2(R12,R21)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R12,R21分别为旋转矩阵R中的相应矩阵元素。
6.根据权利要求5所述的一种基于增强现实技术的地理信息采集装置,其特征在于,所述姿态参数采集装置通过下式计算得出翻滚角Roll:
Roll=atan2(-R31,R33)
式中,R是由方向传感器测量出的一个3*3的旋转矩阵,R31,R33分别为旋转矩阵R中的相应矩阵元素。
7.根据权利要求5所述的一种基于增强现实技术的地理信息采集装置,其特征在于,所述目标距离计算装置通过下式计算得出距离L:
L=H×tan(Roll)
式中,H为摄像头高度。
CN201510836680.5A 2015-11-26 2015-11-26 一种基于增强现实技术的地理信息采集方法及装置 Active CN105509716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510836680.5A CN105509716B (zh) 2015-11-26 2015-11-26 一种基于增强现实技术的地理信息采集方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510836680.5A CN105509716B (zh) 2015-11-26 2015-11-26 一种基于增强现实技术的地理信息采集方法及装置

Publications (2)

Publication Number Publication Date
CN105509716A CN105509716A (zh) 2016-04-20
CN105509716B true CN105509716B (zh) 2018-03-27

Family

ID=55717875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510836680.5A Active CN105509716B (zh) 2015-11-26 2015-11-26 一种基于增强现实技术的地理信息采集方法及装置

Country Status (1)

Country Link
CN (1) CN105509716B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106092041B (zh) * 2016-06-08 2018-06-19 武大吉奥信息技术有限公司 一种基于移动终端的测高方法及装置
CN110069584B (zh) * 2017-11-29 2023-04-14 星际空间(天津)科技发展有限公司 一种基于移动端的信息采集和特征匹配的方法
CN109996032B (zh) * 2017-12-29 2020-10-02 杭州海康威视***技术有限公司 信息显示方法及装置、计算机设备及存储介质
CN108303136B (zh) * 2018-01-17 2021-01-15 智慧光科技(深圳)有限公司 一种基于数据获取与分析的集装箱分类及检验的方法
CN110988947B (zh) * 2019-02-20 2020-09-22 以见科技(上海)有限公司 一种基于实时动态载波相位差分技术的增强现实定位方法
CN111475026B (zh) * 2020-04-10 2023-08-22 李斌 一种基于移动终端应用增强虚拟现实技术的空间定位方法
CN116380059A (zh) * 2021-12-23 2023-07-04 中兴通讯股份有限公司 行走轨迹的确定方法、终端和计算机可读存储介质
CN115359114B (zh) * 2022-08-16 2023-07-25 中建一局集团第五建筑有限公司 一种定位方法、装置、电子设备和计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833896B (zh) * 2010-04-23 2011-10-19 西安电子科技大学 基于增强现实的地理信息指引方法与***
CN104750969B (zh) * 2013-12-29 2018-01-26 刘进 智能机全方位增强现实信息叠加方法
CN104833360B (zh) * 2014-02-08 2018-09-18 无锡维森智能传感技术有限公司 一种二维坐标到三维坐标的转换方法
CN105045582B (zh) * 2015-07-07 2018-01-02 西北工业大学 一种基于手机拍照行为的事件定位方法

Also Published As

Publication number Publication date
CN105509716A (zh) 2016-04-20

Similar Documents

Publication Publication Date Title
CN105509716B (zh) 一种基于增强现实技术的地理信息采集方法及装置
CN105334525B (zh) 一种基于增强现实技术的地理信息显示方法
CN105547301A (zh) 基于地磁的室内地图构建方法与装置
CN110222137A (zh) 一种基于倾斜摄影与增强现实技术智慧校园***
CN107993282A (zh) 一种动态的可量测实景地图制作方法
CN108120436A (zh) 一种iBeacon辅助地磁室内实景导航方法
JP2001503134A (ja) 携帯可能な手持ちデジタル地理データ・マネージャ
CN104750969A (zh) 智能机全方位增强现实信息叠加方法
CN104469677A (zh) 基于智能终端的移动轨迹记录***及其方法
CN104008189A (zh) 一种具有信息自动推送功能的可量测街景地图的建立方法
CN107729707A (zh) 基于移动增强现实技术和bim的工程施工放样方法
CN104748739A (zh) 一种智能机增强现实实现方法
CN107291786A (zh) 一种三维地理信息采集***
CN107462220B (zh) 面向月基对地观测影像的投影极坐标几何表达方法
CN104144005A (zh) 蓝牙定位***
CN104655106A (zh) 基于gps rtk和全景影像的自主定位定向测图方法
CN103487059B (zh) 一种定位导航***、装置及方法
Guo et al. Urban Geospatial Information Acquisition Mobile Mapping System based on close-range photogrammetry and IGS site calibration
CN106023207A (zh) 一种基于移动测量***双全景的城市部件采集方法
CN108512888A (zh) 一种信息标注方法、云端服务器、***、电子设备及计算机程序产品
JP2006300602A (ja) 測位データの取得方法、取得装置及び取得システム
CN108955723A (zh) 增强现实市政管网的校准方法
KR101659089B1 (ko) 위치 정보를 이용한 증강 현실 장치
CN106840167B (zh) 基于街景地图的目标物地理位置的二维量测算方法
CN103335645B (zh) 面向景观规划的空间精确定位的图像获取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Mak Jiajie

Inventor after: Li Lun

Inventor after: Huang Yu

Inventor after: Chen Xinwei

Inventor before: Mak Jiajie

Inventor before: Li Lun

Inventor before: Huang Yu

Inventor before: Chen Xinwei

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 430000 Wuda science and Technology Park, Jiangxia Avenue, Miaoshan District, Donghu Development Zone, Wuhan City, Hubei Province

Patentee after: Geospace Information Technology Co.,Ltd.

Address before: 430223 Wuda science and Technology Park, Jiangxia Avenue, Miaoshan community, Donghu Development Zone, Wuhan City, Hubei Province

Patentee before: WUDA GEOINFORMATICS Co.,Ltd.

CP03 Change of name, title or address