CN114862932B - 基于bim全局定位的位姿修正方法及运动畸变矫正方法 - Google Patents

基于bim全局定位的位姿修正方法及运动畸变矫正方法 Download PDF

Info

Publication number
CN114862932B
CN114862932B CN202210694055.1A CN202210694055A CN114862932B CN 114862932 B CN114862932 B CN 114862932B CN 202210694055 A CN202210694055 A CN 202210694055A CN 114862932 B CN114862932 B CN 114862932B
Authority
CN
China
Prior art keywords
bim
pose
point cloud
global
correction method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210694055.1A
Other languages
English (en)
Other versions
CN114862932A (zh
Inventor
刘伟
蔡晨星
高婷
毛如轩
陈雪辉
李�昊
黄磊
景甜甜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Jianzhu University
Original Assignee
Anhui Jianzhu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Jianzhu University filed Critical Anhui Jianzhu University
Priority to CN202210694055.1A priority Critical patent/CN114862932B/zh
Publication of CN114862932A publication Critical patent/CN114862932A/zh
Application granted granted Critical
Publication of CN114862932B publication Critical patent/CN114862932B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及基于BIM全局定位的位姿修正方法及运动畸变矫正方法。基于BIM全局定位的位姿修正方法包括将BIM全局点云地图在空间上划分到不同三维网格中;统计每个三维网格中点云数量,计算三维网格多维正态分布参数,将激光雷达实时数据的原始坐标由变换矩阵T变换到BIM全局点云地图坐标系中;根据多维正态分布参数计算激光雷达转换点的概率密度,根据概率密度建立NDT配准函数;对配准函数求解;发布机器人在BIM全局点云地图下的实时定位位姿;将激光雷达预测位姿与实时定位位姿进行ESKF融合,获得修正位姿。本发明利用提取的BIM全局点云地图与激光雷达实时帧的点云数据进行配准,消除局部传感器推算的位姿误差。

Description

基于BIM全局定位的位姿修正方法及运动畸变矫正方法
技术领域
本发明涉及室内机器人技术领域,特别是涉及基于BIM全局定位的位姿修正方法、基于BIM全局定位的运动畸变矫正方法。
背景技术
现有的室内机器人利用IMU传感器采集的数据可以推算出机器人位姿变换,利用计算出的位姿变换修正雷达采集数据,达到畸变修正的效果。对IMU传感器做积分可以得到机器人的推算位姿,但机器人在实际运行过程中会发生车轮打滑、IMU漂移等现象会导致推算的位姿并不准确,室内机器人激光运动畸变矫正如果仅依靠依赖IMU等传感器,缺乏全局观测数据,无法消除因车轮打滑、IMU漂移等现象带来的误差。
发明内容
基于此,有必要针对因车轮打滑、IMU漂移等现象带来的误差导致运动畸变矫正不准确问题,提供了基于BIM全局定位的位姿修正方法、基于BIM全局定位的运动畸变矫正方法。
为实现上述目的,本发明采用了以下技术方案:
基于BIM全局定位的位姿修正方法,所述位姿修正方法包括以下步骤:
获取BIM全局点云地图,将所述BIM全局点云地图在空间上划分到不同的三维网格中;
统计每个所述三维网格中点云数量,计算所述三维网格多维正态分布参数,即点云均值与协方差矩阵,其中,点云均值为q=
Figure DEST_PATH_IMAGE001
,协方差矩阵为Σ
Figure DEST_PATH_IMAGE002
n表示划分的三维网格数量,k表示n的序号,x表示网格内所有扫描点的位置,T表示由激光雷达坐标系到BIM全局点云地图坐标系的变换矩阵;
将激光雷达的实时数据的原始坐标由所述变换矩阵T变换到BIM全局点云地图坐标系中,得到位于BIM全局点云地图的坐标,具体变换为[
Figure DEST_PATH_IMAGE003
1] T =T[x i ,y i ,1] T ,变换矩阵为T=
Figure DEST_PATH_IMAGE004
[x i ,y i ]为雷达实时数据在原始坐标系下的坐标,[
Figure DEST_PATH_IMAGE005
]经变换矩阵转移到所述BIM全局点云地图坐标系后的坐标,φ表示旋转角度,
Figure DEST_PATH_IMAGE006
表示BIM全局点云地图坐标系下激光雷达坐标系原点到BIM全局点云地图坐标系下x方向上的距离,
Figure DEST_PATH_IMAGE007
表示y方向上的距离;
根据所述三维网格多维正态分布参数计算所述激光雷达转换点的概率密度,概率密度为:P(x):
Figure DEST_PATH_IMAGE008
,根据所述概率密度建立NDT配准函数,配准函数为:S(P)=
Figure DEST_PATH_IMAGE009
,即转换点概率密度的累加;
对所述配准函数求解,寻找一组变换参数令所述配准函数最大,设置迭代阈值与最大迭代次数,达到收敛条件时结束迭代;
发布机器人在所述BIM全局点云地图下的实时定位位姿;
获取所述激光雷达预测位姿,将所述激光雷达预测位姿与所述实时定位位姿进行ESKF融合,获得机器人的修正位姿。
进一步的,预先建立IMU传感器运动学模型,通过所述运动学模型与IMU传感器实时采集数据推测出所述激光雷达预测位姿。
进一步的,获取精确的建筑物信息模型BIM,对BIM进行特征提取,得到三维空间特征点,将所述三维空间特征点转化成所述BIM全局点云地图。
进一步的,所述特征为构件信息,其包括大小,空间位置,形状。
进一步的,利用优化算法对所述配准函数求解,所述优化算法包括牛顿迭代算法。
本发明还包括基于BIM全局定位的运动畸变矫正方法,所述运动畸变矫正方法包括以下步骤:
获取激光雷达单帧扫描时间内的机器人的位姿,对所述位姿做线性近似和插值处理,获取补偿变换矩阵;
将单帧时间内所有激光点基准坐标系下的坐标通过所述补偿变换矩阵进行矫正,得到矫正后的激光点坐标,封装激光点坐标的点云数据,完成矫正;
其特征在于,
在获取所述补偿变换矩阵前,对所述位姿进行修正,所述位姿的位姿修正方法采用前述的基于BIM全局定位的位姿修正方法。
进一步的,根据激光雷达有序点云中每个点云的水平角计算出单个点云相对于单帧初始时刻的激光雷达坐标的相对时间,根据相对时间对经过线性近似变换的位姿变换做插值求解,计算出每个激光点在激光雷达坐标下的补偿变换矩阵,得到所述补偿变换矩阵。
进一步的,获取经过线性近似变换的位姿变换包括以下步骤:
获取所述修正位姿数据,对齐位姿数据与激光雷达点云的时间,对单帧点云时间内的位姿变换做线性近似处理,得到所述经过线性近似变换的位姿变换。
进一步的,以单帧初始时刻的激光雷达位置为原点建立基准坐标系O 0 XY,单帧其余时刻位置建立的坐标系为激光雷达坐标系O t XY。
进一步的,获取激光雷达点云数据,将激光雷达点云数据按雷达线束和扫描时间转化为有序点云,得到所述激光雷达有序点云。
本发明提供的技术方案,具有如下有益效果:
通过建筑物信息模型可以获得机器人需要的先验地图,通过先验地图与激光雷达实时扫描数据配准,建立机器人全局定位信息消除局部传感器推算的位姿误差,修正IMU推算出的位姿误差,从而达到更高精度的矫正激光雷达运动畸变的效果。
附图说明
图1为本发明中基于BIM全局定位的位姿修正方法的流程图;
图2为图1中BIM模型提取全局点云地图流程图;
图3为图1中激光雷达位姿配准的示意图;
图4为图1中BIM定位数据与IMU传感器频率示意图;
图5为图1中全局定位修正位姿示意图;
图6为以图1为基础的基于BIM全局定位的运动畸变矫正方法的流程图;
图7为图6中基准坐标系结构示意图;
图8为以图6为基础的基于BIM全局定位的运动畸变矫正方法的总流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本实施例提供了基于BIM全局定位的位姿修正方法,所述位姿修正方法包括以下步骤:
获取BIM全局点云地图,将BIM全局点云地图在空间上划分到不同的三维网格中;
统计每个三维网格中点云数量,计算三维网格多维正态分布参数,即点云均值与协方差矩阵,其中,点云均值为q=
Figure 367703DEST_PATH_IMAGE001
,协方差矩阵为Σ
Figure DEST_PATH_IMAGE010
n表示划分的三维网格数量,k表示n的序号,x表示网格内所有扫描点的位置,T表示由激光雷达坐标系到BIM全局点云地图坐标系的变换矩阵;
将激光雷达的实时数据的原始坐标由变换矩阵T变换到BIM全局点云地图坐标系中,得到位于BIM全局点云地图的坐标,具体变换为[
Figure 956947DEST_PATH_IMAGE003
1] T =T[x i ,y i ,1] T ,变换矩阵为T=
Figure 205526DEST_PATH_IMAGE004
[x i ,y i ]为雷达实时数据在原始坐标系下的坐标,[
Figure 820309DEST_PATH_IMAGE005
]经变换矩阵转移到所述BIM全局点云地图坐标系后的坐标,φ表示旋转角度,
Figure 103523DEST_PATH_IMAGE006
表示BIM全局点云地图坐标系下激光雷达坐标系原点到BIM全局点云地图坐标系下x方向上的距离,
Figure 129248DEST_PATH_IMAGE007
表示y方向上的距离;
根据三维网格多维正态分布参数计算激光雷达转换点的概率密度,概率密度为:P (x):
Figure 848811DEST_PATH_IMAGE008
,根据概率密度建立NDT配准函数,配准函数为:S(P) =
Figure 516552DEST_PATH_IMAGE009
对配准函数求解,寻找一组变换参数令所述配准函数最大,设置迭代阈值与最大迭代次数,达到收敛条件时结束迭代;
发布机器人在所述BIM全局点云地图下的实时定位位姿;
获取激光雷达预测位姿,将激光雷达预测位姿与实时定位位姿进行ESKF融合,获得机器人的修正位姿。
对于上述位姿修正方法,主要分为三大模块,包括BIM地图提取模块、基于BIM全局定位模块和基于全局定位数据修正推算位姿模块。
针对BIM地图提取模块,具体操作步骤如下:
S1:获取精确的建筑物信息模型(BIM),BIM包含建筑物的各种信息,机器人全局定位模块主要需要BIM信息中的几何模型构建全局定位地图;
S2:将BIM文件导出为IFC文件;
S3:对导出的IFC文件进行特征提取,根据文件中的构件信息即大小,空间位置,形状。对墙体,门窗,地板楼板等实体构建提取其在三维空间中的特征点。
S4:将提取出的三维空间特征点进行处理,转化成所需要的BIM全局点云地图。
根据上述步骤提取出的三维BIM全局点云地图相较于二维栅格地图可以在机器人的实时位姿变换中提供更多的信息。BIM全局点云地图流程如图2所示。
针对基于BIM全局定位模块,基于BIM的全局定位模块的原理是将提取的BIM全局点云地图与激光雷达实时帧的点云数据进行配准,具体配准方法为将BIM全局点云转化为多维变量的正态分布,再将激光雷达实时点云根据初始变换参数转换到BIM全局点云地图中,计算雷达变换点在参考系的概率密度,利用优化器求解最大概率密度的变换参数,设置迭代阈值与最大迭代次数。输出机器人在BIM全局点云地图下的实时位姿。具体流程如下:
S1:将上述模块生成的BIM全局点云地图在空间上划分到不同的三维网格中。
S2:统计每个网格中点云数量,计算网格多维正态分布参数,即点云均值与协方差矩阵。点云均值为q=
Figure DEST_PATH_IMAGE011
,协方差矩阵为Σ
Figure 608267DEST_PATH_IMAGE010
,n为划分出的三维网格数量,k表示n的序号,x表示网格内所有扫描点的位置,T表示由激光雷达坐标系到BIM全局点云地图坐标系的变换矩阵;
S3:将雷达实时数据的原始坐标由变换矩阵T变换到BIM全局点云地图坐标系中,具体变换为[
Figure 70473DEST_PATH_IMAGE003
1] T =T[x i ,y i ,1] T ,变换矩阵为T=
Figure 293644DEST_PATH_IMAGE004
[x i , y i ]为雷达实时数据在原始坐标系下的坐标,[
Figure 499497DEST_PATH_IMAGE005
]经变换矩阵转移到所述BIM全局点云地图坐标系后的坐标,φ表示旋转角度,
Figure 475412DEST_PATH_IMAGE006
表示BIM全局点云地图坐标系下激光雷达坐标系原点到BIM全局点云地图坐标系下x方向上的距离,
Figure 374098DEST_PATH_IMAGE007
表示y方向上的距离。
S4:根据正态分布参数计算雷达转换点的概率密度,概率密度为:P(x):
Figure 84565DEST_PATH_IMAGE008
,根据概率密度函数建立NDT配准函数:S(P)=
Figure 828530DEST_PATH_IMAGE009
,即转换点概率密度的累加。其中,[x i ,y i ]为雷达实时数据在原始坐标系下的坐标,[
Figure 160417DEST_PATH_IMAGE005
]为雷达数据经变换矩阵转移到BIM点云地图坐标系后的坐标。
S5:利用牛顿迭代算法对配准函数求解,寻找一组变换参数使得配准函数最大,设置迭代阈值与最大迭代次数,达到收敛条件时结束迭代。
S6:以固定频率发布机器人在全局地图下的实时定位位姿。
图3为激光雷达在全局地图内配准的示意图,A的位姿为激光雷达位姿,虚线为激光雷达实时扫描数据。图示时刻为配准过程进行中。
针对基于全局定位数据修正推算位姿模块,在利用BIM定位信息修正IMU推算位姿实际过程中,BIM定位信息更新频率远低于IMU频率,如图4所示,考虑频率问题,选用误差状态卡尔曼滤波器(ESKF)修正推算位姿,如图5所示,具体流程如下:
S1:建立IMU传感器运动学模型。
S2:通过运动学模型与IMU实时采集数据推测激光雷达预测位姿。
S3:以机器人BIM定位信息(实时定位位姿)为观测值与预测位姿进行ESKF融合。
S4:修正预测位姿。
该位姿修正方法能够对IMU传感器的推算预测位姿进行修正优化,利于在激光雷达运动畸变时能够更好的矫正。
如图6所述,本实施例还提供了基于BIM全局定位的运动畸变矫正方法,所述运动畸变矫正方法包括以下步骤:
获取激光雷达单帧扫描时间内的机器人的位姿,对位姿做线性近似和插值处理,获取补偿变换矩阵;
将单帧时间内所有激光点基准坐标系下的坐标通过补偿变换矩阵进行矫正,得到矫正后的激光点坐标,封装激光点坐标的点云数据,完成矫正;
在获取所述补偿变换矩阵前,对所述位姿进行修正,所述位姿的位姿修正方法采用前述的基于BIM全局定位的位姿修正方法。
对于基于BIM全局定位的运动畸变矫正方法,在上述BIM全局定位的位姿修正方法的基础上,还包括利用推算位姿矫正点云畸变模块,相同激光束下每个激光点的数据是由激光雷达在不同时刻采集而来,但原始激光雷达数据是默认所有的激光点是激光雷达同一时刻采集,需要对原始数据进行矫正处理。以图7为例,O 0 XY为以单帧初始时刻的雷达位姿建立基准坐标系,以单帧时间内其余时刻的雷达位姿建立雷达坐标系。如O t XY为雷达坐标系。O t A为激光雷达在O t XY位姿时刻扫描出来的数据;但原始点云数据因未考虑点云采集周期时间,认为O t A数据是激光雷达在O 0 XY位姿时刻下采集的数据,因此产生运动畸变。矫正点云畸变的方法为将单帧点云时间内所有激光点变换到基准坐标系下,再对点云数据进行封装,总流程图如图8所示,具体流程如下:
S1:读取激光雷达点云数据,将雷达点云按雷达线束与扫描时间将点云转化为有序点云。
S2:以每一帧初始时刻的激光雷达位置为原点建立基准坐标系O 0 XY,一帧内以激光雷达其余时刻位置建立的坐标系称为激光雷达坐标系O t XY
S3:读取修正位姿的位姿数据,对齐位姿数据与雷达点云的时间,对单帧点云时间内的位姿变换做线性近似处理。
S4:根据有序点云中每一个点云的水平角计算出单个点云相对于单帧初始时刻的激光雷达坐标的相对时间,对经过线性近似的位姿变换做插值求解,计算出每一个激光点在激光雷达坐标下的补偿变换矩阵。
S5:针对每一个激光点,用补偿变换矩阵乘以基准坐标系下的激光点坐标,即可得到矫正后的激光点坐标。
该运动畸变矫正方法能够修正IMU推算出的位姿误差,能够更加精确的矫正点云畸变。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.基于BIM全局定位的位姿修正方法,其用于修正IMU传感器预测位姿,其特征在于,所述位姿修正方法包括以下步骤:
获取BIM全局点云地图,将所述BIM全局点云地图在空间上划分到不同的三维网格中;统计每个所述三维网格中点云数量,计算所述三维网格多维正态分布参数,即点云均值与协方差矩阵,其中,点云均值为
Figure FDA0003954630460000011
协方差矩阵为Σ
Figure FDA0003954630460000012
n表示划分的三维网格数量,k表示n的序号,x表示网格内所有扫描点的位置,T表示转置,T1表示由激光雷达坐标系到BIM全局点云地图坐标系的变换矩阵;
将激光雷达的实时数据的原始坐标由所述变换矩阵T1变换到所述BIM全局点云地图坐标系中,得到位于BIM全局点云地图的坐标,具体变换为[x′i,y′i,1]T=T1[xi,yi,1]T,变换矩阵为
Figure FDA0003954630460000013
[xi,yi]为第i个雷达实时数据在原始坐标系下的坐标,[x′i,y′i]经变换矩阵T1转移到所述BIM全局点云地图坐标系后的坐标,φ表示旋转角度,tx表示BIM全局点云地图坐标系下激光雷达坐标系原点到BIM全局点云地图坐标系下横坐标x方向上的距离,ty表示相应纵坐标y方向上的距离;
根据所述三维网格多维正态分布参数计算所述激光雷达的转换点的概率密度,概率密度为:P(W):
Figure FDA0003954630460000014
根据所述概率密度建立NDT配准函数,配准函数为:
Figure FDA0003954630460000015
Wi表示第i个转换点,
对所述配准函数求解,寻找一组变换参数令所述配准函数最大,设置迭代阈值与最大迭代次数,达到收敛条件时结束迭代;
发布机器人在所述BIM全局点云地图下的实时定位位姿;
获取所述激光雷达的预测位姿,将所述激光雷达的预测位姿与所述实时定位位姿通过误差状态卡尔曼滤波器进行融合,获得机器人的修正位姿。
2.根据权利要求1所述的基于BIM全局定位的位姿修正方法,其特征在于,预先建立IMU传感器运动学模型,通过所述运动学模型与IMU传感器实时采集数据推测出所述激光雷达预测位姿。
3.根据权利要求2所述的基于BIM全局定位的位姿修正方法,其特征在于,获取精确的建筑物信息模型BIM,对BIM的特征进行提取,得到三维空间特征点,将所述三维空间特征点转化成所述BIM全局点云地图。
4.根据权利要求3所述的基于BIM全局定位的位姿修正方法,其特征在于,所述特征为构件信息,其包括大小、空间位置、形状。
5.根据权利要求4所述的基于BIM全局定位的位姿修正方法,其特征在于,利用优化算法对所述配准函数求解,所述优化算法包括牛顿迭代算法。
6.基于BIM全局定位的运动畸变矫正方法,所述运动畸变矫正方法包括以下步骤:
获取激光雷达单帧扫描时间内的机器人的位姿,对所述位姿做线性近似和插值处理,获取补偿变换矩阵;
将单帧时间内所有激光点基准坐标系下的坐标通过所述补偿变换矩阵进行矫正,得到矫正后的激光点坐标,封装激光点坐标的点云数据,完成矫正;
其特征在于,
在获取所述补偿变换矩阵前,对所述位姿进行修正,所述位姿的位姿修正方法采用如权利要求1-5中任意一项所述的基于BIM全局定位的位姿修正方法。
7.根据权利要求6所述的基于BIM全局定位的运动畸变矫正方法,其特征在于,根据激光雷达有序点云中每个点云的水平角计算出单个点云相对于单帧初始时刻的激光雷达坐标的相对时间,根据相对时间对经过线性近似变换的位姿变换做插值求解,计算出每个激光点在激光雷达坐标下的补偿变换矩阵,得到所述补偿变换矩阵。
8.根据权利要求7所述的基于BIM全局定位的运动畸变矫正方法,其特征在于,获取经过线性近似变换的位姿变换包括以下步骤:
获取修正后的位姿数据,对齐位姿数据与激光雷达点云的时间,对单帧点云时间内的位姿变换做线性近似处理,得到所述经过线性近似变换的位姿变换。
9.根据权利要求8所述的基于BIM全局定位的运动畸变矫正方法,其特征在于,以单帧初始时刻的激光雷达位置为原点建立基准坐标系O0XY,单帧其余时刻位置建立的坐标系为激光雷达坐标系OtXY。
10.根据权利要求9所述的基于BIM全局定位的运动畸变矫正方法,其特征在于,获取激光雷达点云数据,将激光雷达点云数据按雷达线束和扫描时间转化为有序点云,得到所述激光雷达有序点云。
CN202210694055.1A 2022-06-20 2022-06-20 基于bim全局定位的位姿修正方法及运动畸变矫正方法 Active CN114862932B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210694055.1A CN114862932B (zh) 2022-06-20 2022-06-20 基于bim全局定位的位姿修正方法及运动畸变矫正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210694055.1A CN114862932B (zh) 2022-06-20 2022-06-20 基于bim全局定位的位姿修正方法及运动畸变矫正方法

Publications (2)

Publication Number Publication Date
CN114862932A CN114862932A (zh) 2022-08-05
CN114862932B true CN114862932B (zh) 2022-12-30

Family

ID=82627003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210694055.1A Active CN114862932B (zh) 2022-06-20 2022-06-20 基于bim全局定位的位姿修正方法及运动畸变矫正方法

Country Status (1)

Country Link
CN (1) CN114862932B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229119A (zh) * 2022-08-30 2023-06-06 智瞰深鉴(北京)科技有限公司 一种变电站巡检机器人及其重定位方法
CN115512054B (zh) * 2022-09-06 2024-07-12 武汉大学 三维时空连续点云地图的构建方法
CN115290097B (zh) * 2022-09-30 2022-12-30 安徽建筑大学 基于bim的实时精确地图构建方法、终端及存储介质
CN115780322B (zh) * 2023-01-30 2023-04-28 安徽建筑大学 一种单电机型分拣设备的同步控制方法、***及分拣设备
CN116628827B (zh) * 2023-07-21 2023-11-10 中国铁路设计集团有限公司 一种基于线性定位***的bim构件联动方法
CN116878504B (zh) * 2023-09-07 2023-12-08 兰笺(苏州)科技有限公司 基于多传感器融合的建筑物外墙作业无人机精准定位方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN111077549A (zh) * 2019-12-31 2020-04-28 深圳一清创新科技有限公司 位置数据修正方法、装置和计算机可读存储介质
CN111521204A (zh) * 2020-03-19 2020-08-11 安徽建筑大学 一种基于绝对位置旋转型编码器的角位移视觉测量方法
CN112859051A (zh) * 2021-01-11 2021-05-28 桂林电子科技大学 激光雷达点云运动畸变的矫正方法
CN114459471A (zh) * 2022-01-30 2022-05-10 中国第一汽车股份有限公司 定位信息确定方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10151839B2 (en) * 2012-06-01 2018-12-11 Agerpoint, Inc. Systems and methods for determining crop yields with high resolution geo-referenced sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN111077549A (zh) * 2019-12-31 2020-04-28 深圳一清创新科技有限公司 位置数据修正方法、装置和计算机可读存储介质
CN111521204A (zh) * 2020-03-19 2020-08-11 安徽建筑大学 一种基于绝对位置旋转型编码器的角位移视觉测量方法
CN112859051A (zh) * 2021-01-11 2021-05-28 桂林电子科技大学 激光雷达点云运动畸变的矫正方法
CN114459471A (zh) * 2022-01-30 2022-05-10 中国第一汽车股份有限公司 定位信息确定方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于改进MSCKF的无人机室内定位方法;王思鹏等;《浙江大学学报(工学版)》;20220430;第711-717页 *

Also Published As

Publication number Publication date
CN114862932A (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN114862932B (zh) 基于bim全局定位的位姿修正方法及运动畸变矫正方法
CN106056643B (zh) 一种基于点云的室内动态场景slam方法及***
CN114399554B (zh) 一种多相机***的标定方法及***
CN111524194B (zh) 一种激光雷达和双目视觉相互融合的定位方法及终端
CN113466890B (zh) 基于关键特征提取的轻量化激光雷达惯性组合定位方法和***
CN114018248B (zh) 一种融合码盘和激光雷达的里程计方法与建图方法
CN113108773A (zh) 一种融合激光与视觉传感器的栅格地图构建方法
CN116929338B (zh) 地图构建方法、设备及存储介质
CN110187337B (zh) 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及***
CN115639547A (zh) 多线激光雷达与gnss_ins联合标定方法、***及介质
Sheng et al. Mobile robot localization and map building based on laser ranging and PTAM
CN114399547B (zh) 一种基于多帧的单目slam鲁棒初始化方法
CN108595373B (zh) 一种无控制dem配准方法
CN116540206A (zh) 一种足式机器人高程估计方法、装置及***
CN105093222A (zh) 一种sar影像区域网平差连接点自动提取方法
CN115372947A (zh) 针对自动驾驶车辆惯导及激光雷达的标定方法及标定***
CN113390376B (zh) 确定风力发电机组的机舱位移的方法、装置和***
CN114742141A (zh) 基于icp点云的多源信息数据融合研判方法
CN114419259A (zh) 一种基于物理模型成像仿真的视觉定位方法及***
CN114355977B (zh) 一种基于多旋翼无人机的塔式光热电站镜场巡检方法及装置
CN118298017A (zh) 一种基于地面约束的建图定位方法
CN117952322B (zh) 一种基于bim技术的工程管理***
CN116007611A (zh) 地图生成方法及装置
CN117471439A (zh) 船闸禁停区域无重叠视野激光雷达的外参标定方法
Yadav et al. An Extrinsic LiDAR-GNSS/INS Registration Approach for Autonomous Driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant