CN110120093A - 一种多元特征混合优化的rgb-d室内三维测图方法及*** - Google Patents

一种多元特征混合优化的rgb-d室内三维测图方法及*** Download PDF

Info

Publication number
CN110120093A
CN110120093A CN201910227761.3A CN201910227761A CN110120093A CN 110120093 A CN110120093 A CN 110120093A CN 201910227761 A CN201910227761 A CN 201910227761A CN 110120093 A CN110120093 A CN 110120093A
Authority
CN
China
Prior art keywords
camera
dimensional
depth
rgb
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910227761.3A
Other languages
English (en)
Inventor
汤圣君
王彦坤
李晓明
黄正东
王伟玺
郭仁忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201910227761.3A priority Critical patent/CN110120093A/zh
Publication of CN110120093A publication Critical patent/CN110120093A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种多元特征混合优化的RGB‑D室内三维测图方法及***,所述方法包括以下步骤:通过原始光栅差的相机深度量测误差,对深度数据进行校正;通过二三维视觉与三维几何特征更新相机姿态;根据相机追踪过程中的随机误差,优化相机轨迹;通过校正后的深度数据以及优化后的相机轨迹,将RGB‑D数据集输出为彩色三维点云。在原始RGB‑D SLAM的基础上,由于充分考虑了传感器***误差以及深度量测误差影响,融合二三维特征点联合测图,获取更高的三维点云精度。

Description

一种多元特征混合优化的RGB-D室内三维测图方法及***
技术领域
本发明涉及三维测图技术领域,尤其涉及的是一种多元特征混合优化的RGB-D室内三维测图方法及***。
背景技术
高精度三维空间信息是对封闭与半封闭空间复杂环境的抽象,也是实现多样化智能应用的数据基础。常用的封闭/半封空间三维测图手段主要有激光扫描和基于视觉图像序列的三维重建技术。现有技术中,基于视觉图像序列的三维重建技术可通过数码相机拍摄的二维图像序列来恢复室内三维场景,其丰富的视觉信息可很好的增强闭环检测。然而该方法建模时间长,而且在昏暗环境或者纹理匮乏区域工作不稳定,精度低。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种多元特征混合优化的RGB-D室内三维测图方法及***,旨在解决现有技术中三维重建技术精度低的问题。
本发明解决技术问题所采用的技术方案如下:
一种多元特征混合优化的RGB-D室内三维测图方法,其中,包括以下步骤:
通过原始光栅差的相机深度量测误差,对深度数据进行校正;
通过二三维视觉与三维几何特征更新相机姿态;
根据相机追踪过程中的随机误差,优化相机轨迹;
通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述通过原始光栅差的相机深度量测误差,对深度数据进行校正步骤之前还包括:
基于针孔相机模型,校正视觉相机与深度相机的内外参数。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述通过原始光栅差的相机深度量测误差,对深度数据进行校正步骤具体包括:
针对原始光栅差的相机深度量测误差构建深度数据校正模型,通过不同量测距离下相机畸变和***误差优化深度数据校正模型,并校正深度数据;
所述深度数据校正模型为:
其中,W1和W2为相机切向畸变,W3和W4为相机径向畸变,xc t和yc t为经过相机校正后影像坐标,xp t和yp t为经过红外投影器校正后影像坐标。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述通过二三维视觉与三维几何特征更新相机姿态步骤具体包括:
检测并匹配二三维视觉特征、三维几何点特征以及三维线特征;
采用图像模糊度、特征点匹配率约束及基线约束对关键数据帧进行筛选;
基于获取的二三维视觉特征、三维几何点特征以及三维线特征,通过最小化视觉图像二三维匹配点重投影误差与深度图像几何匹配点距离误差获取相机姿态更新。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述相机姿态更新为:
其中,F(·)为相机姿态更新函数,argmin为F(·)取得最小值的所有自变量的集合,KL为相邻关键帧集合,PL 2为所有视觉图像关键帧匹配获取的二维特征匹配点集,PL 3为视觉图像关键帧中获取的三维特征匹配点集,Di为第i个深度关键帧匹配获取的三维匹配点集深度值,Obj(·)为Tukey biweight目标函数,eji 2和eji 3为特征匹配点重投影误差,δji l2和δji l3为特征匹配点量测噪声,σL2和σL3为重投影误差标准差,eji D为几何匹配点深度误差,δji d和σD分别对应于几何匹配点深度量测噪声以及误差标准差,i为正整数,n为特征匹配点的个数,j为特征匹配点集个数,∑为求和符号。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述根据相机追踪过程中的随机误差,优化相机轨迹步骤具体包括:
对深度图像进行闭环检测,并确定深度图像的边界权重矩阵;
根据边界权重矩阵以全局优化代价函数优化相机轨迹。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述确定深度图像的边界权重步骤具体包括:
将边约束关联的两个数据帧中的特征匹配点对映射到深度图像中得到三维点集,并通过三维点集计算边约束误差协方差,边约束误差协方差为:
其中,cov(·)为误差协方差,x、y、z分别为X、Y、Z方向上的线元素,[Pc,i x,Pc,i y,Pc,i z]T为三维点集Pc中第i个点的三维坐标,[Pt,i x,Pt,i y,Pt,i z]T为三维点集Pt中第i个点的三维坐标,[ei x,ei y,ei z]T为第i个点的边约束误差协方差,[R]和[t]为边约束变换矩阵;
通过边约束误差协方差和角约束误差协方差得到边的权重矩阵,权重矩阵为:
其中,θ、Ψ为角元素。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述全局优化代价函数为:
p={p1,p2,p3,···,pi,···,pj,···,pn}
其中,p为相机姿态,V为相机姿态集合,trij为深度图像的边,σij为信息矩阵,信息矩阵为权重矩阵的逆矩阵。
所述的多元特征混合优化的RGB-D室内三维测图方法,其中,所述通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云步骤具体包括:
根据校正后的深度数据,将RGB-D数据集中的深度图像转换为单帧三维点云;
根据获取的单帧三维点云及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
一种多元特征混合优化的RGB-D室内三维测图***,其中,包括:处理器,以及与所述处理器连接的存储器,
所述存储器存储有多元特征混合优化的RGB-D室内三维测图程序,所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器执行时实现以下步骤:
通过原始光栅差的相机深度量测误差,对深度数据进行校正;
通过二三维视觉与三维几何特征更新相机姿态;
根据相机追踪过程中的随机误差,优化相机轨迹;
通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
有益效果:在原始RGB-D SLAM的基础上,由于充分考虑了传感器***误差以及深度量测误差影响,融合二三维特征点联合测图,获取更高的三维点云精度。
附图说明
图1是本发明中多元特征混合优化的RGB-D室内三维测图方法的流程图。
图2是本发明深度相机的深度数据校正前后误差分布的对比图。
图3是本发明深度相机的深度数据校正前的效果图。
图4是本发明深度相机的深度数据校正后的效果图。
图5是本发明基于传感器轨迹室内三维点云数据生成坐标***图。
图6是本发明多元特征混合优化的RGB-D室内三维测图***的功能原理框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请同时参阅图1-图5,本发明提供了一种多元特征混合优化的RGB-D室内三维测图方法的一些实施例。
近年来,RGB-D传感器(即深度相机),如Kinect V1,和Structure Sensor等,在室内即时定位与地图构建应用上被广泛使用。该类传感器与传统激光测图原理不同,基于结构光实现距离量测。其硬件由激光投射器,光学衍射元件和红外摄像头三大核心器件组成。激光投射器发射的激光先通过扩散为随机光斑,然后复制成多份投射到被摄物体上,深度信息可通过发射与反射的红外光斑强度差解算出来,以每秒30帧的速率同步输出640*480的深度和视觉图像,有效距离在0.5m-5m左右,经过数据校正之后可达8m的量测距离。该类设备具有距离信息实时获取,便携性强,价格低廉等优点,非常适合室内环境下快速三维测图。SLAM(simultaneous localization and mapping,即时定位与地图构建)。
如图1所示,本发明的一种多元特征混合优化的RGB-D室内三维测图方法,包括以下步骤:
步骤S10、基于针孔相机模型,校正视觉相机与深度相机的内外参数。
具体地,首先在深入分析深度相机工作机制的基础上,基于针孔相机模型构建视觉相机与深度相机内外参联合校正模型,通过最小二乘平差方式对正视觉相机与深度相机的内外参数进行校正。
步骤S100、通过原始光栅差的相机深度量测误差,对深度数据进行校正。
具体地,步骤S100具体包括:
步骤S110、针对原始光栅差的相机深度量测误差构建深度数据校正模型,通过不同量测距离下相机畸变和***误差优化深度数据校正模型,并校正深度数据。
根据深度相机的深度数据采集原理,其深度信息通过光栅差信息反算得到,因此针对光栅差误差,构建误差模型。其中Tdi为真实光栅差,di为光栅差量测值,ed为有深度相机镜头畸变及***误差产生的误差值,该误差来源于深度传感器镜头畸变以及***误差,可通过以下公式表示:
Tdi=di+ed
其中分别为深度相机、红外投影器切向畸变,分别为深度相机、红外投影器径向畸变,可通过以下公式表示:
δtang=P1[(xt 2+yt 2)+2xt]+P2xtyt
δrad=xt[K1(xt 2+yt 2)+K2(xt 2+yt 2)2]
其中,P1和P2为深度相机切向畸变参数,K1和K2为深度相机径向畸变参数,xt和yt为经过相机校正后影像坐标。融合公式,可得到光栅差误差模型,如以下公式所示:
ed=(P1[(xt 2+yt 2)+2xt]+P2xtyt)c-(P1[(xt 2+yt 2)+2xt]+P2xtyt)p+(xt[K1(xt 2+yt 2)+K2(xt 2+yt 2)2])c-(xt[K1(xt 2+yt 2)+K2(xt 2+yt 2)2])p
考虑到深度相机与红外投影器相对姿态固定且经过出厂校正,y方向的相机畸变可忽略不计,本发明采用畸变模型描述径向畸变,如公式所示。
其中,f(·)为Seidal畸变函数,为全等于。
为进一步简化深度误差模型。深度数据误差模型(即深度数据校正模型)可通过公式表示如下:
其中,W1和W2为相机切向畸变,W3和W4为相机径向畸变,xc t和yc t为经过相机校正后影像坐标,xp t和yp t为经过红外投影器校正后影像坐标。
基于推导的深度数据误差模型,初步拟定了深度数据校正流程。校正数据采集方面,以0.5m距离为起始位置,在0.5-6m范围内以0.5m左右的间隔采集标靶数据,并通过全站仪获取到每个角点的精确三维坐标,通过深度误差模型迭代优化,获取最优深度误差模型参数,进而实现0.5-6m范围深度数据的高精度校正。图2显示了RGB-D传感器校正前与校正后的误差分布图,可看出校正后深度误差得到了显著降低,在4m范围内可将深度误差维持在2cm范围内,6m范围内深度误差小于4cm。图3和图4为真实场景中深度校正的示例,校正前平面结构存在大量的噪声,凹凸不平的结构,经过校正后,可看出三角网模型在天花板平面上更为光滑且整体模型更为规整。
值得说明的是,针对不同量测距离下的深度数据,构建涉及相机畸变与***误差的深度数据校正模型,既提升了深度数据量测精度,又扩大深度相机测量范围。
步骤S200、通过二三维视觉与三维几何特征更新相机姿态。
具体地,步骤S200具体包括:
步骤S210、检测并匹配二三维视觉特征、三维几何点特征以及三维线特征。
步骤S220、采用图像模糊度、特征点匹配率约束及基线约束对关键数据帧进行筛选。
步骤S230、基于获取的二三维视觉特征、三维几何点特征以及三维线特征,通过最小化视觉图像二三维匹配点重投影误差与深度图像几何匹配点距离误差获取相机姿态更新。
具体地,所述相机姿态更新为:
其中,F(·)为相机姿态更新函数,argmin为F(·)取得最小值的所有自变量的集合,KL为相邻关键帧集合,PL 2为所有视觉图像关键帧匹配获取的二维特征匹配点集,PL 3为视觉图像关键帧中获取的三维特征匹配点集,Di为第i个深度关键帧匹配获取的三维匹配点集深度值,Obj(·)为Tukey biweight目标函数,eji 2和eji 3为特征匹配点重投影误差,δji l2和δji l3为特征匹配点量测噪声,σL2和σL3为重投影误差标准差,eji D为几何匹配点深度误差,δji d和σD分别对应于几何匹配点深度量测噪声以及误差标准差,i为正整数,n为特征匹配点的个数,j为特征匹配点集个数,∑为求和符号。
具体地,本发明基于获取的二三维视觉观测值(即二三维视觉特征)与三维几何观测值(即三维几何点特征和三维线特征),可通过最小化视觉图像二三维匹配点重投影误差与深度图像几何匹配点距离误差获取传感器姿态更新。采用二三维视觉与三维几何特征混合优化姿态更新模型方法,实现复杂环境传感器追踪过程中多元特征的互补与增强,提高传感器追踪鲁棒性及建图精度。
步骤S300、根据相机追踪过程中的随机误差,优化相机轨迹。
传感器追踪过程中产生的误差分布于图中各条边中,造成累积误差,降低累积误差问题可转换为非线性最小二乘优化问题。
具体地,步骤S300具体包括:
步骤S310、对深度图像进行闭环检测,并确定深度图像的边界权重矩阵。
具体地,采用如下步骤确定深度图像的边界权重:
步骤S311、将边约束关联的两个数据帧中的特征匹配点对映射到深度图像中得到三维点集,并通过三维点集计算边约束误差协方差。
为量化各个自由度上的不确定性,可假定在边约束关联的两数据帧中存在特征匹配点对pc和pt,将特征匹配点映射到深度图像中,选取深度值在两米范围内的点,其深度误差小于15mm,通过RANSAC剔除错误匹配,剩余特征匹配点映射到深度图像中可获取到对应三维点集Pc和Pt,因此该三维点集在X、Y、Z三个方向上边约束残差可表示为:
其中,x、y、z分别为X、Y、Z方向上的线元素,[Pc,i x,Pc,i y,Pc,i z]T为三维点集Pc中第i个点的三维坐标,[Pt,i x,Pt,i y,Pt,i z]T为三维点集Pt中第i个点的三维坐标,[ei x,ei y,ei z]T为第i个点的边约束误差协方差,[R]和[t]为边约束变换矩阵。
那么,边约束误差协方差为:
其中,cov(·)为误差协方差。
步骤S312、通过边约束误差协方差和角约束误差协方差得到边的权重矩阵。
考虑到在图结构中边要素精度的不确定性,且边六个自由度上的误差不一致,需对边要素赋权。边的权重可通过六个自由度的协方差矩阵来表示,即权重矩阵克表示为:Cn*n=(ci,j,ci,j=cov(Dimi,Dimj))(0<i<6,0<j<6),误差更高的自由度方向权重设置更小。
具体地,权重矩阵为:
其中,θ、Ψ为角元素。
步骤S320、根据边界权重矩阵以全局优化代价函数优化相机轨迹。
具体地,所述全局优化代价函数为:
p={p1,p2,p3,···,pi,···,pj,···,pn}
其中,p为相机姿态,V为相机姿态集合,trij为深度图像的边,σij为信息矩阵,信息矩阵为权重矩阵的逆矩阵,也就是说,信息矩阵为:
步骤S400、通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
具体地,步骤S400具体包括:
步骤S410、根据校正后的深度数据,将RGB-D数据集中的深度图像转换为单帧三维点云;
具体地,根据获取的相机内参,相机畸变参数,可RGB-D数据集中的深度图像转换为独立的三维点云,XYZ坐标通过以下公式标识:
Zc=D
其中fxD,fyD为深度相机焦距,cxD,cyD为深度图像主点坐标,u',v'为经过相机畸变校正的影像坐标,这些参数通过相机校正得到。
步骤S420、根据获取的单帧三维点云及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
根据获取的单帧三维点云及优化后的相机轨迹,相机外方位参数通过旋转矩阵RD与平移矩阵tD进行表示,通过公式进行点云数据融合,获取全局高精度彩色三维点云,图5为深度相机坐标与全局坐标间的关系图。全局高精度彩色三维点云的坐标具体如下:
本发明还提供了一种多元特征混合优化的RGB-D室内三维测图***的较佳实施例:
如图6所示,本发明实施例的一种多元特征混合优化的RGB-D室内三维测图***,包括:处理器10,以及与所述处理器10连接的存储器20,
所述存储器20存储有多元特征混合优化的RGB-D室内三维测图程序,所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时实现以下步骤:
通过原始光栅差的相机深度量测误差,对深度数据进行校正;
通过二三维视觉与三维几何特征更新相机姿态;
根据相机追踪过程中的随机误差,优化相机轨迹;
通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:
基于针孔相机模型,校正视觉相机与深度相机的内外参数,具体如上所述。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:针对原始光栅差的相机深度量测误差构建深度数据校正模型,通过不同量测距离下相机畸变和***误差优化深度数据校正模型,并校正深度数据;
所述深度数据校正模型为:
其中,W1和W2为相机切向畸变,W3和W4为相机径向畸变,xc t和yc t为经过相机校正后影像坐标,xp t和yp t为经过红外投影器校正后影像坐标,具体如上所述。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:
检测并匹配二三维视觉特征、三维几何点特征以及三维线特征;
采用图像模糊度、特征点匹配率约束及基线约束对关键数据帧进行筛选;
基于获取的二三维视觉特征、三维几何点特征以及三维线特征,通过最小化视觉图像二三维匹配点重投影误差与深度图像几何匹配点距离误差获取相机姿态更新,具体如上所述。
所述相机姿态更新为:
其中,F(·)为相机姿态更新函数,argmin为F(·)取得最小值的所有自变量的集合,KL为相邻关键帧集合,PL 2为所有视觉图像关键帧匹配获取的二维特征匹配点集,PL 3为视觉图像关键帧中获取的三维特征匹配点集,Di为第i个深度关键帧匹配获取的三维匹配点集深度值,Obj(·)为Tukey biweight目标函数,eji 2和eji 3为特征匹配点重投影误差,δji l2和δji l3为特征匹配点量测噪声,σL2和σL3为重投影误差标准差,eji D为几何匹配点深度误差,δji d和σD分别对应于几何匹配点深度量测噪声以及误差标准差,i为正整数,n为特征匹配点的个数,j为特征匹配点集个数,∑为求和符号,具体如上所述。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:
对深度图像进行闭环检测,并确定深度图像的边界权重矩阵;
根据边界权重矩阵以全局优化代价函数优化相机轨迹,具体如上所述。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:
将边约束关联的两个数据帧中的特征匹配点对映射到深度图像中得到三维点集,并通过三维点集计算边约束误差协方差,边约束误差协方差为:
其中,cov(·)为误差协方差,x、y、z分别为X、Y、Z方向上的线元素,[Pc,i x,Pc,i y,Pc,i z]T为三维点集Pc中第i个点的三维坐标,[Pt,i x,Pt,i y,Pt,i z]T为三维点集Pt中第i个点的三维坐标,[ei x,ei y,ei z]T为第i个点的边约束误差协方差,[R]和[t]为边约束变换矩阵;
通过边约束误差协方差和角约束误差协方差得到边的权重矩阵,权重矩阵为:
其中,θ、Ψ为角元素,具体如上所述。
所述全局优化代价函数为:
p={p1,p2,p3,···,pi,···,pj,···,pn}
其中,p为相机姿态,V为相机姿态集合,trij为深度图像的边,σij为信息矩阵,信息矩阵为权重矩阵的逆矩阵,具体如上所述。
所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器10执行时,还实现以下步骤:
根据校正后的深度数据,将RGB-D数据集中的深度图像转换为单帧三维点云;
根据获取的单帧三维点云及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云,具体如上所述。
综上所述,本发明所提供的一种多元特征混合优化的RGB-D室内三维测图方法及***,所述方法包括以下步骤:通过原始光栅差的相机深度量测误差,对深度数据进行校正;通过二三维视觉与三维几何特征更新相机姿态;根据相机追踪过程中的随机误差,优化相机轨迹;通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。在原始RGB-D SLAM的基础上,由于充分考虑了传感器***误差以及深度量测误差影响,融合二三维特征点联合测图,获取更高的三维点云精度。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种多元特征混合优化的RGB-D室内三维测图方法,其特征在于,包括以下步骤:
通过原始光栅差的相机深度量测误差,对深度数据进行校正;
通过二三维视觉与三维几何特征更新相机姿态;
根据相机追踪过程中的随机误差,优化相机轨迹;
通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
2.根据权利要求1所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述通过原始光栅差的相机深度量测误差,对深度数据进行校正步骤之前还包括:
基于针孔相机模型,校正视觉相机与深度相机的内外参数。
3.根据权利要求2所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述通过原始光栅差的相机深度量测误差,对深度数据进行校正步骤具体包括:
针对原始光栅差的相机深度量测误差构建深度数据校正模型,通过不同量测距离下相机畸变和***误差优化深度数据校正模型,并校正深度数据;
所述深度数据校正模型为:
ed=3W1(xc t 2-xp t 2)+yc tW2(xc t-yc t)+W3xc t(xc t 2-xp t 2)+W4[xc t 4-xp t 4+2yc t(xc t 2-xp t 2)]
其中,W1和W2为相机切向畸变,W3和W4为相机径向畸变,xc t和yc t为经过相机校正后影像坐标,xp t和yp t为经过红外投影器校正后影像坐标。
4.根据权利要求1所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述通过二三维视觉与三维几何特征更新相机姿态步骤具体包括:
检测并匹配二三维视觉特征、三维几何点特征以及三维线特征;
采用图像模糊度、特征点匹配率约束及基线约束对关键数据帧进行筛选;
基于获取的二三维视觉特征、三维几何点特征以及三维线特征,通过最小化视觉图像二三维匹配点重投影误差与深度图像几何匹配点距离误差获取相机姿态更新。
5.根据权利要求4所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述相机姿态更新为:
其中,F(·)为相机姿态更新函数,argmin为F(·)取得最小值的所有自变量的集合,KL为相邻关键帧集合,PL 2为所有视觉图像关键帧匹配获取的二维特征匹配点集,PL 3为视觉图像关键帧中获取的三维特征匹配点集,Di为第i个深度关键帧匹配获取的三维匹配点集深度值,Obj(·)为Tukey biweight目标函数,eji 2和eji 3为特征匹配点重投影误差,δji l2和δji l3为特征匹配点量测噪声,σL2和σL3为重投影误差标准差,eji D为几何匹配点深度误差,δji d和σD分别对应于几何匹配点深度量测噪声以及误差标准差,i为正整数,n为特征匹配点的个数,j为特征匹配点集个数,∑为求和符号。
6.根据权利要求2所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述根据相机追踪过程中的随机误差,优化相机轨迹步骤具体包括:
对深度图像进行闭环检测,并确定深度图像的边界权重矩阵;
根据边界权重矩阵以全局优化代价函数优化相机轨迹。
7.根据权利要求6所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述确定深度图像的边界权重步骤具体包括:
将边约束关联的两个数据帧中的特征匹配点对映射到深度图像中得到三维点集,并通过三维点集计算边约束误差协方差,边约束误差协方差为:
其中,cov(·)为误差协方差,x、y、z分别为X、Y、Z方向上的线元素,[Pc,i x,Pc,i y,Pc,i z]T为三维点集Pc中第i个点的三维坐标,[Pt,i x,Pt,i y,Pt,i z]T为三维点集Pt中第i个点的三维坐标,[ei x,ei y,eiz]T为第i个点的边约束误差协方差,[R]和[t]为边约束变换矩阵;
通过边约束误差协方差和角约束误差协方差得到边的权重矩阵,权重矩阵为:
其中,θ、Ψ为角元素。
8.根据权利要求7所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述全局优化代价函数为:
p={p1,p2,p3,···,pi,···,pj,···,pn}
其中,p为相机姿态,V为相机姿态集合,trij为深度图像的边,σij为信息矩阵,信息矩阵为权重矩阵的逆矩阵。
9.根据权利要求8所述的多元特征混合优化的RGB-D室内三维测图方法,其特征在于,所述通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云步骤具体包括:
根据校正后的深度数据,将RGB-D数据集中的深度图像转换为单帧三维点云;
根据获取的单帧三维点云及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
10.一种多元特征混合优化的RGB-D室内三维测图***,其特征在于,包括:处理器,以及与所述处理器连接的存储器,
所述存储器存储有多元特征混合优化的RGB-D室内三维测图程序,所述多元特征混合优化的RGB-D室内三维测图程序被所述处理器执行时实现以下步骤:
通过原始光栅差的相机深度量测误差,对深度数据进行校正;
通过二三维视觉与三维几何特征更新相机姿态;
根据相机追踪过程中的随机误差,优化相机轨迹;
通过校正后的深度数据以及优化后的相机轨迹,将RGB-D数据集输出为彩色三维点云。
CN201910227761.3A 2019-03-25 2019-03-25 一种多元特征混合优化的rgb-d室内三维测图方法及*** Pending CN110120093A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910227761.3A CN110120093A (zh) 2019-03-25 2019-03-25 一种多元特征混合优化的rgb-d室内三维测图方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910227761.3A CN110120093A (zh) 2019-03-25 2019-03-25 一种多元特征混合优化的rgb-d室内三维测图方法及***

Publications (1)

Publication Number Publication Date
CN110120093A true CN110120093A (zh) 2019-08-13

Family

ID=67520591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910227761.3A Pending CN110120093A (zh) 2019-03-25 2019-03-25 一种多元特征混合优化的rgb-d室内三维测图方法及***

Country Status (1)

Country Link
CN (1) CN110120093A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807799A (zh) * 2019-09-29 2020-02-18 哈尔滨工程大学 一种结合深度图推断的线特征视觉里程计方法
CN111429344A (zh) * 2020-02-19 2020-07-17 上海交通大学 基于感知哈希的激光slam闭环检测方法及***
CN113077512A (zh) * 2021-03-24 2021-07-06 浙江中体文化集团有限公司 一种rgb-d位姿识别模型训练方法及***
CN113592989A (zh) * 2020-04-14 2021-11-02 广东博智林机器人有限公司 一种三维场景的重建***、方法、设备及存储介质
CN113635299A (zh) * 2021-07-23 2021-11-12 深圳市朗驰欣创科技股份有限公司 一种机械臂的校正方法、终端设备及存储介质
CN113920254A (zh) * 2021-12-15 2022-01-11 深圳市其域创新科技有限公司 一种基于单目rgb的室内三维重建方法及其***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354875A (zh) * 2015-09-25 2016-02-24 厦门大学 一种室内环境二维与三维联合模型的构建方法和***
CN105702151A (zh) * 2016-03-31 2016-06-22 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera
CN106887037A (zh) * 2017-01-23 2017-06-23 杭州蓝芯科技有限公司 一种基于gpu和深度相机的室内三维重建方法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN108648240A (zh) * 2018-05-11 2018-10-12 东南大学 基于点云特征地图配准的无重叠视场相机姿态标定方法
CN108765548A (zh) * 2018-04-25 2018-11-06 安徽大学 基于深度相机的三维场景实时重建方法
CN109087394A (zh) * 2018-08-02 2018-12-25 福州大学 一种基于低成本rgb-d传感器的实时室内三维重建方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170064287A1 (en) * 2015-08-24 2017-03-02 Itseez3D, Inc. Fast algorithm for online calibration of rgb-d camera
CN105354875A (zh) * 2015-09-25 2016-02-24 厦门大学 一种室内环境二维与三维联合模型的构建方法和***
CN105702151A (zh) * 2016-03-31 2016-06-22 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
CN106887037A (zh) * 2017-01-23 2017-06-23 杭州蓝芯科技有限公司 一种基于gpu和深度相机的室内三维重建方法
CN107590827A (zh) * 2017-09-15 2018-01-16 重庆邮电大学 一种基于Kinect的室内移动机器人视觉SLAM方法
CN108765548A (zh) * 2018-04-25 2018-11-06 安徽大学 基于深度相机的三维场景实时重建方法
CN108648240A (zh) * 2018-05-11 2018-10-12 东南大学 基于点云特征地图配准的无重叠视场相机姿态标定方法
CN109087394A (zh) * 2018-08-02 2018-12-25 福州大学 一种基于低成本rgb-d传感器的实时室内三维重建方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
SHENGJUN T , QING Z , WU C , ET AL.: "Enhanced RGB-D Mapping Method for Detailed 3D Indoor and Outdoor Modeling", 《SENSORS》 *
TANG S , LI Y , YUAN Z , ET AL.: "A Vertex-to-Edge Weighted Closed-Form Method for Dense RGB-D Indoor SLAM", 《IEEE ACCESS》 *
YANG S, YI X, WANG Z, ET AL.: "Visual SLAM using multiple RGB-D cameras", 《2015 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS (ROBIO). IEEE》 *
朱凯,刘华峰,夏青元: "基于单目视觉的同时定位与建图算法研究综述", 《计算机应用研究》 *
汤圣君: "多视图像增强的RGB-D室内高精度三维测图方法", 《中国博士学位论文全文数据库信息科技辑》 *
黄金鑫,赵勇: "一种改进的未知环境无人机三维地图实时创建方法", 《机械与电子》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807799A (zh) * 2019-09-29 2020-02-18 哈尔滨工程大学 一种结合深度图推断的线特征视觉里程计方法
CN110807799B (zh) * 2019-09-29 2023-05-30 哈尔滨工程大学 一种结合深度图推断的线特征视觉里程计方法
CN111429344A (zh) * 2020-02-19 2020-07-17 上海交通大学 基于感知哈希的激光slam闭环检测方法及***
CN111429344B (zh) * 2020-02-19 2022-04-26 上海交通大学 基于感知哈希的激光slam闭环检测方法及***
CN113592989A (zh) * 2020-04-14 2021-11-02 广东博智林机器人有限公司 一种三维场景的重建***、方法、设备及存储介质
CN113592989B (zh) * 2020-04-14 2024-02-20 广东博智林机器人有限公司 一种三维场景的重建***、方法、设备及存储介质
CN113077512A (zh) * 2021-03-24 2021-07-06 浙江中体文化集团有限公司 一种rgb-d位姿识别模型训练方法及***
CN113077512B (zh) * 2021-03-24 2022-06-28 浙江中体文化集团有限公司 一种rgb-d位姿识别模型训练方法及***
CN113635299A (zh) * 2021-07-23 2021-11-12 深圳市朗驰欣创科技股份有限公司 一种机械臂的校正方法、终端设备及存储介质
CN113635299B (zh) * 2021-07-23 2022-11-25 深圳市朗驰欣创科技股份有限公司 一种机械臂的校正方法、终端设备及存储介质
CN113920254A (zh) * 2021-12-15 2022-01-11 深圳市其域创新科技有限公司 一种基于单目rgb的室内三维重建方法及其***

Similar Documents

Publication Publication Date Title
CN112894832B (zh) 三维建模方法、装置、电子设备和存储介质
CN110120093A (zh) 一种多元特征混合优化的rgb-d室内三维测图方法及***
CN103119611B (zh) 基于图像的定位的方法和设备
CN105758426B (zh) 移动机器人的多传感器的联合标定方法
CN109059895A (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
CN108921947A (zh) 生成电子地图的方法、装置、设备、存储介质以及采集实体
CN107179086A (zh) 一种基于激光雷达的制图方法、装置及***
CN102622747B (zh) 一种用于视觉测量的摄像机参数优化方法
Mi et al. A vision-based displacement measurement system for foundation pit
CN111060924A (zh) 一种slam与目标跟踪方法
CN112799096B (zh) 基于低成本车载二维激光雷达的地图构建方法
CN107729893A (zh) 一种合模机的视觉定位方法、***和存储介质
CN108332752A (zh) 机器人室内定位的方法及装置
Gong et al. Extrinsic calibration of a 3D LIDAR and a camera using a trihedron
CN103176606B (zh) 基于双目视觉识别的平面交互***及方法
CN114140539A (zh) 一种室内物体的位置获取方法和装置
CN116625354A (zh) 一种基于多源测绘数据的高精度地形图生成方法及***
CN111429515A (zh) 基于深度学习的机器人避障行为的学习方法
Huang et al. VWR-SLAM: Tightly coupled SLAM system based on visible light positioning landmark, wheel odometer, and RGB-D camera
Chaochuan et al. An extrinsic calibration method for multiple RGB-D cameras in a limited field of view
Reitinger et al. Augmented reality scouting for interactive 3d reconstruction
CN114137564A (zh) 一种室内物体自动标识定位方法和装置
CN117830772A (zh) 基于点云图像融合的局部地图生成方法及***
Zhang et al. An overlap-free calibration method for LiDAR-camera platforms based on environmental perception
Chen et al. Low cost and efficient 3D indoor mapping using multiple consumer RGB-D cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190813