CN109724586A - 一种融合深度图和点云的航天器相对位姿测量方法 - Google Patents

一种融合深度图和点云的航天器相对位姿测量方法 Download PDF

Info

Publication number
CN109724586A
CN109724586A CN201810953205.XA CN201810953205A CN109724586A CN 109724586 A CN109724586 A CN 109724586A CN 201810953205 A CN201810953205 A CN 201810953205A CN 109724586 A CN109724586 A CN 109724586A
Authority
CN
China
Prior art keywords
frame
vector
point
point cloud
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810953205.XA
Other languages
English (en)
Other versions
CN109724586B (zh
Inventor
徐嗣雄
赵高鹏
薄煜明
王超尘
范伟杰
韦雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201810953205.XA priority Critical patent/CN109724586B/zh
Publication of CN109724586A publication Critical patent/CN109724586A/zh
Application granted granted Critical
Publication of CN109724586B publication Critical patent/CN109724586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种融合深度图和点云的航天器相对位姿测量方法,本发明针对具有轴对称几何特性的目标航天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。

Description

一种融合深度图和点云的航天器相对位姿测量方法
技术领域
本发明属于空间导航技术领域,具体涉及一种融合深度图和点云的航天器相
对位姿测量方法。
背景技术
近年来,随着人类对外太空的不断深入,故障卫星的修理、空间碎片的清理等航天任务的不断开展,航天器相对位姿测量技术的重要性显得越来越明显。
通常采用的测量传感器包括雷达、卫星定位、单目视觉、双目视觉、扫描式激光雷达等。基于视觉的位姿测量技术具有构造简单、性能稳定、可靠性高等优点,一直是近 距离阶段实现相对位姿测量的主要手段。双目视觉在相机参数一定的情况下,需要有适 当的基线,才能获取高精度的深度信息。由于双目视觉匹配算法复杂,通常采用特征提 取的方法,仅获取相应特征点的深度信息,这种方法得到的是稀疏点云,且深度精度与 特征匹配的精度关系较大。扫描式激光雷达具有测量范围远、精度高、可靠性强等优点, 但其质量大、功耗高、有运动部件,需要逐行扫描或按照特定方式的扫描测量来获取场 景的深度数据。非扫描式激光成像雷达在无需扫描的情况下可以获得整个场景的密集点 云、深度图和强度图数据,具有对背景杂散光的抑制能力强、探测距离远、且不存在运 动模糊、帧率高等优点,可以满足实时测量。
发明内容
本发明的目的在于提出一种融合深度图和点云的航天器相对位姿测量方法。
发明内容:通过二维深度图直线特征的检测辅助三维点云配准,提出了一种实时高 精度的相对位姿测量方法。首先,对深度传感器获得的深度图进行直线边框检测;然后对相邻帧最长的边框进行对应直线的边框差角计算;接着利用相邻帧边框差角以及前一帧的位姿配准结果变换点云;最后对变换过后的点云进行ICP配准并解算出六自由度分量。
本发明的具体实现步骤为:
一种融合深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
更进一步的,所述步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'), 并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used 的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否 则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:
若满足条件,更新公式:
更新的状态为Used,否则,不更新;
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正 弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,θP点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽;
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的 主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
t(rb)~b(n(rb),p),
式中,b代表二项分布;
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩 形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图 像上做出一条直线段。
更进一步的,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第 一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为 (x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继 续判断vl的y值分量,若yvl<0,则将其逆时针旋转90°即可得到最终的向量vf;否 则vf=vl
步骤4-3:根据相邻两帧的向量便可以得出相邻两帧间的旋转角θk
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
则为逆时针旋转;否则为顺时针旋转;
最终可以得出θk=±|θ|,当为逆时针时为+。
更进一步的,所述步骤7具体包括:
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量;
点云按照姿态角的顺序进行旋转,其中,是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角;设目标坐标系为静止坐标系, 相机相对目标坐标系的旋转矩阵为:
其中,-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤基于点云的主动旋转。
本发明是航天器相对位姿测量方法的一种改进。其中,相机坐标系的视线方向为X轴,目标点云坐标系的方向与相机坐标系的方向一致。
本发明与现有成果相比,其有益效果为:本发明针对具有轴对称几何特性的目标航 天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。
附图说明
图1是本发明基于深度图和点云的航天器相对位姿测量方法的流程图。
图2是本发明实施例中仿真点云序列位姿估计的旋转量误差对比曲线图。
图3是本发明实施例中仿真点云序列位姿估计的平移量误差对比曲线图。
具体实施方式
如图1所示,本发明基于深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测。步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'), 并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used 的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否 则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:θPr<τ
若满足条件,更新公式:
更新的状态为Used
否则,不跟新;
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正 弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,θP点的水平线角,像素点的水平线方向与像素的梯度方向垂直。
步骤3-3:建立包含A的最小外接矩形框rb;
具体过程为:首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽。
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的 主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数
t(rb)~b(n(rb),p),
式中,b代表二项分布。
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩 形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图 像上做出一条直线段。
步骤4,计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk。步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限。
具体步骤为:根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向 量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2); 否则向量为(x2-x1,y2-y1)。此时得到的向量定在第一象限或者第四象限,设为中间向 量vl。再继续判断vl的y值分量,若则将其逆时针旋转90°即可得到最终的向 量vf;否则vf=vl
步骤4-3:根据相邻两帧的向量便可以得出相邻两帧间的旋转角θk
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
则为逆时针旋转;否则为顺时针旋转。
最终可以得出θk=±|θ|,当为逆时针时为+。
步骤5,利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量。
点云按照姿态角的顺序进行旋转,其中,是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角。设目标坐标系为静止坐标系, 相机相对目标坐标系的旋转矩阵为:
其中,-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤是基于点云的
主动旋转而进行的。
实施例
为了对本发明算法的有效性进行说明,充分展现出该方法具有更加准确的位姿获取 性能,完成实验如下:
(1)实验初始条件及参数设置
仿真实验采用虚拟深度传感器对模型点云拍摄产生的数据点云。虚拟深度传感器的 参数设置为:分辨率500×500,视场角20°×20°。在60m处开始拍摄模型点云。数据点 云的位姿设置为:平移量为沿着X轴从60m开始以1m间隔减少到10m,旋转量为绕 着X轴从50°开始以1°间隔减少到0°,其余自由度分量均为0。
误差计算为:模拟产生数据点云的参数作为位姿真实值,仿真实验计算出的位姿结果为 测量值,计算误差为测量值减去真实值。
(2)实验结果分析
图2为仿真点云配准过程的示意图,灰度较亮的为目标模型点云,灰度较暗的为目标仿真相机点云,图2右侧为配准结果,相机点云和目标点云重合,表明位姿估计结果 良好。
将估计序列帧采用的基本ICP算法记为改进前,将本专利使用的配准算法记为改进 后。图3为序列位姿估计的旋转量误差对比。从图3(a)可以看出,改进后的X轴方向旋 转量的误差在0.5°以内,明显比改进前的误差要小。从图3(b)、图3(c)可以看出,改进 后的Y轴和Z轴方向的旋转量误差依然和改进前一样,在0.1°以内。综合可以看出, 本专利的改进确实大大提高了序列帧点云配准的精度,尤其是对滚转角误差的改进,显 得尤为突出。

Claims (4)

1.一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
2.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'),并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:
若满足条件,更新公式:
更新的状态为Used,否则,不更新;
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽;
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
t(rb)~b(n(rb),p),
式中,b代表二项分布;
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图像上做出一条直线段。
3.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继续判断vl的y值分量,若则将其逆时针旋转90°即可得到最终的向量vf;否则vf=vl
步骤4-3:根据相邻两帧的向量便可以得出相邻两帧间的旋转角θk
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
则为逆时针旋转;否则为顺时针旋转;
最终可以得出θk=±|θ|,当为逆时针时为+。
4.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤7具体包括:
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量;
点云按照姿态角的顺序进行旋转,其中,是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角;设目标坐标系为静止坐标系,相机相对目标坐标系的旋转矩阵为:
其中,-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤基于点云的主动旋转。
CN201810953205.XA 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法 Active CN109724586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810953205.XA CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810953205.XA CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Publications (2)

Publication Number Publication Date
CN109724586A true CN109724586A (zh) 2019-05-07
CN109724586B CN109724586B (zh) 2022-08-02

Family

ID=66295405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810953205.XA Active CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Country Status (1)

Country Link
CN (1) CN109724586B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308459A (zh) * 2019-06-30 2019-10-08 南京理工大学 不依赖模型的非合作卫星相对位姿测量方法
CN110794422A (zh) * 2019-10-08 2020-02-14 歌尔股份有限公司 一种含有tof成像模组的机器人数据采集***及方法
CN111951314A (zh) * 2020-08-21 2020-11-17 贝壳技术有限公司 点云配准方法和装置、计算机可读存储介质、电子设备
WO2021072710A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 移动物体的点云融合方法、***及计算机存储介质
CN113392879A (zh) * 2021-05-26 2021-09-14 中铁二院工程集团有限责任公司 一种航空影像多视图匹配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN107909612A (zh) * 2017-12-01 2018-04-13 驭势科技(北京)有限公司 一种基于3d点云的视觉即时定位与建图的方法与***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN107909612A (zh) * 2017-12-01 2018-04-13 驭势科技(北京)有限公司 一种基于3d点云的视觉即时定位与建图的方法与***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FANG LV 等: "Automatic registration of airborne LiDAR point cloud data and optical imagery depth map based on line and points features", 《INFRARED PHYSICS & TECHNOLOGY》 *
GREGORY P. MEYER等: "Robust_Model-Based_3D_Head_Pose_Estimation", 《 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION 》 *
张帆: "基于线匹配的三维重建的研究与实现", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
邓超锋: "基于Kinect的多足机器人定位与构图技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308459A (zh) * 2019-06-30 2019-10-08 南京理工大学 不依赖模型的非合作卫星相对位姿测量方法
CN110308459B (zh) * 2019-06-30 2023-05-09 南京理工大学 不依赖模型的非合作卫星相对位姿测量方法
CN110794422A (zh) * 2019-10-08 2020-02-14 歌尔股份有限公司 一种含有tof成像模组的机器人数据采集***及方法
WO2021072710A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 移动物体的点云融合方法、***及计算机存储介质
CN111951314A (zh) * 2020-08-21 2020-11-17 贝壳技术有限公司 点云配准方法和装置、计算机可读存储介质、电子设备
CN111951314B (zh) * 2020-08-21 2021-08-31 贝壳找房(北京)科技有限公司 点云配准方法和装置、计算机可读存储介质、电子设备
CN113392879A (zh) * 2021-05-26 2021-09-14 中铁二院工程集团有限责任公司 一种航空影像多视图匹配方法

Also Published As

Publication number Publication date
CN109724586B (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
CN109724586A (zh) 一种融合深度图和点云的航天器相对位姿测量方法
CN107945220B (zh) 一种基于双目视觉的重建方法
CN105976353B (zh) 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN102999759B (zh) 一种基于光流的车辆运动状态估计方法
CN110033480B (zh) 基于航摄测量的机载光电***目标运动矢量估计方法
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、***及应用
CN107390704B (zh) 一种基于imu姿态补偿的多旋翼无人机光流悬停方法
CN105913410A (zh) 一种基于机器视觉的远距离运动物体高度测量的装置与方法
CN106373159A (zh) 一种简化的无人机多目标定位方法
CN110142805A (zh) 一种基于激光雷达的机器人末端校准方法
CN112162297B (zh) 一种剔除激光点云地图中动态障碍伪迹的方法
CN103559711A (zh) 基于三维视觉***图像特征和三维信息的运动估计方法
CN107192375B (zh) 一种基于航拍姿态的无人机多帧图像自适应定位校正方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与***
CN112580683B (zh) 一种基于互相关的多传感器数据时间对齐***及其方法
CN110160503B (zh) 一种顾及高程的无人机景观匹配定位方法
CN110865372B (zh) 一种基于合成孔径雷达多方位观测的目标高度信息提取方法
CN110686593B (zh) 一种测量拼接焦平面中图像传感器相对位置关系的方法
CN102359788B (zh) 一种基于平台惯姿参数的序列图像目标递推识别方法
CN117092621A (zh) 基于光线追踪校正的高光谱图像-点云立体配准方法
CN111260736A (zh) 一种空间相机内参在轨实时标定方法
CN113240749B (zh) 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法
CN110927765A (zh) 激光雷达与卫星导航融合的目标在线定位方法
CN114170376B (zh) 一种针对室外大场景的多源信息融合分组式运动恢复结构方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant