CN105806315B - 基于主动编码信息的非合作目标相对测量***及测量方法 - Google Patents
基于主动编码信息的非合作目标相对测量***及测量方法 Download PDFInfo
- Publication number
- CN105806315B CN105806315B CN201410844755.XA CN201410844755A CN105806315B CN 105806315 B CN105806315 B CN 105806315B CN 201410844755 A CN201410844755 A CN 201410844755A CN 105806315 B CN105806315 B CN 105806315B
- Authority
- CN
- China
- Prior art keywords
- noncooperative target
- dimensional
- coding information
- image
- target relative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及基于主动编码信息的非合作目标相对测量***及其测量方法,测量***包括结构光投射器,第三控制单元控制结构光投射器向非合作目标投射经过编码的结构光,该结构光为具有一定编码信息的光模型;该结构光在非合作目标表面上形成光模型影像;第一相机和第二相机分别设置在所述结构光投射器的两侧,均用于拍摄光模型影像图像;第一控制单元将解码后的第一相机拍摄的光模型影像图像发送至数据处理单元,第二控制单元将解码后的第二相机拍摄的光模型影像图像发送至数据处理单元,由数据处理单元实现图像的三维重建,进而获取非合作目标相对位置和相对姿态。本发明涉及基于主动编码信息的非合作目标相对测量***及其测量方法,测量精度高、稳定性强。
Description
技术领域
本发明涉及航天器相对测量技术,具体涉及一种基于主动编码信息的非合作目标相对测量***及测量方法。
背景技术
空间交会对接任务中需要获得近距离高精度的追踪航天器与目标星之间的相对位置、相对姿态角、相对速度和相对姿态角速度等相对运动信息,现有技术中采用被动测量方式,但被动测量方式存在以下缺点:因相似性度量、连续性等假设与客观实际存在偏差,动态物体图像的动态性使被动测量方式较容易因视角变化而导致图像遮蔽和二义性;被动测量方式受光照及杂光环境影响大、对目标构型要求高、匹配难度大。这些缺点导致被动测量方式测量精度难以保证。
发明内容
本发明的目的在于提供一种基于主动编码信息的非合作目标相对测量***及测量方法,测量精度高、稳健性强。
为了达到上述的目的,本发明提供一种基于主动编码信息的非合作目标相对测量***,包括依次连接的第一相机、第一成像单元和第一控制单元,依次连接的第二相机、第二成像单元和第二控制单元,以及数据处理单元;其特征在于,所述非合作目标相对测量***还包括结构光投射器及第三控制单元,所述第三控制单元控制结构光投射器向非合作目标投射具有一定结构编码信息的光模型;该光模型在非合作目标表面上形成光模型影像;所述第一相机和第二相机分别设置在所述结构光投射器的两侧,均用于拍摄光模型影像图像;所述第一控制单元将解码后的所述第一相机拍摄的光模型影像图像发送至所述数据处理单元,所述第二控制单元将解码后的所述第二相机拍摄的光模型影像图像发送至所述数据处理单元,由所述数据处理单元实现图像高精度三维点云匹配与重建及特征检测和提取,进而获取非合作目标相对位置和相对姿态。
上述基于主动编码信息的非合作目标相对测量***,其中,所述光模型采用伪随机系列编码方式进行编码。
上述基于主动编码信息的非合作目标相对测量***,其中,所述光模型编码采用单帧结构光编码。
上述基于主动编码信息的非合作目标相对测量***,其中,所述光模型影像包含非合作目标表面各点深度信息及编码信息。
本发明提供的另一技术方案是,一种基于主动编码信息的非合作目标相对运动信息测量方法,采用上述基于主动编码信息的非合作目标相对测量***,该测量方法包括以下步骤:1)所述数据处理单元基于解码后的第一相机拍摄的光模型影像图像和第二相机拍摄的光模型影像图像进行高精度三维点云匹配与重建;2)对重建的非合作目标三维图像进行特征检测和提取;所述特征包括三维平面、三维直线段、三维圆及三维轮廓;3)建立非合作目标本体坐标系,依据建立的非合作目标本体坐标系的坐标轴方向分解出非合作目标的三个姿态角,就得到非合作目标相对追踪航天器的位置和姿态。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤1)中采用改进的迭代最近点法实现非合作目标高精度三维点云匹配与重建;改进的迭代最近点法依次按照配准元素的选择、配准策略的确定、搜索策略的建立和误差函数的求解4个模块展开,具体步骤为:
首先使用平均采样的方法对点云进行采样,完成配准元素的选择;
然后通过特征度量的选取和搜索策略的选取完成配准策略的确定;
其次采用多维二元搜索树动态融合法处理非完全对应的点集合,通过对点云建立KD树可提高搜索最近点的效率,提升ICP迭代算法的速度,完成搜索策略的建立;
最后采用基于奇异值分解法确定误差函数的求解,完成非合作目标高精度三维点云匹配与重建。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤2)中,三维平面的检测和提取包括粗检测和提取,以及精检测和提取;所述粗检测和提取采用聚类分析法、曲面增长法及平面合并法相融合的方法;所述精检测和提取利用步骤1)获得的三维点云,对一些局部的点进行平面拟合,利用拟合得到的方程找到位于局部拟合得到的平面内的点,重新拟合得到新的平面方程,如此迭代进行,直到得到的平面方程稳定为止,最后从拟合得到的面积最大的平面作为非合作目标的典型平面特征。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤2)中,三维直线段的检测和提取融合了二维图像边缘检测与三维边缘检测;首先将三维点云都投影到原始图像中,获得有效的图像区域,并利用canny算子进行边缘检测,利用拟合得到一部分的边缘,根据图像与三维点云的关系,将这些边缘转换到三维空间中,得到了初步的三维边缘检测结果;其次,利用三维平面检测和提取的结果,利用平面两两求交,如果其求交的结果正好贴着图像原始的点云,则得到由三维空间直接检测到的一些三维边缘;把这两类边缘放到一起,对相互靠近的进行合并,并根据合并结果,把相互连接到一起的边缘连接到一起;通过残差的分析,验证每一段边缘是否为直线段,如果是,则获得相应的三维直线段;对相应的三维直线段计算各自的重心,重心便是各三维直线段上的一个点,接着计算这些重心点的协方差矩阵,对协方差矩阵进行特征值分解,最大特征值所对应的特征向量便是这条直线段的方向。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤2)中,三维圆检测和提取通过三维转化为二维的方式进行;具体为:在二维的图像空间中进行检测到的三维边缘的椭圆检测,然后再将这个检测结果直接传递到三维边缘中,从而完成三维圆的检查。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤2)中,三维轮廓检测和提取主要基于点云,即三角网模型,首先对轮廓边进行跟踪,跟踪的依据是,如果三角网模型的一条边只与一个三角形邻接,那么这条边为轮廓边的一条候选边,找出所有满足以上条件的候选轮廓边,然后进行轮廓边的跟踪,将最长的一条封闭曲线取出,这就是最有可能的轮廓边了;从检测的轮廓边中进行轮廓重建,具体如下:计算最长封闭曲线中每一个点的切线向量;计算每一个点处切线向量的变化量;对这些变化量,找出所有的极大值,并将这些极大值大于一定阈值的点选出,作为轮廓线拐点的候选点,这些候选点将封闭曲线分为很多不同的段;对这些不同的曲线段,采用直线进行拟合,分析其残差,如果最大残差大于某一个阈值,则将这段直线段在最大残差处***为两端,如此递归进行到无法***为止;对***完成的直线段按照连接顺序进行合并检测,如果两条相互连接的直线段,当作一条进行拟合,其最大残差小于给定阈值,则将这两条直线段进行合并,这个过程要递归进行,直到无法找到能够合并的直线段为止。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤3)中,非合作目标本体坐标系建立选择重复性较强的特征进行。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,选择三维圆的中心作为非合作目标本体坐标系的坐标原点,较长直线段的方向或者较大平面的法向量作为非合作目标本体坐标系的坐标轴。
上述基于主动编码信息的非合作目标相对运动信息测量方法,其中,所述步骤3)中,采用如下策略进行非合作目标本体坐标系建立:
(a)在初始阶段,采用较长直线段的方向或者较大平面的法向量进行非合作目标坐标轴的估计,而以较为靠近非合作目标的中心的一个点作为非合作目标本体坐标系的原点;
(b)根据步骤(a)的方法不断建立新的非合作目标本体坐标系,每次坐标系的建立完成后,在当前坐标系下将其他的没有利用的特征转换到非合作目标本体坐标系之下,并进行保存;
(c)当某一次用于建立非合作目标本体坐标系的特征没有检测出来的时候,则选用保存起来的特征进行补充。
本发明的基于主动编码信息的非合作目标相对测量***及测量方法,通过主动编码结构光的方式,可以有效地解决被动测量方式存在的图像容易遮蔽和二义性导致的匹配难度大的问题,同时可以克服被动测量方式容易受光照及杂光环境、目标构型等因素影响的缺点。可以满足近距离非合作目标高精度、高稳健相对测量的需求。
附图说明
本发明的基于主动编码信息的非合作目标相对测量***及测量方法由以下的实施例及附图给出。
图1是本发明的基于主动编码信息的非合作目标相对测量***的结构示意图。
具体实施方式
以下将结合图1对本发明的基于主动编码信息的非合作目标相对测量***及测量方法作进一步的详细描述。
参见图1,本发明的基于主动编码信息的非合作目标相对测量***设置在追踪航天器上,该相对测量***包括第一相机1、第二相机2、结构光投射器3、第一成像单元4、第二成像单元5、第一控制单元6、第二控制单元7、第三控制单元8和数据处理单元9;
所述结构光投射器3用于向非合作目标(即目标星)投射具有一定结构编码信息的光模型;由于非合作目标表面各点深度存在差异,所述光模型投影到非合作目标表面上会发生形变,在非合作目标表面上形成经非合作目标表面调制的光模型影像,该光模型影像包含非合作目标表面各点深度信息及编码信息,所述光模型影像包含的编码信息与所述结构光投射器3投射的光模型包含的编码信息相匹配;
所述第一相机1和第二相机2分别设置在所述结构光投射器3的两侧,均用于拍摄非合作目标表面的光模型影像图像;
所述第一成像单元4用于控制所述第一相机1曝光并采集第一相机1拍摄的光模型影像图像,所述第二成像单元5用于控制所述第二相机2曝光并采集第二相机2拍摄的光模型影像图像;
所述第一控制单元6与所述第一成像单元4连接,所述第一成像单元4采集的光模型影像图像经所述第一控制单元6解码后送入所述数据处理单元9;所述第二控制单元7与所述第二成像单元5连接,所述第二成像单元5采集的光模型影像图像经所述第二控制单元7解码后送入所述数据处理单元9;
所述第三控制单元8用于编码结构光,并控制所述结构光投射器3工作;
所述数据处理单元9通过图像处理完成高精度非合作目标相对位置和相对姿态的解算。
本发明较佳实施例中,所述结构光投射器3可采用小功耗投影仪。
本发明较佳实施例中,所述结构光投射器3投射的光模型采用伪随机系列编码方式进行编码,编码采用单帧结构光编码,使每次测量只需要进行一次图像采集,不需要连续多次采集,即可避免运动物体不同时刻产生位姿变化导致测量误差的问题,还可以缩短每次采集所需要的时间。
本发明较佳实施例中,所述第一成像单元4可采用CCD探测器(电荷耦合器件,Charge Coupled Device)或者CMOS探测器(互补金属氧化物半导体,ComplementaryMetal-Oxide-Semiconductor Transistor),所述第二成像单元5可采用CCD探测器或者CMOS探测器,较佳地,所述第一成像单元4和第二成像单元5为相同探测器。
本发明中,所述数据处理单元9获取非合作目标相对位置和相对姿态基于包含具有一定结构编码信息的光模型及非合作目标表面各点深度信息的图像,与现有技术的被动测量方式(仅用两个相机拍摄非合作目标图像,不含结构光投射器)相比,图像处理及解算难度大大降低,且精度高,但本发明的基于主动编码信息的非合作目标相对测量***对所述数据处理单元获取非合作目标相对位置和相对姿态过程中涉及的图像处理方法及解算方法不作限定。
本发明的另一技术方案是,针对本发明测量***提供一种优选的获取非合作目标相对位置和相对姿态的方法,但这不是本发明测量***获取非合作目标相对位置和相对姿态的唯一方法。
在本优选实施例中,所述数据处理单元9基于解码后的第一相机1拍摄的光模型影像图像和第二相机2拍摄的光模型影像图像进行高精度三维点云匹配与重建,并对重建的非合作目标三维图像进行特征检测和提取,然后建立非合作目标本体坐标系,依据建立的非合作目标本体坐标系的坐标轴方向分解出非合作目标的三个姿态角,就得到非合作目标相对追踪航天器的位置和姿态。
所述高精度三维点云匹配与重建采用改进的迭代最近点法(Iterative ClosestPoint,ICP)。
改进的迭代最近点法依次按照配准元素的选择、配准策略的确定、搜索策略的建立和误差函数的求解4个模块展开,具体步骤为:
使用平均采样的方法对点云进行采样,完成配准元素的选择;
通过特征度量的选取和搜索策略的选取完成配准策略的确定;具体包括利用场景中集中点的法线与模型点集合的交点来确定对应点,采用点到面(point-to-plane)的距离确定目标函数场景数据集中的点到模型数据集合中的经过对应点的切平面的距离;
采用多维二元搜索树(KD-Tree)动态融合法处理非完全对应的点集合,通过对点云建立KD树可提高搜索最近点的效率,提升ICP迭代算法的速度,完成搜索策略的建立;主要步骤如下:
(1)使用一般的KD树建立方法建立首帧点云的KD树;
(2)后续点云完成配准后,根据该点云的配准误差判断点云是否正确完成配准,如果通过则进行融合;
(3)对符合条件的点云与首片模型点云进行重叠度分析,筛选出不重叠的点作为新点;
(4)使用改进的KD树方法将新点纳入到KD树中,这里的改进方法主要在于增加新的KD树分支,对已有的KD树叶子节点进行更新;
采用基于奇异值分解法确定误差函数的求解,完成非合作目标高精度三维点云匹配与重建。
所述特征包括三维平面、三维直线段、三维圆及三维轮廓,现一一介绍各特征的检测和提取方法。
三维平面的检测和提取包括粗检测和提取,以及精检测和提取。
粗检测和提取采用聚类分析法、曲面增长法及平面合并法相融合的方法,具体为:
利用K均值聚类方法,以点云的三维坐标以及法向量作为特征进行聚类分析,将三维点云划分为可能的多个平面类;
对每个平面类进行拟合,并通过拟合残差分析验证是否为有效的平面类,将有效的平面类挑选出来;
以有效的平面类为基础,利用同一个平面法向量相同,采用区域增长的方法对这些平面进行扩展,如果一个平面块能够有效地增长到另外一个平面快中则进行平面块的合并;
对这些平面进行重新拟合,然后利用各个平面的参数进行进一步的合并检测以及合并,直到一定阈值范围内所有平面均合并到同一平面为止,如此可得较好的平面检测效果。
精检测和提取在粗检测和提取的基础上进行,具体为:利用获得的平面中的三维点云,对一些局部的点进行平面拟合,利用拟合得到的平面方程找到位于该局部拟合得到的平面内的点(到拟合平面距离小于一定的阈值),重新拟合得到新的平面方程,如此迭代进行,直到得到的平面方程稳定为止(前后拟合平面重心间距小于一定阈值),最后从拟合得到的面积最大的平面作为非合作目标的典型平面特征。典型平面特征可以用于非合作目标绕着X和Y轴旋转的两个姿态角的估计,克服基于非合作目标轮廓边缘不规整造成的角度估计误差大的问题。本实施例中所述精检测和提取采用三维空间平面拟合,其基本原理如下:
平面一般方程如下:
(1)
其中,为平面的法向量。
已知位于平面上的个三维点(),采用特征值分解法对平面进行拟合。将个已知的三维点进行重心化,则:
(2)
将位于平面上的三维点坐标(假定带有正态分布的随机误差),代入平面方程,得到如下的误差方程:
(,) (3)
将以上的误差方程写成矩阵形式,得:
() (4)
其中,,。
采用最小二乘原则,需要寻找的值,使得如下的目标函数达到最小值:
(5)
为了求解得到的最小值,采用拉格朗日乘数法构造如下的拉格朗日函数:
(6)
对拉格朗日函数求解一阶偏导数,并令其为零,得其极值必要条件:
(7)
将代入上式,并化简得:
(8)
由此可知,必为矩阵的特征值,而则必为相应的特征向量。此时,目标函数所取的值为:
(9)
可见,目标函数的最小值必为矩阵的最小特征值(因为为正定或者半正定矩阵),相应的拟合得到的平面法向量则必为所对应的特征向量。
根据以上的推导,可以知道通过特征值分解方式进行平面拟合的步骤为:
(1)根据已知的三维点坐标计算协方差矩阵;
(2)对协方差矩阵进行特征值分解,得到最小的特征值以及相应的特征向量;
(3)对应的就是平面方程的法向量;
(4)假定已知点的重心坐标为,计算平面方程的系数;
(5)对每一个已知点,计算其残差(点到平面的距离)以及中误差。
三维直线段检测和提取融合了二维图像边缘检测与三维边缘检测,首先将三维点云都投影到原始图像(成像***采集的图像)中,获得有效的图像区域,并利用canny算子进行边缘检测,利用拟合等方法得到一部分的边缘,根据图像与三维点云的关系,将这些边缘转换到三维空间中,得到了初步的三维边缘检测结果;其次,利用上述三维平面检测和提取的结果,利用平面两两求交,如果其求交的结果正好贴着图像原始的点云,则可以得到由三维空间直接检测到的一些三维边缘;把这两类边缘放到一起,对相互靠近的边缘进行合并,并根据合并结果,把相互连接到一起的边缘连接到一起;通过残差的分析,验证连接后的每一段边缘是否为直线段,如果是,则得到相应的三维直线段;对相应的三维直线段计算各自重心,重心便是各三维直线段上的一个点,接着计算这些重心点的协方差矩阵,对协方差矩阵进行特征值分解,最大特征值所对应的特征向量便是这条直线段的方向。
三维直线段检测和提取基本的操作是直线段的拟合,其原理如下:
(a)假定某一条边缘为直线段,并且方程为
(10)
(b)如果将边缘点全部中心化,则直线段的方程可以表示为
(11)
(c)对检测得到的一条边缘的每一个点,代入以上的方程,可以得到一系列的误差方程,如下
(12)
(d)将以上的一系列误差方程写成矩阵形式,并考虑这一直线方程约束条件,可以得到
(13)
(14)
其中。
(e)根据以上得到的误差方程形式,并结合最小二乘法原则进行推导,可以得到X的最优解为矩阵最小奇异值所对应的特征向量。所以只需要采用奇异值分解即可得到直线段拟合的方程了。
三维圆检测和提取通过三维转化为二维的方式进行。前面已经进行了三维边缘的检测和跟踪,这些三维边缘利用三维点与图像之间的投影关系,可以很方便地投影到成像单元采集到的图像当中。为了能够快速地检测到所需要的三维圆特征,本实施例将在二维的图像空间中进行检测到的三维边缘的椭圆检测,然后再将这个检测结果直接传递到三维边缘中,从而完成三维圆的检查。
这里指出,转化到像平面(二维的图像空间)内的三维边缘具有了二维的特征,所以采用二维椭圆拟合的方式即可进行三维圆的检测。二维椭圆拟合的原理如下:
(a)对每一条边缘段,进行椭圆拟合。本实施例采用的椭圆方程为:
(15)
对于边缘上的一个点,不失一般性地,假定a恒为1,则可以列出如下的方程:
(16)
对于边缘上的每一个点,列出以上的方程,并统一写成矩阵的形式,如下:
(17)
按照最小二乘法原则,可以得到上述方程的最小二乘解:
(18)
上述的最小二乘解即为椭圆方程的系数。
(b)虽然以上最小二乘获得了最小二乘意义上的椭圆方程系数解,但是为了更好地考虑少量粗差边缘点的影响,这里采用了一个加权的形式,进行进一步的优化。也就是在以上的解的基础上,进行加权处理。对于误差方程,根据经验,可以采用的权重为
(19)
其中
(20)
(21)
根据以上的方式定权,对每一个边缘点,都按照以上方式列出误差方程,并给定相应的权重,则可以得到如下矩阵形式的误差方程
(22)
相应的其最小二乘解则为
(23)
(c)按照以上的方式给定误差方程的权值,解算,然后利用解算结果,重新定权,然后重新列出误差方程,并解算,迭代到结果稳定为止。这样就可以得到拟合的椭圆代数方程了。
得到椭圆的代数方程之后,需要将代数方程转换成椭圆的几何参数,以便后面的处理和应用。椭圆方程的前三项实际为标准的二次型,为了能够分解出椭圆结合参数,需要通过正交变换(也就是旋转矩阵)转换成标准方程,为此给出矩阵
(24)
对以上的矩阵进行特征值分解,其结果为
(25)
其中U为旋转矩阵,假定
(26)
那么经过整理之后,上述的椭圆代数方程可以化为
(27)
自然,如果以上的和如果同号,则表明以上方程可能为椭圆方程,否则将不是椭圆方程。在和同号的前提下,通过配方,可以转换成标准椭圆方程(如果不能通过配方转化成椭圆方程,则表明该边缘不是椭圆弧段)。根据得到的椭圆标准方程,可以很容易看出椭圆的中心、长半轴以及段半轴,而根据前面的旋转矩阵U则可以很容易地得到椭圆的朝向。
三维轮廓的检测和提取主要基于点云(三角网模型)。首先对轮廓边进行跟踪,跟踪的依据是,如果三角网模型的一条边只与一个三角形邻接,那么这条边为轮廓边的一条候选边。首先找出所有满足以上条件的候选轮廓边,然后进行轮廓边的跟踪,将最长的一条封闭曲线取出,这就是最有可能的轮廓边了。为了进行后面的进一步的计算,需要从检测的轮廓边中进行轮廓重建。本实施例采用的轮廓重建方法如下:
(a)计算最长封闭曲线中每一个点的切线向量。切线的计算方法为,对曲线上的每一个点找出该点周围一定大小的邻域内在封闭曲线上的所有点,并计算这些点的协方差矩阵,对该协方差矩阵进行特征值分解,最大特征值所对应的特征向量就是该点的切向量的估计值了。
(b)计算每一个点处切线向量的变化量。方法是找出该点邻域内曲线上的各个点的切线向量,并计算这些切线向量之间两两的夹角,这些夹角的最大值边认为是该点处切线向量的变化量。
(c)对这些变化量,找出所有的极大值,并将这些极大值大于一定阈值的点选出,作为轮廓线拐点的候选点。这些候选点将封闭曲线分为很多不同的段。
(d)对这些不同的曲线段,采用直线进行拟合,分析其残差,如果最大残差大于某一个阈值,则将这段直线段在最大残差处***为两端,如此递归进行到无法***为止。
(e)对***完成的直线段按照连接顺序进行合并检测,如果两条相互连接的直线段,当作一条进行拟合,其最大残差小于给定阈值,则将这两条直线段进行合并。这个过程要递归进行,直到无法找到能够合并的直线段为止。
经过以上的步骤,可以将轮廓的点都检测出来,并将轮廓简化为一个多边形表达。
非合作目标本体坐标系建立选择重复性较强的特征进行:非合作目标本体坐标系坐标原点可以选择典型的特征点,如三维圆的中心,而非合作目标本体坐标系坐标轴的确定,则最好采用一些明确的方向特征,例如较长直线段的方向或者较大平面的法向量。由于非合作目标相对位置和姿态的计算必须基于固定的非合作目标本体坐标系,所以原则上建立非合作目标本体坐标系的特征必须至始至终都能够重复的出现。然而由于非合作目标无先验的已知的形状信息,在非合作目标测量之前并没有办法确定哪些特征会出现,也无法知道哪些特征需要检测,并且数据处理也并非离线和事后处理,而是一个根据数据采集顺序逐步递增的准实时处理过程,所以在处理的过程中并无法确定哪些特征会毫无遗漏地重复出现。因此必须用一定的策略保证在用于建立非合作目标本体坐标系的特征检测不出来的时候仍然能够稳健地进行非合作目标本体坐标系的建立,并且误差累积效应小。
采用如下的策略进行非合作目标本体坐标系建立以及位置和姿态解算:
(a)在初始阶段,采用较长直线段的方向或者较大平面的法向量进行非合作目标坐标轴的估计,而以典型的较为靠近非合作目标的中心的一个点作为非合作目标本体坐标系的原点,依据该非合作目标本体坐标系的坐标轴方向分解出非合作目标的三个姿态角,即可得到该非合作目标本体坐标系下非合作目标的相对位置和姿态。
(b)根据步骤(a)的方法不断建立新的非合作目标本体坐标系(即不同时刻、不同运动状态的非合作目标本体坐标系),每次坐标系的建立完成后,在当前坐标系下将其他的没有利用的特征转换到非合作目标本体坐标系之下,并进行保存,在这个过程中,由于保存特征的重复次数逐步增多,这些保存起来的特征的精度也会逐步得到提高。
(c)当某一次用于建立非合作目标本体坐标系的特征(即较长直线段的方向或者较大平面的法向量,和非合作目标的中心)没有检测出来的时候,则选用保存起来的特征进行补充。选择的补充特征必须在当前也能够检测出来。这样可以利用这种前后的同名关系直接估计当前非合作目标本体坐标系,并获得当前的非合作目标相对位置和姿态。
以上的过程,一方面利用重复特征进行单帧单独的非合作目标本体坐标系估计,并以此为基础计算非合作目标的相对位置和姿态,这有效保证了非合作目标相对位置和姿态参数估计的独立性,消除了累积误差效应。而非合作目标保存的备用特征,在每一次的重复中,精度会逐步提高,并且这些特征仅仅在用于非合作目标本体坐标系估计的直接特征检测失败的条件下才会以补充方式进行采用,所以以上的策略满足在保证非合作目标相对位置和姿态能够稳健和连续进行估计的前提下,尽可能减小误差累积效应的原则。
Claims (13)
1.基于主动编码信息的非合作目标相对测量***,包括依次连接的第一相机、第一成像单元和第一控制单元,依次连接的第二相机、第二成像单元和第二控制单元,以及数据处理单元;其特征在于,所述非合作目标相对测量***还包括结构光投射器及第三控制单元,所述第三控制单元控制结构光投射器向非合作目标投射具有一定结构编码信息的光模型;该光模型在非合作目标表面上形成光模型影像;所述第一相机和第二相机分别设置在所述结构光投射器的两侧,均用于拍摄光模型影像图像;所述第一控制单元将解码后的所述第一相机拍摄的光模型影像图像发送至所述数据处理单元,所述第二控制单元将解码后的所述第二相机拍摄的光模型影像图像发送至所述数据处理单元,由所述数据处理单元实现图像高精度三维点云匹配与重建及特征检测和提取,进而获取非合作目标相对位置和相对姿态。
2.如权利要求1所述的基于主动编码信息的非合作目标相对测量***,其特征在于,所述光模型采用伪随机系列编码方式进行编码。
3.如权利要求1所述的基于主动编码信息的非合作目标相对测量***,其特征在于,所述光模型编码采用单帧结构光编码。
4.如权利要求1所述的基于主动编码信息的非合作目标相对测量***,其特征在于,所述光模型影像包含非合作目标表面各点深度信息及编码信息。
5.基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,采用如权利要求1至4中任一权利要求所述的基于主动编码信息的非合作目标相对测量***,该测量方法包括以下步骤:
1)所述数据处理单元基于解码后的第一相机拍摄的光模型影像图像和第二相机拍摄的光模型影像图像进行高精度三维点云匹配与重建;
2)对重建的非合作目标三维图像进行特征检测和提取;
所述特征包括三维平面、三维直线段、三维圆及三维轮廓;
3)建立非合作目标本体坐标系,依据建立的非合作目标本体坐标系的坐标轴方向分解出非合作目标的三个姿态角,就得到非合作目标相对追踪航天器的位置和姿态。
6.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤1)中采用改进的迭代最近点法实现非合作目标高精度三维点云匹配与重建;改进的迭代最近点法依次按照配准元素的选择、配准策略的确定、搜索策略的建立和误差函数的求解4个模块展开,具体步骤为:
首先使用平均采样的方法对点云进行采样,完成配准元素的选择;
然后通过特征度量的选取和搜索策略的选取完成配准策略的确定;
其次采用多维二元搜索树动态融合法处理非完全对应的点集合,通过对点云建立KD树可提高搜索最近点的效率,提升ICP迭代算法的速度,完成搜索策略的建立;
最后采用基于奇异值分解法确定误差函数的求解,完成非合作目标高精度三维点云匹配与重建。
7.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤2)中,三维平面的检测和提取包括粗检测和提取,以及精检测和提取;所述粗检测和提取采用聚类分析法、曲面增长法及平面合并法相融合的方法;所述精检测和提取利用步骤1)获得的三维点云,对一些局部的点进行平面拟合,利用拟合得到的方程找到位于局部拟合得到的平面内的点,重新拟合得到新的平面方程,如此迭代进行,直到得到的平面方程稳定为止,最后从拟合得到的面积最大的平面作为非合作目标的典型平面特征。
8.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤2)中,三维直线段的检测和提取融合了二维图像边缘检测与三维边缘检测;首先将三维点云都投影到原始图像中,获得有效的图像区域,并利用canny算子进行边缘检测,利用拟合得到一部分的边缘,根据图像与三维点云的关系,将这些边缘转换到三维空间中,得到了初步的三维边缘检测结果;其次,利用三维平面检测和提取的结果,利用平面两两求交,如果其求交的结果正好贴着图像原始的点云,则得到由三维空间直接检测到的一些三维边缘;把这两类边缘放到一起,对相互靠近的进行合并,并根据合并结果,把相互连接到一起的边缘连接到一起;通过残差的分析,验证每一段边缘是否为直线段,如果是,则获得相应的三维直线段;对相应的三维直线段计算各自的重心,重心便是各三维直线段上的一个点,接着计算这些重心点的协方差矩阵,对协方差矩阵进行特征值分解,最大特征值所对应的特征向量便是这条直线段的方向。
9.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤2)中,三维圆检测和提取通过三维转化为二维的方式进行;具体为:在二维的图像空间中进行检测到的三维边缘的椭圆检测,然后再将这个检测结果直接传递到三维边缘中,从而完成三维圆的检查。
10.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤2)中,三维轮廓检测和提取主要基于点云,即三角网模型,首先对轮廓边进行跟踪,跟踪的依据是,如果三角网模型的一条边只与一个三角形邻接,那么这条边为轮廓边的一条候选边,找出所有满足以上条件的候选轮廓边,然后进行轮廓边的跟踪,将最长的一条封闭曲线取出,这就是最有可能的轮廓边了;从检测的轮廓边中进行轮廓重建,具体如下:计算最长封闭曲线中每一个点的切线向量;计算每一个点处切线向量的变化量;对这些变化量,找出所有的极大值,并将这些极大值大于一定阈值的点选出,作为轮廓线拐点的候选点,这些候选点将封闭曲线分为很多不同的段;对这些不同的曲线段,采用直线进行拟合,分析其残差,如果最大残差大于某一个阈值,则将这段直线段在最大残差处***为两端,如此递归进行到无法***为止;对***完成的直线段按照连接顺序进行合并检测,如果两条相互连接的直线段,当作一条进行拟合,其最大残差小于给定阈值,则将这两条直线段进行合并,这个过程要递归进行,直到无法找到能够合并的直线段为止。
11.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤3)中,非合作目标本体坐标系建立选择重复性较强的特征进行。
12.如权利要求11所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,选择三维圆的中心作为非合作目标本体坐标系的坐标原点,较长直线段的方向或者较大平面的法向量作为非合作目标本体坐标系的坐标轴。
13.如权利要求5所述的基于主动编码信息的非合作目标相对运动信息测量方法,其特征在于,所述步骤3)中,采用如下策略进行非合作目标本体坐标系建立:
(a)在初始阶段,采用较长直线段的方向或者较大平面的法向量进行非合作目标坐标轴的估计,而以较为靠近非合作目标的中心的一个点作为非合作目标本体坐标系的原点;
(b)根据步骤(a)的方法不断建立新的非合作目标本体坐标系,每次坐标系的建立完成后,在当前坐标系下将其他的没有利用的特征转换到非合作目标本体坐标系之下,并进行保存;
(c)当某一次用于建立非合作目标本体坐标系的特征没有检测出来的时候,则选用保存起来的特征进行补充。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410844755.XA CN105806315B (zh) | 2014-12-31 | 2014-12-31 | 基于主动编码信息的非合作目标相对测量***及测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410844755.XA CN105806315B (zh) | 2014-12-31 | 2014-12-31 | 基于主动编码信息的非合作目标相对测量***及测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105806315A CN105806315A (zh) | 2016-07-27 |
CN105806315B true CN105806315B (zh) | 2018-06-26 |
Family
ID=56421044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410844755.XA Active CN105806315B (zh) | 2014-12-31 | 2014-12-31 | 基于主动编码信息的非合作目标相对测量***及测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105806315B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251376B (zh) * | 2016-08-12 | 2019-08-06 | 南京航空航天大学 | 一种面向彩色结构光编码与边缘提取方法 |
CN106340040B (zh) * | 2016-08-16 | 2019-06-14 | 广州视源电子科技股份有限公司 | 跟踪指部轮廓的方法及其装置 |
CN106340039B (zh) * | 2016-08-16 | 2019-06-21 | 广州视源电子科技股份有限公司 | 跟踪指部轮廓的方法及其装置 |
CN106327486B (zh) * | 2016-08-16 | 2018-12-28 | 广州视源电子科技股份有限公司 | 跟踪指蹼位置的方法及其装置 |
CN108228931B (zh) * | 2016-12-15 | 2022-09-06 | 北京金风科创风电设备有限公司 | 风力发电机样机用地形的评估方法和装置 |
CN106643701B (zh) * | 2017-01-16 | 2019-05-14 | 深圳优地科技有限公司 | 一种机器人互相检测方法及装置 |
CN107990846B (zh) * | 2017-11-03 | 2020-01-31 | 西安电子科技大学 | 基于单帧结构光的主被动结合深度信息获取方法 |
CN108122254B (zh) * | 2017-12-15 | 2021-06-22 | 中国科学院深圳先进技术研究院 | 基于结构光的三维图像重建方法、装置及存储介质 |
CN108122280A (zh) * | 2017-12-20 | 2018-06-05 | 北京搜狐新媒体信息技术有限公司 | 一种三维点云的重建方法及装置 |
CN108562274B (zh) * | 2018-04-20 | 2020-10-27 | 南京邮电大学 | 一种基于标志器的非合作目标位姿测量方法 |
CN108876862B (zh) * | 2018-07-13 | 2021-12-07 | 北京控制工程研究所 | 一种非合作目标点云位置姿态计算方法 |
CN109035338B (zh) * | 2018-07-16 | 2020-11-10 | 深圳辰视智能科技有限公司 | 一种基于单尺度特征的点云与图片融合方法、装置及其设备 |
CN109785349A (zh) * | 2019-01-07 | 2019-05-21 | 哈尔滨理工大学 | 一种基于圆模型的极坐标边缘编码方法 |
CN111739111B (zh) * | 2019-03-20 | 2023-05-30 | 上海交通大学 | 一种点云投影编码的块内偏移优化方法及*** |
CN110308459B (zh) * | 2019-06-30 | 2023-05-09 | 南京理工大学 | 不依赖模型的非合作卫星相对位姿测量方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419070A (zh) * | 2008-12-03 | 2009-04-29 | 南京航空航天大学 | 基于激光测距成像仪的相对位姿确定方法 |
EP2416113A2 (en) * | 2010-08-06 | 2012-02-08 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus and position and orientation measurement method |
CN102589526A (zh) * | 2011-12-23 | 2012-07-18 | 北京控制工程研究所 | 一种单基线非合作目标双目测量*** |
CN102589530A (zh) * | 2012-02-24 | 2012-07-18 | 合肥工业大学 | 基于二维相机和三维相机融合的非合作目标位姿测量方法 |
CN102788559A (zh) * | 2012-07-19 | 2012-11-21 | 北京航空航天大学 | 一种宽视场结构光视觉测量***及测量方法 |
-
2014
- 2014-12-31 CN CN201410844755.XA patent/CN105806315B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419070A (zh) * | 2008-12-03 | 2009-04-29 | 南京航空航天大学 | 基于激光测距成像仪的相对位姿确定方法 |
EP2416113A2 (en) * | 2010-08-06 | 2012-02-08 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus and position and orientation measurement method |
CN102589526A (zh) * | 2011-12-23 | 2012-07-18 | 北京控制工程研究所 | 一种单基线非合作目标双目测量*** |
CN102589530A (zh) * | 2012-02-24 | 2012-07-18 | 合肥工业大学 | 基于二维相机和三维相机融合的非合作目标位姿测量方法 |
CN102788559A (zh) * | 2012-07-19 | 2012-11-21 | 北京航空航天大学 | 一种宽视场结构光视觉测量***及测量方法 |
Non-Patent Citations (2)
Title |
---|
单站发射多站接收的空间目标激光测距技术;吴志波;《飞行器测控学报》;20120414;第33卷(第2期);第134-138页 * |
无合作目标测量中目标表面后向散射特性的实验研究;陶会荣;《红外与激光工程》;20141225;第43卷;第95-100页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105806315A (zh) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105806315B (zh) | 基于主动编码信息的非合作目标相对测量***及测量方法 | |
Pizzoli et al. | REMODE: Probabilistic, monocular dense reconstruction in real time | |
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
CN108615244B (zh) | 一种基于cnn和深度滤波器的图像深度估计方法及*** | |
CN109558879A (zh) | 一种基于点线特征的视觉slam方法和装置 | |
US10288425B2 (en) | Generation of map data | |
WO2015096508A1 (zh) | 一种模型约束下的在轨三维空间目标姿态估计方法及*** | |
WO2019011958A1 (en) | INVARIANT FACE ALIGNMENT SYSTEM AND METHOD FOR INSTALLATION | |
CN106485690A (zh) | 基于点特征的点云数据与光学影像的自动配准融合方法 | |
CN102697508A (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
US10755433B2 (en) | Method and system for scanning an object using an RGB-D sensor | |
CN109425348A (zh) | 一种同时定位与建图的方法和装置 | |
CN104268880A (zh) | 基于特征和区域匹配相结合的深度信息获取方法 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
Shin et al. | A multi-camera calibration method using a 3-axis frame and wand | |
Rhodes et al. | A concise guide to feature histograms with applications to LIDAR-based spacecraft relative navigation | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
CN116468786A (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN114742894A (zh) | 一种大场景下多相机标定方法、信息处理终端及存储介质 | |
Pan et al. | Vision-based approach angle and height estimation for UAV landing | |
Phan et al. | Towards 3D human posture estimation using multiple kinects despite self-contacts | |
Kupervasser et al. | Robust positioning of drones for land use monitoring in strong terrain relief using vision-based navigation | |
Zhang et al. | Object depth measurement from monocular images based on feature segments | |
Xu et al. | A real-time ranging method based on parallel binocular vision | |
Mirisola et al. | Trajectory recovery and 3d mapping from rotation-compensated imagery for an airship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |