CN111311679A - 一种基于深度相机的自由漂浮目标位姿估计方法 - Google Patents
一种基于深度相机的自由漂浮目标位姿估计方法 Download PDFInfo
- Publication number
- CN111311679A CN111311679A CN202010077687.4A CN202010077687A CN111311679A CN 111311679 A CN111311679 A CN 111311679A CN 202010077687 A CN202010077687 A CN 202010077687A CN 111311679 A CN111311679 A CN 111311679A
- Authority
- CN
- China
- Prior art keywords
- pose
- target
- point cloud
- template
- final
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000008569 process Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 12
- DSCFFEYYQKSRSV-KLJZZCKASA-N D-pinitol Chemical compound CO[C@@H]1[C@@H](O)[C@@H](O)[C@H](O)[C@H](O)[C@H]1O DSCFFEYYQKSRSV-KLJZZCKASA-N 0.000 claims abstract description 8
- 230000000007 visual effect Effects 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 25
- 238000009616 inductively coupled plasma Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000013519 translation Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 10
- 238000009499 grossing Methods 0.000 claims description 7
- 230000002159 abnormal effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及视觉定位领域,公开了一种基于深度相机的自由漂浮目标位姿估计方法,包括获取自由漂浮目标的RGB图像、深度图像以及点云信息;将目标的三维模型导入OpenGL中,选取合适的视点采集模板;利用采集的模板和RGB图像及深度图像对目标进行检测,计算相似度εs获得一组匹配模板;利用匹配模板包含的训练位姿信息(R,t)估计目标的初始位姿,得到初始姿态φinit和初始位置pinit;对点云进行预处理后,利用ICP算法对初始姿态进行修正,得到最终的位姿结果(φfinal,pfinal),从而完成对自由漂浮目标的位姿估计过程。
Description
技术领域
本发明涉及一种基于深度相机的自由漂浮目标位姿估计方法,属于视觉定位技术领域。
背景技术
随着空间探索的不断深入,在轨航天器数量越来越多,故障卫星和轨道垃圾也不断累积。利用空间机器人进行故障卫星抓捕、卫星维修、轨道垃圾清理成为近年来的热门研究方向。大多数目标都为非合作目标,处于自由漂浮状态。为了使空间机器人正确地抓捕目标,就需要准确估计目标抓捕点的位姿。目前主流的位姿估计方法有基于RGB图像和基于深度图像两种,前者提取彩色图中的特征点计算位姿,后者提取点云中的特征描述子进行计算和匹配位姿。两种方法的鲁棒性不高,并且对环境有较高的要求。本发明提出的方法结合了RGB图像、深度图像及点云信息,提高了准确率和计算效率的同时降低了对环境的要求。
发明内容
本发明提供了一种基于深度相机的自由漂浮目标位姿估计方法,结合了RGB图像和深度图像及点云信息,提高了准确率和计算效率的同时降低了对环境的要求。
本发明可通过以下技术方案实现:
一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,包含以下步骤:
步骤1、目标模板采集,将目标的三维模型导入OpenGL,选择视点,采集模板;
步骤2、对目标进行检测,利用采集到的模板和RGB图像、深度图像,利用基于模板匹配的方法对目标进行检测,得到一组匹配模板;
步骤3、目标的初始位姿计算,利用上一步匹配模板包含的训练位姿信息(R,t)计算目标的初始姿态φinit和初始位置pinit;
步骤4、目标位姿修正,点云预处理之后,基于ICP算法对位姿进行修正,得到最终的位姿结果(φfinal,pfinal)。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,所述模板采集过程中,包含视点采样和减少冗余度特征两个过程;视点采样具体操作过程为:将目标的三维模型导入OpenGL后,采用一个具有162个顶点的上半球,方位角的采样角度步长为15°;包围球的半径以步长10cm进行变化;同时为了采集平面内旋转的模板,相机在每个视点采集时绕自身的Z轴旋转,旋转角度步长设置为10°。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,对目标的检测中,采用基于模板匹配的方法,以RGB图像中的梯度方向和深度图像中的法向量方向为特征,定义模板为T=({Om}m∈M,P);
其中O是模板特征,表示梯度方向或者是法向量方向;M是模态,表示RGB图像或者是深度图像;P是一个二元组(r,m)的集合,r是特征在模板图像中的位置;
通过滑动窗口的方式,每张模板在位置c与图像T进行相似度计算:
其中,W表示一个以c+r为中心的窗口区域;t为该窗口区域中心的位置;当模板的相似度εs高于阈值τs时,该模板被匹配上。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,在目标的初始位姿计算中,由于上一步的检测结果包含一组模板,每个模板都含有一个训练位姿信息(R,t),利用这些训练位姿信息去计算目标的初始位姿;先进行姿态的计算,然后进行位置的计算。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,姿态计算中,基于RGB图像的通道色度剔除检测模板中的异常值,得到初始位姿;
每一个检测到的模板都会包含一个对目标姿态的粗略估计,根据姿态估计值考虑位于对象投影上的像素,并计算其中多少像素具有预期的颜色;如果投影像素和目标的像素之间的各通道灰度值之差小于规定阈值,则判定此像素具有预期的颜色;
具有预期颜色的像素百分比小于百分之七十,认定检测结果无效,剔除此模板;在操作过程中,通过预先对投影进行腐蚀以去除投影边界的像素;
通过剔除异常值后,余下的模板被认为可以为检测结果位姿提供足够的可信度,对这些模板的姿态求平均值,得到检测结果的初始姿态φinit。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,位置计算中,首先基于初始姿态φinit和训练距离d渲染物体的三维模型,得到物体在此视角下的模型点云和掩模图像,记此时物体的位置为prender=[0,0,d];然后将掩模图像投影到场景深度图像中,分割出与掩模对应的感兴趣区域;再利用相机内参把该感兴趣区域转换为三维点云,称之为场景点云;
最后物体的初始位置为:pinit=prender+t。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,利用ICP方法对点云进行配准实现位姿修正得到最终的位姿(φfinal,pfinal),基于给定三维参考点集S={s1,s2,...,sn},作为点云配准算法的目标;给定三维点集M={m1,m2,...,mn},M在迭代过程中不断地进行刚体转换,逐渐逼近S;目标函数为:
其中R代表旋转变换矩阵,t代表平移变换矩阵;目标函数代表找到一个刚体转换,使得转换后M和S的位置误差平方和最小;然后,利用经过ICP位姿修正后的旋转矩阵R和平移向量t更新检测结果的初始位姿(φinit,pinit),得到最终的位姿(φfinal,pfinal);具体包含两个点云预处理和点云配准两个过程;点云预处理包含去噪、点云平滑和点云降采样三个步骤:
所述去噪过程是利用高斯滤波去除离散的孤立点;点云平滑是利用移动最小二乘法(MLS)进行点云平滑;降采样是利用体素栅格来对点云进行降采样;
所述点云配准是利用ICP算法对预处理后的点云进行配准,实现位姿修正;在ICP算法中,给定三维参考点集S={s1,s2,...,sn},作为点云配准算法的目标;给定三维点集M={m1,m2,...,mn},M在迭代过程中不断地进行刚体转换,逐渐逼近S;目标函数为:
其中R代表旋转变换矩阵,t代表平移变换矩阵;目标函数代表找到一个刚体转换,使得转换后M和S的位置误差平方和最小;然后,利用经过ICP位姿修正后的旋转矩阵R和平移向量t更新检测结果的初始位姿(φinit,pinit),得到最终的位姿(φfinal,pfinal)。
在上述的一种基于深度相机的自由漂浮目标位姿估计方法,点云配准具体包括:
(1)初始化点集M;
(2)对于点集M中的每一个点mi,在S中搜索与其距离最近的点sj,构建一组对应点(mj,sj);
(3)使用一个距离阈值dt进行误匹配判断,即如果mi和sj的距离大于dt,则将该组对应点删除;
(4)通过最小化式的目标函数求得对应的旋转矩阵R和平移向量t;求得的R和t用于更新S,直到误差E(R,t)小于设定的阈值或者迭代次数大于设定的次数,停止迭代,否则返回(2)重新寻找最近点。
本发明有益的技术效果在于:
首先利用目标的三维模型进行模板采集,采集后减小了采集模板的特征冗余度,在保证识别精度的前提下提高了运算速度,具有高效的时效性。接下来结合RGB图像和深度图像,基于模板匹配方法,得到一组模板;在利用梯度特征时,忽略其大小而只使用其大小,使得对于太空场景背景有很强的适用性。然后根据RGB图像各通道强度特征对模板进行筛选,进而初步计算目标的位姿。最后结合ICP方法对位姿进行修正,得到最终的位姿识别结果,提高了识别的准确率。本发明简单可靠,操作方便,易于实现,便于推广应用。
附图说明
图1为本发明的流程示意图。
图2为自由漂浮目标抓取示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图2所示为自由漂浮目标抓捕示意图,目标的抓捕点选择具有较高识别度的推进器,将深度相机安装在机械臂基座上对目标进行RGB图像、深度图像和点云信息采集。
如图1所示,具体的步骤如下:
步骤一、目标模板采集:由于一张模板只能表示在单一视角下对物体的观测,因此要实现任意位姿下的三维物体检测,必须从多个视角和在不同距离下采集模板图像。模板采集包含以下两个步骤:
步骤Ⅰ、视点采样:将目标的三维模型导入OpenGL后,采用一个具有162个顶点的上半球,方位角的采样角度步长为15°。包围球的半径以步长10cm进行变化。同时为了采集平面内旋转的模板,相机在每个视点采集时绕自身的Z轴旋转,旋转角度步长设置为10°。
步骤Ⅱ、减少冗余度特征:为了加快运算速度,我们只使用采集到的模板特征的一部分。对于颜色梯度特征,只保留目标轮廓上的主要颜色渐变特征,因为我们针对的目标表面不一定会有纹理,并且获得的目标的三维模型不会详尽到附带纹理。对于表面法线特征,在目标轮廓内部选择表面法线特征,这是因为投影对象边界上的表面法线通常无法可靠估计或根本无法估计。
步骤二、目标的检测:采用基于模板匹配的方法,以RGB图像中的梯度方向和深度图像中的法向量方向为特征,定义模板为T=({Om}m∈M,P)。
其中O是模板特征,表示梯度方向或者是法向量方向;M是模态,表示RGB图像或者是深度图像;P是一个二元组(r,m)的集合,而r是特征在模板图像中的位置。
目标图像的采集通过图2所示的双目深度相机获取,深度相机固定在机械臂的基座上。
通过滑动窗口的方式,每张模板在位置c与输入图像I进行相似度计算:
其中,W表示一个以c+r为中心的窗口区域;t为该窗口区域中心的位置。当模板的相似度εs高于阈值τs时,该模板被匹配上。
由上式可以看出,在计算梯度特征的相似度时,计算余弦值之差的绝对值让黑色背景对此方法的检测准确率没有影响,对太空场景具有很强的适用性。
(1)梯度方向的计算:分别在图像的RGB三个通道进行计算,只保留模长值最大的梯度。对于RGB图像I,计算像素点x处梯度方向Ig(x):
(2)法向量的计算:在深度图像中用一阶泰勒展开的深度函数D(x),得到:
D(x+dx)-D(x)=dxT▽D+h.o.t.
X=v(x)D(x)
其中,v(x)是基于相机内参计算得到的过x的视线向量。然后,对向量X1-X和X2-X的叉乘结果做归一化的处理,得到像素点x的法向量。
步骤三、目标的初始位姿计算:由于上一步的检测结果包含一组模板,每个模板都含有一个训练位姿信息(R,t),因而利用这些训练位姿去计算目标的初始位姿。包含姿态的计算和位置的计算两个步骤。
步骤Ⅰ、姿态计算:基于RGB图像的每个通道灰度值剔除检测模板中的异常值,得到初始位姿。
每一个检测到的模板都会包含一个对目标姿态的粗略估计,根据姿态估计值考虑位于对象投影上的像素,并计算其中多少像素具有预期的颜色。如果投影像素和目标的像素之间的各通道灰度值之差小于规定阈值,则判定此像素具有预期的颜色。
具有预期颜色的像素百分比小于百分之七十,认定检测结果无效,剔除此模板。在操作过程中,通过预先对投影进行腐蚀以去除投影边界的像素。
处理抓捕目标的黑色和白色组件时将它们映射到类似颜色的通道灰度值:黑色映射到蓝色,白色映射到黄色。计算灰度值之差前,检查相应的饱和度和值分量。如果值分量低于阈值tv,则将色相设置为蓝色;如果值分量大于tv且饱和度分量小于阈值ts,则将色相设置为黄色。
通过剔除异常值后,余下的模板被认为可以为检测结果位姿提供足够的可信度,对这些模板的姿态求平均值,得到检测结果的初始姿态φinit。
步骤Ⅱ、位置计算:首先基于初始姿态φinit和训练距离d渲染物体的三维模型,得到物体在此视角下的模型点云和掩模图像,记此时物体的位置为prender=[0,0,d]。然后将掩模图像投影到场景深度图像中,分割出与掩模对应的感兴趣区域。再利用相机内参把该感兴趣区域转换为三维点云,称之为场景点云。
通过计算从模型点云到场景点云的平移向量t,补偿场景点云中心作为结果带来的偏差。计算模型点云和场景点云的几何中心和然后分别在模型点云和场景点云中搜索离和最近点的和并认为和是一组场景-模型对应点,最后将两点相减即可以得到平移向量t。
最后物体的初始位置为:pinit=prender+t。
步骤四、在位姿修正阶段,利用ICP算法对位姿进行修正,包含两个步骤:
步骤Ⅰ、进行点云预处理,包括点云去噪,点云平滑和点云降采样三个过程。
(1)去噪:采用高斯滤波去除点云中离散的孤立点。
(2)平滑:利用移动最小二乘法(MLS)进行点云平滑。
(3)降采样:使用体素栅格对点云进行降采样。
步骤Ⅱ、利用ICP算法对预处理后的点云进行配准,实现位姿修正。在ICP算法中,给定三维参考点集S={s1,s2,...,sn},作为点云配准算法的目标;给定三维点集M={m1,m2,...,mn},点集M在迭代过程中不断地进行刚体转换,逐渐逼近点集S。目标函数为:
其中R代表旋转变换矩阵,t代表平移变换矩阵。目标函数代表找到一个刚体转换,使得转换后点集M和点集S的位置误差平方和最小,包含以下过程:
(1)初始化:点集M必须处于一个与点集S相近的位置。
(2)寻找最近点:刚体转换矩阵的求解建立在点集S和点集M的对应关系上。ICP认为对应关系由最短距离来决定,即对于点集M中的每一个点mi,在S中搜索与其距离最近的点sj,构建一组对应点(mj,sj)。
(3)移除误匹配组:一般情况下,S点集的部分并不位于M中,由此上一步得到的部分对应点组(mi,sj)是错误的匹配。使用一个距离阈值dt进行误匹配判断,如果mi和sj的距离大于dt,则该组对应点应该排除。
(4)求解最优的刚体转换:通过目标函数求得对应的旋转矩阵R和平移向量t。求得的R和t用于更新点集S,直到误差E(R,t)小于设定的阈值或迭代次数大于设定的次数时,停止迭代,否则返回(2)重新寻找最近点。
最后,利用旋转矩阵R和平移向量t更新检测结果的初始位姿(φinit,pinit),得到最终的位姿(φfinal,pfinal)。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (8)
1.一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,包含以下步骤:
步骤1、目标模板采集,将目标的三维模型导入OpenGL,选择视点,采集模板;
步骤2、对目标进行检测,利用采集到的模板和RGB图像、深度图像,利用基于模板匹配的方法对目标进行检测,得到一组匹配模板;
步骤3、目标的初始位姿计算,利用上一步匹配模板包含的训练位姿信息(R,t)计算目标的初始姿态φinit和初始位置pinit;
步骤4、目标位姿修正,点云预处理之后,基于ICP算法对位姿进行修正,得到最终的位姿结果(φfinal,pfinal)。
2.根据权利要求1所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,所述模板采集过程中,包含视点采样和减少冗余度特征两个过程;视点采样具体操作过程为:将目标的三维模型导入OpenGL后,采用一个具有162个顶点的上半球,方位角的采样角度步长为15°;包围球的半径以步长10cm进行变化;同时为了采集平面内旋转的模板,相机在每个视点采集时绕自身的Z轴旋转,旋转角度步长设置为10°。
4.根据权利要求1所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,在目标的初始位姿计算中,由于上一步的检测结果包含一组模板,每个模板都含有一个训练位姿信息(R,t),利用这些训练位姿信息去计算目标的初始位姿;先进行姿态的计算,然后进行位置的计算。
5.根据权利要求1所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,姿态计算中,基于RGB图像的通道色度剔除检测模板中的异常值,得到初始位姿;
每一个检测到的模板都会包含一个对目标姿态的粗略估计,根据姿态估计值考虑位于对象投影上的像素,并计算其中多少像素具有预期的颜色;如果投影像素和目标的像素之间的各通道灰度值之差小于规定阈值,则判定此像素具有预期的颜色;
具有预期颜色的像素百分比小于百分之七十,认定检测结果无效,剔除此模板;在操作过程中,通过预先对投影进行腐蚀以去除投影边界的像素;
通过剔除异常值后,余下的模板被认为可以为检测结果位姿提供足够的可信度,对这些模板的姿态求平均值,得到检测结果的初始姿态φinit。
6.根据权利要求1所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,位置计算中,首先基于初始姿态φinit和训练距离d渲染物体的三维模型,得到物体在此视角下的模型点云和掩模图像,记此时物体的位置为prender=[0,0,d];然后将掩模图像投影到场景深度图像中,分割出与掩模对应的感兴趣区域;再利用相机内参把该感兴趣区域转换为三维点云,称之为场景点云;
最后物体的初始位置为:pinit=prender+t。
7.根据权利要求1所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,利用ICP方法对点云进行配准实现位姿修正得到最终的位姿(φfinal,pfinal),基于给定三维参考点集S={s1,s2,...,sn},作为点云配准算法的目标;给定三维点集M={m1,m2,...,mn},M在迭代过程中不断地进行刚体转换,逐渐逼近S;目标函数为:
其中R代表旋转变换矩阵,t代表平移变换矩阵;目标函数代表找到一个刚体转换,使得转换后M和S的位置误差平方和最小;然后,利用经过ICP位姿修正后的旋转矩阵R和平移向量t更新检测结果的初始位姿(φinit,pinit),得到最终的位姿(φfinal,pfinal);具体包含两个点云预处理和点云配准两个过程;点云预处理包含去噪、点云平滑和点云降采样三个步骤:
所述去噪过程是利用高斯滤波去除离散的孤立点;点云平滑是利用移动最小二乘法(MLS)进行点云平滑;降采样是利用体素栅格来对点云进行降采样;
所述点云配准是利用ICP算法对预处理后的点云进行配准,实现位姿修正;在ICP算法中,给定三维参考点集S={s1,s2,...,sn},作为点云配准算法的目标;给定三维点集M={m1,m2,...,mn},M在迭代过程中不断地进行刚体转换,逐渐逼近S;目标函数为:
其中R代表旋转变换矩阵,t代表平移变换矩阵;目标函数代表找到一个刚体转换,使得转换后M和S的位置误差平方和最小;然后,利用经过ICP位姿修正后的旋转矩阵R和平移向量t更新检测结果的初始位姿(φinit,pinit),得到最终的位姿(φfinal,pfinal)。
8.根据权利要求7所述的一种基于深度相机的自由漂浮目标位姿估计方法,其特征在于,点云配准具体包括:
(1)初始化点集M;
(2)对于点集M中的每一个点mi,在S中搜索与其距离最近的点sj,构建一组对应点(mj,sj);
(3)使用一个距离阈值dt进行误匹配判断,即如果mi和sj的距离大于dt,则将该组对应点删除;
(4)通过最小化式的目标函数求得对应的旋转矩阵R和平移向量t;求得的R和t用于更新S,直到误差E(R,t)小于设定的阈值或者迭代次数大于设定的次数,停止迭代,否则返回(2)重新寻找最近点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010077687.4A CN111311679B (zh) | 2020-01-31 | 2020-01-31 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010077687.4A CN111311679B (zh) | 2020-01-31 | 2020-01-31 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111311679A true CN111311679A (zh) | 2020-06-19 |
CN111311679B CN111311679B (zh) | 2022-04-01 |
Family
ID=71148278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010077687.4A Active CN111311679B (zh) | 2020-01-31 | 2020-01-31 | 一种基于深度相机的自由漂浮目标位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111311679B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784770A (zh) * | 2020-06-28 | 2020-10-16 | 河北工业大学 | 基于shot和icp算法的无序抓取中的三维姿态估计方法 |
CN111814792A (zh) * | 2020-09-04 | 2020-10-23 | 之江实验室 | 一种基于rgb-d图像的特征点提取与匹配方法 |
CN112465903A (zh) * | 2020-12-21 | 2021-03-09 | 上海交通大学宁波人工智能研究院 | 一种基于深度学习点云匹配的6dof物体姿态估计方法 |
CN112651944A (zh) * | 2020-12-28 | 2021-04-13 | 哈尔滨工业大学(深圳) | 基于cad模型的3c部件高精度六维位姿估计方法及*** |
CN112686950A (zh) * | 2020-12-04 | 2021-04-20 | 深圳市优必选科技股份有限公司 | 位姿估计方法、装置、终端设备及计算机可读存储介质 |
CN113239771A (zh) * | 2021-05-07 | 2021-08-10 | 中国科学院深圳先进技术研究院 | 一种姿态估计方法、***及其应用 |
CN113393522A (zh) * | 2021-05-27 | 2021-09-14 | 湖南大学 | 一种基于单目rgb相机回归深度信息的6d位姿估计方法 |
CN114049399A (zh) * | 2022-01-13 | 2022-02-15 | 上海景吾智能科技有限公司 | 一种结合rgbd图像的镜面定位方法 |
CN114781056A (zh) * | 2022-04-13 | 2022-07-22 | 南京航空航天大学 | 一种基于特征匹配的飞机整机外形测量方法 |
CN115063483A (zh) * | 2022-06-14 | 2022-09-16 | 广东天太机器人有限公司 | 一种基于2d图像识别的模板姿态修正方法及*** |
CN117197501A (zh) * | 2023-09-08 | 2023-12-08 | 南昌大学 | 一种基于模板匹配算法的目标检测方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101726296A (zh) * | 2009-12-22 | 2010-06-09 | 哈尔滨工业大学 | 空间机器人视觉测量、路径规划、gnc一体化仿真*** |
CN103777220A (zh) * | 2014-01-17 | 2014-05-07 | 西安交通大学 | 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法 |
DE102014005181A1 (de) * | 2014-04-03 | 2015-10-08 | Astrium Gmbh | Positions- und Lagebestimmung von Objekten |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106251353A (zh) * | 2016-08-01 | 2016-12-21 | 上海交通大学 | 弱纹理工件及其三维位姿的识别检测方法及*** |
CN107392845A (zh) * | 2017-07-31 | 2017-11-24 | 芜湖微云机器人有限公司 | 一种3d点云成像及定位的方法 |
CN109255813A (zh) * | 2018-09-06 | 2019-01-22 | 大连理工大学 | 一种面向人机协作的手持物***姿实时检测方法 |
CN109636854A (zh) * | 2018-12-18 | 2019-04-16 | 重庆邮电大学 | 一种基于line-mod模板匹配的增强现实三维跟踪注册方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN109885073A (zh) * | 2019-01-15 | 2019-06-14 | 西北工业大学 | 一种针对空间非合作目标自由漂浮运动状态的预测方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
CN110340891A (zh) * | 2019-07-11 | 2019-10-18 | 河海大学常州校区 | 基于点云模板匹配技术的机械臂定位抓取***及方法 |
CN110702091A (zh) * | 2019-07-24 | 2020-01-17 | 武汉大学 | 一种沿地铁轨道移动机器人的高精度定位方法 |
-
2020
- 2020-01-31 CN CN202010077687.4A patent/CN111311679B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101726296A (zh) * | 2009-12-22 | 2010-06-09 | 哈尔滨工业大学 | 空间机器人视觉测量、路径规划、gnc一体化仿真*** |
CN103777220A (zh) * | 2014-01-17 | 2014-05-07 | 西安交通大学 | 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法 |
DE102014005181A1 (de) * | 2014-04-03 | 2015-10-08 | Astrium Gmbh | Positions- und Lagebestimmung von Objekten |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106251353A (zh) * | 2016-08-01 | 2016-12-21 | 上海交通大学 | 弱纹理工件及其三维位姿的识别检测方法及*** |
CN107392845A (zh) * | 2017-07-31 | 2017-11-24 | 芜湖微云机器人有限公司 | 一种3d点云成像及定位的方法 |
CN109255813A (zh) * | 2018-09-06 | 2019-01-22 | 大连理工大学 | 一种面向人机协作的手持物***姿实时检测方法 |
CN109636854A (zh) * | 2018-12-18 | 2019-04-16 | 重庆邮电大学 | 一种基于line-mod模板匹配的增强现实三维跟踪注册方法 |
CN109885073A (zh) * | 2019-01-15 | 2019-06-14 | 西北工业大学 | 一种针对空间非合作目标自由漂浮运动状态的预测方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
CN110340891A (zh) * | 2019-07-11 | 2019-10-18 | 河海大学常州校区 | 基于点云模板匹配技术的机械臂定位抓取***及方法 |
CN110702091A (zh) * | 2019-07-24 | 2020-01-17 | 武汉大学 | 一种沿地铁轨道移动机器人的高精度定位方法 |
Non-Patent Citations (2)
Title |
---|
HAOXIANG CAO等: "The 3D map building of the mobile robot", 《2016 IEEE INTERNATIONAL CONFERENCE ON MECHATRONICS AND AUTOMATION》 * |
王月 等: "基于模型的增强现实无标识三维注册追踪方法", 《上海交通大学学报》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784770A (zh) * | 2020-06-28 | 2020-10-16 | 河北工业大学 | 基于shot和icp算法的无序抓取中的三维姿态估计方法 |
CN111784770B (zh) * | 2020-06-28 | 2022-04-01 | 河北工业大学 | 基于shot和icp算法的无序抓取中的三维姿态估计方法 |
CN111814792A (zh) * | 2020-09-04 | 2020-10-23 | 之江实验室 | 一种基于rgb-d图像的特征点提取与匹配方法 |
CN111814792B (zh) * | 2020-09-04 | 2020-12-29 | 之江实验室 | 一种基于rgb-d图像的特征点提取与匹配方法 |
CN112686950A (zh) * | 2020-12-04 | 2021-04-20 | 深圳市优必选科技股份有限公司 | 位姿估计方法、装置、终端设备及计算机可读存储介质 |
CN112686950B (zh) * | 2020-12-04 | 2023-12-15 | 深圳市优必选科技股份有限公司 | 位姿估计方法、装置、终端设备及计算机可读存储介质 |
CN112465903A (zh) * | 2020-12-21 | 2021-03-09 | 上海交通大学宁波人工智能研究院 | 一种基于深度学习点云匹配的6dof物体姿态估计方法 |
CN112651944B (zh) * | 2020-12-28 | 2023-08-22 | 哈尔滨工业大学(深圳) | 基于cad模型的3c部件高精度六维位姿估计方法及*** |
CN112651944A (zh) * | 2020-12-28 | 2021-04-13 | 哈尔滨工业大学(深圳) | 基于cad模型的3c部件高精度六维位姿估计方法及*** |
CN113239771A (zh) * | 2021-05-07 | 2021-08-10 | 中国科学院深圳先进技术研究院 | 一种姿态估计方法、***及其应用 |
CN113393522A (zh) * | 2021-05-27 | 2021-09-14 | 湖南大学 | 一种基于单目rgb相机回归深度信息的6d位姿估计方法 |
CN114049399A (zh) * | 2022-01-13 | 2022-02-15 | 上海景吾智能科技有限公司 | 一种结合rgbd图像的镜面定位方法 |
CN114049399B (zh) * | 2022-01-13 | 2022-04-12 | 上海景吾智能科技有限公司 | 一种结合rgbd图像的镜面定位方法 |
CN114781056B (zh) * | 2022-04-13 | 2023-02-03 | 南京航空航天大学 | 一种基于特征匹配的飞机整机外形测量方法 |
CN114781056A (zh) * | 2022-04-13 | 2022-07-22 | 南京航空航天大学 | 一种基于特征匹配的飞机整机外形测量方法 |
CN115063483A (zh) * | 2022-06-14 | 2022-09-16 | 广东天太机器人有限公司 | 一种基于2d图像识别的模板姿态修正方法及*** |
CN115063483B (zh) * | 2022-06-14 | 2023-04-11 | 广东天太机器人有限公司 | 一种基于2d图像识别的模板姿态修正方法及*** |
CN117197501A (zh) * | 2023-09-08 | 2023-12-08 | 南昌大学 | 一种基于模板匹配算法的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111311679B (zh) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111311679B (zh) | 一种基于深度相机的自由漂浮目标位姿估计方法 | |
CN109544456B (zh) | 基于二维图像和三维点云数据融合的全景环境感知方法 | |
CN111062990B (zh) | 一种面向水下机器人目标抓取的双目视觉定位方法 | |
Pizarro et al. | Toward large-area mosaicing for underwater scientific applications | |
CN111721259B (zh) | 基于双目视觉的水下机器人回收定位方法 | |
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN108776989B (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN111862201A (zh) | 一种基于深度学习的空间非合作目标相对位姿估计方法 | |
CN110569861B (zh) | 一种基于点特征和轮廓特征融合的图像匹配定位方法 | |
CN111079545A (zh) | 一种基于图像修复的三维目标检测方法和*** | |
CN108225319B (zh) | 基于目标特征的单目视觉快速相对位姿估计***及方法 | |
CN111784655B (zh) | 一种水下机器人回收定位方法 | |
CN110021029B (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN110222661B (zh) | 一种用于运动目标识别及跟踪的特征提取方法 | |
CN110245566B (zh) | 一种基于背景特征的红外目标远距离追踪方法 | |
CN113658337A (zh) | 一种基于车辙线的多模态里程计方法 | |
CN107944350B (zh) | 一种基于外观和几何信息融合的单目视觉道路识别方法 | |
CN114549549B (zh) | 一种动态环境下基于实例分割的动态目标建模跟踪方法 | |
CN116152068A (zh) | 一种可用于太阳能板图像的拼接方法 | |
CN115641367A (zh) | 一种基于多级特征匹配的红外和可见光图像配准方法 | |
CN109064473B (zh) | 一种2.5d超声宽景图像分割方法 | |
CN104156933A (zh) | 一种基于光流场的图像配准方法 | |
CN117611525A (zh) | 一种受电弓滑板磨耗视觉检测方法和*** | |
CN117372244A (zh) | 基于二维阵列表示的大场景特征立体匹配方法 | |
WO2024035917A1 (en) | Autonomous solar installation using artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |