CN118212268A - 一种基于软对应估计的类级别三维物体六维姿态跟踪方法 - Google Patents
一种基于软对应估计的类级别三维物体六维姿态跟踪方法 Download PDFInfo
- Publication number
- CN118212268A CN118212268A CN202410437068.XA CN202410437068A CN118212268A CN 118212268 A CN118212268 A CN 118212268A CN 202410437068 A CN202410437068 A CN 202410437068A CN 118212268 A CN118212268 A CN 118212268A
- Authority
- CN
- China
- Prior art keywords
- point
- dimensional
- frame
- correspondence
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000011218 segmentation Effects 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 106
- 238000012549 training Methods 0.000 claims description 28
- 230000002457 bidirectional effect Effects 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 19
- 238000013519 translation Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 13
- 238000009826 distribution Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000006185 dispersion Substances 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于软对应估计的类级别三维物体六维姿态跟踪方法,属于计算机视觉领域,在数据预处理模块,对视频流的第一帧中的目标物体进行位姿估计,得到目标物体的初始位姿,初始化后,对深度视频流的物体进行连续的六维姿态跟踪。在对应估计模块中,提取来自不同帧的点云数据的几何特征并估计不同点云之间点与点的对应关系。在对应扩展模块中,针对估计得到的对应关系进行对应扩张,使每一个点所关联的点的数量尽可能少。在基准帧模块中,随着时间的推进根据标准更新基准帧,以减小跟踪过程中的累计误差。本发明解决了在仅有深度视频流和初始帧检测和分割结果作为输入的情况下,对同一类别但此前从未见过的物体进行六维姿态跟踪。
Description
技术领域
本发明涉及一种基于软对应估计的类级别三维物体六维姿态跟踪方法,属于计算机视觉技术领域。
背景技术
在增强现实/混合现实应用中,三维物***姿跟踪模型的训练时间、跟踪的精确性以及流畅性是影响应用程序便利性的主要因素。基于深度神经网络的位姿跟踪方法在性能上表现出了优秀的性能,但是其需要针对特定的物体模型进行预先训练这一特点增加了其应用成本。
现有的大多数方法使用形状先验来替换传统跟踪算法中的实例级别模型,并试图在匹配过程中使形状先验变形以近似当前实例对象的形状。基于先验的方法可以在一定程度上部分捕捉类别内的变化,但它们在训练阶段需要大量的3D模型,并且可能难以完全考虑所有类别内的形状变化,由于形状先验无法完全达到实例级别模型的精度,导致其在应用中无法得到与实例级别跟踪同样的准确度。
发明内容
为了解决现有技术的不足,本发明提供一种基于软对应估计的类级别三维物体六维姿态跟踪方法,解决了在仅有深度视频流和初始帧检测和分割结果作为输入的情况下,对同一类别但此前从未见过的物体进行六维姿态跟踪。不需要针对特定的实例进行数据收集和模型参数的重新训练。
本发明的技术方案如下:
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,包括如下步骤:
S1:在数据预处理模块,通过现有相机标定方法预先获得相机内参,通过相机内参和深度视频流作为输入,反投影计算每一帧画面对应的三维点云数据,将来自两个不同输入点云分别进行均值化处理,以保证在训练阶段网络能够有效地估计视频帧之间的相对位置和姿态变化;
同时,选择深度视频流的第一帧图像,使用现有的目标检测方法检测目标物体所在区域,得到覆盖该区域的分割掩膜Minit(也被称为mask),并使用现有的类级别单帧位姿估计方法估计目标物体的六维姿态作为初始位姿,初始化过程结束;
S2:在帧间姿态估计模块中,使用三层感知机(MLP)提取S1获得的三维点云数据的几何特征,来自两帧的点云经过多层感知机得到两个特征向量,两个特征向量通过叉乘以计算不同特征向量之间的相似度,该相似度的表示形式为矩阵,称为对应矩阵,表示不同点之间的对应关系;
在训练过程中设计了软对应约束:使用已知的对应关系生成真实的对应矩阵,在真实对应矩阵的约束下训练特征提取网络的参数以估计正确的对应矩阵;
S3:在对应扩张模块中,使用k双向对应来控制对应矩阵中对应关系的分散程度,随着迭代次数增加逐渐缩小k的值,使对应矩阵映射后的原点云逐渐接近目标点云的形状。
优选的,在均值化时需要点云的中心点才能进行,如果简单使用点云的均值点作为中心点,当分割结果存在误差时,可能会导致背景点错误地包含在观测点云中,进而影响点云的标准化过程和中心位置的确定,从而影响网络在学习特征过程中的效果。为了解决这一问题,S1中均值化处理时,将来自两帧点云的所有点作为整体共同计算均值点作为中心点,从而有效避免背景点对点云中心定位的干扰;
S1中,初始位姿初始化结束后,从输入的深度视频流中选择当前需要匹配的两帧深度图像,通过深度图像与分割掩膜可以得到每个目标像素点的深度值z,由于相机是预先标定过的,相机的内部参数矩阵K为已知,能够获得目标二维像素点(u,v)在相机坐标系下反投影得到的三维点(x,y,z),如下公式所示:
优选的,S2中每层感知机由两个线性层与一个ReLU层组成,两个特征向量叉乘后,使用现有的sinkhorn算法迭代进行行列归一化,sinkhorn算法优选迭代5次,每次按顺序分别对矩阵的行和列进行归一化操作,最终得到表示对应关系的对应矩阵,反映不同点之间的特征的相似度。
通过利用前一视频帧中物体的已知位置数据,以及相机的运动数据,本发明创新性地提出一种方法,用于实现对当前视频帧的精确深度图像分割,由于物体和相机的运动是连续的,S1中假设在连续的视频帧之间物体相对于相机的位置变化是微小的,忽略不计,首先,使用前一帧,即第i帧的分割掩膜Mi(在初始情况下为初始分割掩膜Minit),获取目标物体在前一视频帧深度图像Dt-1上的像素坐标;在当前帧,即第j帧的深度图像上生成一系列不同大小的二维矩形包围盒Bj,k;随后,通过预设的步长(一般为1个像素)逐步扩大矩形包围盒Bi,k,并将其应用于当前帧的图像处理中,通过综合所有生成的分割结果,并选取其中置信度评分最高的分割结果作为当前帧j上最优的分割结果Bj,确保这些包围盒能够准确覆盖到目标物体;最后,矩形包围盒Bi,k作为输入数据,配合目标检测方法获得最终用于当前帧的分割掩膜Mj。
优选的,S2中的几何特征通过特征提取模块实现,使用点对特征(Point-PairFeature,PPF)来描述点云中每个点周围的邻域,以便以旋转不变的方式表示每个点的局部几何信息;特征提取模块立在PointNet++之上,以点对特征作为输入,并输出每个点云的局部几何特征Fi和Fj,局部几何特征Fi和Fj随后被送入特征匹配模块以估计点云之间的软对应关系。
优选的,S2中,使用三层感知机提取不同帧的相机坐标系下观测点云Pi和Pj的特征Fi和Fj,通过计算两特征向量的叉乘并行列归一化来得到两组特征之间的相似度得分,最终表示为对应矩阵A,通过对应矩阵Aij建立第j帧的点云Pj的点通与第i帧的点云Pi的点的软映射关系,反之亦然;Ai T j为对应矩阵Aij的转置,如公式所示:
Pj=AijPj
在训练阶段,归一化对应矩阵A的行列,建立三维空间点之间的一对一、一对多、多对一的“软对应”关系,而非严格的一对一的“硬对应”关系;
在训练阶段,已知的信息包括:每一帧的点云的在标准物体坐标空间(NormalizedObject Coordinate Space,NOCS)下的对应点云Ni和Nj,标准物体坐标空间变换到相机坐标空间的相对位姿变换Ti和Tj,则:
Pi=TiNi
Pj=TjNj
通过位姿变换Ti和Tj可以建立标准物体坐标空间与相机坐标空间的联系,标准物体坐标空间下的点云Ni和Nj与相机坐标空间下的观测点云Pi和Pj中的点是一一对应的,在标准坐标空间下,点云Ni和Nj的对应来自同一物体的点,且朝向和位置是相同的,能够获得Ni和Nj之间点的对应关系,进而获得观测点云Pi和Pj点的对应关系。
当估计得到对应矩阵后,其软对应性质会使得一个点云中的每个点在另一个点云中的权重一般不会集中在单个点上,而是分散在多个点上。据此,对应矩阵Aij能够在点云Pj的坐标空间中相对于Pi生成一个对应点云Pc。对应矩阵中的每一个元素都代表一个权重,这些权重的取值范围在0到1之间,且其总和为1,表明所有可能的权重组合生成的对应点云Pc都包含在点云P的空间内,并基于点云P中的点以加权方式组合而成,该空间可以被视为点云P中点的形状的多种变化。
基于软对应的特性导致权重在多点之间分散的情况,本发明提出了一种新策略“对应扩展”,该策略旨在逐步减小每一个点在另一点云中相关的区域。通过减少计算对应点时涉及的点数,来集中关联点的分布,该过程同样导致由矩阵Aij和点云P表示的空间的逐渐缩小,使得生成的对应点云更加贴近点云P的形状,从而有效地解决了“点云收缩”的问题。
优选的,S3中采用k双向对应控制对应矩阵A中对应关系的规模,利用点云Ni和Nj处于同一坐标空间下且属于同一物体的不同部分这一特性,使用最近邻(knn)算法为每一个点pa寻找半径r内的k个点pa,k,k=1,2,…,k作为其关联点;当来自点云Ni的点pa是来自点云Nj的点pb的关联点,同时pb也是点pa的关联点时,这组点(pa,pb)被视为相互关联的点对;
生成与对应矩阵A同样大小的矩阵Agt,将其中相互关联的点对对应的位置设置为1,其他位置设置为0;使用KL散度约束对应矩阵Agt与估计的对应矩阵Aij,使帧间位姿估计模块能够估计出表示帧间点云软对应关系的软对应矩阵。
优选的,使用双向对应距离(Bidirectional Correspondence Distance,BCD)进一步估计对应的置信度分数。通过对两组点云的特征相似性矩阵S进行转置,能够估计表示为对应矩阵Aij和Aji的双向对应关系,从而实现两组点云间相对姿态的估计。当对应关系为硬对应时,Aij和Aji是互逆的。然而,当对应关系为软对应并表示为软对应矩阵时,由于权重分散和行列归一化的影响,Aij和Aji通常不形成互逆关系。
通过利用双向对应关系,可以识别出权重分布过度分散的点。如上所述,点云Pi中的一个点Pc对应于点云Pj中的多个点Pc,k,并且当Pc,k在空间上分散时,在对应矩阵D中Aij和Aji中相应的点在Pj点云中将会非常远离那个点。基于这一现象,当对对应矩阵Aij和Aji进行逐点加权计算时,在空间距离上,生成的点p′ c在Pi中也会远离Pc的原始位置。
BCDi=Pi-AijAjiPi
BCDi表示第i帧点云的双向对应距离值。
所有的关联点对都对应着权重集中在特定区域的点,它们的双向对应距离BCD较小。这是因为这样的点的对应关系接近于硬对应,它们的对应矩阵线性组合受到的点数很少的影响。因此两个对应矩阵的组合本质上不改变它们的空间位置。
借助软对应矩阵估计可以准确地估计连续帧之间的相对姿态,在持续匹配过程中错误的累积是不可避免的。这些累积误差会逐渐将跟踪结果引向错误的方向,最终导致跟踪失败。这也是无法将点云注册方法直接应用于跟踪任务的原因之一。为了克服累积误差问题,本发明提出了一种参考帧策略,在跟踪开始时,初始帧的数据被保存为参考帧,在计算连续两帧之间的相对姿态,相邻帧之间的相对变换被应用于参考帧;然后,这一变换被应用于参考帧的点云;随后,参考帧被变换到当前帧的坐标***中;参考帧和当前帧的点云被视为相邻帧,并估计软对应矩阵来确定相对姿态;最后,多个阶段的姿态估计结果被累积,得出当前图像帧中目标物体的最终估计。参考帧策略用于在一定时间间隔内匹配帧,从而减少误差累积并提供更准确的姿态跟踪结果。
优选的,S2的训练过程中,通过标准物体坐标空间与相机坐标空间的标注信息,来获得不同点云的点之间的对应关系,并生成真实对应矩阵Agt,使用对应损失函数Lcorr约束网络的训练过程:
Lcorr=KL(Agt,Apred)
其中,KL()表示KL散度计算函数,用于衡量两个分布的相似程度,其值越大说明两个输入的矩阵表示的分布的差异越大;Apred为估计得到的对应矩阵;
同时,针对两帧点云通过已知的对应关系(可通过对应估计模块实现)估计得到的对应矩阵Aij和Aji,计算其双向损失,鼓励网络在估计的响应矩阵中聚合权重,在训练阶段,利用了双向对应特性;
式中,Pi和Pj分别为第i帧和第j帧的点云,Aij为表示从第j帧到第i帧对应关系的对应矩阵,Aji为表示从第i帧到第j帧对应关系的对应矩阵,L(·)表示L1损失函数;
最终阶段,将位姿变换损失函数Ltransform分为旋转损失Lrot和平移损失Lt,分别评估网络在估计旋转和平移时的性能,而不是将它们组合成单个统一的损耗函数。变换损失计算l1,使用预测变换[Rpred,tpred]变换的点云与地面实况变换[Rgt,tgt]之间的距离,如下列公式所示:
Ltransform=λrotLrot+λtLt
=λrot(RgtPi-RpredPi)+λt(tgt-tpred)
式中,λrot和λt分别表示旋转损失Lrot和平移损失Lt在变换损失中所占的比重;Tpred为最终估计得到的六维位姿,其包括三维的旋转和三维的位移;Tgt为目标物体真实的六维位姿;Rpred是位姿Tpred的旋转矩阵,而tpred是位姿Tpred的平移向量;Rgt是位姿Tgt的旋转矩阵,而tgt是位姿Tgt的平移向量。
本发明将深度视频流作为输出,在数据预处理模块,对视频流的第一帧中的目标物体进行位姿估计,得到目标物体的初始位姿。初始化完成后,开始对深度视频流的物体进行连续的六维姿态跟踪。在对应估计模块中,提取来自不同帧的点云数据的几何特征,并进行特征匹配,估计不同点云之间点与点的对应关系。在对应扩展模块中,针对估计得到的对应关系,进行对应扩张,使每一个点所关联的点的数量尽可能少,在经过对应矩阵映射后能够得到更准确的形状。在基准帧模块中,随着时间的推进根据标准更新基准帧,以减小跟踪过程中的累计误差。本发明解决了类级别物体难以使用深度视频流输出进行六维姿态跟踪的问题,针对具有相同几何特征的同类物体,即便模型在此前没有见过该物体,也能够跟踪其六维姿态。
本发明未详尽之处,均可参见现有技术。
本发明的有益效果为:
1、本发明在类级别三维物体六维姿态跟踪过程中,加入了三种约束:软对应约束,变换约束(现有同类方法中普遍使用,当整个跟踪流程结束后,将估计得到的位姿与真实位姿进行比较,检查是否相同)和双向对应约束,尤其是针对基于深度视频流的三维跟踪,为了解决深度图像上难以估计准确的关键点和关键点估计偏移,导致跟踪定位不准确的问题,本发明所设计的软对应约束有效解决了密集点云匹配时对应点分散的问题,能够将点云映射到更加接近目标点云的正确形状,从而使得三维物体六维姿态跟踪结果更加精确。
2、本方法深度视频流和第一帧画面中目标物体的分割结果和六维姿态,即使该同类物体在此前的训练数据中从来没有出现过,也可完成对该物体的六维姿态跟踪。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的基于软对应估计的类级别三维物体六维姿态跟踪方法各个模块协作的流程图;
图2为本发明在标准物体坐标空间数据集(NOCS-REAL275)在同一个场景下针对不同类别不同角度的跟踪结果图;其中(a)为角度一的跟踪结果图;(b)为角度二的跟踪结果图;(c)为角度三的跟踪结果图;(d)为角度四的跟踪结果图;(e)为角度五的跟踪结果图;(f)为角度六的跟踪结果图;
图3为本发明中软对应关系的估计流程、点云收缩问题和点云扩张后的效果图。
具体实施方式
为了使本技术领域的人员更好的理解本说明书中的技术方案,下面结合本说明书实施中的附图,对本发明书实施例中的技术方案进行清楚、完整的描述,但不仅限于此,本发明未详尽说明的,均按本领域常规技术。
实施例1
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如图1所示,包括如下步骤:
S1:在数据预处理模块,通过现有相机标定方法预先获得相机内参,通过相机内参和深度视频流作为输入,反投影计算每一帧画面对应的三维点云数据,将来自两个不同输入点云分别进行均值化处理,以保证在训练阶段网络能够有效地估计视频帧之间的相对位置和姿态变化;
同时,选择深度视频流的第一帧图像,使用现有的目标检测方法yolov8检测目标物体所在区域,然后使用FAST-SAM模型在检测得到的二维包围盒中分割出目标物体,得到覆盖该区域的分割掩膜Minit(也被称为mask),并使用现有的类级别单帧位姿估计方法(如GenPose、IST-Net)估计目标物体的六维姿态作为初始位姿;这一初始化过程结束后,开始对三维物体进行姿态跟踪;
S2:在帧间姿态估计模块中,使用三层感知机(MLP)提取S1获得的三维点云数据的几何特征,来自两帧的点云经过多层感知机得到两个特征向量,两个特征向量通过叉乘以计算不同特征向量之间的相似度,该相似度的表示形式为矩阵,称为对应矩阵,表示不同点之间的对应关系,如图3所示;
在训练过程中设计了软对应约束:使用已知的对应关系生成真实的对应矩阵,在真实对应矩阵的约束下训练特征提取网络的参数以估计正确的对应矩阵;
S3:在对应扩张模块中,使用k双向对应来控制对应矩阵中对应关系的分散程度,在S2过程中得到的对应矩阵中,每个点可能在另一个点云中与多个点关联,这会导致关联点加权得到的对应点在空间上趋向接近所有关联点的平均点,导致最终加权得到的整个点云形状错误,如图3点云收缩问题所示。k双向对应通过将对应矩阵中权重最大的k个点保留,来限制可以关联的点的数量,其他点权重置为0,并重新进行行列归一化。被排除的点不会继续参加归一化,无法被分配新的权重,也无法参与之后的加权过程。每个点在另一个点云中能够关联的点的数量受到数值k的限制,即最大不能超过k个。随着迭代次数增加,按预设的步长逐渐缩小k的值,k的值至小为3,使对应矩阵映射后的原点云逐渐接近目标点云的形状。
实施例2
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例1所述,所不同的是,在均值化时需要点云的中心点才能进行,如果简单使用点云的均值点作为中心点,当分割结果存在误差时,可能会导致背景点错误地包含在观测点云中,进而影响点云的标准化过程和中心位置的确定,从而影响网络在学习特征过程中的效果。为了解决这一问题,S1中均值化处理时,将来自两帧点云的所有点作为整体共同计算均值点作为中心点,从而有效避免背景点对点云中心定位的干扰;
S1中,初始位姿初始化结束后,从输入的深度视频流中选择当前需要匹配的两帧深度图像,通过深度图像与分割掩膜可以得到每个目标像素点的深度值z,由于相机是预先标定过的,相机的内部参数矩阵K为已知,能够获得目标二维像素点(u,v)在相机坐标系下反投影得到的三维点(x,y,z),如下公式所示:
实施例3
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例2所述,所不同的是,S2中每层感知机由两个线性层与一个ReLU层组成,两个特征向量叉乘后,使用现有的sinkhorn算法迭代进行行列归一化,sinkhorn算法优选迭代5次,每次按顺序分别对矩阵的行和列进行归一化操作,最终得到表示对应关系的对应矩阵,反映不同点之间的特征的相似度。
通过利用前一视频帧中物体的已知位置数据,以及相机的运动数据,本发明创新性地提出一种方法,用于实现对当前视频帧的精确深度图像分割,由于物体和相机的运动是连续的,S1中假设在连续的视频帧之间物体相对于相机的位置变化是微小的,忽略不计,首先,使用前一帧,即第i帧的分割掩膜Mi(在初始情况下为初始分割掩膜Minit),获取目标物体在前一视频帧深度图像Dt-1上的像素坐标;在当前帧,即第j帧的深度图像上生成一系列不同大小的二维矩形包围盒Bj,k;随后,通过预设的步长(一般为1个像素)逐步扩大矩形包围盒Bi,k,并将其应用于当前帧的图像处理中,通过综合所有生成的分割结果,并选取其中置信度评分最高的分割结果作为当前帧j上最优的分割结果Bj,确保这些包围盒能够准确覆盖到目标物体;最后,矩形包围盒Bi,k作为输入数据,配合目标检测方法获得最终用于当前帧的分割掩膜Mj。
S2中的几何特征通过特征提取模块实现,使用点对特征(Point-Pair Feature,PPF)来描述点云中每个点周围的邻域,以便以旋转不变的方式表示每个点的局部几何信息;特征提取模块立在PointNet++之上,以点对特征作为输入,并输出每个点云的局部几何特征Fi和Fj,局部几何特征Fi和Fj随后被送入特征匹配模块以估计点云之间的软对应关系。
实施例4
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例3所述,所不同的是,S2中,使用三层感知机提取不同帧的相机坐标系下观测点云Pi和Pj的特征Fi和Fj,通过计算两特征向量的叉乘并行列归一化来得到两组特征之间的相似度得分,最终表示为对应矩阵A,通过对应矩阵Aij建立第j帧的点云Pj的点通与第i帧的点云Pi的点的软映射关系,反之亦然;为对应矩阵Aij的转置,如公式所示:
Pj=AijPj
在训练阶段,归一化对应矩阵A的行列,建立三维空间点之间的一对一、一对多、多对一的“软对应”关系,而非严格的一对一的“硬对应”关系;
在训练阶段,已知的信息包括:每一帧的点云的在标准物体坐标空间(NormalizedObject Coordinate Space,NOCS)下的对应点云Ni和Nj,标准物体坐标空间变换到相机坐标空间的相对位姿变换Ti和Tj,则:
Pi=TiNi
Pj=TjNj
通过位姿变换Ti和Tj可以建立标准物体坐标空间与相机坐标空间的联系,标准物体坐标空间下的点云Ni和Nj与相机坐标空间下的观测点云Pi和Pj中的点是一一对应的,在标准坐标空间下,点云Ni和Nj的对应来自同一物体的点,且朝向和位置是相同的,能够获得Ni和Nj之间点的对应关系,进而获得观测点云Pi和Pj点的对应关系。
实施例5
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例4所述,所不同的是,当估计得到对应矩阵后,其软对应性质会使得一个点云中的每个点在另一个点云中的权重一般不会集中在单个点上,而是分散在多个点上。据此,对应矩阵Aij能够在点云Pj的坐标空间中相对于Pi生成一个对应点云Pc。对应矩阵中的每一个元素都代表一个权重,这些权重的取值范围在0到1之间,且其总和为1,表明所有可能的权重组合生成的对应点云Pc都包含在点云P的空间内,并基于点云P中的点以加权方式组合而成,该空间可以被视为点云P中点的形状的多种变化。
基于软对应的特性导致权重在多点之间分散的情况,本发明提出了一种新策略“对应扩展”,该策略旨在逐步减小每一个点在另一点云中相关的区域。通过减少计算对应点时涉及的点数,来集中关联点的分布,该过程同样导致由矩阵Aij和点云P表示的空间的逐渐缩小,使得生成的对应点云更加贴近点云P的形状,从而有效地解决了“点云收缩”的问题。
S3中采用k双向对应控制对应矩阵A中对应关系的规模,利用点云Ni和Nj处于同一坐标空间下且属于同一物体的不同部分这一特性,使用最近邻(knn)算法为每一个点pa寻找半径r内的k个点pa,k,k=1,2,…,k作为其关联点;当来自点云Ni的点pa是来自点云Nj的点pb的关联点,同时pb也是点pa的关联点时,这组点(pa,pb)被视为相互关联的点对;
生成与对应矩阵A同样大小的矩阵Agt,将其中相互关联的点对对应的位置设置为1,其他位置设置为0;使用KL散度约束对应矩阵Agt与估计的对应矩阵Aij,使帧间位姿估计模块能够估计出表示帧间点云软对应关系的软对应矩阵。
实施例6
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例5所述,所不同的是,使用双向对应距离(Bidirectional Correspondence Distance,BCD)进一步估计对应的置信度分数。通过对两组点云的特征相似性矩阵S进行转置,能够估计表示为对应矩阵Aij和Aji的双向对应关系,从而实现两组点云间相对姿态的估计。当对应关系为硬对应时,Aij和Aji是互逆的。然而,当对应关系为软对应并表示为软对应矩阵时,由于权重分散和行列归一化的影响,Aij和Aji通常不形成互逆关系。
通过利用双向对应关系,可以识别出权重分布过度分散的点。如上所述,点云Pi中的一个点Pc对应于点云Pj中的多个点Pc,k,并且当Pc,k在空间上分散时,在对应矩阵D中Aij和Aji中相应的点在Pj点云中将会非常远离那个点。基于这一现象,当对对应矩阵Aij和Aji进行逐点加权计算时,在空间距离上,生成的点p′ c在Pi中也会远离Pc的原始位置。
BCDi=Pi-AijAjiPi
BCDi表示第i帧点云的双向对应距离值。
所有的关联点对都对应着权重集中在特定区域的点,它们的双向对应距离BCD较小。这是因为这样的点的对应关系接近于硬对应,它们的对应矩阵线性组合受到的点数很少的影响。因此两个对应矩阵的组合本质上不改变它们的空间位置。
借助软对应矩阵估计可以准确地估计连续帧之间的相对姿态,在持续匹配过程中错误的累积是不可避免的。这些累积误差会逐渐将跟踪结果引向错误的方向,最终导致跟踪失败。这也是无法将点云注册方法直接应用于跟踪任务的原因之一。为了克服累积误差问题,本发明提出了一种参考帧策略,在跟踪开始时,初始帧的数据被保存为参考帧,在计算连续两帧之间的相对姿态,相邻帧之间的相对变换被应用于参考帧;然后,这一变换被应用于参考帧的点云;随后,参考帧被变换到当前帧的坐标***中;参考帧和当前帧的点云被视为相邻帧,并估计软对应矩阵来确定相对姿态;最后,多个阶段的姿态估计结果被累积,得出当前图像帧中目标物体的最终估计。参考帧策略用于在一定时间间隔内匹配帧,从而减少误差累积并提供更准确的姿态跟踪结果。
实施例7
一种基于软对应估计的类级别三维物体六维姿态跟踪方法,如实施例6所述,所不同的是,S2的训练过程中,通过标准物体坐标空间与相机坐标空间的标注信息,来获得不同点云的点之间的对应关系,并生成真实对应矩阵Agt,使用对应损失函数Lcorr约束网络的训练过程:
Lcorr=KL(Agt,Apred)
其中,KL()表示KL散度计算函数,用于衡量两个分布的相似程度,其值越大说明两个输入的矩阵表示的分布的差异越大;Apred为估计得到的对应矩阵;
同时,针对两帧点云通过已知的对应关系(可通过对应估计模块实现)估计得到的对应矩阵Aij和Aji,计算其双向损失,鼓励网络在估计的响应矩阵中聚合权重,在训练阶段,利用了双向对应特性;
式中,Pi和Pj分别为第i帧和第j帧的点云,Aij为表示从第j帧到第i帧对应关系的对应矩阵,Aji为表示从第i帧到第j帧对应关系的对应矩阵,L(·)表示L1损失函数,本发明对点云执行两个对应矩阵变换,并使用平滑的L1损失来约束它们相对于原始点云,有助于将对应矩阵的权重聚集到尽可能少的局部点上。
最终阶段,将位姿变换损失函数Ltransform分为旋转损失Lrot和平移损失Lt,分别评估网络在估计旋转和平移时的性能,而不是将它们组合成单个统一的损耗函数。变换损失计算l1,使用预测变换[Rpred,tpred]变换的点云与地面实况变换[Rgt,tgt]之间的距离,如下列公式所示:
Ltransform=λrotLrot+λtLt
=λrot(RgtPi-RpredPi)+λt(tgt-tpred)
式中,λrot和λt分别表示旋转损失Lrot和平移损失Lt在变换损失中所占的比重;Tpred为最终估计得到的六维位姿,其包括三维的旋转和三维的位移;Tgt为目标物体真实的六维位姿;Rpred是位姿Tpred的旋转矩阵,而tpred是位姿Tpred的平移向量;Rgt是位姿Tgt的旋转矩阵,而tgt是位姿Tgt的平移向量。
对发明与已有的同类方法(6-PACK,CAPTRA)在多种指标下进行对比,结果如表1所示:
表1:真实场景下本文提出的三维物体六维姿态跟踪方法与已有方法的对比精度结果
其中,Metric表示多种不同的度量指标,5°5cm和10°10cm表示旋转和平移两者都在限定范围以内的估计结果所占的百分比,例如5°5cm表示估计结果的旋转误差在5°以内,并且平移误差在5cm以内;Rerr表示跟踪的旋转误差,terr表示跟踪的平移误差,mIoU表示估计的位姿对应的包围盒与真实包围盒的交并比,IoU25和IoU50表示估计的位姿对应的包围盒与真实包围盒的交并比在限定值以上的百分比,例如IoU25表示估计的包围盒与真实的包围盒交并比在25%以上的帧所占序列中总帧数量的百分比;bottle、bowl、camera、can、laptop、mug分别代表六个不同的类别,每个类别对应三个或三个以上序列的评估结果,加粗表示该方法的误差在目前已有的同类算法中达到最好。
表2真实场景Wild6D数据集中本文的类级别三维物体六维姿态跟踪方法的精度结果
表2展示了在真实场景下Wild6D数据集中,本发明提出的方法在不同类别上的测试结果,从表1和表2可以看出,本发明的方法显著提高了类级别三维物体六维姿态跟踪的旋转和平移精度,并获得了最佳的类级别三维物体六维姿态跟踪结果,证明了本发明所提出方法的有效性。
图2展示了在同一个场景下针对瓶子、笔记本、相机、马克杯、易拉罐共5个类别物体不同角度的跟踪结果,图像中出现的5个物体在训练所用的数据中都是没有出现过的,以此证明本方法在面对新物体时的泛用性。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,包括如下步骤:
S1:在数据预处理模块,通过相机标定方法预先获得相机内参,通过相机内参和深度视频流作为输入,反投影计算每一帧画面对应的三维点云数据,将来自两个不同输入点云分别进行均值化处理,以保证在训练阶段网络能够有效地估计视频帧之间的相对位置和姿态变化;
同时,选择深度视频流的第一帧图像,使用目标检测方法检测目标物体所在区域,得到覆盖该区域的分割掩膜,并使用类级别单帧位姿估计方法估计目标物体的六维姿态作为初始位姿,初始化过程结束;
S2:在帧间姿态估计模块中,使用多层感知机提取S1获得的三维点云数据的几何特征,来自两帧的点云经过多层感知机得到两个特征向量,两个特征向量通过叉乘以计算不同特征向量之间的相似度,该相似度的表示形式为矩阵,称为对应矩阵,表示不同点之间的对应关系;
在训练过程中设计了软对应约束:使用已知的对应关系生成真实的对应矩阵,在真实对应矩阵的约束下训练特征提取网络的参数以估计正确的对应矩阵;
S3:在对应扩张模块中,使用k双向对应来控制对应矩阵中对应关系的分散程度,随着迭代次数增加逐渐缩小k的值,使对应矩阵映射后的原点云逐渐接近目标点云的形状。
2.根据权利要求1所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S1中均值化处理时,将来自两帧点云的所有点作为整体共同计算均值点作为中心点;
S1中,初始位姿初始化结束后,从输入的深度视频流中选择当前需要匹配的两帧深度图像,通过深度图像与分割掩膜得到每个目标像素点的深度值z,由于相机是预先标定过的,相机的内部参数矩阵K为已知,能够获得目标二维像素点(u,v)在相机坐标系下反投影得到的三维点(x,y,z),如下公式所示:
3.根据权利要求1所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S2中每层感知机由两个线性层与一个ReLU层组成,两个特征向量叉乘后,使用sinkhorn算法迭代进行行列归一化,sinkhorn算法迭代5次,每次按顺序分别对矩阵的行和列进行归一化操作,最终得到表示对应关系的对应矩阵,反映不同点之间的特征的相似度。
4.根据权利要求3所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S1中假设在连续的视频帧之间物体相对于相机的位置忽略不计,首先,使用前一帧,即第i帧的分割掩膜Mi,获取目标物体在前一视频帧深度图像Dt-1上的像素坐标;在当前帧,即第j帧的深度图像上生成一系列不同大小的二维矩形包围盒Bj,k;随后,通过预设的步长逐步扩大矩形包围盒Bi,k,并将其应用于当前帧的图像处理中,通过综合所有生成的分割结果,并选取其中置信度评分最高的分割结果作为当前帧j上最优的分割结果Bj;最后,矩形包围盒Bi,k作为输入数据,配合目标检测方法获得最终用于当前帧的分割掩膜Mj。
5.根据权利要求4所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S2中的几何特征通过特征提取模块实现,使用点对特征来描述点云中每个点周围的邻域,以便以旋转不变的方式表示每个点的局部几何信息;特征提取模块立在PointNet++之上,以点对特征作为输入,并输出每个点云的局部几何特征Fi和Fj,局部几何特征Fi和Fj随后被送入特征匹配模块以估计点云之间的软对应关系。
6.根据权利要求5所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S2中,使用三层感知机提取不同帧的相机坐标系下观测点云Pi和Pj的特征Fi和Fj,通过计算两特征向量的叉乘并行列归一化来得到两组特征之间的相似度得分,最终表示为对应矩阵A,通过对应矩阵Aij建立第j帧的点云Pj的点通与第i帧的点云Pi的点的软映射关系,反之亦然;为对应矩阵Aij的转置,如公式所示:
Pj=AijPj
在训练阶段,归一化对应矩阵A的行列,建立三维空间点之间的一对一、一对多、多对一的“软对应”关系;
在训练阶段,已知的信息包括:每一帧的点云的在标准物体坐标空间下的对应点云Ni和Nj,标准物体坐标空间变换到相机坐标空间的相对位姿变换Ti和Tj,则:
Pi=TiNi
Pj=TjNj
通过位姿变换Ti和Tj建立标准物体坐标空间与相机坐标空间的联系,标准物体坐标空间下的点云Ni和Nj与相机坐标空间下的观测点云Pi和Pj中的点是一一对应的,在标准坐标空间下,点云Ni和Nj的对应来自同一物体的点,且朝向和位置相同,能够获得Ni和Nj之间点的对应关系,进而获得观测点云Pi和Pj点的对应关系。
7.根据权利要求6所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S3中采用k双向对应控制对应矩阵A中对应关系的规模,利用点云Ni和Nj处于同一坐标空间下且属于同一物体的不同部分这一特性,使用最近邻算法为每一个点pa寻找半径r内的k个点pa,k,k=1,2,…,k作为其关联点;当来自点云Ni的点pa是来自点云Nj的点pb的关联点,同时pb也是点pa的关联点时,这组点(pa,pb)被视为相互关联的点对;
生成与对应矩阵A同样大小的矩阵Agt,将其中相互关联的点对对应的位置设置为1,其他位置设置为0;使用KL散度约束对应矩阵Agt与估计的对应矩阵Aij,使帧间位姿估计模块能够估计出表示帧间点云软对应关系的软对应矩阵。
8.根据权利要求7所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,软对应矩阵估计过程中,在跟踪开始时,初始帧的数据被保存为参考帧,在计算连续两帧之间的相对姿态,相邻帧之间的相对变换被应用于参考帧;然后,这一变换被应用于参考帧的点云;随后,参考帧被变换到当前帧的坐标***中;参考帧和当前帧的点云被视为相邻帧,并估计软对应矩阵来确定相对姿态;最后,多个阶段的姿态估计结果被累积,得出当前图像帧中目标物体的最终估计。
9.根据权利要求8所述的基于软对应估计的类级别三维物体六维姿态跟踪方法,其特征在于,S2的训练过程中,通过标准物体坐标空间与相机坐标空间的标注信息,来获得不同点云的点之间的对应关系,并生成真实对应矩阵Agt,使用对应损失函数Lcorr约束网络的训练过程:
Lcorr=KL(Agt,Apred)
其中,KL()表示KL散度计算函数,用于衡量两个分布的相似程度;Apred为估计得到的对应矩阵;
同时,针对两帧点云通过已知的对应关系估计得到的对应矩阵Aij和Aji,计算其双向损失,鼓励网络在估计的响应矩阵中聚合权重,在训练阶段,利用了双向对应特性;
式中,Pi和Pj分别为第i帧和第j帧的点云,Aij为表示从第j帧到第i帧对应关系的对应矩阵,Aji为表示从第i帧到第j帧对应关系的对应矩阵,表示L1损失函数;
最终阶段,将位姿变换损失函数Ltransform分为旋转损失Lrot和平移损失Lt,:
Ltransform=λrotLrot+λtLt
=λrot(RgtPi-RpredPi)+λt(tgt-tpred)
式中,λrot和λt分别表示旋转损失Lrot和平移损失Lt在变换损失中所占的比重;Tpred为最终估计得到的六维位姿,其包括三维的旋转和三维的位移;Tgt为目标物体真实的六维位姿;Rpred是位姿Tpred的旋转矩阵,而tpred是位姿Tpred的平移向量;Rgt是位姿Tgt的旋转矩阵,而tgt是位姿Tgt的平移向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410437068.XA CN118212268A (zh) | 2024-04-12 | 2024-04-12 | 一种基于软对应估计的类级别三维物体六维姿态跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410437068.XA CN118212268A (zh) | 2024-04-12 | 2024-04-12 | 一种基于软对应估计的类级别三维物体六维姿态跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118212268A true CN118212268A (zh) | 2024-06-18 |
Family
ID=91445943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410437068.XA Pending CN118212268A (zh) | 2024-04-12 | 2024-04-12 | 一种基于软对应估计的类级别三维物体六维姿态跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118212268A (zh) |
-
2024
- 2024-04-12 CN CN202410437068.XA patent/CN118212268A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | To learn or not to learn: Visual localization from essential matrices | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
Christiansen et al. | Unsuperpoint: End-to-end unsupervised interest point detector and descriptor | |
US9984280B2 (en) | Object recognition system using left and right images and method | |
KR100816607B1 (ko) | 화상 대조 시스템, 화상 대조 방법 및 컴퓨터로 판독가능한 기록 매체 | |
US9183444B2 (en) | Information processing apparatus, information processing method, and computer program | |
US7706601B2 (en) | Object posture estimation/correlation system using weight information | |
Jau et al. | Deep keypoint-based camera pose estimation with geometric constraints | |
CN101488187A (zh) | 可变形对象识别***和方法 | |
Dudek et al. | Vision-based robot localization without explicit object models | |
Ji et al. | RGB-D SLAM using vanishing point and door plate information in corridor environment | |
Belter et al. | Improving accuracy of feature-based RGB-D SLAM by modeling spatial uncertainty of point features | |
CN110570474B (zh) | 一种深度相机的位姿估计方法及*** | |
CN111768447A (zh) | 一种基于模板匹配的单目相机物***姿估计方法及*** | |
WO2023016182A1 (zh) | 位姿确定方法、装置、电子设备和可读存储介质 | |
Lee et al. | RS-SLAM: RANSAC sampling for visual FastSLAM | |
CN114494594B (zh) | 基于深度学习的航天员操作设备状态识别方法 | |
KR101715782B1 (ko) | 물체 인식 시스템 및 그 물체 인식 방법 | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及*** | |
CN115620016A (zh) | 一种骨架检测模型的构建方法、图像数据识别方法 | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
CN118212268A (zh) | 一种基于软对应估计的类级别三维物体六维姿态跟踪方法 | |
CN115457127A (zh) | 基于特征观测数和imu预积分的自适应协方差方法 | |
CN114155406A (zh) | 一种基于区域级特征融合的位姿估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |