CN110400349B - 基于随机森林的小场景下机器人导航跟踪恢复方法 - Google Patents
基于随机森林的小场景下机器人导航跟踪恢复方法 Download PDFInfo
- Publication number
- CN110400349B CN110400349B CN201910593421.2A CN201910593421A CN110400349B CN 110400349 B CN110400349 B CN 110400349B CN 201910593421 A CN201910593421 A CN 201910593421A CN 110400349 B CN110400349 B CN 110400349B
- Authority
- CN
- China
- Prior art keywords
- training
- random
- layer
- images
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000007637 random forest analysis Methods 0.000 title claims abstract description 31
- 238000011084 recovery Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 88
- 239000011159 matrix material Substances 0.000 claims abstract description 43
- 230000009466 transformation Effects 0.000 claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于随机森林的小场景下机器人导航跟踪恢复方法,包括以下步骤,(1)选定一需要跟踪的场景,使用RGB‑D相机对场景进行多次拍摄;(2)利用三维重建算法获取每组图像的变换矩阵,共得到M个变换矩阵;(3)获得训练标签和训练特征;(4)用训练标签和训练特征训练一随机森林模型T;(5)机器人若跟踪失败,采用RGB‑D相机对场景进行1次拍摄;(6)从该组图像的的RGB图中随机采样数个像素点,计算每个像素点对应的随机特征,并将所有随机特征送入T中训练,输出所有随机特征对应的3D世界坐标;最终根据得出的变换矩阵确定自身位姿,导航跟踪恢复完成。
Description
技术领域
本发明涉及一种机器人恢复跟踪的方法,尤其涉及一种基于随机森林的小场景下机器人导航跟踪恢复方法。
背景技术
随着机器人技术的发展,机器人的自动寻路和建图功能在机器人技术中有着重要的地位,这个过程中机器人需要知道自己相对于现实世界的位置和和自身的姿态,所以机器人的跟踪问题一直是一个机器人学中的热点问题。
随着vSLAM(Visual Simultaneous Localization and Mapping)技术的发展,在机器人跟踪失败后,恢复机器人跟踪变得非常重要,对此,人们也研究出了许多种跟踪恢复的方法。跟踪恢复的重点在于计算出机器人在跟踪失败后的正确6D位姿,得到正确的6D位置后,机器人就能够知道自己相对于现实世界的正确位姿,从而恢复跟踪。
S.Se和D.G.Lowe等人提出的基于局部特征的方法,其思想是先提取已知位姿的图像和未知位姿的图像特征点,并计算描述子,利用P3P算法和RANSAC算法进行位姿计算和优化,这种方法的缺点在于通常使用SIFT特征或SURF特征,而这些特征的计算以及其描述子的计算耗时长,实时性无法保证。
G.Klein和D.Murray提出的基于关键帧的方法,通过查询已知图像与关键帧的相似性,推断出一个假设位姿,速度快,但当未知图像与已知图像相似性差距很大时,假设位姿与真实位姿可能相差较大。
剑桥大学的Alex Kendall,Matthew Grimes和Roberto Cipolla提出的PoseNet利用深度学习,利用一张RGB图直接预测图像位姿,但是这种方法由于其计算复杂度高,耗时长,精度较低而无法满足实时跟踪恢复的要求。
发明内容
本发明的目的就在于提供一种解决上述问题,利用RGB-D图计算训练特征和训练标签,训练随机森林预测3D场景坐标,再通过坐标关系恢复跟踪,从而使恢复简单、时间段、精度高的基于随机森林的小场景下机器人导航跟踪恢复方法。
为了实现上述目的,本发明采用的技术方案是这样的:一种基于随机森林的小场景下机器人导航跟踪恢复方法,包括以下步骤:
(1)选定一需要跟踪的场景,使用RGB-D相机对场景进行M次随机拍摄,得到M组图像,每组图像包括一RGB图和一深度图;
(2)利用三维重建算法获取每组图像的变换矩阵,共得到M个变换矩阵;
(3)获得训练标签和训练特征;
(31)从第一组图像的RGB图中随机采样数个像素点,计算每个像素点对应的3D世界坐标和随机特征,且该像素点的3D世界坐标和随机特征一一对应;
(32)将剩下的M-1组图像,按步骤(31)的方法,得到随机采样的像素点,以及与像素点对应的3D世界坐标和随机特征,并以3D世界坐标作为模型的训练标签,以随机特征作为模型的训练特征;
(4)用训练标签和训练特征训练一随机森林模型T;
(41)将所有训练特征排序,从排序后的训练特征随机挑选数个训练特征构成随机集合,预设采用树平衡方法的层数为A层,数的深度阈值为B层,A<B;
(42)采用树平衡方法获取第1到第A层的节点的***参数,采用最小化空间方差方法获取第A+1层到第B层的节点的***参数;
(43)每一层的***节点构成随机森林模型T;
(5)机器人开始跟踪,若跟踪失败,采用RGB-D相机对场景进行1次拍摄,得到一组图像,该组图像包括一RGB图和一深度图;
(6)从该组图像的的RGB图中随机采样数个像素点,计算每个像素点对应的随机特征,并将所有随机特征送入T中,输出所有随机特征对应的3D世界坐标;
(7)根据步骤(6)得到的3D世界坐标获得一预测变换矩阵;
(8)机器人获取步骤(7)的预测变换矩阵,确定自身位姿,导航跟踪恢复完成。
作为优选:所述步骤(2)中,对每组图像采用KinectFusion三维重建方法获取变换矩阵。
作为优选:所述步骤(31)具体为:
选取一个像素点,采用下式计算该像素点3D世界坐标X,并根据3D世界坐标X计算该像素点的世界坐标W1;
X=K-1*P*D(P);
W1=HX;
其中,K为相机的内参矩阵,K-1表示内参矩阵的逆矩阵,P为该像素点的向量,D(P)为该像素点对应深度图中的深度值,H为该像素点所在的RGB图对应的变换矩阵;
采用下式计算该像素点的随机特征Fp,
其中,c1和c2表示RGB图像中3个图像通道中随机两个通道,I(P,c1)表示向量P处通道c1上的像素值,δ表示像素坐标上的2D偏移量。
作为优选:所述步骤(42)中:
树平衡方法获取第1到第A层的节点的***参数具体为:
A1.构建第一层的节点;
对随机集合内每个训练特征采用下式计算其平衡参数Qb,选出最小的Qb所对应的训练特征,将其作为第一层的节点的***参数;
式中,SL为当前训练特征左边的训练特征个数,SR为当前训练特征右边的训练特征个数;
A2.将用作上一层节点***参数的训练特征的左、右两边训练特征分别构成一数据集,利用A1同样的方法找出每个数据集中最小的Qb所对应的训练特征,将其作为下一层节点的***参数;
A3.重复步骤A2,直到找到A层的节点;
最小化空间方差方法获取第A+1层到第B层的节点的***参数具体为:
B1.将A层所有***节点两端的训练特征分别构成一数据集,对数据集内每个训练特征采用下式计算空间方差Qv,找出该数据集中Qv最小的训练特征,将其作为A+1层的节点的***参数;
其中n表示树的节点索引,m表示计算得到的训练标签,S表示随机选择的已标记好的像素点(p,m)的集合,Sn表示在节点n处的完整集合,L表示左子树,R表示右子树,表示左子树或者右子树的集合,表示S中m的均值;
B2.按照B1的方法,计算第A+2层到B层节点的***参数。
作为优选:步骤(7)中,获得一预测变换矩阵的具体方法为:
对3D世界坐标用Kabsch方法计算得出位姿矩阵,并用RANSAC算法优化位姿矩阵最终得到预测变换矩阵。
与现有技术相比,本发明的优点在于:不需要进行特征点和描述子的计算,不需要对图片进行匹配,只需要提前训练一个随机森林模型。且本发明中,构建随机森林模型的方法很特殊,采用了树平衡方法和最小化空间方差方法共同来构建随机森林模型,且在树平衡方法中,根据我们自己的公式和方法来获取Qb,最终本方法在实际使用时可以缩短时间,与深度学习的方法相比,准确性更高,训练和测试时间也更短。
附图说明
图1为本发明流程图;
图2为实施例2中角度真值与估值对比图;
图3为实施例2中位移真值与估值对比图;
图4为图2中角度真值与估值误差图;
图5为图4中位移真值与估值误差图。
具体实施方式
下面将结合附图对本发明作进一步说明。
实施例1:参见图1,一种基于随机森林的小场景下机器人导航跟踪恢复方法,包括以下步骤:
(1)选定一需要跟踪的场景,使用RGB-D相机对场景进行M次随机拍摄,得到M组图像,每组图像包括一RGB图和一深度图;
(2)利用三维重建算法获取每组图像的变换矩阵,共得到M个变换矩阵;
(3)获得训练标签和训练特征;
(31)从第一组图像的RGB图中随机采样数个像素点,计算每个像素点对应的3D世界坐标和随机特征,且该像素点的3D世界坐标和随机特征一一对应;
(32)将剩下的M-1组图像,按步骤(31)的方法,得到随机采样的像素点,以及与像素点对应的3D世界坐标和随机特征,并以3D世界坐标作为模型的训练标签,以随机特征作为模型的训练特征;
(4)用训练标签和训练特征训练一随机森林模型T;
(41)将所有训练特征排序,从排序后的训练特征随机挑选数个训练特征构成随机集合,预设采用树平衡方法的层数为A层,数的深度阈值为B层,A<B;
(42)采用树平衡方法获取第1到第A层的节点的***参数,采用最小化空间方差方法获取第A+1层到第B层的节点的***参数;
(43)每一层的***节点构成随机森林模型T;
(5)机器人开始跟踪,若跟踪失败,采用RGB-D相机对场景进行1次拍摄,得到一组图像,该组图像包括一RGB图和一深度图;
(6)从该组图像的的RGB图中随机采样数个像素点,计算每个像素点对应的随机特征,并将所有随机特征送入T中,输出所有随机特征对应的3D世界坐标;
(7)根据步骤(6)得到的3D世界坐标获得一预测变换矩阵;
(8)机器人获取步骤(7)的预测变换矩阵,确定自身位姿,导航跟踪恢复完成。
本实施例中:所述步骤(2)中,对每组图像采用KinectFusion三维重建方法获取变换矩阵。
所述步骤(31)具体为:
选取一个像素点,采用下式计算该像素点3D世界坐标X,并根据3D世界坐标X计算该像素点的世界坐标W1;
X=K-1*P*D(P);
W1=HX;
其中,K为相机的内参矩阵,K-1表示内参矩阵的逆矩阵,P为该像素点的向量,D(P)为该像素点对应深度图中的深度值,H为该像素点所在的RGB图对应的变换矩阵;
采用下式计算该像素点的随机特征Fp:
其中,c1和c2表示RGB图像中3个图像通道中随机两个通道,I(P,c1)表示向量P处通道c1上的像素值,δ表示像素坐标上的2D偏移量。
所述步骤(42)中:
树平衡方法获取第1到第A层的节点的***参数具体为:
A1.构建第一层的节点;
对随机集合内每个训练特征采用下式计算其平衡参数Qb,选出最小的Qb所对应的训练特征,将其作为第一层的节点的***参数;
式中,SL为当前训练特征左边的训练特征个数,SR为当前训练特征右边的训练特征个数;
A2.将用作上一层节点***参数的训练特征的左、右两边训练特征分别构成一数据集,利用A1同样的方法找出每个数据集中最小的Qb所对应的训练特征,将其作为下一层节点的***参数;
A3.重复步骤A2,直到找到A层的节点;
最小化空间方差方法获取第A+1层到第B层的节点的***参数具体为:
B1.将A层所有***节点两端的训练特征分别构成一数据集,对数据集内每个训练特征采用下式计算空间方差Qv,找出该数据集中Qv最小的训练特征,将其作为A+1层的节点的***参数;
其中n表示树的节点索引,m表示计算得到的训练标签,S表示随机选择的已标记好的像素点(p,m)的集合,Sn表示在节点n处的完整集合,L表示左子树,R表示右子树,表示左子树或者右子树的集合,表示S中m的均值;
B2.按照B1的方法,计算第A+2层到B层节点的***参数。
步骤(7)中,获得一预测变换矩阵的具体方法为:
对3D世界坐标用Kabsch方法计算得出位姿矩阵,并用RANSAC算法优化位姿矩阵最终得到预测变换矩阵。
本发明中,所有坐标都采用齐次坐标的记法;而且,本实施例中,不采取对所有像素点都进行计算的策略,而仅仅计算被随机选中的像素点的随机特征,计算好的随机特征和训练标签一一对应并组合成队列,用于训练随机森林。
本实施例提到了一个平衡参数Qb,这样做的好处在于,不用真实的计算出左右子树的节点个数就可以推断出子树是否平衡,减小了计算的时间复杂度,缩短训练时间,并且,当左右子树大致平衡时,可以杜绝任意一边子树深度差异过大导致的数据部分过拟合或欠拟合,最后选择计算结果最小的随机特征作为节点***的***参数,值得说明的一点是,左右子树节点个数都应大于设定的最小节点个数。
本实施例中,最小化空间方差方法是在第A+1层到第B层使用,当层数大于A时,我们采用此方法来获得分类参数。而全部采用最小化空间方差的方式来生成随机森林是传统的随机森林生成方式。本发明对其进行了改进,仅仅在A+1层到B层的时候使用,其余采用树平衡方法。
本实施例中,为了更好的说明树平衡方法,我们举例如下:
我们假设步骤(41)中得到很多个训练特征,随机抽取10个进行排序,预设采用树平衡方法的层数为2层,则当层数小于等于2时,采用树平衡方法,其余层采用最小化空间方差方法。训练特征见下表1:
表1:随机抽取10个训练特征排序后的表
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
(1)采用Qb的计算公式,对10个训练特征就行计算,找出随机特征6的Qb最小,就用6作为***参数,左边的数据集为1、2、3、4、5,右边的数据集为8、9、10,左边的数据集给左子树,右边的给右子树,第一层因为只有一个节点,所以第一层建完了。
(2)开始建第二层:因为层数还在两层内,所以左右子树各自用上一层分给自己的特征集合来进行同样的操作,这样各自会选出自己的节点,假设左子树选出的3,右子树选出的8,这样,就会得到4个集合,把他们分别给节点自己的左右子树,然后开始建第三层。
(3)第三层:层数大于2层了,所以用最小化空间方差的方法找Qv,以最小的Qv对应的训练特征来作为***参数。
这样一直重复,直到达到阈值B。
实施例2:参见图1到图5,本实施例的一种基于随机森林的小场景下机器人导航跟踪恢复方法,包括以下步骤:
(1)选定一需要跟踪的场景,使用RGB-D相机对场景进行M次随机拍摄,得到M组图像,每组图像包括一RGB图和一深度图;本实施例直接采用斯坦福大学的公开数据集4-Scenes中的室内图像集kitchen,图像大小为640*480,训练图片550组RGB-D图,测试图片共520组RGB-D图,室内图像集kitchen均包含变换矩阵的信息,我们将其作为真值;
(2)(3)(4)与实施例1相同,最终得到一随机森林模型T;
(5)机器人开始跟踪,若跟踪失败,采用RGB-D相机对场景进行1次拍摄,得到一组图像,该组图像包括一RGB图和一深度图。在这里,为了说明本实施例的效果,我们采用以下手段:
从室内图像集kitchen中,随机抽取多张测试图片,送入步骤(4)得到的随机森林模型T中进行测试,输出每组图片的预测变换矩阵,将其作为图像变换矩阵的估值;
实验结果分析:
为了方便对比,将变换矩阵解析成俯仰角、偏航角、滚转角、X方向、Y方向、Z方向6个值。图2是本发明实施例2中,520组图片计算出来的角度真值与估值的对比图,图3为本发明实施例2中,520组图片计算出来的位移真值与估值对比图;由于相似度特别高,我们补充了图4和图5,其中,图4为图2中角度真值与估值误差图,图5为图4中位移真值与估值误差图。
从图2到图5中可以看出,估值曲线和真值曲线重合度高,说明估计的位姿与真实位姿相似度高,角度误差值大部分位于-5°到+5°范围内,位移误差大部分位于-0.05m到+0.05m范围内,估值与真值相差小,误差范围也比较小,说明算法鲁棒性较好,算法运行的输出结果稳定,利用估值来恢复跟踪,能取得较好的效果。
实施例3:本发明与其他经典的算法相比较,本方法应用效果显著。
参见表2,角度使用5°标准,位移使用5cm标准,本方法测试结果达到92.7%的准确率,效果显著。
表2不同方法的结果对比
表2中,基于关键帧的方法使用的是全局关键帧匹配的方法,基于局部特征的方法分别采用了ORB特征和SIFT特征两种图像特征,利用深度学习的方法角度误差大于5°,位移误差大于50cm,所以在表中没有列出。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于随机森林的小场景下机器人导航跟踪恢复方法,其特征在于:包括以下步骤:
(1)选定一需要跟踪的场景,使用RGB-D相机对场景进行M次随机拍摄,得到M组图像,每组图像包括一RGB图和一深度图;
(2)利用三维重建算法获取每组图像的变换矩阵,共得到M个变换矩阵;
(3)获得训练标签和训练特征;
(31)从第一组图像的RGB图中随机采样数个像素点,计算每个像素点对应的3D世界坐标和随机特征,且该像素点的3D世界坐标和随机特征一一对应;
(32)将剩下的M-1组图像,按步骤(31)的方法,得到随机采样的像素点,以及与像素点对应的3D世界坐标和随机特征,并以3D世界坐标作为模型的训练标签,以随机特征作为模型的训练特征;
(4)用训练标签和训练特征训练一随机森林模型T;
(41)将所有训练特征排序,从排序后的训练特征随机挑选数个训练特征构成随机集合,预设采用树平衡方法的层数为A层,数的深度阈值为B层,A<B;
(42)采用树平衡方法获取第1到第A层的节点的***参数,采用最小化空间方差方法获取第A+1层到第B层的节点的***参数;
(43)每一层的***节点构成随机森林模型T;
(5)机器人开始跟踪,若跟踪失败,采用RGB-D相机对场景进行1次拍摄,得到一组图像,该组图像包括一RGB图和一深度图;
(6)从该组图像的的RGB图中随机采样数个像素点,计算每个像素点对应的随机特征,并将所有随机特征送入T中,输出所有随机特征对应的3D世界坐标;
(7)根据步骤(6)得到的3D世界坐标获得一预测变换矩阵;
(8)机器人获取步骤(7)的预测变换矩阵,确定自身位姿,导航跟踪恢复完成。
2.根据权利要求1所述的基于随机森林的小场景下机器人导航跟踪恢复方法,其特征在于:所述步骤(2)中,对每组图像采用KinectFusion三维重建方法获取变换矩阵。
4.根据权利要求1所述的基于随机森林的小场景下机器人导航跟踪恢复方法,其特征在于:所述步骤(42)中:
树平衡方法获取第1到第A层的节点的***参数具体为:
A1.构建第一层的节点;
对随机集合内每个训练特征采用下式计算其平衡参数Qb,选出最小的Qb所对应的训练特征,将其作为第一层的节点的***参数;
式中,SL为当前训练特征左边的训练特征个数,SR为当前训练特征右边的训练特征个数;
A2.将用作上一层节点***参数的训练特征的左、右两边训练特征分别构成一数据集,利用A1同样的方法找出每个数据集中最小的Qb所对应的训练特征,将其作为下一层节点的***参数;
A3.重复步骤A2,直到找到A层的节点;
最小化空间方差方法获取第A+1层到第B层的节点的***参数具体为:
B1.将A层所有***节点两端的训练特征分别构成一数据集,对数据集内每个训练特征采用下式计算空间方差Qv,找出该数据集中Qv最小的训练特征,将其作为A+1层的节点的***参数;
其中n表示树的节点索引,m表示计算得到的训练标签,S表示随机选择的已标记好的像素点(p,m)的集合,Sn表示在节点n处的完整集合,L表示左子树,R表示右子树,表示左子树或者右子树的集合,表示S中m的均值;
B2.按照B1的方法,计算第A+2层到B层节点的***参数。
5.根据权利要求1所述的基于随机森林的小场景下机器人导航跟踪恢复方法,其特征在于:步骤(7)中,获得一预测变换矩阵的具体方法为:
对3D世界坐标用Kabsch方法计算得出位姿矩阵,并用RANSAC算法优化位姿矩阵最终得到预测变换矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910593421.2A CN110400349B (zh) | 2019-07-03 | 2019-07-03 | 基于随机森林的小场景下机器人导航跟踪恢复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910593421.2A CN110400349B (zh) | 2019-07-03 | 2019-07-03 | 基于随机森林的小场景下机器人导航跟踪恢复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110400349A CN110400349A (zh) | 2019-11-01 |
CN110400349B true CN110400349B (zh) | 2022-04-15 |
Family
ID=68322729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910593421.2A Expired - Fee Related CN110400349B (zh) | 2019-07-03 | 2019-07-03 | 基于随机森林的小场景下机器人导航跟踪恢复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110400349B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255490A (zh) * | 2021-05-15 | 2021-08-13 | 成都理工大学 | 一种基于k-means聚类合并的无监督行人重识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898623A (zh) * | 2018-05-24 | 2018-11-27 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9940553B2 (en) * | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9626766B2 (en) * | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
US9613298B2 (en) * | 2014-06-02 | 2017-04-04 | Microsoft Technology Licensing, Llc | Tracking using sensor data |
-
2019
- 2019-07-03 CN CN201910593421.2A patent/CN110400349B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898623A (zh) * | 2018-05-24 | 2018-11-27 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
Non-Patent Citations (2)
Title |
---|
基于树结构分层随机森林在非约束环境下的头部姿态估计;刘袁缘等;《电子与信息学报》;20150315(第03期);第39-47页全文 * |
基于深度优先随机森林分类器的目标检测;马娟娟等;《中国惯性技术学报》;20180815(第04期);第104-109页全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110400349A (zh) | 2019-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109387204B (zh) | 面向室内动态环境的移动机器人同步定位与构图方法 | |
Wang et al. | Matchformer: Interleaving attention in transformers for feature matching | |
Shotton et al. | Scene coordinate regression forests for camera relocalization in RGB-D images | |
CN114782691A (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN111862213A (zh) | 定位方法及装置、电子设备、计算机可读存储介质 | |
Blanton et al. | Extending absolute pose regression to multiple scenes | |
CN108171249B (zh) | 一种基于rgbd数据的局部描述子学习方法 | |
CN111583340B (zh) | 基于卷积神经网络降低单目相机位姿估计误差率的方法 | |
Meng et al. | Exploiting points and lines in regression forests for RGB-D camera relocalization | |
CN112465021B (zh) | 基于图像插帧法的位姿轨迹估计方法 | |
WO2011131029A1 (zh) | 一种基于轮廓带图的相似单元的检测方法 | |
CN114842033B (zh) | 一种用于智能ar设备的图像处理方法 | |
CN115761734A (zh) | 基于模板匹配和概率分布的物***姿估计方法 | |
CN111797692A (zh) | 一种基于半监督学习的深度图像手势估计方法 | |
CN116188825A (zh) | 一种基于并行注意力机制的高效特征匹配方法 | |
CN113673354A (zh) | 一种基于上下文信息与联合嵌入的人体关键点检测方法 | |
Wu et al. | Sc-wls: Towards interpretable feed-forward camera re-localization | |
CN110400349B (zh) | 基于随机森林的小场景下机器人导航跟踪恢复方法 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
Yu et al. | Learning bipartite graph matching for robust visual localization | |
EP3995993A1 (en) | Process for the extension of deep-learning based 2d-object-detectors for the 6d-pose-estimation | |
CN113011359A (zh) | 一种基于图像的同时检测平面结构和生成平面描述的方法及应用 | |
KR102186764B1 (ko) | 사이클 일관성 기반 옵티컬플로우 및 디스패리티 추정 장치 및 방법 | |
CN110059658B (zh) | 一种基于三维卷积神经网络的遥感卫星影像多时相变化检测方法 | |
CN117132651A (zh) | 一种融合彩色图像和深度图像的三维人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220415 |