CN108921871A - 一种基于全局贪婪搜索的鲁棒模型拟合方法 - Google Patents
一种基于全局贪婪搜索的鲁棒模型拟合方法 Download PDFInfo
- Publication number
- CN108921871A CN108921871A CN201810610626.2A CN201810610626A CN108921871A CN 108921871 A CN108921871 A CN 108921871A CN 201810610626 A CN201810610626 A CN 201810610626A CN 108921871 A CN108921871 A CN 108921871A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- theta
- hypothesis
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000005070 sampling Methods 0.000 claims abstract description 28
- 230000004927 fusion Effects 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 12
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 abstract description 7
- 239000011159 matrix material Substances 0.000 abstract description 5
- 230000000977 initiatory effect Effects 0.000 abstract 1
- 230000007547 defect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/231—Analysis of motion using block-matching using full search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于全局贪婪搜索的鲁棒模型拟合方法,具体为:设置数据集,初始化参数;使用label来获取类标为m的第m个模型实例的内点;根据全局贪婪搜索的采样方法在及输入数据上生成模型假设或根据HMSS的采样方法在label中类标为0的数据上生成模型假设;根据模型假设及label来获得新的label;融合最近生成的个模型假设来得到模型假设,然后用模型假设来获得新的label;输出已生成的个模型假设,并根据输出已生成的个模型假设,对图像进行分割,完成模型拟合。本发明从内点中选取数据子集来生成更准确的初始模型假设,可应用于单应性矩阵估计、基本矩阵估计、两视图平面分割和运动分割等计算机视觉任务。
Description
技术领域
本发明涉及计算机视觉技术,具体涉及一种基于全局贪婪搜索的鲁棒模型拟合方法。
背景技术
鲁棒模型拟合是计算机视觉中一项重要的基础性研究任务,它已广泛地应用于多个实际应用中,比如:特征匹配、图像配准、可视化跟踪,室内导航和运动分割等领域。鲁棒模型拟合的目标是从输入数据中估计出感兴趣模型的参数。具体地,给定一个几何模型(例如:线或基础矩阵),通过模型拟合方法来估计数据中模型实例的参数。
在近数十年里,有大量的模型拟合方法被提出。例如,RANSAC[1]就是一种很受欢迎的模型拟合方法,因其简单易于实现。但是,RANSAC中所使用的随机采样策略并不够高效和准确。具体地,随着几何模型维度或输入数据中离群点(outlier)比例的增加,使用随机采样方法采样到一个干净最小数据子集所需的采样次数会指数地增加。如果没有采样到干净最小数据子集,基于数据采样的模型拟合方法将失败。干净最小数据子集是输入数据的一个子集,它包含了估计一个模型假设所需的最少个(即k)数据,并且一个干净最小数据子集中只能包含一个模型实例的内点。
为了提高采样的有效性,很多模型拟合方法被提出,其中HMSS[2]是近期提出的一种相对高效的拟合方法。HMSS包含一种有效的贪婪采样方法,其采样过程如下:(1)随机选取一个包含h个数据的数据子集来生成一个模型假设,其中h等于k加2,即h=k+2。这里的k是用户输入的一个模型实例应包含的数据点个数的最小值;(2)升序排列输入数据与当前模型假设的残差;(3)使用第k-h+1到第k个排序残差所对应的数据估计一个模型假设;(4)判断是否达到停止标准。如果未达到停止标准,则继续执行第(2),(3)步;否则,停止采样过程。每执行一次HMSS采样可以生成一个模型假设。如果数据中存在多个模型实例,则需要把HMSS嵌入到“拟合-和-移除”过程。通过迭代地在当前剩余的数据中执行HMSS采样来生成模型假设,然后把该模型假设的内点从当前剩余的数据中移除来估计数据中多个模型实例的模型参数。
然而,若干位作者(比如[3]))发现“拟合-和-移除”的过程存在如下缺陷:若有一个模型实例的模型参数估计不准确将导致数据中剩余模型实例的模型参数被估计错误。为了改进这个缺陷,多个针对多模型实例数据的模型拟合方法(例如[3,4,5])被提出,这些方法将数据采样与模型拟合分为两个独立的步骤,目的是同时估计数据中所有的模型实例。它们在执行模型拟合前,需要先采样预先指定个数的数据子集,而如何有效地确定预先指定数据子集的采样个数是相当困难的。
发明内容
有鉴于此,本发明的目的在于提供一种基于全局贪婪搜索的鲁棒模型拟合方法有效地改进了“拟合-和-移除”过程的缺陷。
为实现上述目的,本发明采用如下技术方案:
一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于包括以下步骤:
步骤S1:设置数据集,包含N个数据的输入χ={x1,x2,...,xN},其中N为自然数,并预设一个模型实例应包含的最少数据点个数k及模型实例的个数mc;
步骤S2:初始化参数,包括最大迭代次数tmax,数据子集包含的数据点个数h=p+2,当前迭代次数t,当前已生成的模型实例数m和类标label;
步骤S3:判断当前迭代次数,若前迭代次数t小于tmax,执行步骤S4;否则,结束程序并输出已生成的mc个模型假设;
步骤S4:判断当前已生成的模型实例数m,若当前已生成的模型实例数m小于mc,执行步骤S5;否则,执行步骤S10;
步骤S5:使用label来获取类标为m的第m个模型实例的内点Im;
步骤S6:如果Im所包含的数据元素个数大于h,执行步骤S7;否则,执行步骤S8;
步骤S7:根据全局贪婪搜索的采样方法在Im及输入数据χ上生成模型假设θ;
步骤S8:根据HMSS的采样方法在label中类标为0的数据上生成模型假设θ;
步骤S9:根据模型假设θ及label来获得新的label;
步骤S10:融合最近生成的mc个模型假设来得到模型假设,然后用模型假设来获得新的label;
步骤S11:判断是否达到停止标准,若达到停止标准,则输出已生成的mc个模型假设,否则t=t+1后进行步骤S3;
步骤S12:根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合。
进一步的,所述步骤S7具体为:
步骤S71:预设参数,包括单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞;
步骤S72:若当前采样次数j小于jmax,执行步骤S73和S74;否则,结束程序并输出已生成的模型假设;
步骤S73:从Im中随机选取一个包含h个数据的数据子集;
步骤S74:如果当前迭代次数i小于imax,执行步骤S75至S710;否则执行步骤S71;
步骤S75:根据已选取的数据子集来估计一个模型假设θi,输入数据χ与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据xn与θi的残差;
非降序地排列残差向量r(θi)得到排序残差向量
步骤S76:θi的代价函数计算为:
步骤S77:若f(θi)小于fmin(j-1),则fmin(j-1)=f(θi)且θ=θi;
步骤S78:根据排序残差向量rs(θi)从输入数据中选取包含h个数据的数据子集;
步骤S79:计算fstop如下:
步骤S710:若满足fstop,停止此次采样过程;
步骤S711:若满足fmin(j)=fmin(j-1)=fmin(j-2),则停止整个采样过程并输出已生成的模型假设θ。
进一步的,所述步骤S10具体为:
步骤S101:设定任意两个模型假设之间的互信息计算如下:
其中,
p(xn|θj)是第n个输入数据xn成为模型假设θj内点的概率,公式为:
其中是θi的内点噪声尺度,由内点噪声尺度估计子IKOSE估计得到;
步骤S102:执行融合操作:若M(θi,θj)大于0,那么融合模型假设θi和θj;反之,保留模型假设θi和θj。
进一步的,所述融合模型假设θi和θj具体为,权重较小的模型假设的类标变为另一个模型假设的类标。
进一步的,所述停止标准具体为:
其中θm,t是融合第t次迭代生成的模型假设后的第m个模型假设。
本发明与现有技术相比具有以下有益效果:
1、本发明提出的模型拟合方法使用贪婪搜索从内点中选取初始数据子集来生成更准确的模型假设。
2、本发明提出的模型拟合方法有效地改进了“拟合-和-移除”过程的缺陷。
3、本发明可应用于单应矩阵估计、基本矩阵估计、两视图平面分割和运动分割等计算机视觉任务。
附图说明
图1是本发明流程图;
图2是本发明在AdelaideRMF数据集的部分图像对上进行两视图平面分割定性的结果图:
图3是本发明在Hopkins 155数据集的部分视频上进行运动分割的结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
实施例1:
请参照图1,本发明提供一种一种基于全局贪婪搜索的鲁棒模型拟合方法,包括以下步骤:
S1.给定包含N个数据的输入数据χ={x1,x2,...,xN},其中N为自然数。指定一个模型实例应包含的最少数据点个数k及模型实例的个数mc。
S2.执行初始化:指定最大迭代次数tmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数t=0,当前已生成的模型实例数m=0和类标label=0。
S3.如果当前迭代次数t小于tmax,那么执行步骤D;否则,结束程序并输出已生成的mc个模型假设。
S4.如果当前已生成的模型实例数m小于mc,那么执行步骤S5至S9;否则,执行步骤S10及S11。
S5.使用label来获取类标为m的第m个模型实例的内点Im。
S6.如果Im所包含的数据元素个数大于h,那么执行步骤S7;否则,执行步骤S8。
S7.本发明提出的基于全局贪婪搜索的采样方法在Im及输入数据χ上生成模型假设θ具体包括:
S7-1.执行初始化:指定单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞。
S7-2.如果当前采样次数j小于jmax,那么执行步骤S7-3和S7-4。
S7-3.从Im中随机选取一个包含h个数据的数据子集。
S7-4.如果当前迭代次数i小于imax,那么执行步骤S7-5至S7-10;否则,执行步骤S7-11。
S7-5.用已选取的数据子集来估计一个模型假设θi,输入数据χ与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据点xn与θi的残差。非降序地排列残差向量r(θi)得到排序残差向量
S7-6.θi的代价函数计算如下:
S7-7.如果f(θi)小于fmin(j-1),那么让fmin(j-1)=f(θi)且θ=θi。
S7-8.根据排序残差向量rs(θi)从输入数据中选取包含h个数据的数据子集。
S7-9.计算fstop如下:
S7-10.如果fstop为真,那么停止此次采样过程。
S7-11.如果fmin(j)=fmin(j-1)=fmin(j-2)为真,那么停止整个采样过程并输出已生成的模型假设θ。
S8.使用HMSS的采样方法在label中类标为0的数据上生成模型假设θ。
S9.使用θ及label来获得新的label。
S10.融合最近生成的mc个模型假设来得到模型假设,然后用模型假设来获得新的label。其中融合最近生成的mc个模型假设来得到模型假设具体包括:
S10-1.任意两个模型假设之间的互信息计算如下:
其中,
p(xn|θj)是第n个输入数据xn成为模型假设θj内点的概率,其计算如下:
其中是θi的内点噪声尺度,由内点噪声尺度估计子IKOSE(Wang etal.PMAI2012)估计得到。
S10-2.执行融合操作如下:
如果M(θi,θj)大于0,那么融合模型假设θi和θj。权重较小的模型假设的类标变为另一个模型假设的类标。其中模型假设的权重计算见Wang et al.PMAI2012。反之,保留模型假设θi和θj。
S11.判断是否达到停止标准。如果达到停止标准,那么结束程序。判断是否达到停止标准具体包括:
S11-1.计算停止标准如下:
其中θm,t是融合第t次迭代生成的模型假设后的第m个模型假设。
S11-2.如果为真,那么结束程序。
S12.输出已生成的mc个模型假设,根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合。。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (5)
1.一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于包括以下步骤:
步骤S1:设置数据集,包含N个数据的输入其中N为自然数,并预设一个模型实例应包含的最少数据点个数k及模型实例的个数mc;
步骤S2:初始化参数,包括最大迭代次数tmax,数据子集包含的数据点个数h=p+2,当前迭代次数t,当前已生成的模型实例数m和类标label;
步骤S3:判断当前迭代次数,若前迭代次数t小于tmax,执行步骤S4;否则,结束程序并输出已生成的mc个模型假设;
步骤S4:判断当前已生成的模型实例数m,若当前已生成的模型实例数m小于mc,执行步骤S5;否则,执行步骤S10;
步骤S5:使用label来获取类标为m的第m个模型实例的内点Im;
步骤S6:如果Im所包含的数据元素个数大于h,执行步骤S7;否则,执行步骤S8;
步骤S7:根据全局贪婪搜索的采样方法在Im及输入数据X上生成模型假设θ;
步骤S8:根据HMSS的采样方法在label中类标为0的数据上生成模型假设θ;
步骤S9:根据模型假设θ及label来获得新的label;
步骤S10:融合最近生成的mc个模型假设来得到模型假设,然后用模型假设来获得新的label;
步骤S11:判断是否达到停止标准,若达到停止标准,则输出已生成的mc个模型假设,否则t=t+1后进行步骤S3;
步骤S12:根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合。
2.根据权利要求1所述的一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于:所述步骤S7具体为:
步骤S71:预设参数,包括单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞;
步骤S72:若当前采样次数j小于jmax,执行步骤S73和S74;否则,结束程序并输出已生成的模型假设;
步骤S73:从Im中随机选取一个包含h个数据的数据子集;
步骤S74:如果当前迭代次数i小于imax,执行步骤S75至S710;否则执行步骤S71;
步骤S75:根据已选取的数据子集来估计一个模型假设θi,输入数据与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据xn与θi的残差;
非降序地排列残差向量r(θi)得到排序残差向量
步骤S76:θi的代价函数计算为:
步骤S77:若f(θi)小于fmin(j-1),则fmin(j-1)=f(θi)且θ=θi;
步骤S78:根据排序残差向量rs(θi)从输入数据中选取包含h个数据的数据子集;
步骤S79:计算fstop如下:
步骤S710:若满足fstop,停止此次采样过程;
步骤S711:若满足fmin(j)=fmin(j-1)=fmin(j-2),则停止整个采样过程并输出已生成的模型假设θ。
3.根据权利要求1所述的一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于:所述步骤S10具体为:
步骤S101:设定任意两个模型假设之间的互信息计算如下:
其中,
p(xn|θj)是第n个输入数据xn成为模型假设θj内点的概率,公式为:
其中是θi的内点噪声尺度,由内点噪声尺度估计子IKOSE估计得到;
步骤S102:执行融合操作:若M(θi,θj)大于0,那么融合模型假设θi和θj;反之,保留模型假设θi和θj。
4.根据权利要求3所述的一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于:所述融合模型假设θi和θj具体为,权重较小的模型假设的类标变为另一个模型假设的类标。
5.根据权利要求1所述的一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于:所述停止标准具体为:
其中θm,t是融合第t次迭代生成的模型假设后的第m个模型假设。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810610626.2A CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810610626.2A CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921871A true CN108921871A (zh) | 2018-11-30 |
CN108921871B CN108921871B (zh) | 2022-02-01 |
Family
ID=64419566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810610626.2A Active CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921871B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163865A (zh) * | 2019-05-28 | 2019-08-23 | 闽江学院 | 一种针对模型拟合中不平衡数据的采样方法 |
CN111612060A (zh) * | 2020-05-20 | 2020-09-01 | 闽江学院 | 基于迭代和贪婪搜索的内点尺度估计方法 |
CN111612067A (zh) * | 2020-05-21 | 2020-09-01 | 闽江学院 | 一种融合拟合-移除和两阶段框架优点的拟合方法 |
CN111639691A (zh) * | 2020-05-22 | 2020-09-08 | 闽江学院 | 一种基于特征匹配和贪婪搜索的图像数据采样方法 |
CN112132204A (zh) * | 2020-09-18 | 2020-12-25 | 厦门大学 | 一种基于偏好概率加权采样的鲁棒模型拟合方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055821A1 (en) * | 2013-08-22 | 2015-02-26 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN105118068A (zh) * | 2015-09-29 | 2015-12-02 | 常熟理工学院 | 一种小样本条件下医学图像自动标注方法 |
CN105913423A (zh) * | 2016-04-08 | 2016-08-31 | 厦门大学 | 一种基于超像素的确定性模型拟合方法 |
CN106203480A (zh) * | 2016-06-29 | 2016-12-07 | 华侨大学 | 基于缺损数据的非线性特征提取和分类方法 |
CN106296747A (zh) * | 2016-07-26 | 2017-01-04 | 厦门大学 | 基于结构决策图的鲁棒多模型拟合方法 |
CN107123119A (zh) * | 2017-04-27 | 2017-09-01 | 厦门大学 | 一种针对多结构数据的指导性采样方法 |
CN107656250A (zh) * | 2017-11-13 | 2018-02-02 | 浙江大学 | 一种基于人工蜂群算法的智能雷达海上目标检测***及方法 |
CN107844129A (zh) * | 2017-11-30 | 2018-03-27 | 北京大学深圳研究生院 | 基于路径规划和信息融合的多无人机协同搜索方法及*** |
-
2018
- 2018-07-27 CN CN201810610626.2A patent/CN108921871B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055821A1 (en) * | 2013-08-22 | 2015-02-26 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN105118068A (zh) * | 2015-09-29 | 2015-12-02 | 常熟理工学院 | 一种小样本条件下医学图像自动标注方法 |
CN105913423A (zh) * | 2016-04-08 | 2016-08-31 | 厦门大学 | 一种基于超像素的确定性模型拟合方法 |
CN106203480A (zh) * | 2016-06-29 | 2016-12-07 | 华侨大学 | 基于缺损数据的非线性特征提取和分类方法 |
CN106296747A (zh) * | 2016-07-26 | 2017-01-04 | 厦门大学 | 基于结构决策图的鲁棒多模型拟合方法 |
CN107123119A (zh) * | 2017-04-27 | 2017-09-01 | 厦门大学 | 一种针对多结构数据的指导性采样方法 |
CN107656250A (zh) * | 2017-11-13 | 2018-02-02 | 浙江大学 | 一种基于人工蜂群算法的智能雷达海上目标检测***及方法 |
CN107844129A (zh) * | 2017-11-30 | 2018-03-27 | 北京大学深圳研究生院 | 基于路径规划和信息融合的多无人机协同搜索方法及*** |
Non-Patent Citations (6)
Title |
---|
J PAULUS ET AL: "Music structure analysis using a probabilistic fitness measure and a greedy search algorithm", 《IEEE TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》 * |
ONDŘEJ CHUM ET AL: "Locally Optimized RANSAC", 《DAGM-SYMP》 * |
RUWAN B. TENNAKOON ET AL: "Robust Model Fitting Using Higher Than Minimal Subset Sampling", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
徐培德等: "基于贪婪算法成像侦察卫星调度方法研究", 《计算机仿真》 * |
赖桃桃等: "鲁棒模型拟合中的指导性采样及其在运动分割中的应用", 《万方》 * |
黎静华等: "适合于机组组合问题的贪婪随机自适应搜索模型", 《电网技术》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163865A (zh) * | 2019-05-28 | 2019-08-23 | 闽江学院 | 一种针对模型拟合中不平衡数据的采样方法 |
CN110163865B (zh) * | 2019-05-28 | 2021-06-01 | 闽江学院 | 一种针对模型拟合中不平衡数据的采样方法 |
CN111612060A (zh) * | 2020-05-20 | 2020-09-01 | 闽江学院 | 基于迭代和贪婪搜索的内点尺度估计方法 |
CN111612060B (zh) * | 2020-05-20 | 2023-06-02 | 闽江学院 | 基于迭代和贪婪搜索的内点尺度估计方法 |
CN111612067A (zh) * | 2020-05-21 | 2020-09-01 | 闽江学院 | 一种融合拟合-移除和两阶段框架优点的拟合方法 |
CN111612067B (zh) * | 2020-05-21 | 2023-06-02 | 闽江学院 | 一种融合拟合-移除和两阶段框架优点的拟合方法 |
CN111639691A (zh) * | 2020-05-22 | 2020-09-08 | 闽江学院 | 一种基于特征匹配和贪婪搜索的图像数据采样方法 |
CN111639691B (zh) * | 2020-05-22 | 2023-05-30 | 闽江学院 | 一种基于特征匹配和贪婪搜索的图像数据采样方法 |
CN112132204A (zh) * | 2020-09-18 | 2020-12-25 | 厦门大学 | 一种基于偏好概率加权采样的鲁棒模型拟合方法 |
CN112132204B (zh) * | 2020-09-18 | 2022-05-24 | 厦门大学 | 一种基于偏好概率加权采样的鲁棒模型拟合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108921871B (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921871B (zh) | 一种基于全局贪婪搜索的鲁棒模型拟合方法 | |
US11200696B2 (en) | Method and apparatus for training 6D pose estimation network based on deep learning iterative matching | |
CN113409384B (zh) | 一种目标物体的位姿估计方法和***、机器人 | |
Matsuki et al. | Codemapping: Real-time dense mapping for sparse slam using compact scene representations | |
CN112991447A (zh) | 一种动态环境下视觉定位与静态地图构建方法及*** | |
CN114863573B (zh) | 一种基于单目rgb-d图像的类别级6d姿态估计方法 | |
CN107730514B (zh) | 场景分割网络训练方法、装置、计算设备及存储介质 | |
Bujanca et al. | SLAMBench 3.0: Systematic automated reproducible evaluation of SLAM systems for robot vision challenges and scene understanding | |
KR20220143725A (ko) | 2차원 이미지들로부터 3차원 객체 모델들의 생성 | |
CN113378976B (zh) | 一种基于特征顶点组合的目标检测方法、可读存储介质 | |
CN114387513A (zh) | 机器人抓取方法、装置、电子设备及存储介质 | |
CN107862696B (zh) | 基于时尚图迁移的特定行人衣物解析方法及*** | |
Chang et al. | Candidate-based matching of 3-D point clouds with axially switching pose estimation | |
Porzi et al. | Depth-aware convolutional neural networks for accurate 3D pose estimation in RGB-D images | |
He et al. | A generative feature-to-image robotic vision framework for 6D pose measurement of metal parts | |
Tang et al. | Image dataset creation and networks improvement method based on CAD model and edge operator for object detection in the manufacturing industry | |
CN116030192B (zh) | 一种基于动力学特征的骨骼段预处理方法及装置 | |
Kiyokawa et al. | Efficient collection and automatic annotation of real-world object images by taking advantage of post-diminished multiple visual markers | |
Cho et al. | Deep Photo-Geometric Loss for Relative Camera Pose Estimation | |
Song et al. | Bi-directional seed attention network for interactive image segmentation | |
Huang et al. | Estimating 6d object poses with temporal motion reasoning for robot grasping in cluttered scenes | |
CN113822097B (zh) | 单视角人体姿态识别方法、装置、电子设备和存储介质 | |
Stanescu et al. | Semantic segmentation of geometric primitives in dense 3D point clouds | |
CN112434710A (zh) | 一种基于目标检测技术的智能货架商品识别方法 | |
CN112906432A (zh) | 一种应用于人脸关键点定位任务的检错纠错方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |