CN110544279B - 一种结合图像识别和遗传算法精配准的位姿估计方法 - Google Patents
一种结合图像识别和遗传算法精配准的位姿估计方法 Download PDFInfo
- Publication number
- CN110544279B CN110544279B CN201910789865.3A CN201910789865A CN110544279B CN 110544279 B CN110544279 B CN 110544279B CN 201910789865 A CN201910789865 A CN 201910789865A CN 110544279 B CN110544279 B CN 110544279B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- identified
- view point
- pose
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Genetics & Genomics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合图像识别和遗传算法精配准的位姿估计方法,包括步骤:根据待识别物体的CAD模型离线获取二维图像模板数据并生成所述待识别物体CAD模型的多视角点云数据予以保存;载入所述待识别物体的二维图像模板数据及CAD模型的多视角点云数据;结合所述待识别物体的二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计。相比现有物***姿识别,本发明具有鲁棒性高,精度高,速度快的优点。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于CAD(Computer AidedDrafting,计算机辅助设计)模型的三维目标识别分割和位姿估计方法。
背景技术
目前,随着计算机视觉理论发展以及硬件设备水平的提升,在识别领域产生了大量三维目标数据,由于三维目标数据包含了目标完整的信息,能够弥补二维目标识别的固有缺陷,所以三维目标识别技术受到越来越多的重视。其主要的任务为识别图像中目标的类型,给出目标在场景中的相对位置和目标姿态。三维物体识别和位姿估计可以实现点云融合,用于逆向工程,如文物保护。可以用于机器人抓取。可以实现点云注册,用于虚拟现实。
目前二维图像的物体识别技术研究较为成熟,但是由于二维图像缺少三维物体的完整信息,在物体姿态估计上具有先天不足,随着三维重建技术的发展,获取场景中物体的三维点云成为可能,通过点云特征进行物***姿估计的方法也早已提出,不过由于点云数据量大,且通过点云特征进行位姿估计精度受到点云分辨率的影响,分辨率增大会使得计算量增大,形成矛盾。
发明内容
针对上述技术问题之一,本发明旨在提供一种结合二维图像物体识别和三维点云特征粗配准以及遗传算法精配准的物***姿估计方法,使用二维图像进行物体识别比传统的根据点云分割及点云特征进行物体识别鲁棒性更高,速度更快,同时使用遗传算法进行精配准可以提高位姿估计的精度,使用三维点云特征进行粗配准给遗传算法限制了搜索区间,加快了收敛速度。综上,使用结合二维图像物体识别和三维点云特征粗配准以及遗传算法精配准的物***姿估计方法具有鲁棒性高,精度高,速度快的优点。
本发明的目的至少通过如下技术方案之一实现:
一种结合图像识别和遗传算法精配准的位姿估计方法,包括步骤:
根据待识别物体的CAD模型离线获取二维图像模板数据并生成所述待识别物体CAD模型的多视角点云数据予以保存;
载入所述待识别物体的二维图像模板数据及CAD模型的多视角点云数据;
结合所述待识别物体的二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计。
进一步地,所述CAD模型的多视角点云数据包括:
多视角点云、多视角点云整体特征、多视角点云局部特征。
进一步地,所述多视角点云具体为在多个角度上模拟相机所获取的物体点云。
进一步地,所述的结合二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计具体包括步骤:
通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云;
再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出目标物体的候选位姿。
进一步地,所述通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云具体包括步骤:
通过基于二维图像的物体识别从多个不同物体中识别出待识别物体;
利用基于二维图像的物体识别的结果,确定待识别物体点云在场景中的区域位置并局部恢复所在区域位置的点云,对所在区域位置的点云进一步进行点云分割;
计算所述场景中待识别物体的整体特征和局部特征;
将所述待识别物体的整体特征与离线生成的多视角点云的整体特征进行匹配,找到最相似的多视角点云作为候选多视角点云。
进一步地,所述再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出待识别物体的候选位姿具体是:
通过局部特征将所述候选多视角点云和当前场景中待识别物体点云进行点对点匹配;
若找到至少三组匹配时则计算所述多视角点云和当前场景物体点云的位姿变换关系Tms;
计算当前场景中待识别物体的候选位姿:
Tcs=TcmTms
其中,Tcs是当前场景物体在相机坐标系下的候选位姿,Tcm是候选多视角点云在相机坐标系下的位姿,Tms是候选多视角点云和当前场景中待识别物体的位姿变换关系。
进一步地,所述遗传算法精配准实现物***姿估计具体包括步骤:
计算所述候选位姿寻优区间,缩小遗传算法的搜索空间,加快收敛速度;
根据所述候选位姿寻优区间进行编码、开始迭代,从而找到当前场景中待识别物体的最优位姿。
进一步地,所述计算候选位姿寻优区间时,在通过下式计算遗传算法的搜索空间:
ΔOum1∈[-3|Ou11-Ou21|,3|Ou11-Ou21|]
ΔOum2∈[-3|Ou12-Ou22|,3|Ou12-Ou22|]
ΔOum3∈[-3|Ou13-Ou23|,3|Ou13-Ou23|]
Δtm1∈[-3|t11-t21|,3|t11-t21|]
Δtm2∈[-3|t12-t22|,3|t12-t22|]
Δtm3∈[-3|t13-t23|,3|t13-t23|]
其中,Ou代表欧拉角,t代表平移向量。ΔOumi中的下标m代表个体m,下标i代表向量分量,i∈[1,2,3],Ou1i和t1i为j代表由第1组Tms1转换得来的Ou1i和t1i,下标i代表向量分量;遗传算法每个个体都由增量形式(ΔOum1,ΔOum2,ΔOum3,Δtm1,Δtm2,Δtm3)表示,转换到真实的欧拉角和平移向量为:
Oum1=Ou11+ΔOum1
Oum2=Ou12+ΔOum2
Oum3=Ou13+ΔOum3
tm1=t11+Δtm1
tm2=t12+Δtm2
tm3=t13+Δtm3
其中,(Oum1,Oum2,Oum3,tm1,tm2,tm3)是m个体真实的欧拉角和平移向量。
进一步地,所述离线识别待识别物体的二维图像之前,还包括步骤:
获取待识别物体的CAD模型,在仿真环境中训练二维图像模板数据,用于离线在二维图像上进行物体识别。
进一步地,所述在仿真环境中训练二维图像模板数据包括训练待识别物体的二维图像的神经网络或者制作匹配模板。但不局限于这两种方式,本申请用二维图像识别技术对物体进行识别,将物体从场景中分割出来,然后再进行点云层面的位姿估计这种方法。
相比现有物***姿识别,本发明通过结合二维图像物体识别、三维点云特征粗配准以及遗传算法精配准的物***姿估计,大幅减少计算数据量和点云分辨率的影响,具有鲁棒性高,精度高,速度快的优点。
附图说明
图1是本发明实施例的离线数据生成流程图。
图2是本发明实施例的多视角点云生成示意图。
图3是本发明实施例的在线识别流程示意图。
图4是本发明实施例的遗传算法精配准流程示意图。
具体实施方式
下面通过具体实施例对本发明的目的作进一步详细地描述,实施例不能在此一一赘述,但本发明的实施方式并不因此限定于以下实施例。
一种结合图像识别和遗传算法精配准的位姿估计方法,包括步骤:
获取待识别物体的CAD模型,在仿真环境中训练二维图像模板数据,用于离线在二维图像上进行物体识别,所述在仿真环境中训练二维图像模板数据包括训练待识别物体的二维图像的神经网络或者制作匹配模板;
根据待识别物体的CAD模型离线获取二维图像模板数据并生成所述待识别物体CAD模型的多视角点云数据予以保存(见图1),所述CAD模型的多视角点云数据包括:多视角点云、多视角点云整体特征、多视角点云局部特征;如图2所示,所述多视角点云具体为在多个角度上模拟相机所获取的物体点云;
载入所述待识别物体的二维图像模板数据及CAD模型点云数据;
结合所述待识别物体的二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计。
具体而言,如图3所示,所述的结合二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计具体包括步骤:
通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云;
再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出目标物体的候选位姿。
其中,所述通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云具体包括步骤:
通过基于二维图像的物体识别从多个不同物体中识别出待识别物体;
利用基于二维图像的物体识别的结果,确定待识别物体点云在场景中的区域位置并局部恢复所在区域位置的点云,对所在区域位置的点云进一步进行点云分割;相比现有技术中直接对整个场景进行点云分割、然后再利用点云进行物体识别的发送,本实施例中利用基于图像的物体识别的结果,确定物体点云在场景中的大概位置,并局部恢复该区域的点云,并对该区域进一步进行点云分割,大幅减少识别所需点云数据量、速度更快、鲁棒性更高。
计算所述场景中待识别物体的整体特征和局部特征;
将所述待识别物体的整体特征与离线生成的多视角点云的整体特征进行匹配,找到最相似的多视角点云作为局部特征匹配的候选多视角点云。
其中,所述再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出待识别物体物体的候选位姿具体是:
通过局部特征将所述候选多视角点云和当前场景中待识别物体点云进行点对点匹配;
若找到至少三组匹配时则计算所述多视角点云和当前场景物体点云的位姿变换关系Tms;
通过多次随机采取特征点的方式,可以计算多组Tms,及Tmsj,将Tmsj转换成欧拉角Ou和平移向量t,在此实施例中我们使用两组,即Ou1,t1和Ou2,t2。由于多视角点云是预先生成的,是可以知道其位姿的,这样就可以通过如下公式计算当前场景中待识别物体的候选位姿:
Tcs=TcmTms
其中,Tcs是当前场景物体在相机坐标系下的候选位姿,Tcm是候选多视角点云在相机坐标系下的位姿,Tms是候选多视角点云和当前场景中待识别物体的位姿变换关系。
其中,如图4所示,所述遗传算法精配准实现物***姿估计具体包括步骤:
计算所述候选位姿寻优区间,缩小遗传算法的搜索空间,加快收敛速度,所述计算候选位姿寻优区间时,在通过下式计算遗传算法的搜索空间:
ΔOum1∈[-3|Ou11-Ou21|,3|Ou11-Ou21|]
ΔOum2∈[-3|Ou12-Ou22|,3|Ou12-Ou22|]
ΔOum3∈[-3|Ou13-Ou23|,3|Ou13-Ou23|]
Δtm1∈[-3|t11-t21|,3|t11-t21|]
Δtm2∈[-3|t12-t22|,3|t12-t22|]
Δtm3∈[-3|t13-t23|,3|t13-t23|]
其中,Ou代表欧拉角,t代表平移向量。ΔOumi中的下标m代表个体m,下标i代表向量分量,i∈[1,2,3],Ou1i和t1i为j代表由第1组Tms1转换得来的Ou1i和t1i,下标i代表向量分量;
遗传算法每个个体都由增量形式(ΔOum1,ΔOum2,ΔOum3,Δtm1,Δtm2,Δtm3)表示,转换到真实的欧拉角和平移向量为:
Oum1=Ou11+ΔOum1
Oum2=Ou12+ΔOum2
Oum3=Ou13+ΔOum3
tm1=t11+Δtm1
tm2=t12+Δtm2
tm3=t13+Δtm3
其中,(Oum1,Oum2,Oum3,tm1,tm2,tm3)是m个体真实的欧拉角和平移向量。
有了搜索区间就可以根据所述候选位姿寻优区间进行编码、开始迭代,从而找到当前场景中待识别物体的最优位姿,后续编码、开始迭代与一般遗传算法并无区别,在此不再赘述。
综上所述,上述实施例的流程包括:
获取待识别物体的CAD模型,建立并训练基于二维图像的物体识别模板数据并生成所述待识别物体CAD模型的多视角点云数据予以保存;建立并训练基于二维图像模板数据方法神经网络或者制作匹配模板,但并不限于提到的方式,只要是基于二维图像的物体识别,均属于申请保护的范畴。所述待识别物体CAD模型的点云数据包括多视角点云生成,多视角点云整体特征生成和多视角点云局部特征生成。
在线进行物***姿识别:载入离线数据,通过基于二维图像的物体识别从多个不同物体中识别出待识别物体,并对大致区域进行点云重建和分割。计算当前场景物体点云的整体特征和局部特征。并与离线生成的多视角点云的整体特征进行匹配,找到最相似的多视角点云,再通过候选多视角点云和当前场景物体点云进行局部特征匹配,计算出候选位姿,通过候选位姿计算遗传算法的搜索区间,然后对遗传算法进行编码,开始迭代,找到最优位姿。相比现有物***姿识别方法,本发明具有鲁棒性高,精度高,速度快的优点。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (4)
1.一种结合图像识别和遗传算法精配准的位姿估计方法,其特征在于,包括步骤:
根据待识别物体的CAD模型离线获取二维图像模板数据并生成所述待识别物体CAD模型的多视角点云数据予以保存;
载入所述待识别物体的二维图像模板数据及CAD模型的多视角点云数据;
结合所述待识别物体的二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计;所述CAD模型的多视角点云数据包括:
多视角点云、多视角点云整体特征、多视角点云局部特征;
所述的结合所述待识别物体的二维图像物体识别和三维点云特征粗配准以及遗传算法精配准实现物***姿估计具体包括步骤:
通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云;
再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出目标物体的候选位姿;所述通过整体特征对当前场景中的待识别物体点云和所述多视角点云进行匹配,获取候选多视角点云具体包括步骤:
通过基于二维图像的物体识别从多个不同物体中识别出待识别物体;
利用基于二维图像的物体识别的结果,确定待识别物体点云在场景中的区域位置并局部恢复所在区域位置的点云,对所在区域位置的点云进一步进行点云分割;
计算所述场景中待识别物体的整体特征和局部特征;
将所述待识别物体的整体特征与离线生成的多视角点云的整体特征进行匹配,找到最相似的多视角点云作为候选多视角点云;
所述再通过所述候选多视角点云和当前场景中待识别物体点云进行局部特征匹配,计算出待识别物体的候选位姿具体是:
通过局部特征将所述候选多视角点云和当前场景中待识别物体点云进行点对点匹配;
若找到至少三组匹配时则计算所述多视角点云和当前场景物体点云的位姿变换关系Tms;
计算当前场景中待识别物体的候选位姿:
Tcs=TcmTms
其中,Tcs是当前场景物体在相机坐标系下的候选位姿,Tcm是候选多视角点云在相机坐标系下的位姿,Tms是候选多视角点云和当前场景中待识别物体的位姿变换关系;
所述遗传算法精配准实现物***姿估计具体包括步骤:
计算所述候选位姿寻优区间,缩小遗传算法的搜索空间,加快收敛速度;
根据所述候选位姿寻优区间进行编码、开始迭代,从而找到当前场景中待识别物体的最优位姿;
所述计算候选位姿寻优区间时,在通过下式计算遗传算法的搜索空间:
ΔOum1∈[-3|Ou11-Ou21|,3|Ou11-Ou21|]
ΔOum2∈[-3|Ou12-Ou22|,3|Ou12-Ou22|]
ΔOum3∈[-3|Ou13-Ou23|,3|Ou13-Ou23|]
Δtm1∈[-3|t11-t21|,3|t11-t21|]
Δtm2∈[-3|t12-t22|,3|t12-t22|]
Δtm3∈[-3|t13-t23|,3|t13-t23|]
其中,Ou代表欧拉角,t代表平移向量;ΔOumi中的下标m代表个体m,下标i代表向量分量,i∈[1,2,3],Ou1i和t1i为j代表由第1组Tms1转换得来的Ou1i和t1i,下标i代表向量分量;遗传算法每个个体都由增量形式(ΔOum1,ΔOum2,ΔOum3,Δtm1,Δtm2,Δtm3)表示,转换到真实的欧拉角和平移向量为:
Oum1=Ou11+ΔOum1
Oum2=Ou12+ΔOum2
Oum3=Ou13+ΔOum3
tm1=t11+Δtm1
tm2=t12+Δtm2
tm3=t13+Δtm3
其中,(Oum1,Oum2,Oum3,tm1,tm2,tm3)是m个体真实的欧拉角和平移向量。
2.根据权利要求1所述的结合图像识别和遗传算法精配准的位姿估计方法,其特征在于,所述多视角点云具体为在多个角度上模拟相机所获取的物体点云。
3.根据权利要求1所述的结合图像识别和遗传算法精配准的位姿估计方法,其特征在于,离线识别待识别物体的二维图像之前,还包括步骤:
获取待识别物体的CAD模型,在仿真环境中训练二维图像模板数据,用于离线在二维图像上进行物体识别。
4.根据权利要求3所述的结合图像识别和遗传算法精配准的位姿估计方法,其特征在于,所述在仿真环境中训练二维图像模板数据包括训练待识别物体的二维图像的神经网络或者制作匹配模板。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910789865.3A CN110544279B (zh) | 2019-08-26 | 2019-08-26 | 一种结合图像识别和遗传算法精配准的位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910789865.3A CN110544279B (zh) | 2019-08-26 | 2019-08-26 | 一种结合图像识别和遗传算法精配准的位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110544279A CN110544279A (zh) | 2019-12-06 |
CN110544279B true CN110544279B (zh) | 2023-06-23 |
Family
ID=68711972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910789865.3A Active CN110544279B (zh) | 2019-08-26 | 2019-08-26 | 一种结合图像识别和遗传算法精配准的位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110544279B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563933B (zh) * | 2020-05-26 | 2020-11-03 | 季华实验室 | 一种基于单目视觉的位姿测量方法 |
CN111951314B (zh) * | 2020-08-21 | 2021-08-31 | 贝壳找房(北京)科技有限公司 | 点云配准方法和装置、计算机可读存储介质、电子设备 |
CN112132876B (zh) * | 2020-09-25 | 2022-03-29 | 天津大学 | 2d-3d图像配准中的初始位姿估计方法 |
CN112215861A (zh) * | 2020-09-27 | 2021-01-12 | 深圳市优必选科技股份有限公司 | 一种足球检测方法、装置、计算机可读存储介质及机器人 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919899A (zh) * | 2017-12-13 | 2019-06-21 | 香港纺织及成衣研发中心有限公司 | 基于多光谱成像的图像的质量评估方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3535476B2 (ja) * | 2001-05-09 | 2004-06-07 | 住友ゴム工業株式会社 | 球体の三次元姿勢測定方法および該方法を用いた球体の回転量と回転軸方向の測定方法 |
JP4352214B2 (ja) * | 2003-04-23 | 2009-10-28 | 清水建設株式会社 | 3次元位置姿勢の画像推定方法 |
WO2006054272A2 (en) * | 2004-11-19 | 2006-05-26 | Koninklijke Philips Electronics, N.V. | A stratification method for overcoming unbalanced case numbers in computer-aided lung nodule false positive reduction |
EP2201495B1 (en) * | 2007-10-12 | 2013-03-27 | MVTec Software GmbH | Computer vision cad models |
TWI534755B (zh) * | 2013-11-20 | 2016-05-21 | 財團法人資訊工業策進會 | 三維立體模型之建立方法和裝置 |
KR102251242B1 (ko) * | 2014-11-26 | 2021-05-12 | 삼성전자주식회사 | 컴퓨터 보조 진단 장치 및 방법 |
CN106204574B (zh) * | 2016-07-07 | 2018-12-21 | 兰州理工大学 | 基于目标平面运动特征的相机位姿自标定方法 |
CN106600639B (zh) * | 2016-12-09 | 2019-06-25 | 江南大学 | 遗传算法结合自适应阈值约束的icp位姿定位技术 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
CN109974707B (zh) * | 2019-03-19 | 2022-09-23 | 重庆邮电大学 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
-
2019
- 2019-08-26 CN CN201910789865.3A patent/CN110544279B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919899A (zh) * | 2017-12-13 | 2019-06-21 | 香港纺织及成衣研发中心有限公司 | 基于多光谱成像的图像的质量评估方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110544279A (zh) | 2019-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110544279B (zh) | 一种结合图像识别和遗传算法精配准的位姿估计方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN111429574B (zh) | 基于三维点云和视觉融合的移动机器人定位方法和*** | |
CN108596974B (zh) | 动态场景机器人定位建图***及方法 | |
CN112017220B (zh) | 一种基于抗差约束最小二乘算法的点云精确配准方法 | |
CN108594816B (zh) | 一种通过改进orb-slam算法实现定位与构图的方法和*** | |
CN110189399B (zh) | 一种室内三维布局重建的方法及*** | |
CN113012122B (zh) | 一种类别级6d位姿与尺寸估计方法及装置 | |
CN110276768B (zh) | 图像分割方法、图像分割装置、图像分割设备及介质 | |
CN110322492B (zh) | 一种基于全局优化的空间三维点云配准方法 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN111667535A (zh) | 一种针对遮挡场景下的六自由度位姿估计方法 | |
CN111820545A (zh) | 一种结合离线与在线扫描自动生成鞋底喷胶轨迹的方法 | |
CN116662600B (zh) | 一种基于轻量结构化线地图的视觉定位方法 | |
Xu et al. | Mv-jar: Masked voxel jigsaw and reconstruction for lidar-based self-supervised pre-training | |
CN112801945A (zh) | 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法 | |
CN111402429B (zh) | 一种尺度还原、三维重建方法、***、存储介质及设备 | |
CN116894876A (zh) | 基于实时图像的6-dof的定位方法 | |
Zhou et al. | DR-Pose: A Two-stage Deformation-and-Registration Pipeline for Category-level 6D Object Pose Estimation | |
Cheng et al. | An augmented reality image registration method based on improved ORB | |
CN114155406A (zh) | 一种基于区域级特征融合的位姿估计方法 | |
Wu et al. | Unseen object pose estimation via registration | |
Del-Tejo-Catalá et al. | Probabilistic pose estimation from multiple hypotheses | |
Yang et al. | Linear perspective shape-from-shading method with two images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |