CN110706285A - 基于cad模型的物***姿预测方法 - Google Patents
基于cad模型的物***姿预测方法 Download PDFInfo
- Publication number
- CN110706285A CN110706285A CN201910947809.8A CN201910947809A CN110706285A CN 110706285 A CN110706285 A CN 110706285A CN 201910947809 A CN201910947809 A CN 201910947809A CN 110706285 A CN110706285 A CN 110706285A
- Authority
- CN
- China
- Prior art keywords
- camera
- rotation
- pose
- cad model
- sampling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000005070 sampling Methods 0.000 claims description 44
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000009877 rendering Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 3
- 238000003672 processing method Methods 0.000 abstract description 2
- 238000011960 computer-aided design Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于CAD模型的物***姿预测方法,涉及图像处理方法技术领域。所述方法包括如下步骤:通过标定获取单目摄像头的相关参数,并利用CAD模型生成粗匹配所需数据;检测识别图像中的物体并输出图像的遮罩,通过物体的遮罩得到物体的相关轮廓信息;通过物体的相关轮廓信息结合粗匹配数据得到物体的粗匹配位姿,然后通过迭代算法,得到物体的精确位姿。所述方法可以作为实时性要求不高时对物***姿检测的算法,其检测精度较高且有较强的抗干扰性能。
Description
技术领域
本发明涉及图像处理方法技术领域,尤其涉及一种基于CAD模型的物***姿预测方法。
背景技术
增强现实(Augmented Reality,AR)以计算机图形技术和可视化技术为基础,在三维空间中增添定位虚拟物体,能够将真实场景与虚拟场景的信息集成,具有实时交互性。自基于增强现实的诱导维修的概念提出后,AR在维修领域的研究逐渐深入。如以增强现实技术的机器人,在执行抓取、焊接等任务时,需要通过摄像头采集的视觉信息来预先获取准确的物体三维位姿信息,此外在无人驾驶、航空航天、深海作业、武器制导等方面都需要利用视觉传感器信息来预先判断物体的三维位姿。目前增强现实的传感器主要依赖于摄像头、激光雷达、超声波雷达等,其中摄像头又分为单目摄像头和双目摄像头,其中双目摄像头存在体积大、重量重、价格高、易损坏的问题,而超声波雷达存在精度不高,实时性差,不能有遮挡,易受噪声影响的问题。
发明内容
本发明所要解决的技术问题是如何提供一种成本低且可准确的得到物***姿的识别方法。
为解决上述技术问题,本发明所采取的技术方案是:一种基于CAD模型的物***姿预测方法,其特征在于包括如下步骤:
通过标定获取单目摄像头的相关参数,并利用CAD模型生成粗匹配所需数据;
检测识别图像中的物体并输出图像的遮罩,通过物体的遮罩得到物体的相关轮廓信息;
通过物体的相关轮廓信息结合粗匹配数据得到物体的粗匹配位姿,然后通过迭代算法,得到物体的精确位姿。
进一步的技术方案在于,通过标定获取单目摄像头的相关参数的方法包括如下步骤:
构建相机成像模型:
M为三位空间点,m为M在图像平面投影的像点,按照相机涉及的坐标系之间的关系可得到世界坐标系到像素坐标的投影:
可将(1)写成(2)的形式
其中ax,ay分别是图像水平轴和垂直轴的尺度因子;K为相机内部参数矩阵;M1中包含旋转矩阵和平移矢量,M1中参数是由相机坐标系相对于世界坐标系的位置决定的,因此称M1为相机外部参数矩阵;内部参数和外部参数矩阵的乘积M为投影矩阵;XW为世界坐标系中物体中心W所在的x轴坐标,YW为世界坐标系中物体中心W所在的y轴坐标,ZW为世界坐标系中物体中心W所在的z轴坐标;
相机焦距为f所在轴为z正方向,x与y轴处在光心O所在平面,以光心O为相机坐标系原点,在此相机坐标系下则物体中心所在位置用W来表示,其中:
W=(Wx,Wy,Wz) (3)
规定物体中心就是物体CAD模型中心所在位置,若P=(u,v)为物体对应像素在图像上的坐标,K为相机内参矩阵,则可以得到此等式:
此等式表示实际物体中心所在位置W在相机坐标系下经过相机内参K后投影到图像后的二维坐标位置P。
进一步的技术方案在于,利用CAD模型生成粗匹配数据的方法如下:
首先通过物体CAD模型在指定位姿下渲染出物体的遮罩,通过物体的遮罩得到物体的边界框,而后根据不同的需要在边界框上每隔一定距离对物体轮廓进行采样;
以左边界框长度L为基准,把L分为n等份,每隔L/n为一个采样横坐标点,遍历每一个轮廓上的点在其横坐标等于采样横坐标点时计算其到左边框的距离,由于每个采样横坐标点可能对应多个轮廓采样距离,所以取多个距离中的最大和最小值作为此采样横坐标上对轮廓采样的采样值,把轮廓信息变为成一组采样值;
对采样值进行归一化,即把左边界框长度统一到一个单位下;
在指定距离上,以物体CAD模型中心为中心,在不同的旋转角度对物体的轮廓进行采样,把轮廓采样信息与相对应的位姿信息保存,得到物体的粗匹配的模板数据。
进一步的技术方案在于,所述检测识别图像中的物体并输出图像的遮罩的方法如下:
利用Mask-RCNN神经网络进行图像识别,输出物体的类别与物体的遮罩。
进一步的技术方案在于,在训练Mask-RCNN神经网络时,利用blender以及Opencv软件自动生成了数据集来训练。
进一步的技术方案在于,粗匹配位姿方法如下:
刚体的位姿包括旋转R和位移T两部分,其旋转部分的匹配过程如下:
首先把输出的轮廓信息做归一化处理,统一到相同尺度下进行比较;
若对物体实际遮罩采样数据为Sin,模板数据中第i组数据为Si,每组有n个采样值,则计算实际遮罩采样数据与模板中每组数据的L1距离,第i组数据的L1距离Li为:
理想情况下,在位姿相同时采样值应该一致,即在模板数据中使此距离为0的旋转角度,即为此轮廓所对应旋转角度,所以取所有结果中满足阈值情况下的最小值所对应旋转角度为当前匹配得到的旋转角度,不满足阈值认为匹配失败;
在粗匹配时,误差控制在欧拉角每个自由度误差不大于12°;而后把此欧拉角信息转化为旋转矩阵R,即得到物体的旋转信息;
其平移部分算法如下:
在生成模板数据时,由于是在指定距离上对物体进行采样,且CAD模型大小已知,所以物体对应的包围框大小与其距离成反比,即包围框越小距离越远,这与人肉眼认知一致,则模型中心点与相机光心的距离D即可以通过(5)求出:
D=(win/wi)·Di (6)
其中win为物体识别输出边界框宽,wi为与其旋转相匹配的模板数据的边界框宽,Di为模板数据采集时指定的距离,D即为模型中心点与相机光心的距离;
CAD模型大小先验信息已知,既可以计算出模板中每像素所代表的实际物理距离,进而可以计算出物体的位移向量tz:
其中,tx为物体在x轴的位移量,ty为物体在y轴的位移量,在得到物体的旋转R和位移T之后,结合相机的内外参得到物体的世界坐标。
进一步的技术方案在于,通过迭代算法,得到物体的精确位姿的方法如下:
若粗匹配物体旋转为A=(ψ,θ,φ),则在此基础上,每个坐标轴都加减一个角度Δε,Δε设置为粗匹配间隔的一半,在粗匹配旋转空间求出其相邻空间的若干个角度,利用相邻空间的若干个角度结合CAD模型得到物体的轮廓,利用轮廓采样法并结合(5)式,求出使得(5)式Li值最小的旋转A1=(ψ1,θ1,φ1),即得到迭代一次后的物体旋转角度;
而后通过不断把角度Δε减半得到更小范围的角度值进行迭代,最终可以得到使得(3)式为0的旋转角度;
结合粗匹配时得到的物体平移信息,得到物体的精确位姿。
采用上述技术方案所产生的有益效果在于:本申请所述方法首先通过标定获取摄像头的相关参数,并利用CAD模型生成粗匹配所需数据,而后利用深度神经网络或者其他算法检测识别图像中的物体并输出图像的遮罩,通过物体的遮罩可以得到相关轮廓信息,此轮廓信息结合粗匹配数据可以得到物体的粗匹配位姿,然后通过迭代算法,可以得到物体的精确位姿。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明实施例所述方法的流程图;
图2是本发明实施例中坐标系的关系图;
图3是本发明实施例中相机针孔模型示意图;
图4是本发明实施例中物体轮廓采样的结果图;
图5是本发明实施例中Mask-RCNN图像分割效果图;
图6是本发明实施例中Mask-RCNN图像识别结果图;
图7是本发明实施例中粗匹配与迭代后位姿对比图;
图8是本发明实施例中遮挡情况下物***姿精度图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
如图1所示,本发明实施例公开了一种基于CAD模型的物***姿预测方法,包括如下步骤:
首先通过标定获取摄像头的相关参数,并利用CAD模型生成粗匹配所需数据,而后利用深度神经网络或者其他算法检测识别图像中的物体并输出图像的遮罩,通过物体的遮罩可以得到相关轮廓信息,此轮廓信息结合粗匹配数据可以得到物体的粗匹配位姿,然后通过迭代算法,可以得到物体的精确位姿。
下面对上述方法进行详细说明:
相机成像模型:
M为三位空间点,m为M在图像平面投影的像点。按照相机涉及的坐标系之间的关系可得到世界坐标系到像素坐标的投影(坐标系关系如图2所示):
可将(1)写成(2)的形式
其中ax,ay分别是图像水平轴和垂直轴的尺度因子;K包含焦距、主点坐标等相机内部参数,因此称K为内部参数矩阵;M1中包含旋转矩阵和平移矢量,M1中参数是由相机坐标系相对于世界坐标系的位置决定的,因此称为相机的外部参数矩阵;内部参数和外部参数矩阵的乘积M称为投影矩阵。通过比较式(1)和式(2),可以很容易地确定这些矩阵代表的相机内、外参的具体表现形式,相机标定就是确定相机的内部参数和外部参数。
相机标定:
假设相机为针孔模型,如图3所示,一个物体的位姿是物***置和姿态的统称。
相机焦距为f所在轴为z正方向,x与y轴处在光心O所在平面,以光心O为相机坐标系原点,在此相机坐标系下则物体中心所在位置可以用W来表示,其中:
W=(Wx,Wy,Wz) (3)
规定物体中心就是物体CAD模型中心所在位置,一般为体积中心。若P=(u,v)为物体对应像素在图像上的坐标,K为相机内参矩阵,则可以得到此等式:
此等式表示实际物体中心所在位置W在相机坐标系下经过相机内参K后投影到图像后的二维坐标位置P。
所以想要求得物体三维坐标位置,必须标定相机内参K,其中标定方法很多,在本申请中使用Opencv软件提供的相机标定方法获取K。
利用CAD模型生成粗匹配数据:
在利用物体CAD模型生成模板数据中最核心的算法就是基于物体轮廓的采样算法。首先通过物体CAD模型可以在指定位姿下渲染出物体的Mask,通过物体的Mask可以得到物体的边界框,而后根据不同的需要在边界框上每隔一定距离对物体轮廓进行采样,如图4所示为在左边框每隔一定距离对物体轮廓进行采样。
以左边界(其它边界类似)框长度L为基准,把L分为n等份,每隔L/n为一个采样横坐标点,遍历每一个轮廓上的点在其横坐标等于采样横坐标点时计算其到左边框的距离,由于每个采样横坐标点可能对应多个轮廓采样距离,所以取多个距离中的最大和最小值作为此采样横坐标上对轮廓采样的采样值。这样就把轮廓信息变为成了一组采样值。
由于轮廓可能会大小变化,所以需要对采样值进行归一化,即把左边界框长度统一到一个单位下,在实验中,把左边界框统一长度为128px,这样既可以保证采样的精度,也可以保证采样速度。
上述采样方式的好处是得到了轮廓的一组特征,即采样值,这个值对于轮廓具有缩放不变性,但是对物体旋转很敏感,且数据维度一致,便于比较。
在指定距离上,以物体CAD模型中心为中心,在不同的旋转角度对物体的轮廓进行采样,把轮廓采样信息与相对应的位姿信息保存,便得到了物体的粗匹配的模板数据。
图像识别输出物体遮罩:
目前图像识别效果比较突出的方法是利用深度神经网络,而其中Mask-RCNN为目前利用深度神经网络进行图像识别中效果较好的模型,其效果如图5,此深度神经网络模型经训练后,可以做到实时高精度输出物体的类别与物体的mask,所以本方法采用此模型作为图像检测端处理模块。
随着神经网络不断发展,不同的算法和深度神经网络模型性能必将会超越Mask-RCNN,本算法可以适用于任何输出遮罩(mask)或轮廓的算法或深度神经网络模型,即可以作为通用解决方案。其中训练Mask-RCNN神经网络时,利用blender以及Opencv软件自动生成了数据集来训练,识别精度较高。
粗匹配算法:
刚体的位姿包括旋转R和位移T两部分,其旋转部分的匹配过程如下:
由于不同框架输出的物体遮罩分辨率不同,若是物体分辨率过低则会影响采样算法采集的数据质量,物体分辨率过高则在采样时会导致采样速度下降,所以和采样算法相同,首先把输出的轮廓信息做归一化处理,统一到相同尺度下进行比较。
若对物体实际遮罩采样数据为Sin,模板数据中第i组数据为Si,每组有n个采样值,则计算实际遮罩采样数据与模板中每组数据的L1距离,第i组数据的L1距离Li为:
理想情况下,在位姿相同时采样值应该一致,即在模板数据中使此距离为0的旋转角度,即为此轮廓所对应旋转角度,在实际中若是对角度分割过细,会产生大量的数据,匹配过慢,所以取所有结果中满足阈值情况下的最小值所对应旋转角度为当前匹配得到的旋转角度,不满足阈值认为匹配失败。为了保证匹配速度,在粗匹配时,误差控制在欧拉角每个自由度误差不大于12°(即把360°等分为30份进行采样生成粗匹配模板)。而后可以把此欧拉角信息转化为旋转矩阵R,即得到物体的旋转信息。
其平移部分算法如下:
在生成模板数据时,由于是在指定距离上对物体进行采样,且CAD模型大小已知,所以物体对应的包围框大小与其距离成反比,即包围框越小距离越远,这与人肉眼认知一致,则模型中心点与相机光心的距离即可以通过(5)求出:
D=(win/wi)·Di (6)
其中win为物体识别输出边界框宽(利用边框长计算亦可),wi为与其旋转相匹配的模板数据的边界框宽,Di为模板数据采集时指定的距离,D即为模型中心点与相机光心的距离。
与此类似,因为CAD模型大小先验信息已知,既可以计算出模板中每像素所代表的实际物理距离,进而可以计算出物体的位移向量:
在实际实验中,由于无法获取亚像素级别的信息,仅利用像素来计算时,位移向量误差较大,可以利用提高相机图像的分辨率来解决此问题,也就是相机分辨率越高,得到物体的位置越准。在得到物体的旋转R和位移T之后,结合相机的内外参即可得到物体的世界坐标。
迭代算法:
在得到物体的粗匹配位姿之后,物体的旋转理论上还有小于12°的误差,为了消除此误差,引入迭代算法,此算法在粗匹配得到的物体旋转信息上进行计算,最终得到误差为零的旋转信息(在浮点数设置为8位小数时)
若粗匹配物体旋转为A=(ψ,θ,φ),则在此基础上,每个轴都加减一个小角度Δε,由于之前设置粗匹配间隔为12°,所以Δε设置为粗匹配间隔的一半即6°,这样在粗匹配旋转空间求出其相邻空间的26个角度,利用这26个角度结合CAD模型得到物体的轮廓,轮廓采样法并结合(5)式,求出使得(5)式Li值最小的旋转A1=(ψ1,θ1,φ1),即得到迭代一次后的物体旋转角度。
而后通过不断把Δε减半得到更小范围的角度值进行迭代,最终可以得到使得(3)式为0的旋转角度(在浮点数设置为8位小数时),可以通过设置计算机浮点位数得到更为精确的旋转信息。
结合粗匹配时得到的物体平移信息,即得到了物体的精确的6Dof位置。
实验数据:
本实验环境配置为:笔记本为联想Y7000,***为ubuntul6.04,编程语言使用python3.6。
物体识别精度:本方法输入的遮罩数据采用Mask-RCNN神经网络所输出的遮罩,由于Mask-RCNN神经网络本身性能较强,经自行开发的数据集训练,实现了比较理想的识别精度,可以满足本方法需求,如图6所示。
旋转精度:粗匹配旋转精度由生成的粗匹配数据模板决定,本实验粗匹配时把欧拉角每个自由度分成了30等分,所以精度不大于12°(360°/30),平均经过6轮迭代后达到8位浮点数最高精度。图7为遮罩图经粗匹配和迭代后效果对比,其中从左到右分别为物体的随机位姿遮罩图(即输入)、利用经过粗匹配后位姿得到的物体渲染图以及二者差别图。
经实验证明,迭代后旋转误差在8位浮点数时为0,图5部分绿色误差为位置误差所引起。
位置精度:由于本方法位置是由物体的包围框计算的,精度受限于像素精度,极端情况下例如较远的物体较小,包围框成比例缩小,这样包围框差一个像素,位置误差就增大很多,所以物体的位置精度取决于相机像素,相机像素越高,包围框误差越小,从而物***置精度越高。
经试验,在相机分辨率为512x512像素时本方法4x4x3(cm)物***置精度随物体距相机位置变化如表1所示:
表1位置误差随距离变化关系
物体与相机距离(mm) | 误差(mm) |
500 | 0-5 |
1000 | 2-12 |
2000 | 10-100 |
5000 | >100 |
与其他相关位姿法的对比:
本方法与目前神经网络中比较有代表性的SSD-6D,BB8等方法相比,当评价标准为目前通用标准2Dprojection、5cm5°或6Dpose,本方法在旋转准确度上都接近100%,远超其他各类算法,其主要误差来源是位置误差,在考虑位置误差成因取决于相机图片分辨率精度后,认为与其他方法无对比性。
在实时性上差距很大,本方法在上述个人笔记本环境下运行检测一张图片粗匹配用时约0.6s,迭代后平均用时约为40-60s。而一般基于神经网络的6dof位姿方法基本可达到实时(>20fps),基于算法的6Dof位姿方法比较有代表性的是Linemod也基本可以达到15-18fps。
本方法在抗干扰能力上比较突出,只要物体轮廓采样基本正确,物体遮罩中间缺失对本方法推算位姿影响不大,如图8所示。
综上所述方法可以作为实时性要求不高时对物***姿检测的一种通用算法,其检测精度较高且有较强的抗干扰性能,在实际应用中可以考虑通过使用C++代码以及并行计算提高其实时性,以满足使用要求。
Claims (7)
1.一种基于CAD模型的物***姿预测方法,其特征在于包括如下步骤:
通过标定获取单目摄像头的相关参数,并利用CAD模型生成粗匹配所需数据;
检测识别图像中的物体并输出图像的遮罩,通过物体的遮罩得到物体的相关轮廓信息;
通过物体的相关轮廓信息结合粗匹配数据得到物体的粗匹配位姿,然后通过迭代算法,得到物体的精确位姿。
2.如权利要求1所述的基于CAD模型的物***姿预测方法,其特征在于,通过标定获取单目摄像头的相关参数的方法包括如下步骤:
构建相机成像模型:
M为三位空间点,m为M在图像平面投影的像点,按照相机涉及的坐标系之间的关系可得到世界坐标系到像素坐标的投影:
可将(1)写成(2)的形式
其中ax,ay分别是图像水平轴和垂直轴的尺度因子;K为相机内部参数矩阵;M1中包含旋转矩阵和平移矢量,M1中参数是由相机坐标系相对于世界坐标系的位置决定的,因此称M1为相机外部参数矩阵;内部参数和外部参数矩阵的乘积M为投影矩阵;XW为世界坐标系中物体中心W所在的x轴坐标,YW为世界坐标系中物体中心W所在的y轴坐标,ZW为世界坐标系中物体中心W所在的z轴坐标;
相机焦距为f所在轴为z正方向,x与y轴处在光心O所在平面,以光心O为相机坐标系原点,在此相机坐标系下则物体中心所在位置用W来表示,其中:
W=(Wx,Wy,Wz) (3)
规定物体中心就是物体CAD模型中心所在位置,若P=(u,v)为物体对应像素在图像上的坐标,K为相机内参矩阵,则可以得到此等式:
此等式表示实际物体中心所在位置W在相机坐标系下经过相机内参K后投影到图像后的二维坐标位置P。
3.如权利要求1所述的基于CAD模型的物***姿预测方法,其特征在于,利用CAD模型生成粗匹配数据的方法如下:
首先通过物体CAD模型在指定位姿下渲染出物体的遮罩,通过物体的遮罩得到物体的边界框,而后根据不同的需要在边界框上每隔一定距离对物体轮廓进行采样;
以左边界框长度L为基准,把L分为n等份,每隔L/n为一个采样横坐标点,遍历每一个轮廓上的点在其横坐标等于采样横坐标点时计算其到左边框的距离,由于每个采样横坐标点可能对应多个轮廓采样距离,所以取多个距离中的最大和最小值作为此采样横坐标上对轮廓采样的采样值,把轮廓信息变为成一组采样值;
对采样值进行归一化,即把左边界框长度统一到一个单位下;
在指定距离上,以物体CAD模型中心为中心,在不同的旋转角度对物体的轮廓进行采样,把轮廓采样信息与相对应的位姿信息保存,得到物体的粗匹配的模板数据。
4.如权利要求1所述的基于CAD模型的物***姿预测方法,其特征在于,所述检测识别图像中的物体并输出图像的遮罩的方法如下:
利用Mask-RCNN神经网络进行图像识别,输出物体的类别与物体的遮罩。
5.如权利要求4所述的基于CAD模型的物***姿预测方法,其特征在于,在训练Mask-RCNN神经网络时,利用blender以及Opencv软件自动生成了数据集来训练。
6.如权利要求1所述的基于CAD模型的物***姿预测方法,其特征在于,粗匹配位姿方法如下:
刚体的位姿包括旋转R和位移T两部分,其旋转部分的匹配过程如下:
首先把输出的轮廓信息做归一化处理,统一到相同尺度下进行比较;
若对物体实际遮罩采样数据为Sin,模板数据中第i组数据为Si,每组有n个采样值,则计算实际遮罩采样数据与模板中每组数据的L1距离,第i组数据的L1距离Li为:
理想情况下,在位姿相同时采样值应该一致,即在模板数据中使此距离为0的旋转角度,即为此轮廓所对应旋转角度,所以取所有结果中满足阈值情况下的最小值所对应旋转角度为当前匹配得到的旋转角度,不满足阈值认为匹配失败;
在粗匹配时,误差控制在欧拉角每个自由度误差不大于12°;而后把此欧拉角信息转化为旋转矩阵R,即得到物体的旋转信息;
其平移部分算法如下:
在生成模板数据时,由于是在指定距离上对物体进行采样,且CAD模型大小已知,所以物体对应的包围框大小与其距离成反比,即包围框越小距离越远,这与人肉眼认知一致,则模型中心点与相机光心的距离D即可以通过(5)求出:
D=(win/wi)·Di (6)
其中win为物体识别输出边界框宽,wi为与其旋转相匹配的模板数据的边界框宽,Di为模板数据采集时指定的距离,D即为模型中心点与相机光心的距离;
CAD模型大小先验信息已知,既可以计算出模板中每像素所代表的实际物理距离,进而可以计算出物体的位移向量tz:
其中,tx为物体在x轴的位移量,ty为物体在y轴的位移量,在得到物体的旋转R和位移T之后,结合相机的内外参得到物体的世界坐标。
7.如权利要求6所述的基于CAD模型的物***姿预测方法,其特征在于,通过迭代算法,得到物体的精确位姿的方法如下:
若粗匹配物体旋转为A=(ψ,θ,φ),则在此基础上,每个坐标轴都加减一个角度Δε,Δε设置为粗匹配间隔的一半,在粗匹配旋转空间求出其相邻空间的若干个角度,利用相邻空间的若干个角度结合CAD模型得到物体的轮廓,利用轮廓采样法并结合(5)式,求出使得(5)式Li值最小的旋转A1=(ψ1,θ1,φ1),即得到迭代一次后的物体旋转角度;
而后通过不断把角度Δε减半得到更小范围的角度值进行迭代,最终可以得到使得(3)式为0的旋转角度;
结合粗匹配时得到的物体平移信息,得到物体的精确位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947809.8A CN110706285A (zh) | 2019-10-08 | 2019-10-08 | 基于cad模型的物***姿预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947809.8A CN110706285A (zh) | 2019-10-08 | 2019-10-08 | 基于cad模型的物***姿预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110706285A true CN110706285A (zh) | 2020-01-17 |
Family
ID=69196741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910947809.8A Pending CN110706285A (zh) | 2019-10-08 | 2019-10-08 | 基于cad模型的物***姿预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706285A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112465898A (zh) * | 2020-11-20 | 2021-03-09 | 上海交通大学 | 一种基于棋盘格标定板的物体3d位姿标签获取方法 |
CN112630639A (zh) * | 2020-12-01 | 2021-04-09 | 国网江苏省电力有限公司检修分公司 | 一种高压开关柜手车触头啮合状态在线检测***及方法 |
CN115033998A (zh) * | 2022-07-13 | 2022-09-09 | 北京航空航天大学 | 一种面向机械零部件的个性化2d数据集构建方法 |
WO2022252487A1 (zh) * | 2021-06-04 | 2022-12-08 | 浙江商汤科技开发有限公司 | 位姿获取方法及装置、电子设备、存储介质和程序 |
EP4166281A4 (en) * | 2020-07-29 | 2024-03-13 | Siemens Ltd. China | METHOD AND APPARATUS ALLOWING A ROBOT TO GRIP A THREE-DIMENSIONAL OBJECT |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110157178A1 (en) * | 2009-12-28 | 2011-06-30 | Cuneyt Oncel Tuzel | Method and System for Determining Poses of Objects |
CN103365249A (zh) * | 2013-07-10 | 2013-10-23 | 西安电子科技大学 | 六自由度并联机器人故障工作空间快速求解方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物***姿测量方法 |
CN106600639A (zh) * | 2016-12-09 | 2017-04-26 | 江南大学 | 遗传算法结合自适应阈值约束的icp位姿定位技术 |
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN106845354A (zh) * | 2016-12-23 | 2017-06-13 | 中国科学院自动化研究所 | 零件视图库构建方法、零件定位抓取方法及装置 |
CN107818577A (zh) * | 2017-10-26 | 2018-03-20 | 滁州学院 | 一种基于混合模型的零件识别与定位方法 |
CN108010082A (zh) * | 2017-12-28 | 2018-05-08 | 上海觉感视觉科技有限公司 | 一种几何匹配的方法 |
CN108555908A (zh) * | 2018-04-12 | 2018-09-21 | 同济大学 | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 |
CN109087323A (zh) * | 2018-07-25 | 2018-12-25 | 武汉大学 | 一种基于精细cad模型的图像车辆三维姿态估计方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN110097598A (zh) * | 2019-04-11 | 2019-08-06 | 暨南大学 | 一种基于pvfh特征的三维物***姿估计方法 |
CN110298854A (zh) * | 2019-05-17 | 2019-10-01 | 同济大学 | 基于在线自适应与单目视觉的飞行蛇形臂协同定位方法 |
-
2019
- 2019-10-08 CN CN201910947809.8A patent/CN110706285A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110157178A1 (en) * | 2009-12-28 | 2011-06-30 | Cuneyt Oncel Tuzel | Method and System for Determining Poses of Objects |
CN103365249A (zh) * | 2013-07-10 | 2013-10-23 | 西安电子科技大学 | 六自由度并联机器人故障工作空间快速求解方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物***姿测量方法 |
CN106845515A (zh) * | 2016-12-06 | 2017-06-13 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN106600639A (zh) * | 2016-12-09 | 2017-04-26 | 江南大学 | 遗传算法结合自适应阈值约束的icp位姿定位技术 |
CN106845354A (zh) * | 2016-12-23 | 2017-06-13 | 中国科学院自动化研究所 | 零件视图库构建方法、零件定位抓取方法及装置 |
CN107818577A (zh) * | 2017-10-26 | 2018-03-20 | 滁州学院 | 一种基于混合模型的零件识别与定位方法 |
CN108010082A (zh) * | 2017-12-28 | 2018-05-08 | 上海觉感视觉科技有限公司 | 一种几何匹配的方法 |
CN108555908A (zh) * | 2018-04-12 | 2018-09-21 | 同济大学 | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 |
CN109087323A (zh) * | 2018-07-25 | 2018-12-25 | 武汉大学 | 一种基于精细cad模型的图像车辆三维姿态估计方法 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN110097598A (zh) * | 2019-04-11 | 2019-08-06 | 暨南大学 | 一种基于pvfh特征的三维物***姿估计方法 |
CN110298854A (zh) * | 2019-05-17 | 2019-10-01 | 同济大学 | 基于在线自适应与单目视觉的飞行蛇形臂协同定位方法 |
Non-Patent Citations (3)
Title |
---|
YIBO CUI 等: "Estimation of 6Dof Pose Using Image Mask and Bounding Box", 《IGTA 2019: IMAGE AND GRAPHICS TECHNOLOGIES AND APPLICATIONS》 * |
ZHUANGNAN XU 等: "A Monocular Object Pose Recognition Algorithm Based on CAD Model and Object Contour", 《JOURNAL OF COMPUTING AND ELECTRONIC INFORMATION MANAGEMENT》 * |
崔毅博 等: "利用RGB图像和DNN进行物体6DOf位姿推算", 《计算机仿真》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4166281A4 (en) * | 2020-07-29 | 2024-03-13 | Siemens Ltd. China | METHOD AND APPARATUS ALLOWING A ROBOT TO GRIP A THREE-DIMENSIONAL OBJECT |
CN112465898A (zh) * | 2020-11-20 | 2021-03-09 | 上海交通大学 | 一种基于棋盘格标定板的物体3d位姿标签获取方法 |
CN112630639A (zh) * | 2020-12-01 | 2021-04-09 | 国网江苏省电力有限公司检修分公司 | 一种高压开关柜手车触头啮合状态在线检测***及方法 |
CN112630639B (zh) * | 2020-12-01 | 2022-12-23 | 国网江苏省电力有限公司检修分公司 | 一种高压开关柜手车触头啮合状态在线检测***及方法 |
WO2022252487A1 (zh) * | 2021-06-04 | 2022-12-08 | 浙江商汤科技开发有限公司 | 位姿获取方法及装置、电子设备、存储介质和程序 |
CN115033998A (zh) * | 2022-07-13 | 2022-09-09 | 北京航空航天大学 | 一种面向机械零部件的个性化2d数据集构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110706285A (zh) | 基于cad模型的物***姿预测方法 | |
Yang et al. | Monocular object and plane slam in structured environments | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN109544677B (zh) | 基于深度图像关键帧的室内场景主结构重建方法及*** | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN111897349B (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
CN110688947B (zh) | 一种同步实现人脸三维点云特征点定位和人脸分割的方法 | |
EP3159125A1 (en) | Device for recognizing position of mobile robot by using direct tracking, and method therefor | |
CN111401266B (zh) | 绘本角点定位的方法、设备、计算机设备和可读存储介质 | |
KR100874817B1 (ko) | 스테레오 결합 메커니즘을 사용하는 얼굴 특징 검출 방법,매체 및 장치 | |
US20050265604A1 (en) | Image processing apparatus and method thereof | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
CN110176075B (zh) | 通过视觉***同时考虑图像特征中边缘和法线的***和方法 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
EP3185212B1 (en) | Dynamic particle filter parameterization | |
CN108335325A (zh) | 一种基于深度相机数据的立方体快速测量方法 | |
CN114022542A (zh) | 一种基于三维重建的3d数据库制作方法 | |
Sun et al. | A fast underwater calibration method based on vanishing point optimization of two orthogonal parallel lines | |
CN113439289A (zh) | 用于确定对象厚度的图像处理 | |
CN111709269B (zh) | 一种深度图像中基于二维关节信息的人手分割方法和装置 | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
CN111915632B (zh) | 一种基于机器学习的贫纹理目标物体真值数据库构建方法 | |
Lee et al. | Visual odometry for absolute position estimation using template matching on known environment | |
CN117218205B (zh) | 一种相机外参校正方法和*** | |
US20240242318A1 (en) | Face deformation compensating method for face depth image, imaging device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200117 |
|
RJ01 | Rejection of invention patent application after publication |