CN106595511A - 机器人激光视觉三维测量方法 - Google Patents
机器人激光视觉三维测量方法 Download PDFInfo
- Publication number
- CN106595511A CN106595511A CN201510676647.0A CN201510676647A CN106595511A CN 106595511 A CN106595511 A CN 106595511A CN 201510676647 A CN201510676647 A CN 201510676647A CN 106595511 A CN106595511 A CN 106595511A
- Authority
- CN
- China
- Prior art keywords
- laser
- centerdot
- camera
- image
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种机器人激光视觉三维测量方法,包括如下步骤:使用相机获取被测物体图像,通过遗传算法与Hausdorff距离相结合的图像匹配方法找到相机获取图像中被测量物体的位置信息,再移动机器人使激光打到被测物体上,读取相机图像中激光的信息,最后利用三角测量的原理来测量物体的三维信息。本发明具有结构简单、准确性高、成本低、易于操作等优点。
Description
技术领域
本发明涉及工业机器人技术领域,尤其涉及一种机器人激光视觉三维测量方法。
背景技术
目前普遍采用双目立体视觉的方法来获取被测物体的三维信息。该方法是寻找图像中被测物体对应的匹配点,进行双目视觉立体匹配。最后用立体匹配和摄像机标定的结果进行三维重建,获得被测量物体在机器坐标系下的三维信息。但是受环境及被测物体本身特点所影响,往往无法得到被测物体的对应匹配点或得到错匹配点,从而导致得到错误的三维信息。
发明内容
针对现有技术的不足,本发明提供一种准确性高的视觉三维测量方法。
本发明的技术方案为:
一种机器人激光视觉三维测量方法,包括以下步骤:
步骤一,使用相机获取被测物体图像;
步骤二,利用遗传算法与Hausdorff距离相结合的图像匹配方法找到相机获取图像中被测量物体的位置信息;
步骤三,使用激光:移动机器人使激光打到被测物体上,读取相机图像中激光的信息;
步骤四,利用三角测量的原理测量物体的三维信息。
结合步骤一、二、三得到的信息并利用三角测量的原理来测量物体的三维信息。
具体的,使用激光和相机获取被测物体的三维信息时,激光和相机之间关系的标定方法如下:
设世界坐标系原点到相机坐标系原点的距离为l,相机焦距为f和激光面与相机光轴的夹角为α;
将标定板置于平台上,使CCD的像素行和像素列分别平行与标定板的X轴,Y轴;
调整机器人Z轴方向,使得激光中心位置位于CCD像平面的中心处,设当前位置为机器人基础位置并记下当前机器人Z轴坐标值和像素坐标x;
单步沿机器人Z轴正方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止;
使机器人回到基础位置沿机器人Z轴负方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止;
控制机器人Z轴移动标记为ΔZ,则相机图像中激光中心平均位置偏离设为Δx,则:
记录下的整个像平面的像素坐标x和深度坐标Zw的对应关系由式:
得
令c1=f·tanα/l;c2=1/l得:
采用最小二乘法可得方程组Z=XC,其中:
则最小二乘法解为:
C=X+Z
即可求出Ow与Oc的距离l和相机焦距f。
设世界坐标系为Ow-XwYwZw,相机坐标系为Oc-XcYcZc世界坐标系与相机坐标系
有如下关系:
由于物与像存在比例对应关系,则有下列等式:
Xw=Zwtanα
可得到方程:
即得到被测物体所在世界坐标系的三维信息(Xw,Yw,Zw)。
遗传算法与Hausdorff距离结合的匹配方法:
设图像匹配的适应度函数是
公式中H(A,B)是模板点集A与图象中将要匹配的的点集B之间的Hausdorff距离,tx,ty分别表示的是模板在图像中移动的距离,s和a分别为匹配过程中模板的尺度和旋转因子,(tx,ty,s,a)构成了参数空间中的将要寻找的参数,在公式中当H(A,B)的值为0时f(tx,ty,s,a)将达到最大值1,当适应度大于所设定的适应度阈值P时,此时的(tx,ty,s,a)参数为被测物的位置信息。
本发明的有益效果为:本发明结构简单、准确性高、成本低、易于操作,通过遗传算法与Hausdorff距离相结合的图像匹配方法找到相机获取图像中被测量物体的位置信息,再移动机器人使激光打到被测物体上,通过读取相机图像中激光的信息,再利用三角测量的原理来测量物体的三维信息。
附图说明
图1为本发明的匹配方法流程图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
一种机器人激光视觉三维测量方法,包括以下步骤:
步骤一,使用相机获取被测物体图像;
步骤二,利用遗传算法与Hausdorff距离相结合的图像匹配方法找到相机获取图像中被测量物体的位置信息;
步骤三,移动机器人使激光打到被测物体上,通过读取相机图像中激光的信息;
步骤四,通过步骤一、二、三得到的信息并利用三角测量的原理来测量物体的三维信息。
如图1所示:匹配部分采用的是遗传算法与Hausdorff距离结合的匹配方法。Hausdorff距离是一种极大极小距离,它主要用于测量两个点集的匹配程度。Hausdorff距离不需建立点点之间的对应,只需计算两点集之间的最大距离即可,且受物体平移、旋转、缩放等变换的影响较小。
对于两个目标点集A={a1,a2,...an}和B={b1,b2,...bn},集合A和集合B之间的Hausdorff距离定义如下:
H(A,B)=max(h(A,B),h(B,A))
其中
h(A,B)表示的是点集A中的每个点到点集B的距离的最大值。Hausdorff距离H(A,B)取h(A,B)和h(B,A)的最大值,从而可获得两个点集A和B之间的匹配程度。
遗传算法与Hausdorff距离结合的匹配方法的两个关键问题分别是构造适当的适应度函数和将问题的解编码到基因串中,设图像匹配的适应度函数是
公式中H(A,B)是模板点集A与图象中将要匹配的的点集B之间的Hausdorff距离。tx,ty分别表示的是模板在图像中移动的距离。s和a分别为匹配过程中模板的尺度和旋转因子。(tx,ty,s,a)构成了参数空间中的将要寻找的参数。公式的分母越小,公式的值越大,同时表示其适应度就越高,图像匹配时效果会越好。在公式中当H(A,B)的值为0时f(tx,ty,s,a)将达到最大值1。当适应度大于所设定的适应度阈值P时,此时的(tx,ty,s,a)参数为被测物的位置信息。
图1中Pc为遗传算法杂交概率,Pm为变异概率,N为遗传代数,P为所设适应度阈值。
在测量三维信息方面的关键点是激光和相机之间关系的标定。由于测量之前世界坐标系原点到相机坐标系原点的距离l,相机焦距f和激光面与相机光轴的夹角α都不易直接测得,所以采用主动视觉的标定方法来测距离l,焦距f和光偏角α的值。其方法如下:
(1)将标定板置于平台上,使CCD的像素行和像素列分别平行与标定板的X轴,Y轴;
(2)调整机器人Z轴方向,使得激光中心位置位于CCD像平面的中心处,设当前位置为机器人基础位置并记下当前机器人Z轴坐标值和像素坐标x;
(3)单步沿机器人Z轴正方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止;
(4)使机器人回到基础位置沿机器人Z轴负方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止。
由于控制机器人Z轴移动ΔZ,则相机图像中激光中心平均位置必然偏离了Δx,则:记录下的整个像平面的像素坐标x和深度坐标Zw的对应关系由式:
得
令c1=f·tanα/l;c2=1/l得:
采用最小二乘法可得方程组Z=XC,其中:
则最小二乘法解为:
C=X+Z
即可求出Ow与Oc的距离l和相机焦距f。
设世界坐标系为Ow-XwYwZw,相机坐标系为Oc-XcYcZc世界坐标系与相机坐标系有如下关系:
由于物与像存在比例对应关系,则有下列等式:
Xw=Zwtanα
可得到方程:
即得到被测物体所在世界坐标系的三维信息(Xw,Yw,Zw)。
上述实施例和说明书中描述的只是说明本发明的原理和最佳实施例,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。
Claims (3)
1.一种机器人激光视觉三维测量方法,其特征在于:机器人激光视觉三维测量方法包括以下步骤:
步骤一,使用相机获取被测物体图像;
步骤二,利用遗传算法与Hausdorff距离相结合的图像匹配方法找到相机获取图像中被测量物体的位置信息;
步骤三,使用激光:移动机器人使激光打到被测物体上,读取相机图像中激光的信息;
步骤四,利用三角测量的原理测量物体的三维信息。
2.根据权利要求1所述的机器人激光视觉三维测量方法,其特征在于:激光和相机之间关系的标定方法如下:
设世界坐标系原点到相机坐标系原点的距离为l,相机焦距为f和激光面与相机光轴的夹角为α;
将标定板置于平台上,使CCD的像素行和像素列分别平行与标定板的X轴,Y轴;
调整机器人Z轴方向,使得激光中心位置位于CCD像平面的中心处,设当前位置为机器人基础位置并记下当前机器人Z轴坐标值和像素坐标x;
单步沿机器人Z轴正方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止;
使机器人回到基础位置沿机器人Z轴负方向移动,每走一步记下当前位置的Z轴坐标值和像素坐标x,直到CCD中看不到激光为止;
控制机器人Z轴移动标记为ΔZ,则相机图像中激光中心平均位置偏离设为Δx,则:
记录下的整个像平面的像素坐标x和深度坐标Zw的对应关系由式:
得
令c1=f·tanα/l;c2=1/l得:
采用最小二乘法可得方程组Z=XC,其中:
则最小二乘法解为:
C=X+Z
即可求出Ow与Oc的距离l和相机焦距f;
设世界坐标系为Ow-XwYwZw,相机坐标系为Oc-XcYcZc世界坐标系与相机坐标系有如下关系:
由于物与像存在比例对应关系,则有下列等式:
Xw=Zwtanα
可得到方程:
即得到被测物体所在世界坐标系的三维信息(Xw,Yw,Zw)。
3.根据权利要求1所述的机器人激光视觉三维测量方法,其特征在于:遗传算法与Hausdorff距离结合的匹配方法:
设图像匹配的适应度函数是
公式中H(A,B)是模板点集A与图象中将要匹配的的点集B之间的Hausdorff距离,tx,ty分别表示的是模板在图像中移动的距离,s和a分别为匹配过程中模板的尺度和旋转因子,(tx,ty,s,a)构成了参数空间中的将要寻找的参数,在公式中当H(A,B)的值为0时f(tx,ty,s,a)将达到最大值1,当适应度大于所设定的适应度阈值P时,此时的(tx,ty,s,a)参数为被测物的位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510676647.0A CN106595511A (zh) | 2015-10-19 | 2015-10-19 | 机器人激光视觉三维测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510676647.0A CN106595511A (zh) | 2015-10-19 | 2015-10-19 | 机器人激光视觉三维测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106595511A true CN106595511A (zh) | 2017-04-26 |
Family
ID=58554126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510676647.0A Pending CN106595511A (zh) | 2015-10-19 | 2015-10-19 | 机器人激光视觉三维测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106595511A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255463A (zh) * | 2017-05-26 | 2017-10-17 | 珠海格力电器股份有限公司 | 定位测量装置和定位测量方法 |
CN110425979A (zh) * | 2019-08-07 | 2019-11-08 | 江苏汇博机器人技术股份有限公司 | 一种基于实训机器人的点激光测量方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6369401B1 (en) * | 1999-09-10 | 2002-04-09 | Agri-Tech, Inc. | Three-dimensional optical volume measurement for objects to be categorized |
DE202006017076U1 (de) * | 2006-11-08 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur Inspektion einer Rohrleitung |
CN101629806A (zh) * | 2009-06-22 | 2010-01-20 | 哈尔滨工程大学 | 结合激光发射器的非线性ccd三维定位装置及定位方法 |
CN101986350A (zh) * | 2010-10-22 | 2011-03-16 | 武汉大学 | 基于单目结构光的三维建模方法 |
CN102661723A (zh) * | 2012-05-29 | 2012-09-12 | 上海大量电子设备有限公司 | 六轴数控激光快捷三维测量仪 |
-
2015
- 2015-10-19 CN CN201510676647.0A patent/CN106595511A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6369401B1 (en) * | 1999-09-10 | 2002-04-09 | Agri-Tech, Inc. | Three-dimensional optical volume measurement for objects to be categorized |
DE202006017076U1 (de) * | 2006-11-08 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur Inspektion einer Rohrleitung |
CN101629806A (zh) * | 2009-06-22 | 2010-01-20 | 哈尔滨工程大学 | 结合激光发射器的非线性ccd三维定位装置及定位方法 |
CN101986350A (zh) * | 2010-10-22 | 2011-03-16 | 武汉大学 | 基于单目结构光的三维建模方法 |
CN102661723A (zh) * | 2012-05-29 | 2012-09-12 | 上海大量电子设备有限公司 | 六轴数控激光快捷三维测量仪 |
Non-Patent Citations (2)
Title |
---|
王彦: ""基于视觉的机械手目标识别及定位研究"", 《中国博士学位论文全文数据库 信息科技辑》 * |
邓春梅 等: ""激光线结构光数控测量***的标定"", 《华中理工大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255463A (zh) * | 2017-05-26 | 2017-10-17 | 珠海格力电器股份有限公司 | 定位测量装置和定位测量方法 |
CN110425979A (zh) * | 2019-08-07 | 2019-11-08 | 江苏汇博机器人技术股份有限公司 | 一种基于实训机器人的点激光测量方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102086940B1 (ko) | 3차원 비접촉 스캐닝 시스템의 현장 교정 | |
US9625912B2 (en) | Methods and systems for mobile-agent navigation | |
US9659378B2 (en) | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and program therefor | |
CN205024577U (zh) | 自行式建筑机械 | |
US8320709B2 (en) | Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images | |
CN104034305B (zh) | 一种单目视觉实时定位的方法 | |
CN110009682B (zh) | 一种基于单目视觉的目标识别定位方法 | |
CN105737852B (zh) | 激光测距仪位置测量与校正***及方法 | |
JP2014102246A (ja) | 位置姿勢検出システム | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
CN104897142A (zh) | 一种适用于双目或多目视觉尺寸测量的立体靶标 | |
JPWO2014118956A1 (ja) | 画像処理システムおよび介助システム | |
US11295478B2 (en) | Stereo camera calibration method and image processing device for stereo camera | |
CN111105467B (zh) | 一种图像标定方法、装置及电子设备 | |
JP2010128608A (ja) | ステレオマッチング処理システム、ステレオマッチング処理方法、及びプログラム | |
CN114299162B (zh) | 一种用于ar-hud的快速标定方法 | |
JP2017227463A (ja) | 位置姿勢決定装置 | |
CN103697811A (zh) | 一种相机与结构光源结合获取物体轮廓三维坐标的方法 | |
CN106595511A (zh) | 机器人激光视觉三维测量方法 | |
JP2010066595A (ja) | 環境地図生成装置及び環境地図生成方法 | |
CN113554712B (zh) | 自动驾驶车辆的配准方法、装置、电子设备和车辆 | |
CN108073861A (zh) | 一种新的异常步态分析方法及*** | |
CN105809685B (zh) | 一种基于单幅同心圆图像的摄像机定标方法 | |
JP4889576B2 (ja) | マーク作製装置およびマーク作製方法 | |
WO2020113978A1 (zh) | 位于平面上的孔的中心位置的计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170426 |
|
RJ01 | Rejection of invention patent application after publication |