CN106780454A - 基于边缘反投影的视觉定位方法及自动分料上料装置 - Google Patents
基于边缘反投影的视觉定位方法及自动分料上料装置 Download PDFInfo
- Publication number
- CN106780454A CN106780454A CN201611120262.7A CN201611120262A CN106780454A CN 106780454 A CN106780454 A CN 106780454A CN 201611120262 A CN201611120262 A CN 201611120262A CN 106780454 A CN106780454 A CN 106780454A
- Authority
- CN
- China
- Prior art keywords
- vision positioning
- product
- profile
- positioning method
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于边缘反投影的视觉定位方法及自动分料上料装置,其中,所述视觉定位方法包括如下步骤:S1、提取标准模板的最外侧的边缘轮廓;S2、填充轮廓内的黑洞;S3、计算轮廓的中心坐标;S4、采样边缘轮廓到中心(X0,Y0)的距离值Dis0[i];S5、得到旋转后的产品中心,及边缘到中心(Xi,Yi)的距离Disi[i];S6、计算欧氏距离;S7、获得最小距离Di(min),以及其对应的产品图像的转转角度αi;S8、获得产品的定位αi角度值和偏移量(Xi,Yi)坐标值。本发明使产品影像的轮廓与标准模板的轮廓重合,其位置数据精度数据可达到亚像素,且在对影像的明暗、缺失不受影响,搜索角度可自由设定。
Description
技术领域
本发明涉及视觉定位技术领域,尤其涉及一种基于边缘反投影的视觉定位方法及自动分料上料装置。
背景技术
目前,现有的视觉定位方法精度与时间不能灵活控制,目标图像复杂、图像明暗对视觉定位的精确有很大影响。此外,现有的传统的视觉定位方法中,灰度相关法计算量大,无法满足实时定位的要求,且对图像噪声敏感度低。同时,大多数视觉定位方法无法解决视觉***在旋转、平移、缩放等复杂模式下的定位,特别是目标图像有缺失的情况,效果更差。
因此,针对上述问题,有必要提出进一步的解决方案。
发明内容
本发明的目的在于提供一种基于边缘反投影的视觉定位方法,以克服现有技术中存在的不足。
为实现上述发明目的,本发明提供一种基于边缘反投影的视觉定位方法,其包括如下步骤:
S1、提取标准模板的最外侧的边缘轮廓;
S2、填充轮廓内的黑洞;
S3、建立坐标系,基于填充后的轮廓,计算轮廓的中心坐标(X0,Y0);
S4、定义最小旋转角度α,按照定义的最小旋转角度α,按角度α等间隔采样边缘轮廓到中心(X0,Y0)的距离值Dis0[i],其中,i=1,2,3,……N,N为正整数;
S5、任意旋转需要视觉定位的产品图像,针对旋转后的产品图像,按照步骤S1~S4的方式,得到旋转后的产品中心(Xi,Yi),及边缘到中心(Xi,Yi)的距离Disi[i] ,其中,i=1,2,3,……N,N为正整数;
S6、循环移动Disi[i],每次移动一位,计算Disi[i]与Dis0[i]的欧氏距离Di;
S7、基于计算得到的Di,获得最小距离Di(min),以及其对应的产品图像的转转角度αi;
S8、将所述αi和(Xi,Yi)作为初始值,将产品的轮廓反投影到标准模板上,移动投影到标准模板上的轮廓,当得到的对应轮廓的欧氏距离小于设定值或循环后达到最小即停止,此时获得产品的定位αi角度值和偏移量(Xi,Yi)坐标值。
作为本发明的基于边缘反投影的视觉定位方法的改进,所述步骤S1中,利用Soble算法提取产品的最外侧的边缘轮廓。
作为本发明的基于边缘反投影的视觉定位方法的改进,所述边缘轮廓为封闭轮廓曲线。
作为本发明的基于边缘反投影的视觉定位方法的改进,所述步骤S3中,以产品的所在空间的水平向右方向为X轴的正方向 ,垂直向上的方向为Y轴的正方向。
作为本发明的基于边缘反投影的视觉定位方法的改进,所述步骤S4中,所述最小旋转角度α的角度范围为0.01°~1°。
作为本发明的基于边缘反投影的视觉定位方法的改进,所述步骤S8中,所述移动投影到标准模板上的轮廓包括:上下移动以及旋转移动。
为实现上述发明目的,本发明提供一种自动分料上料装置,其包括:上料机器人、托盘、检测相机、定位机器人;
所述上料机器人实现上料工位与所述托盘之间产品的传递,所述托盘位于所述检测相机的检测区域内,所述检测相机按照如上所述的视觉定位方法对所述产品进行视觉定位,且所述检测相机与所述定位机器人进行视觉定位数据传输,所述定位机器人实现所述托盘与分料工位的产品传递。
作为本发明的自动分料上料装置的改进,所述上料工位包括第一上料工位和第二上料工位,所述第一上料工位和第二上料工位均具有各自的上料机器人。
作为本发明的自动分料上料装置的改进,所述检测相机与所述定位机器人通过TCP/IP协议进行视觉定位数据传输。
作为本发明的自动分料上料装置的改进,所述视觉定位数据包括产品种类、偏移量及旋转量。
与现有技术相比,本发明的有益效果是:本发明的基于边缘反投影的视觉定位方法使产品影像的轮廓与标准模板的轮廓重合,其位置数据精度数据可达到亚像素,且在对影像的明暗、缺失不受影响,搜索角度可以从1度到0.01度进行自由设定。
此外,本发明的基于边缘反投影的视觉定位方法不受图像目标的旋转、平移、尺度变化、明暗、缺失和噪声的影响,能满足较大的搜索空间条件下相应机器人装备的快速、精确定位要求。
同时,本发明的基于边缘反投影的视觉定位方法利用轮廓套合法,可准确区别目标产品的类型,其具有重要的意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于边缘反投影的视觉定位方法一具体实施方式的方法流程;
图2为本发明的自动分料上料装置的一具体实施方式的平面示意图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
如图1所示,本发明的基于边缘反投影的视觉定位方法包括如下步骤:
S1、提取标准模板的最外侧的边缘轮廓。
其中,优选利用Soble算法提取产品的最外侧的边缘轮廓。提取的所述边缘轮廓为封闭轮廓曲线。
S2、填充轮廓内的黑洞。
S3、建立坐标系,基于填充后的轮廓,计算轮廓的中心坐标(X0,Y0)。
其中,以产品的所在空间的水平向右方向为X轴的正方向 ,垂直向上的方向为Y轴的正方向。
S4、定义最小旋转角度α,按照定义的最小旋转角度α,按角度α等间隔采样边缘轮廓到中心(X0,Y0)的距离值Dis0[i],其中,i=1,2,3,……N,N为正整数。
其中,所述最小旋转角度α即定位所需的精度,所述最小旋转角度α的角度范围为0.01°~1°,其可根据需要进行自由设定。从而,步骤S1~S4即为采集标准模板数据,以作为产品视觉定位的基础。基于所述标准模板数据,使产品影像的轮廓与标准模板的轮廓重合,其位置数据精度数据可达到亚像素,且在对影像的明暗、缺失不受影响。为实现使产品影像的轮廓与标准模板的轮廓重合,本发明的基于边缘反投影的视觉定位方法进一步包括如下步骤:
S5、任意旋转需要视觉定位的产品图像,针对旋转后的产品图像,按照步骤S1~S4的方式,得到旋转后的产品中心(Xi,Yi),及边缘到中心(Xi,Yi)的距离Disi[i] ,其中,i=1,2,3,……N,N为正整数。
通过所述步骤S5,可考虑图像目标的旋转、平移、尺度变化、明暗、缺失和噪声的影响的,从而视觉定位时不受图像目标的旋转、平移、尺度变化、明暗、缺失和噪声的影响,能满足较大的搜索空间条件下相应机器人装备的快速、精确定位要求。
S6、循环移动Disi[i],每次移动一位,计算Disi[i]与Dis0[i]的欧氏距离Di。
S7、基于计算得到的Di,获得最小距离Di(min),以及其对应的产品图像的转转角度αi。
S8、将所述αi和(Xi,Yi)作为初始值,将产品的轮廓反投影到标准模板上,移动投影到标准模板上的轮廓,当得到的对应轮廓的欧氏距离小于设定值或循环后达到最小即停止,此时获得产品的定位αi角度值和偏移量(Xi,Yi)坐标值。
所述步骤S8基于轮廓套合法,当得到的对应轮廓的欧氏距离小于设定值或循环后达到最小时,表明产品的轮廓与标准模板轮廓相套合,此时,根据套合的匹配度,可准确区别目标产品的类型。
基于如上所述的基于边缘反投影的视觉定位方法,本发明还提供一种自动分料上料装置,其包括:上料机器人10、托盘20、检测相机30、定位机器人40。
所述上料机器人10实现上料工位1与所述托盘20之间产品的传递。具体地,所述上料机器人10为具有吸盘的机械手臂。所述上料工位1包括第一上料工位和第二上料工位,其中,所述第一上料工位和第二上料工位可分别放置不同的类型的产品,所述第一上料工位和第二上料工位均具有各自的上料机器人10。从而,所述上料机器人10可吸取不同的产品,并传递至托盘20中。可替代地,所述第一上料工位和第二上料工位也可共同一个上料机器人,此时,所述上料机器人10可在所述第一上料工位和第二上料工位之间移动。
所述托盘20位于所述检测相机30的检测区域内,当产品在托盘20中放稳后,可触发检测相机进行检测,所述检测相机30按照如上所述的视觉定位方法对所述产品进行视觉定位,且所述检测相机30与所述定位机器人40进行视觉定位数据传输。所述视觉定位数据包括产品种类、偏移量及旋转量。优选地,所述检测相机30与所述定位机器人40通过TCP/IP协议进行视觉定位数据传输。
所述定位机器人40实现所述托盘20与分料工位2的产品传递。具体地,所述定位机器人40具有数据接收模块、控制模块以及具有吸盘的机械手臂。所述数据接收模块接收所述视觉定位数据,根据收到的数据区别是哪类产品,并在所述控制模块下,根据所述偏移量及偏移旋转量,将产品准确地放入所述分料工位2,即产品治具内,完成产品的自动分料、上料。
综上所述,本发明的基于边缘反投影的视觉定位方法使产品影像的轮廓与标准模板的轮廓重合,其位置数据精度数据可达到亚像素,且在对影像的明暗、缺失不受影响,搜索角度可以从1度到0.01度进行自由设定。
此外,本发明的基于边缘反投影的视觉定位方法不受图像目标的旋转、平移、尺度变化、明暗、缺失和噪声的影响,能满足较大的搜索空间条件下相应机器人装备的快速、精确定位要求。
同时,本发明的基于边缘反投影的视觉定位方法利用轮廓套合法,可准确区别目标产品的类型,其具有重要的意义。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (10)
1.一种基于边缘反投影的视觉定位方法,其特征在于,所述视觉定位方法包括如下步骤:
S1、提取标准模板的最外侧的边缘轮廓;
S2、填充轮廓内的黑洞;
S3、建立坐标系,基于填充后的轮廓,计算轮廓的中心坐标(X0,Y0);
S4、定义最小旋转角度α,按照定义的最小旋转角度α,按角度α等间隔采样边缘轮廓到中心(X0,Y0)的距离值Dis0[i],其中,i=1,2,3,……N,N为正整数;
S5、任意旋转需要视觉定位的产品图像,针对旋转后的产品图像,按照步骤S1~S4的方式,得到旋转后的产品中心(Xi,Yi),及边缘到中心(Xi,Yi)的距离Disi[i] ,其中,i=1,2,3,……N,N为正整数;
S6、循环移动Disi[i],每次移动一位,计算Disi[i]与Dis0[i]的欧氏距离Di;
S7、基于计算得到的Di,获得最小距离Di(min),以及其对应的产品图像的转转角度αi;
S8、将所述αi和(Xi,Yi)作为初始值,将产品的轮廓反投影到标准模板上,移动投影到标准模板上的轮廓,当得到的对应轮廓的欧氏距离小于设定值或循环后达到最小即停止,此时获得产品的定位αi角度值和偏移量(Xi,Yi)坐标值。
2.根据权利要求1所述的基于边缘反投影的视觉定位方法,其特征在于,所述步骤S1中,利用Soble算法提取产品的最外侧的边缘轮廓。
3.根据权利要求1或2所述的基于边缘反投影的视觉定位方法,其特征在于,所述边缘轮廓为封闭轮廓曲线。
4.根据权利要求1所述的基于边缘反投影的视觉定位方法,其特征在于,所述步骤S3中,以产品的所在空间的水平向右方向为X轴的正方向 ,垂直向上的方向为Y轴的正方向。
5.根据权利要求1所述的基于边缘反投影的视觉定位方法,其特征在于,所述步骤S4中,所述最小旋转角度α的角度范围为0.01°~1°。
6.根据权利要求1所述的基于边缘反投影的视觉定位方法,其特征在于,所述步骤S8中,所述移动投影到标准模板上的轮廓包括:上下移动以及旋转移动。
7.一种自动分料上料装置,其特征在于,所述自动分料上料装置包括:上料机器人、托盘、检测相机、定位机器人;
所述上料机器人实现上料工位与所述托盘之间产品的传递,所述托盘位于所述检测相机的检测区域内,所述检测相机按照所述权利要求1~5任一项所述的视觉定位方法对所述产品进行视觉定位,且所述检测相机与所述定位机器人进行视觉定位数据传输,所述定位机器人实现所述托盘与分料工位的产品传递。
8.根据权利要求7所述的自动分料上料装置,其特征在于,所述上料工位包括第一上料工位和第二上料工位,所述第一上料工位和第二上料工位均具有各自的上料机器人。
9.根据权利要求7所述的自动分料上料装置,其特征在于,所述检测相机与所述定位机器人通过TCP/IP协议进行视觉定位数据传输。
10.根据权利要求7所述的自动分料上料装置,其特征在于,所述视觉定位数据包括产品种类、偏移量及旋转量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611120262.7A CN106780454B (zh) | 2016-12-08 | 2016-12-08 | 基于边缘反投影的视觉定位方法及自动分料上料装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611120262.7A CN106780454B (zh) | 2016-12-08 | 2016-12-08 | 基于边缘反投影的视觉定位方法及自动分料上料装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106780454A true CN106780454A (zh) | 2017-05-31 |
CN106780454B CN106780454B (zh) | 2020-08-28 |
Family
ID=58882450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611120262.7A Active CN106780454B (zh) | 2016-12-08 | 2016-12-08 | 基于边缘反投影的视觉定位方法及自动分料上料装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106780454B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110176007A (zh) * | 2019-05-17 | 2019-08-27 | 广州视源电子科技股份有限公司 | 晶状体分割方法、装置及存储介质 |
CN110661775A (zh) * | 2019-07-13 | 2020-01-07 | 中国矿业大学(北京) | 基于特殊结构矿灯的井下人员识别定位及通信*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1776717A (zh) * | 2005-12-01 | 2006-05-24 | 上海交通大学 | 犯罪现场鞋印识别的方法 |
CN101637908A (zh) * | 2008-07-29 | 2010-02-03 | 上海发那科机器人有限公司 | 一种用于机器人搬运作业的视觉定位方法 |
CN102661708A (zh) * | 2012-04-20 | 2012-09-12 | 华南理工大学 | 一种基于surf的高密度封装元器件定位方法 |
CN104463866A (zh) * | 2014-12-04 | 2015-03-25 | 无锡日联科技有限公司 | 一种基于轮廓随机采样的局部形状匹配方法 |
-
2016
- 2016-12-08 CN CN201611120262.7A patent/CN106780454B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1776717A (zh) * | 2005-12-01 | 2006-05-24 | 上海交通大学 | 犯罪现场鞋印识别的方法 |
CN101637908A (zh) * | 2008-07-29 | 2010-02-03 | 上海发那科机器人有限公司 | 一种用于机器人搬运作业的视觉定位方法 |
CN102661708A (zh) * | 2012-04-20 | 2012-09-12 | 华南理工大学 | 一种基于surf的高密度封装元器件定位方法 |
CN104463866A (zh) * | 2014-12-04 | 2015-03-25 | 无锡日联科技有限公司 | 一种基于轮廓随机采样的局部形状匹配方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110176007A (zh) * | 2019-05-17 | 2019-08-27 | 广州视源电子科技股份有限公司 | 晶状体分割方法、装置及存储介质 |
CN110661775A (zh) * | 2019-07-13 | 2020-01-07 | 中国矿业大学(北京) | 基于特殊结构矿灯的井下人员识别定位及通信*** |
Also Published As
Publication number | Publication date |
---|---|
CN106780454B (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230116849A1 (en) | Six degree of freedom tracking with scale recovery and obstacle avoidance | |
CN103353758B (zh) | 一种室内机器人导航方法 | |
CN106650701B (zh) | 基于双目视觉的室内阴影环境下障碍物检测方法及装置 | |
CN106228534B (zh) | 一种基于约束全局优化的转轴和相机间关系标定方法 | |
US20190138114A1 (en) | Method and device for aligning coordinate of controller or headset with coordinate of binocular system | |
CN108460779A (zh) | 一种动态环境下的移动机器人图像视觉定位方法 | |
CN102609941A (zh) | 基于ToF深度相机的三维注册方法 | |
CN107230224B (zh) | 三维虚拟服装模型制作方法及装置 | |
CN109579844A (zh) | 定位方法及*** | |
CN105930795A (zh) | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 | |
CN104075688A (zh) | 一种双目立体凝视监控***的测距方法 | |
CN107091642A (zh) | 一种基于异平面锚节点映射及栅格化纠偏的室内定位方法 | |
CN105261047A (zh) | 一种基于近距离短弧段图像的对接环圆心提取方法 | |
CN103747196B (zh) | 一种基于Kinect传感器的投影方法 | |
CN105631852B (zh) | 基于深度图像等高线的室内人体检测方法 | |
US20230085384A1 (en) | Characterizing and improving of image processing | |
CN103768792B (zh) | 应用于大范围视频空间目标定位***的分区与识别方法 | |
CN106504287A (zh) | 基于模板的单目视觉目标空间定位*** | |
CN106352871A (zh) | 一种基于天花板人工信标的视觉室内定位***和方法 | |
CN107687821B (zh) | 用于深孔洞旋转件形貌测量的多相机光刀***标定方法 | |
CN106780454A (zh) | 基于边缘反投影的视觉定位方法及自动分料上料装置 | |
CN107527366A (zh) | 一种面向深度相机的相机跟踪方法 | |
CN106651957A (zh) | 基于模板的单目视觉目标空间定位方法 | |
CN106652028A (zh) | 一种环境三维建图方法及装置 | |
CN206074001U (zh) | 一种基于3d摄像机的机器人室内定位*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |