CN105014675B - 一种狭窄空间智能移动机器人视觉导航***及方法 - Google Patents
一种狭窄空间智能移动机器人视觉导航***及方法 Download PDFInfo
- Publication number
- CN105014675B CN105014675B CN201410281773.1A CN201410281773A CN105014675B CN 105014675 B CN105014675 B CN 105014675B CN 201410281773 A CN201410281773 A CN 201410281773A CN 105014675 B CN105014675 B CN 105014675B
- Authority
- CN
- China
- Prior art keywords
- image
- cross
- location
- point
- analyzing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种狭窄空间智能移动机器人视觉导航***及方法。***包括图像采集端以及分析处理端,图像采集端包括十字线激光投射器、第一***机以及第二***机、控制单元,方法包括如下步骤:十字线激光投射器投射十字线光条图像;第一***机以及第二***机分别采集十字光条图像,并将十字光条图像输出至分析处理端;分析处理端对图像进行分析,得出光条的三维坐标集合;分析处理端根据光条的三维坐标集合,分析前方出现的障碍物的区域位置;分析处理端将区域位置返回至图像采集端的控制单元,以控制机器人完成对障碍物的躲避。根据本发明能够在复杂、未知狭窄工作环境中,准确地实现机器人的自主避障导航。
Description
技术领域
本发明涉及视觉导航技术领域,特别是一种狭窄空间智能移动机器人视觉导航***及方法。
背景技术
智能移动机器人是一类通过自身携带的传感器获得周围环境信息和自身状态,完成环境中障碍物的检测和目标的识别,从而实现从起始位置自主运动到目标位置,并且对目标物体进行操作任务的机器人***。其本身具有完备的感知、分析、决策和执行等模块,可以像一个自主的人类一样独立地在环境中从事生产活动。未知环境下智能机器人的视觉导航技术涉及人工智能与模式识别理论、自动控制理论、传感器技术、计算机技术和图像分析与处理技术等,已经成为人工智能和先进机器人研究领域的学科前沿课题,是目前智能机器人开发研究的热点和难点问题之一。
在已知或结构化的环境中,移动机器人自主导航控制理论和方法的研究已取得了大量的研究和应用成果。在当前及未来的实际应用中,移动机器人需要经常工作在未知的环境,而目前对于未知或非结构化环境中的机器人自主导航问题仍然没有得到很好的解决。目前移动机器人自主导航技术中常用的传感器包括超声波传感器、红外传感器、激光测距雷达、化学传感器及视觉传感器。与其它传感器相比,视觉传感器具有较高的智能化和处理速度的优势,而且能够克服未知环境中先验知识的匮乏和环境的不确定性等等因素,因此视觉传感器在移动机器人中的应用越来越受到人们的重视。
然而,现有的视觉导航***无法在狭小复杂的环境中实现准确的识别运动前方出现的障碍物和目标物体。
因此,需要一种狭窄空间智能移动机器人视觉导航***及方法,以适应狭小的工作环境,准确地实现对未知的障碍物和目标物体进行检测与识别。
发明内容
本发明的目的是提供一种狭窄空间智能移动机器人视觉导航***及方法。
根据本发明的一个方面,提供了一种狭窄空间智能移动机器人视觉导航***,包括:图像采集端,用于采集十字光条图像,并将所述十字光条图像向分析处理端输出,所述图像采集端包括:十字线激光投射器,用于投射所述十字光条图像;第一***机以及第二***机,用于分别拍摄投射到障碍物上的所述十字光条图像得到第一定位图像和第二定位图像,并将所述十字光条图像向所述分析处理端传输;控制单元,用于根据从所述分析处理端接收的表示障碍物位置的数据信息,控制所述图像采集端的行进;分析处理端,用于根据从第一***机以及所述第二***机分别输入的所述十字光条图像,完成十字光条在第一定位图像和第二定位图像上的匹配,以所述十字光条的十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合,分析得到所述十字光条图像的三维坐标集合,并判断出现的障碍物的区域,最后将所述区域返回至所述控制单元,以控制所述图像采集端的行进。
优选地,所述分析处理端,以所述十字光条的十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合,的算法为:a)在所述第一定位图像和所述第二定位图像中分别提取所述十字光条图像,并选取灰度阈值将所述十字光条图像二值化;b)在所述第一定位图像和所述第二定位图像中,扫描所述十字光条图像,以所述十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同一侧的所有光条像素集合,以及,分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同另外一侧的所有光条像素集合;以及c)获取光条像素中心坐标,从而提取分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合。
优选地,所述分析处理端根据公式(1)来确定所述十字光条图像的任意一点的三维坐标(x,y,z):
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2],1、2分别代表:分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合的序号,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合的序号。
优选地,所述分析处理端分析出现障碍物的区域的算法为:首先将前进方向划分为左上、右上、右下,以及左下四个区域,然后分别统计所述四个区域在zP≤H范围内的所有坐标集合的个数为{NA,NB,NC,ND},其中H为距离报警阈值,当Ni≥TH,i∈(A,B,C,D)时,则认为第i区域中出现了障碍物,其中,TH为坐标个数的阈值。
优选地,所述图像采集端的尺寸为不超过50mm3。
优选地,所述第一***机以及第二***机固定在同一个水平面上。
优选地,所述第一***机以及第二***机上安装有LED光源。
根据本发明的另一方面,提供了一种狭窄空间智能移动机器人视觉导航方法,根据所述方法的***包括图像采集端以及分析处理端,所述图像采集端包括十字线激光投射器、第一***机以及第二***机、控制单元,所述方法包括如下步骤:a)所述十字线激光投射器投射十字线光条图像;b)所述第一***机以及所述第二***机分别采集所述十字光条图像,并将所述十字光条图像输出至所述分析处理端;c)所述分析处理端对图像进行分析,得出光条的三维坐标集合{xP,yP,zP};d)所述分析处理端根据光条的三维坐标集合{xP,yP,zP},分析前方出现的障碍物的区域位置;以及e)所述分析处理端将所述区域位置返回至所述图像采集端的所述控制单元,以控制机器人完成对障碍物的躲避。
优选地,步骤c中,所述分析处理端对图像进行分析,得出所述十字光条图像的三维坐标集合{xP,yP,zP}的方法包括如下步骤:c1)在所述第一定位图像和所述第二定位图像中分别提取所述十字光条图像,并选取灰度阈值将所述十字光条图像二值化;c2)在所述第一定位图像和所述第二定位图像中,扫描所述十字光条图像,以所述十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同一侧的所有光条像素集合,以及,分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同另外一侧的所有光条像素集合;c3)获取光条像素中心坐标,从而提取分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合;以及,c4)根据公式(1)来确定所述十字光条图像的任意一点的三维坐标(x,y,z),从而获得所述十字光条图像的三维坐标集合{xP,yP,zP}:
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2],1、2分别代表:分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合的序号,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合的序号。
优选地,步骤d中,分析处理端分析出现障碍物的区域的算法为:首先将前进方向划分为左上区域{A|xP∈[0,b/2],yP≥0}、右上区域{B|xP∈(b/2,b],yP≥0},右下区域{C|xP∈(b/2,b],yP<0},以及左下区域{D|xP∈[0,b/2],yP<0}四个区域,然后分别统计这四个区域在zP≤H范围内的所有坐标集合的个数为{NA,NB,NC,ND},其中H为距离报警阈值,当Ni≥TH时,认为第i区域中出现了障碍物,其中,i∈(A,B,C,D),TH为坐标个数的阈值。
根据本发明的狭窄空间智能移动机器人视觉导航***及方法,能够针对未知狭窄装配空间移动机器人自动导航与避障的特殊性和精度要求,在复杂、未知狭窄工作环境中,准确地实现对未知的障碍物和目标物体进行检测与识别,机器人的自主控制,以及自主避障导航。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示意性示出了本发明的狭窄空间智能移动机器人视觉导航***及方法的结构图。
图2示意性示出了图像采集端的立体图。
图3示意性示出了分析处理端进行分析处理的方法流程图。
图4示意性示出了第一***机以及第二***机坐标系的示意图。
图5示意性示出了光条区域预存储的示意图。
图6示意性示出了一个表示障碍物出现区域的坐标系的示意图。
图7示意性示出了根据本发明的狭窄空间智能移动机器人视觉导航方法的流程图。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
图1示意性示出了本发明的狭窄空间智能移动机器人视觉导航***框图。如图1所示,本发明的狭窄空间智能移动机器人视觉导航***100包括图像采集端110以及分析处理端120。其中,图像采集端110可以安装于移动机器人上,所述图像采集端110至少包括第一***机111a、第二***机111b、十字交叉线激光投射器112,以及控制单元113。
图像采集端110用于采集通过激光投射器112投射到目标物上成像的光条图像,并将图像数据通过有线或无线的方式向分析处理端120输出。例如利用模拟视频信号BNC接头、视频连接线以及视频采集卡的有线方式进行数据传输,又例如通过蓝牙、WiFi、NFC等技术进行无线数据传输。特别地,图像采集端110自带有电源。优选地,图像采集端110的尺寸不超过50mm3。
图像采集端110具体包括:
第一***机111a以及第二***机111b,用于拍摄投射到物体上的十字光条图像。该十字光条图像由十字线激光投射器112发出。对于本发明的十字光条图像,除了正十字以外,也可以是其他的十字,例如非垂直的交叉光条图像。
优选地,两部摄像机固定在同一个水平面上。两部摄像机的光轴保持平行放置,二者之间的基线距离为30-50mm之间,优选为40mm。更优选地,两部摄像机的外形尺寸均为12×12×12mm3。
十字线激光投射器112用于投射十字光条图像。优选地,十字光条激光投射器安装于第一***机111a以及第二***机111b中间,特别地,十字线激光投射器112只要位于两个***机111a以及111b连线中点所在的垂直于该连线的直线上即可。并且,其外形尺寸优选为10×20×10mm3。十字线激光投射器112投出的每一个光条与水平的夹角优选为45度。整体的外形尺寸优选不超过50×25×30mm3。图2示意性示出了图像采集端的立体图。如图2所示,在第一***机111a以及第二***机111b的外边框上还优选安装有照明用的LED光源114,保证机器人在黑暗的环境中可以继续工作,例如可以在两部摄像机外边框上分别安装一圈环形的LED光源114。
控制单元113,用于根据从分析处理端120接收的表示障碍物位置的数据信息,控制图像采集端110的行进以避开障碍物。
本发明的图像采集端110与现有的视觉导航***相比,具有体积小、重量轻等优势,可方便安装在狭窄空间移动机器人前端。而且图像采集端110能够通过后述的分析处理端120获得前进方向上的三维信息,以便机器人在复杂未知的非平面环境下顺利避开障碍物到达目的地。
分析处理端120,其根据从第一***机以及第二***机输入的十字光条图像,完成十字光条在左右图像上的匹配,得到在左右相机坐标系中的十字光条像素的坐标集合{uL,vL},{uR,vR},然后分析出所述十字光条图像的三维坐标集合{xP,yP,zP},并判断出现的障碍物的区域,最后将障碍物的区域位置返回至所述控制单元,以控制图像采集端的行进。
优选地,分析处理端120包括用于对图像分析处理结果进行显示的显示器。
以下为了方便描述,第一***机111a也称为左相机,其拍摄的十字光条图像称为左图像;第二***机111b也称为右相机,其拍摄的十字光条图像称为右图像。
图3示意性地示出了分析处理端120进行分析处理的方法流程图,如图3所示:
步骤301,完成十字光条在左右图像上的匹配,以十字交叉点w(参照图5)为界,得到分别位于左、右图像中十字交叉点相同一侧的光条中心坐标集合(以下简称为1#精集合)(uL1,vL1)与(uR1,vR1),以及,分别位于左、右图像中十字交叉点相同另外一侧的光条中心坐标集合(以下简称为2#精集合)(uL2,vL2)与(uR2,vR2)。
下面具体地对获取坐标集合的1#精集合:(uL1,vL1)与(uR1,vR1)以及2#精集合:(uL2,vL2)与(uR2,vR2)的算法进行说明。图4示意性示出了左相机以及右相机坐标系的示意图,如图4所示:OL-XLYLZL是左相机的坐标系,OR-XRYRZR是右相机的坐标系。该模型中左相机以及右相机理想化为内部参数相同,x轴相同,y、z轴平行的理想状态。P是十字线投射器投影到被测物体上的任意一点,经过相机采集后在左右图像上对应的坐标分别为PL,PR。
首先,在左图像和右图像中分别提取十字光条图像,并选取合适的灰度阈值将十字光条图像二值化。
其次,在左图像或右图像中,逐行扫描光条像素,以十字交叉点W(参照图5)为界,得到分别位于左、右图像中十字交叉点相同一侧的所有光条像素集合(以下简称1#粗集合),以及,分别位于左、右图像中十字交叉点相同另外一侧的所有光条像素集合(以下简称为2#粗集合)。图5示意性示出了光条区域预存储的示意图。如图5所示,在同一行图像像素上从左到右搜索光条的区域,以十字交叉点W为界,先遇到的靠左边的光条区域起始坐标值(x_b1,y)和结束坐标值(x_e1,y)存入1#粗集合中,剩下靠右边的光条区域起始坐标值(x_b2,y)和结束坐标值(x_e2,y)存入2#粗集合中。
特别地,这里虽然在1#粗集合以及2#粗集合中分别存放以十字交叉点W为界的十字光条图像的左、右两部分,但是不限于此,也可以存放十字光条图像的上、下两部分,即按照由上向下,或由下向上的逐列搜索方式对图像进行搜索扫描。例如在由上向下的逐列搜索扫描时,可将先遇到的靠上边的光条区域起始坐标值和结束坐标值存入1#粗集合,剩下的靠下边的光条区域的起始坐标值和结束坐标值存入2#粗集合。
再次,以公式1确定参数a3,从而得到光条像素中心坐标(a3,yi),从而提取1#精集合以及2#精集合。在1#集合中从(x_b1,yi)开始遍历至(x_e1,yi),其中i∈[1,图像高度H],将它们的x轴坐标值对应的灰度值记录为I,然后用下列公式(1)进行高斯曲线拟合,
其中,a1,a2,a3和a4均为曲线的参数。拟合的结果a3即为高斯曲线的中心,也就是激光光条的中心坐标(a3,yi)。这样就可以得到1#粗集合以及2#粗集合中的所有光条区域的中心坐标集合,即1#精集合以及2#精集合,记为(uL1,vL1)与(uR1,vR1)以及(uL2,vL2)与(uR2,vR2)。其中,(uL1,vL1)表示左图像中的1#精集合,(uR1,vR1)表示右图像中的1#精集合,(uL2,vL2)表示左图像中的2#精集合,(uR2,vR2)表示右图像中的2#精集合。图5示意性示出了光条区域预存储的示意图,这里图5并不限定是左图像还是右图像,这里姑且设图5为左图像。如图5所示,G(L1)以及G(L2)分别代表左图像中1#精集合以及2#精集合,即分别代表十字光条交叉点W左侧的中心坐标点集合G(L2)指十字光条交叉点W右侧的中心坐标点集合。
步骤302,获取光条的是三维坐标集合。具体地,根据相机的内外参数分析出光条在空间中任意一点的三维坐标(x,y,z)为:
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2]为1#或2#坐标集合的序号。遍历所有的光条坐标集合{uL,vL},{uR,vR},且
{uL,vL}={uL1,vL1}∪{uL2,vL2}
{uR,vR}={uR1,vR1}∪{uR2,vR2}
此外,U表示横坐标,V表示纵坐标。
即可得到光条的三维坐标集合记为{xP,yP,zP}。
步骤303,根据光条的三维坐标集合{xP,yP,zP},判断前方出现的障碍物的区域。具体地,图6为一个空间三维坐标系的O-xpyp平面示意图,zp轴垂直于纸面向外。实粗线为两条相互垂直的激光光条,二者交点的三维坐标为(b/2,0,0)。视觉***的前进方向可划分为四个区域:A表示左上区域{A|xP∈[0,b/2],yP≥0},B表示右上区域{B|xP∈(b/2,b],yP≥0},C表示右下区域{C|xP∈(b/2,b],yP<0}和D表示左下区域{D|xP∈[0,b/2],yP<0},如图所示。此外,正上方表示A与B区域,正下方表示C与D区域,左侧表示A与D区域,右侧表示B与C区域。分别统计这四个区域在zP≤H(H为距离报警阈值)范围内的所有坐标集合的个数为{NA,NB,NC,ND}。当Ni≥TH(i∈(A,B,C,D),TH为坐标个数的阈值)时,认为第i区域中出现了障碍物。不同的Ni构成16种不同的编码情况,例如假设其中{NA,NB,NC,ND}均大于TH,则编码值为(1111),表明前方出现障碍物,无可通行的方向。其余15种相应的可通行无障碍的方向如下表格所示:
表1 前方障碍物位置分布情况示意表
分析处理端120完成对前方障碍物位置的判断后,将位置信息返回至图像采集端110的控制单元113,以控制图像采集端110所在的机器人顺利完成对障碍物的躲避。关于分析处理端120将该位置信息返回至图像采集端110的控制单元113的方式,可以利用模拟视频信号BNC接头、视频连接线以及视频采集卡的有线方式进行数据传输,又例如通过蓝牙、WiFi、NFC等技术进行无线数据传输。
图7示意性示出了根据本发明的狭窄空间智能移动机器人视觉导航方法的流程图,如图7所示:
步骤710,投射十字线光条图像。视频采集端110的十字线激光投射器112发射十字光条图像。优选地,十字光条激光投射器安装于左相机以及右相机中间。并且,其外形尺寸优选为10×20×10mm3。十字线激光投射器112投出的每一个光条与水平的夹角优选为45度。整体的外形尺寸优选不超过50×25×30mm3。图2示意性示出了图像采集端的立体图。如图2所示,在左相机以及右相机各自外边框上还优选安装一圈照明用的环形LED光源,保证机器人在黑暗的环境中可以继续工作。
步骤720,左相机以及右相机分别采集十字光条图像,并将该十字光条图像输出至分析处理端120。即,左相机以及右相机分别对由十字线激光投射器112投射到前方物体上的十字光条图像。优选地,两部摄像机固定在同一个水平面上,两部摄像机的光轴保持平行放置,二者之间的基线距离为40mm。更优选地,摄像机的外形尺寸均为12×12×12mm3。
步骤730,分析处理端120对图像进行分析,得出光条的三维坐标集合。具体地,包括如下步骤:
步骤a,提取左图像和右图像(也可称为第一十字线激光条图像和第二十字线光条图像),并选取合适的灰度阈值将图像二值化。
步骤b,在左图像或右图像中,逐行扫描光条像素,以十字交叉点W(参照图5)为界,得到分别位于左、右图像中十字交叉点相同一侧的所有光条像素集合(以下简称1#粗集合),以及,分别位于左、右图像中十字交叉点相同另外一侧的所有光条像素集合(以下简称为2#粗集合)。图5示意性示出了光条区域预存储的示意图。如图5所示,在同一行图像像素上从左到右搜索光条的区域,先遇到的靠左边的光条区域起始坐标值(x_b1,y)和结束坐标值(x_e1,y)存入1#粗集合中,剩下靠右边的光条区域起始坐标值(x_b2,y)和结束坐标值(x_e2,y)存入2#粗集合中。
步骤c,以公式1确定光条像素中心坐标,从而提取1#精集合以及2#精集合。在1#集合中从(x_b1,yi)开始遍历至(x_e1,yi),其中i∈[1,图像高度H],将它们的x轴坐标值对应的灰度值记录为I,然后用下列公式(2)进行高斯曲线拟合,
其中,a1,a2,a3和a4均为曲线的参数。拟合的结果a3即为高斯曲线的中心,也就是激光光条的中心坐标(a3,yi)。这样就可以得到1#粗集合以及2#粗集合中的所有光条区域的中心坐标集合,即1#精集合以及2#精集合,记为(uL1,vL1)与(uR1,vR1)以及(uL2,vL2)与(uR2,vR2)。其中,(uL1,vL1)表示左图像中的1#精集合,(uR1,vR1)表示右图像中的1#精集合,(uL2,vL2)表示左图像中的2#精集合,(uR2,vR2)表示右图像中的2#精集合。图5示意性示出了光条区域预存储的示意图,(而这里图5并不限定是左图像还是右图像,这里姑且设图5为左图像)如图5所示,G(L1)以及G(L2)分别代表左图像中1#精集合以及2#精集合,即分别代表十字光条交叉点W左侧的中心坐标点集合G(L2)指十字光条交叉点W右侧的中心坐标点集合。
步骤d,获取光条的是三维坐标集合。具体地,根据相机的内外参数分析出光条在空间中任意一点的三维坐标(x,y,z)为:
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2]为1#或2#坐标集合的序号。遍历所有的光条坐标集合{uL,vL},{uR,vR},且
{uL,vL}={uL1,vL1}∪{uL2,vL2}
{uR,vR}={uR1,vR1}∪{uR2,vR2}
即可得到光条的三维坐标集合记为{xP,yP,zP}。
步骤740,分析处理端120根据光条的三维坐标集合{xP,yP,zP},判断前方出现的障碍物的区域位置。分析处理端分析出现障碍物的区域的算法为:首先将前进方向划分为左上区域{A|xP∈[0,b/2],yP≥0}、右上区域{B|xP∈(b/2,b],yP≥0},右下区域{C|xP∈(b/2,b],yP<0},以及左下区域{D|xP∈[0,b/2],yP<0}四个区域,然后分别统计这四个区域在zP≤H范围内的所有坐标集合的个数为{NA,NB,NC,ND},其中H为距离报警阈值,当Ni≥TH时,认为第i区域中出现了障碍物,其中,i∈(A,B,C,D),TH为坐标个数的阈值。
步骤750,分析处理端120将该位置数据返回至图像采集端110的控制单元113,以控制图像采集端所在的机器人顺利完成对障碍物的躲避,实现自主导航。
根据本发明的狭窄空间智能移动机器人视觉导航***及方法,能够针对未知狭窄装配空间移动机器人自动导航与避障的特殊性和精度要求,在复杂、未知狭窄工作环境中,准确地实现对未知的障碍物和目标物体进行检测与识别,机器人的自主控制,以及自主避障导航。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。
Claims (8)
1.一种狭窄空间智能移动机器人视觉导航***,包括:
图像采集端,用于采集十字光条图像,并将所述十字光条图像向分析处理端输出,所述图像采集端包括:
十字线激光投射器,用于投射所述十字光条图像;
第一***机以及第二***机,用于分别拍摄投射到障碍物上的所述十字光条图像得到第一定位图像和第二定位图像,并将所述十字光条图像向所述分析处理端传输;
控制单元,用于根据从所述分析处理端接收的表示障碍物位置的数据信息,控制所述图像采集端的行进;
分析处理端,用于根据从第一***机以及所述第二***机分别输入的所述十字光条图像,完成十字光条在第一定位图像和第二定位图像上的匹配,以所述十字光条的十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合,分析得到所述十字光条图像的三维坐标集合,并判断出现的障碍物的区域,最后将所述区域返回至所述控制单元,以控制所述图像采集端的行进;
其中,所述分析处理端,以所述十字光条的十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合,的算法为:
a)在所述第一定位图像和所述第二定位图像中分别提取所述十字光条图像,并选取灰度阈值将所述十字光条图像二值化;
b)在所述第一定位图像和所述第二定位图像中,扫描所述十字光条图像,以所述十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同一侧的所有光条像素集合,以及,分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同另外一侧的所有光条像素集合;以及
c)获取光条像素中心坐标,从而提取分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合。
2.根据权利要求1所述的***,其特征在于,所述分析处理端根据公式(1)来确定所述十字光条图像的任意一点的三维坐标(x,y,z):
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2],1、2分别代表:分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合的序号,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合的序号。
3.根据权利要求1所述的***,其特征在于,所述分析处理端分析出现障碍物的区域的算法为:首先将前进方向划分为左上、右上、右下,以及左下四个区域,然后分别统计所述四个区域在zP≤H范围内的所有坐标集合的个数为{NA,NB,NC,ND},其中H为距离报警阈值,当Ni≥TH,i∈(A,B,C,D)时,则认为第i区域中出现了障碍物,其中,TH为坐标个数的阈值。
4.根据权利要求1所述的***,其特征在于,所述图像采集端的尺寸为不超过50mm3。
5.根据权利要求1所述的***,其特征在于,所述第一***机以及第二***机固定在同一个水平面上。
6.根据权利要求1所述的***,其特征在于,所述第一***机以及第二***机上安装有LED光源。
7.一种狭窄空间智能移动机器人视觉导航方法,根据所述方法的***包括图像采集端以及分析处理端,所述图像采集端包括十字线激光投射器、第一***机以及第二***机、控制单元,所述方法包括如下步骤:
a)所述十字线激光投射器投射十字线光条图像;
b)所述第一***机以及所述第二***机分别采集所述十字光条图像,并将所述十字光条图像输出至所述分析处理端;
c)所述分析处理端对图像进行分析,得出光条的三维坐标集合{xP,yP,zP};
其中,所述分析处理端对图像进行分析,得出所述十字光条图像的三维坐标集合{xP,yP,zP}的方法包括如下步骤:
c1)在所述第一定位图像和所述第二定位图像中分别提取所述十字光条图像,并选取灰度阈值将所述十字光条图像二值化;
c2)在所述第一定位图像和所述第二定位图像中,扫描所述十字光条图像,以所述十字交叉点为界,得到分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同一侧的所有光条像素集合,以及,分别位于所述第一定位图像和所述第二定位图像中十字交叉点相同另外一侧的所有光条像素集合;
c3)获取光条像素中心坐标,从而提取分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合;以及
c4)根据公式(1)来确定所述十字光条图像的任意一点的三维坐标(x,y,z),从而获得所述十字光条图像的三维坐标集合{xP,yP,zP}:
其中,αx,αy分别为相机x,y轴上的有效焦距,(u0,v0)为相机的主点图像坐标,b为基线距离,且i∈[1,2],1、2分别代表:分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同一侧的光条中心坐标集合的序号,以及,分别位于所述第一定位图像和所述第二定位图像中所述十字交叉点相同另外一侧的光条中心坐标集合的序号;
d)所述分析处理端根据光条的三维坐标集合{xP,yP,zP},分析前方出现的障碍物的区域位置;以及
e)所述分析处理端将所述区域位置返回至所述图像采集端的所述控制单元,以控制机器人完成对障碍物的躲避。
8.根据权利要求7所述的方法,其特征在于,步骤d中,分析处理端分析出现障碍物的区域的算法为:首先将前进方向划分为左上区域{A|xP∈[0,b/2],yP≥0}、右上区域{B|xP∈(b/2,b],yP≥0},右下区域{C|xP∈(b/2,b],yP<0},以及左下区域{D|xP∈[0,b/2],yP<0}四个区域,然后分别统计这四个区域在zP≤H范围内的所有坐标集合的个数为{NA,NB,NC,ND},其中H为距离报警阈值,当Ni≥TH时,认为第i区域中出现了障碍物,其中,i∈(A,B,C,D),TH为坐标个数的阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410281773.1A CN105014675B (zh) | 2014-06-20 | 2014-06-20 | 一种狭窄空间智能移动机器人视觉导航***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410281773.1A CN105014675B (zh) | 2014-06-20 | 2014-06-20 | 一种狭窄空间智能移动机器人视觉导航***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105014675A CN105014675A (zh) | 2015-11-04 |
CN105014675B true CN105014675B (zh) | 2016-08-17 |
Family
ID=54405157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410281773.1A Active CN105014675B (zh) | 2014-06-20 | 2014-06-20 | 一种狭窄空间智能移动机器人视觉导航***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105014675B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105856227A (zh) * | 2016-04-18 | 2016-08-17 | 呼洪强 | 基于特征识别的机器人视觉导航技术 |
CN107305380A (zh) * | 2016-04-20 | 2017-10-31 | 上海慧流云计算科技有限公司 | 一种自动避障方法和装置 |
CN106383518A (zh) * | 2016-09-29 | 2017-02-08 | 国网重庆市电力公司电力科学研究院 | 一种多传感器隧道机器人避障控制***及方法 |
CN107020640A (zh) * | 2017-04-28 | 2017-08-08 | 成都科力夫科技有限公司 | 机器人交互式游戏*** |
CN107806857A (zh) * | 2017-11-08 | 2018-03-16 | 沈阳上博智像科技有限公司 | 无人驾驶的可移动设备 |
CN109872558A (zh) * | 2017-12-04 | 2019-06-11 | 广州市捷众智能科技有限公司 | 一种基于十字形激光投影的室内车位状态检测法 |
CN113639748B (zh) * | 2020-04-26 | 2024-04-05 | 苏州北美国际高级中学 | 基于十字型激光器及单目视觉***的管道小车导航方法 |
CN111765849B (zh) * | 2020-07-31 | 2021-08-27 | 南京航空航天大学 | 一种用于飞机狭小空间装配质量的测量装置及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69736348T2 (de) * | 1996-10-24 | 2006-11-30 | Fanuc Ltd. | Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten |
CN1161600C (zh) * | 2001-04-30 | 2004-08-11 | 北京航空航天大学 | 结构光三维双视觉标定点发生方法及装置 |
JP2004030445A (ja) * | 2002-06-27 | 2004-01-29 | National Institute Of Advanced Industrial & Technology | 移動ロボットの自己位置推定方法及びシステム、並びにプログラム |
CN102183216A (zh) * | 2011-03-14 | 2011-09-14 | 沈阳飞机工业(集团)有限公司 | 基于线结构光的三维测量方法及其装置 |
CN102313536B (zh) * | 2011-07-21 | 2014-02-19 | 清华大学 | 基于机载双目视觉的障碍物感知方法 |
-
2014
- 2014-06-20 CN CN201410281773.1A patent/CN105014675B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105014675A (zh) | 2015-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105014675B (zh) | 一种狭窄空间智能移动机器人视觉导航***及方法 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
Bai et al. | Smart guiding glasses for visually impaired people in indoor environment | |
CN109901590B (zh) | 桌面机器人的回充控制方法 | |
CN104932001B (zh) | 一种实时3d核辐射环境重建监测*** | |
CN106584451B (zh) | 一种基于视觉导航的变电站自动构图机器人及方法 | |
CN106407857B (zh) | 用于自动化装置配对的***和方法 | |
CN115597659B (zh) | 一种变电站智能安全管控方法 | |
CN205043784U (zh) | 一种可自主移动的多功能机器人 | |
CN104842358A (zh) | 一种可自主移动的多功能机器人 | |
CN207115193U (zh) | 一种用于处理任务区域的任务的移动电子设备 | |
CN104268933B (zh) | 一种车载二维激光运动中三维环境扫描成像方法 | |
CN102622732A (zh) | 一种前扫声纳图像拼接方法 | |
CN103869824A (zh) | 基于生物触角模型的多机器人水下目标搜寻方法及装置 | |
CN106162144A (zh) | 一种用于夜视环境的视觉图像处理设备、***和智能机器 | |
CN108459596A (zh) | 一种移动电子设备以及该移动电子设备中的方法 | |
KR20200020465A (ko) | 좌표계 변환 정보 획득 장치 및 방법 | |
CN113837059B (zh) | 一种规劝行人及时佩戴口罩的巡视车及其控制方法 | |
CN106370160A (zh) | 一种机器人室内定位***和方法 | |
WO2018144396A1 (en) | Tracking image collection for digital capture of environments, and associated systems and methods | |
CN207067803U (zh) | 一种用于处理任务区域的任务的移动电子设备 | |
CN107402578A (zh) | 无人机全景障碍感知方法、装置、设备及存储介质 | |
CN108931982A (zh) | 用于移动机器人设备的视觉导航***和方法 | |
CN105043351A (zh) | 一种基于生物机器人的微型无线主动式全景视觉传感器 | |
Shen et al. | A multi-view camera-projector system for object detection and robot-human feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |