CN202008363U - 基于全方位视觉传感器进行自动导航的z轴定位*** - Google Patents
基于全方位视觉传感器进行自动导航的z轴定位*** Download PDFInfo
- Publication number
- CN202008363U CN202008363U CN2011200082624U CN201120008262U CN202008363U CN 202008363 U CN202008363 U CN 202008363U CN 2011200082624 U CN2011200082624 U CN 2011200082624U CN 201120008262 U CN201120008262 U CN 201120008262U CN 202008363 U CN202008363 U CN 202008363U
- Authority
- CN
- China
- Prior art keywords
- vision sensor
- omnibearing vision
- sign
- image
- omnibearing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本实用新型公开了一种基于全方位视觉传感器进行自动导航的Z轴定位***,围绕作业区域的***角落上放置4个组成矩形的有色标识,全方位视觉传感器设置在作业车辆上;全方位视觉传感器获取现场的包含有4个有色标识成像的全方位图像;根据公式计算当前的全方位视觉***的计算高度H;最后计算高度H与标准高度Hs的差值,即Z轴方向的定位坐标值,从而完成作业机械的Z轴定位。该装置定位速度快、使用范围广、实用性强、具有价格优势。
Description
技术领域
本实用新型涉及一种基于全方位视觉传感器进行自动导航的Z轴定位***。
背景技术
目前,人们对机械的自动化程度要求越来越高;机械自动化作业及其机器人的发展是未来机械化发展方向;定位对自动作业车辆、机器人来说,非常重要。车辆、机器人在自动作业时,必须知道自己的位置,才可以决定机器人能否按要求完成下一步的执行任务。GPS是目前唯一商业化并使用最多的定位***;但GPS的精度取决于作业位置,在城市高楼街道或山区,GPS由于房屋、树林、山脉等障碍物阻碍微波传送,精度明显下降;尤其GPS不能在室内使用。类似于哺乳动物,通过视觉来实现定位是现在机器人定位的研究热点之一,视觉传感器定位方法主要分为几何定位和拓扑定位。典型的几何定位是在2D平面中通过图像处理识别标识位置算出或者图像匹配找出机器人的绝对位置。拓扑定位是在建立拓扑地图的基础,找到机器人的抽象位置;拓扑定位应用范围广,不需要人工设置标识,但一般建立拓扑地图复杂,图像信息计算量大,运行速度较慢。通过设置人工标识来实现几何定位方法简单,在机器人定位中得到广泛的应用。而通过普通视觉传感器实施几何绝对定位,一般得出平面二维定位结果;GPS可求出机器人空间三维的定位结果。在实际凹凸不平的作业环境中,空间3D定位是有必要的,可以有效判断机器人的地面环境;另外近年来一种在GPS技术上发展的RTK-GPS技术,精度较高,但是价格昂贵。普通的车辆和作业机械尤其是农业机械及农业运输车,作业环境场所面积比较恶劣,尤其温室作业,GPS技术根本不可能实现自动导航定位。
全方位视觉传感器是一种新型的视觉传感器,它能提供360度范围的丰富的信息,图像不会随传感器的旋转而改变,有利于减少车轮滑移和震动的部分负面影响,而且价格便宜,被广泛应用在机器人领域;专利申请“一种自动导航装置及方法”(申请号:200910044412.4)公开了平面空间二维的计算方法,而要实现三位定位,还必须完成Z轴的定位。
实用新型内容
本实用新型所要解决的技术问题是提出一种基于全方位视觉传感器进行自动导航的Z轴定位***,该基于全方位视觉传感器进行自动导航的Z轴定位***能实现Z轴的定位,从而在现有二维定位的基础上完成空间三维定位,该方法和装置定位速度快、使用范围广、实用性强、具有价格优势。
本实用新型的技术解决方案如下:
一种基于全方位视觉传感器进行自动导航的Z轴定位***,在作业区域的***角落上放置4个组成矩形的有色标识:L1、L2、L3、L4,用于获取现场的包含有4个有色标识成像的全方位图像的全方位视觉传感器设置在作业车辆上;在作业车辆上设有微处理器,微处理器中具有用于根据全方位视觉传感器获取的图像进行数据处理获取有色标识位置坐标的图像处理单元,微处理器中还具有用于根据前述全方位视觉传感器自动导航Z轴定位方法并最终获得Z轴方向的定位坐标值的计算单元。
图像处理单元和计算单元涉及到的方法如下:
在作业区域的***角落上放置4个组成矩形的有色标识:L1、L2、L3、L4,全方位视觉传感器设置在作业车辆上;全方位视觉传感器获取现场的包含有4个有色标识成像的全方位图像;
全方位视觉传感器***高度和全方位视觉传感器与标识距离、成像距离的关系式为:
其中a1,b1,c为双曲面表面的结构参数;f为焦距;H为当前的全方位视觉***的计算高度;
X0为在XOY平面上全方位视觉传感器到空间点P(X0,Z0)间的距离,X0为空间点P(X0,Z0)在XOY平面上的投影点与全方位视觉传感器在XOY平面上的投影点之间的距离;
xi为成像距离,即4个有色标识到全方位视觉传感器投影中心的成像实际距离平均值;xi由分别计算标识到全方位视觉传感器投影中心的成像像素距离,再通过标定像素距离计算成像实际距离;
计算当前的全方位视觉***的计算高度H;最后计算高度H与标准高度Hs的差值,即Z轴方向的定位坐标值,从而完成作业机械的Z轴定位。
四个有色标识所在的位置是作业区域的外接矩形的角点位置。
全方位视觉传感器投影中心在全方位图像中的位置是固定的。
xi的求法如下:
标定像素距离为0.01389inch/pixel,先计算出4个标识分别到全方位视觉传感器投影中心的成像实际距离,再求成像实际距离的平均值得到xi:
X0的求法如下:
根据4个有色标识在图像中的4个位置点和全方位视觉传感器投影中心在图像中的位置点,计算出四个有色标识中的每相邻两个有色标识与全方位视觉传感器投影中心在全方位图像中的方位角θ1~θ4;
4个有色标识L1~L4在作业区周围形成的矩形长为a、宽为b;根据几何学圆弧形成原理,由L1和L2有色标识点和上述方位角θ1即圆心角形成弧S1,同理,L2和L3、θ2形成弧S2,L3和L4、θ3形成弧S3,L3和L4,θ4形成弧S4,弧S1~S4分别两条相交,得出四个交点,4个交点坐标为:
得出交点重心坐标P(X1,Y1),如下:
重心坐标P(X1,Y1)即全方位视觉传感器的平面二维定位;
全方位视觉传感器具有双曲面镜。
有益效果:
本实用新型提出了一种基于全方位视觉传感器进行自动导航的Z轴定位***,作业区用4个标识形成矩形状,测量出矩形的长度和宽度,通过图像处理提取出标识在图像中位置,进一步求出在图像中,各标识与传感器投影中心形成的4个方位角度,通过几何算法求出作业机械相对4个标识形成的空间平面XY的二维定位绝对坐标值(X,Y),采用笛卡尔坐标系,以4个标识中的一个作为原点,在实际中,以图像中左下角的那个标识为原点。
本实用新型提供了一种与发明专利申请(申请号:200910044412.4)“一种自动导航定位装置和方法”相符的Z轴定位计算方法,包括推导装置***高度和全方位视觉传感器与标识空间距离、成像距离的关系式;计算标识到全方位视觉传感器投影中心的成像距离;计算全方位视觉传感器与标识的空间距离;计算Z轴定位值,其特征是:
所述推导装置***高度和全方位视觉传感器与标识空间距离、成像距离的关系式包括:全方位视觉传感器双曲面镜双曲线方程建立、全方位视觉传感器成像原理运用和数学几何学运用;所述全方位视觉传感器双曲面镜双曲线方程建立包括由平面双曲线方程变换为装置***高度相关的双曲线方程;所述全方位视觉传感器成像原理运用包括空间点入射线通过双曲面折射在成像面成像原理,其特点是入射线通过双曲面折射后相交于投影中心于一点;空间直线在成像面上的成像为圆弧;所述数学几何学运用包括空间点全方位视觉传感器成像原理几何图像表示中三角形的几何数学关系运用推导出装置***高度和传感器与标识距离、成像距离的关系式;
所述计算标识到全方位视觉传感器投影中心的成像距离包括根据发明专利(申请号:200910044412.4)一种自动导航定位装置和方法的标识提取,通过图像处理提取标识特征并求出标识特征像素的重心代表标识在图像中的位置,计算标识到全方位视觉传感器投影中心的成像像素距离,通过像素距离标定计算出标识到全方位视觉传感器投影中心的成像实际距离;所述像素距离标定通过实验结果标定实际距离和像素数的关系,得出单个像素标定的实际距离,像素距离乘以单像素标定距离即实际距离。
所述计算全方位视觉传感器与标识的空间距离包括根据专利(申请号:200910044412.4)一种自动导航定位装置和方法求出XY平面上(X,Y)坐标值;所求的传感器平面位置运用直线距离计算方程计算全方位视觉传感器与标识的空间距离;
所述计算Z轴定位值包括运用求出的装置***高度和全方位视觉传感器与标识空间距离、成像距离的关系式和标识到全方位视觉传感器投影中心的成像距离、全方位视觉传感器与标识的空间距离三者,计算Z轴定位值。
综上所述,对于本实用新型的基于全方位视觉传感器进行自动导航的Z轴定位***,只要提供一副包括标识的实时图像,通过图像处理提取标识特征和借助专利(申请号:200910044412.4)一种自动导航定位装置和方法求出的平面二维定位值,完成空间三维定位,达到和GPS同样的定位功能,真正实现自动化机械或机器人自动导航定位。该方法简单,运行速度快,实用性强;自动导航定位装置结构简单,成本不高,便于推广运用。
附图说明
图1为全方位视觉传感器点成像原理;
图2是本实用新型的***高度和全方位视觉传感器与标识空间距离、成像距离的相互关系原理示意图;
图3为全方位视觉传感器标准高度Hs示意图;
图4为本实用新型对应的定位方法的流程图;
图5为全方位视觉传感器与标识的空间距离计算原理示意图。
标号说明:1-全方位视觉传感器,2-作业机械,3-成像平面,4-双曲面。
具体实施方式
以下将结合附图和具体实施例对本实用新型做进一步详细说明:
实施例1:
如图1,全方位视觉传感器成像时,空间点P(X,Y,Z)、形成的图像点p(x,y)和投影中心形成的平面与水平面(XOY)垂直,空间点P(X,Y,Z)到坐标原点连成的直线在XOY平面的投影直线相对于X轴的方位角为α1,图像点p(x,y)和成像平面原点的连线相对于成像平面x轴的方位角为α2,α1与α2相同,同为图1中的θ。
如图2,定义坐标系XZ;根据全方位视觉传感器成像原理,空间地面点P(X0,Z0),入射线i通过焦点OM(0,H)经双曲面上点M(xm,zm)反射后汇聚于Oc,在成像面上形成像点p(xi,zi);Oc为投影中心,f为焦距;根据一般双曲线方程:有:
a,b,c为双曲面表面的结构参数,一般厂家提供标准值;H为全方位视觉传感器***离地面的高度;从全方位视觉传感器成像原理可以知道,空间点和成像点横截面都可以用如图2所示的坐标系表示。定义全方位视觉传感器到P(X0,Z0)间的距离为全方位视觉传感器与标识分别(说明:图2是公式推导示意图,只有一个标识;后面如果有四个标识,则求出与四个标识距离的平均值。---4个标志距离的平均值,指4个标志到全方位视觉传感器的距离值的平均值)在XOY平面上投影的距离X0;定义成像点p(xi,zi)到全方位视觉传感器成像面中心的xoy平面距离为成像距离xi,如图2所示。
点OM(0,H),M(xm,zm)和P(Xo,Zo)在同一条直线上,可以写成(2):
根据几何数学三角形的相似性,得出(3):
根据(2)和(3)求出(4):
将(4)式代入(3)中,可以求出Zm:
将(4)式和(5)代入(1)中,求出下面全方位视觉传感器***高度和全方位视觉传感器与标识距离、成像距离的关系式:
因此,根据(6)式,a,b,c和f为定值,假如能得出xi和X0的值代入(6)式,即可反求得到此时的全方位视觉***的计算高度H。全方位视觉传感器安装时,离地高度是固定的常数,如图3坐标系Z轴方向上,定义为标准高度Hs。求出计算高度与标准高度的差值,即Z轴方向的定位坐标值,完成作业机械的Z轴定位。
定义大写字母如XYZ表示空间坐标量,小写字母如xyz表示与成像面相关的量。
下一步说明xi和X0的值计算过程:
如图4,本实施例所述标识在图像中的位置计算方法,包括设置人工标识,打开标识电源、图像数据输入、图像处理计算、结果寄存。具体描述如下:
设置标识:采用染红色玻璃透,明材制作内部安装有电源照明设备的人工标识,围绕作业区域的最大***角落上放置的4个红色标识:标识L1、标识L2、标识L3、标识L4并组成矩形,并打开电源开关,增强颜色亮度。
图像数据输入:通过全方位视觉传感器摄像装置实时拍摄标识L1、标识L2、标识L3、标识L4的全方位360度图像,并通过实时USB接口输入到计算机内的储存器中。
图像处理及计算:调取计算机中储存的全方位图像,定义图像坐标,图像左上角为原点(0,0),单位为像素;图像处理中,能根据标识颜色对红色标识进行图像处理。
利用式7对图像像素的红色亮度进行计算,并程序循环计算出图像像素的红色强度中最大值为rmax,储存在内存中;
根据式8,在计算机中,设定提取红色标识特征颜色量的阈值t1;逐行对图像进行扫描,当利用式7计算图像中红色像素的亮度大于t1时,从图像提取出符合以上条件所有的红色特征像素;
r=R-(B+G)/2-|B-G| ----7
t1=[rmax-N1] ----8
R、G、B:红色、绿色和蓝色的亮度;r:提取红色像素亮度;rmax:图像中像素的红色强度最大值;t1:提取红色标识特征颜色量的阈值;N1为测试常数,10<N1<50;
根据任意标识在图像中最大红色像素距离设置红色像素距离最大值,计算抽取出红色像素间欧几里得距离,当红色像素间欧几里得距离小于设定红色距离最大值时的所有像素判断为一个红色特征像素点区域,分成4个特征像素点区域;
单个特征区像素的计算;提取特征区像素点的横坐标和纵坐标,第i个像素的图像坐标定义为:Rix和Riy;并统计出该特征像素点区域的像素总量为n1;
利用式9计算该特征像素点区域所有像素的坐标平均值,即求出特征像素点区域的重心,重心的横坐标和纵坐标分别定义为Xr和Yr;坐标(Xr,Yr)对应红色标识在图像中代表的位置点;
式中:Rix、Riy:提取的第i个红色标识特征像素的图像坐标;
当图像识别标识不等于4个,则返回图像输入;通过图像处理得出每相邻两个图像标识点和全方位视觉传感器投影中心在全方位图像中的方位角度θ1~θ4。(在实际中,全方位视觉传感器的投影中心在传感器参数不变的情况下,在图像中的位置是唯一固定的,在程序中人工输入数据)
根据得出标识与传感器的方位角度θ1~θ4后,如图5,根据专利(申请号:200910044412.4-公开号为101660912。)一种自动导航定位装置和方法,标识(L1~L4)形成的矩形长为a、宽为b;由L1和L2有色标识点和上述对角θ1形成弧S1,依次L2和L3,θ2形成弧S2,L3和L4,θ3形成弧S3,L3和L4,θ4形成弧S4,弧S1~S4分别两条相交,得出四个交点,交点通过几何分析,可得出式(10):
对公式1进行变换,得到:
其中
同理求出其他三个交点的坐标(XI2,YI2),(XI3,YI3),(XI4,YI4),如下:
得出交点重心坐标P(X1,Y1),如下:
重心坐标P(X1,Y1)即全方位视觉传感器的平面二维定位。
算出相机的相对于标识的平面二维定位P(X1,Y1)后,在XOY平面根据普通的两点距离公式计算P(X1,Y1)点到4个标识L1、L2、L3和L4的距离l1、l2、l3和l4。标识的坐标根据设置标识时确定。
然后,根据9式求出标识特征像素的重心代表标识在图像中的位置,计算标识到全方位视觉传感器投影中心的成像像素距离(在实际中,传感器投影中心是恒定值,人工输入)。本实例中标定像素距离为0.01389inch/pixel计算出标识到全方位视觉传感器投影中心的成像实际距离平均值xi。
得出xi和X0,运用6式计算出机器人及车辆等作业机械的全方位视觉传感器的实际计算值,求出计算高度与标准高度的差值,即Z轴方向的定位坐标值,完成作业机械的Z轴定位。结合专利申请(申请号:200910044412.4)一种自动导航定位装置和方法,既可以完成机器人及车辆等作业机械的全方位视觉传感器自动导航的三维(X,Y,Z)定位。
Claims (2)
1.一种基于全方位视觉传感器进行自动导航的Z轴定位***,其特征在于,在作业区域的***角落上放置4个组成矩形的有色标识:L1、L2、L3、L4,用于获取现场的包含有4个有色标识成像的全方位图像的全方位视觉传感器设置在作业车辆上;在作业车辆上设有微处理器,微处理器中具有用于根据全方位视觉传感器获取的图像进行数据处理获取有色标识位置坐标的图像处理单元,微处理器中还具有根据图像处理单元的数据结果进行计算并最终获得Z轴方向的定位坐标值的计算单元。
2.根据权利要求1所述的基于全方位视觉传感器进行自动导航的Z轴定位***,其特征在于,全方位视觉传感器具有双曲面镜。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011200082624U CN202008363U (zh) | 2011-01-12 | 2011-01-12 | 基于全方位视觉传感器进行自动导航的z轴定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011200082624U CN202008363U (zh) | 2011-01-12 | 2011-01-12 | 基于全方位视觉传感器进行自动导航的z轴定位*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN202008363U true CN202008363U (zh) | 2011-10-12 |
Family
ID=44750022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011200082624U Expired - Fee Related CN202008363U (zh) | 2011-01-12 | 2011-01-12 | 基于全方位视觉传感器进行自动导航的z轴定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN202008363U (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110108269A (zh) * | 2019-05-20 | 2019-08-09 | 电子科技大学 | 基于多传感器数据融合的agv定位方法 |
-
2011
- 2011-01-12 CN CN2011200082624U patent/CN202008363U/zh not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110108269A (zh) * | 2019-05-20 | 2019-08-09 | 电子科技大学 | 基于多传感器数据融合的agv定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104200086B (zh) | 宽基线可见光相机位姿估计方法 | |
CN110148169B (zh) | 一种基于ptz云台相机的车辆目标三维信息获取方法 | |
CN104932001B (zh) | 一种实时3d核辐射环境重建监测*** | |
CN103424112B (zh) | 一种基于激光平面辅助的运动载体视觉导航方法 | |
CN103196370B (zh) | 一种导管接头空间位姿参数的测量方法和装置 | |
CN108594245A (zh) | 一种目标物运动监测***及方法 | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN109074668A (zh) | 路径导航方法、相关装置及计算机可读存储介质 | |
CN109685855B (zh) | 一种道路云监控平台下的摄像机标定优化方法 | |
CN109931939A (zh) | 车辆的定位方法、装置、设备及计算机可读存储介质 | |
CN108388244A (zh) | 基于人工路标的移动机器人***、停靠方法及存储介质 | |
CN106651990A (zh) | 一种室内地图构建方法及基于室内地图的室内定位方法 | |
CN110119698A (zh) | 用于确定对象状态的方法、装置、设备和存储介质 | |
CN103759669A (zh) | 一种大型零件的单目视觉测量方法 | |
CN104835173A (zh) | 一种基于机器视觉的定位方法 | |
CN103971404A (zh) | 一种高性价比的3d实景复制装置 | |
CN103884321A (zh) | 一种遥感影像成图工艺 | |
CN105574812B (zh) | 多角度三维数据配准方法及装置 | |
CN102183250A (zh) | 一种农业机械的田间道路自动导航定位装置及方法 | |
CN101660912B (zh) | 一种自动导航定位装置及方法 | |
CN106908064A (zh) | 一种基于Kinect2传感器的室内夜间视觉导航方法 | |
CN102168973B (zh) | 全方位视觉传感器自动导航z轴定位方法及其定位*** | |
CN102129679B (zh) | 一种局部定位***及方法 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN110415299B (zh) | 一种运动约束下基于设定路牌的车辆位置估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111012 Termination date: 20120112 |