CN104504675A - 一种主动视觉定位方法 - Google Patents

一种主动视觉定位方法 Download PDF

Info

Publication number
CN104504675A
CN104504675A CN201410608792.0A CN201410608792A CN104504675A CN 104504675 A CN104504675 A CN 104504675A CN 201410608792 A CN201410608792 A CN 201410608792A CN 104504675 A CN104504675 A CN 104504675A
Authority
CN
China
Prior art keywords
angle point
coordinate
shortcoming
axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410608792.0A
Other languages
English (en)
Other versions
CN104504675B (zh
Inventor
公续平
魏东岩
来奇峰
张晓光
陈夏兰
李祥红
徐颖
袁洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Academy of Opto Electronics of CAS
Original Assignee
Academy of Opto Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Academy of Opto Electronics of CAS filed Critical Academy of Opto Electronics of CAS
Priority to CN201410608792.0A priority Critical patent/CN104504675B/zh
Publication of CN104504675A publication Critical patent/CN104504675A/zh
Application granted granted Critical
Publication of CN104504675B publication Critical patent/CN104504675B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种主动视觉定位方法,对合作目标进行适应性设计,使合作目标的形状尺寸和正方形之间的相对位置更有利于合作目标的检测和识别:将三个方块边缘距离大于方块的边长,有效提高角点分类与排序的成功率;以红色图案为背板和三个方形的黄色图案为合作标志共同组成,使得两者更容易区分;居于中间偏上的方形标志偏大一些,这样使得合作标志具有很好的方向性,其余两个方形图案分别居于中间方形图案两侧,在图像处理部分,可根据方形图案的轮廓大小对三个方形图案进行有效辨识;将三个方形的比例设计为4:3,提高检率;本发明采用角点补偿算法对确定缺点的位置,提高角点提取准确率;同时为用户定位提供更多的特征点,由此提高定位精度。

Description

一种主动视觉定位方法
技术领域
本发明涉及视觉导航技术领域,尤其涉及一种主动视觉定位方法。
背景技术
随着用户对导航定位需求的提高,由于卫星信号受到遮挡,传统方式使用GPS在信号遮挡扽该区域定位误差在30米以上,无法有效告知用户当前的位置和相应的导航信息。
视觉合作目标定位方式的主要思想是:首先设计合作目标,然后通过用户视觉传感器获取当前包含合作目标图像,根据设计的合作目标特征利用图像处理技术,得到合作目标特征信息,即角点坐标,最后利用用户坐标系、相机坐标系、像素坐标系以及合作目标的角点坐标之间的相互转换关系计算出用户所需的导航位置和姿态。
2013年西北工业大学睢志佳等人设计了一款三个正方形的合作目标,该合作目标利用图像颜色信息,给合作目标角点检测提供了辅助。该合作目标在检测时拥有一定得优势,但是该合作目标在角点提取时,利用角点与合作目标信息相关进行角点优化,没有考虑角点与边缘、角点与颜色区域的相关关系,容易出现角点检测失败、图像分割以及角点排序错误等问题。
发明内容
有鉴于此,本发明提供了一种主动视觉定位方法,能够实现用户在场景中GPS缺失环境下的高精度定位。
为了解决上述技术问题,本发明是这样实现的:
本发明的一种主动视觉定位方法,包括如下步骤:
步骤1、制作合作目标,并将合作目标设置在场景中;
其中,所述合作目标以红色图案为背板,背板上设置三个黄色正方形作为合作标志;所述背板采用RGB颜色灰度值为(255,0,0),三个正方形RGB颜色灰度值为(255,255,0);其中第一正方形和第二正方形以第三正方形的其中一条对角线为对称轴对称分布;所述第三正方形的尺寸大于第一和第二正方形;所述第三正方形和第一正方形及第二正方形的边长比为4:3;三个正方形边界的最小距离大于最小正方形的边长;
步骤2、利用用户图像采集设备获取场景中的合作目标图像,并提取合作目标中的合作标志的角点,获得角点在所述合作目标图像上设置的图像坐标系中的坐标;
步骤3、根据合作标志角点在合作目标坐标系中的坐标和步骤2得到的合作标志角点在图像坐标系中的坐标,得到合作目标坐标系与图像坐标系之间的转换关系;然后再基于已知的图像坐标系与用户图像采集设备坐标系的坐标转换关系,得到用户图像采集设备坐标系与合作目标坐标系的坐标转换关系;最后,基于用户图像设备坐标系与车辆坐标系的坐标转换关系以及合作目标坐标系与地理坐标系的坐标转换关系,得到车辆在地理坐标系中坐标和姿态,由此完成对车辆在场景中的定位。
较佳的,所述背板尺寸为80厘米*120厘米,所述第三正方形的边长为32厘米,第一和第二正方形的边长为24厘米,第一和第二正方形中心距离第三正方形中心距离大于35厘米;所述第三正方形的所述对称轴与所述背板宽度方向中心线重合。
较佳的,所述步骤2包括如下具体步骤:
步骤A0、控制用户图像采集设备实时采集场景中的实景图像,并判断每帧图像中是否含有合作目标:如果有,将含有合作目标的图像定义为图像A,执 行步骤A1;如果没有,返回步骤A0;
步骤A1、提取所述图像A中每个像素点的R、G、B三通道灰度值信息;并将满足如下条件的像素点赋值为255,不满足如下条件的像素点赋值为0,对每个像素点按照上述方法赋值后,再对图像A进行二值化,得到图像A*;
条件为:针对每一个像素点,R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值;
步骤A2、对图像A*进行形态学开操作,去除细小的区域;然后再对图像A*进行边缘提取,并进行边缘补偿,得到图像A**;
步骤A3、检测图像A**中所有的边缘序列,进行边缘跟踪,寻找图像A**中的最长边缘,并提取最长边缘上所有像素点中在x轴和y轴的最大值和最小值:最大值xmax,ymax以及最小值xmin,ymin;
步骤A4、在图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为合作目标区域,区域中的图像定义为图像T1;
步骤A5、对图像A进行灰度化,在灰度化后图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为角点检测区域,区域中的图像定义为图像T2;
步骤A6、对于图像T1中的每个像素点,将满足R通道灰度值大于50,G通道灰度值大于50,并且G通道大于1.5倍B通道灰度值的像素点赋值为255,否则赋值为0,通过二值化得到图像T1*;
步骤A7:对图像T1*进行形态学开操作,去除图像T1*中细小的区域,且对T1*进行边缘提取,并进行边缘补偿,得到图像T1**;
步骤A8、对图像T1**进行边缘跟踪,寻找图像T1**中边缘长度最长的前三段边缘作为合作目标中方形的边缘,删除其余边缘;
步骤A9、对图像T2利用Harris角点提取算法进行角点提取,如果提取的角点位于所述合作目标中方形的边缘上,则将满足该条件的角点作为的合作目标角点;
步骤A10、利用Kmeans算法将A9中得到的合作目标角点分为3类,如果存在一类角点个数小于3个的情况,返回步骤A10,继续分类;如果存在一类角点个数等于3个的情况,进行角点补偿,使得每一类都具有4个角点;
步骤A11、根据12个角点的相对位置关系,将每一类角点中的4个角点与所述合作目标的3个正方形的顶点互相对应,得到合作目标角点在图像坐标系中的坐标。
较佳的,所述步骤A0中判断实时图像中是否含有合作目标的具体方法为:
步骤D1:提取当前图像中每个像素的R、G、B三通道信息;
步骤D2:将满足R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值的像素点赋值为255,否则赋值为0,然后对当前图像进行二值化;
步骤D3:计算二值化后的图像中灰度值为255的像素点个数,如果像素点个数大于全图所有像素点个数的20%,则认为该当前图像存在合作目标,否则认为合作目标不存在。
较佳的,所述步骤A10中,当存在一类角点个数等于3个的情况时,所述角点补偿方法如下:
步骤B1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3) 
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4) 
步骤B2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤B3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤B4;
步骤B3、在x轴方向补充缺点;
SB31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标;
SB33、找到差值ΔX1、差值ΔX2和差值ΔX3中最大的两个差值,并求两个差值的均值
当缺点的x轴坐标大于自身相对角点的x轴坐标,缺点的x轴坐标等于自身相对角点x轴坐标加两倍的差值均值
当缺点的x轴坐标小于自身相对角点的x轴坐标,缺点的x轴坐标等于自身相对角点x轴坐标减两倍的差值均值
所述缺点的y轴坐标等于自身相对角点的y轴坐标;
步骤B4、在y轴方向补充缺点:
SB41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值,如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标;如果两个差值均大于0,则缺点的y轴坐标小于自身相对角点的y轴坐标;
SB43、找到差值ΔY1、差值ΔY2和差值ΔY3中最大的两个差值,并求两个差值的均值
当缺点位于其相对角点的+y轴方向,缺点的y轴坐标等于其相对角点y轴坐标加两倍的差值均值
当缺点位于其相对角点的-y轴方向,缺点的y轴坐标等于其相对角点y轴坐标减两倍的差值均值
所述缺点的x轴坐标等于自身相对角点的x轴坐标;
由此得到缺点的坐标,实现角点补偿。
较佳的,所述步骤A10中,当存在一类角点个数等于3个的情况时,所述角点补偿方法如下:
步骤C1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3) 
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4) 
步骤C2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤C3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤C4;
步骤C3、在x轴方向补充缺点;
SC31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标;
步骤C4、在y轴方向补充缺点:
SC41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值, 如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标;如果两个差值均大于0,则缺点的y轴坐标小于自身相对角点的y轴坐标;
步骤C5、根据步骤C3或步骤C4确定的缺点与相对角点的相对位置关系,求解如下公式,得到坐标P的最优值:
arg min P Σ i , j ∈ { 1,2 } , i ≠ j | | ( P - P i ) · ( P j - P 0 ) | | F 2
s.t||P-P3||2=||P0-P3||2
其中,P0表示与缺点相对角点p0坐标,P1和P2分别为某类角点中除缺点和角点p0的另外两个角点的坐标;P3表示坐标P1和坐标P2的连线中心点坐标;表示正整数; 
将坐标P的最优值作为缺点的坐标,实现角点补偿。
较佳的,当场景中在不同位置设置多个合作目标时,在每个合作目标的背板上设置标识,以此区分不同的合作目标。
较佳的,在每个合作目标的背板上设置多个朝向不同的三角形作为标识,所述三角形为绿色图案,RGB颜色灰度值为(0,255,0);
对合作目标的标识的识别方法如下:
步骤E1、识别三角形的个数;
步骤E2、针对步骤E1中得到的每一个三角形,分别用x1、x2和x3表示三角形3个顶点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]
分别用y1、y2和y3表示三角形3个顶点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]
步骤E3、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x 轴方向之差最小,则表明该三角形朝向x轴正方向或负方向,执行步骤E4;若y轴方向之差最小,则表明该三角形朝向y轴正方向或负方向,执行步骤E5;
步骤E4、若三角形朝向x轴正方向或负方向;
找到两个x轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的x坐标差值,如果两个差值均小于0,则三角形朝向x轴负方向;如果两个差值均大于0,则三角形朝向x轴正方向;
步骤E5、三角形朝向y轴正方向或负方向:
找到两个y轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的y坐标差值,如果两个差值均小于0,则三角形朝向y轴负方向;如果两个差值均大于0,则三角形朝向y轴正方向;
步骤E6、对每个三角形均执行步骤E1至E5,得到所有三角形的朝向。
较佳的,在每个合作目标的背板上设置不同个数的三角形,用于识别不同的合作目标。
较佳的,所述三角形个数的识别方法如下:
步骤F1、设置三角形为绿色图案,RGB颜色灰度值分别为(0,255,0);针对所述步骤A5中的图像T2,遍历每一个像素点,将满足G通道灰度值大于100、G通道大于1.5倍B通道灰度值并且G通道大于1.5倍R通道灰度值像素点点赋值为255,否则赋值为0,通过二值化得到图像T3*;
步骤F2、对图像T3*进行形态学开操作,去除T3*中细小的区域,且对T3*进行边缘提取,并进行边缘补偿,得到图像T3**;
步骤F3、对图像T3**进行边缘跟踪,跟踪边缘个数即为合作目标中三角形个数。
本发明具有如下有益效果:
(1)本发明以视觉导航为使用背景,对合作目标进行适应性设计,使合作 目标的形状尺寸和正方形之间的相对位置更有利于合作目标的检测和识别:①、将三个方块边缘距离大于方块的边长,有效提高角点分类与排序的成功率;②以红色图案为背板和三个方形的黄色图案为合作标志共同组成,使得两者更容易区分;③居于中间偏上的方形标志偏大一些,这样使得合作标志具有很好的方向性,其余两个方形图案分别居于中间方形图案两侧,在图像处理部分,可根据方形图案的轮廓大小对三个方形图案进行有效辨识;④将三个方形的比例设计为4:3,提高检率;
(2)本发明采用角点补偿算法对确定缺点的位置,提高角点提取准确率;同时为用户定位提供更多的特征点,由此提高定位精度;
(3)在合作目标中设置标识,以区分不同的合作目标,由此可在场景中设置多个合作目标,为车辆定位提供更多的选择以及更精确的定位。
附图说明
图1为本发明的合作目标的示意图。
图2为本发明获得的图像A;
图3为本发明中对图像A进行二值化得到的图像A*;
图4为本发明的图像A*边缘提取后结果;
图5(a)为本发明的T1区域图像;图5(b)为T2区域图像;
图6为本发明的图像T1*边缘提取结果;
图7为本发明的T2角点检测结果;
图8为本发明的T2角点分类结果;
图9为本发明排序后的角点图像;
图10为本发明的X方向缺点的两种情况示意图;
图11为本发明的Y方向缺点的两种情况示意图;
图12为本发明的视觉合作目标定位示意图;
图13为本发明的定位方法流程图;
图14为本发明的车载合作目标定位***坐标系转换关系图。
图15为本发明的车载合作目标的角点排序示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明的一种用于地下场景车辆的高精度定位方法,如图13所示,包括如下步骤:
步骤1、制作合作目标,并将合作目标设置在场景中;
如图1所示,本发明中的合作目标考虑到了易于识别的特点,设计的合作目标使用分层结构的思想,以红色图案为背板和三个方形的黄色图案为合作标志共同组成,背板采用RGB颜色灰度值分别为(255,0,0),三个正方形RGB颜色灰度值分别为(255,255,0)。在三个正方形的图案的设计上也有所不同,居于中间偏上的正方形标志偏大一些,这样使得合作标志具有很好的方向性,其余两个正方形图案分别居于中间正方形图案两侧,在图像处理部分,可根据方形图案的轮廓大小对三个方形图案进行有效辨识,同时三个方向之间的距离大于每一个方形的半径,有利于实现角点的位置提取和排序。
三个正方形图案还有一定的比例关系,根据实验分析,大小比4:3时是最优比例,如果此比例过大,小的正方形图案有时会被认为是杂点而无法检测到;若此比例过小,则在不同角度和不同距离进行拍摄时,由于图像畸变,导致正方形图案的轮廓发生改变,无法区分大小正方形图案。
考虑到通用场景入口大小为2米到2.5米,场景内柱子宽度75厘米到100厘米,合作目标设计为背板大小80厘米*120厘米,大的正方形32厘米*32厘 米,大的正方形位于合作目标y中心轴线,小的正方形24厘米*24厘米,位于大正方形两边,距离大正方形中心距离大于35厘米。
步骤2、如图12所示,利用用户图像采集设备获取场景中的合作目标图像,并根据现有技术的方法提取合作目标中的合作标志的角点,获得角点在合作目标图像坐标系中的坐标;
步骤3、根据步骤2得到的合作标志的角点在合作目标图像坐标系中的坐标,得到车辆在地理坐标系中坐标,由此完成对车辆在场景中的定位。
其中,步骤2包括如下具体步骤:
步骤A0、控制用户图像采集设备实时采集场景中的实景图像,如图2所示,并判断每帧图像中是否含有合作目标:如果有,将含有合作目标的图像定义为图像A,执行步骤A1;如果没有,返回步骤A0;
其中,判断实时图像中是否含有合作目标的具体方法为:
步骤D1:提取当前图像中每个像素的R、G、B三通道信息;
步骤D2:将满足R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值的像素点赋值为255,否则赋值为0,然后对当前图像进行二值化;
步骤D3:计算二值化后的图像中灰度值为255的像素点个数,如果像素点个数大于占全图像素点个数的20%,则认为该当前图像存在合作目标,否则认为合作目标不存在。
步骤A1、提取所述图像A中每个像素点的R、G、B三通道灰度值信息;并将满足如下条件的像素点赋值为255,不满足如下条件的像素点赋值为0:
条件为:R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值,即:
R>50并且R>1.5G并且R>1.3B   (1);
遍历图像A中的所有像素点,并对每个像素点按照上述方法赋值后,再对图像A进行二值化,得到图像A*,如图3所示;
步骤A2、对图像A*进行形态学开操作,去除细小的区域;然后再对图像A*进行边缘提取,并对提取进行边缘补偿,得到图像A**,如图4所示;
步骤A3、检测图像A**中所有的边缘序列,进行边缘跟踪,寻找图像A**中的最长边缘,并提取最长边缘上所有像素点中在x轴和y轴的最大值和上最小值:最大值xmax,ymax以及最小值xmin,ymin;
步骤A4、在图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为合作目标区域,区域中的图像定义为图像T1,如图5(a)所示;
步骤A5、对图像A进行灰度化,在灰度化后图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为角点检测区域,区域中的图像定义为图像T2,如图5(b)所示;
步骤A6、对于图像T1中的每个像素点,将满足R通道灰度值大于50,G通道灰度值大于50,并且G通道大于1.5倍B通道灰度值的像素点赋值为255,否则赋值为0,通过二值化得到图像T1*;
步骤A7:对图像T1*进行形态学开操作,去除图像T1*中细小的区域,并且对T1*进行边缘提取,并进行边缘补偿,得到图像T1**;
步骤A8、对图像T1**进行边缘跟踪,寻找图像T1**中边缘长度最长的前三段边缘作为合作目标中方形的边缘,删除其余边缘,如图6所示;
步骤A9、对图像T2利用Harris角点提取算法进行角点提取;如果提取的角点位于所述合作目标中方形的边缘上,则将满足该条件的角点作为的合作目 标角点,如图7所示;
步骤A10、利用kmeans算法将A9中得到的合作目标角点分为3类,如果存在一类角点个数小于3个的情况,返回步骤A10,继续分类;如果存在一类角点个数等于3个的情况,进行角点补偿,使得每一类都具有4个角点,如图8所示;为了方便辨别角点,可以对角点进行排序,如图9所示,选取A13中x最小的角点作为第一类点,对应角点序号按顺时针排序为1,2,3,4;选取三类中y最小的角点作为第二类点,对应角点序号按顺时针排序为5,6,7,8;选取三类中y最大的角点作为第三类点,对应角点序号按顺时针排序为9,10,11,12;
步骤A11、根据12个角点的相对位置关系,将每一类角点中的4个角点与所述合作目标的3个正方形的顶点互相对应,得到合作目标角点在图像坐标系中的坐标,具体方法为:
如图15所示,选取合作目标角点中在x轴坐标最小的角点a与第三正方形的一个顶点对应,将与角点a同类的其它三个角点分别与第三正方形的另外三个顶点分别对应;选取合作目标角点中在y轴最小的角点b与第一正方形的一个顶点对应,将与角点b同类的其它三个角点分别与第一正方形的另外三个顶点分别对应;选取合作目标角点中在y轴最大的角点c与第二正方形的一个顶点对应,将与角点c同类的其它三个角点分别与第二正方形的另外三个顶点分别对应。
步骤A12、根据步骤A11得到的合作目标的角点在图像坐标系中坐标,得到车辆当前的位置和姿态。
其中,在步骤A10中,当存在一类角点个数等于3个的情况时,本发明提供了两种角点补偿方法,具体如下:
角点补偿方法一包括:
步骤B1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3) 
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4) 
步骤B2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤B3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤B4;
步骤B3、在x轴方向补充缺点,如图10所示;
SB31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标,即缺点位于其相对角点的+x轴方向;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标,即缺点位于其相对角点的-x轴方向;
SB33、找到差值ΔX1、差值ΔX2和差值ΔX3中最大的两个差值,并求两个差值的均值
当缺点的x轴坐标小于自身相对角点的x轴坐标,缺点的x轴坐标等于其相对角点x轴坐标加两倍的差值均值
当缺点位于其相对角点的-x轴方向,缺点的x轴坐标等于其相对角点x轴坐标减两倍的差值均值
所述缺点的y轴坐标等于与其相对角点的y轴坐标;
步骤B4、在y轴方向补充缺点,如图11所示:
SB41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值,如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标,即缺点位于其相对角点的+y轴方向;如果两个差值均大于0,则缺点的y轴坐标小于自身相对角点的y轴坐标,即缺点位于其相对角点的-y轴方向;
SB43、找到差值ΔY1、差值ΔY2和差值ΔY3中最大的两个差值,并求两个差值的均值
当缺点位于其相对角点的+y轴方向,缺点的y轴坐标等于其相对角点y轴坐标加两倍的差值均值
当缺点位于其相对角点的-y轴方向,缺点的y轴坐标等于其相对角点y轴 坐标减两倍的差值均值
所述缺点的x轴坐标等于与其相对角点的x轴坐标;
由此得到缺点的坐标,实现角点补偿。
角点补偿方法二如下:
步骤C1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3) 
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4) 
步骤C2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤C3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤C4;
步骤C3、在x轴方向补充缺点;
SC31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标, 即缺点位于其相对角点的+x轴方向;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标,即缺点位于其相对角点的-x轴方向;
步骤C4、在y轴方向补充缺点:
SC41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值,如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标,即缺点位于其相对角点的+y轴方向;如果两个差值均大于0,则则缺点的y轴坐标小于自身相对角点的y轴坐标,即缺点位于其相对角点的-y轴方向;
步骤C5、根据步骤C3或步骤C4确定的缺点与相对角点的相对位置关系,求解如下公式,得到缺点的坐标P的最优值:
arg min P Σ i , j ∈ { 1,2 } , i ≠ j | | ( P - P i ) · ( P j - P 0 ) | | F 2
s.t||P-P3||2=||P0-P3||2
其中,P0表示与缺点相对角点位置,P1和P2分别为某类角点中除缺点P和角点P0的另外两个角点;P3表示角点P1和角点P2的连线中心点;表示正整数。 
将坐标P的最优值作为缺点的坐标,实现角点补偿。
另外,当场景中在不同位置设置多个合作目标时,车辆无法自动识别其拍 摄的是哪个合作目标,则无法完成自动定位。本发明为解决该问题,在每个合作目标的背板上设置不同个数的三角形,或者在每个背板上设置多个朝向不同的三角形,以此作为区分合作目标的标志;如图1中,背板的左上角,三角形为绿色图案,RGB颜色灰度值分别为(0,255,0);
当在合作目标上设置不同个数的三角形作为合作目标标志时,对合作目标标志的识别方法如下:
步骤F1、针对所述步骤A5中的角点检测区域T2,遍历每一个像素点,将满足G通道灰度值大于100、G通道大于1.5倍B通道灰度值并且G通道大于1.5倍R通道灰度值像素点点赋值为255,否则赋值为0,通过二值化得到图像T3*;
步骤F2、对图像T3*进行形态学开操作,去除T3*中细小的区域,对T3*进行边缘提取,并进行边缘补偿,得到图像T3**;
步骤F3、对图像T3**进行边缘跟踪,跟踪边缘个数即为合作目标中三角形个数;
当在合作目标上设置多个朝向不同的三角形作为合作目标标志时,对合作目标标志的识别方法如下:
步骤E1、执行步骤F1至F3,识别出三角形的个数;
步骤E2、针对步骤E1中得到的每一个三角形,分别用x1、x2和x3表示三角形3个顶点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]
分别用y1、y2和y3表示三角形3个顶点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]
步骤E3、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该三角形朝向x轴正方向或负方向,执行步骤E4;若y轴方向之差最小,则表明该三角形朝向y轴正方向或负方向,执行步骤E5;
步骤E4、若三角形朝向x轴正方向或负方向;
找到两个x轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的x坐标差值,如果两个差值均小于0,则三角形朝向x轴负方向;如果两个差值均大于0,则三角形朝向x轴正方向;
步骤E5、三角形朝向y轴正方向或负方向:
找到两个y轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的y坐标差值,如果两个差值均小于0,则三角形朝向y轴负方向;如果两个差值均大于0,则三角形朝向y轴正方向;
步骤E6、对每个三角形均执行步骤E1至E5,得到所有三角形的朝向。
其中,步骤3中,如图14所示,得到合作标志的角点在合作目标图像坐标系中的坐标后,根据已知的合作标志角点在合作目标中的坐标(事先已标定),可得到合作目标与合作目标图像坐标系之间的转换关系;再依次得到合作目标坐标系与摄像机坐标系的转换关系、摄像机坐标系与合作目标坐标系之间的转换关系以及合作目标坐标系与车辆坐标系之间的关系,最后根据合作目标坐标系在地理坐标系中的位置,确定车辆在地理坐标系中的位置。具体的坐标系转换过程如下:
首先定义上述各坐标系:
它是相对于地球表面不动的一种坐标系,原点取自合作目标大方形图案顶点,Oxg轴位于水平面内,平行于合作目标背板短边且指向前;Oyg轴位于水平面内,平行于合作目标背板长边且指向右;Ozg轴垂直于Oxgyg平面并指向上,坐 标系符合右手规则。
2、用户坐标系Oxyz
固定在用户体上的一个坐标系,原点O取在用户的重心。x轴与用户纵轴一致,指向用户前方,且处于用户对称平面内;z轴于用户对称平面并指向右方;Oy轴在用户对称平面内且垂直于Ox轴,指向下。
3、摄像机(或用户图像采集设备)坐标系.
摄像机坐标系的原点为摄像机光心,Ozc轴与摄像机光轴重合,且取拍摄方向为正向,Oxc、Oyc轴与图像物理坐标系X、Y轴平行。
4、图像坐标系(u,v)和(X,Y)
图像坐标系分为图像像素坐标系(u,v)和图像物理坐标系(X,Y),分别定义为:
(i)图像像素坐标系(u,v):以图像左上角为原点以像素为坐标单位的直角坐标系,u、v分别表示该像素在数字图像中的列数与行数。
(ii)图像物理坐标系(X,Y):图像物理坐标系是以光栅与像平面的焦点为原点,以毫米为单位的直角坐标系。其中X、Y轴分别与像素坐标系的u、v轴平行。
各坐标系之间的转换关系如下:
1)、车辆坐标系与合作目标坐标系之间的关系:
由于摄像机与车辆固连,车辆坐标系与合作目标坐标系之间的夹角就是摄像机的安装姿态角,又称欧拉角。
(a)俯仰角β:轴Oy与平面Oxgyg之间的夹角;
(b)偏航角(方位角)γ:轴Oy在水平面Oxgyg上的投影与合作目标纵轴Oyg 之间的夹角;
(c)滚转角(倾斜角)α:对称面绕轴Oy转过的角度,右滚为正。
2)、合作目标坐标系与摄像机坐标系之间的转换关系
合作目标坐标系中的点到摄像机坐标系的变换可以用一个正交旋转矩阵R和一个平移矩阵T来表示为: x c y c z c = R x g y g z g + T - - - ( 6 )
其中, R = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 = cos αγ cos γ sin α sin β cos γ - cos βγ sin γ sin α cos β cos γ + sin β sin γ cos α sin γ sin α sin β sin γ + cos β cos γ sin α cos β sin γ - sin β cos γ - sin α cos α sin β cos α cos β , T=[tx,ty,tz]是合作目标坐标系原点在摄像机坐标系中的坐标。
3)图像坐标系与摄像机坐标系之间的转换关系
摄像机坐标系中的物点p在图像物理坐标系中的像点P坐标为:
X=fxc/zc   (7)
Y=fyc/zc   (8)
由上式的图像物理坐标系进一步转化为图像像素坐标系:
u=-X/dx+u0=-fxX+u0=-fxfxc/zc+u0   (9) 
v=Y/dx+v0=fyY+v0=fyfyc/zc+v0   (10) 
其中f为摄像机焦距,(u0,v0)为图像物理坐标系原点在图像像素坐标系中的坐标值,fx、fy分别为xi、yi方向上的采样频率,即单位长度上的像素个数;fx、fy、u0和v0四个参数只与摄像机内部结构有关。
4)合作目标坐标系与图像坐标系之间的转换关系
将式(8)、(9)分别带入式(6)、(7)可以得到合作目标坐标系与图像坐标系之间的转换关系:
X f = u 0 - u f x f = r 11 x g + r 12 y g + r 13 z g + t x r 31 x g + r 32 y g + r 33 z g + t z - - - ( 11 )
Y f = v 0 - v f y f = r 21 x g + r 22 y g + r 23 z g + t y r 31 x g + r 32 y g + r 33 z g + t z - - - ( 12 )
以上两式也称共线方程,必须要求物点、光心和像点这三点在同一直线上,它表示了空间物点坐标(xg,yg,zg)和光心坐标T及光轴角度R和对应像点(u,v)之间的数学关系。根据共线方程,在摄像机内部参数确定的条件下,利用若干个已知物点和相应像点坐标,就可以求解出摄像机在合作目标坐标系中的空间位置和姿态。
假设合作目标中的第i角点在合作目标坐标系下的坐标为  q i = x g i y g i z g i 1 T , 该点在像素坐标系下的坐标为pi=[ui vi 1]T,则两者关系表示为:
λipi=A[R T]qi   (13)
其中, A = f x 0 u 0 0 f y v 0 0 0 1 , fx,fy分别表示摄像机的等效焦距,即fx=f/dx,fy=f/dy,f是摄像机焦距,u0,v0为摄像机坐标系原点在像素坐标系下的坐标。旋转矩阵表示如下:
R = r 1 r 2 r 3 = [ r ij ] 3 × 3 = cos α cos γ sin α sin β cos γ - cos β sin γ sin α cos β cos γ + sin β sin γ cos α sin γ sin α sin β sin γ + co s β cos γ sin α cos β sin γ - sin β cos γ - sin α cos α sin β cos α cos β - - - ( 14 )
T=[tx ty tz]T是平移矩阵,λi是未知尺度:
λ i = e 3 T R T q i - - - ( 15 )
其中 e 3 T 0 0 1 T , 将联立得到:
( A - 1 p i e 3 T - I ) R T q i = 0 - - - ( 16 )
从设计的合作目标图案上可知,qi是已知量。在图像每一帧中,角点检测算 法提取特征点pi,而特征点标定算法把每一个pi和其对应的qi联系起来。根据上面的数据就可以得到摄像机的位姿参数,其中R是从摄像头到合作目标的转动量,T是从摄像头到合作目标的平移量。
由于合作目标是处于大地平面上,所以又有所以可得: 
- x g 0 u i - u 0 f x x g - y g 0 u i - u 0 f x y g - zg 0 u i - u 0 f x z g - 1 0 u i - u 0 f x 0 - x g v i - v 0 f y x g 0 - yg v i - v 0 f y y g 0 - zg v i - v 0 f y z g 0 - 1 v i - v 0 f y r 11 r 21 r 31 r 12 r 22 r 32 r 13 r 23 r 33 t x t y t z = 0 - - - ( 17 )
简记为F[r1 T r2 T TT]T=0,其中 F = F 1 T · · · F n T T , n是角点个数。
F i = x g i 0 - x g i u i y g i 0 - y g i u i 1 0 u i 0 x g i - x g i v i 0 y g i - y g i v i 0 1 v i - - - ( 18 )
根据标准奇异值分解(SVD)技术来计算对应于F最小奇异值的奇异矢量 
通过的单位范数来计算平移矢量的T大小,
可以分两步利用估算得到的来解出旋转矩阵R。第一步,通过计算方程 r ~ 1 r ~ 2 0 = UΣV T 的SVD,若则 Q=diag(1,1,-1)。
最终求出车辆相对于合作目标的位置参数:
Η=[xg yg zg]T=-R-1T   (19) 
姿态参数: α = - arcsin r 31 β = arctan ( r 32 / r 33 ) γ = arctan ( r 21 / r 11 ) - - - ( 20 ) .
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种主动视觉定位方法,其特征在于,包括如下步骤:
步骤1、制作合作目标,并将合作目标设置在场景中;
其中,所述合作目标以红色图案为背板,背板上设置三个黄色正方形作为合作标志;所述背板采用RGB颜色灰度值为(255,0,0),三个正方形RGB颜色灰度值为(255,255,0);其中第一正方形和第二正方形以第三正方形的其中一条对角线为对称轴对称分布;所述第三正方形的尺寸大于第一和第二正方形;所述第三正方形和第一正方形及第二正方形的边长比为4:3;三个正方形边界的最小距离大于最小正方形的边长;
步骤2、利用用户图像采集设备获取场景中的合作目标图像,并提取合作目标中的合作标志的角点,获得角点在所述合作目标图像上设置的图像坐标系中的坐标;
步骤3、根据合作标志角点在合作目标坐标系中的坐标和步骤2得到的合作标志角点在图像坐标系中的坐标,得到合作目标坐标系与图像坐标系之间的转换关系;然后再基于已知的图像坐标系与用户图像采集设备坐标系的坐标转换关系,得到用户图像采集设备坐标系与合作目标坐标系的坐标转换关系;最后,基于用户图像设备坐标系与车辆坐标系的坐标转换关系以及合作目标坐标系与地理坐标系的坐标转换关系,得到车辆在地理坐标系中坐标和姿态,由此完成对车辆在场景中的定位。
2.如权利要求1所述的一种主动视觉定位方法,其特征在于,所述背板尺寸为80厘米*120厘米,所述第三正方形的边长为32厘米,第一和第二正方形的边长为24厘米,第一和第二正方形中心距离第三正方形中心距离大于35厘米;所述第三正方形的所述对称轴与所述背板宽度方向中心线重合。
3.如权利要求1所述的一种主动视觉定位方法,其特征在于,所述步骤2包括如下具体步骤:
步骤A0、控制用户图像采集设备实时采集场景中的实景图像,并判断每帧图像中是否含有合作目标:如果有,将含有合作目标的图像定义为图像A,执行步骤A1;如果没有,返回步骤A0;
步骤A1、提取所述图像A中每个像素点的R、G、B三通道灰度值信息;并将满足如下条件的像素点赋值为255,不满足如下条件的像素点赋值为0,对每个像素点按照上述方法赋值后,再对图像A进行二值化,得到图像A*;
条件为:针对每一个像素点,R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值;
步骤A2、对图像A*进行形态学开操作,去除细小的区域;然后再对图像A*进行边缘提取,并进行边缘补偿,得到图像A**;
步骤A3、检测图像A**中所有的边缘序列,进行边缘跟踪,寻找图像A**中的最长边缘,并提取最长边缘上所有像素点中在x轴和y轴的最大值和最小值:最大值xmax,ymax以及最小值xmin,ymin;
步骤A4、在图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为合作目标区域,区域中的图像定义为图像T1;
步骤A5、对图像A进行灰度化,在灰度化后图像A中,依次连接坐标点(xmin,ymin)、(xmin,ymax)、(xmax,ymax)和(xmax,ymin),得到的区域作为角点检测区域,区域中的图像定义为图像T2;
步骤A6、对于图像T1中的每个像素点,将满足R通道灰度值大于50,G通道灰度值大于50,并且G通道大于1.5倍B通道灰度值的像素点赋值为255,否则赋值为0,通过二值化得到图像T1*;
步骤A7:对图像T1*进行形态学开操作,去除图像T1*中细小的区域,且对T1*进行边缘提取,并进行边缘补偿,得到图像T1**;
步骤A8、对图像T1**进行边缘跟踪,寻找图像T1**中边缘长度最长的前三段边缘作为合作目标中方形的边缘,删除其余边缘;
步骤A9、对图像T2利用Harris角点提取算法进行角点提取,如果提取的角点位于所述合作目标中方形的边缘上,则将满足该条件的角点作为的合作目标角点;
步骤A10、利用Kmeans算法将A9中得到的合作目标角点分为3类,如果存在一类角点个数小于3个的情况,返回步骤A10,继续分类;如果存在一类角点个数等于3个的情况,进行角点补偿,使得每一类都具有4个角点;
步骤A11、根据12个角点的相对位置关系,将每一类角点中的4个角点与所述合作目标的3个正方形的顶点互相对应,得到合作目标角点在图像坐标系中的坐标。
4.如权利要求3所述的一种主动视觉定位方法,其特征在于,所述步骤A0中判断实时图像中是否含有合作目标的具体方法为:
步骤D1:提取当前图像中每个像素的R、G、B三通道信息;
步骤D2:将满足R通道灰度值大于50,R通道灰度值大于1.5倍G通道灰度值,并且R通道灰度值大于1.3倍B通道灰度值的像素点赋值为255,否则赋值为0,然后对当前图像进行二值化;
步骤D3:计算二值化后的图像中灰度值为255的像素点个数,如果像素点个数大于全图所有像素点个数的20%,则认为该当前图像存在合作目标,否则认为合作目标不存在。
5.如权利要求3所述的一种主动视觉定位方法,其特征在于,所述步骤A10中,当存在一类角点个数等于3个的情况时,所述角点补偿方法如下:
步骤B1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3)
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4)
步骤B2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤B3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤B4;
步骤B3、在x轴方向补充缺点;
SB31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标;
SB33、找到差值ΔX1、差值ΔX2和差值ΔX3中最大的两个差值,并求两个差值的均值
当缺点的x轴坐标大于自身相对角点的x轴坐标,缺点的x轴坐标等于自身相对角点x轴坐标加两倍的差值均值
当缺点的x轴坐标小于自身相对角点的x轴坐标,缺点的x轴坐标等于自身相对角点x轴坐标减两倍的差值均值
所述缺点的y轴坐标等于自身相对角点的y轴坐标;
步骤B4、在y轴方向补充缺点:
SB41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SB42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值,如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标;如果两个差值均大于0,则缺点的y轴坐标小于自身相对角点的y轴坐标;
SB43、找到差值ΔY1、差值ΔY2和差值ΔY3中最大的两个差值,并求两个差值的均值
当缺点位于其相对角点的+y轴方向,缺点的y轴坐标等于其相对角点y轴坐标加两倍的差值均值
当缺点位于其相对角点的-y轴方向,缺点的y轴坐标等于其相对角点y轴坐标减两倍的差值均值
所述缺点的x轴坐标等于自身相对角点的x轴坐标;
由此得到缺点的坐标,实现角点补偿。
6.如权利要求3所述的一种主动视觉定位方法,其特征在于,所述步骤A10中,当存在一类角点个数等于3个的情况时,所述角点补偿方法如下:
步骤C1、针对某一类角点,分别用x1、x2和x3表示3个角点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]   (3)
分别用y1、y2和y3表示3个角点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]   (4)
步骤C2、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该类角点在x轴方向存在缺点,执行步骤C3;若y轴方向之差最小,则表明该类角点在y轴方向存在缺点,执行步骤C4;
步骤C3、在x轴方向补充缺点;
SC31、首先判断x轴方向第几个差值最小:
如果第1个差值ΔX1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔX2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔX3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC32、然后分别计算缺点相对的角点x轴坐标与另外两个角点x轴坐标差值,如果两个差值均小于0,则缺点的x轴坐标大于自身相对角点的x轴坐标;如果两个差值均大于0,则缺点的x轴坐标小于自身相对角点的x轴坐标;
步骤C4、在y轴方向补充缺点:
SC41、判断y轴方向第几个差值最小:
如果第一个差值ΔY1最小,则在角点(x2,y2)和角点(x1,y1)连线另一侧且与角点(x3,y3)相对的位置为缺点位置;
如果第二个差值ΔY2最小,则在角点(x3,y3)和角点(x1,y1)连线另一侧且与角点(x2,y2)相对的位置为缺点位置;
如果第三个差值ΔY3最小,则在角点(x2,y2)和角点(x3,y3)连线另一侧且与角点(x1,y1)相对的位置为缺点位置;
SC42、然后分别计算缺点相对的角点y轴坐标与另外两个角点y轴坐标差值,如果两个差值均小于0,则缺点的y轴坐标大于自身相对角点的y轴坐标;如果两个差值均大于0,则缺点的y轴坐标小于自身相对角点的y轴坐标;
步骤C5、根据步骤C3或步骤C4确定的缺点与相对角点的相对位置关系,求解如下公式,得到坐标P的最优值:
arg min P Σ i , j ∈ { 1,2 } , i ≡ j | | ( P - P i ) · ( P j - P 0 ) | | F 2
s.t||P-P3||2=||P0-P3||2
其中,P0表示与缺点相对角点p0坐标,P1和P2分别为某类角点中除缺点和角点p0的另外两个角点的坐标;P3表示坐标P1和坐标P2的连线中心点坐标;表示正整数;
将坐标P的最优值作为缺点的坐标,实现角点补偿。
7.如权利要求3所述的一种主动视觉定位方法,其特征在于,当场景中在不同位置设置多个合作目标时,在每个合作目标的背板上设置标识,以此区分不同的合作目标。
8.如权利要求7所述的一种主动视觉定位方法,其特征在于,在每个合作目标的背板上设置多个朝向不同的三角形作为标识,所述三角形为绿色图案,RGB颜色灰度值为(0,255,0);
对合作目标的标识的识别方法如下:
步骤E1、识别三角形的个数;
步骤E2、针对步骤E1中得到的每一个三角形,分别用x1、x2和x3表示三角形3个顶点在x轴方向坐标,并且两两求差,即:
[ΔX1=x1-x2 ΔX2=x1-x3 ΔX3=x2-x3]
分别用y1、y2和y3表示三角形3个顶点在y轴方向坐标,并且两两求差,即:
[ΔY1=y1-y2 ΔY2=y1-y3 ΔY3=y2-y3]
步骤E3、分别找到x轴方向之差和y轴方向之差的最小值,并判断:若x轴方向之差最小,则表明该三角形朝向x轴正方向或负方向,执行步骤E4;若y轴方向之差最小,则表明该三角形朝向y轴正方向或负方向,执行步骤E5;
步骤E4、若三角形朝向x轴正方向或负方向;
找到两个x轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的x坐标差值,如果两个差值均小于0,则三角形朝向x轴负方向;如果两个差值均大于0,则三角形朝向x轴正方向;
步骤E5、三角形朝向y轴正方向或负方向:
找到两个y轴差值最小的两个三角形顶点,然后判断第三个顶点与前两个顶点的y坐标差值,如果两个差值均小于0,则三角形朝向y轴负方向;如果两个差值均大于0,则三角形朝向y轴正方向;
步骤E6、对每个三角形均执行步骤E1至E5,得到所有三角形的朝向。
9.如权利要求7所述的一种主动视觉定位方法,其特征在于,在每个合作目标的背板上设置不同个数的三角形,用于识别不同的合作目标。
10.如权利要求8或9所述的一种主动视觉定位方法,其特征在于,所述三角形个数的识别方法如下:
步骤F1、设置三角形为绿色图案,RGB颜色灰度值分别为(0,255,0);针对所述步骤A5中的图像T2,遍历每一个像素点,将满足G通道灰度值大于100、G通道大于1.5倍B通道灰度值并且G通道大于1.5倍R通道灰度值像素点点赋值为255,否则赋值为0,通过二值化得到图像T3*;
步骤F2、对图像T3*进行形态学开操作,去除T3*中细小的区域,且对T3*进行边缘提取,并进行边缘补偿,得到图像T3**;
步骤F3、对图像T3**进行边缘跟踪,跟踪边缘个数即为合作目标中三角形个数。
CN201410608792.0A 2014-11-03 2014-11-03 一种主动视觉定位方法 Active CN104504675B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410608792.0A CN104504675B (zh) 2014-11-03 2014-11-03 一种主动视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410608792.0A CN104504675B (zh) 2014-11-03 2014-11-03 一种主动视觉定位方法

Publications (2)

Publication Number Publication Date
CN104504675A true CN104504675A (zh) 2015-04-08
CN104504675B CN104504675B (zh) 2016-05-04

Family

ID=52946069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410608792.0A Active CN104504675B (zh) 2014-11-03 2014-11-03 一种主动视觉定位方法

Country Status (1)

Country Link
CN (1) CN104504675B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106546233A (zh) * 2016-10-31 2017-03-29 西北工业大学 一种面向合作目标的单目视觉定位方法
CN107038722A (zh) * 2016-02-02 2017-08-11 深圳超多维光电子有限公司 一种设备定位方法及装置
CN107682595A (zh) * 2017-08-14 2018-02-09 中国科学院深圳先进技术研究院 一种交互投影方法、***及计算机可读存储介质
CN108827326A (zh) * 2018-06-20 2018-11-16 安徽迈普德康信息科技有限公司 一种基于大数据的导航地图的采集方法及其采集装置
CN109376208A (zh) * 2018-09-18 2019-02-22 高枫峻 一种基于智能终端的定位方法、***、存储介质及设备
CN110119698A (zh) * 2019-04-29 2019-08-13 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN115100293A (zh) * 2022-06-24 2022-09-23 河南工业大学 一种ads-b信号补盲方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090180667A1 (en) * 2008-01-14 2009-07-16 Mahan Larry G Optical position marker apparatus
CN104034305A (zh) * 2014-06-10 2014-09-10 杭州电子科技大学 一种单目视觉实时定位的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090180667A1 (en) * 2008-01-14 2009-07-16 Mahan Larry G Optical position marker apparatus
CN104034305A (zh) * 2014-06-10 2014-09-10 杭州电子科技大学 一种单目视觉实时定位的方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038722A (zh) * 2016-02-02 2017-08-11 深圳超多维光电子有限公司 一种设备定位方法及装置
CN106546233A (zh) * 2016-10-31 2017-03-29 西北工业大学 一种面向合作目标的单目视觉定位方法
CN107682595A (zh) * 2017-08-14 2018-02-09 中国科学院深圳先进技术研究院 一种交互投影方法、***及计算机可读存储介质
CN107682595B (zh) * 2017-08-14 2019-12-13 中国科学院深圳先进技术研究院 一种交互投影方法、***及计算机可读存储介质
CN108827326A (zh) * 2018-06-20 2018-11-16 安徽迈普德康信息科技有限公司 一种基于大数据的导航地图的采集方法及其采集装置
CN109376208A (zh) * 2018-09-18 2019-02-22 高枫峻 一种基于智能终端的定位方法、***、存储介质及设备
CN110119698A (zh) * 2019-04-29 2019-08-13 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN110119698B (zh) * 2019-04-29 2021-08-10 北京百度网讯科技有限公司 用于确定对象状态的方法、装置、设备和存储介质
CN115100293A (zh) * 2022-06-24 2022-09-23 河南工业大学 一种ads-b信号补盲方法

Also Published As

Publication number Publication date
CN104504675B (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
CN104504675A (zh) 一种主动视觉定位方法
Sochor et al. Traffic surveillance camera calibration by 3d model bounding box alignment for accurate vehicle speed measurement
CN106651953B (zh) 一种基于交通指示牌的车辆位姿估计方法
CN104536009B (zh) 一种激光红外复合的地面建筑物识别及导航方法
CN110501018B (zh) 一种服务于高精度地图生产的交通标志牌信息采集方法
CN106340044B (zh) 摄像机外参自动标定方法及标定装置
CN107392963B (zh) 一种用于软式自主空中加油的仿鹰眼运动目标定位方法
CN110285793A (zh) 一种基于双目立体视觉***的车辆智能测轨迹方法
CN104637073B (zh) 一种基于太阳照射阴影补偿的带状地下结构探测方法
Wu et al. Vehicle localization using road markings
CN103925927B (zh) 一种基于车载视频的交通标识定位方法
CN107330376A (zh) 一种车道线识别方法及***
CN104121902B (zh) 基于Xtion摄像机的室内机器人视觉里程计实现方法
CN111079589B (zh) 基于深度摄像和身高阈值像素标定的自动身高检测方法
CN105335973A (zh) 运用于带钢加工生产线的视觉处理方法
CN104102909B (zh) 基于多重视觉信息的车辆特征定位及匹配方法
CN103745221A (zh) 一种二维码图像矫正方法
CN108362205A (zh) 基于条纹投影的空间测距方法
CN103488801B (zh) 一种基于地理信息空间库的机场目标检测方法
CN107424156A (zh) 基于仿仓鸮眼视觉注意的无人机自主编队精准测量方法
CN101620672B (zh) 一种利用立体地标定位识别地面立体建筑物的方法
CN116152342A (zh) 一种基于梯度的路牌配准定位方法
CN104567879A (zh) 一种组合视场导航敏感器地心方向提取方法
CN113221883B (zh) 无人机飞行导航路线实时修正方法
Ke et al. Roadway surveillance video camera calibration using standard shipping container

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Wei Dongyan

Inventor after: Lai Qifeng

Inventor after: Zhang Xiaoguang

Inventor after: Li Wen

Inventor after: Chen Xialan

Inventor after: Li Xianghong

Inventor after: Xu Ying

Inventor after: Yuan Hong

Inventor after: Gong Xuping

Inventor before: Gong Xuping

Inventor before: Wei Dongyan

Inventor before: Lai Qifeng

Inventor before: Zhang Xiaoguang

Inventor before: Chen Xialan

Inventor before: Li Xianghong

Inventor before: Xu Ying

Inventor before: Yuan Hong

COR Change of bibliographic data
C14 Grant of patent or utility model
GR01 Patent grant