CN107977996B - 基于靶标标定定位模型的空间目标定位方法 - Google Patents
基于靶标标定定位模型的空间目标定位方法 Download PDFInfo
- Publication number
- CN107977996B CN107977996B CN201710983474.6A CN201710983474A CN107977996B CN 107977996 B CN107977996 B CN 107977996B CN 201710983474 A CN201710983474 A CN 201710983474A CN 107977996 B CN107977996 B CN 107977996B
- Authority
- CN
- China
- Prior art keywords
- positioning
- target
- projection
- space
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000003287 optical effect Effects 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于靶标标定定位模型的空间目标定位方法,该方法针对双目***,其实现过程包括:首先,设置空间坐标系和定位相机,然后通过四个平面靶标标定,确定定位模型的投影参数;再者,通过两个立体靶标标定,确定定位模型的相机光心参数;最后,根据定位模型中的共线性,确定待测量目标物的空间坐标。本发明运用靶标标定定位模型参数,利用定位模型中的共线关系定位,降低了定位***中标定过程的复杂性,改善了立体视觉定位精度较低的问题,可简单、准确地构建室内定位***。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及立体视觉技术领域中的一种基于靶标标定定位模型的空间目标定位方法。本发明可以利用靶标标定定位模型参数,对室内目标实现空间定位,本发明可广泛应用于对室内目标物跟踪定位的应用场合。
背景技术
立体视觉中定位技术的目标是通过分析多幅二维图像获取空间物体的三维信息,而其空间定位通常都需要前期进行定位模型参数标定,定位模型参数标定技术是空间物体三维重建的一个重要组成部分,直接影响三维重建的精度。基于立体视觉定位的标定方法中传统方法可以适用于任意的摄像机模型,但其标定过程复杂,定位精度低,效率不高。
现有常规的基于立体视觉的空间定位技术主要为基于极线约束的双目定位和基于视差的双目视觉定位两种方法。基于极线约束的双目定位方法,通过三角测量原则估计出待测量目标物在相机坐标系下的坐标,再结合求解ICP问题得到相机坐标系与空间坐标系之间的转换参数,继而得到待测量目标物在空间坐标系下的坐标。基于视差的双目视觉定位方法,通过求解PNP问题标定出两相机在空间坐标系下的外参数,并利用立体匹配得到平行视差,结合三角测量原理估计出待测量目标物的在空间坐标系下的坐标。然而,在实际应用中,由于定位***中内外参数往往需要标定获取,其标定过程较复杂,且由于三角测量模型本身的限制,导致误差精度不高。
哈尔滨工业大学在其申请的专利文献“基于logo的双目视觉室内定位方法”(申请号:201610546034.X,公开号:106228538A)中公开一种基于logo的双目视觉室内定位方法以相机为目标进行定位。该方法通过利用张正友棋盘标定法,求得左右相机的内参数和两相机的相对位姿关系的外参数;并对logo图像特征在某一相机坐标系下定位,再根据logo图像特征与Visual Map数据库图像特征的匹配信息,求解ICP问题得到该相机坐标系与空间坐标系的转换关系,从而得到两相机即目标在空间坐标系下的坐标。虽然,该方法在一定程度上解决了传统视觉***中标定步骤较复杂的问题。但是该方法仍然存在的不足之处是,需要建立额外的数据库图像,其定位精度依赖于logo图像特征匹配的准确度。若提取待测量目标物的像点发生些许偏移时,误差通过三角测量模型会被放大,此时待测量目标物空间坐标会发生较大偏移,特别当应用于场景尺寸较大的室内空间定位时,该现象会十分明显。
广东省自动化研究所在其申请的专利文献“一种基于双目视觉的物理坐标定位方法”(申请号:201510351400.1,公开号:104933718A)中公开了一种基于双目立体视觉定位的标定方法来计算待测量目标物的物理坐标定位方法。该方法首先利用标定物标定两相机的内参数,再利用立体标定物求解PNP问题建立相机坐标系与空间坐标系之间的转换模型,然后根据转换模型对相机所摄图像进行立体匹配,最后利用立体匹配后的图像计算待测量目标物在左右图像上的视差,结合两相机之间的基线距离计算出目标点的空间坐标。虽然该方法利用立体匹配提高了待测量目标物在左右图像上匹配精度,从而提高了定位精度,但是该方法仍然存在的不足之处是,需要标定出相机之间的基线距离,且定位精度也取决于基线的长度和测量精度。同时,该方法需要对双目定位***进行立体标定,其立体标定操作较复杂,精度不高的问题仍未被改善。
发明内容
本发明的目的在于克服上述已有的技术的不足,提出了一种基于靶标标定定位模型的空间目标定位方法,实现了标定操作简单,精度较高的室内定位技术。
实现本发明的基本思想是,根据四个平面靶标和以每个定位相机为投影中心对应平面靶标的地面投影点计算定位模型的投影参数,结合投影参数计算以每个定位相机光心为投影中心两个立体靶标的地面投影点,计算以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的交点确定定位模型的相机光心参数,结合投影参数计算以每个定位相机光心为投影中心待测量目标物的地平面投影点,结合相机光心参数计算每个定位相机光心与以对应定位相机光心为投影中心待测量目标物的地平面投影点形成的空间直线的方程式系数,得到两条空间直线的方程式,并计算两条空间直线的交点,将该交点的坐标作为待测量目标物的空间位置坐标。
本发明的具体步骤如下:
(1)设置定位相机:
将两个定位相机分别固定至焦距所能覆盖的室内高处,使其自上而下拍摄,且两个定位相机有共视区;
(2)设置空间坐标系:
将室内的高设置为Z轴,室内地面设置为Z轴坐标值为零时的二维XY平面,建立一个关于XYZ的三维正交坐标系,作为参考的空间坐标系;
(3)通过平面靶标标定,确定定位模型的投影参数:
(3a)在室内地面上摆放四个不共线且不同轮廓特征的待标定的平面靶标,使其一同出现在定位相机的共视区内,记录每个平面靶标在空间坐标系上对应的位置坐标;
(3b)使用每个定位相机对共视区内一同出现的四个平面靶标采集一次图像;
(3c)任选一个平面靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中对应平面靶标的质心像素;
(3d)判断是否获得每幅采集图像中四个平面靶标的所有质心像素,若是,则执行步骤(3e),否则,执行步骤(3c);
(3e)对每个定位相机的采集图像,根据四个平面靶标的空间坐标以及该采集图像上四个平面靶标质心像素坐标,计算每个定位相机的投影矩阵,将每个定位相机的投影矩阵作为定位模型的投影参数;
(4)通过立体靶标标定,确定定位模型的相机光心参数:
(4a)在室内地面上摆放两个不重叠,有高度,且不同轮廓特征的待标定的立体靶标,使其一同出现在定位相机的共视区内,记录两个立体靶标在空间坐标系上对应的位置坐标;
(4b)使用每个定位相机对共视区内一同出现的两个立体靶标采集一次图像;
(4c)任选一个立体靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中对应立体靶标的质心像素;
(4d)判断是否获得每幅采集图像中两个立体靶标的所有质心像素,若是,则执行步骤(4e),否则,执行步骤(4c);
(4e)将投影参数中每个定位相机的投影矩阵与对应定位相机的采集图像中两个立体靶标的质心像素坐标相乘,得到以该定位相机为投影中心两个立体靶标的地平面投影点;
(4f)使用对称式法,得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式;
(4g)使用解析几何方法,根据以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式,计算其交点,将该交点作为该定位相机的光心;
(4f)将每个定位相机的光心记录为定位模型的相机光心参数;
(5)使用定位模型,确定待定位目标物的空间坐标:
(5a)使用每个定位相机对出现在共视区内的待定位目标物采集一次图像;
(5b)将待定位目标物作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中待定位目标物的质心像素;
(5c)将投影参数中每个定位相机的投影矩阵与对应定位相机的采集图像中待定位目标物的质心像素坐标相乘,得到以该定位相机为投影中心待定位目标物的地平面投影点;
(5d)使用两点式法,得到两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式;
(5e)使用解析几何方法,根据两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式,计算其交点,将该交点坐标作为待定位目标物在空间坐标系中的位置。
本发明与现有技术相比具有如下优点:
第一,由于本发明通过引入地面与图像平面的投影关系和相机光心,靶标,采集图像中靶标质心像素与以相机光心为投影中心靶标的地面投影点之间的共线关系,标定定位模型中的投影参数和相机光心参数,克服了现有技术相机标定技术中双目定位***内外参数的标定操作复杂的不足,使得本发明降低了定位***中标定过程的复杂性,进而提高了定位***的效率。
第二,由于本发明根据定位模型中定位相机光心、待测量目标物、待测量目标物地面投影点形成的空间直线,以空间直线交点的坐标作为待测量目标物的空间位置估计,克服了现有技术中图像中当定位范围较大时,图像上待测量目标物质心像素的精度不高,待测量目标物质心像素的误差经过三角测量模型放大导致定位精度不高的不足,根据投影矩阵的先验约束,将图像上待测量目标物质心像素映射为待测量目标物地面投影点,利用定位模型中定位相机光心、待测量目标物、待测量目标物地面投影点的共线关系计算待测量目标物的空间位置,即使待测量目标物图像像点存在一定误差时,使得本发明具有高精度的定位优点。
附图说明
图1是本发明的流程图;
图2是本发明仿真效果图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,本发明的具体步骤如下。
步骤1.设置定位相机。
将两个定位相机分别固定至焦距所能覆盖的室内高处,任选一个定位相机记为定位相机1,则另一个定位相机为定位相机2,
调整两个定位相机的相机姿态,使其自上而下拍摄,且两个定位相机有共视区。
步骤2.设置空间坐标系。
将室内地平面设置为Z=0的二维XY平面,室内的高设置为Z轴,建立一个三维正交坐标系,作为参考的空间坐标系。
步骤3.通过平面靶标标定,确定定位模型的投影参数。
在室内地面上摆放四个不共线且不同轮廓的待定位的平面靶标,其中每个平面靶标对应一幅模板图片,该模板图片主要包含着对应平面靶标的轮廓信息。
将调整四个平面靶标的位置,使其一同出现在定位相机的共视区内,并记录将每个平面靶标在空间坐标系上对应的位置坐标。
每个定位相机对共视区内一同出现的四个平面靶标采集一次图像。
依次将每个平面靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中四个平面靶标的质心像素。
所述轮廓匹配方法是,利用轮廓匹配计算待提取目标的质心像素坐标的一种方法,得到采集图像中四个平面靶标的质心像素,具体执行步骤如下:
第一步:对每幅采集图像进行二值化处理;
第二步:依次使用开源计算机视觉opencv库中的findcontours函数,从每幅二值化处理后的图像中各提取出一簇凸包轮廓;
第三步:任选一个平面靶标作为待提取目标,使用opencv库中的canny函数,从待提取目标的模板图片中提取待提取目标的轮廓特征。
第四步:从每幅二值化图像的一簇凸包轮廓中,根据待提取目标的轮廓,依次使用opencv库中的matchShapes函数,筛选出与待提取目标的轮廓特征相似度最高的凸包轮廓,并计算其一阶矩,得到所采集图像中待提取目标的质心像素。
第五步:判断是否获得每幅采集图像中四个平面靶标的所有质心像素,若是,则得到采集图像中四个平面靶标的质心像素,否则,执行第三步。
根据每个定位相机的采集图像上四个平面靶标质心像素坐标和四个平面靶标的空间坐标,使用opencv库中的findhomography函数计算出每个定位相机的投影矩阵,将每个定位相机的投影矩阵作为定位模型的投影参数。
步骤4.通过立体靶标标定,确定定位模型的相机光心参数。
在室内地面上摆放两个不重叠,有高度,且不同轮廓特征的立体靶标,分别记为立体靶标1和立体靶标2,其中每个立体靶标对应一幅模板图片,该模板图片主要包含着对应立体靶标的轮廓信息。
调整两个立体靶标的摆放位置,使其一同出现在定位相机的共视区内,记录两个立体靶标在空间坐标系上对应的位置坐标。
使用每个定位相机对共视区内一同出现的两个立体靶标采集一次图像。
依次将每个立体靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中两个立体靶标的质心像素。
所述轮廓匹配方法是利用轮廓匹配计算待提取目标的质心像素坐标,得到采集图像中两个立体靶标的质心像素,具体执行步骤如下:
第一步:对每幅采集图像进行二值化处理;
第二步:依次使用开源计算机视觉opencv库中的findcontours函数,从每幅二值化处理后的图像中各提取出一簇凸包轮廓;
第三步:任选一个立体靶标作为待提取目标,使用opencv库中的canny函数,从待提取目标的模板图片中提取待提取目标的轮廓特征。
第四步:从每幅二值化图像的一簇凸包轮廓中,根据待提取目标的轮廓,依次使用opencv库中的matchShapes函数,筛选出与待提取目标的轮廓特征相似度最高的凸包轮廓,并计算其一阶矩,得到所采集图像中待提取目标的质心像素。
第五步:判断是否获得每幅采集图像中两个靶标的所有质心像素,若是,则得到采集图像中两个立体靶标的质心像素,否则,执行第三步。
按照下式,将投影参数中定位相机1的投影矩阵与对应采集图像上两个立体靶标的质心像素坐标相乘,分别得到以该定位相机为投影中心两个立体靶标的地平面投影点。
其中表示以定位相机1为投影中心立体靶标1的地平面投影点的坐标,H1表示投影参数中定位相机1的投影矩阵,表示定位相机1所采集图像中立体靶标1的质心像素坐标,为以定位相机1为投影中心立体靶标2的地平面投影点的坐标,表示定位相机1所采集图像中立体靶标2的质心像素坐标。
同理按照下式,将投影参数中定位相机2的投影矩阵与对应采集图像上两个立体靶标的质心像素坐标相乘,分别得到以定位相机2为投影中心两个立体靶标的地平面投影点。
其中表示以定位相机2为投影中心立体靶标1的地平面投影点的坐标,H2表示投影参数中定位相机2的投影矩阵,表示定位相机2所采集图像中立体靶标1的质心像素坐标,为以定位相机2为投影中心立体靶标2的地平面投影点的坐标,表示定位相机2所采集图像中立体靶标2的质心像素坐标。
使用对称式法,得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式。
对称式法是按照下式构建的:
第一步:按照下式,将以定位相机1为投影中心的两个立体靶标的地平面投影点的坐标值分别与对应立体靶标的坐标值相减,分别得到一条空间直线的方向向量元素。
其中表示以定位相机1为投影中心的立体靶标1的地平面投影点与立体靶标1形成的空间直线的方向向量,(Lp1,Wp1,Hp1)表示立体靶标1的空间位置坐标,表示以定位相机1为投影中心的立体靶标2的地平面投影点与立体靶标2形成的空间直线的方向向量,立体靶标2的空间位置坐标为
同理按照下式,将以定位相机2为投影中心的两个立体靶标的地平面投影点的坐标值分别与对应立体靶标的坐标值相减,分别得到一条空间直线的方向向量元素。
其中表示以定位相机2为投影中心的立体靶标1的地平面投影点与立体靶标1形成的空间直线的方向向量,表示以定位相机2为投影中心的立体靶标2的地平面投影点与立体靶标2形成的空间直线的方向向量。
第二步:根据空间直线的方向向量元素构造空间直线的对称方程式,并结合对应立体靶标的坐标满足空间直线的对称方程式,计算空间直线的对称方程式的系数,得到空间直线的方程式。
第三步:判断是否获得以每个定位相机为投影中心所有立体靶标的地平面投影点与对应立体靶标构成的直线方程式,若否,则执行第一步。若是,则得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式。
其中以定位相机1为投影中心的立体靶标1的地平面投影点与立体靶标1形成的空间直线方程式为以定位相机1为投影中心的立体靶标1的地平面投影点与立体靶标2形成的空间直线方程式为以定位相机2为投影中心的立体靶标1的地平面投影点与立体靶标1形成的空间直线方程式为以定位相机2为投影中心的立体靶标2的地平面投影点与立体靶标2形成的空间直线方程式为
步骤5.使用解析几何方法,根据以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标构成的空间直线的方程式,计算两条空间直线的交点,将交点作为每个定位相机的光心,将每个定位相机的光心作为定位模型的相机光心参数。
解析几何方法是一种计算两条空间直线的交点的方法,具体执行步骤如下:
第一步,判断下式是否为零,作为判断两条空间直线是否在同一平面上的准则。
以定位相机1为投影中心为例,根据以定位相机1为投影中心两个立体靶标的地平面投影点与对应立体靶标构成的空间直线方程式,按照下式,判断两条空间直线是否在同一平面上。
其中m1为两个空间直线方向向量与连接两个空间直线的向量的混合积。若m1=0,则执行第六步来计算以定位相机1为投影中心两个立体靶标的地平面投影点与对应立体靶标构成的空间直线的交点坐标,否则,执行第二步来计算该交点坐标。
同理,根据以定位相机2为投影中心两个立体靶标的地平面投影点与对应立体靶标构成的空间方程式,按照下式,判断两条空间直线是否在同一平面上。
其中m2为两个空间直线方向向量与连接两个空间直线的向量的混合积。若m2=0,则执行第六步来计算以定位相机2为投影中心两个立体靶标的地平面投影点与对应立体靶标构成的空间直线的交点坐标,否则,执行第二步来计算该交点坐标。
第二步,根据两条空间直线的方程式,计算两条空间直线的方向向量,并将两个方向向量进行叉乘操作,得到两条空间直线的中垂线的方向向量元素。
第三步,根据中垂线的方向向量和两条空间直线的方程式,分别计算由中垂线与每一条空间直线构成的平面的方程式系数。
第四步,根据中垂线与两条空间直线构成的两个平面的方程式,计算两个平面交线的方程式系数,该交线即为中垂线。
第五步,将中垂线方程式分别与两条空间直线方程式联立求解得到两个交点,取两个交点的中点,将该中点作为两条空间直线的交点。
第六步,将两条空间直线的方程式联立求解,得到两条空间直线的交点。
步骤6.使用定位模型,确定待测量目标物的空间坐标。
摆放待测量目标物,该待测量目标物对应有一幅待测量目标物的模板图像,并调整待测量目标物位置使其出现在定位相机的共视区内。
使用每个定位相机对出现在共视区内的待测量目标物采集一次图像。
将待测量目标物作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中两个立体靶标的质心像素。
轮廓匹配方法是利用轮廓匹配计算待提取目标的质心像素坐标的一种方法,使用轮廓匹配方法得到采集图像中待测量目标物的质心像素,具体执行步骤如下:
第一步:对每幅采集图像进行二值化处理;
第二步:依次使用开源计算机视觉opencv库中的findcontours函数,从每幅二值化处理后的图像中各提取出一簇凸包轮廓;
第三步:将待测量目标物作为待提取目标,使用opencv库中的canny函数,从待提取目标的模板图片中提取待提取目标的轮廓特征。
第四步:从每幅二值化图像的一簇凸包轮廓中,根据待提取目标的轮廓,依次使用opencv库中的matchShapes函数,筛选出与待提取目标的轮廓特征相似度最高的凸包轮廓,并计算其一阶矩,得到所采集图像中待提取目标的质心像素。
按照下式,将投影参数中每个定位相机的投影矩阵与对应采集图像上待测量目标物的质心像素坐标相乘,得到以该定位相机为投影中心待测量目标物的地平面投影点。
其中表示以定位相机1为投影中心待测量目标物的地平面投影点的坐标,表示定位相机1所采集图像中待测量目标物的质心像素坐标,为以定位相机2为投影中心待测量目标物的地平面投影点的坐标,表示定位相机2所采集图像中待测量目标物的质心像素坐标。
利用两点式法,结合相机光心参数,计算每个定位相机光心与以对应定位相机光心为投影中心待测量目标物的地平面投影点形成的空间直线的方程式的系数,得到两条空间直线的方程式。
两点式法是按照下式构建的:
第一步:构造空间直线的方程式。
第二步:将任一定位相机光心的坐标和以对应定位相机光心为投影中心待测量目标物的地平面投影点的坐标代入空间直线的方程式,求解空间直线的方程式的系数。
第三步:判断是否获得,计算所有定位相机光心与以对应定位相机光心为投影中心待测量目标物的地平面投影点形成的空间直线的方程式,若是,则得到两条空间直线方程,否则,执行第一步。
使用步骤4的解析几何方法,根据两条空间直线的方程式,计算两条空间直线的交点,将该交点坐标作为待测量目标物在空间坐标系中的位置。
下面结合附图2对本发明的仿真效果做进一步的描述。
1.仿真条件:
本发明的仿真实验是在CPU主频2.5GHz、内存4GB的硬件环境和VS 2013的软件环境下进行的。
2.仿真内容和仿真效果分析:
本发明仿真实验所用数据分别为定位相机采集的纯红色圆球位于共视区内不同位置上的一组图像和定位相机采集的红色网格位于共视区内的一组图像。纯红色圆球的半径为3.5cm,红色网格的大小由104个20cm*20cm大小的方格组成,其中有100个有效角点分布在共视区内,定位相机采集图像分辨率为1080*720。
本发明的仿真实验采用分布误差和平均误差直方图等指标来评价本发明方法的实际效果,其中分布误差为真实坐标与估计坐标之间的相对误差,平均误差定义为真实坐标与估计坐标之间的相对误差在x轴,y轴,z轴方向上误差之和的均方值。
用本发明的方法与现有技术的基于视差的定位方法分别对红色圆球在不同位置下进行定位。结果如表1所示,最优结果用加粗字体表示。
表1.常规定位方法与本发明定位的分布误差对比一览表
从表1可看出,对红色圆球在不同位置下进行定位时,本发明的定位误差分布均匀都在2cm以内,而常规定位方法中x轴方向定位误差较大,且整体来看,本发明定位误差与常规方法相比有显著下降。
用本发明方法和现有技术中的常规方法分别对红色网格中位于共视区内100个有效角点进行定位。由于数据过多,仅利用统计方法,展示其平均误差直方图。附图2(a)为采用现有技术的常规方法对红色网格中位于共视区内100个有效角点定位的平均误差直方图,附图2(a)直方图中的横坐标表示平均误差,纵坐标表示有效角点的统计个数。附图2(b)为本发明对红色网格中位于共视区内100个有效角点定位的平均误差直方图,附图2(b)直方图中的横坐标表示平均误差,其纵坐标表示有效角点的统计个数。
对比图2(a)、图2(b)的直方图可看出,在对红色网格中位于共视区内100个有效角点进行定位时,本发明中有效角点的定位平均误差集中分布在平均误差较小的区域。相比之下,常规定位方法有效角点的定位平均误差集中分布在平均误差较大的区域,继而可知,本发明在对室内较大范围的位置估计时,其定位精度与常规方法相比有显著提高。
以上的仿真实验结果表明,本发明提出了一种基于靶标标定定位模型的空间目标定位方法,计算待测量目标物的空间坐标。无论从实验操作还是从定位精度比较,都表现出了较好的性能,充分说明了本发明的优越性。
Claims (5)
1.一种基于靶标标定定位模型的空间目标定位方法,其特征在于,包括如下步骤:
(1)设置定位相机:
将两个定位相机分别固定至焦距所能覆盖的室内高处,使其自上而下拍摄,且两个定位相机有共视区;
(2)设置空间坐标系:
将室内的高设置为Z轴,室内地面设置为Z轴坐标值为零时的二维XY平面,建立一个关于XYZ的三维正交坐标系,作为参考的空间坐标系;
(3)通过平面靶标标定,确定定位模型的投影参数:
(3a)在室内地面上摆放四个不共线且不同轮廓特征的待标定的平面靶标,使其一同出现在定位相机的共视区内,记录每个平面靶标在空间坐标系上对应的位置坐标;
(3b)使用每个定位相机对共视区内一同出现的四个平面靶标采集一次图像;
(3c)任选一个平面靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中对应平面靶标的质心像素;
(3d)判断是否获得每幅采集图像中四个平面靶标的所有质心像素,若是,则执行步骤(3e),否则,执行步骤(3c);
(3e)对每个定位相机的采集图像,根据四个平面靶标的空间坐标以及该采集图像上四个平面靶标质心像素坐标,计算每个定位相机的投影矩阵,将每个定位相机的投影矩阵作为定位模型的投影参数;
(4)通过立体靶标标定,确定定位模型的相机光心参数:
(4a)在室内地面上摆放两个不重叠,有高度,且不同轮廓特征的待标定的立体靶标,使其一同出现在定位相机的共视区内,记录两个立体靶标在空间坐标系上对应的位置坐标;
(4b)使用每个定位相机对共视区内一同出现的两个立体靶标采集一次图像;
(4c)任选一个立体靶标作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中对应立体靶标的质心像素;
(4d)判断是否获得每幅采集图像中两个立体靶标的所有质心像素,若是,则执行步骤(4e),否则,执行步骤(4c);
(4e)将投影参数中每个定位相机的投影矩阵与对应定位相机的采集图像中两个立体靶标的质心像素坐标相乘,得到以该定位相机为投影中心两个立体靶标的地平面投影点;
(4f)使用对称式法,得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式;
(4g)使用解析几何方法,根据以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式,计算其交点,将该交点作为该定位相机的光心;
(4h )将每个定位相机的光心记录为定位模型的相机光心参数;
(5)使用定位模型,确定待定位目标物的空间坐标:
(5a)使用每个定位相机对出现在共视区内的待定位目标物采集一次图像;
(5b)将待定位目标物作为待提取目标,使用轮廓匹配方法,从每幅采集图像中提取待提取目标的质心像素,得到采集图像中待定位目标物的质心像素;
(5c)将投影参数中每个定位相机的投影矩阵与对应定位相机的采集图像中待定位目标物的质心像素坐标相乘,得到以该定位相机为投影中心待定位目标物的地平面投影点;
(5d)使用两点式法,得到两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式;
(5e)使用解析几何方法,根据两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式,计算其交点,将该交点坐标作为待定位目标物在空间坐标系中的位置。
2.根据权利要求1所述的基于靶标标定定位模型的空间目标定位方法,其特征在于,步骤(3c)、步骤(4c)、步骤(5b)中所述轮廓匹配方法的步骤如下:
第一步:对每幅采集图像进行二值化处理;
第二步:从每幅二值化后图像中各提取一簇凸包轮廓;
第三步:从每幅二值化后图像的一簇凸包轮廓中筛选出与待提取目标的轮廓特征相似度最高的凸包轮廓,并计算其一阶矩,得到采集图像中待提取目标的质心像素。
3.根据权利要求1所述的基于靶标标定定位模型的空间目标定位方法,其特征在于,步骤(4f)中所述的对称式法,得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式的步骤如下:
第一步:将以每个定位相机为投影中心的任一立体靶标的地平面投影点的坐标值与对应立体靶标的坐标值相减,得到一条空间直线的方向向量元素;
第二步:根据空间直线的方向向量元素构造空间直线的对称方程式,并结合对应立体靶标的坐标满足空间直线的对称方程式,计算空间直线的对称方程式的系数,得到空间直线的方程式;
第三步:判断是否获得以每个定位相机为投影中心所有立体靶标的地平面投影点与对应立体靶标构成的直线方程式,若是,则得到以每个定位相机为投影中心两个立体靶标的地平面投影点与对应立体靶标形成的两条空间直线的方程式,否则,执行第一步。
4.根据权利要求1所述的基于靶标标定定位模型的空间目标定位方法,其特征在于,步骤(4g)、步骤(5e)中所述的解析几何方法计算交点的步骤如下:
第一步,根据两条空间直线的方程式,判断两条空间直线是否在同一平面上,若是,则执行第六步,否则,执行第二步;
第二步,根据两条空间直线的方程式,计算两条空间直线的方向向量,并将两个方向向量进行叉乘操作,得到两条空间直线的中垂线的方向向量元素;
第三步,根据中垂线的方向向量和两条空间直线的方程式,分别计算由中垂线与每一条空间直线构成的平面的方程式系数;
第四步,根据中垂线与两条空间直线构成的两个平面的方程式,计算两个平面交线的方程式系数,该交线即为中垂线;
第五步,将中垂线方程式分别与两条空间直线方程式联立求解得到两个交点,取两个交点的中点,将该中点作为两条空间直线的交点;
第六步,将两条空间直线的方程式联立求解,得到两条空间直线的交点。
5.根据权利要求1所述的基于靶标标定定位模型的空间目标定位方法,其特征在于,步骤(5d)中所述两点式法,得到两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式的步骤如下:
第一步:构造空间直线的方程式;
第二步:将任一定位相机光心的坐标和以对应定位相机光心为投影中心待定位目标物的地平面投影点的坐标代入空间直线的方程式,求解空间直线的方程式的系数;
第三步:判断是否获得两条空间直线方程,若是,则得到两个定位相机光心与以对应定位相机光心为投影中心待定位目标物的地平面投影点形成的两条空间直线的方程式,否则,执行第一步。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710983474.6A CN107977996B (zh) | 2017-10-20 | 2017-10-20 | 基于靶标标定定位模型的空间目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710983474.6A CN107977996B (zh) | 2017-10-20 | 2017-10-20 | 基于靶标标定定位模型的空间目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107977996A CN107977996A (zh) | 2018-05-01 |
CN107977996B true CN107977996B (zh) | 2019-12-10 |
Family
ID=62012582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710983474.6A Active CN107977996B (zh) | 2017-10-20 | 2017-10-20 | 基于靶标标定定位模型的空间目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977996B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109077822B (zh) * | 2018-06-22 | 2020-11-03 | 雅客智慧(北京)科技有限公司 | 一种基于视觉测量的牙科种植手机标定***及方法 |
CN109272551B (zh) * | 2018-08-03 | 2022-04-01 | 北京航空航天大学 | 一种基于圆形标志点布局的视觉定位方法 |
CN109151458B (zh) * | 2018-08-31 | 2020-10-09 | 歌尔股份有限公司 | 测试模型构造方法、景深模组光学中心测试方法及设备 |
CN109242917A (zh) * | 2018-10-24 | 2019-01-18 | 南昌航空大学 | 一种基于棋盘格的相机分辨率标定方法 |
CN111429523B (zh) * | 2020-03-16 | 2021-06-15 | 天目爱视(北京)科技有限公司 | 一种在3d建模中远距离标定方法 |
CN111381215A (zh) * | 2020-03-25 | 2020-07-07 | 中国科学院地质与地球物理研究所 | 相位校正方法以及流星位置获取方法 |
CN112509059B (zh) * | 2020-12-01 | 2023-04-07 | 合肥中科君达视界技术股份有限公司 | 一种基于共面靶标的大视场双目立体标定与定位方法 |
CN113112545B (zh) * | 2021-04-15 | 2023-03-21 | 西安电子科技大学 | 基于计算机视觉的手持移动打印装置定位方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7313265B2 (en) * | 2003-03-13 | 2007-12-25 | Kabushiki Kaisha Toshiba | Stereo calibration apparatus and stereo image monitoring apparatus using the same |
CN101876532A (zh) * | 2010-05-25 | 2010-11-03 | 大连理工大学 | 测量***中的摄像机现场标定方法 |
CN102810205A (zh) * | 2012-07-09 | 2012-12-05 | 深圳泰山在线科技有限公司 | 一种摄像或照相装置的标定方法 |
-
2017
- 2017-10-20 CN CN201710983474.6A patent/CN107977996B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7313265B2 (en) * | 2003-03-13 | 2007-12-25 | Kabushiki Kaisha Toshiba | Stereo calibration apparatus and stereo image monitoring apparatus using the same |
CN101876532A (zh) * | 2010-05-25 | 2010-11-03 | 大连理工大学 | 测量***中的摄像机现场标定方法 |
CN102810205A (zh) * | 2012-07-09 | 2012-12-05 | 深圳泰山在线科技有限公司 | 一种摄像或照相装置的标定方法 |
Non-Patent Citations (1)
Title |
---|
LED-tracking and ID-estimation for indoor positioning using visible light communication;Yohei Nakazawa,et al.;《2014 International Conference on Indoor Positioning and Indoor Navigation》;20141030;87-90 * |
Also Published As
Publication number | Publication date |
---|---|
CN107977996A (zh) | 2018-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977996B (zh) | 基于靶标标定定位模型的空间目标定位方法 | |
CN109035320B (zh) | 基于单目视觉的深度提取方法 | |
CN109146980B (zh) | 基于单目视觉的优化的深度提取和被动测距方法 | |
CN110689579B (zh) | 基于合作目标的快速单目视觉位姿测量方法及测量*** | |
CN109269430B (zh) | 基于深度提取模型的多株立木胸径被动测量方法 | |
CN109801333B (zh) | 体积测量方法、装置、***及计算设备 | |
CN107481284A (zh) | 目标物跟踪轨迹精度测量的方法、装置、终端及*** | |
CN109211198B (zh) | 一种基于三目视觉的智能目标检测和测量***和方法 | |
CN109255818B (zh) | 一种新型标靶及其亚像素级角点的提取方法 | |
CN109448043A (zh) | 平面约束下的立木高度提取方法 | |
CN111814792B (zh) | 一种基于rgb-d图像的特征点提取与匹配方法 | |
CN112734844B (zh) | 一种基于正八面体的单目6d位姿估计方法 | |
CN113592957A (zh) | 一种多激光雷达和多相机联合标定方法及*** | |
Zhou et al. | A measurement system based on internal cooperation of cameras in binocular vision | |
CN110415304B (zh) | 一种视觉标定方法及*** | |
CN113096183A (zh) | 一种基于激光雷达与单目相机的障碍物检测与测量方法 | |
CN114998448A (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及*** | |
CN116309882A (zh) | 一种面向无人叉车应用的托盘检测和定位方法及*** | |
CN113340201B (zh) | 一种基于rgbd相机的三维测量方法 | |
CN116021519A (zh) | 一种基于tof相机采摘机器人手眼标定方法以及装置 | |
Wan et al. | A performance comparison of feature detectors for planetary rover mapping and localization | |
Wang et al. | Multi-surface hydraulic valve block technique hole plug inspection from monocular image | |
CN117115434A (zh) | 数据分割装置和方法 | |
CN113589263A (zh) | 一种多个同源传感器联合标定方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |