CN113255455A - 基于矢量去光照影响算法的单目相机物体识别与定位方法 - Google Patents
基于矢量去光照影响算法的单目相机物体识别与定位方法 Download PDFInfo
- Publication number
- CN113255455A CN113255455A CN202110463617.7A CN202110463617A CN113255455A CN 113255455 A CN113255455 A CN 113255455A CN 202110463617 A CN202110463617 A CN 202110463617A CN 113255455 A CN113255455 A CN 113255455A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- illumination
- robot
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 129
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 4
- 238000005260 corrosion Methods 0.000 claims description 4
- 230000007797 corrosion Effects 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,包括步骤:S1采用机器人采集影像图,并对影像图进行去光照处理;S2对经去光照处理后的影像图进行滤波处理,获得滤波后的图像;S3将图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;S4排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;S5根据目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在则返回空并结束此次识别与定位;若存在则返回目物体的中心坐标,再调整机器人的头部角度和身***姿,使目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到机器人的距离,获得目标物体的识别结果。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于矢量去光照影响算法的单目相机物体识别与定位方法。
背景技术
基于计算机视觉的定位识别研究是近些年发展迅速的一项前沿科技课题,其在诸多领域都有着多方面的应用和十分广阔的开发前景。但是光照对于物体的识别总有着极大的影响,同样的物体,在不同的光照强度,不同的光照角度,其识别的成功率相差甚远。在物体的定位测距方面,通常需要双目相机、RGBD深度相机或者激光雷达等设备,设备昂贵且易受外界因素干扰。
因此,有必要开发一种基于矢量运算去光照算法的单目相机物体识别与定位,通过矢量算法去除图像的光照影响,再排除目标区域的干扰,从而精准的识别到目标区域内的目标物体,该方法可运用于无人机定位目标物体,或乒乓球、高尔夫球等自动拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
发明内容
本发明要解决的技术问题是提供一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,通过矢量算法去除图像的光照影响,再排除目标区域的干扰,提高对物体的识别效率,从而精准的识别到目标区域内的目标物体,该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
为了解决上述技术问题,本发明采用的技术方案是:该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果。
采用上述技术方案,借助机器人的采集装置,获得有效的影像资料;再通对影像资料的自动分析、识别和定位技术;对机器人所采集到的影像图进行识别、分析和定位,以机器人采集的影像图作为数据源,然后利用影像自动识别技术对影像进行分类,最后对分类图进行目标物体识别判断;从而得知目标物体的具***置,该基于矢量去光照影响算法的单目相机物体识别与定位方法能够有效的减少光照的影响,提高对物体的识别效率,本方法可有效的应用于乒乓球场的乒乓球拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内,为生活带来便利。
本发明的进一步改进在于,该基于矢量去光照影响算法的单目相机物体的识别与定位方法还包括步骤S6对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
作为本发明的优选技术方案,所述步骤S1中机器人通过采集装置采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) }是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图。
去除光照影响后得到地影像图仍然是RGB图像,在运用矢量去光照影响的计算方法时,将干扰部分去除得到均衡下的图像,但一次估计是无法完全去除不均衡光照分量的,需要通过设定阈值,进行多次迭代。
作为本发明的优选技术方案,所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像。
作为本发明的优选技术方案,所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标。
作为本发明的优选技术方案,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心。
作为本发明的优选技术方案,所述步骤S5中的所述计算模型的公式为:
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离。
作为本发明的优选技术方案,所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像。
作为本发明的优选技术方案,所述步骤S1中的所述采集装置为摄像头,设置在所述机器人的头部。
作为本发明的优选技术方案,由RGB色彩空间转换到HSV色彩空间的算法为:
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像。
与现有技术相比,本发明具有的有益效果为:在计算机视觉中,光照对于物体的识别总有着极大的影响,同样的物体,在不同的光照强度,不同的光照角度,其识别的成功率相差甚远;利用基于矢量去光照算法,可以有效的减少光照影响,提高检测的准确率,并且运用了特定的计算模型,排除干扰物体,提高检测效率;该基于矢量去光照影响算法的单目相机物体的识别与定位方法可有效的应用于乒乓球场的乒乓球拾取等生活场景,应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内,为生活带来便利。
附图说明
图1为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法工作流程图;
图2为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的图像与光照矢量算法示意图;
图3为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的NAO摄像头垂直视角图;
图4为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的NAO摄像头水平视角图;
图5为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的物体距离求解模型图;
图6为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的图片处理过程产生的部分图像,其中:(a)为原图;(b)为根据识别物体红色区域所产生的二值图像,白色部分代表识别的红色;(c)为边界线的提取,标记为黑色线;(d)为识别结果图,最终识别的球体用黑色圆圈标出轮廓,黑色标出球心位置;
图7为本发明的基于矢量去光照影响算法的单目相机物体识别与定位方法的程序运行结果图。
具体实施方式
下面将结合本发明的实施例图中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。
实施例:如图1所示,该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
如图2所示,所述步骤S1中机器人通过采集装置即设置在所述机器人的头部的摄像头采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) }是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图;
去除光照影响后得到地影像图仍然是RGB图像;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像;
由RGB色彩空间转换到HSV色彩空间的算法为:
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
如图3所示 ,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心;
如图5所示,所述步骤S5中的所述计算模型的公式为:
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离;计算结果如图7所示;
S6:对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
应用实施例:以NAO机器人高尔夫球比赛为例,该基于矢量去光照影响算法的单目相机物体的识别与定位方法,具体包括以下步骤:
S1:采用机器人采集影像图(如图6中的(a)所示),并对所述影像图进行去光照处理;所述步骤S1中机器人通过采集装置即设置在所述机器人的头部的摄像头采集影像图;
从计算公式中可以看出原始图像、反射能力和光照是一
个不定方程组求解问题;一般的算法都是通过增加一个约束条件来解决,因此,约束条件的
不同得出的解就不同;把物体的反射系数与光照分离,完全地从图像中提取出来是很困难
的;如果完全去除光照,把物体放在黑屋子里,那将得到一张全黑得图像;因此,反应物体的
反射系数需要一定得光照,且需要均衡光照,使用光照均衡,减少不均衡的光照对图像得影
响,是处理光照问题的本质;
因此,该矢量去光照影响的算法中,首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,该矢量去光照影响的算法的具体步骤为:
S11:按照坐标将影像图转化成矢量I,即影图像用下式(1)表示:
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;一般以图像尺寸的1/32比较合适;
再定义暗度D,即D=D(x,y),其计算公式为:
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
其中,σ是一个衰减速度常量,其值应根据实际实验决定, 一般取4~8;α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) } 是个高斯核函数,表示补偿速度;当光照很不均衡时, 即亮度V的最大值与平均亮度Hv相差越大,能让迭代比较快地达到收敛;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图;
迭代结束条件可设为I2(x,y)的模或者一范数(即max{I2(x,y)}<=threshold;当I2(x,y)的模很小时,I(x,y)和I1(x,y)非常接近,表示图像的光照均匀;另一个I2(x,y)的一范数条件是控制图像噪点的,在迭代过程中,产生噪点的时候就应该停止迭代;去除光照影响后得到地影像图仍然是RGB图像;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,HSV即色相(Hue)、饱和度(Saturation)、明度(Value),明度V表示颜色明亮的程度,对于光源色,明度值与发光体的光亮度有关;对于物体色,此值和物体的透射比或反射比有关;再根据目标物体的颜色阈值,获得二值图像;
由RGB色彩空间转换到HSV色彩空间的算法为:
其中R为RGB色彩空间中的红色,G为RGB色彩空间中的绿色,B为RGB色彩空间中的蓝色;H为HSV色彩空间的色相(Hue)、S为HSV色彩空间的饱和度(Saturation)、V为HSV色彩空间的亮度(Value);然后根据目标物体的颜色阈值,得到二值图像;我们可以得到二值图像如图6中的(b)所示,在二值图像中白色的部分对应的是备选球(可能是我们要找的球);
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界,如图6中的(c)所示,黑色线条即为提取到的白色边界线;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标;
在一般的xy直角坐标系中,任何一条直线的方程可以用Ay+Bx+C=0来表示,一个点M的坐标为(a,b),则将点M带入方程,若Ab+Ba+C>0,则说明点M在直线的上方,若Ab+Ba+C<0则说明点M在直线的下方;当图像中存在白色边线,则机器人是在白色线的下方,而机器人总是在场地内的,所以,可以得出,只要球心坐标也处在白线的下方,则可以说明球心是在球场内的;而在图像的坐标中,原点是图像的左上角,横轴的右方为y轴增大方向,纵轴下方为x周增大的方向; 这与一般的坐标轴是相反的;所以当把球心的坐标(m,n)代入白色边线时,满足An+Bm+C>0 时,就是满足要求的球心坐标;如图6中的(d)所示,目标球体检测结果用黑色圆圈标记;
S5定位目标物体:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
如图3所示,NAO摄像头的垂直视角范围为34.80度,如图4所示,NAO摄像头的水平视角范围为60.97度,由于NAO摄像头光轴与图像平面的交点为图像平面的中心点,所以根据NAO摄像头成像的视角范围以及图像的大小可以从目标中心在图像坐标系的位置推导出目标与摄像头光轴的垂直、水平夹角;因此,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;由于本实验在捕获图像时采用的大小为640*480分线率,所以p1的值为480;a1的为NAO摄像头垂直视角大小,其值为47.64度;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小,值为640;a2的为NAO摄像头水平视角大小,其值为60.97度;通过g1和g2调整机器人头部的角度可将红球的中心置于机器人视野的中心;
如图5所示,所述步骤S5中的所述计算模型的公式为:
其中α表示采集装置和水平面之间的夹角,γ表示采集装置的垂直视野角度的一半,H为采集装置距离地面的高度,h为球的半径,d为机器人距离目标物体中心的距离;计算结果如图7所示;
S6:对步骤S5中获得的目标物体的识别结果进行修正,并输出修正后的识别结果。
应用效果表明该方法准确可靠,识别率高,识别速度快,定位误差在3厘米范围内。
以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,具体包括以下步骤:
S1:采用机器人采集影像图,并对所述影像图进行去光照处理;
S2:对所述步骤S1中经去光照处理后的所述影像图进行滤波处理,获得滤波后的图像;
S3:将所述步骤S2的图像进行色彩空间转换,再根据目标物体的颜色阈值,获得二值图像;
S4:排除目标区域外的干扰物,确定目标物体,获得目标物体的图像坐标;
S5:根据所述目标物体的图像坐标,判断目标区域内是否存在目标物体,若不存在,则返回空,并结束此次识别与定位;若存在,则返回目物体的中心坐标,再调整所述机器人的头部角度和身***姿,使得目标物体的中心坐标与图像的中心位置重合,然后根据计算模型求出目标物体到所述机器人的距离,获得目标物体的识别结果;
所述步骤S1中机器人通过采集装置采集影像图,并对获得的影像图通过矢量去光照影响的算法进行去光照处理,具体步骤为:
S11:首先假设影图像中的光照由均衡光照和不均衡光照两部分组成,按照坐标将影像图转化成矢量I,即影图像用下式表示:
其中,N和M是一个取平均的范围常量,N和M相等或不等,它与影像图的分辨率有关;
再定义暗度D,即D=D(x,y),其计算公式为:
通过亮度V、平均亮度Hv和暗度D的高斯核函数加权,获得不均衡的光照分量,计算公式为:
其中,σ是一个衰减速度常量,α是补偿参数,α的值决定是光照均衡情况,即表示光照不足或过亮,它的值由平均亮度Hv和亮度V决定;|D-V|表示不均衡的光照分量的绝对值,当亮度V和暗度D相差大时,其值越大,表示光照越不均衡;exp{- ||V-Hv||^2/(2*σ^2) } 是个高斯核函数,表示补偿速度;当亮度V的最大值与平均亮度Hv相差大时,则认为光照很不均衡,则需要进行补偿;相反,当亮度V的最大值与平均亮度Hv相同时,则不需要补偿;
其中当需要进行补偿时,因当亮度V的最大值低于平均亮度Hv的50%时,则认为光照不足,则应当得到正0.5的增益;当亮度V的最大值超过平均亮度Hv的50%时,则认为光照过亮,则应抑制,应当得到负0.5的增益;否则根据亮度V和平均亮度Hv,在-0.5~0.5线性变化;故补偿参数α的计算公式为式(7) 所示,
α={0.5, V≤0.5ΗvΗv-VΗv, 0.5Ηv<V<1.5Ηv-0.5, V≥1.5Ηv} (7);
S12:根据式(6)计算I2(x,y);
S13:根据I2(x,y)计算I1(x,y);即I1(x,y)=I(x,y)-I2(x,y);
S14:设I(x,y)= I1(x,y),并返回步骤S12中进行迭代,直至不满足迭代条件,结束迭代;
S15:再按照坐标将矢量I还原为图像,即获得去光照的影像图。
2.根据权利要求1所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,该基于矢量去光照影响算法的单目相机物体的识别与定位方法还包括步骤S6对步骤S5中获得的目标物体的识别结果进行现场核实,根据现场核实对所述识别结果进行修正,并输出修正后的识别结果。
3.根据权利要求2所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S2中对经去光照处理后的所述影像图进行滤波处理的具体过程为:首先进行高斯模糊处理,使得影像图平滑;再进行形态学操作,采用腐蚀膨胀,用以消除小的噪声点,获得滤波后的图像。
4.根据权利要求3所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于, 所述步骤S4的具体步骤为:
S41:将目标区域内外以边界线作为分割,利用霍夫直线变换提取边界;
S42:在图像坐标系中,利用点线关系,排除和机器人在边界线的异侧的物体,在同侧的物体则确认为目标物体;
S43:再根据在图像坐标系中目标物体的中心坐标点与边界线的上下关系来判定,假定直线的表示为 L:Ax+By+C=0,目标物体的中心坐标点为P(m,n),由于图像坐标系与常规坐标轴的y轴是相反的;因此在把目标物体的中心坐标P(m,n)代入边界线时,若满足Am+Bn+C>0,则是满足要求的目标物体的中心坐标,从而获得目标物体在图像坐标系中的中心坐标。
5.根据权利要求4所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S5中当目标区域内存在目标物体,调整所述机器人的头部角度和身***姿时,目标物体的中心与机器人的采集装置的垂直夹角的计算公式为:
其中,g1为目标物体的中心与机器人的采集装置的光轴的垂直夹角;v为目标物体的中心在图像坐标系中的纵坐标,p1为图像垂直像素大小;a1为采集装置垂直视角大小;
目标物体的中心与机器人的采集装置的光轴的水平夹角计算公式为:
其中,g2为目标物体的中心与机器人的采集装置的光轴的水平夹角;u为目标物体的中心在图像坐标系中的横坐标;p2为图像水平像素大小;a2为采集装置水平视角大小;通过g1和g2调整机器人头部的角度可将目标物体的中心置于机器人的视野的中心。
7.根据权利要求6所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S3中图像色彩空间的转换是将图像由RGB色彩空间转换到HSV色彩空间,再根据目标物体的颜色阈值,获得二值图像。
8.根据权利要求6所述的基于矢量去光照影响算法的单目相机物体的识别与定位方法,其特征在于,所述步骤S1中的所述采集装置为摄像头,设置在所述机器人的头部。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110463617.7A CN113255455B (zh) | 2021-04-28 | 2021-04-28 | 基于矢量去光照影响算法的单目相机物体识别与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110463617.7A CN113255455B (zh) | 2021-04-28 | 2021-04-28 | 基于矢量去光照影响算法的单目相机物体识别与定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113255455A true CN113255455A (zh) | 2021-08-13 |
CN113255455B CN113255455B (zh) | 2021-10-22 |
Family
ID=77222325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110463617.7A Active CN113255455B (zh) | 2021-04-28 | 2021-04-28 | 基于矢量去光照影响算法的单目相机物体识别与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113255455B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114558308A (zh) * | 2022-03-04 | 2022-05-31 | 东莞理工学院 | 一种球门瞄准装置的控制方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107009357A (zh) * | 2017-04-05 | 2017-08-04 | 武汉科技大学 | 一种基于nao机器人抓取物体的方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
-
2021
- 2021-04-28 CN CN202110463617.7A patent/CN113255455B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107009357A (zh) * | 2017-04-05 | 2017-08-04 | 武汉科技大学 | 一种基于nao机器人抓取物体的方法 |
CN110648367A (zh) * | 2019-08-15 | 2020-01-03 | 大连理工江苏研究院有限公司 | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 |
Non-Patent Citations (2)
Title |
---|
张墨逸等: "移动单目相机下基于单应的动态手势轨迹识别", 《华中科技大学学报》 * |
朱君波等: "基于矢量运算的图像光照处理算法", 《计算机应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114558308A (zh) * | 2022-03-04 | 2022-05-31 | 东莞理工学院 | 一种球门瞄准装置的控制方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN113255455B (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10607106B2 (en) | Object symmetry axis detection method based on RGB-D camera | |
WO2021138995A1 (zh) | 一种棋盘格角点全自动检测方法 | |
CN108319973B (zh) | 一种树上柑橘果实检测方法 | |
CN111415363B (zh) | 一种图像边缘识别方法 | |
WO2022205525A1 (zh) | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 | |
CN110866903B (zh) | 基于霍夫圆变换技术的乒乓球识别方法 | |
CN110232389B (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN107784669A (zh) | 一种光斑提取及其质心确定的方法 | |
CN111915704A (zh) | 一种基于深度学习的苹果分级识别方法 | |
CN112819094A (zh) | 一种基于结构相似度度量的目标检测与识别方法 | |
CN112991302A (zh) | 基于超像素的柔性ic基板变色缺陷检测方法和装置 | |
CN111144207A (zh) | 一种基于多模态信息感知的人体检测和跟踪方法 | |
CN112861654A (zh) | 一种基于机器视觉的名优茶采摘点位置信息获取方法 | |
CN114241438B (zh) | 一种基于先验信息的交通信号灯快速精确的识别方法 | |
CN113255455B (zh) | 基于矢量去光照影响算法的单目相机物体识别与定位方法 | |
Han et al. | Target positioning method in binocular vision manipulator control based on improved canny operator | |
CN102024264B (zh) | 一种基于直方图统计的触摸笔颜色识别方法 | |
CN111161219B (zh) | 一种适用于阴影环境的鲁棒单目视觉slam方法 | |
CN113554672B (zh) | 一种基于机器视觉的气密性检测中相机位姿检测方法及*** | |
KR100703528B1 (ko) | 영상 인식 장치 및 방법 | |
Xiang et al. | Research on target detection method based on HSV fusion Gaussian mixture model | |
CN115661110A (zh) | 一种透明工件识别与定位的方法 | |
CN112541471B (zh) | 一种基于多特征融合的遮挡目标识别方法 | |
CN114820718A (zh) | 一种视觉动态定位跟踪算法 | |
CN114066993A (zh) | 基于机器视觉的配电柜控制面板分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 210042 8 Blocks 699-22 Xuanwu Avenue, Xuanwu District, Nanjing City, Jiangsu Province Patentee after: Speed Technology Co.,Ltd. Address before: 210042 8 Blocks 699-22 Xuanwu Avenue, Xuanwu District, Nanjing City, Jiangsu Province Patentee before: SPEED TIME AND SPACE INFORMATION TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |