CN103325114A - 基于改进视觉注意模型的目标车辆匹配方法 - Google Patents

基于改进视觉注意模型的目标车辆匹配方法 Download PDF

Info

Publication number
CN103325114A
CN103325114A CN2013102339082A CN201310233908A CN103325114A CN 103325114 A CN103325114 A CN 103325114A CN 2013102339082 A CN2013102339082 A CN 2013102339082A CN 201310233908 A CN201310233908 A CN 201310233908A CN 103325114 A CN103325114 A CN 103325114A
Authority
CN
China
Prior art keywords
omega
color
brightness
edge
centerdot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013102339082A
Other languages
English (en)
Inventor
蒋昌俊
张亚英
臧笛
陈闳中
闫春钢
方钰
何良华
徐航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN2013102339082A priority Critical patent/CN103325114A/zh
Publication of CN103325114A publication Critical patent/CN103325114A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于改进视觉注意模型的目标车辆匹配方法,本发明涉及基于图像的目标匹配识别领域,可应用于智能交通管理。本发明改进了视觉注意模型,融合了多种目标车辆的图像特征,因而能更全面的表示目标,减少信息的丢失,提高匹配的准确性。本发明将改进的视觉注意模型应用到海量视频中肇事车辆匹配中,通过融合视觉注意模型和图像匹配提高了目标车辆匹配的准确性和鲁棒性。本发明作为一个准确鲁棒的基于改进视觉注意模型和基于图像的目标匹配算法是智能交通***必不可少的一部分。

Description

基于改进视觉注意模型的目标车辆匹配方法
技术领域
本发明涉及基于图像的目标匹配识别领域,可应用于智能交通管理。
背景技术
随着社会的不断发展,中国已经进入了机动化时代。但是在生活逐步便利的同时,交通事故、交通拥堵也成为了急需解决的难题。采用基于视频的智能交通***可以保障出行安全,降低事故率,同时最大限度的节省人力和物力资源。而在已存储的海量视频库中准确快速稳定的定位目标,即肇事车辆,是实现智能化交通管理与控制的基本保证。车辆的唯一标识是车牌。但在实际情况中,车牌信息往往由于模糊、缺失等原因而无法获得。
尽管基于图像的目标匹配在现代生活中有着极为广泛的应用,但由于拍摄图像所处环境的多变性和未知性,一个准确稳定通用的匹配算法仍然面临着重大挑战。
发明内容
本发明目的在于提出一种基于改进视觉注意模型的目标车辆匹配方法。
本发明给出的技术方案为:
一种基于改进视觉注意模型的目标车辆匹配方法,其特征在于,包括如下步骤:
步骤1:对两张对比目标车辆的输入图像分别进行形态学预处理,利用高斯模型平滑去噪, I ′ = I ⊗ G
其中,I为输入图像,G为高斯函数,I′为平滑处理后的图像,为卷积符号;
步骤2:对处理后的两张图像分别提取亮度、颜色、边缘、角点四种特征,形成四张合并特征图,再融合成一张显著图;
所述分别提取亮度、颜色、边缘、角点四种特征,具体包括如下步骤实现:
2.1亮度特征
原图像为彩色图,RGB三个通道,像素值为该像素点的亮度,
Figure BDA00003337651000021
其中I为亮度,R,G,B为图像的红绿蓝三个颜色分量,将三个颜色通道算术平均,得到一张亮度特征图;
2.2颜色特征
获得两张颜色特征图,分为红绿颜色RG分量和蓝黄BY分量:
R = r - g + b 2 G = g - r + b x B = b - r + g 2 Y = r + g + 2 ( | r - g | + b ) RG = R - G BY = B - Y
r,g,b为原图像每个通道的像素值,R,G,B,Y为转换后的红绿蓝黄四种颜色,RG和BY就是最终得到的红绿颜色分量和蓝黄颜色分量;
2.3边缘特征
边缘采用Canny算子,使用多个掩码与原图像卷积,可以得到每一点的梯度大小和方向,最终生成七张边缘特征图,分别代表0°、30°、60°、90°、120°、150°、180°七个方向;将每一个像素点都向这七个方向进行投影,得出这个像素点的梯度在这个方向的分量大小;生成的七张边缘特征图都是单通道图像,每一个像素值代表其边缘特征在不同方向的大小;
2.4角点特征
角点特征的提取采用Harris角点检测算法,若某一个像素点为角点,则将其像素值设置为255,否则置为0,生成一张单通道角点特征图,每一个像素值代表其是否为角点;
步骤3:将上述步骤3共获得的十一张特征图归一化,并进行特征突出处理,为接下来的融合做准备,
对每一张特征图都设定一个阈值,将阈值设为这张图像像素值最大值的五分之一,然后统计超过阈值的像素点个数,最后根据下面的公式更新像素值
I ′ = I / num 1 C ′ = C / num 2 E ′ = E / num 3 P ′ = P / num 4
其中I′、C′、E′、P′分别表示更新后的亮度、颜色、边缘和角点;
步骤4:在步骤3中共得到十一张特征图,每张特征图的像素值大小都在0到255之间,首先将其中颜色特征的两张特征图合并为一张,同样将其中边缘特征的七张特征图也合并为一张,
C = ω 21 C rg + ω 22 C by E = ω 31 E 0 + ω 32 E 30 + · · · + ω 37 E 180 ω 21 + ω 22 = 1 ω 31 + ω 32 + · · · + ω 37 = 1
这样就合并得到了亮度、颜色、边缘、角点四张合并特征图,再取不同的权值将该四张合并特征图融合成一张显著图,
S=ω1I+ω2C+ω3E+ω4P  ω1234=1
步骤5:将所述融合的显著图看成目标显著性的概率分布,用直方图表示,
取13个区间,每个区间的跨度为20,利用直方图统计出整个图像的显著性分布,并用这个直方图作为新的特征去表示目标车辆;
步骤6,计算两个对比目标车辆的直方图之间的巴氏距离,得出车辆之间相似度的大小,小于阈值则匹配成功,大于则失败,公式如下,其中p,q为两个直方图分别对应的概率分布函数,DB为直方图之间的巴氏距离:
DB(p,q)=-ln(BC(p,q)) whereBC ( p , q ) = Σ x ∈ X p ( x ) q ( x )
本发明改进了视觉注意模型,融合了多种目标车辆的图像特征,因而能更全面的表示目标,减少信息的丢失,提高匹配的准确性。本发明将改进的视觉注意模型应用到海量视频中肇事车辆匹配中,通过融合视觉注意模型和图像匹配提高了目标车辆匹配的准确性和鲁棒性。本发明作为一个准确鲁棒的基于改进视觉注意模型和基于图像的目标匹配算法是智能交通***必不可少的一部分。
附图说明
图1基于改进视觉注意模型的目标车辆匹配方法的总体流程图。
图2改进后的视觉注意模型流程图。
具体实施方式
本发明基于改进视觉注意模型的目标车辆匹配方法的总体流程如图1所示。
参照图1,本发明的具体实施如下,其中步骤1至4为改进后的视觉注意模型,如图2所示:
步骤1:对两张对比目标车辆的输入图像分别进行形态学预处理,利用高斯模型平滑去噪。
I ′ = I ⊗ G
其中,I为输入图像,G为高斯函数,I′为平滑处理后的图像,为卷积符号。
步骤2:对处理后的两张图像分别提取亮度、颜色、边缘、角点四种特征,形成四张合并特征图,再融合成一张显著图。
2.1亮度特征
原图像为彩色图,RGB三个通道,亮度特征图为单通道图像,像素值为该像素点的亮度。
I = 1 3 ( R + G + B )
I为亮度,R,G,B为图像的红绿蓝三个颜色分量。亮度与灰度不同,反应的是每一点的光照强度,因此将三个颜色通道算术平均,得到一张亮度特征图。
2.2颜色特征
颜色特征图有两张,分为红绿颜色RG分量和蓝黄BY分量。
R = r - g + b 2 G = g - r + b x B = b - r + g 2 Y = r + g + 2 ( | r - g | + b ) RG = R - G BY = B - Y
r,g,b为原图像每个通道的像素值。R,G,B,Y为转换后的红绿蓝黄四种颜色。RG和BY就是最终得到的红绿颜色分量和蓝黄颜色分量。
2.3边缘特征
边缘采用Canny算子,使用多个掩码与原图像卷积,可以得到每一点的梯度大小和方向。最终生成七张边缘特征图,代表0°、30°、60°、90°、120°、150°、180°七个方向。将每一个像素点都向这七个方向进行投影,得出这个像素点的梯度在这个方向的分量大小。生成的七张边缘特征图都是单通道图像,每一个像素值代表其边缘特征在不同方向的大小。
2.4角点特征
角点特征的提取采用Harris角点检测算法,若某一个像素点为角点,则将其像素值设置为255,否则置为0,生成一张单通道角点特征图,每一个像素值代表其是否为角点。
步骤3:将上述十一张特征图归一化,并进行特征突出处理,为接下来的融合做准备。
在融合之前,需要进一步突出显著的特征。本发明对每一张特征图都设定一个阈值(threshold),本发明将阈值设为这张图像像素值最大值的五分之一。然后统计超过阈值的像素点个数(num),最后根据下面的公式更新像素值。
I ′ = I / num 1 C ′ = C / num 2 E ′ = E / num 3 P ′ = P / num 4
其中I′、C′、E′、P′分别表示更新后的亮度、颜色、边缘和角点。这样可以抑制显著性不高的像素点,而且更加突出显著性高的特征。
步骤4:在步骤3中共得到十一张特征图,每张特征图的像素值大小都在0到255之间,首先本发明将其中颜色特征的两张特征图合并为一张,同样将其中边缘特征的七张特征图也合并为一张。
C = ω 21 C rg + ω 22 C by E = ω 31 E 0 + ω 32 E 30 + · · · + ω 37 E 180 ω 21 + ω 22 = 1 ω 31 + ω 32 + · · · + ω 37 = 1
这样就合并得到了亮度、颜色、边缘、角点四张合并特征图,再取不同的权值将该四张合并特征图融合成一张显著图。
S=ω1I+ω2C+ω3E+ω4P  ω1234=1
步骤5:将所述融合的显著图看成目标显著性的概率分布,用直方图表示。本发明取13个区间,每个区间的跨度为20。这样就利用直方图统计出来整个图像的显著性分布,并用这个直方图作为新的特征去表示目标车辆。由于显著性有效的融合了多种特征,因此这个直方图可以更加全面有效的表示目标,提高匹配准确性。
步骤6,计算两个对比目标车辆的直方图之间的巴氏距离,得出车辆之间相似度的大小,小于阈值则匹配成功,大于则失败。公式如下,其中p,q为两个直方图分别对应的概率分布函数,DB为直方图之间的巴氏距离:
DB(p,q)=-ln(BC(p,q)) whereBC ( p , q ) = Σ x ∈ X p ( x ) q ( x )

Claims (1)

1.一种基于改进视觉注意模型的目标车辆匹配方法,其特征在于,包括如下步骤:
步骤1:对两张对比目标车辆的输入图像分别进行形态学预处理,利用高斯模型平滑去噪, I ′ = I ⊗ G
其中,I为输入图像,G为高斯函数,I′为平滑处理后的图像,为卷积符号;
步骤2:对处理后的两张图像分别提取亮度、颜色、边缘、角点四种特征,形成四张合并特征图,再融合成一张显著图;
所述分别提取亮度、颜色、边缘、角点四种特征,具体包括如下步骤实现:
2.1亮度特征
原图像为彩色图,RGB三个通道,像素值为该像素点的亮度,
Figure FDA00003337650900012
其中I为亮度,R,G,B为图像的红绿蓝三个颜色分量,将三个颜色通道算术平均,得到一张亮度特征图;
2.2颜色特征
获得两张颜色特征图,分为红绿颜色RG分量和蓝黄BY分量:
R = r - g + b 2 G = g - r + b x B = b - r + g 2 Y = r + g + 2 ( | r - g | + b ) RG = R - G BY = B - Y
r,g,b为原图像每个通道的像素值,R,G,B,Y为转换后的红绿蓝黄四种颜色,RG和BY就是最终得到的红绿颜色分量和蓝黄颜色分量;
2.3边缘特征
边缘采用Canny算子,使用多个掩码与原图像卷积,可以得到每一点的梯度大小和方向,最终生成七张边缘特征图,分别代表0°、30°、60°、90°、120°、150°、180°七个方向;将每一个像素点都向这七个方向进行投影,得出这个像素点的梯度在这个方向的分量大小;生成的七张边缘特征图都是单通道图像,每一个像素值代表其边缘特征在不同方向的大小;
2.4角点特征
角点特征的提取采用Harris角点检测算法,若某一个像素点为角点,则将其像素值设置为255,否则置为0,生成一张单通道角点特征图,每一个像素值代表其是否为角点;
步骤3:将上述步骤3共获得的十一张特征图归一化,并进行特征突出处理,为接下来的融合做准备,
对每一张特征图都设定一个阈值,将阈值设为这张图像像素值最大值的五分之一,然后统计超过阈值的像素点个数,最后根据下面的公式更新像素值
I ′ = I / num 1 C ′ = C / num 2 E ′ = E / num 3 P ′ = P / num 4
其中I′、C′、E′、P′分别表示更新后的亮度、颜色、边缘和角点;
步骤4:在步骤3中共得到十一张特征图,每张特征图的像素值大小都在0到255之间,首先将其中颜色特征的两张特征图合并为一张,同样将其中边缘特征的七张特征图也合并为一张,
C = ω 21 C rg + ω 22 C by E = ω 31 E 0 + ω 32 E 30 + · · · + ω 37 E 180 ω 21 + ω 22 = 1 ω 31 + ω 32 + · · · + ω 37 = 1
这样就合并得到了亮度、颜色、边缘、角点四张合并特征图,再取不同的权值将该四张合并特征图融合成一张显著图,
S=ω1I+ω2C+ω3E+ω4P  ω1234=1
步骤5:将所述融合的显著图看成目标显著性的概率分布,用直方图表示,
取13个区间,每个区间的跨度为20,利用直方图统计出整个图像的显著性分布,并用这个直方图作为新的特征去表示目标车辆;
步骤6,计算两个对比目标车辆的直方图之间的巴氏距离,得出车辆之间相似度的大小,小于阈值则匹配成功,大于则失败,公式如下,其中p,q为两个直方图分别对应的概率分布函数,DB为直方图之间的巴氏距离:
DB(p,q)=-ln(BC(p,q)) whereBC ( p , q ) = Σ x ∈ X p ( x ) q ( x ) ·
CN2013102339082A 2013-06-13 2013-06-13 基于改进视觉注意模型的目标车辆匹配方法 Pending CN103325114A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013102339082A CN103325114A (zh) 2013-06-13 2013-06-13 基于改进视觉注意模型的目标车辆匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013102339082A CN103325114A (zh) 2013-06-13 2013-06-13 基于改进视觉注意模型的目标车辆匹配方法

Publications (1)

Publication Number Publication Date
CN103325114A true CN103325114A (zh) 2013-09-25

Family

ID=49193837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013102339082A Pending CN103325114A (zh) 2013-06-13 2013-06-13 基于改进视觉注意模型的目标车辆匹配方法

Country Status (1)

Country Link
CN (1) CN103325114A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127749A (zh) * 2016-06-16 2016-11-16 华南理工大学 基于视觉注意机制的目标零件识别方法
CN107843818A (zh) * 2017-09-06 2018-03-27 同济大学 基于异源图像温升与局部放电特征高压绝缘故障诊断方法
CN109844806A (zh) * 2016-11-02 2019-06-04 华为技术有限公司 一种显著图生成方法及用户终端
CN111523473A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 口罩佩戴识别方法、装置、设备和可读存储介质
CN113362612A (zh) * 2021-06-02 2021-09-07 国电内蒙古东胜热电有限公司 一种车辆识别方法及***
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383008A (zh) * 2008-10-23 2009-03-11 上海交通大学 基于视觉注意模型的图像分类方法
CN102789637A (zh) * 2012-07-12 2012-11-21 北方工业大学 基于改进的susan算子的显著性区域提取

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383008A (zh) * 2008-10-23 2009-03-11 上海交通大学 基于视觉注意模型的图像分类方法
CN102789637A (zh) * 2012-07-12 2012-11-21 北方工业大学 基于改进的susan算子的显著性区域提取

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
刘义杰等: "《基于视觉注意模型的交通路标检测方法》", 《计算机应用研究》 *
吴田富: "《视觉选择性注意机制计算模型及其在物体识别中的应用》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
姚志均等: "《基于对称KL距离的相似性度量方法》", 《华中科技大学学报(自然科学版)》 *
沈志熙等: "《均值漂移算法中的目标更新方法研究》", 《自动化学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127749A (zh) * 2016-06-16 2016-11-16 华南理工大学 基于视觉注意机制的目标零件识别方法
CN109844806A (zh) * 2016-11-02 2019-06-04 华为技术有限公司 一种显著图生成方法及用户终端
CN107843818A (zh) * 2017-09-06 2018-03-27 同济大学 基于异源图像温升与局部放电特征高压绝缘故障诊断方法
CN111523473A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 口罩佩戴识别方法、装置、设备和可读存储介质
CN111523473B (zh) * 2020-04-23 2023-09-26 北京百度网讯科技有限公司 口罩佩戴识别方法、装置、设备和可读存储介质
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN113408365B (zh) * 2021-05-26 2023-09-08 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN113362612A (zh) * 2021-06-02 2021-09-07 国电内蒙古东胜热电有限公司 一种车辆识别方法及***

Similar Documents

Publication Publication Date Title
CN103325114A (zh) 基于改进视觉注意模型的目标车辆匹配方法
CN102314602B (zh) 使用最优定向线性轴线去除由基于车辆的相机捕获的图像中的阴影
Omachi et al. Detection of traffic light using structural information
CN102509098B (zh) 一种鱼眼图像车辆识别方法
CN102819728A (zh) 一种基于分类模板匹配的交通标志检测方法
CN105205489A (zh) 基于颜色纹理分析器与机器学习的车牌检测方法
CN105184779A (zh) 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN103544484A (zh) 一种基于surf的交通标志识别方法及***
CN103824081A (zh) 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN104200207A (zh) 一种基于隐马尔可夫模型的车牌识别方法
CN103400121A (zh) 基于彩色二值化图像的车牌定位方法
CN104966054B (zh) 无人机可见光图像中的弱小目标检测方法
CN103530608A (zh) 车辆类型判断方法和装置
CN103544489A (zh) 一种车标定位装置及方法
US20190087674A1 (en) Method and apparatus for detecting braking behavior of front vehicle of autonomous vehicle
WO2024037408A1 (zh) 一种基于图像融合和特征增强的煤矿井下行人检测方法
CN104978746A (zh) 一种行驶车辆的车身颜色识别方法
CN105678318A (zh) 交通标牌的匹配方法及装置
Tian et al. Vehicle detection grammars with partial occlusion handling for traffic surveillance
CN104809449A (zh) 适用于高速公路视频监控***的车道虚线分界线自动检测方法
CN107480683A (zh) 一种图像处理方法及装置
CN107145824A (zh) 一种基于显著性分析的车道线分割方法及***、车载终端
CN104835142A (zh) 一种基于纹理特征的车辆排队长度检测方法
CN112183427B (zh) 一种箭形交通信号灯候选图像区域的快速提取方法
CN105512649A (zh) 一种基于颜色空间的高清视频实时车牌定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130925