CN105989614B - 融合多源视觉信息的危险物体检测方法 - Google Patents
融合多源视觉信息的危险物体检测方法 Download PDFInfo
- Publication number
- CN105989614B CN105989614B CN201510080128.8A CN201510080128A CN105989614B CN 105989614 B CN105989614 B CN 105989614B CN 201510080128 A CN201510080128 A CN 201510080128A CN 105989614 B CN105989614 B CN 105989614B
- Authority
- CN
- China
- Prior art keywords
- image
- motion
- visual information
- calculating
- dangerous object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 230000000007 visual effect Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000011084 recovery Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供一种融合多源视觉信息的危险物体检测方法,包括以下步骤:1】多源视觉影像采集;2】增量式运动一致性考量;3】多源视觉信息融合;4】计算检测率。该融合多源视觉信息的危险物体检测方法,解决了现有技术中危险物体检测类别有限、缺乏多种信息有效利用的技术问题。
Description
技术领域
本发明属于计算机视觉、图像理解领域,具体涉及一种在视频监控中融合多源视觉信息的危险物体检测方法。
背景技术
在行车过程中自动预测可能出现的危险物体是视频监控中的关键技术。通常情况下,由于复杂的物体种类、多变的监控环境、剧烈的相机抖动,使得危险物体检测变得十分困难。目前,对于危险物体的检测方法主要分成两大类:
一是基于检测器的方法,这种方法是利用手动采集的行人或车辆样本事先训练好行人或车辆检测器,然后在监控视频中进行相应目标的检测。Xu等人在文献“Y.Xu,D.Xu,S.Lin,T.Han,X.Cao,and X.Li.Detection of Sudden Pedestrian Crossings forDriving Assistance Systems.IEEE Transactions on Systems,Man,and Cybernetics,Part B:Cybernetics,42(3):729–739,2012”提出了一种横跨道路的行人检测方法。该文献新颖地利用部分行人样本进行训练,从而使得行人在刚被发现时就可以检测出来。Rezaei和Terauchi在文献“M.Rezaei and M.Terauchi.Vehicle Detection Based on Multi-feature Clues and Dempster-shafer Fusion Theory.In Proceedings of Pacific-RimSymposium on Image and Video Technology,2013,pp.60–72”中提出一种融合多特征和Dempster-shafer技术的车辆检测方法。虽然这些方法可以在一定程度上进行危险物体检测,但其不足之处是都需要额外的训练样本,且不能覆盖所有的出现在车辆前方的物体。
二是基于显著性和颜色特征融合的方法,这种方法将心理学中的注意力选择机制利用显著性检测的方式引入到危险检测中来。比如Alonso等人在文献“J.Alonso,E.R.Vidal,A.Rotter,and M.Muhlenberg.Lane-change Decision Aid System Based onMotion-driven Vehicle Tracking.IEEE Transactions on Vehicular Technology,57(5):2736–2746,2008”中提出一种融合运动显著性和颜色特征的车辆检测方法。该方法存在的不足之处是只考虑了视场一侧的运动显著性,而在真正的驾驶过程中,危险物体出现的位置是不定的,也就是拍摄的左右侧视野均可能出现危险物体。
发明内容
本发明提出一种新的融合多源视觉信息的危险物体检测方法,解决了现有技术中危险物体检测类别有限、缺乏多种信息有效利用的技术问题。
本发明的技术解决方案是:
一种融合多源视觉信息的危险物体检测方法,包括以下步骤:
1】多源视觉影像采集:
1.1】使用多光谱相机实时获得彩***影像和近红外视频影像;
1.2】利用单序列深度恢复方法获得与彩***影像相对应的深度影像;
1.3】利用相关性光流方法获得与彩***影像相对应的运动影像;
1.4】利用线性迭代聚类方法分割运动影像中的每一帧图像,得到超像素网格;
1.5】将超像素网格叠加到彩***影像、近红外视频影像和深度影像上;
2】增量式运动一致性考量:
2.1】将运动影像分界为左侧运动视频帧和右侧运动视频帧,分界线为运动影像中轴线;
2.2】利用初始F帧分割得到的超像素运动模式,训练正常运动模式基A,包括左侧正常运动模式基Al和右侧正常运动模式基Ar;其中F的取值范围为5-20;
2.3】在t时刻,所有通道的图像被分割成N个超像素,计算运动图像中N个超像素所对应的特征yi,其中i=1:N;
2.4】构建图正则的最小软阈值均方目标式模型:
2.5】得到运动影像的危险置信度值计算结果:
综合左右两侧计算结果:
3】多源视觉信息融合:
3.2】利用显著性贝叶斯模型
3.2.1】计算先验概率Pr(O):
3.2.2】计算似然概率Pr(S(z)|O):
3.3】计算所有视觉信息贝叶斯化后的融合概率:
其中,
4】计算检测率:
对每帧影像均重复执行步骤2】-步骤3】,直至整个视频影像被处理完毕;标记视频第t帧中真实的危险物体区域为Gt,检测率为:
TPR=TP/P,
FPR=FP/N.
其中,TP为检测正确的像素点个数,FP为检测错误的像素点个数,P为Gt中的目标像素点个数,N为Gt中背景像素点个数。
上述步骤3.2.1】中的元素分布图索引OPT为:
上述步骤2.2】中的F取值为10。
本发明的优点在于:
本发明同时协同考虑了多源视觉信息的互补性和选择性,所得到的道路危险物体检测结果要明显优于其他的方法。
附图说明
图1为本发明融合多源视觉信息的危险物体检测方法流程图。
具体实施方式
参照图1,本发明实现的步骤如下:
步骤1,多源视觉影像采集模块。
(1a)利用多光谱相机实时获得彩色和近红外视频影像,然后利用单序列深度恢复方法获得对应彩***的深度影像,利用相关性光流方法获得对应彩***的运动影像。将运动影像利用线性迭代聚类(Simple Linear Iterative Clustering,简称SLIC)方法分割成指定数量的超像素图像,并将超像素网格叠加在近红外、深度、彩色图像上,以便于超像素特征计算。
步骤2,增量式运动一致性考量模块。
(2a)将运动图像分界成左右两个部分,分界线为运动图像中轴线;
(2b)利用初始10帧分割得到的超像素运动模式,分别训练左侧正常运动模式基Al和右侧正常运动模式基Ar。利用图正则的最小软阈值均方增量式的方法考量驾驶员视野内的危险运动信息。由于左右两侧运动一致性考量方式相同,为了简洁起见,Al和Ar以A指代。假设在t时刻,所有通道的图像被分割成N个超像素,计算运动图像中N个超像素所对应的特征yi,i=1:N,然后构建图正则的最小软阈值均方目标式模型:
U为构建的高斯-拉普拉斯误差项,Y为所有yi组成的矩阵,X为所要求解的稀疏系数,L为拉普拉斯矩阵,λ1(所有实例中取0.05)为高斯-拉普拉斯噪声稀疏项约束系数,(所有实例中取0.005)为几何流行正则项约束稀疏。
(2c)得到运动影像的危险置信度值计算结果:
综合左右两侧计算结果:
步骤3,多源视觉信息融合模块。
(3a)利用文献“C.Yang,L.Zhang,H.Lu,X.Ruan,and M.Yang.Saliency Detectionvia Graph-based Manifold Ranking.In Proceedings of IEEE Conference onComputer Vision and Pattern Recognition,2013:3166–3173”中的方法计算彩色、近红外及深度通道图像的显著性结果,分别表示为这些结果也可称为彩色、近红外及深度影像的危险置信度图。
1)计算先验概率Pr(O)。与以往的显著性融合方法不同,本发明利用一种更加有效的元素分布图来估计这些视觉图像中包含危险目标的先验概率。其中元素分布图利用文献“F.Perazzi,P.Y.Pritch,A.Hornung.Saliency filters:ContrastBased Filtering for Salient Region Detection.In Proceedings of IEEEConf.Computer Vision and Pattern Recognition,2012:733-740”计算得到。其是通过计算图像中待测超像素特征的空间方差变化,也就是计算待测超像素特征在图像其它位置的出现概率。由于元素分布图中值越大,物体性越小。则物体先验概率而最优的元素分布图索引OPT为:
2)计算相似然概率Pr(S(z)|O)。将得到的二值化,然后计算目标区域在对应原始视觉图像上的落入中对应数值的像素数同时计算背景区域在对应原始视觉图像上的落入中对应数值的像素数则目标及背景的似然概率为:
(3c)计算所有视觉信息贝叶斯化后的融合概率:
其中,
步骤4,计算检测率。
在影像中每帧执行步骤2和步骤3,直至整个视频被处理完毕。标记视频第t帧中真实的危险物体区域为Gt。则检测率为ROC曲线计算公式:
TPR=TP/P,FPR=FP/N.
其中TP为检测正确的像素点个数,FP为检测错误的像素点个数,P为Gt中的目标像素点个数,N为Gt中背景像素点个数。
一种对12段多源视频影像的处理流程,包括如下处理步骤:
1、确定仿真条件
仿真中使用的数据为自主采集的12段真实道路场景视频序列。
2、仿真内容
按如下步骤用本发明方法进行危险目标检测:
首先,将计算到的运动影像、原始彩色影像、近红外影像和恢复出的深度影像同时输入***,执行步骤2和步骤3。
其次,将得到的每帧检测结果和真实标记的结果进行受试者可接受测试曲线和曲线下面积值计算结果如表1所示。
表1中的没有PAD字样的方法为直接多种信息点乘得到的结果,本实例中穷举了所有信息组合方式,它们分别是单个运动信息(M),运动-彩色信息点乘(MC),运动-近红外信息点乘(MI),运动-深度信息点乘(MD),运动-彩色-近红外信息点乘(MCI),运动-彩色-深度信息点乘(MID),运动-近红外-深度信息点乘(MID),运动-彩色-近红外-深度信息点乘(MCID)。PAD-MCID表示基于本发明的方法。为得到的可视化结果图,其中,(a)为原始的彩色影像帧;(b)为真实结果;(c)-(k)分别对应表1中的M,MC,MI,MD,MCI,MCD,MID,MCID,PAD。从表1可见,本发明的识别率要明显高于简单相乘式信息融合方法。
表1 危险物体检测ROC曲线下面积值对比
Claims (4)
1.一种融合多源视觉信息的危险物体检测方法,其特征在于:包括以下步骤:
1】多源视觉影像采集:
1.1】使用多光谱相机实时获得彩***影像和近红外视频影像;
1.2】利用单序列深度恢复方法获得与彩***影像相对应的深度影像;
1.3】利用相关性光流方法获得与彩***影像相对应的运动影像;
1.4】利用线性迭代聚类方法分割运动影像中的每一帧图像,得到超像素网格;
1.5】将超像素网格叠加到彩***影像、近红外视频影像和深度影像上;
2】增量式运动一致性考量:
2.1】将运动影像分界为左侧运动视频帧和右侧运动视频帧,分界线为运动影像中轴线;
2.2】利用初始F帧分割得到的超像素运动模式,训练正常运动模式基A,包括左侧正常运动模式基Al和右侧正常运动模式基Ar;其中F的取值范围为5-20;
2.3】在t时刻,所有通道的图像被分割成N个超像素,计算运动图像中N个超像素所对应的特征yi,其中i=1:N;
2.4】构建图正则的最小软阈值均方目标式模型:
2.5】得到运动影像的危险置信度值计算结果:
综合左右两侧计算结果:
3】多源视觉信息融合:
3.2】利用显著性贝叶斯模型
3.2.1】计算先验概率Pr(O):
3.2.2】计算似然概率Pr(S(z)|O):
3.3】计算所有视觉信息贝叶斯化后的融合概率:
其中,
4】计算检测率:
对每帧影像均重复执行步骤2】-步骤3】,直至整个视频影像被处理完毕;标记视频第t帧中真实的危险物体区域为Gt,检测率为:
TPR=TP/P,
FPR=FP/N
其中,TP为检测正确的像素点个数,FP为检测错误的像素点个数,P为Gt中的目标像素点个数,N为Gt中背景像素点个数。
4.根据权利要求3所述的融合多源视觉信息的危险物体检测方法,其特征在于:所述步骤2.2】中的F取值为10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510080128.8A CN105989614B (zh) | 2015-02-13 | 2015-02-13 | 融合多源视觉信息的危险物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510080128.8A CN105989614B (zh) | 2015-02-13 | 2015-02-13 | 融合多源视觉信息的危险物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105989614A CN105989614A (zh) | 2016-10-05 |
CN105989614B true CN105989614B (zh) | 2020-09-01 |
Family
ID=57042282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510080128.8A Active CN105989614B (zh) | 2015-02-13 | 2015-02-13 | 融合多源视觉信息的危险物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105989614B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106767760A (zh) * | 2016-12-30 | 2017-05-31 | 中国船舶重工集团公司第七0七研究所 | 基于多维度的多源船舶目标融合方法 |
CN108665484B (zh) * | 2018-05-22 | 2021-07-09 | 国网山东省电力公司电力科学研究院 | 一种基于深度学习的危险源识别方法与*** |
CN109711239B (zh) * | 2018-09-11 | 2023-04-07 | 重庆邮电大学 | 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法 |
CN109633661A (zh) * | 2018-11-28 | 2019-04-16 | 杭州凌像科技有限公司 | 一种基于rgb-d传感器与超声波传感器融合的玻璃检测***和方法 |
CN110457990B (zh) * | 2019-06-19 | 2020-06-12 | 特斯联(北京)科技有限公司 | 一种机器学习的安防监控视频遮挡智能填补方法与*** |
CN111832414B (zh) * | 2020-06-09 | 2021-05-14 | 天津大学 | 一种基于图正则光流注意力网络的动物计数方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130042844A (ko) * | 2011-10-19 | 2013-04-29 | 인하대학교 산학협력단 | 자세 보정 시스템 |
CN103247074A (zh) * | 2013-04-23 | 2013-08-14 | 苏州华漫信息服务有限公司 | 一种结合深度信息与人脸分析技术的3d照相方法 |
CN103413151A (zh) * | 2013-07-22 | 2013-11-27 | 西安电子科技大学 | 基于图正则低秩表示维数约简的高光谱图像分类方法 |
CN103927551A (zh) * | 2014-04-21 | 2014-07-16 | 西安电子科技大学 | 基于超像素相关矩阵的极化sar图像半监督分类方法 |
-
2015
- 2015-02-13 CN CN201510080128.8A patent/CN105989614B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130042844A (ko) * | 2011-10-19 | 2013-04-29 | 인하대학교 산학협력단 | 자세 보정 시스템 |
CN103247074A (zh) * | 2013-04-23 | 2013-08-14 | 苏州华漫信息服务有限公司 | 一种结合深度信息与人脸分析技术的3d照相方法 |
CN103413151A (zh) * | 2013-07-22 | 2013-11-27 | 西安电子科技大学 | 基于图正则低秩表示维数约简的高光谱图像分类方法 |
CN103927551A (zh) * | 2014-04-21 | 2014-07-16 | 西安电子科技大学 | 基于超像素相关矩阵的极化sar图像半监督分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105989614A (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105989614B (zh) | 融合多源视觉信息的危险物体检测方法 | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
Rasmussen | Texture-Based Vanishing Point Voting for Road Shape Estimation. | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及*** | |
US20170124415A1 (en) | Subcategory-aware convolutional neural networks for object detection | |
Vojíř et al. | The enhanced flock of trackers | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN110222667B (zh) | 一种基于计算机视觉的开放道路交通参与者数据采集方法 | |
CN103281477A (zh) | 基于多级别特征数据关联的多目标视觉跟踪方法 | |
CN103824070A (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN102156995A (zh) | 一种运动相机下的视频运动前景分割方法 | |
CN103093198A (zh) | 一种人群密度监测方法及装置 | |
KR20170097265A (ko) | 다중 이동 객체 추적 시스템 및 이를 이용한 다중 이동 객체 추적 방법 | |
CN105512618A (zh) | 视频跟踪方法 | |
Garg et al. | Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation | |
CN105469054A (zh) | 正常行为的模型构建方法及异常行为的检测方法 | |
CN117315210B (zh) | 一种基于立体成像的图像虚化方法及相关装置 | |
CN107832732B (zh) | 基于三叉树遍历的车道线检测方法 | |
Abujayyab et al. | Integrating object-based and pixel-based segmentation for building footprint extraction from satellite images | |
Gupta et al. | Robust lane detection using multiple features | |
CN112990009A (zh) | 基于端到端的车道线检测方法、装置、设备及存储介质 | |
CN110135382B (zh) | 一种人体检测方法和装置 | |
Cheng | Highway traffic flow estimation for surveillance scenes damaged by rain | |
CN113450457B (zh) | 道路重建方法、装置、计算机设备和存储介质 | |
CN115909219A (zh) | 一种基于视频分析的场景变更检测方法与*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |