CN105741319B - 基于盲目更新策略和前景模型的改进视觉背景提取方法 - Google Patents
基于盲目更新策略和前景模型的改进视觉背景提取方法 Download PDFInfo
- Publication number
- CN105741319B CN105741319B CN201610045316.1A CN201610045316A CN105741319B CN 105741319 B CN105741319 B CN 105741319B CN 201610045316 A CN201610045316 A CN 201610045316A CN 105741319 B CN105741319 B CN 105741319B
- Authority
- CN
- China
- Prior art keywords
- foreground
- model
- background
- pixel point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
基于盲目更新策略和前景模型的改进视觉背景提取方法,包括如下步骤:第一步:读取视频的首帧,进行背景模型的初始化及建模;第二步:进行前景模型的初始化及建模;第三步:读取新的视频帧,首先根据背景模型判断该点是否分类为背景点,若分类为背景点,则将该点继续与其前景模型进行分类判断;第四步:使用形态学滤波对二值前景图像进行处理;第五步,更新前景模型与背景模型;第六步:读取新的视频帧,重复第三步到第五步,实时检测视频序列中的运动前景区域。
Description
技术领域
本发明涉及一种针对视频中运动目标的前景检测方法。
背景技术
随着现代安防监控***的发展,越来越多的视频监控技术已经广泛应用于商用场所,旅游景点及交通监控等领域,主要技术包括运动目标检测、运动物体识别、目标跟踪、行为分析及行人计数等。其中,运动目标检测是后续研究的基础,它直接影响了后续研究结果的好坏。目前,因为监控技术发展的需求,已研究出许多前景检测方法,如:帧差法、背景减除法(GMM、CodeBook、SOBS、ViBe)、光流法(稀疏光流、稠密光流)、时间熵等。这些方法都有各自适应的场所,且能取得良好的检测效果。然而,由于视频应用场景动态背景的复杂性,仍然难以找到一种通用的检测方法来适应所有的场景挑战。
近年来,人们对视频监控实时性能的要求越来越高。特别是对那些短的视频序列,通常希望通过几帧就能迅速进行运动目标的检测,从而快速达到实时监控分析的目的。传统的前景检测方法的初始化需要一定长度的视频序列来完成,这通常会耗费数秒的时间,极大的影响了检测的实时性,对于手持相机实时拍照来讲并不合适。ViBe(Visualbackground extractor)方法就是其中一种较为受欢迎的基于像素级的视频背景建模的前景检测方法,详见参考文献Barnich O,Van Droogenbroeck M.ViBe:a universalbackground subtraction algorithm for video sequences[J].IEEE Trans ImageProcess,2011,20(6):1709–1724。该方法仅通过一帧图像进行快速初始化,采用保守更新机制更新模型。参数少,模型简单且内存占用较少,具有较好的抗噪能力。但是,当物体检测出现鬼影区域或场景存在动态背景时,该方法会导致许多像素点成为误检点。传统的ViBe背景模型的更新方式有两种:保守更新机制和盲目更新机制。保守更新机制即只允许被判断为背景的像素点来更新模型,而永远不会用前景像素点来填充背景模型,这样保证了背景模型的纯粹性。但是,如果第一帧视频中存在运动物体,那么该运动区域的初始化会采用运动物体的像素集进行建模,从而引起死锁,产生鬼影现象。另一种盲目更新机制则利用前景点与背景点来更新背景模型,对死锁不敏感,但缺点是视频场景中的缓慢移动物体会融入背景模型而无法检测出来。虽然ViBe方法采用扩散性的更新邻域背景模型的策略以及前景计数的方式来消除鬼影现象,但这仍然需要耗费一定的时间序列,影响了前景检测的准确性。本发明提出了一种新的改进ViBe的方法,采用盲目的更新策略,避免产生鬼影区域,并建立前景模型来提高前景检测的准确率。
发明内容
本发明要克服现有技术难以检测缓慢运动物体及短暂停留的运动前景目标的问题,采用基于盲目更新机制的ViBe方法,避免产生鬼影区域;同时,通过建立新的前景模型对由背景模型分类为背景点的像素进行二次分类,采用先进先出的更新策略,同时利用相邻像素拥有相似时空特性的特点随机地更新邻域像素点,该模型大大提高了前景检测的正确率,确保检测到缓慢或短暂停留运动物体的前景。
本发明的基于盲目更新策略和前景模型的改进视觉背景提取方法,包括以下步骤:
第一步:读取视频的第一帧,对背景模型进行单帧初始化。背景模型的初始化主要是利用单帧视频序列初始化背景模型。一般的检测方法需要根据一定长度的视频序列学习完成,影响了检测的实时性,而且当视频场景光照突然变化时,需要耗费较长时间重新学习背景模型。本发明仍然采用原ViBe方法的单帧视频序列初始化,减少了背景模型建立的过程。
第二步:前景模型的建立。前景模型应该与背景模型同时间建立。目前,一些研究者试图利用更多的视频序列进行建模来解决缓慢移动物体的问题,但代价是增加了计算的复杂度。由于运动物体不是持久存在的,这就意味着前景模型中的样本点大部分处于没有前景像素的状态。在这种情况下,本发明直接给被判为背景的像素点赋值一个较大的值L(L>350),表明该像素点不具备任何前景特性。因为首帧图像的像素点全部视为背景点,所以可以将前景模型的初始化样本值全部设置为L。设MF(x)为某像素点x的前景模型,则该像素点的前景模型样本集表示为公式(1),其中ωi是模型采样点:
MF(x)={ω1,ω2,...,ωN} (1)
第三步:读取新的视频帧,首先根据背景模型判断新像素点是否分类为背景点,若分类为背景点,则将该新像素点继续与其前景模型进行分类判断。对分类为背景点的像素点进行二次判断,主要是为了尽可能多的检测出被错误分类为背景点的前景点。由于新的像素点在判断其是否属于前背景模型中的分类时,原则相同,故本发明以前景模型为例进行分析。
若某新像素点x在欧氏空间的Rf为半径的圆形范围内可以找到至少常数#minf=5个前景模型样本点,则说明该像素点为前景点;否则,该像素点还是背景点。如公式(2)所示:
其中,SRf(υ(x))表示以像素点x为圆心,Rf为半径的空间区域,υ(x)是像素点x的像素值,PB表示背景点集,PF表示前景点集;
第四步:利用形态学原理对检测出的二值图像的前景区域进行后期处理,主要依据中心像素点是否与其5*5邻域的主体值相近的判断原则,若一致,则保留该中心像素点的原值;若不一致,则将该中心像素点的值设置为邻域的主体值。
第五步:更新模型。模型的更新就是使得背景模型在遇到光照变化或背景物体变更的情况下,仍然能够不断适应背景的变化。保守更新策略的不足是由误分类的像素的存在造成的,当像素被错误地识别为背景像素,它可能会导致真正的背景像素被认为是前景,并且这些像素点不会用来去更新背景模型,这是鬼影产生的原因。本发明对背景模型采用盲目更新机制,无论它被归类为背景或前景都会用来更新背景模型,此时错误的分类像素点不会影响采用盲目更新策略的背景模型,其在避免产生鬼影区域的同时仍然能适应环境的变化。每个新的像素点都有的概率去更新自己的背景模型样本集,同时也有的概率更新邻域背景模型的样本集,是时间采样因子。
对于前景模型,由于前景模型的短暂性,且随着运动目标的移动,前景模型的样本值会快速的失效。所以,当像素点被分类为前景点时,以前景点的像素值更新前景模型;当像素点被分类为背景点时,就直接以一个较大的值L替换掉相应的前景模型样本点。同时,采用先入先出的更新策略,即那些先进入模型的样本点被优先选择替换掉。
第六步:读取新的视频帧,重复第三步到第五步,实时检测视频序列中的运动前景区域。
本发明的优点是:通过采用盲目更新策略避免产生鬼影现象,同时,通过建立前景模型尽可能多的将被错误分类为背景的前景点重新分类为前景点,提高了前景检测的正确率。
附图说明
图1本发明方法的流程图;
图2显示了前景模型对前景点的影响,其中图2a是输入视频帧,图2b是仅使用背景模型得到的前景图,图2c是使用前景模型增加的前景像素点,图2d是使用前景模型后的前景检测效果;
图3本发明与原ViBe方法的效果对比图,实验测试视频包括视频Pedestrians,视频canoe,视频sofa。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明。
本发明是基于ViBe方法改进的前景检测方法,通过采用盲目更新策略及建立前景模型,解决了缓慢运动物体难以检测的问题,在保证方法实时性的同时有效提高了前景点的正确检测率。方法的流程图如图1所示,其具体实施方式如下所示:
步骤一:输入视频序列,读取首帧;采用单帧图像进行背景模型初始化,每个像素点利用邻域像素的时空相似特性随机选取Nb(实验数据Nb=20)像素点作为其模型的样本点。
步骤二:前景模型的建立,准确地说前景模型应该与背景模型同时建立。采用单帧初始化,将Nf(实验数据Nf=10)模型样本点的值设为一个较大的值L(L>350),表示视频序列的首帧无前景点。
步骤三:读取视频的下一帧,进行前背景模型的分类判断。当新的像素点出现时,就将该像素值和背景模型样本集进行比较,若至少能找到#minb=2个相近的样本点,则该像素点判为背景点;否则,为前景点。接着,对分类为背景的像素点进行前景模型的二次分类判断,若该像素在前景模型中至少能找到#minf=5个相近的样本点,则说明该像素点为前景点;否则,该像素点仍为背景点。如图2所示,前景模型有效地增加了前景点的正确检测率。
步骤四:将上述步骤产生的二值图象进行形态学的处理,滤除噪声点,且对运动目标的前景块进行填充操作。可以明显观察到,如图3所示,用本发明的前景检测方法,能够有效检测出缓慢运动或短暂停留的运动物体的前景。
步骤五:前背景模型的更新。在背景模型的更新策略方面,本发明采用盲目的更新机制,避免了鬼影现象的产生。同时,该像素点除了更新自己的模型样本值外,还有一定的概率去更新邻域背景模型样本值。对于前景模型,由于前景模型的短暂性,当像素点被分类为前景点时,以前景点的像素值更新前景模型;当像素点被分类为背景点时,就直接以一个较大的值L替换掉相应的前景模型样本点。同时,采用先入先出的更新策略,即那些先进入模型的样本点被优先选择替换掉。
步骤六:继续读取视频帧,重复上述三至五步骤,进行连续的视频前景检测,直到读取完所有的视频帧。
本发明提供了一种基于ViBe改进的前景检测方法的思路,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式。应当指出,对于本技术领域的技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (1)
1.基于盲目更新策略和前景模型的改进视觉背景提取方法,包括如下步骤:
第一步:读取视频的第一帧,对背景模型进行单帧初始化及建立;采用原ViBe算法的单帧视频序列初始化方式;
第二步:对前景模型进行单帧初始化;将前景模型的初始化样本值全部设置为L>350,表明像素点不具备任何前景特性;设MF(x)为某像素点x的前景模型,则该像素点的样本集表示为公式(1),其中ωi是模型采样点:
MF(x)={ω1,ω2,...,ωN} (1)
第三步:读取新的视频帧,首先根据背景模型判断新像素点是否分类为背景点,若分类为背景点,则将该新像素点继续与其前景模型进行分类判断;若某新像素点x在欧氏空间的Rf为半径的圆形范围内可以找到至少有常数#minf=5个样本值,则该新像素点为前景点,即属于前景模型;否则,该新像素点还是背景点;如公式(2)所示:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mo>#</mo>
<mo>{</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>R</mi>
<mi>f</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&upsi;</mi>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&cap;</mo>
<mo>{</mo>
<mrow>
<msub>
<mi>&omega;</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>&omega;</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>&omega;</mi>
<mi>N</mi>
</msub>
</mrow>
<mo>}</mo>
<mo>;</mo>
<mi>x</mi>
<mo>&Element;</mo>
<msub>
<mi>P</mi>
<mi>F</mi>
</msub>
<mo>}</mo>
<mo>&GreaterEqual;</mo>
<mo>#</mo>
<msub>
<mi>min</mi>
<mi>f</mi>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&Element;</mo>
<msub>
<mi>P</mi>
<mi>F</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>#</mo>
<mo>{</mo>
<msub>
<mi>S</mi>
<mrow>
<mi>R</mi>
<mi>f</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&upsi;</mi>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&cap;</mo>
<mo>{</mo>
<mrow>
<msub>
<mi>&omega;</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>&omega;</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>&omega;</mi>
<mi>N</mi>
</msub>
</mrow>
<mo>}</mo>
<mo>;</mo>
<mi>x</mi>
<mo>&Element;</mo>
<msub>
<mi>P</mi>
<mi>F</mi>
</msub>
<mo>}</mo>
<mo><</mo>
<mo>#</mo>
<msub>
<mi>min</mi>
<mi>f</mi>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>x</mi>
<mo>&Element;</mo>
<msub>
<mi>P</mi>
<mi>B</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,SRf(υ(x))表示以像素点x为圆心,Rf为半径的空间区域,υ(x)是像素点x的像素值,PB表示背景点集,PF表示前景点集;
第四步:利用形态学原理对检测出的二值图像的前景区域进行后期处理,主要依据中心像素点是否与其5*5邻域的主体值相近的判断原则,若一致,则保留该中心像素点的原值;若不一致,则将该中心像素点的值设置为邻域的主体值;
第五步:更新模型;对背景模型采用盲目更新策略,无论它被归类为背景或前景都会用来更新背景模型;每个新的像素点都有的概率去更新自己的背景模型样本集,同时也有的概率更新邻域背景模型的样本集,是时间采样因子;
对于前景模型,当像素点被分类为前景点时,以前景点的像素值更新前景模型;当像素点被分类为背景点时,就直接以L值替换其相应前景模型样本点;采用先入先出的更新策略,即那些先进入模型的样本点被优先选择替换掉;
第六步:读取新的视频帧,重复第三步到第五步,实时检测视频序列中的运动前景区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610045316.1A CN105741319B (zh) | 2016-01-22 | 2016-01-22 | 基于盲目更新策略和前景模型的改进视觉背景提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610045316.1A CN105741319B (zh) | 2016-01-22 | 2016-01-22 | 基于盲目更新策略和前景模型的改进视觉背景提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105741319A CN105741319A (zh) | 2016-07-06 |
CN105741319B true CN105741319B (zh) | 2018-05-08 |
Family
ID=56246412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610045316.1A Active CN105741319B (zh) | 2016-01-22 | 2016-01-22 | 基于盲目更新策略和前景模型的改进视觉背景提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105741319B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874864A (zh) * | 2017-02-09 | 2017-06-20 | 广州中国科学院软件应用技术研究所 | 一种室外行人实时检测方法 |
CN107025652B (zh) * | 2017-05-05 | 2019-09-27 | 太原理工大学 | 一种基于运动特性和颜色时空信息的火焰检测方法 |
CN107169997B (zh) * | 2017-05-31 | 2020-04-21 | 上海大学 | 面向夜间环境下的背景减除方法 |
CN109978916B (zh) * | 2019-03-11 | 2021-09-03 | 西安电子科技大学 | 基于灰度图像特征匹配的Vibe运动目标检测方法 |
CN110428394B (zh) * | 2019-06-14 | 2022-04-26 | 北京迈格威科技有限公司 | 用于目标移动侦测的方法、装置及计算机存储介质 |
CN111666881B (zh) * | 2020-06-08 | 2023-04-28 | 成都大熊猫繁育研究基地 | 一种大熊猫踱步、吃竹子、发情行为跟踪分析方法 |
CN117124587A (zh) * | 2023-01-12 | 2023-11-28 | 珠海视熙科技有限公司 | 基于深度图像的背景建模方法及装置、介质、计算设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2015252A1 (en) * | 2007-07-08 | 2009-01-14 | Université de Liège | Visual background extractor |
CN104077776A (zh) * | 2014-06-27 | 2014-10-01 | 深圳市赛为智能股份有限公司 | 一种基于颜色空间自适应更新的视觉背景提取算法 |
-
2016
- 2016-01-22 CN CN201610045316.1A patent/CN105741319B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2015252A1 (en) * | 2007-07-08 | 2009-01-14 | Université de Liège | Visual background extractor |
CN104077776A (zh) * | 2014-06-27 | 2014-10-01 | 深圳市赛为智能股份有限公司 | 一种基于颜色空间自适应更新的视觉背景提取算法 |
Non-Patent Citations (2)
Title |
---|
ViBe:a universal background subtraction algorithm for video sequences;Olivier Barnich et al;《IEEE Transactions on Image Processing》;20110630;第20卷(第6期);1709-1724 * |
动态背景下基于改进视觉背景提取的前景检测;陈星明 等;《光学精密工程》;20140930;第22卷(第9期);2545-2552 * |
Also Published As
Publication number | Publication date |
---|---|
CN105741319A (zh) | 2016-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
Braham et al. | Semantic background subtraction | |
CN109636795B (zh) | 实时无跟踪的监控视频遗留物检测方法 | |
CN111768431B (zh) | 一种高空抛物动目标检测方法、检测设备和检测*** | |
CN103093198B (zh) | 一种人群密度监测方法及装置 | |
KR101436369B1 (ko) | 적응적 블록 분할을 이용한 다중 객체 검출 장치 및 방법 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
WO2010034065A1 (en) | Detection of vehicles in an image | |
CN110298297A (zh) | 火焰识别方法和装置 | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
CN111723773A (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
Chen et al. | Visual depth guided image rain streaks removal via sparse coding | |
Angelo | A novel approach on object detection and tracking using adaptive background subtraction method | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Radzi et al. | Extraction of moving objects using frame differencing, ghost and shadow removal | |
Zhang et al. | An optical flow based moving objects detection algorithm for the UAV | |
CN106446832B (zh) | 一种基于视频的实时检测行人的方法 | |
CN111260686B (zh) | 自适应余弦窗抗遮挡多特征融合的目标跟踪方法及*** | |
Jin et al. | Fusing Canny operator with vibe algorithm for target detection | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
Wang et al. | A robust algorithm for shadow removal of foreground detection in video surveillance | |
Ma et al. | Depth assisted occlusion handling in video object tracking | |
CN111160255B (zh) | 一种基于三维卷积网络的捕鱼行为识别方法及*** | |
Guo et al. | On the impact of varying region proposal strategies for raindrop detection and classification using convolutional neural networks | |
Fakharian et al. | Hybrid object detection using improved Gaussian mixture model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |