CN108805897B - 一种改进的运动目标检测vibe方法 - Google Patents

一种改进的运动目标检测vibe方法 Download PDF

Info

Publication number
CN108805897B
CN108805897B CN201810498273.1A CN201810498273A CN108805897B CN 108805897 B CN108805897 B CN 108805897B CN 201810498273 A CN201810498273 A CN 201810498273A CN 108805897 B CN108805897 B CN 108805897B
Authority
CN
China
Prior art keywords
pixel
frame
value
background model
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810498273.1A
Other languages
English (en)
Other versions
CN108805897A (zh
Inventor
方贤勇
曹明军
李薛剑
孙恒飞
傅张军
孙皆安
王华彬
汪粼波
周健
李同芝
陶宗祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN201810498273.1A priority Critical patent/CN108805897B/zh
Publication of CN108805897A publication Critical patent/CN108805897A/zh
Application granted granted Critical
Publication of CN108805897B publication Critical patent/CN108805897B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

针对经典的VIBE前景提取算法当输入的第一帧含有运动目标时后续检测就会出现“鬼影”现象、像素判别时模型中的固定半径在复杂场景检测效果不佳等问题,本发明提供一种改进的运动目标检测VIBE算法,区分静止区域是“鬼影”区域还是静止目标,并描述当前像素与背景模型中样本之间的差异程度,且在像素判别时根据描述字来动态调整判别模型中半径的大小,使得在场景变化程度较小时有更多的前景点被检测出,变化程度较大时能够阻止波动较小的像素点被检测为前景点,减少检测结果中的噪声。有益的技术效果:与原始的VIBE算法相比较,本发明能够在更少的帧数内去除“鬼影”,并使得检测出的运动目标更为准确。

Description

一种改进的运动目标检测VIBE方法
技术领域
本发明是一种图像/视频处理技术,具体为一种改进的运动目标检测VIBE 算法。
背景内容
运动目标检测[1],即通过某种手段去获得视频帧序列中的运动目标(不含场景中的背景信息),在视频处理、交通监管、社会治安等领域比较常见。目前,步态识别[2]、目标跟踪[3]、视频异常行为分析[4]等多个研究领域比较火热,虽然不同的研究领域存在差异,但有一点相同,那就是这些研究领域的研究对象都是视频信息。所以,如何从视频中获得人们感兴趣的信息,成为了相关领域的首要任务。运动目标检测方法[5-7]可以分为三类:帧差法、光流法以及背景差分法。帧差法是通过视频相邻帧(或者相同间隔的帧)之间做差,然后根据阈值得到前景和背景。其原理清晰易懂,代码实现起来也非常简单,运行速度也能达到实时的要求,但帧差法提取的轮廓存在双影现象,而且当两帧之间间隔很小时,物体在前后两帧中重叠的区域在相减后就会出现空洞区域。光流法是通过计算光流来描述运动场,再根据光流幅度阈值进行前景提取。其检测结果虽然比较准确,但是在计算光流时付出的时间代价大,故不能适用于实时视频的处理,计算光流时也无法避免阴影、遮挡等噪声的影响。背景减除法需要用输入视频的首帧或者前几帧构建一个背景模型,再用当前帧和背景模型比较判别当前帧中的像素类别。该方法的优点在于能够通过对背景模型的及时更新适应场景的不断变化从而在复杂的场景中得到较好的检测结果。混合高斯算法[8](GMM)属于背景减除法的一种常见算法,GMM会把变化慢的像素学习为背景,变化快的像素视为前景,从而达到前景和背景的分离。但GMM初始化过程长,参数估计慢,也不能适用于实时视频的处理。
针对上述算法存在的各种问题,Olivier Barnich等人[9]在2009年提出了一种无参数估计的背景减除算法--VIBE算法,该算法检测效果比较好,运行速度比较快,并且在近年来得到了广泛的应用,逐步发展成为一种通用的背景减除算法[10]。但是,传统的VIBE算法存在两点不足:1)当第一帧中含有运动目标时,检测就会出现“鬼影”现象;2)VIBE背景模型判别半径固定,这种固定的阈值,不能很好的适应动态场景中的前景检测。
为了使得VIBE算法的检测效果在复杂场景下也能令人满意,众多学者们在 VIBE算法的基础上也做出了各自的改进。
针对“鬼影”检测问题,目前的算法主要分为两类:第一类是根据前景像素的运动属性检测“鬼影”。比如,Yang等[11]借用帧差法比较某个像素在当前帧和上一帧之间的差异,用运动因子描述每个像素的运动状态,当其值为0,说明该像素为静止像素,应该判别为“鬼影”。第二类是利用背景模型的自动更新功能。比如,Stauffer等[12]用每一帧对背景模型进行修正,逐步将背景模型初始化时引入的“鬼影”像素替换出去。
针对VIBE背景模型中的判别半径固定的问题,目前也有一些研究。比如,文献[13]在判别像素点类别时,根据当前像素点的样本的方差调整阈值,达到了一定的效果,但是大量的方差计算严重影响了程序的执行效率;文献[14]则通过计算每一帧的背景复杂度,根据背景复杂度动态的调整判别半径的值,使得检测结果的准确率得到的一定的提升;文献[15]利用像素点邻域像素中的最大值和最小值得差值自适应调整判别半径,也使得检测准确率得到提升,但是当邻域像素点噪声较多时,就会对检测结果产生不利的影响。
综上所述,还需要对上述图像处理方法进行改进和完善。
发明内容
为了对背景技术所列问题进行改进,本发明提供一种改进的运动目标检测 VIBE算法,具体方法如下:
一种改进的运动目标检测VIBE算法,在现有的运动目标检测VIBE算法的基础上,增加“鬼影”去除方法和自适应阈值方法。
进一步说,所述的一种改进的运动目标检测VIBE算法,按如下步骤进行:
步骤1:由视频输入当前第N帧图像,判断当前帧是否为第一帧;
若是,则利用第一帧初始化背景模型BGM;
若不是,则进入步骤2;
步骤2:判断当前帧是否为最后一帧帧号+1;
若是,则操作结束;
若不是,则进入步骤3;
步骤3:根据已经初始化的背景模型BGM,遍历当前帧中的某个像素点利用改进的自适应阈值来判断该像素点是背景点还是前景点;
若是背景点,则进入步骤4;
若是前景点,则进入步骤5;
步骤4:对应帧的掩码矩阵中对应位置设值为0,并根据该像素点位置是否在实际目标外接矩形框中来对背景模型BGM做出不同的更新策略,进入步骤9;
步骤5:对应帧的掩码矩阵中对应位置设值为255,并判断该帧是否遍历完毕并且当前帧号能够被某个正整数整除;
若不是,则进入步骤3;
若是,则进入步骤6;
步骤6:获取当前帧中静止区域,并判断静止区域的属性;
若静止区域为鬼影区域,进入步骤7;
若静止区域为实际运动目标区域,进入步骤8;
步骤7:局部替换策略更新背景模型BGM加快鬼影的消除,进入步骤9;
步骤8:保存实际运动目标外接矩形位置信息,进入步骤1;
步骤9:背景模型BGM更新完毕,进入步骤1。
有益的技术效果
针对“鬼影去除”问题,已有的方法虽在某种程度上抑制了“鬼影”的产生或者加速了“鬼影”的消除,但大多都是在原背景模型中“添砖加瓦”,使得背景模型变得复杂、臃肿,导致模型在运算时速率变慢,难以在实际应用中得到重用。本发明所提出的方法能够在较少的帧数内就检测出鬼影,并且不会影响VIBE 算法的实时性,能够在实际中使用。进一步说,本发明所提出一种基于轮廓相似度比较的“鬼影”去除方法,通过比较静止区域和对应的灰度区域用Canny算子提取到的轮廓之间相似性度,区分静止区域是“鬼影”区域还是静止目标,然后对其分别处理
针对“自适应阈值问题”,已有的方法虽能够达到一定的检测效果,但是算法复杂度较高,例如通过方差的方法,大量的方差计算势必影响了算法的执行效率。本发明所提出的方法借助LBP算子计算速度快等优点,仿照LBP算子的构建方式构建了LBP-T描述字,使得VIBE算法检测结果更加精确的同时也不影响算法的执行效率。该方法通过LBP-T描述字来描述当前像素与背景模型中样本之间的差异程度,这种差异程度也直接反映了视频中场景的变化程度。在像素判别时根据描述字来动态调整判别模型中半径的大小,使得在场景变化程度较小时有更多的前景点被检测出,变化程度较大时能够阻止波动较小的像素点被检测为前景点,减少检测结果中的噪声。
实验结果表明,与原始的VIBE算法相比较,本文改进的基于轮廓相似性比较的方法能够在更少的帧数内去除“鬼影”;基于LBP-T描述字的自适应阈值使得检测出的运动目标更为准确。
本发明提供基于轮廓相似性比较的鬼影去除方法,该方法没有从增加模型复杂度方面考虑问题,而是根据静止的运动目标区域与鬼影区域所对应的实际帧中的内容存在较大的差别这一本质,利用Canny算子提取各自以及各自对应的实际帧区域的轮廓,因为鬼影区域轮廓与实际帧对应区域轮廓差别很大,而实际运动目标轮廓与实际帧对应区域轮廓存在一定的相似性从而得到静止目标的属性。得到鬼影区域后,就可以用当前帧中鬼影所在区域的像素点重新初始化一个局部背景模型替换原背景模型中的对应位置,让背静模型更加贴近实际,从而加速了鬼影的消除速度。
图4中的e)和f)为当前静止区域为鬼影时,用Canny算子分别提的鬼影轮廓以及当前帧对应区域的轮廓,可以发现两者之间的轮廓差别较大。
图4中的g)和h)为当前静止区域为实际运动目标时,用Canny算子分别提的实际运动目标二值图轮廓以及当前帧对应区域的轮廓,可以发现两者之间的轮廓存在一定的相似性。
图5是“鬼影”区域局部模型重新初始化替换原始模型对应位置。该图为局部模型替换策略的一个过程展示图。左边的是包含了运动目标初始化的背景模型,中间是用鬼影对应的实际帧区域重新初始化的局部背景模型,右边是替换后的模型。可以发现,替换后的模型不再含有运动目标信息,使得模型更加贴近实际背景,从而加快了鬼影的消除速度。
图6是本发明与原始VIBE算法鬼影消除的速度对比,左边是鬼影出现时的帧数,中间是原VIBE算法鬼影消除是的帧数,右边是本发明鬼影消除的帧数,可以发现本发明能够在较少的帧数内就可以将鬼影消除干净。
本发明提供了基于LBP-T描述字的自适应阈值VIBE改进策略,该方法为了不影响整个VIBE算法的执行效率,借鉴LBP算子的原理,通过求得背景模型的均值、当前像素的全部邻居以及一个多阈值结构共同构造出该像素的LBP-T描述字。通过LBP-T描述字的构造过程,表明了了LBP-T描述字可以描述当前待分类像素和背景模型样本像素之间的差异,当这种差异较小时,则说明场景变化程度比较小,就可以适当地减小判别半径R的值,使得能够检测出更多的运动信息,当这种差异较大时,则场景变化程度较高,就需要增加判别半径R的值,避免场景中过多的复杂信息被检测为前景导致检测结果中噪声点较多。实验表明,基于LBP-T描述字的自适应阈值能够使得VIBE检测出的运动目标结果更加精确。
图13是本发明基于LBP-T自适应阈值VIBE改进与原始VIBE算法之间的对比。左边是实际输入的帧,中间是原始VIBE算法检测出的结果,右边是本发明检测结果,可以发现本发明的结果比原VIBE检测结果更加准确。
图16是本发明在数据集Canoe上对几种不同运动目标检测方法的检测准确度进行了对比,对比曲线图如下。从图16中可以看出原始VIBE算法检测效果要比GMM算法好很多,但是原始VIBE算法使用了固定的判别半径,不能适应不同波动幅度的场景,而改进后的方法采用了自适应阈值,能够随着场景变化程度的大小自动调整判别半径的值,使得检测准确率得到了提高,整体检测效果要比传统的VIBE算法检测效果好。
附图说明
图1是VIBE算法的半径阈值判断原理图。
图2是“鬼影”对运动目标的影响。
图3是静止区域检测的示意图。
图4是静止区域以及对应灰度区域Canny算子结果。
图5是“鬼影”区域局部模型重新初始化替换原始模型对应位置。该图为局部模型替换策略的一个过程展示图。左边的是包含了运动目标初始化的背景模型,中间是用鬼影对应的实际帧区域重新初始化的局部背景模型,右边是替换后的模型。可以发现,替换后的模型不再含有运动目标信息,使得模型更加贴近实际背景,从而加快了鬼影的消除速度。
图6是本发明方法与原始VIBE“鬼影”去除速度比较。图6下方的三幅图是本发明与原始VIBE算法鬼影消除的速度对比,左边是鬼影出现时的帧数,中间是原VIBE算法鬼影消除是的帧数,右边是本发明鬼影消除的帧数,可以发现本发明能够在较少的帧数内就可以将鬼影消除干净。图6上方的三幅图是本发明基于LBP-T自适应阈值VIBE改进与原始VIBE算法之间的对比。左边是实际输入的帧,中间是原始VIBE算法检测出的结果,右边是本发明检测结果,可以发现本发明的结果比原VIBE检测结果更加准确。
图7是不同的判别半径对VIBE检测结果的影响。
图8是LBP算子构建过程。
图9是相同LBP值对应局部像素分布的不同情况。
图10是背景模型均值。
图11是待分类像素与背景模型均值的差值统计结果。
图12是多阈值结构的示意图。
图13是本发明所提供的改进自适应阈值与其他方法检测结果对比示意图。
图14为当前静止区域为鬼影时,用Canny算子分别提的鬼影轮廓以及当前帧对应区域的轮廓,可以发现两者之间的轮廓差别较大。
图15为当前静止区域为实际运动目标时,用Canny算子分别提的实际运动目标二值图轮廓以及当前帧对应区域的轮廓,可以发现两者之间的轮廓存在一定的相似性。
图16是本发明在数据集Canoe上对几种不同运动目标检测方法的检测准确度进行了对比示意图。
图17是本发明的流程框图。
具体实施方式
一种改进的运动目标检测VIBE算法,在现有的运动目标检测VIBE算法的基础上,增加“鬼影”去除方法和自适应阈值方法。
参见图17,本发明所述的一种改进的运动目标检测VIBE算法,按如下步骤进行:
步骤1:由视频输入当前第N帧图像,判断当前帧是否为第一帧;
若是,则利用第一帧初始化背景模型BGM;
若不是,则进入步骤2;
步骤2:判断当前帧是否为最后一帧帧号+1;
若是,则操作结束;
若不是,则进入步骤3;
步骤3:根据已经初始化的背景模型BGM,遍历当前帧中的某个像素点利用改进的自适应阈值来判断该像素点是背景点还是前景点;
若是背景点,则进入步骤4;
若是前景点,则进入步骤5;
步骤4:对应帧的掩码矩阵中对应位置设值为0,并根据该像素点位置是否在实际目标外接矩形框中来对背景模型BGM做出不同的更新策略,进入步骤9;
步骤5:对应帧的掩码矩阵中对应位置设值为255,并判断该帧是否遍历完毕并且当前帧号能够被某个正整数整除;
若不是,则进入步骤3;
若是,则进入步骤6;
步骤6:获取当前帧中静止区域,并判断静止区域的属性;
若静止区域为鬼影区域,进入步骤7;
若静止区域为实际运动目标区域,进入步骤8;
步骤7:局部替换策略更新背景模型BGM加快鬼影的消除,进入步骤9;
步骤8:保存实际运动目标外接矩形位置信息,进入步骤1;
步骤9:背景模型BGM更新完毕,进入步骤1。
进一步说,步骤1的具体步骤为:
由视频输入当前第N帧图像,并判断当前帧是否为视频的第一帧;
若是,利用第一帧初始化背景模型BGM,具体初始化策略如下:
遍历第一帧的所有像素点,对任意一个像素点v(x),每个像素点的背景模型中含有N个样本,记为M(x)={v1,v2,...vk,...vn},N取值为20,每个像素的背景模型中的样本采用随机策略,N次随机选择该像素点的8邻域中的一个像素值作为该像素样本中的一个值;当第一帧遍历完,背景模型BGM就初始化完成;
若不是,则进入步骤2。
进一步说,判断该像素点是背景点还是前景点,即像素分类的具体过程如下:
在欧式空间中,定义一个以v(x)为圆心,阈值R为半径的圆SR(v(x));这个圆表示与到圆心v(x)的距离小于阈值R的点的集合;
统计当前像素背景模型M(x)和v(x)距离小于R的数目,若大于给定阈值Dmin (取值为2),则认为当前像素点和背景样本接近,当前像素划分为背景(像素值设为0);否则,就划分为前景点(像素值设为1);计算公式如下:
Figure BDA0001669327310000051
VIBE算法的检测过程主要三个参数:其中样本集数目N,阈值min设置为N=20,min=2,而距离相近判定的阈值R不再使用全局固定的值,应该对每一个像素点都设置各自的判别半径,于是提出了基于LBP-T描述字的自适应阈值。
进一步说,在步骤4中,对应帧的掩码矩阵中对应位置设值为0,并根据该像素点位置是否在实际目标外接矩形框中来对背景模型BGM做出不同的更新策略:
如果该像素点在实际目标外接矩形框中,则像素点不更新它的背景模型;
如果该像素点不在实际目标外接矩形框中,则它有
Figure BDA0001669327310000052
的几率用该像素点的像素值去替换它的背景模型中样本M(x)的一个值,
Figure BDA0001669327310000061
的取值范围在2到128之间,优选的
Figure BDA0001669327310000062
同时,也有
Figure BDA0001669327310000063
的几率用该像素点的像素值去替换它的某个邻域像素点的背景模型样本中的一个值;随后,进入步骤9;
进一步说,判断当前帧中静止区域的属性是否为鬼影的具体方法,即“鬼影”检测方法是:是基于轮廓相似性比较的方法,包括以下二个步骤:
步骤一,计算VIBE算法检测结果视频序列中的静止前景区域;
步骤二,对静止前景区域与当前帧中相同位置区域对应灰度图区域分别通过Canny算子提取轮廓,然后在给定的轮廓相似度公式上计算其相似度,通过轮廓相似度比较得到静止前景区域的属性。
进一步说,步骤7所述的“局部替换策略更新背景模型BGM加快鬼影的消除”的处理策略为:当判断静止区域是“鬼影”区域,就需要加快“鬼影”的消除速度。
首先选择实际背景区域重新用VIBE算法进行模型初始化;
然后替换掉原始模型中的“鬼影”区域的像素模型;
最后得到一个只包含背景像素初始化的“干净”的背景模型。
进一步说,步骤3中的自适应阈值方法,是基于LBP-T描述字的,具体为以下三个步骤:
步骤一,计算待分类像素背景模型的均值以及获得该像素的8邻域像素并将背景模型的均值放在当前像素位置上;
步骤二,统计出多个待分类像素与背景模型均值的差值分布规律,并构建多阈值结构图;
步骤三,计算当前像素的LBP-T值,用该值作为当前像素分类时的半径值。
原始的VIBE算法中背景模型更新策略中所使用的判别半径R是固定不变的,所有像素统统使用这一个唯一的判别阈值,固定判别半径不利于背景检测,也不能适应复杂场景的变化,为了适应复杂场景变化改进固定阈值为自适应阈值,这就需要找到一个能够描述视频中场景变化程度的描述字,然后根据描述字为每个像素都设置一个判别半径,替换掉原始VIBE模型中的固定判别阈值。
在像素判别阶段,仿照LBP算子的构建方式,本发明将当前待分类像素的全部邻居像素与背景模型中的待比较样本值构建一个LBP-T描述字,该描述字可描述当前像素的邻居像素与背景模型中某个样本像素之间的差异。因为像素之间分布具有连续性,所以这种差异也间接反映了当前待分类像素和背景模型那个样本像素之间的差异,当这种差异较小时,则说明场景变化程度比较小,就可以适当地减小判别半径R的值,使得能够检测出更多的运动信息,当这种差异较大时,则场景变化程度较高,就需要增加判别半径R的值,避免场景中过多的复杂信息被检测为前景导致检测结果中噪声点较多。故可根据描述字的大小去决定 VIBE模型中的固定判别半径R。
参见图10,进一步说,针对“自适应阈值”的步骤一,其具体实现如下:
其中X为当前待分类像素,neik(k=1,2...8)为当前像素X的8邻域像素。N为背景模型中的样本个数,
Figure BDA0001669327310000064
Ni为背景样本的均值。
参见图11,针对“自适应阈值”的步骤二,具体为:本发明在多个视频检测时,统计了多个像素与待比较的背景模型均值的差值,统计结果如图11。
从图2可以看出,待分类像素与背景模型均值的差值绝大部分都分布在区间 [0,40],并且区间[0,40]中子区间[0,20]占据整个区间一半以上。
基于上述讨论,本发明构建了一个多阈值结构图,如图12所示:
其中,Thi,i=1,2,3...8为多个阈值,按照顺时针(同LBP形成二进制串顺序一致)顺序放置,将最大的阈值放在二进制串的最高位,最小的阈值放在二进制串的最低位。Thi具体取值如图3(b)所示。上述多阈值结构图是用来将当前像素邻居像素与背景模型的均值差与对应位置的阈值进行比较的。
针对“自适应阈值”的步骤三,其具体实现如下:
当Δk=|neik-μ |≤Thk时,结构图中对应位置就设为0,否则就设为1。
LBP-T描述字可以用公式描述如下:
Figure BDA0001669327310000071
其中(xc,yc)代表3×3邻域的中心元素,k为邻居的个数,取值为8。C为常数,实验中取值为2。Δk表示(xc,yc)的第k个邻居与背景模型均值μ之间的差值绝对值。D(x)是符号函数:
Figure BDA0001669327310000072
用R(xc,yc)=η×LBP-T(xc,yc)#
作为原VIBE模型中的新的半径,每个像素在判别时都有属于自己的半径值,而不再是全局固定的值R。η为因子,实验取值为1/3。
使用本构造方法:
当描述字LBP-T值越大时,表明当前像素的邻居像素点和背景模型中的样本像素点相差地就越大,场景变化程度越高,此时,阈值就应该设得大些,避免场景中的噪声点被检测为前景点,
相反,当描述字LBP-T值越小时,则表明当前像素的邻居像素点和背景模型样本像素点比较接近,场景变化程度比较低,阈值则应该设置的小一些,这样就使得更多的像素点被检测为前景。
进一步说,步骤6提出的鬼影去除方法的详细步骤为:“鬼影”去除方法,是基于轮廓相似性比较的消除方法,具体为以下三个步骤:
步骤一,计算VIBE算法检测结果视频序列中的静止前景区域;本步骤具体如下:初始化两个全0矩阵f_c和s_r;当前像素被检测为前景点,取出f_c矩阵的对应位置的值加1后存回去;当前正在处理帧号能整除P,P=30,每30帧做一次检测,找到f_c矩阵中大于等于Q,Q=20的点的位置,在s_r矩阵中置对应位置的值设定为255;找到s_r矩阵中符合条件的连通区域的外接矩形框,当外接矩形框为小面积时舍弃,当外接矩形框为大面积时保留;所述小面积是指像素个数小于20的矩形框舍弃,反之,为大面积;矩形框的位置就是静止目标所在区域,并将f_c和s_r两个矩阵重新置为全0矩阵。优选的方案,P、Q均为正数。
步骤二,对静止前景区域与当前帧中相同位置区域对应灰度图区域分别通过Canny算子提取轮廓,然后在给定的轮廓相似度公式上计算其相似度,通过轮廓相似度比较得到静止前景区域的属性;本步骤具体如下:得到上面的静止区域后,采用Canny边缘提取对静止区域以及该区域对应的灰度图区域都进行轮廓检测:采用计算二值图轮廓相似度方式判断当前静止区域的属性;属性是指,静止区域是“鬼影”还是真正静止目标;步骤如下:1.用Canny算子提取静止区域的轮廓,记为C0;2.根据静止区域,在灰度图上找到对应位置,同样用Canny算子提取其轮廓,记为C1;3.计算C0与C1的轮廓相似度,定义二值图像C0、C1的相似度如下:
Figure BDA0001669327310000081
其中size(C0∩C1)为C0∩C1结果图的长宽之积,fgCount(C0∩C1)为C0∩C1结果图中前景点(值为255)的数目,则静止区域的属性SR可表示如下:
Figure BDA0001669327310000082
其中T0为阈值,实验中取值T0=0.02;静止区域的属性确定完成后,需要对该静止区域做出相应的处理。
步骤三,确定静止区域的属性,是鬼影还是实际静止的运动目标后,再根据不同属性对静止前景区域给与不同的处理;本步骤具体如下:
如果静止区域是实际的运动目标的静止,为了抑制运动目标的消失,在VIBE 算法检测当前像素为背景点时,判断该点是否在静止区域的外接矩形框中。如果在的话就减小该点对背景模型的更新因子的大小,则直接选择让该像素点不更新背景模型。
如果静止区域是“鬼影”区域,就需要加快“鬼影”的消除速度,选择实际背景区域重新用VIBE算法进行模型初始化,然后替换掉原始模型中的“鬼影”区域的像素模型;得到一个只包含背景像素初始化的“干净”的背景模型。
为了更好地阐述、比较本发明的技术有点,现换一角度解释说明如下:
参见图17,本发明的具体流程框架如图所示,换一角度描述如下:
一:利用基于LBP-T描述字的自适应阈值VIBE算法改进策略对每帧中的像素点进行分类,即该像素点为背景像素点还是前景像素点。其中VIBE算法的检测过程主要三个参数:其中样本集数目N,阈值#min设置为N=20,#min=2,而距离相近判定的阈值R不再使用全局固定的值,应该对每一个像素点都设置各自的判别半径。用R(xc,yc)=η×LBP-T(xc,yc)#
作为原VIBE模型中的新的半径值,每个像素在判别时都有属于自己的半径值,而不再是全局固定的值R。η为因子,实验取值为1/3。
二:待分类的像素点被判别为背景点时,首先检查该像素点是否在实际运动目标的外界矩形区域中;若在,则该像素点不对模型进行更新;若不在,则还是按照原先的更新因子对模型进行更新。即它有
Figure BDA0001669327310000083
的几率用该像素点的像素值去替换它的背景模型中样本M(x)的一个值,同时,也有
Figure BDA0001669327310000084
的几率用该像素点的像素值去替换它的某个邻域像素点的背景模型样本中的一个值。
三:待分类像素点被判别为前景点时,检测该帧是否处理完毕并且帧号能否被正整数P(P=30)整除。若不符合条件,则按照原先步骤继续遍历;符合条件,则检测出静止点,即P帧中有至少Q(Q=20)次数被检测为前景的像素点。
四:对检测出的静止区域以及静止区域对应的实际帧中区域分别用Canny 算子提取轮廓,计算两者轮廓相似度,当相似度>0.02时,则认为该静止区域为实际静止目标,则保存该区域位置信息,被检测为背景点的像素在该区域内就不更新背景模型;当相似度<=0.02是,则认为是鬼影区域。利用该区域重新初始化一个局部的背景模型,替换掉原来背景模型的对应位置数值。
关于VIBE算法的工作原理:
VIBE算法采用基于像素级的背景建模和前景检测技术,它通过第一帧来初始化背景模型,然后对新来的每一帧中的像素做出前景背景判别,被判定为背景的像素还有一定的几率去更新背景模型中的样本。
VIBE算法框架主要包含三大模块:1)背景模型的初始化;2)前景检测;3) 背景模型的更新。
1)模型的初始化:VIBE算法为视频首帧的每个像素点v(x)都建立了一个背景模型,每个像素点的背景模型共同组成了整个VIBE算法的背景模型。每个像素点的背景模型中含有N个样本,记为M(x)={v1,v2,...vk,...vn},通常N取值为 20。每个像素的背景模型中的样本采用随机策略,N次随机选择该像素点的8邻域中的一个像素值作为该像素样本中的一个值。
2)前景检测:在欧式空间中,定义一个以v(x)为圆心,阈值R为半径的圆 SR(v(x))。这个圆表示与到圆心v(x)的距离小于阈值R的点的集合,如图1所示。
统计当前像素背景模型M(x)和v(x)距离小于R的数目,若大于给定阈值Dmin (取值为2),则认为当前像素点和背景样本比较接近,当前像素划分为背景比较合适,否则,就划分为前景点。计算公式如下:
Figure BDA0001669327310000091
3)背景模型更新策略:当某个像素点被归类为背景像素点时,则该像素点就需要更对VIBE算法的背景模型做出更新。VIBE算法采用随机更新的机制,对于被判定的背景像素点v(x),它有
Figure BDA0001669327310000092
的几率用该像素点的像素值去替换它的背景模型中样本M(x)的一个值,同时,也有
Figure BDA0001669327310000093
的几率用该像素点的像素值去替换它的某个邻域像素点的背景模型样本中的一个值。
VIBE算法实现原理简单,实时性好,检测效果佳,被广泛应用到前景提取、运动目标检测等领域,但是VIBE算法本身也存在一定的缺点。第一,VIBE算法采用模型自动更新去“鬼影”需要消耗大量的视频帧;第二,像素点判别时,采用的是固定阈值,导致复杂场景出现一些像素点被误检。本文将从这两个方面进行改进。
关于本发明中改进的VIBE算法
针对VIBE算法的上述两点不足,本发明分别提出了基于轮廓相似性比较的“鬼影”去除方法、基于LBP-T描述字的自适应阈值方法以及基于超像素分割和显著性相结合的运动目标空洞填充算法。对于所提出的基于轮廓相似性比较的“鬼影”去除方法,它首先检测VIBE算法检测结果中的静止前景区域,然后根据静止前景区域与对应灰度图区域分别通过Canny算子提取的轮廓,通过轮廓相似度比较得到静止前景区域的属性,最后根据不同属性对静止前景区域给与不同的处理;基于LBP-T描述字的自适应阈值方法则在像素分类阶段仿照LBP算子的构建形式构建一个能描述当前像素和背景模型中的样本像素之间的差别程度的描述字,根据描述字大小将VIBE算法中的固定判别半径改成自适应阈值。
基于轮廓相似度比较的鬼影检测和去除
鬼影问题分析:“鬼影”问题是VIBE等前景提取算法中普遍面临的一个比较棘手的问题。“鬼影”形成的原因是VIBE背景模型在初始化时,第一帧中就已经包含了运动目标,导致了运动目标所在区域的像素点的背景模型初始化时就引入了和实际背景区别较大的值。运动目标开始一旦移动时,它刚开始占据的区域就会被检测为前景,但是检测出的前景区域实际上没有真正存在的运动目标,这就是所谓的“鬼影”现象。如图2(b)红色矩形框中的前景为“鬼影”。“鬼影”长时间的存在势必会影响真正前景目标的获取,也对目标检测,步态识别,目标跟踪等计算机视觉领域的相关研究产生了一定的负面影响
图2是采用VIBE算法在数据集[16]streetLight中得到的某帧检测结果。由图2(b)可知,“鬼影”存在的表现形式和运动目标及其相似,难以区分。“鬼影”的存在影响“鬼影”区域像素的背景模型的初始化和更新操作,从而对真正的目标检测产生了一定的影响。
由VIBE模型背景更新原理可知,“鬼影”区域附近的被检测为背景的像素点可以缓慢腐蚀掉“鬼影”。“鬼影”区域附近的像素点在被判别为背景像素时,就有一定的几率更新它邻域的样本值,也就是样本模型中的“鬼影”值会缓慢被背景值取代,但是更新过程是比较慢的。如图2(c)所示,直到第170帧时,图中的“鬼影”区域才会被完全去除,可见VIBE算法的自动更新过程消耗了大量的帧。
算法改进原理:原始的VIBE算法需要在多帧以后才能将“鬼影”区域去除干净。本文改进算法的目的就是加快“鬼影”的消失速度,并且抑制实际静止目标的消失速度,因为考虑到实际静止目标也是运动目标的一部分,只是暂时的静止。比如在监控视频统中的异常检测中,实际静止目标如果出现异常也需要警示,就需要保证实际静止目标被检测。
首先利用VIBE算法检测P帧中Q次(P<Q)被检测为前景的像素点,通过处理后获得静止区域的位置;然后通过Canny算子获取静止区域和静止区域对应的当前帧的灰度图对应区域的轮廓信息,通过计算两个轮廓信息的相似度,判别静止区域的属性(“鬼影”还是静止目标);最后根据静止区域的属性对静止区域的像素点采取不同的处理方法。
改进方法详细过程:我们知道,“鬼影”区域(Ghost)和实际静止目标区域(Object)在VIBE算法检测结果中的表现形式是一样的,都表现为多个视频帧中同一位置总是被检测为前景像素点,所以,首先需要检测当前VIBE算法输出结果中的总是被检测为前景点的区域,也就是静止区域,其检测步骤如下:
1)初始化两个全0矩阵f_c和s_r;
2)当前像素被检测为前景点,取出f_c矩阵的对应位置的值加1后存回去;
3)当前正在处理帧号能整除P(P=30,每30帧做一次检测),找到f_c矩阵中大于等于Q(Q=20)的点的位置,在s_r矩阵中置对应位置的值为 255;
4)找到s_r矩阵中符合条件的连通区域的外接矩形框(小面积矩形框舍弃),矩形框的位置就是静止目标所在区域,在原始图上标记出来。如图3(c) 所示。
5)将f_c和s_r两个矩阵重新置为全0矩阵,为下次循环做初始化准备。
得到上面的静止区域后,本文采用Canny边缘提取对静止区域以及该区域对应的灰度图区域都进行轮廓检测,轮廓检测结果如图4所示。
“鬼影”区域和实际静止目标区域对应的实际帧中的内容是不一样的,“鬼影”区域对应的实际帧中一般都是背景区域,如图4(b)所示,背景区域一般像素分布比较平滑,而实际静止目标对应的就是实实在在的静止的运动目标,如图4 (d)所示,实际的运动目标与周围的区域存在轮廓,该轮廓也正好与当前的静止区域二值图的轮廓在形状上较相似。基于这样的启发,本文采用计算二值图轮廓相似度方式判断当前静止区域的属性(“鬼影”还是真正静止目标)。计算步骤如下:
1)用Canny算子提取静止区域的轮廓,记为C0
2)根据静止区域,在灰度图上找到对应位置,同样用Canny算子提取其轮廓,记为C1
3)计算C0与C1的轮廓相似度,定义二值图像C0、C1的相似度如下:
Figure BDA0001669327310000111
其中size(C0∩C1)为C0∩C1结果图的长宽之积,fgCount(C0∩C1)为C0∩C1结果图中前景点(值为255)的数目,则静止区域的属性SR可表示如下:
Figure BDA0001669327310000112
其中T0为阈值,实验中取值T0=0.02。
静止区域的属性确定完成后,需要对该静止区域做出相应的处理。
如果静止区域是实际的运动目标的静止,为了抑制运动目标的消失,在VIBE 算法检测当前像素为背景点时,判断该点是否在静止区域的外接矩形框中。如果在的话就减小该点对背景模型的更新因子的大小,本文直接选择让该像素点不更新背景模型。
如果静止区域是“鬼影”区域,就需要加快“鬼影”的消除速度,选择实际背景区域重新用VIBE算法进行模型初始化,然后替换掉原始模型中的“鬼影”区域的像素模型。如图5(c)所示,得到一个只包含背景像素初始化的“干净”的背景模型。
改进效果的验证分析:本文将提出的基于轮廓相似度比较的“鬼影”去除方法和原始VIBE缓慢更新去“鬼影”方法在数据集PETS2006和streetLight两组视频做出了对比实验,实验结果如图6所示。
图6(a)、(d)红色矩形框内是“鬼影”区域,(b)、(e)是原始VIBE算法缓慢更新“鬼影”消耗的帧数,(c)、(f)是本文改进的“鬼影”去除消耗的帧数,很显然,视频1中“鬼影”缓慢更新掉时消耗的帧是120帧,本文改进的方法只需要53帧“鬼影”就几乎消失;视频2中“鬼影”缓慢更新掉时消耗的帧是170帧,本文改进的方法只需要74帧“鬼影”就几乎消失,实验证明本文改进的方法对“鬼影”的去除更快更有效。
基于LBP-T描述字的自适应阈值
关于阈值问题分析:阈值的选取对前景检测的结果非常重要,阈值选择小了就会导致前景检测的结果中含有许多的噪声点,而阈值选择大了,就会导致目标出现较大面积漏检。
图7对VIBE算法设置了两种不同的判别半径,分别做了两组实验对比。从图7(a)、图7(c)两幅图像可以看出,当判别半径设置的大一些,场景中的噪声可以不会被检测到;但是从图7(b)、图7(d)看出,判别半径设置大了,运动目标的轮廓就会被漏检,导致轮廓不清晰,出现了残缺。
从图7可以得出结论,VIBE算法的判别半径并不是固定的就是最好的,应该随着场景的变换适当的调整使其能够得到最佳的检测结果才是理想的。
3.2.2算法改进原理
原始的VIBE算法中背景模型更新策略中所使用的判别半径R是固定不变的,所有像素统统使用这一个唯一的判别阈值,固定判别半径不利于背景检测,也不能适应复杂场景的变化,为了适应复杂场景变化改进固定阈值为自适应阈值,这就需要找到一个能够描述视频中场景变化程度的描述字,然后根据描述字为每个像素都设置一个判别半径,替换掉原始VIBE模型中的固定判别阈值。
在像素判别阶段,仿照LBP[17]算子的构建方式,本文将当前待分类像素的全部邻居像素与背景模型中的待比较样本值构建一个LBP-T描述字,该描述字可描述当前像素的邻居像素与背景模型中某个样本像素之间的差异。因为像素之间分布具有连续性,所以这种差异也间接反映了当前待分类像素和背景模型那个样本像素之间的差异,当这种差异较小时,则说明场景变化程度比较小,就可以适当地减小判别半径R的值,使得能够检测出更多的运动信息,当这种差异较大时,则场景变化程度较高,就需要增加判别半径R的值,避免场景中过多的复杂信息被检测为前景导致检测结果中噪声点较多。故可根据描述字的大小去替换 VIBE模型中的固定判别半径R。
改进方法详细过程:计算简单,可以对图像进行实时分析等是LBP算子的特性。如图8所示,传统的LBP是定义在像素3×3邻域内以中间像素作为阈值,用邻居像素值同中间位置的像素值进行比较,若邻居值大于中心像素值,则该邻居所在的位置被标记为1,否则就为0。这样,在3×3邻域内的8个像素点经比较就会得到八位二进制数,然后按照顺时针的顺序形成一个二进制串,该二进制数转换成十进制数就是该像素的LBP值。
上述的构建过程表明,LBP算子描述的是某个像素与周围像素的关系。但是 LBP算子的值并不能直接表示邻居像素与中间像素之间的这种差异程度,如图9 所示。图9表明,(a)和(d)的LBP值一样,但是(a)和(d)的邻域像素与中间像素之间的差距是不一样,(d)的中间像素和邻域像素近似,但是(a)的中间像素确比邻域像素相差的大得多。假设图9(a)的中间像素是VIBE算法中某个像素在进行像素判别时对应位置的背景模型中的样本均值,而其8邻居像素是当前像素的所有邻居,可知,当前像素的所有邻居都和样本值差距的很大,场景变化的复杂程度就越高。图像中像素之间的分布并不是任意的,局部与局部之间存在着一定的规律性。当前像素与其邻居像素在空间分布上具有一定的相似性。当前像素的大部分邻域像素都和背景模型中像素值差距的比较小时,也说明了当前像素和背景模型差距的较小,侧面反映了场景变化程度就越低,应该适当减小判别阈值,使得更多的前景像素点被检测到;当大部分邻域像素和背景模型像素值差距的比较大时,当前像素和背景模型差距的较大,侧面反映场景变化程度就越高,则应该适当增大判别半径,阻止波动较小的一些像素点被检测为前景点,减少检测结果中的噪声。
所以,需要找到一种描述字可以描述当前像素的8邻居像素与背景模型样本值之间的差异程度,即场景变化程度的描述字。
仿照LBP算子的定义,本发明构建一个LBP-T(阈值)描述字。构建方法步骤如下:
(1)背景模型均值计算
其中X为当前待分类像素,neik(k=1,2...8)为当前像素X的8邻域像素。N为背景模型中的样本个数,
Figure BDA0001669327310000121
Ni为背景样本的均值。
(2)构建多阈值结构图
本文在多个视频检测时,统计了多个像素与待比较的背景模型均值的差值,统计结果如下图。
从图11可以看出,待分类像素与背景模型均值的差值绝大部分都分布在区间[0,40],并且区间[0,40]中子区间[0,20]占据整个区间一半以上。
本文构建了一个多阈值结构图:在图12中,Thi,i=1,2,3...8为多个阈值,按照顺时针(同LBP形成二进制串顺序一致)顺序放置,将最大的阈值放在二进制串的最高位,最小的阈值放在二进制串的最低位。Thi具体取值如图12(b)所示。上述多阈值结构图是用来将当前像素邻居像素与背景模型的均值差与对应位置的阈值进行比较的。
(3)计算LBP-T描述字
当Δk=|neik-μ|≤Thk时,结构图中对应位置就设为0,否则就设为1。
LBP-T描述字可以用公式描述如下:
Figure BDA0001669327310000131
其中(xc,yc)代表3×3邻域的中心元素,k为邻居的个数,取值为8。C为常数,实验中取值为2。Δk表示(xc,yc)的第k个邻居与背景模型均值μ之间的差值绝对值。D(x)是符号函数:
Figure BDA0001669327310000132
用R(xc,yc)=η×LBP-T(xc,yc) (6)
作为原VIBE模型中的新的半径值,每个像素在判别时都有属于自己的半径值,而不再是全局固定的值R。η为因子,实验取值为1/3。
上述构造方法表明,当描述字LBP-T值越大时,表明当前像素的邻居像素点和背景模型中的样本像素点相差地就越大,场景变化程度越高,此时,阈值就应该设得大些,避免场景中的噪声点被检测为前景点,相反,当描述字LBP-T值越小时,则表明当前像素的邻居像素点和背景模型样本像素点比较接近,场景变化程度比较低,阈值则应该设置的小一些,这样就使得更多的像素点被检测为前景。
结果比较与分析:在数据集pedestrians、canoe、opencv自带示例视频三个视频中,选择同一帧输入,在GMM算法、原始VIBE算法以及本文提出的基于 LBP-T描述字的自适应阈值VIBE改进算法三个算法上分别得到各自的检测结果并进行比较。图13呈现了3组实验结果的对比,(a)列的图像从上到下依次分别是数据集pedestrians、canoe、opencv自带示例视频中第520、958、435帧输入图。(b)列图像是混合高斯GMM算法在对应的输入帧上的检测结果,可以看出GMM检测结果中有很多前景点被误检为背景点。(c)列图像是原始VIBE算法在对应的输入帧上的检测结果,明显比GMM算法的检测结果好很多。(d)列图像是本文提出的基于LBP-T描述字的自适应阈值的VIBE改进算法在对应的输入帧上的检测结果,实验证明,用改进的自适应的阈值,得到的前景检测结果会更好,比原始VIBE算法检测的结果更饱满,含有的前景像素点更多,前景更真实。
综上所述,针对经典VIBE前景提取算法的“鬼影”问题,本发明提出了一种基于轮廓相似性比较的“鬼影”检测方法,该方法和VIBE自动更新去“鬼影”相比,用到的帧数更少,“鬼影”去除的更快;针对VIBE背景模型中固定判别半径对复杂背景检测效果不佳,提出了一种LBP-T描述字的自适应阈值的VIBE改进方法,使得改进后得到的结果比原始的检测结果要好。改进的方法为后续的步态识别、异常检测等研究做出了可行的铺垫工作。
6参考文献
1.Hu,W.,et al.,Moving object detection using tensor-based low-rankand saliently fused-sparse decomposition.IEEE Transactions on ImageProcessing,2017.26(2):p.724-737.
2.Man,J.and B.Bhanu,Individual recognition using gait energy image.IEEE transactions on pattern analysis and machine intelligence, 2006.28(2):p.316-322.
3.Leal-Taixé,L.,et al.,Tracking the trackers:an analysis of the stateof the art in multiple object tracking.arXiv preprint arXiv:1704.02781,2017.
4.Bala,R.and V.Monga,Video Anomaly Detection.Computer Vision andImaging in Intelligent Transportation Systems,2017:p.227-256.
5.Bouwmans,T.,F.El Baf,and B.Vachon,Background modeling using mixtureof gaussians for foreground detection-a survey.Recent Patents on ComputerScience,2008.1(3):p.219-237.
6.Bouwmans,T.,Traditional and recent approaches in backgroundmodeling for foreground detection:An overview.Computer Science Review,2014.11:p.31-66.
7.Kim,K.,et al.,Real-time foreground–background segmentationusingcodebook model.Real-time imaging,2005.11(3):p.172-185.
8.Reynolds,D.,Gaussian mixture models.Encyclopedia of biometrics,2015:p.827-832.
9.Barnich,O.and M.Van Droogenbroeck.ViBe:a powerful random techniqueto estimate the background in video sequences.in Acoustics,Speech and SignalProcessing,2009.ICASSP 2009.IEEE International Conference on.2009.IEEE.
10.Barnich,O.and M.Van Droogenbroeck,ViBe:A universal backgroundsubtraction algorithm for video sequences.IEEE Transactions on Imageprocessing,2011.20(6):p.1709-1724.
11.Li,Y.,W.Chen,and R.Jiang.The integration adjacent frame differenceof improved ViBe for foreground object detection.in 2011 7th InternationalConference on Wireless Communications, Networking and Mobile Computing.2011.
12.Stauffer,C.and W.E.L.Grimson,Learning patterns of activity usingreal-time tracking.IEEE Transactions on pattern analysis and machineintelligence,2000.22(8):p.747-757.
13.Brutzer,S.,B.
Figure BDA0001669327310000141
and G.Heidemann.Evaluation of backgroundsubtraction techniques for video surveillance.in Computer Vision and PatternRecognition(CVPR),2011 IEEE Conference on.2011.IEEE.
14.Hofmann,M.,P.Tiefenbacher,and G.Rigoll.Background segmentationwith feedback:The pixel-based adaptive segmenter. in Computer Vision andPattern Recognition Workshops(CVPRW),2012 IEEE Computer Society Conferenceon.2012.IEEE.
15.Su,Y.,A.Li,and K.Jiang,Improved visual background extractor modelfor moving objects detecting algorithm.J.Comput.Aided Des. Comput.Graph,2014.26(2):p.232-240.
16.PETS 2012 Benchmark Data http://pets2012.net/.
17.Wang,X.,T.X.Han,and S.Yan.An HOG-LBP human detector with partialocclusion handling.in Computer Vision,2009 IEEE 12th International Conferenceon.2009.IEEE.
18.Van Droogenbroeck,M.and O.Paquot.Background subtraction:Experiments and improvements for ViBe.in Computer Vision and PatternRecognition Workshops(CVPRW),2012 IEEE Computer Society Conferenceon.2012.IEEE.

Claims (4)

1.一种改进的运动目标检测VIBE方法,其特征在于:按如下步骤进行:
步骤1:由视频输入当前第N帧图像,判断当前帧是否为第一帧:
由视频输入当前第N帧图像,并判断当前帧是否为视频的第一帧:
若是,利用第一帧初始化背景模型BGM,进行初始化:遍历第一帧的所有像素点,对任意一个像素点v(x),每个像素点的背景模型中含有N个样本,记为M(x)={v1,v2,…vk,…vN},N取值为20,每个像素的背景模型中的样本采用随机策略,N次随机选择该像素点的8邻域中的一个像素值作为该像素样本中的一个值;当第一帧遍历完,背景模型BGM就初始化完成;
若不是,则进入步骤2;
步骤2:判断当前帧是否为最后一帧帧号+1;
若是,则操作结束;
若不是,则进入步骤3;
步骤3:根据已经初始化的背景模型BGM,遍历当前帧中的某个像素点利用改进的自适应阈值来判断该像素点是背景点还是前景点;本步骤中的自适应阈值方法,是基于LBP-T描述字的,具体为:
步骤一,计算待分类像素背景模型的均值以及获得该像素的8邻域像素并将背景模型的均值放在当前像素位置上;
步骤二,统计出多个待分类像素与背景模型均值的差值分布规律,并构建多阈值结构图;
步骤三,计算当前像素的LBP-T值,用该值作为当前像素分类时的半径值;
若是背景点,则进入步骤4;
若是前景点,则进入步骤5;
步骤4:对应帧的掩码矩阵中对应位置设值为0,并根据该像素点位置是否在实际目标外接矩形框中来对背景模型BGM做出不同的更新策略,进入步骤9;
步骤5:对应帧的掩码矩阵中对应位置设值为255,并判断该帧是否遍历完毕并且当前帧号能够被某个正整数整除;
若不是,则进入步骤3;
若是,则进入步骤6;
步骤6:获取当前帧中静止区域,并判断静止区域的属性;
若静止区域为鬼影区域,进入步骤7;
若静止区域为实际运动目标区域,进入步骤8;
步骤7:局部替换策略更新背景模型BGM加快鬼影的消除,进入步骤9;
步骤8:保存实际运动目标外接矩形位置信息,进入步骤1;
步骤9:背景模型BGM更新完毕,进入步骤1。
2.根据权利要求1所述的一种改进的运动目标检测VIBE方法,其特征在于,在步骤3中,判断该像素点是背景点还是前景点,即像素分类的具体过程如下:
在欧式空间中,定义一个以v(x)为圆心,阈值R为半径的圆SR(v(x));这个圆表示与到圆心v(x)的距离小于阈值R的点的集合;
统计当前像素背景模型M(x)和v(x)距离小于R的数目,若大于给定阈值Dmin,则认为当前像素点和背景样本接近,当前像素划分为背景;否则,就划分为前景点;计算公式如下:
Figure FDA0003315157490000011
3.根据权利要求1所述的一种改进的运动目标检测VIBE方法,其特征在于,在步骤4中,对应帧的掩码矩阵中对应位置设值为0,并根据该像素点位置是否在实际目标外接矩形框中来对背景模型BGM做出不同的更新策略:
如果该像素点在实际目标外接矩形框中,则像素点不更新它的背景模型;
如果该像素点不在实际目标外接矩形框中,则它有
Figure FDA0003315157490000021
的几率用该像素点的像素值去替换它的背景模型中样本M(x)的一个值,
Figure FDA0003315157490000022
的取值范围在2到128之间;同时,也有
Figure FDA0003315157490000023
的几率用该像素点的像素值去替换它的某个邻域像素点的背景模型样本中的一个值;随后,进入步骤9。
4.根据权利要求1所述的一种改进的运动目标检测VIBE方法,其特征在于,
判断当前帧中静止区域的属性是否为鬼影的具体方法,即“鬼影”检测方法是:是基于轮廓相似性比较的方法,包括以下二个步骤:
步骤一,计算VIBE算法检测结果视频序列中的静止前景区域;
步骤二,对静止前景区域与当前帧中相同位置区域对应灰度图区域分别通过Canny算子提取轮廓,然后在给定的轮廓相似度公式上计算其相似度,通过轮廓相似度比较得到静止前景区域的属性。
CN201810498273.1A 2018-05-22 2018-05-22 一种改进的运动目标检测vibe方法 Expired - Fee Related CN108805897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810498273.1A CN108805897B (zh) 2018-05-22 2018-05-22 一种改进的运动目标检测vibe方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810498273.1A CN108805897B (zh) 2018-05-22 2018-05-22 一种改进的运动目标检测vibe方法

Publications (2)

Publication Number Publication Date
CN108805897A CN108805897A (zh) 2018-11-13
CN108805897B true CN108805897B (zh) 2022-01-21

Family

ID=64091508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810498273.1A Expired - Fee Related CN108805897B (zh) 2018-05-22 2018-05-22 一种改进的运动目标检测vibe方法

Country Status (1)

Country Link
CN (1) CN108805897B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636866A (zh) * 2018-12-13 2019-04-16 福建工程学院 基于降分辨率的随机聚类统计的前景提取方法
CN109785562B (zh) * 2018-12-29 2023-08-15 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 一种立式光电地面威胁警戒***及可疑目标识别方法
CN110084129B (zh) * 2019-04-01 2022-11-29 昆明理工大学 一种基于机器视觉的河流漂浮物实时检测方法
CN110363197B (zh) * 2019-06-22 2023-05-23 东北电力大学 基于改进视觉背景提取模型的视频感兴趣区域提取方法
CN110288630B (zh) * 2019-06-27 2021-11-09 浙江工业大学 一种背景建模的运动目标鬼影抑制方法
CN111104870B (zh) * 2019-11-27 2024-02-13 珠海欧比特卫星大数据有限公司 基于卫星视频的运动检测方法、装置、设备和存储介质
CN111080562B (zh) * 2019-12-06 2022-12-20 合肥科大智能机器人技术有限公司 一种基于增强图像对比的变电场所悬挂物识别方法
CN113129331B (zh) * 2019-12-31 2024-01-30 中移(成都)信息通信科技有限公司 目标移动轨迹检测方法、装置、设备及计算机存储介质
CN111259866B (zh) * 2020-03-06 2023-07-28 大连科技学院 一种基于改进背景差分法的海上舰船目标检测方法
CN111553931B (zh) * 2020-04-03 2022-06-24 中国地质大学(武汉) 一种用于室内实时监控的ViBe-ID前景检测方法
CN111985314B (zh) * 2020-07-09 2024-04-30 东南大学 一种基于ViBe与改进LBP的烟雾检测方法
CN112084880A (zh) * 2020-08-14 2020-12-15 江铃汽车股份有限公司 一种图像处理方法、装置、存储介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899839A (zh) * 2015-06-05 2015-09-09 河海大学 基于ViBe算法的鬼影快速抑制方法
CN106157332A (zh) * 2016-07-07 2016-11-23 合肥工业大学 一种基于ViBe算法的运动检测优化方法
WO2017028029A1 (zh) * 2015-08-14 2017-02-23 富士通株式会社 背景模型的提取方法、装置以及图像处理设备
CN106651782A (zh) * 2016-09-26 2017-05-10 江苏科海智能***有限公司 一种面向ViBe的前景鬼影消除方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899839A (zh) * 2015-06-05 2015-09-09 河海大学 基于ViBe算法的鬼影快速抑制方法
WO2017028029A1 (zh) * 2015-08-14 2017-02-23 富士通株式会社 背景模型的提取方法、装置以及图像处理设备
CN106157332A (zh) * 2016-07-07 2016-11-23 合肥工业大学 一种基于ViBe算法的运动检测优化方法
CN106651782A (zh) * 2016-09-26 2017-05-10 江苏科海智能***有限公司 一种面向ViBe的前景鬼影消除方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《Moving Object Detection with Vibe and Texture Feature》;Yumin Tian,et al;《PCM2016》;20161127;第150-159页 *
《一种基于阈值的自适应Vibe目标检测算法》;王辉,等;《计算机科学》;20151231;第154-157页 *
《监控视频中多目标检测与跟踪研究》;吴尔杰;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160515(第5期);第19-32页第三章 *

Also Published As

Publication number Publication date
CN108805897A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108805897B (zh) 一种改进的运动目标检测vibe方法
CN107872644B (zh) 视频监控方法及装置
Chung et al. An efficient hand gesture recognition system based on deep CNN
CN107016691B (zh) 基于超像素特征的运动目标检测方法
Van Droogenbroeck et al. Background subtraction: Experiments and improvements for ViBe
CN108470354B (zh) 视频目标跟踪方法、装置和实现装置
WO2022099598A1 (zh) 一种基于图像像素相对统计特征的视频动态目标检测的方法
CN105404847B (zh) 一种遗留物实时检测方法
CN111681249B (zh) 基于Grabcut的砂石颗粒的改进分割算法研究
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
JP2006209755A (ja) シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法
CN104835145B (zh) 基于自适应Codebook背景模型的前景检测方法
JP2008243187A (ja) ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法
CN111062974A (zh) 一种使用去除鬼影对前景目标提取的方法及***
CN105741319B (zh) 基于盲目更新策略和前景模型的改进视觉背景提取方法
CN109785356B (zh) 一种视频图像的背景建模方法
Iraei et al. Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram
Ma et al. Background subtraction based on multi-channel SILTP
Wang et al. AMBER: Adapting multi-resolution background extractor
Huynh-The et al. Locally statistical dual-mode background subtraction approach
Cheng et al. A novel improved ViBe algorithm to accelerate the ghost suppression
Chun-Hyok et al. A novel motion detection approach based on the improved ViBe algorithm
Yang et al. A hierarchical approach for background modeling and moving objects detection
Renno et al. Shadow Classification and Evaluation for Soccer Player Detection.
Dahirou et al. Face Detection with Viola Jones Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220121

CF01 Termination of patent right due to non-payment of annual fee