CN103617632A - 一种结合相邻帧差法和混合高斯模型的运动目标检测方法 - Google Patents

一种结合相邻帧差法和混合高斯模型的运动目标检测方法 Download PDF

Info

Publication number
CN103617632A
CN103617632A CN201310586151.5A CN201310586151A CN103617632A CN 103617632 A CN103617632 A CN 103617632A CN 201310586151 A CN201310586151 A CN 201310586151A CN 103617632 A CN103617632 A CN 103617632A
Authority
CN
China
Prior art keywords
gauss model
value
frame
region
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310586151.5A
Other languages
English (en)
Other versions
CN103617632B (zh
Inventor
宦若虹
潘赟
於正强
王楚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Gaohang Intellectual Property Operation Co ltd
Zhejiang Haining Warp Knitting Industrial Park Development Co ltd
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201310586151.5A priority Critical patent/CN103617632B/zh
Publication of CN103617632A publication Critical patent/CN103617632A/zh
Application granted granted Critical
Publication of CN103617632B publication Critical patent/CN103617632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种结合相邻帧差法和混合高斯模型的运动目标检测方法,包括以下步骤:1)获取图像序列,包括当前帧和前一帧图像;2)对当前帧利用改进的相邻帧差法划分为临时运动区域和临时背景区域;3)对2)中产生的2个区域分别用混合高斯模型进行匹配,根据匹配结果再分成不同的区域;4)对不同区域内的高斯模型进行不同的更新;5)根据3)中产生的区域确定最后运动目标区域。在改进的相邻帧差法中加入了梯度比较和中值滤波,突出了运动目标边界和抗噪声干扰能力。对高斯混合模型的更新率改变增加了其对背景前景转换的适应性。该方法的检测结果既缓解了相邻帧差法产生的空洞问题,也消除了背景物体突然转为运动物体后产生的“影子”问题。

Description

一种结合相邻帧差法和混合高斯模型的运动目标检测方法
技术领域
本发明涉及视频图像处理领域,特别是一种视频运动目标检测方法。
背景技术
视频监控对于个人和公共安全是一种十分有效的手段。它通过摄像机将拍摄到的视频数据进行处理,能够使相关人员实时监控一些重要的区域场所。智能视频监控一般包括运动目标检测、目标跟踪、目标分类识别和行为分析等。所以运动目标检测是实现智能视频监控的基础,运动目标检测结果的质量将直接影响后续的处理分析。
一般运动目标检测技术是基于检测图像像素的变化。常用的运动目标检测方法有光流法、背景差分法和相邻帧差法。光流法对噪声十分敏感且计算复杂,很难实现实时处理。背景差分法对光照、天气等外界条件的变化比较敏感。基于混合高斯模型的背景差分法为每个像素建立多个高斯模型,能够提高对环境变化的适应性,但是收敛速度较慢,对于突然变化的物体会产生运动物体留下的“影子”。相邻帧差法利用相邻帧间的差异进行目标检测,算法简单且实时性好,但是会产生物体内部空洞问题。
发明内容
本发明克服现有技术的缺点,提出了一种结合相邻帧差法和混合高斯模型的运动目标检测方法,结合两种方法的优点,既缓解了相邻帧差法产生的空洞问题,也消除了背景物体突然转为运动物体后产生的“影子”问题,可对检测区进行准确、实时的运动目标检测。
一种结合相邻帧差法和混合高斯模型的运动目标检测方法,包括以下步骤:
1)获取图像序列,包括当前帧和前一帧图像;
2)对当前帧利用改进的相邻帧差法划分为临时运动区域和临时背景区域;
3)对2)中产生的2个区域分别用混合高斯模型进行匹配,根据匹配结果再分成不同的区域;
4)不同区域内的高斯模型进行不同的更新;
5)根据3)中产生的区域确定最后运动目标区域;
所述步骤2)包括:
a)将当前帧和前一帧相减取绝对值,设fk(x,y)和fk+1(x,y)分别表示前一帧和当前帧中坐标点(x,y)的像素值,计算它们的差分结果dx(x,y):
dk(x,y)=|fk+1(x,y)-fk(x,y)|
b)计算当前帧的像素点在M×M窗口中的梯度值Gradk(x,y),当M=5:
Grad k ( x , y ) = Σ i = - 2 2 Σ j = - 2 2 ( | f k ( x + i , y + j + 1 ) - f k ( x + i , y + j ) | ) + Σ i = - 2 2 Σ j = - 2 2 ( | f k ( x + i + 1 , y + j ) - f k ( x + i , y + j ) | )
c)比较相邻两帧相同坐标位置像素的梯度值,梯度相差越大在计算帧差时的权重系数就越大,令r表示梯度系数,Fdk(x,y)表示引入梯度系数的帧差值,计算Fdk(x,y):
Fdk(x,y)=dk(x,y)×r
r的值与相邻两帧相同坐标的像素点的梯度差别有关系,梯度相差越大,r的值也越大;
d)将Fdk(x,y)与前J帧的帧差数据进行排序,将中间的值作为新的帧差Fdk(x,y);
e)把新的帧差Fdk(x,y)与阈值T进行比较,如果大于阈值则把该点标为1,如果小于阈值则标为0;
f)对阈值化以后的二值图像进行连通分量处理,通过连通分量处理后图像被分为临时运动区域afg和临时背景区域abg,其中afg包括相邻帧差法计算出的运动物体和其内部空洞区域;
所述步骤3)包括:
g)混合高斯模型中包含N个高斯模型,对于第i个高斯模型,在t时刻其参数包括:平均值μi,t、方差
Figure BDA0000417698700000034
和权重wi,t,参数在第一帧图像时设定初值;
h)对于像素值为Xt的像素点,判断其与某个高斯模型匹配的条件是:
|Xti,t-1|<2.5σi,t-1
如果满足这个条件则该高斯模型与像素点匹配,如果不满足则没有匹配上,把高斯模型按照的大小顺序进行排序,排名前B个的高斯模型作为背景模型;对afg和abg区域像素点分别进行混合高斯模型匹配,根据匹配结果把图像分为4个区域:①afg内匹配上的区域afgm,②afg内没有匹配上的区域afgu,③abg内匹配上的区域abgm,④abg内没有匹配上的区域abgu
所述步骤4)包括:
i)afgm区域内高斯模型的更新:
wi,t=(1-α)wi,t-1+αMi,t
μi,t=(1-ρ)μi,t-1+Mi,tρXt+ρμi,t-1(1-Mi,t)
&sigma; i , t 2 = ( 1 - &rho; ) &sigma; i , t - 1 2 + M i , t &rho; ( X t - &mu; i , t ) T ( X t - &mu; i , t ) + ( 1 - M i , t ) &rho;&sigma; i , t - 1 2
其中,α为参数更新率,这里取较大的值(例如0.1),wi,t、μi,t
Figure BDA0000417698700000033
分别为第i个高斯模型在t时刻的权重、平均值和方差,
Figure BDA0000417698700000041
Mi,t的值与第i个高斯模型在t时刻是否与像素点匹配有关,如果匹配取1,不匹配取0;
j)afgu区域内的高斯模型不更新,也不建立新的高斯模型;
k)abgm区域内高斯模型更新方法和i)中类似,不同的是参数更新率α取比较适中的值(例如0.01);
l)abgu区域内除了权重最小的高斯模型之外,其余均按照i)中的公式进行更新,参数更新率α取值在0.01左右;新建一个高斯模型来替代权重最小的模型,新建的高斯模型的参数设置为:均值μt取当前的像素值Xt,方差σt取一个比较小的值,权重wt取值较大使得归一化以后该新建模型排名较高;
所述步骤5)包括:
m)综合考虑f)中计算出的运动像素点和afgu区域,重新标记连通分量后确定最终的运动目标区域。
本发明的优点是:对于相邻帧差法,增加了梯度比较和中值滤波,突出了运动目标边界和抗噪声干扰能力。通过结合相邻帧差法和混合高斯模型的检测结果,把图像分为4个区域,对每个区域内的混合高斯模型采用不同的参数更新率。和普通的混合高斯模型相比,减少了运动目标对背景模型的干扰,对于物体在运动与静止之间转换的情况也具有很好的适应性。最终运动物体的判定也是结合两种方法的检测结果,既缓解了相邻帧差法产生的空洞问题,也消除了背景物体突然转为运动物体后产生的“影子”问题。
附图说明
图1是本发明方法的实施流程图
图2是存在重叠的标记矩形框
图3是测试视频的运动目标检测结果
具体实施方式
本发明提出的结合相邻帧差法和混合高斯模型的运动目标检测方法,其实施流程图如图1所示,通过获得的相邻2帧图像计算帧差和梯度差,把梯度差结果引入到帧差中,把当前帧差和前4帧的帧差数据进行排序,将中间的值作为新的帧差,帧差经过阈值比较后变为0或1的2进制数。2进制数表示的二值图像经过连通分量处理,分为前景区域和背景区域,分别对这2个区域使用混合高斯模型进行匹配,根据匹配结果把图像细分为4个区域,根据不同的区域对高斯模型采取不同的更新方法,结合相邻帧差法和混合高斯模型并重新进行连通分量处理得出运动目标区域。
下面结合说明书附图对本发明方法进行详细说明。
图1是本发明方法的实施流程图。首先获取相邻的2帧图像,此处的“相邻”既可以是连续的相邻2帧也可以是中间隔了一定帧数的2帧图像。这根据实际的情况而定,如果视频速度太快或是对监控的要求不是很高,可以不取连续帧而隔几帧获取一帧。
将当前帧和前一帧相减取绝对值,设fk(x,y)和fk+1(x,y)分别表示前一帧和当前帧中坐标点(x,y)的像素值,计算它们的差分结果dx(x,y):
dk(x,y)=|fk+1(x,y)-fk(x,y)|
计算第k帧图像中坐标为(x,y)的像素点在M×M窗口中的梯度值Gradk(x,y),当M=5:
Grad k ( x , y ) = &Sigma; i = - 2 2 &Sigma; j = - 2 2 ( | f k ( x + i , y + j + 1 ) - f k ( x + i , y + j ) | ) + &Sigma; i = - 2 2 &Sigma; j = - 2 2 ( | f k ( x + i + 1 , y + j ) - f k ( x + i , y + j ) | )
如果相邻2帧相同坐标的像素点的梯度差值越大,则表明该像素点越有可能是运动点。所以梯度差越大,梯度差的权重r越大,一种确定r的方法如下:
r = 1 Grad max &le; 3 2 Grad min 3 2 3 2 Grad min < Grad max &le; 5 2 Grad min 2 Grad max > 5 2 Grad min
其中Gradmin是Gradk和Gradk-1中的最小值,Gradmax是Gradk和Gradk-1中的最大值。
令Fdk(x,y)表示引入梯度系数的帧差值,计算Fdk(x,y):
Fdk(x,y)=dk(x,y)×r
引入梯度差能够很好的突出运动物体边界以及内部边缘,突出运动像素点,为后面的连通分量处理提供方便。但是因为采集到的图像中具有随机性的噪声,梯度系数也会将噪声的影响放大。为了消除噪声的影响,还需要将帧差通过中值滤波。把当前帧差Fdk(x,y)与前J帧的帧差数据进行排序,将中间的值输出作为新的帧差Fdk(x,y),J的取值视具体情况而定,例如为5。
经过阈值处理后的结果还是比较粗糙的,为了得到比较精确的运动物体的轮廓和大小,还需要对阈值化后的图像数据进行连通区域的标记。采用是8邻域求连通区域,如果当前点为1,则修改该点的值使之为0,并对其周围8个象素点进行搜索,如果周围8个点中有值为1的点,则修改这些点的值使其为0并记录这些点,然后再分别以这些点为中心进行搜索。重复上述过程,直至全部为0。标记过的连通分量都是用矩形框的形式表示的,矩形框内表示的是帧差大于阈值的像素。虽然连通分量不存在重叠,但是标记的矩形框却有可能存在重叠,如图2所示,所以就需要对重叠的连通分量进行合并,以取得更加准确的运动物体形状。通过连通分量处理后图像被分为临时运动区域afg和临时背景区域abg,其中afg包括相邻帧差法计算出的运动物体和其内部空洞区域。
对临时运动区域afg和临时背景区域abg分别用混合高斯模型进行匹配,根据匹配结果再分成不同的区域。混合高斯模型中模型的个数N的取值一般为5~7个,可以根据计算机的存储容量和运算能力进行调整。对于第i个高斯模型,在t时刻其参数包括:平均值μi,t、方差
Figure BDA0000417698700000073
和权重wi,t,参数在第一帧图像时设定初值;初始化混合高斯模型参数时,平均值取第一帧图像的对应像素点值X1,方差尽量取一个比较大的值。
对于像素值为Xt的像素点,判断其与某个高斯模型匹配的条件是:
|Xti,t-1|<2.5σi,t-1
如果满足这个条件则该高斯模型与像素点匹配,如果不满足则没有匹配上,把高斯模型按照
Figure BDA0000417698700000071
的大小顺序进行排序,排名前B个的高斯模型作为背景模型,B的取值标准是:
Figure BDA0000417698700000072
即至少前B个高斯模型的权重wi,t之和大于T,T的值在0~1之间。如果T比较大则有多个高斯分布模型来描述背景,这对于摇晃的树等这样的干扰背景处理效果较好,但是也有可能出现把运动物体当作背景的错误。如果T比较小则只有一个高斯分布模型来描述背景。
对afg和abg区域像素点分别进行混合高斯模型匹配,根据匹配结果把图像分为4个区域:①afg内匹配上的区域afgm,②afg内没有匹配上的区域afgu,③abg内匹配上的区域abgm,④abg内没有匹配上的区域abgu
不同区域内的高斯模型进行不同的更新:
afgm区域内高斯模型的更新:
wi,t=(1-α)wi,t-1+αMi,t
μi,t=(1-ρ)μi,t-1+Mi,tρXt+ρμi,t-1(1-Mi,t)
&sigma; i , t 2 = ( 1 - &rho; ) &sigma; i , t - 1 2 + M i , t &rho; ( X t - &mu; i , t ) T ( X t - &mu; i , t ) + ( 1 - M i , t ) &rho;&sigma; i , t - 1 2
其中,α为参数更新率,这里取较大的值(例如0.1),wi,t、μi,t
Figure BDA0000417698700000082
分别为第i个高斯模型在t时刻的权重、平均值和方差,Mi,t的值与第i个高斯模型在t时刻是否与像素点匹配有关,如果匹配取1,不匹配取0;
afgu区域内的高斯模型不更新,也不建立新的高斯模型;
abgm区域内高斯模型更新方法和afgm区域中类似,不同的是参数更新率α取比较适中的值(例如0.01);
abgu区域内除了权重最小的高斯模型之外,其余均按照afgm区域中的公式进行更新,参数更新率α取值在0.01左右;新建一个高斯模型来替代权重最小的模型,新建的高斯模型的参数设置为:均值μt取当前的像素值Xt,方差σt取一个比较小的值,权重wt取值较大使得归一化以后该新建模型排名较高。
混合高斯分布模型虽然能够对环境背景的变化具有一定的适应性,但是其参数的更新率是固定的,如果参数更新率太小则背景更新太慢,对于背景的突然变化响应时间会比较慢,而如果参数更新率太快,就失去其描述复杂背景的能力。所以在本算法中,参数更新率α可以根据相邻帧差法的结果进行动态的调整:区域afgm内像素点的高斯模型赋予比较大的参数更新率(0.1);区域afgu内两种方法的结果比较一致,为了减少运动目标对背景的影响,不构建新的高斯分布;区域abgm内的高斯模型参数更新率采用比较适中的更新率(0.01),既能减少噪声的影响也能对背景进行适当的更新;区域abgu内像素点需要重新构造一个高斯模型,并且分配一个比较高的权重wt(如0.3)和比较小的方差σt
最后,综合考虑相邻帧差法计算出的运动点和运动物体以及afgu区域,重新标记连通分量后确定最终的运动目标区域。
下面以一个例子来说明本发明方法处理结果的优越性。图3是采用Wallflower的5个测试视频序列作为测试源,采用本发明方法处理后得出的其中一帧的运动目标检测结果,并与基准结果进行比较。基准结果是手工得到的,能比较精确的表示运动物体。这5个测试视频分别表示不同的问题类型,能反映出本发明方法的综合处理能力。视频Bootstrap中一直都有多个物体在运动。视频Camouflage中一个人走进电脑并覆盖了电脑,并且人的衣服颜色和电脑颜色非常接近。视频LightSwitch中屋内的亮度有几次较大的变化,并且椅子会由静止变为运动。视频MovedObject中有一个人进入屋子里,移动电话和椅子后又离开,被移动的物体也会融入背景中。视频TimeOfDay中房间亮度突然变亮,并且有一个人走进来坐在沙发上。从图3可知本发明方法能够比较好的缓解相邻帧差法的空洞问题(见在视频Camouflage中的检测结果),对于背景和运动区域的突然转换问题也可以较好的解决(见视频LightSwitch和MovedObject中的检测结果)。本发明方法和其他方法的检测错误数目比较结果如表1所示,其中False neg表示的是基准结果里标注运动点而检测结果没有标出的错误,False pos表示的是基准结果中不是运动点却被检测结果标为运动点的错误。从表1中可见本发明方法的检测错误率较其他方法低,能较为精确地检测出运动物体。
Figure BDA0000417698700000101
表1
显而易见,在不偏离本发明的真实精神和范围的前提下,在此描述的本发明可以有许多变化。因此,所有对于本领域技术人员来说显而易见的改变,都应包括在本权利要求书所涵盖的范围之内。本发明所要求保护的范围仅由所述的权利要求书进行限定。

Claims (5)

1.一种结合相邻帧差法和混合高斯模型的运动目标检测方法,其特征为,包括以下步骤: 
1)获取图像序列,包括当前帧和前一帧图像; 
2)对当前帧利用改进的相邻帧差法划分为临时运动区域和临时背景区域; 
3)对2)中产生的2个区域分别用混合高斯模型进行匹配,根据匹配结果再分成不同的区域; 
4)不同区域内的高斯模型进行不同的更新; 
5)根据3)中产生的区域确定最后运动目标区域。 
2.如1中所述的运动目标检测算法,其特征在于,所述步骤2)包括: 
a)将当前帧和前一帧相减取绝对值,设fk(x,y)和fk+1(x,y)分别表示前一帧和当前帧中坐标点(x,y)的像素值,计算它们的差分结果dx(x,y): 
dk(x,y)=|fk+1(x,y)-fk(x,y)| 
b)计算当前帧的像素点在M×M窗口中的梯度值Gradk(x,y),当M=5: 
c)比较相邻两帧相同坐标位置像素的梯度值,梯度相差越大在计算帧差时的权重系数就越大,令r表示梯度系数,Fdk(x,y)表示引入梯度系数的帧差值,计算Fdk(x,y): 
Fdk(x,y)=dk(x,y)×r 
r的值与相邻两帧相同坐标的像素点的梯度差别有关系,梯度相差越大,r的值也越大; 
d)将Fdk(x,y)与前J帧的帧差数据进行排序,将中间的值作为新的帧差Fdk(x,y); 
e)把新的帧差Fdk(x,y)与阈值T进行比较,如果大于阈值则把该点标为1,如果小于阈值则标为0; 
f)对阈值化以后的二值图像进行连通分量处理,通过连通分量处理后图像被分为临时运动区域afg和临时背景区域abg,其中afg包括相邻帧差法计算出的运动物体和其内部空洞区域。 
3.如1中所述的运动目标检测算法,其特征在于,所述步骤3)包括: 
g)混合高斯模型中包含N个高斯模型,对于第i个高斯模型,在t时刻其参数包括:平均值μi,t、方差
Figure FDA0000417698690000025
和权重wi,t,参数在第一帧图像时设定初值; 
h)对于像素值为Xt的像素点,判断其与某个高斯模型匹配的条件是: 
|Xti,t-1|<2.5σi,t-1
如果满足这个条件则该高斯模型与像素点匹配,如果不满足则没有匹配上,把高斯模型按照
Figure FDA0000417698690000021
的大小顺序进行排序,排名前B个的高斯模型作为背景模型;对afg和abg区域像素点分别进行混合高斯模型匹配,根据匹配结果把图像分为4个区域:①afg内匹配上的区域afgm,②afg内没有匹配上的区域afgu,③abg内匹配上的区域abgm,④abg内没有匹配上的区域abgu。 
4.如1中所述的运动目标检测算法,其特征在于,所述步骤4)包括: 
i)afgm区域内高斯模型的更新: 
wi,t=(1-α)wi,t-1+αMi,t
μi,t=(1-ρ)μi,t-1+Mi,tρXt+ρμi,t-1(1-Mi,t
Figure FDA0000417698690000022
其中,α为参数更新率,这里取较大的值(例如0.1),wi,t、μi,t
Figure FDA0000417698690000023
分别为第i个高斯模型在t时刻的权重、平均值和方差, 
Figure FDA0000417698690000024
Mi,t的值与第i个高斯模型在t时刻是否与像素点匹配有关,如果匹配取1,不匹配取0; 
j)afgu区域内的高斯模型不更新,也不建立新的高斯模型; 
k)abgm区域内高斯模型更新方法和i)中类似,不同的是参数更新率α取比较适中的值(例如0.01); 
l)abgu区域内除了权重最小的高斯模型之外,其余均按照i)中的公式进行更新,参数更新率α取值在0.01左右;新建一个高斯模型来 替代权重最小的模型,新建的高斯模型的参数设置为:均值μt取当前的像素值Xt,方差σt取一个比较小的值,权重wt取值较大使得归一化以后该新建模型排名较高。 
5.如1中所述的运动目标检测算法,其特征在于,所述步骤5)包括: 
m)综合考虑f)中计算出的运动像素点和afgu区域,重新标记连通分量后确定最终的运动目标区域。 
CN201310586151.5A 2013-11-19 2013-11-19 一种结合相邻帧差法和混合高斯模型的运动目标检测方法 Active CN103617632B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310586151.5A CN103617632B (zh) 2013-11-19 2013-11-19 一种结合相邻帧差法和混合高斯模型的运动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310586151.5A CN103617632B (zh) 2013-11-19 2013-11-19 一种结合相邻帧差法和混合高斯模型的运动目标检测方法

Publications (2)

Publication Number Publication Date
CN103617632A true CN103617632A (zh) 2014-03-05
CN103617632B CN103617632B (zh) 2017-06-13

Family

ID=50168336

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310586151.5A Active CN103617632B (zh) 2013-11-19 2013-11-19 一种结合相邻帧差法和混合高斯模型的运动目标检测方法

Country Status (1)

Country Link
CN (1) CN103617632B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335717A (zh) * 2015-10-29 2016-02-17 宁波大学 基于智能移动终端视频抖动分析的人脸识别***
CN105374051A (zh) * 2015-10-29 2016-03-02 宁波大学 智能移动终端防镜头抖动视频运动目标检测方法
CN105913068A (zh) * 2016-04-27 2016-08-31 北京以萨技术股份有限公司 一种用于描述图像特征的多维方向梯度表示方法
CN106157272A (zh) * 2016-06-17 2016-11-23 奇瑞汽车股份有限公司 建立背景图像的方法和装置
CN106204636A (zh) * 2016-06-27 2016-12-07 北京大学深圳研究生院 基于监控视频的视频前景提取方法
CN107450583A (zh) * 2017-08-23 2017-12-08 浙江工业大学 基于高通骁龙处理器的无人机运动跟踪***
CN107507221A (zh) * 2017-07-28 2017-12-22 天津大学 结合帧差法和混合高斯模型的运动目标检测与跟踪方法
CN108122243A (zh) * 2016-11-26 2018-06-05 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN108230369A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种改进的相邻帧差法
CN108510527A (zh) * 2017-12-07 2018-09-07 上海悠络客电子科技股份有限公司 一种基于帧差法和运动点聚类的运动目标检测方法
CN109165600A (zh) * 2018-08-27 2019-01-08 浙江大丰实业股份有限公司 舞台演出人员智能搜索平台
CN109993767A (zh) * 2017-12-28 2019-07-09 北京京东尚科信息技术有限公司 图像处理方法和***
CN111523385A (zh) * 2020-03-20 2020-08-11 北京航空航天大学合肥创新研究院 一种基于帧差法的静止车辆检测方法及***
CN111553931A (zh) * 2020-04-03 2020-08-18 中国地质大学(武汉) 一种用于室内实时监控的ViBe-ID前景检测方法
CN112347899A (zh) * 2020-11-03 2021-02-09 广州杰赛科技股份有限公司 一种运动目标图像提取方法、装置、设备及存储介质
CN113435237A (zh) * 2020-03-23 2021-09-24 丰田自动车株式会社 物体状态识别装置、识别方法和识别用程序以及控制装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102024146A (zh) * 2010-12-08 2011-04-20 江苏大学 猪舍监控视频中前景提取方法
CN102568005A (zh) * 2011-12-28 2012-07-11 江苏大学 一种基于混合高斯模型的运动目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102024146A (zh) * 2010-12-08 2011-04-20 江苏大学 猪舍监控视频中前景提取方法
CN102568005A (zh) * 2011-12-28 2012-07-11 江苏大学 一种基于混合高斯模型的运动目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RUI YAN等: "Moving Object Detection Based on an Improved Gaussian Mixture Background Model", 《2009 ISECS INTERNATIONAL COLLOQUIUM ON COMPUTING,COMMUNICATION,CONTROL,AND MANAGEMENT》, 9 August 2009 (2009-08-09), pages 12 - 15, XP031532809 *
陈敏: "视频监控中运动目标检测算法的研究", 《中国优秀硕士论文全文数据库》, no. 04, 15 April 2012 (2012-04-15), pages 20 - 30 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374051B (zh) * 2015-10-29 2018-04-24 宁波大学 智能移动终端防镜头抖动视频运动目标检测方法
CN105374051A (zh) * 2015-10-29 2016-03-02 宁波大学 智能移动终端防镜头抖动视频运动目标检测方法
CN105335717B (zh) * 2015-10-29 2019-03-05 宁波大学 基于智能移动终端视频抖动分析的人脸识别***
CN105335717A (zh) * 2015-10-29 2016-02-17 宁波大学 基于智能移动终端视频抖动分析的人脸识别***
CN105913068A (zh) * 2016-04-27 2016-08-31 北京以萨技术股份有限公司 一种用于描述图像特征的多维方向梯度表示方法
CN106157272A (zh) * 2016-06-17 2016-11-23 奇瑞汽车股份有限公司 建立背景图像的方法和装置
CN106157272B (zh) * 2016-06-17 2019-01-01 奇瑞汽车股份有限公司 建立背景图像的方法和装置
CN106204636A (zh) * 2016-06-27 2016-12-07 北京大学深圳研究生院 基于监控视频的视频前景提取方法
CN106204636B (zh) * 2016-06-27 2019-03-22 北京大学深圳研究生院 基于监控视频的视频前景提取方法
CN108122243A (zh) * 2016-11-26 2018-06-05 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN108122243B (zh) * 2016-11-26 2021-05-28 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN108230369A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种改进的相邻帧差法
CN107507221A (zh) * 2017-07-28 2017-12-22 天津大学 结合帧差法和混合高斯模型的运动目标检测与跟踪方法
CN107450583A (zh) * 2017-08-23 2017-12-08 浙江工业大学 基于高通骁龙处理器的无人机运动跟踪***
CN108510527A (zh) * 2017-12-07 2018-09-07 上海悠络客电子科技股份有限公司 一种基于帧差法和运动点聚类的运动目标检测方法
CN108510527B (zh) * 2017-12-07 2024-05-03 上海悠络客电子科技股份有限公司 一种基于帧差法和运动点聚类的运动目标检测方法
CN109993767A (zh) * 2017-12-28 2019-07-09 北京京东尚科信息技术有限公司 图像处理方法和***
CN109165600A (zh) * 2018-08-27 2019-01-08 浙江大丰实业股份有限公司 舞台演出人员智能搜索平台
CN109165600B (zh) * 2018-08-27 2021-11-26 浙江大丰实业股份有限公司 舞台演出人员智能搜索平台
CN111523385B (zh) * 2020-03-20 2022-11-04 北京航空航天大学合肥创新研究院 一种基于帧差法的静止车辆检测方法及***
CN111523385A (zh) * 2020-03-20 2020-08-11 北京航空航天大学合肥创新研究院 一种基于帧差法的静止车辆检测方法及***
CN113435237A (zh) * 2020-03-23 2021-09-24 丰田自动车株式会社 物体状态识别装置、识别方法和识别用程序以及控制装置
CN113435237B (zh) * 2020-03-23 2023-12-26 丰田自动车株式会社 物体状态识别装置、识别方法和计算机可读的记录介质以及控制装置
CN111553931A (zh) * 2020-04-03 2020-08-18 中国地质大学(武汉) 一种用于室内实时监控的ViBe-ID前景检测方法
CN112347899A (zh) * 2020-11-03 2021-02-09 广州杰赛科技股份有限公司 一种运动目标图像提取方法、装置、设备及存储介质
CN112347899B (zh) * 2020-11-03 2023-09-19 广州杰赛科技股份有限公司 一种运动目标图像提取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN103617632B (zh) 2017-06-13

Similar Documents

Publication Publication Date Title
CN103617632A (zh) 一种结合相邻帧差法和混合高斯模型的运动目标检测方法
US9311534B2 (en) Method and apparatus for tracking object
CN106600625A (zh) 检测小型生物的图像处理方法及装置
CN102194443A (zh) 视频画中画窗口的显示方法、***及视频处理设备
CN104599290B (zh) 一种面向视频感知节点的目标检测方法
CN103455991A (zh) 一种多聚焦图像融合方法
CN102147861A (zh) 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法
CN109919053A (zh) 一种基于监控视频的深度学习车辆停车检测方法
CN103996045B (zh) 一种基于视频的多种特征融合的烟雾识别方法
CN103150738A (zh) 分布式多传感器运动目标的检测方法
Lian et al. A novel method on moving-objects detection based on background subtraction and three frames differencing
CN103955682A (zh) 基于surf兴趣点的行为识别方法及装置
CN102663775A (zh) 面向低帧率视频的目标跟踪方法
CN104463869A (zh) 一种视频火焰图像复合识别方法
CN103400368A (zh) 基于图论和超像素的并行快速sar图像分割方法
CN103927519A (zh) 一种实时人脸检测与过滤方法
Hsu et al. Industrial smoke detection and visualization
CN105741326B (zh) 一种基于聚类融合的视频序列的目标跟踪方法
Yang et al. Digital video intrusion intelligent detection method based on narrowband Internet of Things and its application
CN106254723B (zh) 一种实时监测视频噪声干扰的方法
CN103886324A (zh) 一种基于对数似然图像的尺度自适应目标跟踪方法
CN105096343B (zh) 一种移动目标跟踪方法及装置
CN106815567A (zh) 一种基于视频的火焰检测方法及装置
CN110111368B (zh) 一种基于人体姿态识别的相似移动目标的检测跟踪方法
Khashman Automatic detection, extraction and recognition of moving objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191226

Address after: 314400 No.2, Fengshou Avenue, Haining warp knitting industrial park, Jiaxing City, Zhejiang Province

Patentee after: Zhejiang Haining Warp Knitting Industrial Park Development Co.,Ltd.

Address before: 510000 unit 2414-2416, building, No. five, No. 371, Tianhe District, Guangdong, China

Patentee before: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

Effective date of registration: 20191226

Address after: 510000 unit 2414-2416, building, No. five, No. 371, Tianhe District, Guangdong, China

Patentee after: GUANGDONG GAOHANG INTELLECTUAL PROPERTY OPERATION Co.,Ltd.

Address before: 310014 Hangzhou city in the lower reaches of the city of Zhejiang Wang Road, No. 18

Patentee before: Zhejiang University of Technology

TR01 Transfer of patent right