CN107563272B - 一种无重叠视域监控***中目标匹配方法 - Google Patents

一种无重叠视域监控***中目标匹配方法 Download PDF

Info

Publication number
CN107563272B
CN107563272B CN201710447010.3A CN201710447010A CN107563272B CN 107563272 B CN107563272 B CN 107563272B CN 201710447010 A CN201710447010 A CN 201710447010A CN 107563272 B CN107563272 B CN 107563272B
Authority
CN
China
Prior art keywords
target
view
pedestrian
targets
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710447010.3A
Other languages
English (en)
Other versions
CN107563272A (zh
Inventor
赵高鹏
沈玉鹏
李双双
刘天宇
王超尘
王建宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201710447010.3A priority Critical patent/CN107563272B/zh
Publication of CN107563272A publication Critical patent/CN107563272A/zh
Application granted granted Critical
Publication of CN107563272B publication Critical patent/CN107563272B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无重叠视域监控***中目标匹配方法,包括以下步骤:1:建立视域A和视域B的背景模型;2:对视域A中行人目标进行跟踪,当目标即将离开视域A时,利用背景差分,分割出完整的行人目标IA;3:提取行人目标的颜色名特征,作为目标的表现模型MA;4:在视域B中进行行人目标的检测,利用背景差分,分割出可能的行人目标IB;5:将行人目标IA和IB从RGB空间转到HSV空间,进行亮度校正;6:提取亮度校正后的IB的颜色名特征,作为目标的表现模型MB;7:确定监控网络的时空约束;8:由MA、MB及监控网络的时空约束构建最大后验概率问题;此方法对无重叠视域下光照变化、环境差异对目标匹配造成的影响具有较强的鲁棒性。

Description

一种无重叠视域监控***中目标匹配方法
技术领域
本发明属于计算机视觉领域,具体涉及视频监控技术领域,特别涉及一种无重叠视域监控***中目标匹配的方法。
背景技术
随着摄像机监控技术的发展,大量的监控摄像头被应用于各种公共场合,视频中的行人是我们重点监控对象之一。由于地理环境和成本的限制,使用摄像机覆盖所有的监控区域很不现实。因此,无重叠视域的摄像机联合监控在监控***中应用越来越多。不同时刻、不同摄像机中同一目标的正确识别,有利于理解目标在整个监控场景中的行为。但是,不同摄像机的姿态、观测方位的不同,使得目标在不同摄像机中的几何特征也有所不同。与其他特征相比,颜色特征对图像本身的尺寸、方向、视角的依赖性较小,具有较高的鲁棒性。但由于摄像机参数、光照条件的影响,目标在不同摄像机中呈现的亮度也会不一样,因此在采用颜色特征时,需要先校正亮度。同时需要考虑监控网络的拓扑结构,从而尽可能地提高无重叠视域下的目标匹配率。
亮度校正函数(Brightness Transfer Function,BTF)是一种颜色校正的方法,为目标的颜色特征在两摄像机之间的变化提供了一种转换模型。Javed O等人在《AppearanceModeling for Tracking in Multiple Non-Overlapping Cameras》中提出以目标作为媒介,建立摄像机监控场景间亮度映射关系的方法。因为同一目标在两个有着明暗差异的不同场景中,显示出的不同亮度特征,反映出的也是这两个场景的亮度差异。
在建立摄像机间的时空约束方面,Javed O等人在《Tracking Across MultipleNon-Overlapping Cameras》中使用Parzen窗和高斯核的混合概率密度估计器估计出无重叠的多个摄像头的拓扑结构和目标路径概率。Ellis等人在《Learning a Multi-Cameratopology》中利用大量的目标观测数据,通过非监督学习的方法,为一个多摄像机空间网络自动建立起摄像机之间的时间空间拓扑关系。但这些摄像机自动标定方法存在较大限制,在某些情况下无法得到或者结果不准确。
基于贝叶斯估计模型的方法被用来融合目标的表现模型的相似信息和监控网络的时空约束信息,从而实现无重叠视域下的目标匹配。如Huang等人在《ObjectIdentification in a Bayesian Context》中建立了一个贝叶斯估计框架来融合车辆出现和离开视域时的时间、位置、速度和目标车辆的颜色信息,从而来匹配识别高速公路上相邻两个摄像机检测到的车辆。
发明内容
本发明的目的:本发明在于提出一种无重叠视域监控***中目标匹配方法,首先通过调整图像HSV空间中V通道的像素值分布进行亮度校正;然后提取亮度校正后目标的颜色名特征作为目标的表现模型;接着在贝叶斯估计模型的框架下,融合目标的表现模型与监控网络的时空约束,构建最大后验概率问题;最终通过后验概率与阈值的比较来判决目标是否一致;此方法对无重叠视域下光照变化、环境差异对目标匹配造成的影响具有较强的鲁棒性。
本发明的具体实现步骤依次为:
一种无重叠视域监控***中目标匹配方法,包括以下步骤:
步骤1:建立视域A和视域B的背景模型;
步骤2:对视域A中行人目标进行跟踪,当目标即将离开视域A时,利用背景差分,分割出完整的行人目标IA
步骤3:提取行人目标的颜色名特征,作为目标的表现模型MA
步骤4:在视域B中进行行人目标的检测,利用背景差分,分割出可能的行人目标IB
步骤5:将行人目标IA和IB从RGB空间转到HSV空间,进行亮度校正;
步骤6:提取亮度校正后的IB的颜色名特征,作为目标的表现模型MB
步骤7:确定监控网络的时空约束;
步骤8:由MA、MB及监控网络的时空约束构建最大后验概率问题,判决目标是否一致。
更进一步的,所述步骤1建立视域A和B的背景模型采用截取目标离开或进入视域的关键区域作为背景。
更进一步的,所述步骤2中对视域A中行人目标进行跟踪使用矩形框人工标定,利用DSST算法对目标行人进行跟踪。
更进一步的,所述步骤3提取行人目标的颜色名特征包括黑色、蓝色、棕色、灰色、绿色、橘色、粉红色、紫色、红色、白色和黄色。
更进一步的,所述步骤4中使用大津算法进行二值化得到二值图分割出完整的行人目标IB
更进一步的,所述步骤5将行人目标IA和行人目标IB从RGB空间转到HSV空间,包括以下步骤:
步骤5-1、将视域A和视域B中的行人目标IA和IB从RGB空间转到HSV空间,提取V通道;
步骤5-2、调整V通道像素值的高斯分布:
Figure GDA0001476569630000031
其中,sv和tv分别是源图像和目标图像V通道的像素值,
Figure GDA0001476569630000032
和/>
Figure GDA0001476569630000033
分别是源图像和目标图像的V通道的标准差,mean(sv)和mean(tv)分别是源图像和目标图像V通道的平均值,Iv是源图像亮度校正后V通道的像素值;
步骤5-3、将V通道校正后的HSV空间的图像重新转到RGB空间,从而达到亮度校正的目的。
更进一步的,所述步骤7确定监控网络的时空约束,包括以下步骤:
步骤7-1、利用事先手工标定的样本,提取目标从离开视域A到进入视域B的时间间隔,训练一个混合高斯模型:
p(t=T|a=b)=π1p(t=T;μ11)+π2p(t=T;μ22)
其中,a是视域A中的目标,b是视域B中的目标;p(t=T;μ11)是用来拟合速度较快行人的转移时间的高斯概率密度,μ1是速度较快行人的平均转移时间,δ1是速度较快行人转移时间的标准差,π1是拟合速度较快的行人的高斯概率密度的权重;p(t=T;μ22)是用来拟合速度较慢的行人的转移时间高斯概率密度,μ2是速度较慢行人花费的平均转移时间,δ2是速度较慢行人转移时间的标准差,π2是拟合速度较慢的行人的高斯概率密度的权重;
步骤7-2、利用事先标定的样本,提取目标离开视域A的位置和目标进入视域B的位置,训练一个单高斯模型来拟合位置的变化情况:
p(d=D|a=b)=p(d=D;μ,δ)
其中,a是视域A中的目标,b是视域B中的目标;p(d=D;μ,δ)是用来拟合位置变化的高斯概率密度,μ是视域A和视域B中的平均位置变化,δ是位置变化的标准差。
更进一步的,所述步骤8由MA、MB及监控网络的时空约束构建最大后验概率问题,包括以下步骤:
步骤8-1、由目标表现模型MA、MB及监控网络的时空约束构建最大后验概率问题:
Figure GDA0001476569630000041
其中,p(a=b)为目标从视域A到视域B的转移概率,假设为均匀分布;
p(MA,MB;T;D)使用一个常数尺度因子表示,则:
p(a=b|MA,MB;T;D)∝p(MA,MB;T;D|a=b)
p(MA,MB;T;D|a=b)取决于目标的表现模型概率p(MA,MB|a=b)、时间转移概率p(t=T|a=b)和位置转移概率p(d=D|a=b)。假设这三个概率都是独立分布的,则:
p(MA,MB;T;D|a=b)=p(MA,MB|a=b)×p(t=T|a=b)×p(d=D|a=b)
利用巴氏系数的平方来定义目标的表现模型概率;
p(d=D|a=b)=p(d=D;μ,δ)
此时目标的匹配问题归结为:给定视域A中的目标a,在视域B中的找到目标b*,使得:
b*=argmaxb∈Bp(MA,MB;T;D|a=b)
步骤8-2、通过设定阈值
Figure GDA0001476569630000043
来判决目标是否一致,当/>
Figure GDA0001476569630000042
时,认为a和b是同一目标。
更进一步的,所述速度较慢行人为行走速度小于行人平均行走速度,所述速度较快行人为行走速度大于行人平均行走速度。
有益效果:本发明方法简单明了,目标匹配速度块,匹配目标准确,能够适应不同光照环境以及不同的环境差异,可有效解决摄像机覆盖监控区域不全的问题。
附图说明
图1是本发明的无重叠视域监控***中目标匹配方法的流程图。
图2是本发明实施例中视域A、B的背景图。
图3是本发明实施例中目标在A中的最后一帧跟踪结果、目标二值图、目标分割图和目标颜色名图。
图4是本发明实施例中视域B中检测结果的目标二值图,目标分割图、未经过亮度校正的目标颜色名图和经过亮度校正的目标颜色名图。
图5是本发明实施例中视域B中检测结果的前5帧与视域A中的目标是同一目标的后验概率。
具体实施方式
本发明无重叠视域监控***中目标匹配方法,包括以下步骤:
步骤1、建立视域A和视域B的背景模型;为了减少背景模型建立的计算量,截取目标离开或进入视域的关键区域作为背景,如图2所示;
步骤2、对监控视域A中需要跟踪的目标使用矩形框人工标定,利用DSST(Discriminative Scale Space Tracker)算法对目标行人进行跟踪。当包围目标的矩形框某一边到达视频帧边界时,认为是目标在视域A中的最后一帧。使用背景差分法和大津算法,得到包含目标的二值图,根据二值图分割出完整行人目标IA,图3从左往右分别是目标在视域A中的最后一帧、目标的二值图、目标的分割图以及目标的颜色名图;
步骤3、利用颜色名(Color Name,CN)特征,将所有像素点归纳为11个颜色语义标签:黑色(black),蓝色(blue),棕色(brown),灰色(gray),绿色(green),橘色(orange),粉红色(pink),紫色(purple),红色(red),白色(white),黄色(yellow)。给行人目标IA中的每一个像素分配一个颜色标签,如图3所示。将行人目标的所有像素映射成11维的颜色名向量,并归一化,得到归一化的颜色名直方图作为目标表现模型MA
步骤4、利用背景差分法,在视域B中进行目标检测,并使用大津算法进行二值化,根据二值图分割出完整的行人目标IB,图4(a)(b)(c)三个子图分别是视域B中检测出的候选目标,图(a)(b)(c)从左往右分别是候选目标在视域B中的检测结果、候选目标的二值图、候选目标的分割图以及候选目标的颜色名图;
步骤5、将IA,IB从RGB空间转到HSV空间,进行亮度校正。步骤5具体包括:
步骤5-1、将监控视域A和视域B中的行人目标IA和IB从RGB空间转到HSV空间,提取V通道;
步骤5-2、调整V通道像素值的高斯分布:
Figure GDA0001476569630000061
其中,sv,tv分别是源图像和目标图像V通道的像素值,
Figure GDA0001476569630000062
分别是源图像和目标图像的V通道的标准差,mean(sv),mean(tv)分别是源图像和目标图像V通道的平均值,Iv是源图像亮度校正后V通道的像素值;
步骤5-3、将V通道校正后的HSV空间的图像重新转到RGB空间,从而达到亮度校正的目的,如图4所示;
步骤6、利用颜色名特征,给检测到目标IB中的每一个像素分配一个颜色标签,如图4所示,从而将目标的所有像素映射成11维的颜色名向量,归一化颜色名向量,得到归一化的颜色名直方图作为目标表现模型MB
步骤7、确定监控网络的时空约束。步骤7具体包括:
步骤7-1、利用事先手工标定的样本,提取目标从离开视域A到进入视域B的时间间隔,训练一个混合高斯模型:
p(t=T|a=b)=π1p(t=T;μ11)+π2p(t=T;μ22)
其中,a是视域A中的目标,b是视域B中的目标;p(t=T;μ11)是用来拟合速度较快行人的转移时间的高斯概率密度,μ1是速度较快行人的平均转移时间,δ1是速度较快行人转移时间的标准差,π1是拟合速度较快的行人的高斯概率密度的权重;p(t=T;μ22)是用来拟合速度较慢的行人的转移时间高斯概率密度,μ2是速度较慢行人花费的平均转移时间,δ2是速度较慢行人转移时间的标准差,π2是拟合速度较慢的行人的高斯概率密度的权重。由于行人速度有快有慢,使用双高斯混合模型拟合转移时间要比单高斯模型更加准确;
步骤7-2、利用事先标定的样本,提取目标离开视域A的位置和目标进入视域B的位置,训练一个单高斯模型来拟合位置的变化情况:
p(d=D|a=b)=p(d=D;μ,δ)
其中,a是视域A中的目标,b是视域B中的目标;p(d=D;μ,δ)是用来拟合位置变化的高斯概率密度,μ是视域A和视域B中的平均位置变化,δ是位置变化的标准差;
步骤8、由MA、MB及监控网络的时空约束构建最大后验概率问题,判决目标是否一致。步骤8具体包括:
步骤8-1、由目标表现模型MA、MB及监控网络的时空约束构建最大后验概率问题:
Figure GDA0001476569630000071
其中,p(a=b)为目标从视域A到视域B的转移概率,假设为均为分布;p(MA,MB;T;D)使用一个常数尺度因子表示,则:
p(a=b|MA,MB;T;D)∝p(MA,MB;T;D|a=b)
p(MA,MB;T;D|a=b)取决于目标的表现模型概率p(MA,MB|a=b)、时间转移概率p(t=T|a=b)和位置转移概率p(d=D|a=b)。假设这三个概率都是独立分布的,则:
p(MA,MB;T;D|a=b)=p(MA,MB|a=b)×p(t=T|a=b)×p(d=D|a=b)
巴氏系数(Bhattacharyya Coefficient)可以来衡量两个离散概率分布的相似度,利用巴氏系数的平方来定义目标的表现模型概率。之所以选择巴氏系数的平方而不是巴氏系数本身,是为了增强表现模型在后验概率中的影响。
Figure GDA0001476569630000072
p(MA,MB|a=b)=BC(MA,MB)2
利用步骤7-1中训练的混合高斯模型来衡量时间转移概率:
p(t=T|a=b)=π1p(t=T;μ11)+π2p(t=T;μ22)
利用步骤7-2中训练的单高斯模型来衡量位置转移概率:
p(d=D|a=b)=p(d=D;μ,δ)
此时目标的匹配问题归结为:给定视域A中的目标a,在视域B中的找到目标b*,使得:
b*=argmaxb∈Bp(MA,MB;T;D|a=b)
步骤8-2、通过设定阈值
Figure GDA0001476569630000073
来判决目标是否一致,当/>
Figure GDA0001476569630000074
时,认为a和b是同一目标。
实施例:
为了对本发明算法的有效性进行说明,完成无重叠视域监控***中目标匹配的实验如下:
(1)实验数据及参数设置
测试数据集采用的是NLPR_MCT公开数据集中Dataset 1:Three-camera networkwith non-overlapping views数据集里包含的Cam1和Cam2的序列。
在其中选取40个从Cam1走向Cam2的行人作为训练样本,训练得到的时间转移概率为:
Figure GDA0001476569630000081
位置转移概率为:
Figure GDA0001476569630000082
选取阈值T=10-5,若p(MA,MB;T;D|a=b)>T,则认为目标一致。选定Cam1中的目标4(目标的序号在数据集annotation文件夹中有说明)为匹配目标,在Cam2中识别对应目标。
(2)实验结果分析
图5是Cam2中检测到的目标与Cam1中选定的目标(目标4)是同一目标的后验概率,计算Cam2中检测到的每个目标与选定目标是同一目标的后验概率(计算前5帧的后验概率)。从图5中可以看出,当阈值T=10-5能准确地实现目标的再匹配。

Claims (6)

1.一种无重叠视域监控***中目标匹配方法,包括以下步骤:
步骤1:建立视域A和视域B的背景模型;
步骤2:对视域A中行人目标进行跟踪,当目标即将离开视域A时,利用背景差分,分割出完整的行人目标IA
步骤3:提取行人目标的颜色名特征,作为目标的表现模型MA
步骤4:在视域B中进行行人目标的检测,利用背景差分,分割出可能的行人目标IB
步骤5:将行人目标IA和IB从RGB空间转到HSV空间,进行亮度校正,具体包括步骤:
步骤5-1、将视域A和视域B中的行人目标IA和IB从RGB空间转到HSV空间,提取V通道;
步骤5-2、调整V通道像素值的高斯分布:
Figure FDA0004120658200000011
其中,sv和tv分别是源图像和目标图像V通道的像素值,
Figure FDA0004120658200000012
和/>
Figure FDA0004120658200000013
分别是源图像和目标图像的V通道的标准差,mean(sv)和mean(tv)分别是源图像和目标图像V通道的平均值,Iv是源图像亮度校正后V通道的像素值;
步骤5-3、将V通道校正后的HSV空间的图像重新转到RGB空间,从而达到亮度校正的目的;
步骤6:提取亮度校正后的IB的颜色名特征,作为目标的表现模型MB
步骤7:确定监控网络的时空约束,具体包括步骤:
步骤7-1、利用事先手工标定的样本,提取目标从离开视域A到进入视域B的时间间隔,训练一个混合高斯模型:
p(t=T|a=b)=π1p(t=f;μ1,δ1)+π2p(t=T;μ2,δ2)
其中,a是视域A中的目标,b是视域B中的目标;p(t=T;μ1,δ1)是用来拟合速度较快行人的转移时间的高斯概率密度,μ1是速度较快行人的平均转移时间,δ1是速度较快行人转移时间的标准差,π1是拟合速度较快的行人的高斯概率密度的权重;p(t=T;μ2,δ2)是用来拟合速度较慢的行人的转移时间高斯概率密度,μ2是速度较慢行人花费的平均转移时间,δ2是速度较慢行人转移时间的标准差,π2是拟合速度较慢的行人的高斯概率密度的权重;
步骤7-2、利用事先标定的样本,提取目标离开视域A的位置和目标进入视域B的位置,训练一个单高斯模型来拟合位置的变化情况:
p(d=D|a=b)=p(d=D;μ,δ)
其中,a是视域A中的目标,b是视域B中的目标;p(d=D;μ,δ)是用来拟合位置变化的高斯概率密度,μ是视域A和视域B中的平均位置变化,δ是位置变化的标准差;
步骤8:由MA、MB及监控网络的时空约束构建最大后验概率问题,判决目标是否一致,具体包括步骤:
步骤8-1、由目标表现模型MA、MB及监控网络的时空约束构建最大后验概率问题:
Figure FDA0004120658200000021
其中,p(a=b)为目标从视域A到视域B的转移概率,假设为均匀分布;p(MA,MB;T;D)使用一个常数尺度因子表示,则:
p(a=b|MA,MB;T;D)∝p(MA,MB;T;D|a=b)
p(MA,MB;T;D|a=b)取决于目标的表现模型概率p(MA,MB|a=b)、时间转移概率p(t=T|a=b)和位置转移概率p(d=D|a=b);假设这三个概率都是独立分布的,则:
p(MA,MB;T;D|a=b)=p(MA,MB|a=b)×p(t=T|a=b)×p(d=D|a=b)
利用巴氏系数的平方来定义目标,
此时目标的匹配问题归结为:给定视域A中的目标a,在视域B中找到目标b*,使得:
b*=argmaxb∈Bp(MA,MB;T;D|a=b)
步骤8-2、通过设定阈值
Figure FDA0004120658200000022
来判决目标是否一致,当/>
Figure FDA0004120658200000023
时,认为a和b是同一目标。
2.根据权利要求1所述的一种无重叠视域监控***中目标匹配方法,其特征在于,所述步骤1建立视域A和B的背景模型采用截取目标离开或进入视域的关键区域作为背景。
3.根据权利要求1所述的一种无重叠视域监控***中目标匹配方法,其特征在于,所述步骤2中对视域A中行人目标进行跟踪使用矩形框人工标定,利用DSST算法对目标行人进行跟踪。
4.根据权利要求1所述的一种无重叠视域监控***中目标匹配方法,其特征在于,所述步骤3提取行人目标的颜色名特征包括黑色、蓝色、棕色、灰色、绿色、橘色、粉红色、紫色、红色、白色和黄色。
5.根据权利要求1所述的一种无重叠视域监控***中目标匹配方法,其特征在于,所述步骤4中使用大津算法进行二值化得到二值图分割出完整的行人目标IB
6.根据权利要求1所述的一种无重叠视域监控***中目标匹配方法,其特征在于,所述速度较慢行人为行走速度小于行人平均行走速度,所述速度较快行人为行走速度大于行人平均行走速度。
CN201710447010.3A 2017-06-14 2017-06-14 一种无重叠视域监控***中目标匹配方法 Active CN107563272B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710447010.3A CN107563272B (zh) 2017-06-14 2017-06-14 一种无重叠视域监控***中目标匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710447010.3A CN107563272B (zh) 2017-06-14 2017-06-14 一种无重叠视域监控***中目标匹配方法

Publications (2)

Publication Number Publication Date
CN107563272A CN107563272A (zh) 2018-01-09
CN107563272B true CN107563272B (zh) 2023-06-20

Family

ID=60973187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710447010.3A Active CN107563272B (zh) 2017-06-14 2017-06-14 一种无重叠视域监控***中目标匹配方法

Country Status (1)

Country Link
CN (1) CN107563272B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110598A (zh) * 2019-04-01 2019-08-09 桂林电子科技大学 一种基于视觉特征与时空约束的行人再识别方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509118A (zh) * 2011-09-28 2012-06-20 安科智慧城市技术(中国)有限公司 一种监控视频检索方法
CN102592144A (zh) * 2012-01-06 2012-07-18 东南大学 一种基于多摄像机无重叠视域行人匹配方法
CN103530638A (zh) * 2013-10-29 2014-01-22 无锡赛思汇智科技有限公司 多摄像头下的行人匹配方法
CN105205834A (zh) * 2015-07-09 2015-12-30 湖南工业大学 一种基于混合高斯及阴影检测模型的目标检测与提取方法
CN105261037A (zh) * 2015-10-08 2016-01-20 重庆理工大学 一种自适应复杂场景的运动目标检测方法
WO2017092431A1 (zh) * 2015-12-01 2017-06-08 乐视控股(北京)有限公司 基于肤色的人手检测方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI380677B (en) * 2007-12-31 2012-12-21 Altek Corp Method of color space transformation to transfer prospect for camera sphere

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509118A (zh) * 2011-09-28 2012-06-20 安科智慧城市技术(中国)有限公司 一种监控视频检索方法
CN102592144A (zh) * 2012-01-06 2012-07-18 东南大学 一种基于多摄像机无重叠视域行人匹配方法
CN103530638A (zh) * 2013-10-29 2014-01-22 无锡赛思汇智科技有限公司 多摄像头下的行人匹配方法
CN105205834A (zh) * 2015-07-09 2015-12-30 湖南工业大学 一种基于混合高斯及阴影检测模型的目标检测与提取方法
CN105261037A (zh) * 2015-10-08 2016-01-20 重庆理工大学 一种自适应复杂场景的运动目标检测方法
WO2017092431A1 (zh) * 2015-12-01 2017-06-08 乐视控股(北京)有限公司 基于肤色的人手检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
翁菲 ; 刘允才 ; .多场景视频监控中的人物连续跟踪.微型电脑应用.2010,(第06期),全文. *
韩敬贤 ; 齐美彬 ; *** ; .基于外观模型和时空模型的多摄像机目标跟踪.合肥工业大学学报(自然科学版).2016,(第12期),全文. *

Also Published As

Publication number Publication date
CN107563272A (zh) 2018-01-09

Similar Documents

Publication Publication Date Title
CN105631880B (zh) 车道线分割方法和装置
CN110544258B (zh) 图像分割的方法、装置、电子设备和存储介质
Soriano et al. Adaptive skin color modeling using the skin locus for selecting training pixels
CN103093203B (zh) 一种人体再识别方法以及人体再识别***
Zang et al. Robust background subtraction and maintenance
AU2006252252B2 (en) Image processing method and apparatus
US9418426B1 (en) Model-less background estimation for foreground detection in video sequences
US20150125074A1 (en) Apparatus and method for extracting skin area to block harmful content image
CN109918971B (zh) 监控视频中人数检测方法及装置
KR101374139B1 (ko) 감시시스템의 영상 융합을 통한 객체 감시 방법
Huerta et al. Exploiting multiple cues in motion segmentation based on background subtraction
WO2010034065A1 (en) Detection of vehicles in an image
Vosters et al. Background subtraction under sudden illumination changes
WO2016165064A1 (zh) 基于多视角学习的鲁棒性前景检测方法
Gupta et al. Automatic trimap generation for image matting
CN110111351B (zh) 融合rgbd多模态信息的行人轮廓跟踪方法
Tiwari et al. A survey on shadow detection and removal in images and video sequences
CN111815528A (zh) 基于卷积模型和特征融合的恶劣天气图像分类增强方法
Surkutlawar et al. Shadow suppression using rgb and hsv color space in moving object detection
CN108491857B (zh) 一种视域重叠的多摄像机目标匹配方法
CN107103301B (zh) 视频目标时空最大稳定性判别性颜色区域匹配方法和***
CN114359323A (zh) 一种基于视觉注意机制的图像目标区域检测方法
CN107563272B (zh) 一种无重叠视域监控***中目标匹配方法
Mouats et al. Fusion of thermal and visible images for day/night moving objects detection
CN107704864A (zh) 基于图像对象性语义检测的显著目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant