CN107133607B - 基于视频监控的人群统计方法及*** - Google Patents
基于视频监控的人群统计方法及*** Download PDFInfo
- Publication number
- CN107133607B CN107133607B CN201710395675.4A CN201710395675A CN107133607B CN 107133607 B CN107133607 B CN 107133607B CN 201710395675 A CN201710395675 A CN 201710395675A CN 107133607 B CN107133607 B CN 107133607B
- Authority
- CN
- China
- Prior art keywords
- model
- crowd
- local feature
- human body
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于视频监控的人群统计方法及***,该方法包括以下步骤:S1:获取预监控区域的实时监控图像;S2:对实时监控图像进行前景分割,分割出人群;S3:将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;S4:对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;S5:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。本发明的基于视频监控的人群统计方法及***,可适用于不同场合,准确度较高。
Description
技术领域
本发明涉及智能监控领域,尤其涉及一种基于视频监控的人群统计方法及***。
背景技术
交通枢纽,大型活动现场及大型商场等公共场所人流拥堵现象越来越频繁。人数统计已成为社会共安全和资源优化配置的重要方面。商业等方面的竞争日趋激烈,以准确的数据为基础进行分析和管理、建立智能化的人数统计***成为发展趋势。
目前已有的人数统计方法主要有两种:1)利用人体模板对视频图像中的人进行检测;2)利用人头或头肩模板对视频图像中的人进行检测。两种方法均存在一定的局限性,只能用于特定的场景,可移植性差,方法1)在人群密度较高的场景中检测效果差,方法2)在人群密度较低的场景中准确率低。
发明内容
本发明所要解决的技术问题是提供一种基于视频监控的人群统计方法及***,可适用于不同场合,准确度较高。
为解决上述问题,本发明提出一种基于视频监控的人群统计方法,包括以下步骤:
S1:获取预监控区域的实时监控图像;
S2:对实时监控图像进行前景分割,分割出人群;
S3:将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
S4:对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
S5:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
根据本发明的一个实施例,所述步骤S3包括以下步骤:
S31:将完整的人体特征模型划分为五个局部特征模型,分别为头部、上半身的左右两部及下半身的上下两部,得到模型M1、模型M2、模型M3、模型M4、模型M5,完整的人体特征模型M=M1+M2+M3+M4+M5;
S32:配置五个局部特征模型的权重β={β1,β2,β3,β4,β5},使得β1+β2+β3+β4+β5=1;
S33:提取人体特征模型样本和非人体特征模型样本的HOG特征,由SVM分类器得到五个局部特征模型的模板。
根据本发明的一个实施例,所述步骤S4包括以下步骤:
S41:提取分割后的人群的HOG特征;
S42:将提取的特征与所述五个局部特征模型的模板进行匹配,综合匹配程度S=β1M1+β2M2+β3M3+β4M4+β5M5-b,其中,b表示实际局部特征模型与理想站姿模型之间的位置偏移,b=b2+b3+b4+b5,模型M1中心点的坐标(e1,f1),模型M2中心点的坐标(e2,f2),模型M3中心点的坐标(e3,f3),模型M4中心点的坐标(e4,f4),模型M5中心点的坐标(e5,f5);
S43:将得到的人群中各个人体的综合匹配程度与特定阈值进行比较,若超过特定阈值,则匹配成功一次,统计匹配成功的次数。
根据本发明的一个实施例,采集预监控区域的数据作为训练集,利用训练集确定混合动态纹理模型及人体五个局部特征模型的权重。
根据本发明的一个实施例,所述步骤S5包括以下步骤:
S51:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,并在触发异常事件时报警;
S52:记录已经触发异常事件的人群数量曲线,并置入可能异常事件集合中;
S53:当曲线或趋势再次出现时,根据预警级别提前预警;若后续触发异常事件,则在可能异常事件集合中将该曲线元素的危险等级升高,反之,危险等级下降;
S54:依据危险等级的高低确定或调整预警级别。
根据本发明的一个实施例,所述步骤S2中,对实时监控图像采用混合动态纹理模型对视频图像进行前景分割,包括以下步骤:
S21:将实时监控图像二值化,并建立一混合动态纹理模型;
S22:利用EM算法求解所述混合动态纹理模型中的未知参数,从而确定所述混合动态纹理模型;
S23:根据所述混合动态纹理模型,计算监控图像混合动态纹理的最大似然概率,获得纹理类别标签,根据纹理类别标签将混合动态纹理进行聚类;
S24:扫描聚类后的纹理,将表征人群的同类动态纹理作为前景,其余纹理作为背景,分割出不同方向行走的人群的动态纹理。
根据本发明的一个实施例,获取的预监控区域的实时监控图像分为训练集和测试集,利用训练集确定所述混合动态纹理模型及人体五个局部特征模型的权重,再将测试集投入执行步骤S1-S5。
本发明还提供一种基于视频监控的人群统计***,包括:
图像获取单元,获取预监控区域的实时监控图像;
人群分割单元,对实时监控图像进行前景分割,分割出人群;
特征划分单元,将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
特征匹配单元,对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
统计警示单元,根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
采用上述技术方案后,本发明相比现有技术具有以下有益效果:
每个局部特征模型都有相应的权重,综合所有局部特征模型的匹配情况得到最终的匹配结果,通过改变局部特征模型的权重使得可应用于不同的场合,方便算法的移植,确保人群计数的准确性;建立异常事件反馈机制,增强***的稳定性,避免虚警;
采用混合动态纹理进行前景分割,将不同方向的人流区分开,不需要额外的算法跟踪人群,确定人群方向,节省时间成本,提高算法效率;
考虑人体局部特征模型与完整的人体模型之间的位置偏移,可有效防止人体形变。
附图说明
图1为本发明一实施例的基于视频监控的人群统计方法的流程示意图;
图2为本发明一实施例的对实时监控图像采用混合动态纹理模型进行前景分割的流程示意图;
图3为本发明一实施例的EM算法求解的流程示意图;
图4a为本发明一实施例的理想站姿模型的结构示意图;
图4b为本发明一实施例的存在位置偏移的实际局部特征模型的结构示意图;
图5为本发明一实施例的统计警示步骤的流程示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施的限制。
参看图1,在一个实施例中,基于视频监控的人群统计方法包括以下步骤:
S1:获取预监控区域的实时监控图像;
S2:对实时监控图像进行前景分割,分割出人群;
S3:将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
S4:对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
S5:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
下面对基于视频监控的人群统计方法进一步详细的阐述,但不应以此为限。
在步骤S1中,获取预监控区域的实时监控图像,该视频图像是在需要进行人数统计的场合中通过监控镜头等拍摄装置拍摄所得,监控镜头实时传回实时监控画面,用于执行后续步骤。
在步骤S2中,对步骤S1中获得的实时监控图像进行前景分割,分割出人群。此时分割出的前景只是人群信息,还无法确定人群数量。
参看图2,在步骤S2中,优选对实时监控图像采用混合动态纹理模型进行前景分割,包括以下步骤:
S21:将实时监控图像二值化,并建立一混合动态纹理模型;
其中,yt表示二值化的视频图像,即观测序列;xt表示视频图像随时间的衍化成分,即隐含状态序列;Az为状态转移矩阵;Cz为观察矩阵;vt为状态转移过程中产生的噪声,服从均值为零,协方差为Qz的高斯分布;ωt为观测噪声,服从均值为零,协方差为Rz;z指向某种特定的动态纹理;
S22:利用EM算法(Expectation Maximization Algorithm,最大期望算法)求解所述混合动态纹理模型中的未知参数,从而确定所述混合动态纹理模型;
S23:根据所述混合动态纹理模型,计算监控图像混合动态纹理的最大似然概率,获得纹理类别标签,根据纹理类别标签将混合动态纹理进行聚类;
S24:扫描聚类后的纹理,将表征人群的同类动态纹理作为前景,其余纹理作为背景,分割出不同方向行走的人群的动态纹理。
更具体的,观测序列yt的长度为N,习惯表示为初始隐含状态变量x1服从均值为μz,协方差为Sz的高斯分布;模型参数θz={Az,Qz,Cz,Rz,μz,Sz};K表示纹理的种类,每种纹理代表一种方向的人群;α表示纹理的权重,且EM算法涉及以下公式:
一、隐含状态序列与观察序列的条件概率分布:
初始隐含状态序列的条件概率分布p(x1|z)=G(x1,μz,Sz)
(2)
隐含状态序列的条件概率分布p(xt|xt-1,z)=G(xt,Azxt-1,Qz)
(3)
观察序列的条件概率分布p(yt|xt,z)=G(yt,Czxt,Rz)
(4)
t表示时间,t=1即表示初始时刻,x1表示初始隐含状态变量。Z指向某种特定的动态纹理,xt表示隐含t时刻的隐含状态序列,yt表示t时刻的观察序列。等式右边表示初始隐含状态序列的条件概率、隐含状态序列的条件概率、观察序列的条件概率服从高斯分布。Az为状态转移矩阵;Cz为观察矩阵;vt为状态转移过程中产生的噪声,服从均值为零,协方差为Qz的高斯分布;ωt为观测噪声,服从均值为零,协方差为Rz。
二、与隐含状态序列相关的期望:
隐含状态序列的期望
(i表示第i个观察序列,j表示某种特定的纹理);
以上两个公式(6)(7)是与隐含状态序列的期望相关的,因为需要借助隐含状态序列的期望求得,下面的公式(10)求参数需要用到。
三、与纹理相关的条件概率:
与纹理相关的条件概率即:根据已知的观察序列y(i)求z(i)=j的概率是多少,j表示第j种纹理,j={1,2,......,K},K为纹理的种类。此时,可以将视频图像中的动态纹理进行分类,将表征人群的同类动态纹理作为前景,通过相应的标签便可提取出前景,也就是前景分割。
四、混合动态纹理的纹理聚类标签:
li=argmax[logp(y(i)|z(i)=j)+logαj] (9)
argmax[logp(y(i)|z(i)=j)+logαj]表示取logp(y(i)|z(i)=j)+logαj中的最大值,此时j的具体值即为混合动态纹理所属的纹理类别。
五、混合动态纹理模型参数的表示:
因为:
公式(10)是为了简化表达,等式右边的式子已通过公式(5)~(8)求得;
所以:
公式(11)是利用公式(10)求参数的值,*表示估计值。
参看图3,EM算法求解混合动态纹理模型参数的步骤如下:
A、输入观察序列初始化模型参数{θj,αj},j={1,2,......,K};
B、计算公式(5)~(8)的期望,i={1,......,N},j={1,......,K};
C、计算公式(10),利用公式(11)更新模型参数
返回步骤B继续执行,直至收敛。
利用公式计算混合动态纹理的最大似然概率,获得纹理类别标签li,根据li将混合动态纹理聚类。扫描聚类后的纹理,把同类动态纹理当作前景,其余纹理当作背景,分割出不同方向行走的人群的动态纹理。
在步骤S3中,将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重。不同局部特征模型的权重可以相同也可以不同,可以通过实际场景的数据进行训练得到合适值。
进一步的,步骤S3包括以下步骤:
S31:将完整的人体特征模型划分为五个局部特征模型,分别为头部、上半身的左右两部及下半身的上下两部,得到模型M1、模型M2、模型M3、模型M4、模型M5,完整的人体特征模型M=M1+M2+M3+M4+M5;
S32:配置五个局部特征模型的权重β={β1,β2,β3,β4,β5},使得β1+β2+β3+β4+β5=1;
S33:提取人体特征模型样本和非人体特征模型样本的HOG特征,由SVM分类器得到五个局部特征模型的模板。
可以基于HOG的人体局部特征模型检测法来将完整的人体特征模型M分为五个局部特征模型,具体包括:模型M1、模型M2、模型M3、模型M4、模型M5,且M=M1+M2+M3+M4+M5,如图4a所示。
为了打破现有技术的局限性。如背景技术所言的两种方法,均存在一定的局限性,只能用于特定的场景,可移植性差。可以通过改变局部特征模型的权重而应用于不同的场合,或者说,根据不同场合的需求而调整局部特征模型的权重,例如:在高密度情况下,由于遮挡等原因,人群头部特征比较突出,其他特征相对较弱,赋予代表头部的局部特征模型的权重大,赋予其他局部特征模型的权重小;在低密度情况下,为了确保人群计数的准确性,检测整体人的特征为最佳,给每个局部特征模型赋予相同的权重;等等。五个局部特征模型是根据人体结构模型划分的,从图4a和4b中比较容易看出模型M1表示人的头部,模型M2和模型M3表示上半身的左右两部(不含头部),模型M4和模型M5表示下半身的上下两部。
其中,步骤S32中,五个局部特征模型的权重β={β1,β2,β3,β4,β5}初始值各为0.2,根据测试集统计估计出的人群数量与真实统计结果的误差来调整权重的值,直至即误差小于预设值。
在步骤S4中,对前景分割后的(动态纹理)人群的特征进行提取,并与五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功。
参看图4a和4b,因为在运动的过程中人体发生形变,会导致与模板的匹配程度降低,所以要减去相应的位置偏移,当位置偏移超过特定的阈值,综合匹配程度将低于特定阈值,则匹配不成功(比如出现这样的情况:将行人A的头部和行人B的上肢、下肢误检测为一个人,这显然是不对的,而行人B的上肢、下肢与行人A的头部间的位置偏移必然超过特定的阈值,减去位置偏移这一变量就能很好的避免错误的产生)。
进一步的,步骤S4包括以下步骤:
S41:提取分割后的人群的HOG特征;
S42:将提取的特征与所述五个局部特征模型的模板进行匹配,综合匹配程度S=β1M1+β2M2+β3M3+β4M4+β5M5-b,其中,b表示实际局部特征模型与理想站姿模型之间的位置偏移,b=b2+b3+b4+b5,模型M1中心点的坐标(e1,f1),模型M2中心点的坐标(e2,f2),模型M3中心点的坐标(e3,f3),模型M4中心点的坐标(e4,f4),模型M5中心点的坐标(e5,f5);
S43:将得到的人群中各个人体的综合匹配程度与特定阈值进行比较,若超过特定阈值,则匹配成功一次,统计匹配成功的次数。
在步骤S5中,根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。由于场景中的人群是动态运动的,因而人群数量不断在变化,通过变化曲线可以直观体现,并可根据趋势预测。触发异常事件的标准可设定,达到相应标准便触发。
进一步的,步骤S5包括以下步骤:
S51:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,并在触发异常事件时报警;
S52:记录已经触发异常事件的人群数量曲线,并置入可能异常事件集合中;
S53:当曲线或趋势再次出现时,根据预警级别提前预警;若后续触发异常事件,则在可能异常事件集合中将该曲线元素的危险等级升高,反之,危险等级下降;
S54:依据危险等级的高低确定或调整预警级别。
建立异常事件反馈机制,可增强稳定性,避免虚警,可以对异常情况进行预警,而且能够依据异常事件的频发程度来确定其危险等级,及时给出指导。
优选的,采集预监控区域的数据作为训练集,利用训练集确定混合动态纹理模型及人体五个局部特征模型的权重。
在正式投入使用前,需要采集数据,将采集的数据分为训练集和测试集,利用训练集求得混合动态纹理模型的参数,局部特征模型的权重也在此时求得(初始条件下一般取五个局部特征模型的权重均为0.2,由于人工采集的数据是有真实的统计结果的,根据***估计的人群数量与真实统计结果的误差来调整权重的值,直至收敛:即误差小于某个规定的值);测试集可以用来调试。
人工采集某公共场所的人群数量数据,将采集的数据随机分为训练集和测试集,利用训练集学习混合动态纹理模型的参数以及人体局部特征模型的权重{β1,β2,β3,β4,β5},利用测试集进行数据调试,确保正常运行。将人数统计方法移植到另一公共场所时,由于环境的改变,人群密度极可能发生改变,人工采集该场所的人群数量数据,重复上述训练过程和测试过程,即可再次投入使用。
本发明还提供一种基于视频监控的人群统计***,包括:
图像获取单元,获取预监控区域的实时监控图像;
人群分割单元,对实时监控图像进行前景分割,分割出人群;
特征划分单元,将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
特征匹配单元,对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
统计警示单元,根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
关于本发明基于视频监控的人群统计***的具体内容可以参看前述实施例中的基于视频监控的人群统计方法部分的描述,在此不再赘述。
本发明虽然以较佳实施例公开如上,但其并不是用来限定权利要求,任何本领域技术人员在不脱离本发明的精神和范围内,都可以做出可能的变动和修改,因此本发明的保护范围应当以本发明权利要求所界定的范围为准。
Claims (6)
1.一种基于视频监控的人群统计方法,其特征在于,包括以下步骤:
S1:获取预监控区域的实时监控图像;
S2:对实时监控图像进行前景分割,分割出人群;
S3:将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
所述步骤S3包括以下步骤:
S31:将完整的人体特征模型划分为五个局部特征模型,分别为头部、上半身的左右两部及下半身的上下两部,得到模型M1、模型M2、模型M3、模型M4、模型M5,完整的人体特征模型M=M1+M2+M3+M4+M5;
S32:配置五个局部特征模型的权重β={β1,β2,β3,β4,β5},使得β1+β2+β3+β4+β5=1;
S33:提取人体特征模型样本和非人体特征模型样本的HOG特征,由SVM分类器得到五个局部特征模型的模板;
S4:对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
所述步骤S4包括以下步骤:
S41:提取分割后的人群的HOG特征;
S42:将提取的特征与所述五个局部特征模型的模板进行匹配,综合匹配程度S=β1M1+β2M2+β3M3+β4M4+β5M5-b,其中,b表示实际局部特征模型与理想站姿模型之间的位置偏移,b=b2+b3+b4+b5,模型M1中心点的坐标(e1,f1),模型M2中心点的坐标(e2,f2),模型M3中心点的坐标(e3,f3),模型M4中心点的坐标(e4,f4),模型M5中心点的坐标(e5,f5);
S43:将得到的人群中各个人体的综合匹配程度与特定阈值进行比较,若超过特定阈值,则匹配成功一次,统计匹配成功的次数
S5:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
2.如权利要求1所述的基于视频监控的人群统计方法,其特征在于,所述步骤S32中,所述五个局部特征模型的权重β={β1,β2,β3,β4,β5}初始值各为0.2,根据测试集统计估计出的人群数量与真实统计结果的误差来调整权重的值,直至即误差小于预设值。
3.如权利要求1-2中任意一项所述的基于视频监控的人群统计方法,其特征在于,所述步骤S5包括以下步骤:
S51:根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,并在触发异常事件时报警;
S52:记录已经触发异常事件的人群数量曲线,并置入可能异常事件集合中;
S53:当曲线或趋势再次出现时,根据预警级别提前预警;若后续触发异常事件,则在可能异常事件集合中将该曲线元素的危险等级升高,反之,危险等级下降;
S54:依据危险等级的高低确定或调整预警级别。
4.如权利要求1-2中任意一项所述的基于视频监控的人群统计方法,其特征在于,所述步骤S2中,对实时监控图像采用混合动态纹理模型进行前景分割,包括以下步骤:
S21:将实时监控图像二值化,并建立一混合动态纹理模型;
S22:利用EM算法求解所述混合动态纹理模型中的未知参数,从而确定所述混合动态纹理模型;
S23:根据所述混合动态纹理模型,计算监控图像混合动态纹理的最大似然概率,获得纹理类别标签,根据纹理类别标签将混合动态纹理进行聚类;
S24:扫描聚类后的纹理,将表征人群的同类动态纹理作为前景,其余纹理作为背景,分割出不同方向行走的人群的动态纹理。
5.如权利要求4所述的基于视频监控的人群统计方法,其特征在于,采集预监控区域的数据作为训练集,利用训练集确定混合动态纹理模型及人体五个局部特征模型的权重。
6.一种基于视频监控的人群统计***,其特征在于,包括:
图像获取单元,获取预监控区域的实时监控图像;
人群分割单元,对实时监控图像进行前景分割,分割出人群;
特征划分单元,将完整的人体特征模型分为五个局部特征模型,并为各局部特征模型配置相应的权重;
特征匹配单元,对分割后的人群的特征进行提取,并与所述五个局部特征模型进行匹配检测,根据权重及提取的五个局部特征模型与完整的人体特征模型之间的位置偏移计算综合匹配程度,若超过特定阈值,则匹配成功;
统计警示单元,根据匹配成功的次数统计人群数量,绘制人群数量变化曲线,当曲线或曲线趋势触发异常事件时,进行警示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710395675.4A CN107133607B (zh) | 2017-05-27 | 2017-05-27 | 基于视频监控的人群统计方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710395675.4A CN107133607B (zh) | 2017-05-27 | 2017-05-27 | 基于视频监控的人群统计方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107133607A CN107133607A (zh) | 2017-09-05 |
CN107133607B true CN107133607B (zh) | 2019-10-11 |
Family
ID=59734106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710395675.4A Active CN107133607B (zh) | 2017-05-27 | 2017-05-27 | 基于视频监控的人群统计方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107133607B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009477B (zh) * | 2017-11-10 | 2020-08-21 | 东软集团股份有限公司 | 图像的人流数量检测方法、装置、存储介质及电子设备 |
CN110795998B (zh) * | 2019-09-19 | 2023-03-24 | 深圳云天励飞技术有限公司 | 人流量的检测方法、装置、电子设备及可读存储介质 |
CN110693501A (zh) * | 2019-10-12 | 2020-01-17 | 上海应用技术大学 | 一种基于多传感器融合的行走步态无线检测*** |
CN112699265B (zh) * | 2019-10-22 | 2024-07-19 | 商汤国际私人有限公司 | 图像处理方法及装置、处理器、存储介质 |
CN110929648B (zh) * | 2019-11-22 | 2021-03-16 | 广东睿盟计算机科技有限公司 | 监控数据处理方法、装置、计算机设备以及存储介质 |
CN114900669A (zh) * | 2020-10-30 | 2022-08-12 | 深圳市商汤科技有限公司 | 场景监测方法、装置、电子设备及存储介质 |
CN112528861B (zh) * | 2020-12-11 | 2024-05-31 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 应用于铁路隧道内道床的异物检测方法及装置 |
CN112597964B (zh) * | 2020-12-30 | 2021-10-22 | 上海应用技术大学 | 分层多尺度人群计数的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831472A (zh) * | 2012-08-03 | 2012-12-19 | 无锡慧眼电子科技有限公司 | 一种基于视频流图像处理的人数统计方法 |
CN104573811A (zh) * | 2015-01-08 | 2015-04-29 | 杭州天迈网络有限公司 | 一种红外图像和彩色图像融合的人流量统计方法 |
CN105138983A (zh) * | 2015-08-21 | 2015-12-09 | 燕山大学 | 基于加权部件模型和选择性搜索分割的行人检测方法 |
CN105184245A (zh) * | 2015-08-28 | 2015-12-23 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种多特征融合的人群密度估计方法 |
-
2017
- 2017-05-27 CN CN201710395675.4A patent/CN107133607B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831472A (zh) * | 2012-08-03 | 2012-12-19 | 无锡慧眼电子科技有限公司 | 一种基于视频流图像处理的人数统计方法 |
CN104573811A (zh) * | 2015-01-08 | 2015-04-29 | 杭州天迈网络有限公司 | 一种红外图像和彩色图像融合的人流量统计方法 |
CN105138983A (zh) * | 2015-08-21 | 2015-12-09 | 燕山大学 | 基于加权部件模型和选择性搜索分割的行人检测方法 |
CN105184245A (zh) * | 2015-08-28 | 2015-12-23 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种多特征融合的人群密度估计方法 |
Non-Patent Citations (2)
Title |
---|
"Modeling, Clustering, and Segmenting Video with Mixtures of Dynamic Textures";Antoni B. Chan,Nuno Vasconcelos;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20080531;第30卷(第5期);第1-18页 * |
"基于加权可变形部件模型的行人检测算法";李天朔;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315;第2、6、9、40-42页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107133607A (zh) | 2017-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133607B (zh) | 基于视频监控的人群统计方法及*** | |
CN108053427A (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、***及装置 | |
CN108009473A (zh) | 基于目标行为属性视频结构化处理方法、***及存储装置 | |
Li et al. | In-field tea shoot detection and 3D localization using an RGB-D camera | |
US9928423B2 (en) | Efficient retrieval of anomalous events with priority learning | |
CN108052984B (zh) | 计数方法及装置 | |
CN108052859A (zh) | 一种基于聚类光流特征的异常行为检测方法、***及装置 | |
Khan et al. | Analyzing crowd behavior in naturalistic conditions: Identifying sources and sinks and characterizing main flows | |
CN110852283A (zh) | 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法 | |
CN108229509A (zh) | 用于识别物体类别的方法及装置、电子设备 | |
US9805256B2 (en) | Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier | |
CN109644255A (zh) | 标注包括一组帧的视频流的方法和装置 | |
JP2023528126A (ja) | 水産養殖における分析及び選別 | |
KR102132722B1 (ko) | 영상 내 다중 객체 추적 방법 및 시스템 | |
CN106952293B (zh) | 一种基于非参数在线聚类的目标跟踪方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN105183758A (zh) | 一种连续记录视频、影像的内容识别方法 | |
CN104680191B (zh) | 一种基于活动轮廓模型的植物病虫害检测方法 | |
Stahlschmidt et al. | Applications for a people detection and tracking algorithm using a time-of-flight camera | |
CN108537129A (zh) | 训练样本的标注方法、装置和*** | |
CN109858552A (zh) | 一种用于细粒度分类的目标检测方法及设备 | |
WO2021190470A1 (zh) | 电子设备定位的方法、装置、服务器、***以及存储介质 | |
CN110111370A (zh) | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 | |
CN109409294A (zh) | 基于对象运动轨迹的停球事件的分类方法和*** | |
Jahangiri et al. | Information pursuit: A Bayesian framework for sequential scene parsing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |