CN105023271A - 基于多线索信息的行为集体度衡量方法 - Google Patents

基于多线索信息的行为集体度衡量方法 Download PDF

Info

Publication number
CN105023271A
CN105023271A CN201510357621.XA CN201510357621A CN105023271A CN 105023271 A CN105023271 A CN 105023271A CN 201510357621 A CN201510357621 A CN 201510357621A CN 105023271 A CN105023271 A CN 105023271A
Authority
CN
China
Prior art keywords
individual
similarity
behavior
degree
collective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510357621.XA
Other languages
English (en)
Other versions
CN105023271B (zh
Inventor
李学龙
王�琦
陈穆林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510357621.XA priority Critical patent/CN105023271B/zh
Publication of CN105023271A publication Critical patent/CN105023271A/zh
Application granted granted Critical
Publication of CN105023271B publication Critical patent/CN105023271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多线索信息的行为集体度衡量方法,用于解决现有行为集体度衡量方法准确性差的技术问题。技术方案是检测并跟踪视频中的特征点,得到初始特征点集合,将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体衡量其行为集体度。所有个体行为集体度的均值即为整体行为的集体度。本发明通过对多线索信息的利用,使行为集体度计算的准确性得到了提升。

Description

基于多线索信息的行为集体度衡量方法
技术领域
本发明涉及一种行为集体度衡量方法,特别是涉及一种基于多线索信息的行为集体度衡量方法。
背景技术
随着人口增长,拥挤现象日益增加,针对拥挤场景的视频分析也变得格外重要。在人类社会和自然界的拥挤场景中,个体往往倾向于组成集体,并表现出一些集体行为,如鱼群效应、动物迁徙等。对于集体运动的研究可以应用于很多领域,如集体行为分析、群体仿真、拥挤场景分析等。为了对集体运动进行定量分析,Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEETransactions on Pattern Analysis and Machine Intelligence,36,1586-1599,2014.”中首次提出了行为集体度的概念。行为集体度是指多个个体的运动可以被视为集体运动的程度,对于跨场景研究集体运动具有重要意义。
目前衡量行为集体度的方法有两种:第一种是Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEE Transactions on PatternAnalysis and Machine Intelligence,36,1586-1599,2014.”中提出的方法,这种方法通过跟踪提取个体,并使用流形学习方法计算个体行为相似度,进而衡量行为集体度。第二种是Shao等人在文献“J.Shao,C.Loy,and X.Wang.Scene-independent group profiling incrowd.IEEE Conference on Computer Vision and Pattern Recognition,2227-2235,2014.”中提出的方法,通过跟踪提取个体后,对于所有个体的空间位置变化计算出一个变换矩阵,通过变换误差衡量行为集体度。以上两种方法存在提取个体时,从视频中检测并追踪特征点,进而直接把特征点当作个体,但是特征点并不能很好地代表个体,因为同一个体上不可避免地存在多个特征点。因此,这两种方法不能够准确衡量行为集体度。
发明内容
为了克服现有行为集体度衡量方法准确性差的不足,本发明提供一种基于多线索信息的行为集体度衡量方法。该方法检测并跟踪视频中的特征点,得到初始特征点集合。采用分割算法将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度;衡量个体的速度稳定度以及与邻域个体速度偏差,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体,根据其与其他个体的拓扑相似度,衡量其个体行为集体度。所有个体行为集体度的均值,即为整体行为的集体度。本发明通过对多线索信息的利用,挖掘更多信息,使行为集体度计算的准确性得到提升。
本发明解决其技术问题所采用的技术方案是:一种基于多线索信息的行为集体度衡量方法,其特点是采用以下步骤:
步骤一、检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体。
1)检测并跟踪视频中的特征点,得到初始特征点集合;
2)采用分割算法将视频中每一帧图像分割为图像块;
3)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
C t ( i , j ) = m a x ( v i · v j | v i | · | v j | , 0 ) - - - ( 1 )
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度。
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个。反复迭代,直至找到保留的特征点属于不同个体。得到筛选后的特征点集合,将其中的特征点视为个体。
步骤二、利用多线索信息,计算个体相似度。
1)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
D t ( i , j ) = ( x i - x j ) 2 - ( y i - y j ) 2 j ∈ N ( i ) 0 j ∉ N ( i ) - - - ( 2 )
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度。
2)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
S t ( i , j ) = C t ( i , j ) f ( D t ( i , j ) ) + β S t - 1 ( i , j ) D t ( i , j ) > 0 0 F t ( i , j ) = 0 - - - ( 3 )
式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度。
步骤三、衡量个体稳定性,去除不稳定个体。
1)衡量每个个体i的速度稳定性:
2)衡量个体与临近点的速度偏差:
3)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t)   (4)
式中α为权重,STi(t)为个体i在t时刻的稳定程度。得到所有个体的稳定程度后,将稳定程度低的个体去除。
步骤四、利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度。
1)对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
2)i到j沿所有路径上的相似度为:
τ i , j = Σ l = 1 ∞ Σ γ l ∈ P l v γ l ( i , j ) - - - ( 5 )
式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度。
利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij   (6)
式中I表示单位矩阵。
因此,个体i的行为集体度即为:
φ t ( i ) = Σ j ∈ C , j ≠ i τ i , j - - - ( 7 )
式中C为个体集合。
场景行为集体度为:
Φ t = 1 | C | Σ i ∈ C φ t ( i ) - - - ( 8 )
式中,|C|表示场景中的个体数量。
本发明的有益效果是:该方法检测并跟踪视频中的特征点,得到初始特征点集合。采用分割算法将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度;衡量个体的速度稳定度以及与邻域个体速度偏差,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体,根据其与其他个体的拓扑相似度,衡量其个体行为集体度。所有个体行为集体度的均值,即为整体行为的集体度。本发明通过对多线索信息的利用,挖掘更多信息,使行为集体度计算的准确性得到提升,达到了79%以上。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明基于多线索信息的行为集体度衡量方法的流程图。
图2是本发明方法在对视频帧进行筛选特征点前后的效果对比图,其中图2(a)是初始特征点集合,图2(b)是经过筛选的特征点集合。
具体实施方式
参照图1-2。本发明基于多线索信息的行为集体度衡量方法具体步骤如下:
步骤1,检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体。
(1a)检测并跟踪视频中的特征点,得到初始特征点集合;
(1b)采用分割算法将视频中每一帧图像分割为图像块。同一图像块中的特征点在颜色、空间分布上具有较高相似度。
(1c)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
C t ( i , j ) = m a x ( v i · v i | v i | · | v j | , 0 ) - - - ( 8 )
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度。
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个。反复迭代,直至找到保留的特征点属于不同个体。得到筛选后的特征点集合,将其中的特征点视为个体。
步骤2,利用多线索信息,计算个体相似度。
(2a)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
D t ( i , j ) = ( x i - x j ) 2 - ( y i - y j ) 2 j ∈ N ( i ) 0 j ∉ N ( i ) - - - ( 9 )
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度。
(2b)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
S t ( i , j ) = C t ( i , j ) f ( D t ( i , j ) ) + βS t - 1 ( i , j ) D t ( i , j ) > 0 0 D t ( i , j ) = 0
(10)式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度。
步骤3,衡量个体稳定性,去除不稳定个体。
(3a)衡量每个个体i的速度稳定性:
(3b)衡量个体与临近点的速度偏差:
(3c)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t)   (11)
式中α为权重,STi(t)为个体i在t时刻的稳定程度。得到所有个体的稳定程度后,将稳定程度低的个体去除。
步骤4,利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度。
(4a)利用图论知识,对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
(4b)i到j沿所有路径上的相似度为:
τ i , j = Σ l = 1 ∞ Σ γ l ∈ P l v γ l ( i , j )
(12)式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度。
Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring CrowdCollectiveness.IEEE Transactions on Pattern Analysis and Machine Intelligence,36,1586-1599,2014.”中指出可以利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij
(13)式中I表示单位矩阵。
因此,个体i的行为集体度即为:
φ t ( i ) = Σ j ∈ C , j ≠ i τ i , j
(14)式中C为个体集合。
场景行为集体度为:
Φ t = 1 | C | Σ i ∈ C φ t ( i ) - - - ( 8 )
式中,|C|表示场景中的个体数量。
本发明的效果通过以下仿真实验做进一步的说明。
1.仿真条件。
本发明是在中央处理器为i5-34703.2GHz CPU、内存4G、WINDOWS 7操作***上,运用MATLAB软件进行的仿真。
实验中使用的测试视频来来自于Collective Motion数据库,该数据库由Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEETransactions on Pattern Analysis and Machine Intelligence,36,1586-1599,2014.”中提出,包括413个拥挤场景的视频片段,每个视频片段由100帧图像构成。根据场景行为集体度,视频片段被人工分为三个等级:低、中、高。
2.仿真内容。
计算场景行为集体度,用于分别提取三个等级的视频片段。为了对比本发明的有效性,选取了Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.MeasuringCrowd Collectiveness.IEEE Transactions on Pattern Analysis and Machine Intelligence,36,1586-1599,2014.”中提到的衡量场景行为集体度的方法(MCC)。调节参数,计算平均准确率、查全率与F值。对比结果如表1所示。
表1 实验结果对比
从表1可见,在提取低、中等级视频时,本发明准确率、召回率及F值均优于MCC;在提取中等级视频时,MCC准确率略高,但召回率与F值均低于本发明。总体来看,本发明在提取三个等级的视频片段时,取得更好的结果。本发明由于在图像分割的基础上筛选特征点,有效的移除冗余点,使个体的提取更为准确,如图2;本发明利用多线索信息,充分挖掘场景信息;本发明将不稳定个体去除,并采用流形学习的方法,能够处理拥挤场景的复杂结构。
图2为初始特征点集合与筛选后特征点集合的对比。图2(a)为未经筛选的特征点集合,可以看出体积大的个体上包含更多更密集的特征点,说明未经筛选的特征点并不能很好地代表物体。说明了筛选后的特征点集合更能代表场景中的个体。图2(b)为经过筛选的特征点集合,可以看出经过筛选后的特征点在物体上的分布比较均匀,特征点数目受个体体积影响较小,可以更好地代表场景中的个体。

Claims (1)

1.一种基于多线索信息的行为集体度衡量方法,其特征在于包括以下步骤:
步骤一、检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体;
1)检测并跟踪视频中的特征点,得到初始特征点集合;
2)采用分割算法将视频中每一帧图像分割为图像块;
3)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
C t ( i , j ) = m a x ( v i · v j | v i | · | v j | , 0 ) - - - ( 1 )
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度;
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个;反复迭代,直至找到保留的特征点属于不同个体;得到筛选后的特征点集合,将其中的特征点视为个体;
步骤二、利用多线索信息,计算个体相似度;
1)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
D t ( i , j ) = ( x i - x j ) 2 - ( y i - y j ) 2 j ∈ N ( i ) 0 j ∉ N ( i ) - - - ( 2 )
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度;
2)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
S i ( i , j ) = C t ( i , j ) f ( D t ( i , j ) ) + βS t - 1 ( i , j ) D t ( i . j ) > 0 0 D t ( i . j ) = 0 - - - ( 3 )
式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度;
步骤三、衡量个体稳定性,去除不稳定个体;
1)衡量每个个体i的速度稳定性:
2)衡量个体与临近点的速度偏差:
3)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t)    (4)
式中α为权重,STi(t)为个体i在t时刻的稳定程度;得到所有个体的稳定程度后,将稳定程度低的个体去除;
步骤四、利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度;
1)对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
2)i到j沿所有路径上的相似度为:
τ i , j = Σ l = 1 ∞ Σ γ l ∈ P l v γ l ( i , j ) - - - ( 5 )
式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度;
利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij   (6)式中I表示单位矩阵;
因此,个体i的行为集体度即为:
φ t ( i ) = Σ j ∈ C , j ≠ i τ i , j - - - ( 7 )
式中C为个体集合;
场景行为集体度为:
Φ t = 1 | C | Σ i ∈ C φ t ( i ) - - - ( 8 )
式中,|C|表示场景中的个体数量。
CN201510357621.XA 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法 Active CN105023271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510357621.XA CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510357621.XA CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Publications (2)

Publication Number Publication Date
CN105023271A true CN105023271A (zh) 2015-11-04
CN105023271B CN105023271B (zh) 2017-11-14

Family

ID=54413212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510357621.XA Active CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Country Status (1)

Country Link
CN (1) CN105023271B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203357A (zh) * 2016-07-11 2016-12-07 浙江宇视科技有限公司 一种人员聚集的检测方法和装置
CN106909940A (zh) * 2017-02-20 2017-06-30 浙江工商大学 基于人群疏散的折半聚类方法
CN107274431A (zh) * 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 视频内容增强方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071055A1 (en) * 1999-07-23 2001-01-24 Matsushita Electric Industrial Co., Ltd. Home monitoring system for health conditions
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN102156880A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于改进的社会力模型的异常集群行为检测方法
CN102325250A (zh) * 2011-10-13 2012-01-18 交通运输部公路科学研究所 基于社会力模型的监控***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071055A1 (en) * 1999-07-23 2001-01-24 Matsushita Electric Industrial Co., Ltd. Home monitoring system for health conditions
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN102156880A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于改进的社会力模型的异常集群行为检测方法
CN102325250A (zh) * 2011-10-13 2012-01-18 交通运输部公路科学研究所 基于社会力模型的监控***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203357A (zh) * 2016-07-11 2016-12-07 浙江宇视科技有限公司 一种人员聚集的检测方法和装置
CN106909940A (zh) * 2017-02-20 2017-06-30 浙江工商大学 基于人群疏散的折半聚类方法
CN107274431A (zh) * 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 视频内容增强方法及装置

Also Published As

Publication number Publication date
CN105023271B (zh) 2017-11-14

Similar Documents

Publication Publication Date Title
CN107943837B (zh) 一种前景目标关键帧化的视频摘要生成方法
CN108615027B (zh) 一种基于长短期记忆-加权神经网络对视频人群计数的方法
CN107481264A (zh) 一种自适应尺度的视频目标跟踪方法
CN113963445B (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106096577A (zh) 一种摄像头分布地图中的目标追踪***及追踪方法
CN107563349A (zh) 一种基于VGGNet的人数估计方法
CN105224912A (zh) 基于运动信息和轨迹关联的视频行人检测和跟踪方法
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN110084836A (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN110795982A (zh) 一种基于人体姿态分析的表观视线估计方法
CN110232379A (zh) 一种车辆姿态检测方法及***
CN107169994A (zh) 基于多特征融合的相关滤波跟踪方法
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN104050685A (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN104077609A (zh) 一种基于条件随机场的显著性检测方法
CN111027377A (zh) 一种双流神经网络时序动作定位方法
CN105426895A (zh) 基于马尔科夫模型的显著性检测方法
CN106127161A (zh) 基于级联多层检测器的快速目标检测方法
CN105243354B (zh) 一种基于目标特征点的车辆检测方法
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
CN109117774A (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN115861738A (zh) 一种类别语义信息引导的遥感目标检测主动采样方法
CN109829469A (zh) 一种基于深度学习的车辆检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant