CN106683111B - 时序性聚类的人体运动视频分割方法 - Google Patents
时序性聚类的人体运动视频分割方法 Download PDFInfo
- Publication number
- CN106683111B CN106683111B CN201611040136.0A CN201611040136A CN106683111B CN 106683111 B CN106683111 B CN 106683111B CN 201611040136 A CN201611040136 A CN 201611040136A CN 106683111 B CN106683111 B CN 106683111B
- Authority
- CN
- China
- Prior art keywords
- video
- video frame
- correlation matrix
- frames
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种时序性聚类的人体运动视频分割方法,具体包括:对视频帧特征提取后计算距离变换图,并进行K均值聚类等处理得到作为这些视频帧的特征输出的类标签向量。视频帧特征之间关系建模为视频帧的特征矩阵构建一个相关性矩阵M描述视频帧特征之间的关系,在获得相关性矩阵M后,对其执行图切算法,可以获得视频帧特征的聚类结果,并以此作为视频帧的分割结果,其中聚类结果中的每个类代表包含一个独立动作的视频段。本发明解决了人体运动视频分割中视频帧中人体运动特征相似性与时序性的融合问题,提高了分割精度,同时在计算视频帧关系时由于不需要进行迭代计算,因此提升了计算效率。
Description
技术领域
本发明属于图像视频处理领域,尤其涉及一种时序性聚类的人体运动视频分割方法。
背景技术
在《Temporal Subspace Clustering for Human Motion Segmentation》这篇文献中,作者提出在每一帧视频中提取人体图像的二值模板,通过距离变换形成距离变换图,由K均值聚类形成初步的聚类结果,将二值形式的聚类结果作为视频帧的特征。随后,作者在最小平方回归子空间聚类方法的基础上添加了一个与编码矩阵相关的拉普拉斯正则约束,用于形成视频帧特征时间关系的模型,通过交替方向乘子法求解出字典和编码矩阵。最后在编码矩阵上的图切方法将连续视频切割成包含独立动作的视频段。实验显示该方法在人体运动视频段切割的准确率和归一化互信息指标上有着较好的性能。
但是由于该方法采用了交替方向乘子法这类迭代求解的算法,在时间耗费上比较大,因此视频段切割的速度比较慢。另外该方法需要通过编码矩阵的时间拉普拉斯项来描述视频帧在时间上的关系,对于视频帧时间上的相关性描述较为复杂。
发明内容
针对上述技术问题,本发明提出一种时序性聚类的人体运动视频分割方法,更为全面地描述视频帧之间的关系,并提高计算效率。
为达到上述目的,本发明采用的技术方案为:
一种时序性聚类的人体运动视频分割方法,具体包括以下几个部分:视频帧的特征提取,视频帧特征之间关系的建模,相关性矩阵的求解,相关性矩阵上的图切。
视频帧特征提取:输入t帧视频,对每一视频帧进行背景减操作,提取出人体图像与背景图像,形成二值图,其中人体图像区域用白色表示,背景图像区域用黑色图像表示;对视频帧计算距离变换图,将距离变换图按列展开为一个列向量:对t帧视频上所获取的距离变换图展开的列向量进行K均值聚类,得到每一帧视频的二值形式的类标签向量,将类标签向量作为这些视频帧的特征输出。K均值聚类的类数量取值如下:当t<=50时,类数量就取值t,当t>50,类的数量一般取值为50。
视频帧特征之间关系的建模:输入视频帧的特征集合{x1,x2,...,xt},其中xh表示第h帧视频帧中所得到的二值形式的类标签向量,也即该帧视频的特征,h表示视频帧索引,其取值范围为1到t之间,这些特征构成一个特征矩阵X=[x1,x2,...,xt]。为了描述视频帧特征之间的关系,构建一个相关性矩阵M融合相似性度量和特征时序邻近性。矩阵M可以通过以下函数对M进行最小化得到:
Tr(AM)是计算矩阵AM的迹,λ是一个为正数的正则参数。通过对式(1)进行求导,可以得到关于M的约束方程,并以此求解得到相关性矩阵M
A则充当一个与时序相关的权值矩阵。其矩阵的行数、列数和矩阵XTX一致,另外0表示行数、列数和矩阵XTX一致的元素都为0的零矩阵;
相关性矩阵上的图切:在获得相关性矩阵M后,对其执行图切算法,可以获得视频帧特征的聚类结果,并以此作为视频帧的分割结果,也即聚类结果中的每一个类都包含一个独立动作所有的视频帧。
其中,相关性矩阵M一方面包含了视频帧特征之间的相似性度量,另一方面度量了视频帧特征在时序上的邻近性,为描述了视频帧特征在相似性和时序邻近性上的关系。
A充当一个与时序相关的权值矩阵。A每个元素的取值如下式所表示:
上式中,i、k分别表示矩阵中行索引、列索引。ε取值为10-6。τ为时间窗口长度,τ取值为5~17。在上式中,权值A的设置使得在时序上相邻的元素在计算相似度时可以赋予更大的权值。
本发明具有以下有益效果:本发明解决了人体运动视频分割中视频帧中人体运动特征相似性与时序性的融合问题,提高了分割精度,同时在计算视频帧关系时由于不需要进行迭代计算,因此提升了计算效率。
附图说明
图1为本发明实施例的人体运动视频分割方法流程图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明。
人体运动视频段切割方法主要依赖于视频帧的相关性描述,大多数基于聚类的切割方法在构建视频帧相关性描述时,往往只考虑视频帧在特征上的相似性,而很少考虑视频帧在时间上的相关性。本实施例在保留视频帧之间相似性度量的同时,还加入了视频帧在时序上邻近性的度量,因此能够更为全面地描述视频帧之间的关系。另外,提升视频切割的速度也是关键。
如图1所示的人体运动视频分割方法流程:输入一段包含人体运动的视频,将每一帧彩***图像与相应的静态背景图像做减法,完成背景减除处理操作,获得人体图像区域,并将所提取的人体图像区域标定为白色,背景区域标定为黑色,获得一个二值图像,对二值图像进行距离变换得到距离变换图。将所有视频帧的距离变换图按列展开,形成列向量集合,在其基础上使用K均值聚类算法获得二值形式的类标签向量,该向量中用1表示其所属的类,0表示其不属于相应的类。
类标签向量[0,0,1,0]T表示,相应的特征可以归为第三类,而不属于其它类。
将类标签向量作为视频帧的特征,在这些视频帧的特征基础上进行相关性矩阵M的求解。按照式2:
得到关于相关性矩阵M的解,上式中,A每个元素的取值如下式所表示:
上式中,i、k分别表示矩阵中行索引、列索引。ε取值为10-6。在权值矩阵τ的设置上,在本实施例中其取值为τ=9。
在得到相关性矩阵M后,对其执行图切算法,从而获得相应特征的聚类结果,进一步按照聚类结果将相应的视频切分为包含人体独立动作的视频段。
以上的实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.时序性聚类的人体运动视频分割方法,其特征在于,包括如下步骤:视频帧的特征提取,视频帧特征之间关系建模,相关性矩阵的求解,相关性矩阵上的图切;
视频帧特征提取:输入t帧视频,对每一视频帧进行背景减操作,提取出人体图像与背景图像,形成二值图;对视频帧计算距离变换图,将距离变换图按列展开为一个列向量;对t帧视频上所获取的距离变换图展开的列向量进行K均值聚类,得到每一帧视频的二值形式的类标签向量,将类标签向量作为这些视频帧的特征输出;
视频帧特征之间关系建模:输入视频帧的特征集合{x1,x2,…,xt},其中xh表示第h帧视频帧的特征,h表示视频帧索引,其取值范围为1到t之间,这些特征构成一个特征矩阵X=[x1,x2,…,xt];
相关性矩阵的求解:构建一个相关性矩阵M融合相似性度量和特征时序邻近性;
相关性矩阵M通过以下函数对M进行最小化得到:
Tr(AM)是计算矩阵AM的迹,λ是一个为正数的正则参数;对式(1)求导,得到关于M的约束方程,求解得到相关性矩阵M
A为一个与时序相关的权值矩阵,其矩阵的行数、列数和矩阵XTX一致,另外0表示行数、列数和矩阵XTX一致的元素都为0的零矩阵;
max运算表示M中每个元素的取值取对应元素值与0值之间的最大值;
相关性矩阵上的图切:在获得相关性矩阵M后,对其执行图切算法,获得视频帧特征的聚类结果,并以此作为视频帧的分割结果,也即聚类结果中的每一个类都包含一个独立动作所有的视频帧。
2.根据权利要求1所述的人体运动视频分割方法,其特征在于:类标签向量中用1表示其属于该类,0表示其不属于相应的类。
3.根据权利要求1所述的人体运动视频分割方法,其特征在于:相关性矩阵M包含视频帧特征之间的相似性度量,并度量视频帧特征在时序上的邻近性。
5.根据权利要求4所述的人体运动视频分割方法,其特征在于:τ取值为5~17。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611040136.0A CN106683111B (zh) | 2016-11-24 | 2016-11-24 | 时序性聚类的人体运动视频分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611040136.0A CN106683111B (zh) | 2016-11-24 | 2016-11-24 | 时序性聚类的人体运动视频分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106683111A CN106683111A (zh) | 2017-05-17 |
CN106683111B true CN106683111B (zh) | 2020-01-31 |
Family
ID=58867341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611040136.0A Active CN106683111B (zh) | 2016-11-24 | 2016-11-24 | 时序性聚类的人体运动视频分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106683111B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866936B (zh) * | 2018-08-07 | 2023-05-23 | 创新先进技术有限公司 | 视频标注方法、跟踪方法、装置、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102360494A (zh) * | 2011-10-18 | 2012-02-22 | 中国科学院自动化研究所 | 一种多前景目标交互式图像分割方法 |
-
2016
- 2016-11-24 CN CN201611040136.0A patent/CN106683111B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102360494A (zh) * | 2011-10-18 | 2012-02-22 | 中国科学院自动化研究所 | 一种多前景目标交互式图像分割方法 |
Non-Patent Citations (3)
Title |
---|
Sparse subspace clustering: algorithm, theory, and applications;Elhamifar E et al.;《IEEE》;20131231;第35卷(第11期);参见第2767-2781页 * |
基于对比度直方图特征子空间聚类的区域级背景减除方法;钱诚;《软件导刊》;20160731;第15卷(第7期);第184-186页 * |
增量型目标跟踪关键技术压就;钱诚;《中国博士学位论文全文数据库 信息科技辑》;20110715(第7期);参见第I138-55页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106683111A (zh) | 2017-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tian et al. | Prior guided feature enrichment network for few-shot segmentation | |
Xie et al. | Scale-aware graph neural network for few-shot semantic segmentation | |
CN110705448B (zh) | 一种人体检测方法及装置 | |
Ding et al. | Latent low-rank transfer subspace learning for missing modality recognition | |
Minhas et al. | Incremental learning in human action recognition based on snippets | |
Wu et al. | Ordered subspace clustering with block-diagonal priors | |
CN109614933B (zh) | 一种基于确定性拟合的运动分割方法 | |
Li et al. | Patch alignment manifold matting | |
Liu et al. | GeometryMotion-Net: A strong two-stream baseline for 3D action recognition | |
Hua et al. | Depth estimation with convolutional conditional random field network | |
CN104537686B (zh) | 基于目标时空一致性和局部稀疏表示的跟踪方法及装置 | |
CN110675422B (zh) | 一种基于广义非凸鲁棒主成分分析的视频前背景分离方法 | |
CN109685830B (zh) | 目标跟踪方法、装置和设备及计算机存储介质 | |
Shao et al. | 3D dynamic facial expression recognition using low-resolution videos | |
CN109146925A (zh) | 一种动态场景下显著性目标检测方法 | |
CN113111716A (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN116434033A (zh) | 面向rgb-d图像稠密预测任务的跨模态对比学习方法及*** | |
CN104517123B (zh) | 一种采用局部运动特征相似性引导的子空间聚类方法 | |
Qin et al. | Depth estimation by parameter transfer with a lightweight model for single still images | |
CN111353429A (zh) | 基于眼球转向的感兴趣度方法与*** | |
Zhou et al. | Double nuclear norm-based robust principal component analysis for image disocclusion and object detection | |
Liu et al. | Multi-scale promoted self-adjusting correlation learning for facial action unit detection | |
Gao et al. | Discriminant tracking using tensor representation with semi-supervised improvement | |
Sheng et al. | Action recognition using direction-dependent feature pairs and non-negative low rank sparse model | |
CN106683111B (zh) | 时序性聚类的人体运动视频分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |