CN105550678B - 基于全局显著边缘区域的人体动作特征提取方法 - Google Patents

基于全局显著边缘区域的人体动作特征提取方法 Download PDF

Info

Publication number
CN105550678B
CN105550678B CN201610075788.1A CN201610075788A CN105550678B CN 105550678 B CN105550678 B CN 105550678B CN 201610075788 A CN201610075788 A CN 201610075788A CN 105550678 B CN105550678 B CN 105550678B
Authority
CN
China
Prior art keywords
strong
region
point
video frame
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610075788.1A
Other languages
English (en)
Other versions
CN105550678A (zh
Inventor
胡瑞敏
徐增敏
陈军
陈华锋
李红阳
王中元
郑淇
吴华
王晓
周立国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201610075788.1A priority Critical patent/CN105550678B/zh
Publication of CN105550678A publication Critical patent/CN105550678A/zh
Application granted granted Critical
Publication of CN105550678B publication Critical patent/CN105550678B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于全局显著边缘区域的人体动作特征提取方法,利用一个区域和整个图像的对比度来计算显著度;减少色彩空间的颜色数量,平滑颜色空间的显著度;根据相邻区域的空间关系计算显著性区域;对二值化阈值分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;遍历视频帧不同尺度下所有网格的强角点;在显著边缘区域采集光流幅值不为零的关键特征点;根据修正后光流场求强角点的位移;用强角点连续多帧坐标位移轨迹,以及邻域梯度矢量形成人体动作局部时空特征。本发明通过全局显著边缘区域提取动作特征,剔除与人体运动无关的背景噪声点,消除相机运动对光流计算的影响,提升人体动作局部时空特征描述的精确性,提高人体行为识别率。

Description

基于全局显著边缘区域的人体动作特征提取方法
技术领域
本发明属于视频分析领域,涉及一种人体行为自动识别方法,具体涉及基于全局显著边缘区域的人体动作特征提取方法。
背景技术
随着互联网的不断发展、视频监控***的不断推广,视频数据量急剧增长。面对海量涌现的视频数据,如何分析视频人体行为成为一个亟待解决的问题。由于视频数据容易受到前景运动区域不明晰、相机抖动幅度大、场景环境复杂的影响,使得人体运动在视频数据中存在大量的噪声角点,导致视频帧的关键特征点提取不准确,人体行为识别精度受限。
人体动作特征提取是人体行为识别的重要组成部分,属于视频分析领域的一项重要研究内容,其目的是让计算机自动提取人体动作特征,自动判断预测人体行为。因此,有效的动作特征提取方法有利于提高动作识别的精度。
目前人体动作特征提取方法分为3类:基于单帧图像或者多帧视频流提取底层局部时空兴趣点的方法、基于中层语义学习的动作特征属性描述方法和基于高层语义特征点追踪与肢体可变形模板的方法。
基于底层局部时空兴趣点的方法需要对目标物体进行局部时空兴趣点的提取,并且结合一定的光流运动估计来获得对目标物体运动建模,并辅以各种描述算子表达肢体动作。这类方法的缺陷在于容易受到背景噪声、相机抖动和目标遮挡的影响,而且缺乏对人体行为全局特征和行为模型整体性的分析和理解。
基于中层语义学习的方法通常在提取出底层局部动作特征的基础上,常通过前景显著区域、运动目标检测、物体轮廓分割、判别字典学习、多通道特征融合、卷积神经网络等方法,对底层动作特征进行更高层次的语义特征建模,获取多帧视频流中目标物体运动的全局或局部时空特征表达。这种方法的问题在于高度依赖输入特征的表达能力和中层语义学习算法框架的性能。
基于高层语义特征点的方法依赖于人工手动标注或者体感相机,标定人体的骨骼关节点进行实时追踪,并构建出肢体树形结构模型或者可变形模板,结合关节点运动历史和常用描述算子表征人体动作特征。这种方法的缺陷在于需要凭借人类经验花费大量时间标注视频样本,或者依靠智能体感设备标定骨骼关节点。
与动作特征提取方法相关的专利列举如下:
人体交互领域:2015年中科院自动化所公开发明专利《人体动作采集和动作识别***及其控制方法》,该发明使用无线收发器和3轴加速度传感器电路来获取人体动作,旨在提高舞台表演和演讲的效果;2015年西安电子科技大学公开发明专利《一种基于动作识别的智能手表及动作识别方法》,该发明通过设定人体前臂手势动作对智能手表进行控制操作;2015年北京智谷睿拓公司公开发明专利《头部动作确定方法和装置》,该发明通过获取所述人体的脑电检测信息,确定与所述脑电检测信息对应的头部动作;2015年联想(北京)有限公司公布发明专利《一种动作识别方法、装置及电子设备》,该发明增加了动作获取的触发条件,只有在监测区域内与所述电子设备物理距离满足条件时才触发动作识别。
视频分析领域:2015年浙江工业大学公开发明专利《一种基于时间金字塔局部匹配窗口的动作识别方法》,该发明从立体相机获得的人体深度图中提取出3D关节点,用姿态之间的3D位移差作为每帧深度图的特征表达;2015年北京中科盘古科技公司公布发明专利《基于空间分割学习的人体肢体姿势动作识别方法》,该发明通过人体关节数据与所建立特定姿势序列数据库进行匹配比对;2015年西南科技大学公开发明专利《一种姿势序列有限状态机动作识别方法》,该发明将Kinect传感器获取的肢体节点数据进行坐标变换,采用统一的空间网格模型对变换数据进行度量;2015年中科院计算所公布发明专利《一种基于时序信息的跨视角动作识别方法及***》,该发明将兴趣点运动强度作为特征描述,结合源视角视频的源粗粒度标注信息以获得目标粗粒度信息。
基于显著性分析的视频分析领域:2015年西南科技大学公布发明专利《一种基于STDF特征的人体行为识别算法》,该发明利用视频图像的深度信息确定人体运动显著性区域,通过计算区域内光流作为度量区域活跃度的能量函数,对运动显著性区域进行高斯取样,使样本点分布于运动剧烈区域,将采集到的样本点作为动作底层特征;苏州大学公布发明专利《基于阈值矩阵和特征融合视觉单词的人物行为识别方法》,该发明通过视频帧显著度取得人物区域位置,再对区域内外采取不同的阈值检测出兴趣点作为动作特征;2015年南京邮电大学公布发明专利《一种基于RGB-D视频的人体行为识别方法》,该发明从RGB-D视频分别提取稠密MovingPose特征、SHOPC特征和HOG3D特征,采用边缘限制的多核学习方法对三种特征进行特征融合;2014年天津大学公布发明专利《一种基于局部特征的人体动作识别方法》,该发明从动作图像序列中提取时空兴趣点特征和坐标,通过划分人体区域分别训练词袋字典模型来给局部特征编码。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于全局显著边缘区域的人体动作特征提取方法。
本发明所采用的技术方案是:基于全局显著边缘区域的人体动作特征提取方法,其特征在于,包括以下步骤:
步骤1:减少RGB色彩空间的颜色数量,平滑颜色空间的显著度;
步骤2:根据相邻区域的空间关系计算显著性区域;
步骤3:采用二值化阈值分割前景显著区域;
步骤4:对分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;
步骤5:通过特征点对和随机采样一致性修正光流场;
步骤6:遍历视频帧不同尺度下所有网格提取强角点;
步骤7:在显著边缘区域中采集修正光流幅值不为零的强角点作为关键特征强角点;
步骤8:检查步骤7获得的关键特征强角点数目,如果数目为零则取步骤6的强角点作为关键特征强角点;
步骤9:根据修正光流场计算关键特征强角点的位移;
步骤10:用强角点连续多帧的坐标位移轨迹,以及角点邻域梯度矢量组成人体动作局部时空特征。
所述步骤1中,减少RGB色彩空间的颜色数量,平滑颜色空间的显著度;具体实现过程为:
定义图像I中第k个像素Ik的显著度S(·)为:
其中D(Ik,Ii)为像素Ik和像素Ii在颜色空间的距离度量;
先将RGB色彩空间3个通道的颜色量化到12个不同的值,使图像像素的颜色数量减少到123=1728;接着通过选择高频出现的颜色,将颜色数量减少到n=85,确保这些颜色覆盖95%以上的像素;然后对每个量化后颜色c的显著度进行平滑操作,用m个近邻颜色显著性的加权平均值改善显著度,公式如下:
其中为颜色c和m个近邻颜色ci之间的距离。
所述步骤2中,根据相邻区域的空间关系计算显著性区域;实现过程为:
先使用图像分割算法将输入视频帧分成多个区域,并为每个区域建立起颜色直方图;对于每个区域rk,通过与其它区域的颜色对比度来计算显著度,公式如下:
其中w(ri)为图像中第i个区域的像素总数,表示区域ri的权重,以此强调大区域的颜色对比度;Dr(·,·)为两个区域的颜色距离;两个区域r1和r2的颜色距离为:
其中c1,i为区域r1中第i个像素的颜色值,f(c1,i)表示c1,i在图像I中出现的概率;c2,j为区域r2中第j个像素的颜色值,f(c2,j)表示c2,j在图像I中出现的概率;D(c1,i,c2,j)表示两个像素c1,i和c2,j的颜色距离;
然后在公式(3)的基础上再加上相邻空间信息,增大近邻空间区域的影响,见公式:
其中Ds(ri,rk)为区域ri和rk的空间距离(即两个区域重心的欧氏距离),σs为颜色空间权重强度。
所述步骤3中,采用二值化阈值分割前景显著区域;实现过程为:将公式(5)计算出的视频帧显著区域,从浮点型数据转换为8位无符号灰度图,通过设定一个[0,255]的阈值进行二值化操作,以得出的二值化图像作为输入视频帧的前景区域RCmap。
所述步骤4中,对分割出的前景区域做形态学梯度变化,生成新的全局显著边缘区域RCBmap;实现过程为:用以下公式对RCmap做形态学梯度变化:
RCBmap=morphgrad(RCmap)=dilate(RCmap)-erode(RCmap), (6)
其中morphgrad(·)表示形态学梯度操作,dilate(·)和erode(·)分别表示膨胀和腐蚀操作。
所述步骤5中,通过特征点对和随机采样一致性修正光流场;实现过程为:先用算法求出当前视频帧的稠密光流场矢量ωt,通过前后两帧的SURF特征点和关键特征强角点组成特征点对,再用RANSAC算法和这些特征点对求出修正后的光流场矢量ω′t
所述步骤6中,遍历视频帧不同尺度下所有网格提取强角点;实现过程为:
对于下采样后每个不同尺度的视频帧,先按n*n像素的方式划分网格,再用以下公式提取当前视频帧I的强角点:
其中为视频帧I中每个像素点i邻域范围内,由图像导数求出的2*2梯度协方差矩阵特征值;对于每个大于阈值T的像素点对应特征值,记录其在视频帧I中的坐标位置,如果该像素点坐标落在视频帧中一个网格的n*n像素范围,则将该网格的中心像素点作为强角点P。
所述步骤7中,在显著边缘区域中采集修正光流幅值不为零的强角点作为关键特征强角点;实现过程为:根据公式(6)获得的每个不同尺度下视频帧的显著边缘区域RCBmap,从t时刻视频帧所有网格的全部强角点中,筛选出坐标落在显著边缘区域的强角点,如果该角点在下一帧的修正光流矢量经过归一化后幅值大于最小光流阈值,那么就将该角点作为关键特征强角点Pt;光流场在第i个像素点的运动矢量经过归一化后的幅值为mag(Ii),计算公式如下:
其中,假设为当前光流场I在第i个像素点的运动矢量,那么分别为在水平方向上和垂直方向上的分量。所述步骤8中,检查步骤7获得的关键特征强角点数目,如果数目为零则取步骤6的强角点作为关键特征强角点;实现过程为:检查步骤7在当前视频帧采集到的关键特征强角点数目,如果角点数目为零,那么将取消显著边缘区域和最小光流阈值的限制,直接按照步骤6的方法,以t时刻视频帧在当前尺度下所有的强角点作为关键特征强角点Pt
所述步骤9中,根据修正光流场计算关键特征强角点的位移;实现过程为:根据步骤5计算出的修正光流场矢量ω′t,记录关键特征强角点Pt在t+1帧的位移坐标Pt+1,公式如下:
Pt+1=(xt+1,yt+1)=(xt,yt)+(M*ω′t)|(xt,yt), (9)
其中M表示中值滤波器的核,(xt,yt)表示角点Pt+1在视频帧的坐标位置。
所述步骤10中,用强角点连续多帧的坐标位移轨迹,以及角点邻域梯度矢量组成人体动作局部时空特征;实现过程为:记录每个关键特征强角点连续L帧的坐标Pt至Pt+L,将该角点在连续多帧的邻域梯度矢量HOG、HOF和MBH描述算子,按16像素×16像素×5帧形成局部特征时空卷;将该角点连续L=15帧内形成的3个局部特征时空卷,按HOG、HOF、MBH描述算子计算该角点的邻域梯度矢量,组成人体动作局部时空特征。
相对于现有技术,本发明的有益效果为:通过全局对比度显著算法分割出前景运动的显著区域,根据运动边缘区域梯度变化具有强判别力的视觉特性,在形态学梯度变换后逐帧生成的全局显著边缘区域中,结合修正的光流运动矢量,提取修正光流幅值不为零的关键特征强角点,并估计出这些强角点连续多帧的位移轨迹,用描述算子组合形成局部特征时空卷,实现中层语义级的动作特征提取方法。本发明可以剔除与人体运动无关的背景噪声,消除相机抖动对动作特征中HOF、MBH描述算子的影响,提升人体动作局部时空特征描述的准确性,提高人体行为识别率。
附图说明
图1是本发明实施例的流程图。
图2是本发明实施例的动作局部特征时空卷示例图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
参见图1,本发明实施例提供的一种基于全局显著边缘区域的人体动作特征提取方法,具体包括以下步骤:
步骤1:减少RGB色彩空间的颜色数量,平滑颜色空间的显著度。具体实现过程为:定义图像I中第k个像素Ik的显著度S(·)为:
其中D(Ik,Ii)为像素Ik和像素Ii在颜色空间的距离度量。本申请中所有S(·)都是表示显著度的意思,如S(Ik)表示图像I中第k个像素的显著度。S是Saliency的简写。公式(1)中的符号i表示图像第i个像素点。
先将RGB色彩空间3个通道的颜色量化到12个不同的值,使图像像素的颜色数量减少到123=1728。接着通过选择高频出现的颜色,将颜色数量减少到n=85,确保这些颜色覆盖95%以上的像素。然后对每个量化后颜色c的显著度进行平滑操作,用m个近邻颜色显著性的加权平均值改善显著度。公式如下:
其中,为颜色c和m个近邻颜色cj之间的距离。下标j表示第j个邻近颜色;c为color的简写,颜色c经过量化后只有1728个值,而颜色再次减少到n=85后,可降低距离计算的时间复杂度。S(cj)表示量化后的颜色c中第j个近邻颜色的显著度。
步骤2:根据相邻区域的空间关系计算显著性区域。具体实现过程为:
先使用图像分割算法将输入视频帧分成多个区域,并为每个区域建立起颜色直方图。对于每个区域rk,我们通过与其它区域的颜色对比度来计算显著度,公式如下:
其中w(ri)为区域ri的权重,Dr(·,·)为两个区域的颜色距离。而本申请中所有以D(·,·)形式出现的函数,都可以用公式(1)的距离度量函数。D(Ik,Ii)、D(c,cj)都是表示两个参数之间的颜色距离。D是Distance的简写,r是region的简写,w是weight的简写,w(ri)表示图像中第i个区域的像素总数,以此强调大区域的颜色对比度。两个区域r1和r2的颜色距离为:
其中c1,i为区域r1中第i个像素的颜色值,f(c1,i)表示c1,i在图像I中出现的概率;c2,j为区域r2中第j个像素的颜色值,f(c2,j)表示c2,j在图像I中出现的概率;D(c1,i,c2,j)表示两个像素c1,i和c2,j的颜色距离。
然后在公式(3)的基础上再加上相邻空间信息,增大近邻空间区域的影响,见公式:
其中Ds(ri,rk)为区域ri和rk的空间距离(即两个区域重心的欧氏距离),σs为颜色空间权重强度。
步骤3:采用二值化阈值分割前景显著区域。具体实现过程为:将公式(5)计算出的视频帧显著区域,从浮点型数据转换为8位无符号灰度图,以该灰度图的均值作为阈值进行二值化操作,得出的二值化图像即为输入视频帧的前景显著区域RCmap。
步骤4:对分割出的前景区域做形态学梯度变化,生成新的全局显著边缘区域RCBmap。具体实现过程为:用以下公式对RCmap做2次形态学梯度变化扩大显著边缘区域范围:
RCBmap=morphgrad(RCmap)=dilate(RCmap)-erode(RCmap), (6)
其中morphgrad(·)表示形态学梯度操作,dilate(·)和erode(·)分别表示膨胀和腐蚀操作。公式(3)、(5)中的下标i表示第i个区域。
步骤5:通过特征点对和随机采样一致性修正光流场。实现过程为:先用算法求出当前视频帧的稠密光流场矢量ωt,通过前后两帧的SURF特征点和关键特征强角点组成特征点对,再用RANSAC算法和这些特征点对求出修正后的光流场矢量
步骤6:遍历视频帧不同尺度下所有网格提取强角点。实现过程为:对于下采样后每个不同尺度的视频帧,先按n*n像素的方式划分网格,再用以下公式提取当前视频帧I的Harris强角点:
其中为视频帧I中每个像素点i周围3*3像素邻域范围内,由图像导数求出的2*2梯度协方差矩阵特征值。对于每个大于阈值T的像素点对应特征值,记录其在视频帧I中的坐标位置,如果该像素点坐标落在视频帧中一个网格的n*n像素范围,则将该网格的中心像素点作为强角点P。
步骤7:在显著边缘区域中采集修正光流幅值不为零的强角点作为关键特征强角点。实现过程为:根据公式(6)获得的每个不同尺度下视频帧的显著边缘区域RCBmap,从t时刻视频帧所有网格的全部强角点中,筛选出坐标落在显著边缘区域的强角点,如果该角点在下一帧的修正光流矢量经过归一化后幅值大于最小光流阈值(可将最小光流阈值设为0.001),那么就将该角点作为关键特征强角点Pt。光流场在第i个像素点的运动矢量经过归一化后的幅值为mag(Ii),计算公式如下:
其中,假设为当前光流场I在第i个像素点的运动矢量,那么分别为在水平方向上和垂直方向上的分量。步骤8:检查步骤7获得的关键特征强角点数目,如果数目为零则取步骤6的强角点作为关键特征强角点;实现过程为:检查步骤7在当前视频帧采集到的关键特征强角点数目,如果角点数目为零,那么将取消显著边缘区域和最小光流阈值的限制,直接按照步骤6的方法,以t时刻视频帧在当前尺度下所有的强角点作为关键特征强角点Pt
步骤9:根据修正光流场计算关键特征强角点的位移;实现过程为:根据步骤5计算出的修正光流场矢量ω′t,记录关键特征强角点Pt在t+1帧的位移坐标Pt+1,公式如下:
Pt+1=(xt+1,yt+1)=(xt,yt)+(M*ω′t)|(xt,yt), (9)
其中M表示中值滤波器的核,(xt,yt)表示角点Pt+1在视频帧的坐标位置。
步骤10:用强角点连续多帧的坐标位移轨迹,以及角点邻域梯度矢量组成人体动作局部时空特征。实现过程为:记录每个关键特征强角点连续L帧的坐标Pt至Pt+L,将该角点在连续多帧的邻域梯度矢量如HOG、HOF和MBH描述算子,按16像素×16像素×5帧形成局部特征时空卷。将该角点连续L=15帧内形成的3个局部特征时空卷,按HOG、HOF、MBH描述算子计算该角点的邻域梯度矢量,串联组成人体动作局部时空特征。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (10)

1.一种基于全局显著边缘区域的人体动作特征提取方法,其特征在于,包括以下步骤:
步骤1:减少RGB色彩空间的颜色数量,平滑颜色空间的显著度;
步骤2:根据相邻区域的空间关系计算显著性区域;
步骤3:采用二值化阈值分割前景显著区域;
步骤4:对分割出的前景区域做形态学梯度变化,生成全局显著边缘区域;
步骤5:通过特征点对和随机采样一致性修正光流场;
步骤6:遍历视频帧不同尺度下所有网格提取强角点;
步骤7:在显著边缘区域中采集修正光流幅值不为零的强角点作为关键特征强角点;
步骤8:检查步骤7获得的关键特征强角点数目,如果数目为零则取步骤6的强角点作为关键特征强角点;
步骤9:根据修正光流场计算关键特征强角点的位移;
步骤10:用强角点连续多帧的坐标位移轨迹,以及角点邻域梯度矢量组成人体动作局部时空特征。
2.根据权利要求1所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤1中,减少RGB色彩空间的颜色数量,平滑颜色空间的显著度;具体实现过程为:
定义图像I中第k个像素Ik的显著度S(·)为:
其中D(Ik,Ii)为像素Ik和像素Ii在颜色空间的距离度量;
先将RGB色彩空间3个通道的颜色量化到12个不同的值,使图像像素的颜色数量减少到123=1728;接着通过选择高频出现的颜色,将颜色数量减少到n=85,确保这些颜色覆盖95%以上的像素;然后对每个量化后颜色c的显著度进行平滑操作,用m个近邻颜色显著性的加权平均值改善显著度,公式如下:
其中,为颜色c和m个近邻颜色cj之间的距离;下标j表示第j个邻近颜色。
3.根据权利要求2所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤2中,根据相邻区域的空间关系计算显著性区域;实现过程为:
先使用图像分割算法将输入视频帧分成多个区域,并为每个区域建立起颜色直方图;对于每个区域rk,通过与其它区域的颜色对比度来计算显著度,公式如下:
其中w(ri)为图像中第i个区域的像素总数,表示区域ri的权重,以此强调大区域的颜色对比度;Dr(·,·)为两个区域的颜色距离;两个区域r1和r2的颜色距离为:
其中c1,i为区域r1中第i个像素的颜色值,f(c1,i)表示c1,i在图像I中出现的概率;c2,j为区域r2中第j个像素的颜色值,f(c2,j)表示c2,j在图像I中出现的概率;D(c1,i,c2,j)表示两个像素c1,i和c2,j的颜色距离;
然后在公式(3)的基础上再加上相邻空间信息,增大近邻空间区域的影响,见公式:
其中Ds(ri,rk)为区域ri和rk的空间距离,是两个区域重心的欧氏距离,σs为颜色空间权重强度。
4.根据权利要求3所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤3中,采用二值化阈值分割前景显著区域;实现过程为:将公式(5)计算出的视频帧显著区域,从浮点型数据转换为8位无符号灰度图,通过设定一个[0,255]的阈值进行二值化操作,以得出的二值化图像作为输入视频帧的前景区域RCmap。
5.根据权利要求4所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤4中,对分割出的前景区域RCmap做形态学梯度变化,生成新的全局显著边缘区域RCBmap;实现过程为:用以下公式对前景区域RCmap做形态学梯度变化:
RCBmap=morphgrad(RCmap)=dilate(RCmap)-erode(RCmap),(6)
其中morphgrad(·)表示形态学梯度操作,dilate(·)和erode(·)分别表示膨胀和腐蚀操作。
6.根据权利要求5所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤5中,通过特征点对和随机采样一致性修正光流场;实现过程为:先用算法求出当前视频帧的稠密光流场矢量ωt,通过前后两帧的SURF特征点和关键特征强角点组成特征点对,再用RANSAC算法和这些特征点对求出修正后的光流场矢量ω′t
7.根据权利要求6所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤6中,遍历视频帧不同尺度下所有网格提取强角点;实现过程为:
对于下采样后每个不同尺度的视频帧,先按n*n像素的方式划分网格,再用以下公式提取当前视频帧I的强角点:
其中为视频帧I中每个像素点i邻域范围内,由图像导数求出的2*2梯度协方差矩阵特征值;对于每个大于阈值T的像素点对应特征值,记录其在视频帧I中的坐标位置,如果该像素点坐标落在视频帧中一个网格的n*n像素范围,则将该网格的中心像素点作为强角点P。
8.根据权利要求7所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤7中,在显著边缘区域中采集修正光流幅值不为零的强角点作为关键特征强角点;实现过程为:根据公式(6)获得的每个不同尺度下视频帧的显著边缘区域RCBmap,从t时刻视频帧所有网格的全部强角点中,筛选出坐标落在显著边缘区域的强角点,如果该强角点在下一帧的修正光流矢量经过归一化后幅值大于最小光流阈值,那么就将该强 角点作为关键特征强角点Pt;光流场在第i个像素点的运动矢量经过归一化后的幅值为mag(Ii),计算公式如下:
其中,假设为当前光流场I在第i个像素点的运动矢量,那么分别为在水平方向上和垂直方向上的分量;
所述步骤8中,检查步骤7获得的关键特征强角点数目,如果数目为零则取步骤6的强角点作为关键特征强角点;实现过程为:检查步骤7在当前视频帧采集到的关键特征强角点数目,如果强角点数目为零,那么将取消显著边缘区域和最小光流阈值的限制,直接按步骤6的方法,以t时刻视频帧在当前尺度下所有的强角点作为关键特征强角点Pt
9.根据权利要求8所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤9中,根据修正光流场计算关键特征强角点的位移;实现过程为:根据步骤5计算出的修正光流场矢量ω′t,记录关键特征强角点Pt在t+1帧的位移坐标Pt+1,公式如下:
其中M表示中值滤波器的核,(xt+1,yt+1)表示角点Pt+1在视频帧的坐标位置。
10.根据权利要求9所述的基于全局显著边缘区域的人体动作特征提取方法,其特征在于:所述步骤10中,用强角点连续多帧的坐标位移轨迹,以及强角点邻域梯度矢量组成人体动作局部时空特征;实现过程为:记录每个关键特征强角点连续L帧的坐标Pt至Pt+L,将该强角点在连续多帧的邻域梯度矢量HOG、HOF和MBH描述算子,按16像素×16像素×5帧形成局部特征时空卷;将该强角点连续L=15帧内形成的3个局部特征时空卷,按HOG、HOF、MBH描述算子计算该强角点的邻域梯度矢量,组成人体动作局部时空特征。
CN201610075788.1A 2016-02-03 2016-02-03 基于全局显著边缘区域的人体动作特征提取方法 Expired - Fee Related CN105550678B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610075788.1A CN105550678B (zh) 2016-02-03 2016-02-03 基于全局显著边缘区域的人体动作特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610075788.1A CN105550678B (zh) 2016-02-03 2016-02-03 基于全局显著边缘区域的人体动作特征提取方法

Publications (2)

Publication Number Publication Date
CN105550678A CN105550678A (zh) 2016-05-04
CN105550678B true CN105550678B (zh) 2019-01-18

Family

ID=55829861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610075788.1A Expired - Fee Related CN105550678B (zh) 2016-02-03 2016-02-03 基于全局显著边缘区域的人体动作特征提取方法

Country Status (1)

Country Link
CN (1) CN105550678B (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295564B (zh) * 2016-08-11 2019-06-07 南京理工大学 一种邻域高斯结构和视频特征融合的动作识别方法
CN106339666B (zh) * 2016-08-11 2019-08-20 中科亿和智慧物联(深圳)有限公司 一种人体目标的夜间监控方法
CN106709933B (zh) * 2016-11-17 2020-04-07 南京邮电大学 一种基于非监督学习的运动估计方法
CN108288016B (zh) * 2017-01-10 2021-09-03 武汉大学 基于梯度边界图和多模卷积融合的动作识别方法及***
CN106952269B (zh) * 2017-02-24 2019-09-20 北京航空航天大学 近邻可逆的视频前景物体序列检测分割方法及***
CN107330385A (zh) * 2017-06-21 2017-11-07 华东师范大学 一种基于语义通道的多特征行人检测方法
CN107784266A (zh) * 2017-08-07 2018-03-09 南京理工大学 基于时空多尺度统计匹配模型的动作检测方法
CN107635099B (zh) * 2017-10-09 2020-08-18 深圳市天视通电子科技有限公司 一种人体感应双光网络摄像机及安防监控***
CN108053410B (zh) * 2017-12-11 2020-10-20 厦门美图之家科技有限公司 运动目标分割方法及装置
CN110096938B (zh) * 2018-01-31 2022-10-04 腾讯科技(深圳)有限公司 一种视频中的动作行为的处理方法和装置
CN108550159B (zh) * 2018-03-08 2022-02-15 佛山市云米电器科技有限公司 一种基于图像三色分割的烟气浓度标识方法
CN109118493B (zh) * 2018-07-11 2021-09-10 南京理工大学 一种深度图像中的显著区域检测方法
CN109284667B (zh) * 2018-07-26 2021-09-03 同济大学 一种面向视频的三流式人体运动行为空间域检测方法
CN109118507B (zh) * 2018-08-27 2019-09-13 嵊州市万睿科技有限公司 外壳承受气压实时报警***
CN109883609B (zh) * 2018-08-27 2020-11-27 青田县元元科技有限公司 外壳承受气压实时报警方法
CN109299665B (zh) * 2018-08-29 2023-04-14 上海悠络客电子科技股份有限公司 一种基于lsd算法的人形轮廓描述方法
CN109583341B (zh) * 2018-11-19 2021-02-05 清华大学深圳研究生院 对包含人像的图像的多人骨骼关键点检测方法及装置
CN109697409B (zh) * 2018-11-27 2020-07-17 北京文香信息技术有限公司 一种运动图像的特征提取方法及起立动作图像的识别方法
CN111753590B (zh) * 2019-03-28 2023-10-17 杭州海康威视数字技术股份有限公司 一种行为识别方法、装置及电子设备
CN110163129B (zh) * 2019-05-08 2024-02-13 腾讯科技(深圳)有限公司 视频处理的方法、装置、电子设备及计算机可读存储介质
CN113408352B (zh) * 2019-05-28 2024-07-16 浙江大华技术股份有限公司 行人异常行为检测方法、图像处理装置及存储装置
CN110490881A (zh) * 2019-08-19 2019-11-22 腾讯科技(深圳)有限公司 医学影像分割方法、装置、计算机设备及可读存储介质
CN110705448B (zh) * 2019-09-27 2023-01-20 北京市商汤科技开发有限公司 一种人体检测方法及装置
CN111461036B (zh) * 2020-04-07 2022-07-05 武汉大学 一种利用背景建模增强数据的实时行人检测方法
CN111614965B (zh) * 2020-05-07 2022-02-01 武汉大学 基于图像网格光流滤波的无人机视频稳像方法及***
CN113205043B (zh) * 2021-04-30 2022-06-07 武汉大学 一种基于强化学习的视频序列二维姿态估计方法
CN113902760B (zh) * 2021-10-19 2022-05-17 深圳市飘飘宝贝有限公司 视频分割中物体边缘优化方法、***、装置及存储介质
CN116012283B (zh) * 2022-09-28 2023-10-13 逸超医疗科技(北京)有限公司 一种全自动超声图像量测方法、设备及存储介质
CN116095363B (zh) * 2023-02-09 2024-05-14 西安电子科技大学 基于关键行为识别的移动端短视频高光时刻剪辑方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200490A (zh) * 2014-08-14 2014-12-10 华南理工大学 一种复杂环境下的快速逆行检测跟踪监控方法
CN104424642A (zh) * 2013-09-09 2015-03-18 华为软件技术有限公司 一种视频显著性区域检测方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104424642A (zh) * 2013-09-09 2015-03-18 华为软件技术有限公司 一种视频显著性区域检测方法及***
CN104200490A (zh) * 2014-08-14 2014-12-10 华南理工大学 一种复杂环境下的快速逆行检测跟踪监控方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Combining spatio-temporal appearance descriptors and optical flow for human action recognition in video data;Karla Brkic等;《CCVW》;20130919;第9-14页
Spatiotemporal salient points for visual recognition of human actions;Antonios Oikonomopoulos等;《IEEE Transactions on systems,Man,and Cybernetics,Part B(Cybernetics)》;20050630;第36卷(第3期);第710-719页
基于显著区域的行人检测算法;王晓等;《计算机工程与设计》;20150216;第36卷(第2期);第520-523页

Also Published As

Publication number Publication date
CN105550678A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
CN105550678B (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN108241849B (zh) 基于视频的人体交互动作识别方法
CN111444828B (zh) 一种模型训练的方法、目标检测的方法、装置及存储介质
CN107103613B (zh) 一种三维手势姿态估计方法
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
Zeng et al. Silhouette-based gait recognition via deterministic learning
CN110688965B (zh) 基于双目视觉的ipt模拟训练手势识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106815578A (zh) 一种基于深度运动图‑尺度不变特征变换的手势识别方法
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
CN112907569A (zh) 头部图像区域的分割方法、装置、电子设备和存储介质
CN112541870A (zh) 一种视频处理的方法、装置、可读存储介质和电子设备
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN115346272A (zh) 基于深度图像序列的实时摔倒检测方法
Xia et al. [Retracted] Gesture Tracking and Recognition Algorithm for Dynamic Human Motion Using Multimodal Deep Learning
Sun et al. Martial arts routine difficulty action technology VR image target real-time extraction simulation
Xu et al. 3D joints estimation of the human body in single-frame point cloud
CN110348395B (zh) 一种基于时空关系的骨架行为识别方法
CN110163112B (zh) 一种考生姿态分割与平滑方法
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其***
CN103873859B (zh) 基于时空显著性检测的视频融合性能评价方法
JP2017033556A (ja) 画像処理方法及び電子機器
CN113255514B (zh) 基于局部场景感知图卷积网络的行为识别方法
Yang Face feature tracking algorithm of aerobics athletes based on Kalman filter and mean shift
Yang et al. [Retracted] Footballer Action Tracking and Intervention Using Deep Learning Algorithm

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190118

Termination date: 20200203

CF01 Termination of patent right due to non-payment of annual fee