CN107330424B - 互动区域与互动时间段识别方法、存储设备及移动终端 - Google Patents

互动区域与互动时间段识别方法、存储设备及移动终端 Download PDF

Info

Publication number
CN107330424B
CN107330424B CN201710655807.2A CN201710655807A CN107330424B CN 107330424 B CN107330424 B CN 107330424B CN 201710655807 A CN201710655807 A CN 201710655807A CN 107330424 B CN107330424 B CN 107330424B
Authority
CN
China
Prior art keywords
interaction
human body
recording
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710655807.2A
Other languages
English (en)
Other versions
CN107330424A (zh
Inventor
赵志强
邵立智
崔盈
冉鹏
徐光侠
钱鹰
周贤菊
田�健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201710655807.2A priority Critical patent/CN107330424B/zh
Publication of CN107330424A publication Critical patent/CN107330424A/zh
Application granted granted Critical
Publication of CN107330424B publication Critical patent/CN107330424B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种互动区域与互动时间段识别方法,适于在计算设备中执行,该方法包括:接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;对得到的单帧图像进行人形检测;进行全图差分,并记录差分数据;判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及记录人体互动区域和时间段。本发明还公开了一种存储设备及移动终端。

Description

互动区域与互动时间段识别方法、存储设备及移动终端
技术领域
本发明属于计算机视觉识别领域,特别涉及一种差分像素的互动区域与互动时间段识别方法,还涉及一种可实现上述功能的存储设备及移动终端。
背景技术
随着科学技术发展与现代视频技术的广泛运用,基于机器是视觉的图像处理与模式识别方法越来越多的被运用到模式识别、运动分析、视频监控和人工智能等领域。
现有的与人相关的算法,大多基于模型的检测算法,需要通过特定的算子或模型进行整幅图像的匹配计算,大大提高了运算消耗、损失了运算效率与实时性。当前存在对于人体活动区域产生先验区域的算法,大多无法兼顾实时性和精度要求,在区域判定时对于人***移型活动(如:行走、奔跑、爬行等)和互动型活动(在图像上显示为动、静状态转换的活动,运动停止与某件空间内物体进行互动,如:起立坐下、出门进门、喝水等)这两种人体活动状态并未有明显区分,没有针对人体互动型活动区域的识别。并且,现有的算法大多只关注空间内的标定,而没有进行活动对应的时间上的记录,没有完整的记录一个人体的活动区域和在该区域活动的时间。
发明内容
针对现有技术中存在的技术问题,本发明提供一种互动区域与互动时间段识别方法、存储设备及移动终端,其可以弥补现有技术的不足,提高数学模型的应用效果。
本发明所提供的一种差分像素的互动区域与互动时间段识别方法,适于在计算设备中执行,该方法包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段。
其中,所述步骤“对得到的单帧图像进行人形检测”包括:
将得到的单帧图像从RGB转换为灰度图像,并对转换后的灰度图像做平滑去噪滤波处理;以及
运用人像HOG算子,进行人像检测。
其中,所述步骤“运用人像HOG算子进行人像检测”包括:
进行Gamma校正;
将图像转灰度;
计算图像的梯度与方向,以得到图像的梯度振幅与角度;
8×8网格方向梯度权重直方图统计;以及
块描述子与特征向量归一化。
其中,所述步骤“进行全图差分,并记录差分数据”包括:
分别对全图进行两帧差分、三帧差分及五帧差分,并记录对应的差分结果;以及
通过人体运动统计模型将人体一般运动情况下的区域内像素变换运用一维正态分布进行描述,并滤除非人体活动的差分数据。
其中,所述步骤“判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点”包括:
基于获得的人体活动差分数据,运用人***移活动模型判断差分数据是否满足人***移活动类型;
若确定不为位移运动,则将N帧差分数据与人体互动触发模型进行匹配;
若成功匹配,则记录当前触发的互动区域与时间断点;
将N帧差分数据与人体互动终止模型进行匹配;以及
若成功匹配,记录当前终止的互动区域与时间断点。
其中,所述步骤“记录人体互动区域和时间段”包括:
计算互动触发区域与终止区域的重合部分,记录为人体活动区域;
计算互动触发与终止的间隔时间,并与记录的活动区域做对应;以及
进行同一空间下的多组视频检测,记录所有互动触发区域,并对所有相邻M像素范围内的互动触发区域进行求交集操作,获取交集部分的区域,该交集部分的区域即为最终获得的空间内互动频率最高的区域。
进一步的,还包括:通过不同颜色标记不同互动频率的区域。
本发明还提供了一种存储设备,其中存储有多条指令,所述指令适于由处理器加载并执行,所述指令包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段。
本发明还提供了一种移动终端,包括:
处理器,适于实现各指令;以及
存储设备,适于存储多条指令,所述指令适于由处理器加载并执行,所述指令包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段。
本发明所述的差分像素的互动区域与互动时间段识别方法的算法,主要通过对人体活动在图像上产生的像素变化进行统计,进而结合人体活动模型,进行人体普通位置移动和空间互动两种状态的判定,最终得出人体互动区域与互动时间段。
附图说明
图1是本发明所述的一种差分像素的互动区域与互动时间段识别方法的较佳实施方式的流程图。
图2是图1中步骤S2的具体流程图。
图3是图1中步骤S3的具体流程图。
图4是图1中步骤S4的具体流程图。
图5是图1中步骤S5的具体流程图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体图示,进一步阐述本发明。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
本发明中,人***移型活动包括诸如行走、跑动、爬行等,为人体产生位移的行为状态;互动性活动包括诸如起立、做下、卧躺、喝水、与物体互动(桌子、椅子等)等小位移行为,区分前述二者可以将人的行为基本分为两类,有助于进一步的姿态识别和行为分析。
请参考图1所示,其为本发明所述的一种差分像素的互动区域与互动时间段识别方法的较佳实施方式的流程图。所述差分像素的互动区域与互动时间段识别方法的较佳实施方式包括以下步骤:
步骤S1:接收所输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像。
帧率是指视频格式每秒钟播放的静态画面数量,因此可将视频信号拆解为若干静态画面,即拆帧。现有很多软件均可实现拆帧功能,在此不再赘述。
步骤S2:对由步骤S1中得到的单帧图像进行人形检测。
人形检测(Human shape recognition,简称HSR)技术是指利用人体成像的一定特征,通过对图形图像的处理,最终在成像空间中发现识别和定位人形目标的技术。人形检测(HSR)是计算机视觉、模式识别、图像处理技术和形态学技术的融合,其可被广泛的应用到智能监控、智能交通、目标循迹、目标跟踪等领域。人形检测的实现过程可以分为目标检测、边界提取、人形目标匹配和人形目标识别等过程。
具体的,请参图2所示,人形检测可通过下述方式进行:
步骤S21:将由步骤S1中得到的单帧图像从RGB转换为灰度图像,并对转换后的灰度图像做平滑去噪滤波处理。
步骤S22:运用人像HOG算子,进行人像检测。
HOG(Histogram of Oriented Gradient,梯度方向直方图)特征是对象识别与模式匹配中的特征提取算法,是基于本地像素块进行特征直方图提取的一种算法。通过HOG特征提取以及SVM(Support Vector Machine,支持向量机)训练,可以得到很好的效果。HOG特征提取的大致流程如下:第一步,Gamma校正,通过相反的非线性转换把该转换反转输出来,主要是对输入图像进行校正,以补偿显示器带来的灰度偏差,常见的系数在2.5左右。第二步,将图像转灰度。第三步,计算图像的梯度与方向,最终得到图像的梯度振幅与角度。第四步,8×8网格方向梯度权重直方图统计。第五步,块内归一化梯度直方图。最终即可实现人形检测的功能。
步骤S3:进行全图差分,并记录差分数据。
具体的,请参图3所示,全图差分可通过下述方式进行:
步骤S31:分别对全图进行两帧差分、三帧差分及五帧差分,并记录对应的差分结果,分别记为:diff1、diff2及diff3。
其中,两帧差分是指将相邻的两帧图像进行相减,得到两帧图像亮度差的绝对值,判断它是否大于阈值来分析视频或图像序列的运动特性,确定图像序列中有无物体运动。三帧差分是指选取任意相邻的三帧图像,分别对前两帧图像和后两帧图像做图像差值运算,之后对上述两个帧差图像阈值化的结构进行“与”运算,从而提取出目标图像,可用于描述图像像素变化剧烈程度。同理,五帧差分是指选取相邻的五帧图像,以第K帧图像作为当前帧,分别与前两帧和后两帧进行帧差运算,得到四个差帧运算结果,对其四个差帧运算结果进行二值化处理,之后对处理之后的四个运算结果先进行“与”运算再进行“或”运算,即可得到图像的目标轮廓。本实施方式中采用两帧差分、三帧差分及五帧差分的目的在于上述三种差分计算方式的计算量较小,可以满足算法实时性要求。通过差分数据获取的差分数据,可用于分析运动类型(位移型和互动型)。
步骤S32:通过人体运动统计模型(即人体运动正态分布)将人体一般运动情况下的区域内像素变换运用一维正态分布进行描述,并滤除非人体活动的差分数据。本实施方式中,此处的统计基于多样本进行统计,以确保统计的准确性。
步骤S4:判断前20帧的图像像素差分数据是否满足人体互动特征模型。本实施方式中选取20帧图像作为判断标准,其他实施方式中亦可选取其他帧数的图像作为判断标准。
具体的,请参图4所示,判断是否满足人体互动特征模型可通过下述方式进行:
步骤S41:基于获得的人体活动差分数据,运用人***移活动模型判断差分数据是否满足人***移活动类型。本实施方式中,所述人***移活动模型系根据差分数据的统计数据所得出的正态分布模型,其中数据样本为产生位移型运动的20帧图像差分数据。当差分数据|x-E|<=σ时,则判定为成功落在分布内,即被判定为人***移活动,其中x表示图像差分得到的数据,E表示统计模型中的人***移型活动差分值的平均值,σ表示图像差分数据统计中的计算得出的差分数据方差。
本实施方式中选取20帧图像作为数据样本,其他实施方式中亦可选取其他帧数的图像作为数据样本。
步骤S42:若确定不为位移运动,则将20帧差分数据diff与人体互动触发模型进行匹配(以两帧差分diff1为例,diff=∑diff1i,i∈{[1,20],i∈N})。
步骤S43:若成功匹配,则记录当前触发的互动区域与时间断点。若匹配不成功,则返回至步骤S42持续进行匹配。
步骤S44:循环检测,将20帧差分数据与人体互动终止模型进行匹配。
步骤S45:若成功匹配,记录当前终止的互动区域与时间断点。若匹配不成功,则返回至步骤S44持续进行匹配。
本实施方式中,该人体互动终止模型为根据差分数据的统计数据得出的正态分布模型,数据样本为人体停止运动前后10s的图像差分数据。当差分数据|x-E|<=σ时,则判定为成功落在分布内,即被判定为人体互动触发模型。其中x表示图像差分得到的数据,E表示统计模型中的人体互动型活动的图像差分值的平均值,σ表示图像差分数据统计中计算得出的方差。
步骤S5:记录人体互动区域和时间段。
具体的,请参图5所示,所述步骤S5具体包括以下步骤:
步骤S51:计算互动触发区域与终止区域的重合部分,记录为人体活动区域。上述互动触发区域与终止区域由步骤S42及S43所得到。
步骤S52:计算互动触发与终止的间隔时间,并与记录的活动区域做对应。上述互动触发与终止的见个时间由步骤S42及S43所得到。
步骤S53:进行同一空间下的多组视频检测,记录所有互动触发区域(area1,area2,area3,……,arean),并对所有相邻50像素范围内的互动触发区域进行求交集操作,获取交集部分的区域,该交集部分的区域即为最终获得的空间内互动频率最高的区域area。本实施方式中,将所有相邻50像素范围内的互动触发区域进行求交集操作中的“相邻50像素”仅为一示例,其他实施方式中亦可根据用户的需求另行选择。
步骤S54:通过红黄绿标记不同互动频率的区域。当然,其他实施方式中亦可通过其他不同的颜色甚至其他标识来标记不同互动频率的区域。
本发明所述的差分像素的互动区域与互动时间段识别方法的算法,主要通过对人体活动在图像上产生的像素变化进行统计,进而结合人体活动模型,进行人体普通位置移动和空间互动两种状态的判定,最终得出人体互动区域与互动时间段。上述方法所需的运算消耗较少,可将人***移型活动和互动型活动进行区分,且能完整的记录一个人体的活动区域和在该区域活动的时间。
本发明还公开了一种存储设备及移动终端。所述存储设备存储有多条指令,所述指令适于由处理器加载并执行,所述指令包括:接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;对得到的单帧图像进行人形检测;进行全图差分,并记录差分数据;判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及记录人体互动区域和时间段。
所述移动终端包括处理器及存储设备,所述处理器适于实现各指令,所述存储设备适于存储多条指令,所述指令适于由处理器加载并执行,所述指令包括:接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;对得到的单帧图像进行人形检测;进行全图差分,并记录差分数据;判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及记录人体互动区域和时间段。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构,直接或间接运用在其他相关的技术领域,均同理在本发明的专利保护范围之内。

Claims (8)

1.一种互动区域与互动时间段识别方法,适于在计算设备中执行,该方法包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段;
所述步骤“判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点”包括:
基于获得的人体活动差分数据,运用人***移活动模型判断差分数据是否满足人***移活动类型;
若确定不为位移运动,则将N帧差分数据与人体互动触发模型进行匹配;
若成功匹配,则记录当前触发的互动区域与时间断点;
将N帧差分数据与人体互动终止模型进行匹配;以及
若成功匹配,记录当前终止的互动区域与时间断点。
2.如权利要求1所述的互动区域与互动时间段识别方法,其特征在于:所述步骤“对得到的单帧图像进行人形检测”包括:
将得到的单帧图像从RGB转换为灰度图像,并对转换后的灰度图像做平滑去噪滤波处理;以及
运用人像HOG算子,进行人像检测。
3.如权利要求2所述的互动区域与互动时间段识别方法,其特征在于:所述步骤“运用人像HOG算子进行人像检测”包括:
进行Gamma校正;
将图像转灰度;
计算图像的梯度与方向,以得到图像的梯度振幅与角度;
8×8网格方向梯度权重直方图统计;以及
块描述子与特征向量归一化。
4.如权利要求1所述的互动区域与互动时间段识别方法,其特征在于:所述步骤“进行全图差分,并记录差分数据”包括:
分别对全图进行两帧差分、三帧差分及五帧差分,并记录对应的差分结果;以及
通过人体运动统计模型将人体一般运动情况下的区域内像素变换运用一维正态分布进行描述,并滤除非人体活动的差分数据。
5.如权利要求1所述的互动区域与互动时间段识别方法,其特征在于:所述步骤“记录人体互动区域和时间段”包括:
计算互动触发区域与终止区域的重合部分,记录为人体活动区域;
计算互动触发与终止的间隔时间,并与记录的活动区域做对应;以及
进行同一空间下的多组视频检测,记录所有互动触发区域,并对所有相邻M像素范围内的互动触发区域进行求交集操作,获取交集部分的区域,该交集部分的区域即为最终获得的空间内互动频率最高的区域。
6.如权利要求5所述的互动区域与互动时间段识别方法,其特征在于:还包括:通过不同颜色标记不同互动频率的区域。
7.一种存储设备,其中存储有多条指令,所述指令适于由处理器加载并执行,所述指令包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点”包括:
基于获得的人体活动差分数据,运用人***移活动模型判断差分数据是否满足人***移活动类型;
若确定不为位移运动,则将N帧差分数据与人体互动触发模型进行匹配;
若成功匹配,则记录当前触发的互动区域与时间断点;
将N帧差分数据与人体互动终止模型进行匹配;以及
若成功匹配,记录当前终止的互动区域与时间断点。
8.一种移动终端,包括:
处理器,适于实现各指令;以及
存储设备,适于存储多条指令,所述指令适于由处理器加载并执行,所述指令包括:
接收输入的视频信号,并将所输入的视频信号进行拆帧处理,以生成单帧图像;
对得到的单帧图像进行人形检测;
进行全图差分,并记录差分数据;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点;以及
记录人体互动区域和时间段;
判断前N帧的图像像素差分数据是否满足人体互动特征模型,并记录触发的互动区域与时间断点以及终止的互动区域与时间断点”包括:
基于获得的人体活动差分数据,运用人***移活动模型判断差分数据是否满足人***移活动类型;
若确定不为位移运动,则将N帧差分数据与人体互动触发模型进行匹配;
若成功匹配,则记录当前触发的互动区域与时间断点;
将N帧差分数据与人体互动终止模型进行匹配;以及
若成功匹配,记录当前终止的互动区域与时间断点。
CN201710655807.2A 2017-08-03 2017-08-03 互动区域与互动时间段识别方法、存储设备及移动终端 Active CN107330424B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710655807.2A CN107330424B (zh) 2017-08-03 2017-08-03 互动区域与互动时间段识别方法、存储设备及移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710655807.2A CN107330424B (zh) 2017-08-03 2017-08-03 互动区域与互动时间段识别方法、存储设备及移动终端

Publications (2)

Publication Number Publication Date
CN107330424A CN107330424A (zh) 2017-11-07
CN107330424B true CN107330424B (zh) 2020-10-16

Family

ID=60225613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710655807.2A Active CN107330424B (zh) 2017-08-03 2017-08-03 互动区域与互动时间段识别方法、存储设备及移动终端

Country Status (1)

Country Link
CN (1) CN107330424B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457007B2 (en) * 2003-04-07 2008-11-25 Silverbrook Research Pty Ltd Laser scanning device for printed product identification codes
CN102436301A (zh) * 2011-08-20 2012-05-02 Tcl集团股份有限公司 一种基于参考区域和时域信息的人机交互方法及***
CN102509088A (zh) * 2011-11-28 2012-06-20 Tcl集团股份有限公司 一种手部运动检测的方法、装置及人机交互***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4509917B2 (ja) * 2005-11-21 2010-07-21 株式会社メガチップス 画像処理装置及びカメラシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457007B2 (en) * 2003-04-07 2008-11-25 Silverbrook Research Pty Ltd Laser scanning device for printed product identification codes
CN102436301A (zh) * 2011-08-20 2012-05-02 Tcl集团股份有限公司 一种基于参考区域和时域信息的人机交互方法及***
CN102509088A (zh) * 2011-11-28 2012-06-20 Tcl集团股份有限公司 一种手部运动检测的方法、装置及人机交互***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于HOG特征的人脸识别***研究";幕春雷;《中国优秀硕士学位论文全文数据库 (电子期刊) 信息科技辑》;20140115;期刊第4.2节 *

Also Published As

Publication number Publication date
CN107330424A (zh) 2017-11-07

Similar Documents

Publication Publication Date Title
US11450146B2 (en) Gesture recognition method, apparatus, and device
Kruthiventi et al. Saliency unified: A deep architecture for simultaneous eye fixation prediction and salient object segmentation
US9536147B2 (en) Optical flow tracking method and apparatus
CN110427905A (zh) 行人跟踪方法、装置以及终端
US9615039B2 (en) Systems and methods for reducing noise in video streams
US9014467B2 (en) Image processing method and image processing device
CN112308095A (zh) 图片预处理及模型训练方法、装置、服务器及存储介质
WO2019074601A1 (en) TRACKING OBJECTS FOR NEURONAL NETWORK SYSTEMS
US8548247B2 (en) Image processing apparatus and method, and program
CN111539273A (zh) 一种交通视频背景建模方法及***
US20100296701A1 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
CN104867111B (zh) 一种基于分块模糊核集的非均匀视频盲去模糊方法
US8577137B2 (en) Image processing apparatus and method, and program
Huynh-The et al. NIC: A robust background extraction algorithm for foreground detection in dynamic scenes
CN109886195B (zh) 基于深度相机近红外单色灰度图的皮肤识别方法
CN111553915A (zh) 物品识别检测方法、装置、设备和可读存储介质
CN111784624A (zh) 目标检测方法、装置、设备及计算机可读存储介质
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
CN110827320A (zh) 基于时序预测的目标跟踪方法和装置
Yanulevskaya et al. Salient object detection: from pixels to segments
CN115482523A (zh) 轻量级多尺度注意力机制的小物体目标检测方法及***
CN105701810B (zh) 一种基于点击式图像分割的无人机航拍图像电子勾绘方法
CN113542868A (zh) 视频关键帧选取方法、装置、电子设备、存储介质
Fang et al. 1-D barcode localization in complex background
CN107330424B (zh) 互动区域与互动时间段识别方法、存储设备及移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant