CN114049585A - 一种基于运动前景提取的使用手机动作检测方法 - Google Patents
一种基于运动前景提取的使用手机动作检测方法 Download PDFInfo
- Publication number
- CN114049585A CN114049585A CN202111187354.8A CN202111187354A CN114049585A CN 114049585 A CN114049585 A CN 114049585A CN 202111187354 A CN202111187354 A CN 202111187354A CN 114049585 A CN114049585 A CN 114049585A
- Authority
- CN
- China
- Prior art keywords
- mobile phone
- motion
- module
- layer
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 230000009471 action Effects 0.000 title claims abstract description 49
- 238000000605 extraction Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 10
- 238000004458 analytical method Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 33
- 238000009826 distribution Methods 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于运动前景提取的使用手机动作检测方法,利用背景建模及背景比对分析对视频序列进行运动前景提取,分割得到包含运动区域的小尺寸图像,然后利用卷积神经网络在运动区域图像中检测手机目标,从而实现使用手机动作检测。本发明充分利用视频提供的时空信息,实现由粗到细的检测过程,步骤简单,实用性高,利用安装并固定在实验室/会议室/教室等场所下的监控摄像机,可检测人员使用手机的情况,提升监控效果。
Description
技术领域
本发明涉及一种动作检测方法,特别是一种基于运动前景提取的使用手机动作检测方法。
背景技术
随着计算机视觉的快速发展和计算能力的逐步提升,智能视频监控技术渐渐出现在大众视野中。该技术对监控摄像机采集的视频,选用图像处理、模式识别等方法进行有效分析,从而自动识别出视频画面中的特定目标或异常情况,以便及时发出预警。智能视频监控技术的应用及普及极大促进了社会治安的提升,在改善生活质量、防御灾害等方面也有重要的意义。然而,受到检测识别算法及硬件平台的限制,现有已部署的部分智能视频监控***存在识别准确率不高、实时性差等问题,且尚缺少一种可普适于所有应用场景和应用需求的成熟的检测方法,因此需要针对不同场景提出性能好且实现简单的动作检测方法。
目前,在实验室/会议室/教室等固定室内场景下,使用手机动作的检测方法主要通过对视频中的单帧图像进行处理、分析,将手机作为目标进行物体检测,作为判别是否存在使用手机动作的依据。这种方法采用典型的基于深度学习的目标检测算法进行手机物体检测,利用标注出手机框的图像样本进行检测模型训练,在应用时仅从视频中间隔若干帧选取单帧的图像数据作为输入,通过完成训练的检测模型进行手机目标检测,即可实现使用手机动作检测,当检测到手机则认为存在使用手机的动作。然而,在监控视频中,手机与较大的背景区域相比尺寸小、特征不明显、与笔记本等其他物体相似度高,且易受监控摄像头的视野、角度等因素影响发生形状、尺寸的变化,在使用者手持手机时还易造成遮挡,造成手机目标在图像中不清晰,因此仅仅将手机作为动作检测依据时容易造成误检、漏检等问题。此外,这种检测方法是基于单帧图像进行检测,仅仅利用了图像的空域特征,即通过在单一时间内的空间中检测手机目标,来判断是否存在使用手机动作检测,该方法实现简单,却忽略了视频中时序特征可提供的运动状态信息,造成效果不佳的问题。
发明内容
本发明目的在于提供一种基于运动前景提取的使用手机动作检测方法,解决当前利用单帧图像进行手机目标检测时存在的误检和漏检的问题。
一种基于运动前景提取的使用手机动作检测方法的具体步骤为:
第一步 搭建基于运动前景提取的使用手机动作检测***
基于运动前景提取的使用手机动作检测***,包括:背景模型构建模块、运动前景提取模块、离线训练模块和使用手机动作检测模块。
背景模型构建模块的功能为:利用函数拟合背景图像得到模型,并结合视频所在的实际场景变化更新背景模型。
运动前景提取模块的功能为:将视频序列与背景模型进行比对计算,提取运动前景,通过连通性分析分割出运动区域。
离线训练模块的功能为:确定检测网络模型,构建运动区域图像样本库,并利用样本库进行网络离线训练。
使用手机动作检测模块的功能为:利用网络模型,对运动区域图像进行计算,检测是否存在使用手机动作。
第二步 背景模型构建模块完成使用场景的背景建模及背景更新
背景模型构建模块利用高斯概率密度函数精确量化背景,对每个像素点均采用K个高斯分布来拟合,针对使用场景建立背景模型,用公式(1)表示:
公式(1)中,时刻t时某像素点(x,y)取值为Xt,wi,t为第i个高斯分布的权值,η(Xt,μi,t,∑i,t)、μi,t和∑i,t分别为第i个高斯概率密度函数、均值和协方差矩阵,n为高斯分布的维数。
根据场景中的变化实时更新背景模型,用公式(2)-公式(4)表示:
wi,t=(1-α)wi,t-1+α (2)
μi,t=(1-ρ)μi,t-1+ρXt (3)
∑i,t=(1-ρ)∑i,t-1+ρ[(Xt-μi,t)(Xt-μi,t)T] (4)
公式(2)-公式(4)中,ρ为模型的更新率。模型更新完成后,计算图像中每一个像素点的值,并进行排序,选定最大的B个模型作为背景模型,即描述背景的高斯分布的个数为B,T为权值累加阈值,T∈(0.5,1),用公式(5)表示:
第三步运动前景提取模块提取运动前景并分割运动区域完成粗提取
运动前景提取模块将视频序列的当前一帧图像与背景图像模型进行比对计算,提取运动前景,根据运动前景从当前这一帧图像中分割出包含人体运动的目标区域。
从检测时刻t开始,输入该帧图像,与背景模型进行比对,逐一计算像素值Xt与在已得到的B个高斯分布的匹配关系,当像素值与前B个高斯分布之一匹配时,则该像素点为背景点,否则该像素点被分为运动前景。按匹配关系式对当该帧图像中的像素点逐一计算,确定能否与高斯分布匹配,得到二值化图像。匹配关系用公式(6)表示:
公式(6)中,灰度值为0的点为背景点,灰度值为1的点位运动前景点。
在提取到运动前景后,对其进行连通性分析,从当前这一帧图像中分割出包含人体运动的目标区域图像,得到尺寸为w*h的小尺寸图像,完成粗提取。
第四步 离线训练模块完成检测手机网络的确定与训练
离线训练模块对运动前景提取模块得到的运动区域图像中的手机进行标注,完成训练样本库的构建,确定并搭建深度卷积神经网络模型,用于从包含人体运动区域图像中检测手机,确定网络层数、各层定义、各层卷积面个数、卷积核尺寸、池化尺寸、池化层计算函数、激活函数和损失函数,然后利用构建的样本库对深度卷积神经网络的各卷积核的未知参数进行离线学习训练。
网络的卷积层基本运算用公式(7)表示:
Xa,b+1=f(∑Xb·Wa,b+ba,b) (7)
公式(7)中,f为激活函数,Wa,b和ba,b分别为网络第b层中第a个卷积面的卷积核与偏置值,Xb代表网络第b层各通道的输入,Xa,b+1代表网络第b层第a个卷积面的输出。
网络的池化层基本运算用公式(8)表示:
Xa,b+1=p(Xa,b) (8)
公式(8)中,Xa,b代表网络第b层第a通道的输入,Xa,b+1代表网络第b层第a个通道的输出,p为池化层计算函数。
网络全连接层基本运算用公式(9)表示:
yb=f(∑xb·wb+bb) (9)
公式(9)中,wb和bb分别表示全连接层中第b层的权值与偏置,xb代表全连接层中第b层的输入,yb代表全连接层中第b层的输出。
在训练过程中,参数用公式(10)进行更新:
公式(10)中,η代表训练过程中设计的学习率,上标(m)代表第m步迭代过程的计算量。
经过迭代计算后,使损失函数loss收敛至最小值,得到适用于检测手机的深度卷积神经网络模型,完成离线准备阶段。
第五步 使用手机动作检测模块完成最终检测
使用手机动作检测模块利用离线训练模块得到的网络模型检测手机,将运动前景提取模块得到的运动区域图像输入网络模型中进行计算,输出手机检测结果。当使用手机动作检测模块在运动区域图像中检测到手机时,则认为存在使用手机的动作;当在运动区域图像中未检测到手机时,则认为不存在使用手机的动作。
至此,实现了基于运动前景提取的使用手机动作检测。
本发明实现了对使用手机动作的检测,在使用场景下提取运动前景用于粗检测,利用深度学习网络在粗检测得到的运动前景小尺寸图像中检测手机用于精细检测,实现了由粗到细的检测步骤,并充分利用了时空特征信息,可达到提升检测准确率的效果。
具体实施方式
一种基于运动前景提取的使用手机动作检测方法的具体步骤为:
第一步 搭建基于运动前景提取的使用手机动作检测***
基于运动前景提取的使用手机动作检测***,包括:背景模型构建模块、运动前景提取模块、离线训练模块和使用手机动作检测模块。
背景模型构建模块的功能为:利用函数拟合背景图像得到模型,并结合视频所在的实际场景变化更新背景模型。
运动前景提取模块的功能为:将视频序列与背景模型进行比对计算,提取运动前景,通过连通性分析分割出运动区域。
离线训练模块的功能为:确定检测网络模型,构建运动区域图像样本库,并利用样本库进行网络离线训练。
使用手机动作检测模块的功能为:利用网络模型,对运动区域图像进行计算,检测是否存在使用手机动作。
第二步 背景模型构建模块完成使用场景的背景建模及背景更新
背景模型构建模块利用高斯概率密度函数精确量化背景,对每个像素点均采用K个高斯分布来拟合,针对使用场景建立背景模型,用公式(1)表示:
公式(1)中,时刻t时某像素点(x,y)取值为Xt,wi,t为第i个高斯分布的权值,η(Xt,μi,t,∑i,t)、μi,t和∑i,t分别为第i个高斯概率密度函数、均值和协方差矩阵,n为高斯分布的维数。
根据场景中的变化实时更新背景模型,用公式(2)-公式(4)表示:
wi,t=(1-α)wi,t-1+α (2)
μi,t=(1-ρ)μi,t-1+ρXt (3)
∑i,t=(1-ρ)∑i,t-1+ρ[(Xt-μi,t)(Xt-μi,t)T] (4)
公式(2)-公式(4)中,ρ为模型的更新率。模型更新完成后,计算图像中每一个像素点的值,并进行排序,选定最大的B个模型作为背景模型,即描述背景的高斯分布的个数为B,T为权值累加阈值,T∈(0.5,1),用公式(5)表示:
第三步 运动前景提取模块提取运动前景并分割运动区域完成粗提取
运动前景提取模块将视频序列的当前一帧图像与背景图像模型进行比对计算,提取运动前景,根据运动前景从当前这一帧图像中分割出包含人体运动的目标区域。
从检测时刻t开始,输入该帧图像,与背景模型进行比对,逐一计算像素值Xt与在已得到的B个高斯分布的匹配关系,当像素值与前B个高斯分布之一匹配时,则该像素点为背景点,否则该像素点被分为运动前景。按匹配关系式对当该帧图像中的像素点逐一计算,确定能否与高斯分布匹配,得到二值化图像。匹配关系用公式(6)表示:
公式(6)中,灰度值为0的点为背景点,灰度值为1的点位运动前景点。
在提取到运动前景后,对其进行连通性分析,从当前这一帧图像中分割出包含人体运动的目标区域图像,得到尺寸为w*h的小尺寸图像,完成粗提取。
第四步 离线训练模块完成检测手机网络的确定与训练
离线训练模块对运动前景提取模块得到的运动区域图像中的手机进行标注,完成训练样本库的构建,确定并搭建深度卷积神经网络模型,用于从包含人体运动区域图像中检测手机,确定网络层数、各层定义、各层卷积面个数、卷积核尺寸、池化尺寸、池化层计算函数、激活函数和损失函数,然后利用构建的样本库对深度卷积神经网络的各卷积核的未知参数进行离线学习训练。
网络的卷积层基本运算用公式(7)表示:
Xa,b+1=f(∑Xb·Wa,b+ba,b) (7)
公式(7)中,f为激活函数,Wa,b和ba,b分别为网络第b层中第a个卷积面的卷积核与偏置值,Xb代表网络第b层各通道的输入,Xa,b+1代表网络第b层第a个卷积面的输出。
网络的池化层基本运算用公式(8)表示:
Xa,b+1=p(Xa,b) (8)
公式(8)中,Xa,b代表网络第b层第a通道的输入,Xa,b+1代表网络第b层第a个通道的输出,p为池化层计算函数。
网络全连接层基本运算用公式(9)表示:
yb=f(∑xb·wb+bb) (9)
公式(9)中,wb和bb分别表示全连接层中第b层的权值与偏置,xb代表全连接层中第b层的输入,yb代表全连接层中第b层的输出。
在训练过程中,参数用公式(10)进行更新:
公式(10)中,η代表训练过程中设计的学习率,上标(m)代表第m步迭代过程的计算量。
经过迭代计算后,使损失函数loss收敛至最小值,得到适用于检测手机的深度卷积神经网络模型,完成离线准备阶段。
第五步 使用手机动作检测模块完成最终检测
使用手机动作检测模块利用离线训练模块得到的网络模型检测手机,将运动前景提取模块得到的运动区域图像输入网络模型中进行计算,输出手机检测结果。当使用手机动作检测模块在运动区域图像中检测到手机时,则认为存在使用手机的动作;当在运动区域图像中未检测到手机时,则认为不存在使用手机的动作。
至此,实现了基于运动前景提取的使用手机动作检测。
Claims (5)
1.一种基于运动前景提取的使用手机动作检测方法,其特征在于具体步骤为:
第一步 搭建基于运动前景提取的使用手机动作检测***
基于运动前景提取的使用手机动作检测***,包括:背景模型构建模块、运动前景提取模块、离线训练模块和使用手机动作检测模块;
第二步 背景模型构建模块完成使用场景的背景建模及背景更新
背景模型构建模块利用高斯概率密度函数精确量化背景,对每个像素点均采用K个高斯分布来拟合,针对使用场景建立背景模型,用公式(1)表示:
公式(1)中,时刻t时某像素点(x,y)取值为Xt,wi,t为第i个高斯分布的权值,η(Xt,μi,t,∑i,t)、μi,t和∑i,t分别为第i个高斯概率密度函数、均值和协方差矩阵,n为高斯分布的维数;
根据场景中的变化实时更新背景模型,用公式(2)-公式(4)表示:
wi,t=(1-α)wi,t-1+α (2)
μi,t=(1-ρ)μi,t-1+ρXt (3)
∑i,t=(1-ρ)∑i,t-1+ρ[(Xt-μi,t)(Xt-μi,t)T] (4)
公式(2)-公式(4)中,ρ为模型的更新率;模型更新完成后,计算图像中每一个像素点的值,并进行排序,选定最大的B个模型作为背景模型,即描述背景的高斯分布的个数为B,T为权值累加阈值,T∈(0.5,1),用公式(5)表示:
第三步 运动前景提取模块提取运动前景并分割运动区域完成粗提取
运动前景提取模块将视频序列的当前一帧图像与背景图像模型进行比对计算,提取运动前景,根据运动前景从当前这一帧图像中分割出包含人体运动的目标区域;
从检测时刻t开始,输入该帧图像,与背景模型进行比对,逐一计算像素值Xt与在已得到的B个高斯分布的匹配关系,当像素值与前B个高斯分布之一匹配时,则该像素点为背景点,否则该像素点被分为运动前景;按匹配关系式对当该帧图像中的像素点逐一计算,确定能否与高斯分布匹配,得到二值化图像;匹配关系用公式(6)表示:
公式(6)中,灰度值为0的点为背景点,灰度值为1的点位运动前景点;
在提取到运动前景后,对其进行连通性分析,从当前这一帧图像中分割出包含人体运动的目标区域图像,得到尺寸为w*h的小尺寸图像,完成粗提取;
第四步 离线训练模块完成检测手机网络的确定与训练
离线训练模块对运动前景提取模块得到的运动区域图像中的手机进行标注,完成训练样本库的构建,确定并搭建深度卷积神经网络模型,用于从包含人体运动区域图像中检测手机,确定网络层数、各层定义、各层卷积面个数、卷积核尺寸、池化尺寸、池化层计算函数、激活函数和损失函数,然后利用构建的样本库对深度卷积神经网络的各卷积核的未知参数进行离线学习训练;
网络的卷积层基本运算用公式(7)表示:
Xa,b+1=f(∑Xb·Wa,b+ba,b) (7)
公式(7)中,f为激活函数,Wa,b和ba,b分别为网络第b层中第a个卷积面的卷积核与偏置值,Xb代表网络第b层各通道的输入,Xa,b+1代表网络第b层第a个卷积面的输出;
网络的池化层基本运算用公式(8)表示:
Xa,b+1=p(Xa,b) (8)
公式(8)中,Xa,b代表网络第b层第a通道的输入,Xa,b+1代表网络第b层第a个通道的输出,p为池化层计算函数;
网络全连接层基本运算用公式(9)表示:
yb=f(∑xb·wb+bb) (9)
公式(9)中,wb和bb分别表示全连接层中第b层的权值与偏置,xb代表全连接层中第b层的输入,yb代表全连接层中第b层的输出;
在训练过程中,参数用公式(10)进行更新:
公式(10)中,η代表训练过程中设计的学习率,上标(m)代表第m步迭代过程的计算量;
经过迭代计算后,使损失函数loss收敛至最小值,得到适用于检测手机的深度卷积神经网络模型,完成离线准备阶段;
第五步 使用手机动作检测模块完成最终检测
使用手机动作检测模块利用离线训练模块得到的网络模型检测手机,将运动前景提取模块得到的运动区域图像输入网络模型中进行计算,输出手机检测结果;当使用手机动作检测模块在运动区域图像中检测到手机时,则认为存在使用手机的动作;当在运动区域图像中未检测到手机时,则认为不存在使用手机的动作;
至此,实现了基于运动前景提取的使用手机动作检测。
2.根据权利要求1所述的一种基于运动前景提取的使用手机动作检测方法,其特征在于所述背景模型构建模块的功能为:利用函数拟合背景图像得到模型,并结合视频所在的实际场景变化更新背景模型。
3.根据权利要求1所述的一种基于运动前景提取的使用手机动作检测方法,其特征在于所述运动前景提取模块的功能为:将视频序列与背景模型进行比对计算,提取运动前景,通过连通性分析分割出运动区域。
4.根据权利要求1所述的一种基于运动前景提取的使用手机动作检测方法,其特征在于所述离线训练模块的功能为:确定检测网络模型,构建运动区域图像样本库,并利用样本库进行网络离线训练。
5.根据权利要求1所述的一种基于运动前景提取的使用手机动作检测方法,其特征在于所述使用手机动作检测模块的功能为:利用网络模型,对运动区域图像进行计算,检测是否存在使用手机动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111187354.8A CN114049585B (zh) | 2021-10-12 | 2021-10-12 | 一种基于运动前景提取的使用手机动作检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111187354.8A CN114049585B (zh) | 2021-10-12 | 2021-10-12 | 一种基于运动前景提取的使用手机动作检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114049585A true CN114049585A (zh) | 2022-02-15 |
CN114049585B CN114049585B (zh) | 2024-04-02 |
Family
ID=80205355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111187354.8A Active CN114049585B (zh) | 2021-10-12 | 2021-10-12 | 一种基于运动前景提取的使用手机动作检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114049585B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133974A (zh) * | 2017-06-02 | 2017-09-05 | 南京大学 | 高斯背景建模与循环神经网络相结合的车型分类方法 |
CN107749067A (zh) * | 2017-09-13 | 2018-03-02 | 华侨大学 | 基于运动特性和卷积神经网络的火灾烟雾检测方法 |
WO2019237567A1 (zh) * | 2018-06-14 | 2019-12-19 | 江南大学 | 基于卷积神经网络的跌倒检测方法 |
-
2021
- 2021-10-12 CN CN202111187354.8A patent/CN114049585B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133974A (zh) * | 2017-06-02 | 2017-09-05 | 南京大学 | 高斯背景建模与循环神经网络相结合的车型分类方法 |
CN107749067A (zh) * | 2017-09-13 | 2018-03-02 | 华侨大学 | 基于运动特性和卷积神经网络的火灾烟雾检测方法 |
WO2019237567A1 (zh) * | 2018-06-14 | 2019-12-19 | 江南大学 | 基于卷积神经网络的跌倒检测方法 |
Non-Patent Citations (1)
Title |
---|
赵宏伟;冯嘉;臧雪柏;宋波涛;: "一种实用的运动目标检测和跟踪算法", 吉林大学学报(工学版), no. 2, 30 September 2009 (2009-09-30), pages 386 - 390 * |
Also Published As
Publication number | Publication date |
---|---|
CN114049585B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110660082B (zh) | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 | |
CN108154118B (zh) | 一种基于自适应组合滤波与多级检测的目标探测***及方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
US20230289979A1 (en) | A method for video moving object detection based on relative statistical characteristics of image pixels | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN111476817A (zh) | 一种基于yolov3的多目标行人检测跟踪方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
Trnovszký et al. | Comparison of background subtraction methods on near infra-red spectrum video sequences | |
CN110728694A (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
Daramola et al. | Automatic vehicle identification system using license plate | |
Mahapatra et al. | Human recognition system for outdoor videos using Hidden Markov model | |
CN114240997A (zh) | 一种智慧楼宇在线跨摄像头多目标追踪方法 | |
CN111273288A (zh) | 一种基于长短期记忆网络的雷达未知目标识别方法 | |
Kumar et al. | Background subtraction based on threshold detection using modified K-means algorithm | |
Yang et al. | A method of pedestrians counting based on deep learning | |
CN109272036B (zh) | 一种基于深度残差网络的随机蕨目标跟踪方法 | |
CN114038011A (zh) | 一种室内场景下人体异常行为的检测方法 | |
CN117193121B (zh) | 涂布机模头的控制*** | |
Dewan et al. | Detection of object in motion using improvised background subtraction algorithm | |
Elbaşi | Fuzzy logic-based scenario recognition from video sequences | |
CN111223126A (zh) | 一种基于迁移学习的跨视角轨迹模型构建方法 | |
CN114049585B (zh) | 一种基于运动前景提取的使用手机动作检测方法 | |
CN112667763B (zh) | 一种基于自适应时间戳与多尺度特征提取的轨迹预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |