CN110163131A - 混合卷积神经网络与小生境灰狼优化的人体动作分类方法 - Google Patents

混合卷积神经网络与小生境灰狼优化的人体动作分类方法 Download PDF

Info

Publication number
CN110163131A
CN110163131A CN201910384116.2A CN201910384116A CN110163131A CN 110163131 A CN110163131 A CN 110163131A CN 201910384116 A CN201910384116 A CN 201910384116A CN 110163131 A CN110163131 A CN 110163131A
Authority
CN
China
Prior art keywords
grey wolf
wolf
prey
grey
microhabitat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910384116.2A
Other languages
English (en)
Other versions
CN110163131B (zh
Inventor
吴宇晨
陈志�
岳文静
孙斗南
赵立昌
周传
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201910384116.2A priority Critical patent/CN110163131B/zh
Publication of CN110163131A publication Critical patent/CN110163131A/zh
Application granted granted Critical
Publication of CN110163131B publication Critical patent/CN110163131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,该方法首先对输入的视频帧生成动作库和局部时空特征,再借助时空特征从视频运动中检测兴趣点并对其提取深度卷积特征,然后用GWO算法获得CNN分类器最优的权重并利用反向传播算法训练多个CNN分类器,最后融合多个分类器的输出以纠正结果。本发明将卷积神经网络与灰狼优化算法相结合,通过训练具有梯度下降和全局搜索能力的CNN分类器来减少分类错误。本发明能够解决无约束视频中人体动作分类准确度不够高的问题,并提高分类性能,具有高度的鲁棒性与实效性。

Description

混合卷积神经网络与小生境灰狼优化的人体动作分类方法
技术领域
本发明涉及一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,属于深度学习,动作分类,机器学习等交叉技术领域。
背景技术
视频中的动作分类与行为识别是识别计算机视觉领域中的一个重要研究课题,从无约束视频中识别人物行为成为了计算机可视化方法中的一项重大挑战性任务,具有重要的理论意义与实际应用价值。
近年来,人类行为研究的认识在计算机可视化方法上得到了广泛的讨论。动作分类或识别应用程序在大多数的领域中实现了其利用价值。例如视频检索、视觉观察、体育动作分析以及人机交互。此外,由于动作在其类别之间(如慢跑与跑步)或类内(特殊演员的类似动作)广泛相似性引起的复杂性,对动作的分类识别成为了一种具有挑战性的任务。
动作分类或识别问题可以被认为是一种分类问题,很多在分类上的方法被设计利用,具体有使用Logistic回归分析、决策树模型、朴素贝叶斯分类器与支持向量机等等。这些方法在实际应用中均有利弊。
而对于人体动作***的研究,国内外所采用的技术也并不成熟。大部分人体动作分类***依赖于人工对数据进行标记加工,再将数据放入模型中进行识别。对数据有较强的依赖性,其***分类性能较低,分类错误较多,不适合工业化与商品化的需求。
发明内容
技术问题:本发明所要解决的技术问题是通过很混合经典与优化算法以及训练深度卷积神经网络分类器,将多个分类器产生的结果融合,进一步提高无约束视频中人物动作分类***的性能与分类的准确度。
技术方案:本发明的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法包括以下步骤:
步骤1)输入一定视频帧,通过考虑动作库的视频音量相关性,使用音量最大池化层将相关性转化为73维响应矢量。使用尺寸为p的动作库为其生成p*73的动作库特征,其中动作库被定义为p个动作检测器;
步骤2)对于每个活动,通过p个特征检测相似性,初始化局部时空特征并检测视频中的兴趣点。
步骤3)输入动作库和局部时空特征,提取深度卷积特征,通过1个CNN分类器对特征分类;初始化完全连接的网络并训练CNN。
步骤4)利用梯度下降算法减少GWO算法需要搜索的候选者数量加速搜索过程,GWO算法通过搜索不同的权重初始化集合确定更接近全局的局部最优,为多个CNN分类器分配最佳权重。
步骤5)CNN分类器的输出以二进制方式解码为(w1,w2,…wc),接着CNN分类器的初步训练通过输出wr=1和ws=0完成,s为正整数然后通过输出wr=1和ws=1执行分类器的训练。其中,r表示受观察的类,c表示类的数量。多个分类器的分类结果利用最大规则的融合函数进行融合。即若融合模型共中第ith个分类器包含输出w1i,w2i,…,wci(i=1,2,...m),m是分类器总数,则第jth融合模型的输出即为Mj=max{wj1,wj2,…,wjn}(j=1,2,…n),n是融合模型总数。
其中,所述步骤3)具体如下:
步骤31)输入动作库初始R个元素和视频帧中移动动作的兴趣点,初始的卷积层使用水平线性,尺寸为m0*n0的卷积掩模进行特征提取。使用k0个实数参与对GWO框架适应度评估。对GWO群体初始化,利用初始的k0-1个实数编码卷积掩模,最后1个实数作为随机数生成器的种子值。通过解码搜索确定候选者(α0,β0,δ0)的适应度得分。R是输入元素总数,m0,n0分别是卷积掩模这一二维矩阵的行数、列数,k0是参与评估GWO框架适应程度的实数总数。
步骤32)使用尺寸为1*2的子样本掩模最小化采样过程中数据丢失。
步骤33)重复步骤31)和32),使用相同的卷积掩模提取特征,同时计算GWO框架适应度,子样本掩模压缩数据并提取主要特征,最终提取深度卷积特征。
步骤34)利用卷积层掩模相关的权重作为特征标识符,随机数发生器生成种子,两者结合初始化完全连接的神经网络,将提取的深度卷积特征作为完全连接网络的输入训练CNN确定初步动作标签。
所述步骤4)具体如下:
步骤41)CNN分类器通过反向传播算法训练,忽略有限数量的过度拟合数据。再通过梯度下降算法,检测陷入局部最小值的解。
步骤42)初始化灰狼种群搜索空间,初始化N,D,t,pently等参数以及灰狼群体X=(X1,X2,…,XN),每个灰狼的位置Xi=(xi1,xi2,…,xiD)T,(i=1,2,…,N)在分散的狼群中不断转移注意直至检测到猎物后狼群合并。N是灰狼总数,D是灰狼与猎物之间的距离,t是迭代次数,pently是罚函数。
步骤43)计算每个灰狼群体的适应度值fk,将适应度值排列前三的灰狼个体的位置分别记为Xα,Xβ,Xδ,并将适应度最好的Xα记为最优解;对确定位置的猎物进行包围,包围特征用数学方式描述。在此过程中猎物与灰狼的距离为D=|C·Xp(t)-X(t)|,X(t+1)=Xp(t)-A·D,其中D为灰狼与猎物之间的距离,t为迭代次数,Xp(t)为第t次迭代后猎物的位置,即最优解的位置。X(t)为第t次迭代后灰狼的位置,即潜在解的位置。A和C为系数因子,其计算公式为A=2a·r1-a,C=2·r2。其中a随着迭代次数的增加从2到0呈线性递减,r1,r2为[0,1]之间的随机数。
步骤44)β、δ狼在α狼带领下对猎物进行追捕,在追捕过程中狼群个体的位置会随猎物的逃跑而改变,根据α,β,δ更新后的位置重新确定猎物,即最优解的位置,更新方程为其中Dα,Dβ,Dδ分别表示α,β,δ狼与其他个体之间的距离。
步骤45)对于D维空间灰狼u的位置为Xu=(xu1,xu2,…,xuD)T,灰狼v的位置为Xv=(xv1,xv2,…xvD)T,则灰狼u与灰狼v之间的欧式距离为duv=||Xu-Xv||(u,v=1,2,…,N),给出指定参数σshare为小生境半径,如果duv<σshare,比较灰狼u与灰狼v之间的适应度值fu,fv的大小,并对其中适应度值较小的灰狼施以罚函数,即min(fu,fv)=penalty。其中penalty函数的处罚力度由所求函数解值的大小决定。
步骤46)狼群对猎物进行攻击并捕获猎物,即得到最优解。通过式A=2a·r1-a中a值从2到0的线性递减使狼群更加接近猎物,按照式A=2a·r1-a,C=2·r2更新参数a,A,C的值。
步骤47)若算法达到最大迭代次数t,那么算法结束并输出最优解Xα作为CNN分类器的初始权重;否则,返回步骤42)。
优选的,所述步骤1),步骤2)中,p按照经验取10。
优选的,所述步骤31)中,R按照经验取72,m0按照经验取1,n0按照经验取21,k0按照经验取64。
优选的,所述步骤42)中,N按照经验取12,t按照经验取1,penalty按照经验选择外罚函数法。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明对输入的视频帧生成动作库和局部时空特征,再借助时空特征从视频运动中检测兴趣点并对其提取深度卷积特征,然后用改进的GWO算法获得CNN分类器最优的权重并利用反向传播算法训练多个CNN分类器,最后融合多个分类器的输出以纠正结果。通过这些方法的应用对无约束视频中人体动作完成分类并在传统方法上提高分类性能,具有高度的鲁棒性与实效性。具体来说:
(1)本发明为视频生成动作库与局部时空特征,并将其馈送至CNN分类器,能够确定视频运动中的兴趣点,一定程度上减少了噪声影响。
(2)本发明使用改进的小生境灰狼优化算法,相较传统优化算法在收敛速度及求解精度上有明显改善。
(3)本发明使用混合CNN与改进的GWO方法,通过训练具有梯度下降和GWO全局搜索能力的CNN分类器从而减少分类错误,极大程度上提高了分类性能。
附图说明
图1是基于混合卷积神经网络与小生境灰狼优化的视频中人体动作分类方法流程。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明的一种混合卷积神经网络与小生境灰狼优化的视频中人体动作分类方法包括以下步骤:
在具体实施中,图1是混合卷积神经网络与小生境灰狼优化的视频中人体动作分类方法流程。首先输入视频帧序列,输入视频帧序列,使用动作库中的动作检测器通过体积最大池化将相关视频体积转化为73维响应向量。检测相似动作之间的特征,检测视频中的兴趣点并提取局部时空特征。输入动作库和局部时空特征,提取深度卷积特征,通过1个CNN分类器对该深度卷积特征分类;初始化完全连接的网络并训练CNN。
接着利用梯度下降算法减少GWO算法需要搜索的候选者数量加速搜索过程,GWO算法通过搜索不同的权重初始化集合确定更接近全局的局部最优,为多个CNN分类器分配最佳权重。
最后CNN分类器的输出以二进制方式解码为(w1,w2,…wc),接着CNN分类器的初步训练通过输出wr=1和ws=0完成,s为正整数。然后通过输出wr=1和ws=1执行分类器的训练。其中,r表示受观察的类,c表示类的数量。多个分类器的分类结果利用最大规则的融合函数进行融合。即若融合模型共中第ith个分类器包含输出w1i,w2i,…,wci(i=1,2,...m),m是分类器总数,则第jth融合模型的输出即为Mj=max{wj1,wj2,...,wjn}(j=1,2,…n),n是融合模型总数。将所有模型产生的分类证据融合,最终识别出相应的动作标签。

Claims (6)

1.一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,包括以下步骤:
步骤1)输入视频帧序列,动作库中的每个单独的动作检测器通过体积最大池化将相关视频体积转化为73维响应向量;使用尺寸为p的动作库为其生成p*73的动作库特征,所述动作库是一种新的视频动作的高级表示,它将视频嵌入到由各种动作检测器组成的动作空间,尺寸为p指包含p个动作检测器;
步骤2)通过p个动作检测器检测相似动作之间的特征,检测视频中的时空兴趣点并提取局部时空特征,所述时空兴趣点是像素值在时空邻域变化较大的点,且其局部邻域包含丰富图像信息,所述局部时空特征不易受衣着、光照、运动特性等影响;
步骤3)输入动作库特征和局部时空特征,提取深度卷积特征,通过1个CNN分类器对特征分类;初始化完全连接的网络并训练CNN;
步骤4)利用梯度下降算法减少GWO算法需要搜索的候选者数量加速搜索过程,GWO算法通过搜索不同的权重初始化集合确定更接近全局的局部最优,为多个CNN分类器分配最佳权重;
步骤5)将生成的动作库特征和局部时空特征馈送到CNN分类器,CNN分类器的输出以二进制方式解码为(w1,w2,…wc),接着CNN分类器的初步训练通过输出wr=1和ws=0完成,为正整数;然后通过输出wr=1和ws=1执行分类器的训练;其中,r表示受观察的类,c表示类的数量;多个分类器的分类结果利用最大规则的融合函数进行融合;即若融合模型共中第ith个分类器包含输出w1i,w2i,...,wci(i=1,2,...m),m是分类器总数,则第jth融合模型的输出即为Mj=max{wj1,wj2,...,wjn}(j=1,2,…n),n是融合模型总数。
2.根据权利要求1所述的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,所述步骤3)具体如下:
步骤31)输入动作库初始R个元素和视频帧中移动动作的兴趣点,初始的卷积层使用水平线性,尺寸为m0*n0的卷积掩模进行特征提取;使用k0个实数参与对GWO框架适应度评估;对GWO群体初始化,利用初始的k0-1个实数编码卷积掩模,最后1个实数作为随机数生成器的种子值;通过解码搜索确定候选者(α0,β0,δ0)的适应度得分;R是输入元素总数,m0,n0分别是卷积掩模这一二维矩阵的行数、列数,k0是参与评估GWO框架适应程度的实数总数;
步骤32)使用尺寸为1*2的子样本掩模最小化采样过程中数据丢失;
步骤33)重复步骤31)和32),使用相同的卷积掩模提取特征,同时计算GWO框架适应度,子样本掩模压缩数据并提取主要特征,最终提取深度卷积特征;
步骤34)利用卷积层掩模相关的权重作为特征标识符,随机数发生器生成种子,两者结合初始化完全连接的神经网络,将提取的深度卷积特征作为完全连接网络的输入训练CNN确定初步动作标签。
3.根据权利要求1所述的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,所述步骤4)具体如下:
步骤41)CNN分类器通过反向传播算法训练,忽略有限数量的过度拟合数据;再通过梯度下降算法,检测陷入局部最小值的解;
步骤42)初始化灰狼种群搜索空间,初始化N,D,t,pently等参数以及灰狼群体X=(X1,X2,…,XN),每个灰狼的位置Xi=(xi1,xi2,…,xiD)T,(i=1,2,…,N)在分散的狼群中不断转移注意直至检测到猎物后狼群合并;N是灰狼总数,D是灰狼与猎物之间的距离,t是迭代次数,pently是罚函数;
步骤43)计算每个灰狼群体的适应度值fk,将适应度值排列前三的灰狼个体的位置分别记为Xα,Xβ,Xδ,并将适应度最好的Xα记为最优解;对确定位置的猎物进行包围,包围特征用数学方式描述;在此过程中猎物与灰狼的距离为D=|C·Xp(t)-X(t)|,X(t+1)=Xp(t)-A·D,其中D为灰狼与猎物之间的距离,t为迭代次数,Xp(t)为第t次迭代后猎物的位置,即最优解的位置;X(t)为第t次迭代后灰狼的位置,即潜在解的位置;A和C为系数因子,其计算公式为A=2a·r1-a,C=2·r2;其中a随着迭代次数的增加从2到0呈线性递减,r1,r2为[0,1]之间的随机数;
步骤44)β、δ狼在α狼带领下对猎物进行追捕,在追捕过程中狼群个体的位置会随猎物的逃跑而改变,根据α,β,δ更新后的位置重新确定猎物,即最优解的位置,更新方程为其中Dα,Dβ,Dδ分别表示α,β,δ狼与其他个体之间的距离;
步骤45)对于D维空间灰狼u的位置为Xu=(xu1,xu2,…,xuD)T,灰狼v的位置为Xv=(xv1,xv2,…xvD)T,则灰狼u与灰狼v之间的欧式距离为duv=||Xu-Xv||(u,v=1,2,…,N),给出指定参数σshare为小生境半径,如果duv<σshare,比较灰狼u与灰狼v之间的适应度值fu,fv的大小,并对其中适应度值较小的灰狼施以罚函数,即min(fu,fv)=penalty;其中penalty函数的处罚力度由所求函数解值的大小决定;
步骤46)狼群对猎物进行攻击并捕获猎物,即得到最优解;通过式A=2a·r1-a中a值从2到0的线性递减使狼群更加接近猎物,按照式A=2a·r1-a,C=2·r2更新参数a,A,C的值;
步骤47)若算法达到最大迭代次数t,那么算法结束并输出最优解Xα作为CNN分类器的初始权重;否则,返回步骤42)。
4.根据权利要求1所述的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,所述步骤1),步骤2)中,p按照经验取10。
5.根据权利要求1所述的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,所述步骤31)中,R按照经验取72,m0按照经验取1,n0按照经验取21,k0按照经验取64。
6.根据权利要求1所述的一种混合卷积神经网络与小生境灰狼优化的人体动作分类方法,其特征在于,所述步骤42)中,N按照经验取12,t按照经验取1,penalty按照经验选择外罚函数法。
CN201910384116.2A 2019-05-09 2019-05-09 混合卷积神经网络与小生境灰狼优化的人体动作分类方法 Active CN110163131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910384116.2A CN110163131B (zh) 2019-05-09 2019-05-09 混合卷积神经网络与小生境灰狼优化的人体动作分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910384116.2A CN110163131B (zh) 2019-05-09 2019-05-09 混合卷积神经网络与小生境灰狼优化的人体动作分类方法

Publications (2)

Publication Number Publication Date
CN110163131A true CN110163131A (zh) 2019-08-23
CN110163131B CN110163131B (zh) 2022-08-05

Family

ID=67633984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910384116.2A Active CN110163131B (zh) 2019-05-09 2019-05-09 混合卷积神经网络与小生境灰狼优化的人体动作分类方法

Country Status (1)

Country Link
CN (1) CN110163131B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111212040A (zh) * 2019-12-24 2020-05-29 杭州安恒信息技术股份有限公司 一种基于gwo-bp神经网络检测钓鱼网页的方法
CN112528548A (zh) * 2020-11-27 2021-03-19 东莞市汇林包装有限公司 一种自适应深度耦合卷积自编码多模态数据融合方法
CN113159264A (zh) * 2020-11-12 2021-07-23 江西理工大学 一种入侵检测方法、***、设备及可读存储介质
CN113255597A (zh) * 2021-06-29 2021-08-13 南京视察者智能科技有限公司 一种基于transformer的行为分析方法、装置及其终端设备
CN113268638A (zh) * 2021-04-21 2021-08-17 洛阳墨潇网络科技有限公司 一种基于大数据的动作库生成方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355192A (zh) * 2016-08-16 2017-01-25 温州大学 一种基于混沌灰狼优化的支持向量机方法
CN107886193A (zh) * 2017-10-27 2018-04-06 太原理工大学 一种基于灰狼优化回声状态网络的时序预测方法
CN108520272A (zh) * 2018-03-22 2018-09-11 江南大学 一种改进苍狼算法的半监督入侵检测方法
CN108694390A (zh) * 2018-05-15 2018-10-23 南京邮电大学 一种布谷鸟搜索改进灰狼优化支持向量机的调制信号分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355192A (zh) * 2016-08-16 2017-01-25 温州大学 一种基于混沌灰狼优化的支持向量机方法
CN107886193A (zh) * 2017-10-27 2018-04-06 太原理工大学 一种基于灰狼优化回声状态网络的时序预测方法
CN108520272A (zh) * 2018-03-22 2018-09-11 江南大学 一种改进苍狼算法的半监督入侵检测方法
CN108694390A (zh) * 2018-05-15 2018-10-23 南京邮电大学 一种布谷鸟搜索改进灰狼优化支持向量机的调制信号分类方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111212040A (zh) * 2019-12-24 2020-05-29 杭州安恒信息技术股份有限公司 一种基于gwo-bp神经网络检测钓鱼网页的方法
CN113159264A (zh) * 2020-11-12 2021-07-23 江西理工大学 一种入侵检测方法、***、设备及可读存储介质
CN113159264B (zh) * 2020-11-12 2022-06-21 江西理工大学 一种入侵检测方法、***、设备及可读存储介质
CN112528548A (zh) * 2020-11-27 2021-03-19 东莞市汇林包装有限公司 一种自适应深度耦合卷积自编码多模态数据融合方法
CN113268638A (zh) * 2021-04-21 2021-08-17 洛阳墨潇网络科技有限公司 一种基于大数据的动作库生成方法和装置
CN113268638B (zh) * 2021-04-21 2024-04-16 普惠通科技(河南)股份有限公司 一种基于大数据的动作库生成方法和装置
CN113255597A (zh) * 2021-06-29 2021-08-13 南京视察者智能科技有限公司 一种基于transformer的行为分析方法、装置及其终端设备

Also Published As

Publication number Publication date
CN110163131B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN110163131A (zh) 混合卷积神经网络与小生境灰狼优化的人体动作分类方法
CN106778854B (zh) 基于轨迹和卷积神经网络特征提取的行为识别方法
Garg et al. Yoga pose classification: a CNN and MediaPipe inspired deep learning approach for real-world application
CN111523462B (zh) 基于自注意增强cnn的视频序列表情识别***及方法
CN110348364B (zh) 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN110575663B (zh) 一种基于人工智能的体育辅助训练方法
CN110163127A (zh) 一种由粗到细的视频目标行为识别方法
CN101447020B (zh) 基于直觉模糊的色情图像识别方法
CN112613552B (zh) 一种结合情感类别注意力损失的卷积神经网络情感图像分类方法
CN110298303B (zh) 一种基于长短时记忆网络扫视路径学习的人群识别方法
Cai et al. Deep historical long short-term memory network for action recognition
Bu Human motion gesture recognition algorithm in video based on convolutional neural features of training images
CN108280436A (zh) 一种基于堆叠递归单元的多级残差网络的动作识别方法
Xu et al. Scene image and human skeleton-based dual-stream human action recognition
Islam et al. InceptB: a CNN based classification approach for recognizing traditional bengali games
CN110490109A (zh) 一种基于单目视觉的在线人体康复动作识别方法
Zhang et al. Group sparse-based mid-level representation for action recognition
Soleimani et al. Generic semi-supervised adversarial subject translation for sensor-based activity recognition
Dey et al. Workoutnet: A deep learning model for the recognition of workout actions from still images
Ata et al. A robust optimized convolutional neural network model for human activity recognition using sensing devices
CN116311472A (zh) 基于多层次图卷积网络的微表情识别方法及装置
CN116189278A (zh) 一种基于全局上下文感知的细粒度篮球动作识别方法
Sultana et al. A Deep CNN based Kaggle Contest Winning Model to Recognize Real-Time Facial Expression
Wu Image Recognition of Standard Actions in Sports Videos Based on Feature Fusion.
CN112906634A (zh) 基于vss的视频段序列预测模型建立、序列预测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant