CN110232333A - 行为识别***模型训练方法、行为识别方法及*** - Google Patents

行为识别***模型训练方法、行为识别方法及*** Download PDF

Info

Publication number
CN110232333A
CN110232333A CN201910436216.5A CN201910436216A CN110232333A CN 110232333 A CN110232333 A CN 110232333A CN 201910436216 A CN201910436216 A CN 201910436216A CN 110232333 A CN110232333 A CN 110232333A
Authority
CN
China
Prior art keywords
image
convolutional calculation
maximum pondization
calculates
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910436216.5A
Other languages
English (en)
Inventor
王瑞琦
杨剑锋
孔维熙
钱周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hongyun Honghe Tobacco Group Co Ltd
Original Assignee
Hongyun Honghe Tobacco Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hongyun Honghe Tobacco Group Co Ltd filed Critical Hongyun Honghe Tobacco Group Co Ltd
Priority to CN201910436216.5A priority Critical patent/CN110232333A/zh
Publication of CN110232333A publication Critical patent/CN110232333A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开提出了一种行为识别***模型训练方法、行为识别方法及***,包括:获取已知行为类型的图像;对图像进行卷积计算和最大池化计算,并提取出用于表示图像特征的特征数据;将图像的特征数据与对应的行为类型输入到预搭建的神经网络模型中;对特征数据按照对应的行为类型进行分类;重复前述步骤,直到满足训练结束条件。本公开能够准确地对质检人员的行为进行分类。

Description

行为识别***模型训练方法、行为识别方法及***
技术领域
本发明涉及行为识别技术特征,特别是一种行为识别***模型训练方法、行为识别方法及***。
背景技术
通过视频监控对特定任务、特定场景进行智能分析管理,一直以来是智能工厂最求的目标。物体分类与检测的研究,是整个工厂视频智能分析管理的基石,是解决跟踪、分割、场景理解等其他复杂问题的基础。深度学习算法在物体分类与检测具方面具有强力的性能,虽然计算深度网络的前项传导与反向传播带来巨大的时间复杂度,但模型对于智能物体分类、检测具有精度高,泛化性能好、鲁棒性强等特点。随着计算机硬件技术的发展,使工厂监控视频智能分析与深度学习结合成为可能。所以,深度学习网络对于工厂监控视频智能分析,具有重要意义。
对于生产企业而言,产品质量重于泰山。而对于产品质量的控制,主要是由质检、操作人员直接对产品进行观察、接触。所以质检、操作人员是否按时、按量、规范进行质检工作成为产品质量控制的核心同时也是管理重点。目前,在发生质量事故或者市场反馈需要对产品进行追溯时,主要是采用人工对视频监控进行观看来对质检、操作人员的质检工作进行分析评估,以评估结果对质检、操作人员的质检行为进行管理。
如何方便准确地对质检人员的行为进行分类,是本领域人技术人员亟待解决的重要问题之一。
发明内容
本发明的一个目的是提供一种行为识别***模型训练方法、行为识别方法及***,以解决现有技术中的不足,它能够准确地对质检人员的行为进行分类。
本发明提供了一种行为识别***模型训练方法,其中,包括:
S1,获取已知行为类型的图像;
S2,对图像进行卷积计算和最大池化计算,并提取出用于表示图像特征的特征数据;
S3,将图像的特征数据与对应的行为类型输入到预搭建的神经网络模型中;
S4,对特征数据按照对应的行为类型进行分类;
S5,重复步骤S1-S4,直到满足训练结束条件。
如上所述的行为识别***模型训练方法,其中,优选的是,步骤S2中,包括如下步骤:
S21,将图像根据三原色分为三个通道;
S22,分别对三个通道进行卷积计算和最大池化计算;
S23,提取出用于表示图像特征的特征数据。
如上所述的行为识别***模型训练方法,其中,优选的是,步骤S2中,对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
如上所述的行为识别***模型训练方法,其中,优选的是,在先的卷积计算所使用的感受野小于在后的卷积计算的感受野。
如上所述的行为识别***模型训练方法,其中,优选的是,所述训练结束条件为损失函数最小,其中损失函数为:
其中,p为图像所述类别的标签向量,σ(v)为图像的特征数据;i表示第i张用于训练的已知行为类型的图片。
本发明还提出了一种行为识别方法,其中,包括:
S1’,获取待识别的图像;
S2’,将图像重复进行卷积计算和最大池化计算,提取出用于表示图像特征的特征数据;
S3’,将特征数据输入到已训练完成的模型中,得到行为类型。
如上所述的行为识别方法,其中,优选的是,步骤S2’中,对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
本发明还提出了一种行为识别***,其中,包括:
采样模块,所述采样模块被设置为用于采集行为图像;
计算模块,所述计算模块与所述采样模块连接,所述计算模块被设置为用于对图像进行卷积计算和最大池化计算;
提取模块,与所述计算模块连接,所述提取模块被设置为用于根据所述计算结果提取出用于表示图像特征的特征数据;
分类模型,所述分类模型为经训练后的神经网络模型,所述分类模型与所述提取模块连接,所述分类模型用于根据所述图像特征数据进行分类。
如上所述的行为识别***,其中,优选的是,还包括摄像头,所述摄像头与所述采样模块连接;
所述摄像头被设置为用于获取行为视频,所述采样模块以固定的频率从所述行为视频中获取固定规格和格式的图像;
如上所述的行为识别***,其中,优选的是,所述计算模块对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
与现有技术相比,本发明通过卷积计算及最大池化计算,提出图像特征数据,通过对特征数量和对应图像的行为类型输入模型进行训练,能够降低计算的复杂度,并提高识别的准确性。同时,由于卷积和池化操作对图像的旋转、平移不敏感,有利于防止旋转、平移对图像识别的影响。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是实施例1所公开的步骤流程图;
图2是实施例1中步骤S2的具体步骤流程图;
图3是实施例2中公开的步骤流程图;
图4是实施例3中的***框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1
请参照图1和图2,本实施例提供了一种行为识别***模型训练方法,其中,包括如下步骤:
S1,获取已知行为类型的图像。具体实施时,将大量已知行为类型的图像作为样本进行输入,以便训练出精确的模型。具体地,所述样本的数量为25000到35000之间,如,所述样本的数量可以为26000、27000、28000、29000、30000、31000、32000、33000、34000等。样本量过小会导致模型的分类精确度不足,而样本量过大又会导致训练时间过长,且对模型的精确度提高不大。具体实施时,所使用的图像规格为640*480像素,所使用的图像格式为JPEG格式。当然,所述图像规格640*480像素仅是众多可选择图像规格中的一种,例如,800*600等,这并不对本方案构成限制。当本方案被应用于烟卷的质检行为时,所述行为类型包括:质检行为和非质检行为。
S2,对图像进行卷积计算和最大池化计算,并提取出用于表示图像特征的特征数据。具体实施时,对图像进行卷积计算的目的是为了降低图像数据维度,以便于提取JPEG图像特征。而最大池化计算的目的是为了更大强度地降低图像数据的维度,防止过拟合,降低模型运算的时间复杂度。此处,由于卷积计算和最大池化计算对图像的旋转、平移不敏感。这就能够使得无论是经旋转还是平移后的图片都能够被正确地识别与分类。
S21,将图像根据三原色分为三个通道。具体地,即将图像按照红、绿、蓝三种原色分为三个通道,第一层的RGB值为rgb(x,0,0),其中x介于0-255之间;第二层的RGB值为(0,y,0),其中,y为介于0-255的值,第三层的RGB值为(0,0,z),其中z为介于0-255的值。
S22,分别对三个通道进行卷积计算和最大池化计算。在此步骤中,卷积计算和最大池化计算分多次进行,在一种实施方式中,卷积计算和最大池化计算分别重复间隔进行。进一步地,每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。如,进行若干次卷积计算后再进行最大池化计算,具体如对图像进行卷积计算包括如下步骤,S221先进行两次卷积计算,然后进行一次最大池化计算;S222,重复步骤S221一次;S223,进行三次卷积计算,然后进行一次最大池化计算;S224,重复步骤S223两次。即,总共进行了13次卷积计算和5次最大池化计算。当然,对于卷积计算和最大池化计算的次数可以根据需要进行修改,如,也可以是将“进行两次卷积计算和一次最大池化计算”重复多次。如此,通过卷积计算和最大池化计算,可以提取出用于表示图像特征的特征数据,应当指出的是,用于表示图像特征的数据可以是数字,数组、向量或矩阵。
进一步地,卷积计算的公式为:
其中,矩阵A为模型中第k层卷积计算的输入,Fc为当前卷积层中c个有m×m感受野的卷积核bc为当前卷积层偏置项,valid′为第i个卷积计算有效值。经过卷积核卷积后,产生c个特征图。
由于卷积运算是线性运算,在实际使用时,需要对卷积计算进行去线性化,本申请中选用了ReLU激活函数进行去线性化,其中,卷积计算配合ReLU激活函数的计算公式如下:
具体实施时,在先的卷积计算所使用的感受野小于在后的卷积计算的感受野。即,在先的卷积计算采用窗口较小的感受野,目的是提取较为简单的图像特征,降低运算时间复杂度,随着计算的进行,在后的卷积计算采用窗口较大的感受野,以提取复杂层面的图像特征。
具体地,最大池化计算的公式如下:
PP=β·down(B)+bp,
其中,矩阵B为模型中第p层池化层PP的输入,池化感受野为n×n,式中bp为当前池化层层偏置项,β为当前池化计算放大值。池化计算配合ReLU激活函数进行计算,计算如公式:
ep=ReLU(PP)。
S23,提取出用于表示图像特征的特征数据。具体地,特征数据为一特征向量。具体实施时,按三原色的分层,将每层分别提取出相应的特征数据,再三原色对应的特征数据压缩到一个特征向量中。
S3,将图像的特征数据与对应的行为类型输入到预搭建的神经网络模型中。以各个样本的特征数据为输入,与对应的行为类型为输出,对神经网络模型进行训练。具体地,预搭建的神经网络模型包括三个全连接层和一个输出层。
全连接层的其输入为1×n维向量。向量v为第d层全连接层的输入,全连接层的计算公式为:
z=w·v+bd
其中,w为全连接层的权重向量,bd为全连接层的偏置项。
输出层Ss:输出层为模型最后一层,使用softmax函数作为输出层,它能将一个含任意实数的K维向量v压缩到另一个K维实向量σ(v)中,使得每一个元素都在(0,1)之间,并且所有原色之和为1。向量v为输出层的输入,其计算公式为:
softmax函数作为输出层将JPEG图像压缩到另一个K维实向量σ(v)中。S4,对特征数据按照对应的行为类型进行分类;从而能够训练出将图片与行为分类具有对应关系的神经网络模型。
S5,重复步骤S1-S4,直到满足训练结束条件。由于softmax函数作为输出层将JPEG图像压缩到另一个K维实向量σ(v)中,因此模型中使用交叉熵作为损失函数,交叉熵的计算方法为:
其中,p为图像所述类别的标签向量,σ(v)为图像的特征数据;i表示第i张用于训练的已知行为类型的图片。反向传播的目的在于将训练样本带入模型中运算,使得损失函数J(p,σ(v))最小。如果使用J来对损失函数进行表示,w,b为模型中的参数和偏置值,那反向传播过程可以用如下公式表示出来:
a.输出层误差方程:
其中:为第l层第j个神经元上的误差;为一个向量,其元素是偏导数 为第l层第j个神经元输出,为一个微小变化量,⊙为Hadamard乘积,输出层误差方程的意义为:误差相对于第l层第的变化率。
b.使用下一层误差来表示当前层误差
δl=((wl+1)Tδl+1)⊙σ‘(zl)
c.损失函数关于网络中任意偏置的变化率:
d.损失函数关于任何一个权重的变化率:
为了使模型具有良好的泛化性能,在真实生产环境中也有较高的分类识别精度,在训练之前,即在步骤S1之前,需要对采样数据进行数据提升。数据增强通过一系列随机变换将图像进行拉升、平移、剪切、放大、缩小、翻转、旋转、像素填充,且变化符合正态分布变化。
实施例2
请参照图3,本实施例提出了一种行为识别方法,其中,包括如下步骤:
S1’,获取待识别的图像。具体实施,可以通过设置摄像头进行采样,如,以2s/次的频率来采集一定规格和格式的图片,具体地,采样图像规格为640*480px;采样图像格式为JPEG;采样时间为7*24h。
S2’,将图像重复进行卷积计算和最大池化计算,提取出用于表示图像特征的特征数据;具体实施时,卷积计算和最大池化计算的方式与实施例1中的方式相同,在此不再赘述。
此步骤中,对图像进行卷积计算和最大池化计算包括:每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。具体实施时,所选择的卷积计算与最大池化计算的方式与实施例1中步骤S2中的计算方式及相应公式均相同。
S3’,将特征数据输入到已训练完成的神经网络模型中,得到行为类型。具体地,已训练完成的神经网络模型为通过实施例1中所公开的方法训练得到的神经网络模型。
实施例3
请参照图4,本实施例提出了一种行为识别***,其中,具体包括:
采样模块,所述采样模块被设置为用于采集行为图像。具体地,本实施例中,采样模块用于采集实施例2中步骤S1中的图像,即:以2s/次的频率来采集一定规格和格式的图片,具体地,采样图像规格为640*480px;采样图像格式为JPEG;采样时间为7*24h。
计算模块,所述计算模块与所述采样模块连接,所述计算模块被设置为用于对图像进行卷积计算和最大池化计算。所述计算模块对图像进行卷积计算和最大池化计算包括:每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。此处,计算模块所进行的卷积计算与最大池化计算与实施1及实施例2中的计算方式及公式相同,在此不再赘述。
提取模块,与所述计算模块连接,所述提取模块被设置为用于根据所述计算结果提取出用于表示图像特征的特征数据。
分类模型,所述分类模型为经训练后的神经网络模型,所述分类模型与所述提取模块连接,所述分类模型用于根据所述图像特征数据进行分类。具体实施时,所述分类模型为利用本申请实施例1中的方法训练出来的神经网络模型。
作为一种优选方式,还包括摄像头,所述摄像头与所述采样模块连接。所述摄像头被设置为用于获取行为视频,所述采样模块以固定的频率从所述行为视频中获取固定规格和格式的图像。
作为一种应用方式,本申请可以被应用于卷烟厂的卷包车间机组操作人员质检行为识别,当然也可以应用于解决其他对于人员行为识别的问题上。
为了体现模型的有效性和适用性,并与其它方法进行比较,在相同测试数据集和训练数据集下,本发明设计实验如下:
实验一:使用2倍交叉验证法获取本发明的分类正确率。
实验二:使用2倍交叉验证法获取传统机器学习算法的分类正确率。
实验三:讨论实验一、实验二在不同样本数量下的分类识别效果。
实验四:在样本数确定的条件下,对采样数据加入高斯噪声、脉冲噪声、伽马噪声、指数噪声、均匀噪声后,使用2倍交叉验证法获取本发明的分类正确率。
实验一到三的结果统一表示在表1中。
表1不同样本类别分类正确率
由表可知,无论样本数量怎么样变化,线性分类器分类效果较差,说明线性分类器不适合解决此类问题。贝叶斯分类器、最近邻算法分类效果与线性分类器相比较,正确率有所提升,但依然较低。当所以在相同实验条件下,本发明对质检行为识别分类问题有较强的适应性,其分类性能不会受到样本数量及样本特征空间维度影响。
实验四的结果统一表示在表2中。
表2不同噪声添加分类正确率
由表可知,在样本数量一定,对其加入噪声的条件下,传统机器学习算法效果均不理想,但本发明对噪声不敏感,依然有较高正确率。
本发明能够对质检、操作人员的质检行为是否按时、按量、规范进行智能判断,具有较高的识别精度,抗干扰能力强,有效地减少了人力物力投入,降低了时间成本,提高了效率。
虽然已经通过例子对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上例子仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员应该理解,可在不脱离本发明的范围和精神的情况下,对以上实施例进行修改。本发明的范围由所附权利要求来限定。

Claims (10)

1.一种行为识别***模型训练方法,其特征在于,包括:
S1,获取已知行为类型的图像;
S2,对图像进行卷积计算和最大池化计算,并提取出用于表示图像特征的特征数据;
S3,将图像的特征数据与对应的行为类型输入到预搭建的神经网络模型中;
S4,对特征数据按照对应的行为类型进行分类;
S5,重复步骤S1-S4,直到满足训练结束条件。
2.根据权利要求1所述的行为识别***模型训练方法,其特征在于,步骤S2中,包括如下步骤:
S21,将图像根据三原色分为三个通道;
S22,分别对三个通道进行卷积计算和最大池化计算;
S23,提取出用于表示图像特征的特征数据。
3.根据权利要求1所述的行为识别***模型训练方法,其特征在于,步骤S2中,对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
4.根据权利要求1所述的行为识别***模型训练方法,其特征在于,在先的卷积计算所使用的感受野小于在后的卷积计算的感受野。
5.根据权利要求1所述的行为识别***模型训练方法,其特征在于,所述训练结束条件为损失函数最小,其中损失函数为:
其中,p为图像所述类别的标签向量,σ(v)为图像的特征数据;i表示第i张用于训练的已知行为类型的图片。
6.一种行为识别方法,其特征在于,包括:
S1’,获取待识别的图像;
S2’,将图像重复进行卷积计算和最大池化计算,提取出用于表示图像特征的特征数据;
S3’,将特征数据输入到已训练完成的模型中,得到行为类型。
7.根据权利要求6所述的行为识别方法,其特征在于,
步骤S2’中,对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
8.一种行为识别***,其特征在于,包括:
采样模块,所述采样模块被设置为用于采集行为图像;
计算模块,所述计算模块与所述采样模块连接,所述计算模块被设置为用于对图像进行卷积计算和最大池化计算;
提取模块,与所述计算模块连接,所述提取模块被设置为用于根据所述计算结果提取出用于表示图像特征的特征数据;
分类模型,所述分类模型为经训练后的神经网络模型,所述分类模型与所述提取模块连接,所述分类模型用于根据所述图像特征数据进行分类。
9.根据权利要求8所述的行为识别***,其特征在于,还包括摄像头,所述摄像头与所述采样模块连接;
所述摄像头被设置为用于获取行为视频,所述采样模块以固定的频率从所述行为视频中获取固定规格和格式的图像。
10.根据权利要求8所述的行为识别***,其特征在于,所述计算模块对图像进行卷积计算和最大池化计算包括:
每进行至少两次卷积计算后,进行一次最大池化计算,且最大池化计算的次数为4-6次。
CN201910436216.5A 2019-05-23 2019-05-23 行为识别***模型训练方法、行为识别方法及*** Pending CN110232333A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910436216.5A CN110232333A (zh) 2019-05-23 2019-05-23 行为识别***模型训练方法、行为识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910436216.5A CN110232333A (zh) 2019-05-23 2019-05-23 行为识别***模型训练方法、行为识别方法及***

Publications (1)

Publication Number Publication Date
CN110232333A true CN110232333A (zh) 2019-09-13

Family

ID=67861128

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910436216.5A Pending CN110232333A (zh) 2019-05-23 2019-05-23 行为识别***模型训练方法、行为识别方法及***

Country Status (1)

Country Link
CN (1) CN110232333A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118212592A (zh) * 2024-05-21 2024-06-18 成都航空职业技术学院 一种客舱内异常行为识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570467A (zh) * 2016-10-25 2017-04-19 南京南瑞集团公司 一种基于卷积神经网络的人员离岗检测方法
CN106778902A (zh) * 2017-01-03 2017-05-31 河北工业大学 基于深度卷积神经网络的奶牛个体识别方法
CN109685819A (zh) * 2018-12-11 2019-04-26 厦门大学 一种基于特征增强的三维医学图像分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570467A (zh) * 2016-10-25 2017-04-19 南京南瑞集团公司 一种基于卷积神经网络的人员离岗检测方法
CN106778902A (zh) * 2017-01-03 2017-05-31 河北工业大学 基于深度卷积神经网络的奶牛个体识别方法
CN109685819A (zh) * 2018-12-11 2019-04-26 厦门大学 一种基于特征增强的三维医学图像分割方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
周书仁 等: "多尺寸池化卷积神经网络的人体行为识别研究", 《小型微型计算机***》 *
张明月: "《考虑产品特征的个性化推荐及应用》", 30 April 2019 *
李兵 等: "基于TensorFlow深度学习的车牌识别算法研究", 《成都工业学院学报》 *
杨露菁 等: "《智能图像处理及应用》", 31 March 2019 *
谢威 等: "《新兴技术与科技情报》", 30 November 2017 *
郝志峰 等: "《数据科学与数学建模》", 31 January 2019 *
陈旭 等: "卷积网络深度学习算法与实例", 《广东工业大学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118212592A (zh) * 2024-05-21 2024-06-18 成都航空职业技术学院 一种客舱内异常行为识别方法
CN118212592B (zh) * 2024-05-21 2024-07-12 成都航空职业技术学院 一种客舱内异常行为识别方法

Similar Documents

Publication Publication Date Title
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN104992223B (zh) 基于深度学习的密集人数估计方法
CN108985181B (zh) 一种基于检测分割的端对端人脸标注方法
CN108491835A (zh) 面向面部表情识别的双通道卷积神经网络
CN106295694B (zh) 一种迭代重约束组稀疏表示分类的人脸识别方法
CN106960176B (zh) 一种基于超限学习机和颜色特征融合的行人性别识别方法
CN110400293B (zh) 一种基于深度森林分类的无参考图像质量评价方法
CN109376787B (zh) 流形学习网络及基于其的计算机视觉图像集分类方法
CN105046272B (zh) 一种基于简洁非监督式卷积网络的图像分类方法
CN114091606B (zh) 一种隧道***炮孔半眼痕识别和损伤平整度评价分类方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN106845434B (zh) 一种基于支持向量机的图像型机房漏水监测方法
Kan et al. Dynamic network monitoring and control of in situ image profiles from ultraprecision machining and biomanufacturing processes
CN111311702B (zh) 一种基于BlockGAN的图像生成和识别模块及方法
CN106778714B (zh) 基于非线性特征和模型合并的lda人脸识别方法
CN110415207A (zh) 一种基于图像失真类型的图像质量评估的方法
CN105631469A (zh) 一种多层稀疏编码特征的鸟类图像识别方法
CN110570443A (zh) 一种基于结构约束条件生成模型的图像线状目标提取方法
CN115294563A (zh) 一种基于Transformer的增强了局部语义学习能力的3D点云分析方法及装置
CN111368911A (zh) 一种图像分类方法、装置和计算机可读存储介质
Zhang Application of artificial intelligence recognition technology in digital image processing
CN103235943A (zh) 基于pca的3d人脸识别***
CN110232333A (zh) 行为识别***模型训练方法、行为识别方法及***
CN117522735A (zh) 基于多尺度的密流感知去雨图像增强方法
CN111695560A (zh) 基于卷积神经网络对农作物病虫害主动定位聚焦的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190913

RJ01 Rejection of invention patent application after publication