CN105787458B - 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 - Google Patents

基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 Download PDF

Info

Publication number
CN105787458B
CN105787458B CN201610139450.8A CN201610139450A CN105787458B CN 105787458 B CN105787458 B CN 105787458B CN 201610139450 A CN201610139450 A CN 201610139450A CN 105787458 B CN105787458 B CN 105787458B
Authority
CN
China
Prior art keywords
features
feature
artificial design
extracted
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610139450.8A
Other languages
English (en)
Other versions
CN105787458A (zh
Inventor
高陈强
吕静
杜银和
汪澜
刘江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201610139450.8A priority Critical patent/CN105787458B/zh
Publication of CN105787458A publication Critical patent/CN105787458A/zh
Application granted granted Critical
Publication of CN105787458B publication Critical patent/CN105787458B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,包括以下步骤:S1:通过人工设计特征模块,对原始视频进行改进的密集轨迹特征提取;S2:对提取到的人工设计特征进行特征编码;S3:通过CNN特征模块,对原始视频图像序列,利用一种变分光流算法提取光流信息,得到对应光流图像序列;S4:利用卷积神经网络,对步骤S3中得到的光流图序列提取CNN特征;S5:将数据集分为训练集和测试集;对训练集数据,通过权重优化网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将其应用于测试集数据分类。本方法创新了特征融合方式,提高了红外视频中行为识别的可靠性,对后续视频分析工作有重大意义。

Description

基于人工设计特征和深度学习特征自适应融合的红外行为识 别方法
技术领域
本发明属于图像处理与计算机视觉技术领域,涉及一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法。
背景技术
近年来,图像和视频中的行为识别成为计算机视觉领域的一项重要任务,视频中的行为识别对视频监控、视频信息检索、人机交互等工作都有十分重要的意义。随着各种行为识别算法不断刷新各个公开数据集的识别准确率,视频中的行为识别任务取得了很大进步。但目前大部分的数据集都是基于可见光视频,基于红外视频的行为识别工作相对较少。
目前主流的行为识别算法主要涉及两种类型的描述子:人工设计特征描述子和通过深度学习得到的描述子。
人工设计特征和典型的局部描述子,例如时空兴趣点特征(Spatial-TemporalInterest Point,STIP)、方向梯度直方图(Histogram ofOriented Gradient,HOG)、光流方向直方图(Histogram ofOptical Flow,HOF)、密集轨迹特征(DenseTrajectory,DT)等,是基于图像的纹理信息、视觉形态和不同帧之间的运动信息等对不同的行为进行分类和识别;由于密集轨迹特征包含HOG,HOF,MBH(Motion Boundary History)等丰富的描述子信息,成为目前识别准确率较高的人工设计特征;随着计算机性能的提升,将卷积神经网络提取的CNN特征用作图像、视频中的行为识别成为近年来的热门研究方向,卷积神经网络实现了对图片信息的深层次挖掘,有效的提取具有判别性的信息,目前已经提出的3D卷积神经网络、深度卷积神经网络、双通道卷积神经网络等模型中,效果最好的是一个由时间信息通道和空间信息通道构成的双通道卷积神经网络,在各个比较有挑战性的数据集上都取得了较好的实验效果。
但是目前基于红外视频的行为识别研究工作相对较少,在视频监控工作中,若遇到雨、雾等能见度较低的恶劣天气或者夜间情况下,可见光视频监控就失去了意义。因此,红外视频行为识别有着很重要的实用价值,目前急需一种有效的红外视频行为识别算法。
发明内容
有鉴于此,本发明的目的在于提供一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,该方法充分利用了红外图像的特点和优势,对人工设计特征进行改进,并通过两个分类网络和一个权重学习函数,将人工设计特征分类网络和深度学习特征分类网络的概率输出进行加权融合,有效提升了红外视频中行为识别的准确率。
为达到上述目的,本发明提供如下技术方案:
一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,该方法包括以下步骤:
S1:通过人工设计特征模块,对原始视频进行改进的密集轨迹特征提取;
S2:对步骤S1中提取到的人工设计特征进行特征编码;
S3:通过CNN特征模块,对原始视频图像序列,利用一种变分光流算法提取光流信息,得到对应光流图像序列,作为卷积神经网络的输入;
S4:利用卷积神经网络,对步骤S3中得到的光流图序列提取CNN特征;
S5:将数据集分为训练集和测试集;对训练集数据,通过权重优化网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将其应用于测试集数据分类。
进一步,在步骤S1中,所述对原始视频提取改进后的人工设计特征,具体包括:首先对每一帧红外图像进行兴趣点密集采样,然后在连续图像序列之间追踪兴趣点,在得到的轨迹描述子中加入轨迹对应图片位置灰度值权重,将加权后的轨迹描述子作为改进的密集轨迹特征。
进一步,在步骤S2中,所述的对提取的改进后密集轨迹特征进行编码,编码采用以下方式进行:
1):Bag-of-Words(BOW)
该特征编码方法包括两步步骤:
11)生成视觉词典:在训练集数据上提取特征,通过聚类算法对提取到的特征进行聚类;聚类中心可以看作是词典中的视觉词汇,所有视觉词汇形成一个视觉词典;
12)用词典中的词汇表示图像:图像中的每个特征都被映射到视觉词典的某个词上,然后统计每个视觉词在一张图像上的出现次数,即可将图像表示成一个维数固定的直方图向量;
2):Fisher Vector(FV)
Fisher Vector编码是一种基于Fisher核原理的编码方式,首先利用训练样本通过最大似然估计的方法训练出高斯混合模型(GMM),然后利用高斯混合模型对从样本中提取的原始特征(如Dense-Traj)进行建模,再利用生成的模型参数将样本的原始特征编码成便于学习和度量的Fisher向量;
3):Vector ofLocallyAggregated Descriptors(VLAD)
VLAD编码首先对训练集上提取的特征进行聚类,得到码本,然后计算原始特征和码本中每个词的差距,并将这些差值进行累计,最后把所有词的累计差值进行拼接形成一个新的向量来表示图像。
进一步,在步骤S3中,所述的利用一种变分光流算法提取光流信息,得到对应光流图像序列,具体包括:
S31:在亮度不变假设、梯度恒定假设和连续时空平滑约束条件下,提出改进的能量泛函;
S32:根据能量函数推导出其对应的Euler-Lagrange方程,然后利用Gauss-Seidel或SOR方法求出光流矢量,得到对应光流图。
进一步,在步骤S4中,对得到的光流图像序列,利用卷积神经网络,提取全连接层的输出作为CNN特征;CNN采用多层网络结构,卷积层和抽样层交替出现,网络输出层为前馈网络全连接方式。
进一步,在步骤S5中,所述将数据集分为训练集和测试集;利用训练集数据通过自适应融合模块学习得到最优权重,并将最优权重应用到测试集数据进行分类,具体包括:
S51:利用训练集数据学习出最优权重:
自适应融合模块包括两个包含全连接层和softmax分类器层的分类网络和一个单节点逻辑函数;两个分类网络的输入分别是训练集数据的人工设计特征和CNN特征,两种特征输入到对应网络之后得到各自的概率输出P1和P2,同时利用单节点逻辑函数计算出对应的权重Q;最终根据指定权重对两个分类网络的概率输出进行加权融合,利用误差反向传播算法判断识别误差、更新梯度,判断并输出最优权重;
S52:将最优权重应用到测试集数据进行分类:
将测试集数据提取到的人工设计特征和CNN特征输入到对应分类网络,得到对应概率输出,利用S51中得到的最优权重加权融合两个分类网络的概率输出,得到测试集数据的识别结果。
本发明的有益效果在于:本发明所述方法突出了红外视频较可见光视频的优势,将传统人工设计特征和近来发展迅速的深度学习特征结合应用于行为识别任务,创新了特征融合方式,提高了红外视频中行为识别的可靠性,对后续视频分析工作有重大意义。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明的双通道红外行为识别算法示意图;
图2为改进的密集轨迹特征提取示意图;
图3为光流卷积神经网络特征提取示意图;
图4为自适应特征融合模型示意图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
在本发明中,人工设计特征模块,对原始视频进行改进后的密集轨迹特征提取,并对提取的特征进行编码;改进的密集轨迹特征是在原始密集轨迹的描述子中加入了灰度值权重信息,改进后的密集轨迹特征主要体现了视频图像序列的时空信息,突出了图片序列的前景运动信息;CNN特征模块,对原始红外视频图像序列利用一种变分光流算法提取光流信息,形成光流图像序列,将提取到的光流图作为卷积神经网络的输入,取卷积神经网络全连接层的特征作为视频CNN特征描述子;自适应融合模块首先将数据集分为训练集和测试集;对训练集数据,通过权重学习网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将最优权重应用于测试集数据分类。
图1为本发明的双通道红外行为识别算法示意图,如图所示,本发明所述方法具体包括以下步骤:
步骤S1:对原始视频提取改进后的密集轨迹特征,其具体流程图如图2所示:
S101:对原始视频每一帧红外图像进行兴趣点密集采样;
S102:在连续图像序列之间追踪兴趣点,连续两帧之间位移量很小和过大的像素点都被舍弃,最终得到可以表征动作的兴趣点轨迹;
S103:在得到的轨迹描述子中加入轨迹对应图片位置灰度值权重,将加权后的轨迹描述子作为改进的密集轨迹特征。
原始视频是分辨率为293×256的红外数据集,共12个动作类型,每个动作类型有50个视频样本。密集轨迹特征是目前图像分类识别任务中准确率较高的人工设计特征,但是大部分用于测试的数据集都是可见光数据集。由于红外图像可以反映出图像中各目标的红外热辐射,热辐射越强,灰度值越大,使得目标和背景之间有较明显的对比,基于红外图像这一特征,我们在原始密集轨迹特征的基础上加入了灰度值权重,使得灰度值高的轨迹拥有较大的权重,灰度值较小的轨迹分配较小的权重,改进了原始密集轨迹特征,突出了红外图像行为识别的优势。
步骤S2:对提取的人工设计特征进行Fisher Vector编码。
步骤S3:利用一种变分光流算法对原始视频图像序列提取光流信息,形成光流图像序列。该算法能量泛函的数据项由光亮度不变假设和梯度不变假设组成,加入不连续的时空平滑约束,有较好的连续和旋转不变性,计算速度快,精度高。
步骤S4:对步骤S3得到的光流图像序列的图片进行预处理,图片尺寸调整到分辨率为227×227,并将其作为卷积神经网络的输入,该卷积神经网络由五个卷积层和三个全连接层构成,最终取第二个卷积层的特征作为特征表达,流程图如图3所示。
卷积神经网络(ConvolutionalNeuralNet,CNN)是一种多层前馈网络,作为网络中间层的卷积层和抽样层交替出现,网络输出为前馈网络的全连接方式,输出层的维数为分类任务中的类别数。卷积神经网络能够直接从原始输入数据中自动学习相应特征,省去一般算法需要的特征设计过程,能够学习和发现更有效的特征。
步骤S5:训练集数据利用自适应融合模块学习出最优权重,并将其应用于测试集数据分类。自适应融合模型的示意图如图4所示:
S501:将数据集分为训练集和测试集;
S502:利用训练集样本数据学习出最优权重:自适应融合模型包括两个包含全连接层和softmax分类器层的分类网络和一个单节点逻辑函数;两个分类网络的输入分别是对训练集数据提取的人工设计特征和CNN特征,两种特征输入到对应网络之后得到各自的概率输出P1和P2,同时单节点逻辑函数计算对应的权重Q;最终根据指定权重对两个分类网络的概率输出进行加权融合,并利用误差反向传播算法判断识别误差、更新梯度,判断并输出最优权重;
S503:将最优权重应用到测试集数据进行分类:将测试集样本数据提取到的人工设计特征和CNN特征输入到对应分类网络,得到对应概率输出,利用最优权重比例加权融合两个分类网络的概率输出,得到测试集数据识别结果。
误差反向传播(Error Back propagation,BP)算法的主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值。BP算法的学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层。若输出层的实际输出与期望的输出不符,则转入误差的反向传播阶段。误差反传是将输出误差以某种形式通过各隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各个单元权值的依据。在本模块中,正是这种周而复始的权值不断调整的过程使得最终得到最优权重。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (6)

1.一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:该方法包括以下步骤:
S1:通过人工设计特征模块,对原始视频进行改进的密集轨迹特征提取;
S2:对步骤S1中提取到的人工设计特征进行特征编码;
S3:通过CNN特征模块,对原始视频图像序列,利用一种变分光流算法提取光流信息,得到对应光流图像序列,作为卷积神经网络的输入;
S4:利用卷积神经网络,对步骤S3中得到的光流图序列提取CNN特征;
S5:将数据集分为训练集和测试集;对训练集数据,通过权重优化网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将其应用于测试集数据分类。
2.根据权利要求1所述的基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:在步骤S1中,所述对原始视频提取改进后的人工设计特征,具体包括:首先对每一帧红外图像进行兴趣点密集采样,然后在连续图像序列之间追踪兴趣点,在得到的轨迹描述子中加入轨迹对应图片位置灰度值权重,将加权后的轨迹描述子作为改进的密集轨迹特征。
3.根据权利要求1所述的基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:在步骤S2中,所述的对提取的改进后密集轨迹特征进行编码,编码采用以下其中一种方式进行:
1):Bag-of-Words(BOW)
该特征编码方法包括两步步骤:
11)生成视觉词典:在训练集数据上提取特征,通过聚类算法对提取到的特征进行聚类;聚类中心可以看作是词典中的视觉词汇,所有视觉词汇形成一个视觉词典;
12)用词典中的词汇表示图像:图像中的每个特征都被映射到视觉词典的某个词上,然后统计每个视觉词在一张图像上的出现次数,即可将图像表示成一个维数固定的直方图向量;
2):Fisher Vector(FV)
Fisher Vector编码是一种基于Fisher核原理的编码方式,首先利用训练样本通过最大似然估计的方法训练出高斯混合模型(GMM),然后利用高斯混合模型对从样本中提取的原始特征(如Dense-Traj)进行建模,再利用生成的模型参数将样本的原始特征编码成便于学习和度量的Fisher向量;
3):Vector ofLocally Aggregated Descriptors(VLAD)
VLAD编码首先对训练集上提取的特征进行聚类,得到码本,然后计算原始特征和码本中每个词的差距,并将这些差值进行累计,最后把所有词的累计差值进行拼接形成一个新的向量来表示图像。
4.根据权利要求1所述的基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:在步骤S3中,所述的利用一种变分光流算法提取光流信息,得到对应光流图像序列,具体包括:
S31:在亮度不变假设、梯度恒定假设和连续时空平滑约束条件下,提出改进的能量泛函;
S32:根据能量函数推导出其对应的Euler-Lagrange方程,然后利用Gauss-Seidel或SOR方法求出光流矢量,得到对应光流图。
5.根据权利要求1所述的基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:在步骤S4中,对得到的光流图像序列,利用卷积神经网络,提取全连接层的输出作为CNN特征;CNN采用多层网络结构,卷积层和抽样层交替出现,网络输出层为前馈网络全连接方式。
6.根据权利要求1所述的基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,其特征在于:在步骤S5中,所述将数据集分为训练集和测试集;利用训练集数据通过自适应融合模块学习得到最优权重,并将最优权重应用到测试集数据进行分类,具体包括:
S51:利用训练集数据学习出最优权重:
自适应融合模块包括两个包含全连接层和softmax分类器层的分类网络和一个单节点逻辑函数;两个分类网络的输入分别是训练集数据的人工设计特征和CNN特征,两种特征输入到对应网络之后得到各自的概率输出P1和P2,同时利用单节点逻辑函数计算出对应的权重Q;最终根据指定权重对两个分类网络的概率输出进行加权融合,利用误差反向传播算法判断识别误差、更新梯度,判断并输出最优权重;
S52:将最优权重应用到测试集数据进行分类:
将测试集数据提取到的人工设计特征和CNN特征输入到对应分类网络,得到对应概率输出,利用S51中得到的最优权重加权融合两个分类网络的概率输出,得到测试集数据的识别结果。
CN201610139450.8A 2016-03-11 2016-03-11 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 Active CN105787458B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610139450.8A CN105787458B (zh) 2016-03-11 2016-03-11 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610139450.8A CN105787458B (zh) 2016-03-11 2016-03-11 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法

Publications (2)

Publication Number Publication Date
CN105787458A CN105787458A (zh) 2016-07-20
CN105787458B true CN105787458B (zh) 2019-01-04

Family

ID=56392545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610139450.8A Active CN105787458B (zh) 2016-03-11 2016-03-11 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法

Country Status (1)

Country Link
CN (1) CN105787458B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407889A (zh) * 2016-08-26 2017-02-15 上海交通大学 基于光流图深度学习模型在视频中人体交互动作识别方法

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446937A (zh) * 2016-09-08 2017-02-22 天津大学 用于aer图像传感器的多层卷积识别***
CN106355210B (zh) * 2016-09-14 2019-03-19 华北电力大学(保定) 基于深度神经元响应模式的绝缘子红外图像特征表达方法
CN108073933B (zh) * 2016-11-08 2021-05-25 杭州海康威视数字技术股份有限公司 一种目标检测方法及装置
CN106709447A (zh) * 2016-12-21 2017-05-24 华南理工大学 基于目标定位与特征融合的视频中异常行为检测方法
CN108335402B (zh) * 2017-01-18 2019-12-10 武汉卓目科技有限公司 一种基于深度学习的验钞机红外对管鉴伪方法
CN107122712B (zh) * 2017-03-27 2020-11-13 大连大学 基于cnn和双向vlad的掌纹图像识别方法
CN106979980B (zh) * 2017-04-28 2020-06-09 武汉理工大学 一种多频谱声学相机及识别方法
CN108875756B (zh) * 2017-05-08 2021-01-05 深圳荆虹科技有限公司 一种视频的行为类别获取方法及装置
CN107133354B (zh) * 2017-05-25 2020-11-10 北京小米移动软件有限公司 图像描述信息的获取方法及装置
CN107273835A (zh) * 2017-06-07 2017-10-20 南京航空航天大学 基于视频分析的暴力行为智能检测方法
BR112020001729A8 (pt) * 2017-08-01 2023-04-11 Huawei Tech Co Ltd Método, aparelho e dispositivo de reconhecimento de gestos
CN107679522B (zh) * 2017-10-31 2020-10-13 内江师范学院 基于多流lstm的动作识别方法
CN108009486B (zh) * 2017-11-28 2021-06-08 中科亿海微电子科技(苏州)有限公司 基于深度学习训练重构图的视频识别方法及***
CN108021889A (zh) * 2017-12-05 2018-05-11 重庆邮电大学 一种基于姿态外形和运动信息的双通道红外行为识别方法
TWI649698B (zh) 2017-12-21 2019-02-01 財團法人工業技術研究院 物件偵測裝置、物件偵測方法及電腦可讀取媒體
CN108288035A (zh) * 2018-01-11 2018-07-17 华南理工大学 基于深度学习的多通道图像特征融合的人体动作识别方法
CN108229580B (zh) * 2018-01-26 2020-12-11 浙江大学 一种基于注意力机制及特征融合的眼底图中糖网特征分级装置
CN108229440A (zh) * 2018-02-06 2018-06-29 北京奥开信息科技有限公司 一种基于多传感器融合室内人体姿态识别方法
CN108596082A (zh) * 2018-04-20 2018-09-28 重庆邮电大学 基于图像扩散速度模型和色彩特征的人脸活体检测方法
CN108664922A (zh) * 2018-05-10 2018-10-16 东华大学 一种基于人身安全的红外视频人体行为识别方法
CN108830308B (zh) * 2018-05-31 2021-12-14 西安电子科技大学 一种基于信号的传统特征与深度特征融合的调制识别方法
CN108830330B (zh) * 2018-06-22 2021-11-02 西安电子科技大学 基于自适应特征融合残差网的多光谱图像分类方法
CN109684933A (zh) * 2018-11-30 2019-04-26 广州大学 一种前方行人窜出马路的预警方法
CN111310519B (zh) * 2018-12-11 2024-01-05 成都智叟智能科技有限公司 基于机器视觉与数据采样的货品深度学习训练方法
CN109740670B (zh) * 2019-01-02 2022-01-11 京东方科技集团股份有限公司 视频分类的方法及装置
CN109815967A (zh) * 2019-02-28 2019-05-28 北京环境特性研究所 基于特征融合的cnn舰船目标识别***及方法
CN109977846B (zh) * 2019-03-22 2023-02-10 中国科学院重庆绿色智能技术研究院 一种基于近红外单目摄像的活体检测方法及***
CN110135352B (zh) * 2019-05-16 2023-05-12 南京砺剑光电技术研究院有限公司 一种基于深度学习的战术动作评估方法
CN110135386B (zh) * 2019-05-24 2021-09-03 长沙学院 一种基于深度学习的人体动作识别方法和***
CN110236560A (zh) * 2019-06-06 2019-09-17 深圳市联邦佳维工业装备有限公司 智能穿戴设备的六轴姿态检测方法、***
CN111860086A (zh) * 2019-06-26 2020-10-30 广州凡拓数字创意科技股份有限公司 基于深度神经网络的手势识别方法、装置及***
CN110378254B (zh) * 2019-07-03 2022-04-19 中科软科技股份有限公司 车损图像修改痕迹的识别方法、***、电子设备及存储介质
CN110555387B (zh) * 2019-08-02 2022-07-19 华侨大学 骨架序列中基于局部关节点轨迹时空卷的行为识别方法
CN110674884A (zh) * 2019-09-30 2020-01-10 山东浪潮人工智能研究院有限公司 一种基于特征融合的图像识别方法
CN111079655B (zh) * 2019-12-18 2022-08-16 航天物联网技术有限公司 一种基于融合神经网络的视频中人体行为识别方法
CN111145222A (zh) * 2019-12-30 2020-05-12 浙江中创天成科技有限公司 一种结合烟雾运动趋势和纹理特征的火灾检测方法
CN111400440A (zh) * 2020-02-28 2020-07-10 深圳市华海同创科技有限公司 一种意图识别的方法及装置
CN111680543B (zh) * 2020-04-23 2023-08-29 北京迈格威科技有限公司 动作识别方法、装置及电子设备
CN112329815B (zh) * 2020-09-30 2022-07-22 华南师范大学 模型训练方法、行驶轨迹异常性检测方法、装置和介质
CN112749672A (zh) * 2021-01-19 2021-05-04 携程旅游网络技术(上海)有限公司 相册视频识别方法、***、设备及存储介质
CN112597975B (zh) * 2021-02-26 2021-06-08 上海闪马智能科技有限公司 一种基于视频的火灾烟雾和抛洒物检测方法及***
CN112801042B (zh) * 2021-03-08 2023-12-15 南京大学 一种基于深度学习和视频轨迹的学生上课行为识别方法
CN112669320B (zh) * 2021-03-22 2021-08-13 四川大学 一种基于深度神经网络的spect甲状腺显像智能识别方法
CN113139518B (zh) * 2021-05-14 2022-07-29 江苏中天互联科技有限公司 基于工业互联网的型材切割状态监控方法
CN113395138B (zh) * 2021-06-15 2022-05-03 重庆邮电大学 基于深度学习的pc-scma联合迭代检测译码方法
CN115965553B (zh) * 2023-01-03 2023-12-19 无锡学院 基于多特征融合的人脸图像局部增强方法
CN117528085B (zh) * 2024-01-08 2024-03-19 中国矿业大学 一种基于智能特征聚类的视频压缩编码方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202144B2 (en) * 2013-10-30 2015-12-01 Nec Laboratories America, Inc. Regionlets with shift invariant neural patterns for object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
复杂场景下的人体行为识别研究新进展;雷庆等;《计算机科学》;20141231;第1页至第3页

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407889A (zh) * 2016-08-26 2017-02-15 上海交通大学 基于光流图深度学习模型在视频中人体交互动作识别方法

Also Published As

Publication number Publication date
CN105787458A (zh) 2016-07-20

Similar Documents

Publication Publication Date Title
CN105787458B (zh) 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN110781838B (zh) 一种复杂场景下行人的多模态轨迹预测方法
CN109523463B (zh) 一种基于条件生成对抗网络的人脸老化方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN113936339B (zh) 基于双通道交叉注意力机制的打架识别方法和装置
CN111611847B (zh) 基于尺度注意力空洞卷积网络的视频动作检测方法
CN110096950A (zh) 一种基于关键帧的多特征融合行为识别方法
CN109299657B (zh) 基于语义注意力保留机制的群体行为识别方法及装置
CN103578119B (zh) 基于超像素的Codebook动态场景中目标检测方法
CN110348364B (zh) 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN110287849A (zh) 一种适用于树莓派的轻量化深度网络图像目标检测方法
CN110378288A (zh) 一种基于深度学习的多级时空运动目标检测方法
CN110502988A (zh) 视频中的组群定位与异常行为检测方法
CN110490136B (zh) 一种基于知识蒸馏的人体行为预测方法
CN112446342B (zh) 关键帧识别模型训练方法、识别方法及装置
CN112819065B (zh) 基于多重聚类信息的无监督行人难样本挖掘方法和***
CN108427740B (zh) 一种基于深度度量学习的图像情感分类与检索算法
CN106529477A (zh) 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN110532862B (zh) 基于门控融合单元的特征融合组群识别方法
CN107392131A (zh) 一种基于人体骨骼节点距离的动作识别方法
CN110674483B (zh) 一种基于多模态信息的身份识别方法
Li et al. Sign language recognition based on computer vision
CN112434723B (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN111797814A (zh) 基于通道融合和分类器对抗的无监督跨域动作识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant