CN108805907B - 一种行人姿势多特征智能辨识方法 - Google Patents

一种行人姿势多特征智能辨识方法 Download PDF

Info

Publication number
CN108805907B
CN108805907B CN201810578415.5A CN201810578415A CN108805907B CN 108805907 B CN108805907 B CN 108805907B CN 201810578415 A CN201810578415 A CN 201810578415A CN 108805907 B CN108805907 B CN 108805907B
Authority
CN
China
Prior art keywords
pedestrian
ant
individual
image
iteration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810578415.5A
Other languages
English (en)
Other versions
CN108805907A (zh
Inventor
刘辉
李燕飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201810578415.5A priority Critical patent/CN108805907B/zh
Publication of CN108805907A publication Critical patent/CN108805907A/zh
Application granted granted Critical
Publication of CN108805907B publication Critical patent/CN108805907B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种行人姿势多特征智能辨识方法,包括以下几个步骤:步骤1:构建行人样本图像数据库;步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;步骤3:构建基于极限学习机的行人检测模型;步骤4:构建基于BP神经网络的行人跟踪模型;步骤5:行人轨迹实时跟踪辨识;该方法在行人跟踪检测采用基于BP神经网络的方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下,有利于现代交通智能化,工业智能化的提高。

Description

一种行人姿势多特征智能辨识方法
技术领域
本发明属于人工智能领域,特别涉及一种行人姿势多特征智能辨识方法。
背景技术
随着科学技术的飞速发展,利用计算机视觉相关技术的行人检测技术已经广泛应用于生活的各个方面,如智能列车、车辆自动驾驶等领域。交通的安全是永恒的话题。在车辆碰撞类事故中,车辆与行人之间的碰撞也占了很大的比重。现如今,安全带、安全气囊等的传统安全技术已经全面普及,然而这些都是被动的保护方法。人们希望能研究出车辆的主动保护安全***,而对行人准确的识别和跟踪是研究的重点。
目前多采用的行人跟踪方法为描述法,即将行人的外貌特征如衣服颜色等作为判断特征,提取图像的颜色直方图,进而通过欧氏距离或巴氏距离计算相似度,此种方法鲁棒性较低,效果不理想。还有学者提出用多特征融合的描述方法对行人进行匹配识别,但浅层特征易受到描述能力的限制,且具有较高的主观因素。
中国专利CN201610317720公开了一种基于循环神经网络的多目标跟踪方法,包括以下步骤:1:构建标注了每帧行人位置的监控视频数据集;2:对标注了每帧行人位置的监控视频数据集进行人工扩充,得到训练集样本;3:对训练集样本进行分组,得到多个训练组;4:构建多目标跟踪网络;5:将各训练组以序列为单位输入多目标跟踪网络进行训练;6:将待测视频数据输入训练后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹。该专利所述方案中存在以下几点问题:1.行人跟踪***中未考虑行人在视频中短暂消失重现或者中途有新行人进入的状况,以上两种情况均可能导致***判断失误;2.需要对行人数据集进行人工扩充,使得判断***繁琐,效率下降;3.使用循环神经网络算法容易出现局部收敛。
发明内容
本发明提供了一种行人姿势多特征智能辨识方法,其目的在于,克服现有技术中对监控视频中行人轨迹辨识准确度不高,且效率低的问题。
一种行人姿势多特征智能辨识方法,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的标签向量添加到第一帧中人的记录中;
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行匹配,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
进一步地,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域,得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
进一步地,使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
公鸡位置更新公式:
Figure BDA0001685828680000041
其中,
Figure BDA0001685828680000042
表示在第t次迭代中公鸡i个体在j维空间中的位置,
Figure BDA0001685828680000043
对应该公鸡个体在第t+1次迭代中新的位置,r(0,σ2)为服从均值为0,标准差为σ2的正态分布N(0,σ2);
母鸡位置更新公式:
Figure BDA0001685828680000044
其中,
Figure BDA0001685828680000045
为在第t次迭代中母鸡g在j维空间的位置,
Figure BDA0001685828680000046
为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,
Figure BDA0001685828680000047
为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4]。
小鸡位置更新公式:
Figure BDA0001685828680000048
其中,
Figure BDA0001685828680000049
为在第t次迭代中小鸡l在j维空间的位置,
Figure BDA00016858286800000410
为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,
Figure BDA00016858286800000411
为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
进一步地,所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
Figure BDA0001685828680000051
其中,
Figure BDA0001685828680000052
为迭代次数为1时第i个个体的位置;rand(0,1)为rand(0,1)为随机函数,在(0,1)之间均匀随机取值;
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
适应度值大的蚁狮或者蚂蚁个体为优秀;
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(2)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
Figure BDA0001685828680000053
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,ci t和di t对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响:
Figure BDA0001685828680000054
Figure BDA0001685828680000055
为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置,ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
Figure BDA0001685828680000061
Figure BDA0001685828680000062
表示经过第t次迭代后得到的被捕食的蚂蚁个体n的位置,
Figure BDA0001685828680000063
Figure BDA0001685828680000064
分别表示第t次迭代时蚁狮个体s和第t次迭代时的精英蚁狮;
(4)更新蚂蚁游走边界范围;
Figure BDA0001685828680000065
其中,ubt和lbt分别表示在第t次迭代时的上边界和下边界,ω与当前迭代次数有关,
Figure BDA0001685828680000066
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
有益效果
本发明提供了一种行人姿势多特征智能辨识方法,包括以下几个步骤:步骤1:构建行人样本图像数据库;步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;步骤3:构建基于极限学习机的行人检测模型;步骤4:构建基于BP神经网络的行人跟踪模型;步骤5:行人轨迹实时跟踪辨识;
该方法相较于现有技术而言,具有以下优点:
1.检测准确:在行人检测采用基于神经网络的方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下,有利于现代交通智能化,工业智能化的提高;
2.再识别率高,由神经网络自动对跟踪目标提取高层抽象特征,实现对跟踪目标高效快速的匹配再识别;
3.使用优化算法对神经网络参数进行调优处理,能够提高神经网络的运行效率,提高神经网络对行人识别的精准度,应对大流量的交通行人,鲁棒性好。
4.创新性提出了将行人从图像中使用图像处理方法抽离,逐帧进行对比进行跟踪,保证了行人跟踪的稳定性,不容易丢失目标。
5.远程处理图像数据,无需对街口设备进行添置或更新,节约设备成本。
附图说明
图1为本发明所述方法的流程示意图。
具体实施方式
下面将结合附图和实例对本发明做进一步的说明。
如图1所示,一种行人姿势多特征智能辨识方法,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域;
得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
鸡群算法基本原理如下:
1)整个鸡群中存在着若干子群,每个子群都由一个公鸡、若干母鸡和一些小鸡组成。
2)如何把鸡群分成若干子群以及如何确定鸡的种类取决于鸡自身的适应度值。鸡群中,适应度值最好的若干个体作为公鸡,并且每只公鸡都是一个子群的头目;具有最差适应度值的若干个体作为小鸡;剩余的个体就作为母鸡。母鸡随便选择属于哪个子群,母鸡和小鸡的母子关系也是随机建立的。
3)每个子群中的个体都围绕这个子群中的公鸡寻找食物,也可以阻止其他个体抢夺自己的食物;并且假设小鸡可以随机偷食其他个体已经发现的食物,每只小鸡跟随它们的母亲一起寻找食物。鸡群中具有支配地位的个体具有良好的竞争优势,它们先于其他个体找到食物。
母代母鸡是小鸡随机选择的一只子群体中的母鸡作为母代母鸡,进行跟随学习;
使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
公鸡位置更新公式:
Figure BDA0001685828680000091
其中,
Figure BDA0001685828680000092
表示在第t次迭代中公鸡i个体在j维空间中的位置,
Figure BDA0001685828680000093
对应该公鸡个体在第t+1次迭代中新的位置,r(0,σ2)为服从均值为0,标准差为σ2的正态分布N(0,σ2);
母鸡位置更新公式:
Figure BDA0001685828680000094
其中,
Figure BDA0001685828680000095
为在第t次迭代中母鸡g在j维空间的位置,
Figure BDA0001685828680000096
为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,
Figure BDA0001685828680000097
为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4]。
小鸡位置更新公式:
Figure BDA0001685828680000098
其中,
Figure BDA0001685828680000099
为在第t次迭代中小鸡l在j维空间的位置,
Figure BDA00016858286800000910
为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,
Figure BDA00016858286800000911
为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
蚁狮算法基本原理如下:
蚁狮优化算法是受自然界中蚁狮猎捕蚂蚁的狩猎机制启发而提出的一种新的群体智能优化算法。自然界中蚁狮在沙中沿圆形轨迹移动,利用下颚挖出一个诱捕蚂蚁的圆锥形坑,当随机移动的蚂蚁陷入坑中时,蚁狮便捕食之并重新修缮坑穴等待下一只猎物(蚂蚁)。
蚁狮算法就是模仿蚁狮和蚂蚁的这种相互作用来实现对问题的优化:蚂蚁通过围绕蚁狮的随机游走实现对搜索空间的探索,并向蚁狮和精英进行学习以保证种群的多样性和算法的寻优性能;蚁狮相当于问题的解,通过猎捕适应度高的蚂蚁实现对近似最优解的更新和保存。
所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
Figure BDA0001685828680000101
其中,
Figure BDA0001685828680000102
为迭代次数为1时第i个个体的位置;rand(0,1)为rand(0,1)为随机函数,在(0,1)之间均匀随机取值;
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
适应度值大的蚁狮或者蚂蚁个体为优秀;
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(3)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
蚂蚁进行随机游走行为,具体公式如下:
Figure BDA0001685828680000111
其中cumsum是计算累积值,T为最大迭代次数,t是当前迭代次数,r(t)是一个随机函数,公式如下:
Figure BDA0001685828680000112
为了防止蚂蚁随机游走越界,根据边界,对蚂蚁随机游走的进行归一化处理:
Figure BDA0001685828680000113
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,ci t和di t对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响:
Figure BDA0001685828680000114
Figure BDA0001685828680000115
为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置;ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
Figure BDA0001685828680000116
Figure BDA0001685828680000117
表示经过第t次迭代后得到的被捕食的蚂蚁个体n的位置,
Figure BDA0001685828680000118
Figure BDA0001685828680000119
分别表示第t次迭代时蚁狮个体s和第t次迭代时的精英蚁狮;
(4)更新蚂蚁游走边界范围;
Figure BDA00016858286800001110
其中,ubt和lbt分别表示在第t次迭代时的上边界和下边界,ω与当前迭代次数有关,
Figure BDA00016858286800001111
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的标签向量添加到第一帧中人的记录中;
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行匹配,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (4)

1.一种行人姿势多特征智能辨识方法,其特征在于,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为5Pe,Pe为输入图像中的最大行人数量,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
2.根据权利要求1所述的方法,其特征在于,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
3.根据权利要求1所述的方法,其特征在于,使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
公鸡位置更新公式:
Figure FDA0003357365450000031
其中,
Figure FDA0003357365450000032
表示在第t次迭代中公鸡i个体在j维空间中的位置,
Figure FDA0003357365450000033
对应该公鸡个体在第t+1次迭代中新的位置,r(0,σ2)为服从均值为0,标准差为σ2的正态分布N(0,σ2);
母鸡位置更新公式:
Figure FDA0003357365450000034
其中,
Figure FDA0003357365450000035
为在第t次迭代中母鸡g在j维空间的位置,
Figure FDA0003357365450000036
为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,
Figure FDA0003357365450000037
为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4];
小鸡位置更新公式:
Figure FDA0003357365450000038
其中,
Figure FDA0003357365450000039
为在第t次迭代中小鸡l在j维空间的位置,
Figure FDA00033573654500000310
为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,
Figure FDA00033573654500000311
为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
Figure FDA00033573654500000312
其中,
Figure FDA0003357365450000041
为迭代次数为1时第i个个体的位置;rand(0,1)为rand(0,1)为随机函数,在(0,1)之间均匀随机取值;
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(1)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
Figure FDA0003357365450000042
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,cit和dit对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响:
Figure FDA0003357365450000043
Figure FDA0003357365450000044
为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置;ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
Figure FDA0003357365450000045
Figure FDA0003357365450000046
表示经过第t次迭代后得到的被捕食的蚂蚁个体n的位置,
Figure FDA0003357365450000047
Figure FDA0003357365450000048
分别表示第t次迭代时蚁狮个体s和第t次迭代时的精英蚁狮;
(4)更新蚂蚁游走边界范围;
Figure FDA0003357365450000049
其中,ubt和lbt分别表示在第t次迭代时的上边界和下边界,ω与当前迭代次数有关,
Figure FDA0003357365450000051
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
CN201810578415.5A 2018-06-05 2018-06-05 一种行人姿势多特征智能辨识方法 Active CN108805907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810578415.5A CN108805907B (zh) 2018-06-05 2018-06-05 一种行人姿势多特征智能辨识方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810578415.5A CN108805907B (zh) 2018-06-05 2018-06-05 一种行人姿势多特征智能辨识方法

Publications (2)

Publication Number Publication Date
CN108805907A CN108805907A (zh) 2018-11-13
CN108805907B true CN108805907B (zh) 2022-03-29

Family

ID=64088732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810578415.5A Active CN108805907B (zh) 2018-06-05 2018-06-05 一种行人姿势多特征智能辨识方法

Country Status (1)

Country Link
CN (1) CN108805907B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712160B (zh) * 2018-12-26 2023-05-23 桂林电子科技大学 基于广义熵结合改进的狮群算法实现图像阈值分割方法
CN110288606B (zh) * 2019-06-28 2024-04-09 中北大学 一种基于蚁狮优化的极限学习机的三维网格模型分割方法
CN112836721B (zh) * 2020-12-17 2024-03-22 北京仿真中心 一种图像识别方法及装置、计算机设备、可读存储介质
CN113239900B (zh) * 2021-06-17 2024-06-07 云从科技集团股份有限公司 人***置的检测方法、装置及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224912A (zh) * 2015-08-31 2016-01-06 电子科技大学 基于运动信息和轨迹关联的视频行人检测和跟踪方法
WO2017120336A3 (en) * 2016-01-05 2017-08-24 Mobileye Vision Technologies Ltd. Trained navigational system with imposed constraints
CN107274433A (zh) * 2017-06-21 2017-10-20 吉林大学 基于深度学习的目标跟踪方法、装置及存储介质
CN107330920A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于深度学习的监控视频多目标追踪方法
CN107563313A (zh) * 2017-08-18 2018-01-09 北京航空航天大学 基于深度学习的多目标行人检测与跟踪方法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161591A1 (en) * 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for deep-learning based object tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224912A (zh) * 2015-08-31 2016-01-06 电子科技大学 基于运动信息和轨迹关联的视频行人检测和跟踪方法
WO2017120336A3 (en) * 2016-01-05 2017-08-24 Mobileye Vision Technologies Ltd. Trained navigational system with imposed constraints
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置
CN107274433A (zh) * 2017-06-21 2017-10-20 吉林大学 基于深度学习的目标跟踪方法、装置及存储介质
CN107330920A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于深度学习的监控视频多目标追踪方法
CN107563313A (zh) * 2017-08-18 2018-01-09 北京航空航天大学 基于深度学习的多目标行人检测与跟踪方法
CN107767405A (zh) * 2017-09-29 2018-03-06 华中科技大学 一种融合卷积神经网络的核相关滤波目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Detect to Track and Track to Detect;Christoph Feichtenhofer 等;《2017 IEEE International Conference on Computer Vision》;20171225;第3057-3065页 *
Object Location and Track in Image Sequences by Means of Neural Networks;Zhenghao Shi 等;《International Journal of Computational Science》;20081231;第2卷(第2期);第274-285页 *
一种无刷同步发电机旋转整流器故障快速识别方法;唐军祥 等;《计算机月现代化》;20171031;第66-71页 *
基于ALO-ENN算法的洪灾评估模型及应用;崔东文 等;《人民珠江》;20160531;第37卷(第5期);第44-50页 *
基于卷积神经网络的实时跟踪算法;程朋 等;《传感器与微***》;20180531;第37卷(第5期);第144-146页 *

Also Published As

Publication number Publication date
CN108805907A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108805907B (zh) 一种行人姿势多特征智能辨识方法
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN109409297B (zh) 一种基于双通道卷积神经网络的身份识别方法
CN107657226B (zh) 一种基于深度学习的人数估计方法
CN110378281A (zh) 基于伪3d卷积神经网络的组群行为识别方法
CN109241829B (zh) 基于时空注意卷积神经网络的行为识别方法及装置
CN107122736B (zh) 一种基于深度学习的人体朝向预测方法及装置
Shi et al. Detection and identification of stored-grain insects using deep learning: A more effective neural network
CN108932479A (zh) 一种人体异常行为检测方法
Arif et al. Automated body parts estimation and detection using salient maps and Gaussian matrix model
CN111709285A (zh) 一种基于无人机的疫情防护监控方法、装置和存储介质
CN108830246B (zh) 一种交通环境行人多维运动特征视觉提取方法
CN108491766B (zh) 一种端到端的基于深度决策森林的人群计数方法
CN108537181A (zh) 一种基于大间距深度度量学习的步态识别方法
CN110263920A (zh) 卷积神经网络模型及其训练方法和装置、巡检方法和装置
CN114863263B (zh) 基于跨尺度分层特征融合对类内遮挡的乌鳢检测的方法
JP7422456B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN112395977A (zh) 基于身体轮廓和腿部关节骨架的哺乳动物姿态识别方法
CN109918995B (zh) 一种基于深度学习的人群异常检测方法
CN110738166B (zh) 基于PCNN和PCANet的渔政监控***红外目标识别方法及存储介质
CN112347930A (zh) 基于自学习半监督深度神经网络高分影像场景分类方法
Adiwinata et al. Fish species recognition with faster r-cnn inception-v2 using qut fish dataset
CN115713786A (zh) 一种猪只重识别方法及***
CN108846344B (zh) 一种融合深度学习的行人姿势多特征智能辨识方法
CN111291785A (zh) 目标检测的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant