CN108805907B - 一种行人姿势多特征智能辨识方法 - Google Patents
一种行人姿势多特征智能辨识方法 Download PDFInfo
- Publication number
- CN108805907B CN108805907B CN201810578415.5A CN201810578415A CN108805907B CN 108805907 B CN108805907 B CN 108805907B CN 201810578415 A CN201810578415 A CN 201810578415A CN 108805907 B CN108805907 B CN 108805907B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- ant
- individual
- image
- iteration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 64
- 238000013528 artificial neural network Methods 0.000 claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 39
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 241001206881 Myrmeleon inconspicuus Species 0.000 claims description 67
- 241000287828 Gallus gallus Species 0.000 claims description 61
- 235000013330 chicken meat Nutrition 0.000 claims description 61
- 230000006870 function Effects 0.000 claims description 37
- 241000257303 Hymenoptera Species 0.000 claims description 30
- 244000144992 flock Species 0.000 claims description 30
- 238000012544 monitoring process Methods 0.000 claims description 26
- 241000258923 Neuroptera Species 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 241000282320 Panthera leo Species 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 244000062804 prey Species 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000006872 improvement Effects 0.000 abstract description 2
- 235000013305 food Nutrition 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 238000005295 random walk Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人姿势多特征智能辨识方法,包括以下几个步骤:步骤1:构建行人样本图像数据库;步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;步骤3:构建基于极限学习机的行人检测模型;步骤4:构建基于BP神经网络的行人跟踪模型;步骤5:行人轨迹实时跟踪辨识;该方法在行人跟踪检测采用基于BP神经网络的方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下,有利于现代交通智能化,工业智能化的提高。
Description
技术领域
本发明属于人工智能领域,特别涉及一种行人姿势多特征智能辨识方法。
背景技术
随着科学技术的飞速发展,利用计算机视觉相关技术的行人检测技术已经广泛应用于生活的各个方面,如智能列车、车辆自动驾驶等领域。交通的安全是永恒的话题。在车辆碰撞类事故中,车辆与行人之间的碰撞也占了很大的比重。现如今,安全带、安全气囊等的传统安全技术已经全面普及,然而这些都是被动的保护方法。人们希望能研究出车辆的主动保护安全***,而对行人准确的识别和跟踪是研究的重点。
目前多采用的行人跟踪方法为描述法,即将行人的外貌特征如衣服颜色等作为判断特征,提取图像的颜色直方图,进而通过欧氏距离或巴氏距离计算相似度,此种方法鲁棒性较低,效果不理想。还有学者提出用多特征融合的描述方法对行人进行匹配识别,但浅层特征易受到描述能力的限制,且具有较高的主观因素。
中国专利CN201610317720公开了一种基于循环神经网络的多目标跟踪方法,包括以下步骤:1:构建标注了每帧行人位置的监控视频数据集;2:对标注了每帧行人位置的监控视频数据集进行人工扩充,得到训练集样本;3:对训练集样本进行分组,得到多个训练组;4:构建多目标跟踪网络;5:将各训练组以序列为单位输入多目标跟踪网络进行训练;6:将待测视频数据输入训练后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹。该专利所述方案中存在以下几点问题:1.行人跟踪***中未考虑行人在视频中短暂消失重现或者中途有新行人进入的状况,以上两种情况均可能导致***判断失误;2.需要对行人数据集进行人工扩充,使得判断***繁琐,效率下降;3.使用循环神经网络算法容易出现局部收敛。
发明内容
本发明提供了一种行人姿势多特征智能辨识方法,其目的在于,克服现有技术中对监控视频中行人轨迹辨识准确度不高,且效率低的问题。
一种行人姿势多特征智能辨识方法,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的标签向量添加到第一帧中人的记录中;
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行匹配,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
进一步地,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域,得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
进一步地,使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4]。
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
进一步地,所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
适应度值大的蚁狮或者蚂蚁个体为优秀;
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(2)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,ci t和di t对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响: 为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置,ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
(4)更新蚂蚁游走边界范围;
其中,ubt和lbt分别表示在第t次迭代时的上边界和下边界,ω与当前迭代次数有关,
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
有益效果
本发明提供了一种行人姿势多特征智能辨识方法,包括以下几个步骤:步骤1:构建行人样本图像数据库;步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;步骤3:构建基于极限学习机的行人检测模型;步骤4:构建基于BP神经网络的行人跟踪模型;步骤5:行人轨迹实时跟踪辨识;
该方法相较于现有技术而言,具有以下优点:
1.检测准确:在行人检测采用基于神经网络的方法,可对行人实现快速有效的检及标记,能够满足实际交通环境中对紧急情况即时识别的要求,也适用于智能化工厂,实验室,机器人运载等复杂环境下,有利于现代交通智能化,工业智能化的提高;
2.再识别率高,由神经网络自动对跟踪目标提取高层抽象特征,实现对跟踪目标高效快速的匹配再识别;
3.使用优化算法对神经网络参数进行调优处理,能够提高神经网络的运行效率,提高神经网络对行人识别的精准度,应对大流量的交通行人,鲁棒性好。
4.创新性提出了将行人从图像中使用图像处理方法抽离,逐帧进行对比进行跟踪,保证了行人跟踪的稳定性,不容易丢失目标。
5.远程处理图像数据,无需对街口设备进行添置或更新,节约设备成本。
附图说明
图1为本发明所述方法的流程示意图。
具体实施方式
下面将结合附图和实例对本发明做进一步的说明。
如图1所示,一种行人姿势多特征智能辨识方法,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
在监控视频的不同帧图像中,同一个行人的目标标识相同;
对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域;
得到更有利于神经网络识别的人的图像;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
对于不包含行人的图像,行人数量和位置标签向量均为空;对于多行人样本,行人位置标签向量个数和行人数量的个数相同;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为4,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
鸡群算法基本原理如下:
1)整个鸡群中存在着若干子群,每个子群都由一个公鸡、若干母鸡和一些小鸡组成。
2)如何把鸡群分成若干子群以及如何确定鸡的种类取决于鸡自身的适应度值。鸡群中,适应度值最好的若干个体作为公鸡,并且每只公鸡都是一个子群的头目;具有最差适应度值的若干个体作为小鸡;剩余的个体就作为母鸡。母鸡随便选择属于哪个子群,母鸡和小鸡的母子关系也是随机建立的。
3)每个子群中的个体都围绕这个子群中的公鸡寻找食物,也可以阻止其他个体抢夺自己的食物;并且假设小鸡可以随机偷食其他个体已经发现的食物,每只小鸡跟随它们的母亲一起寻找食物。鸡群中具有支配地位的个体具有良好的竞争优势,它们先于其他个体找到食物。
母代母鸡是小鸡随机选择的一只子群体中的母鸡作为母代母鸡,进行跟随学习;
使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4]。
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
蚁狮算法基本原理如下:
蚁狮优化算法是受自然界中蚁狮猎捕蚂蚁的狩猎机制启发而提出的一种新的群体智能优化算法。自然界中蚁狮在沙中沿圆形轨迹移动,利用下颚挖出一个诱捕蚂蚁的圆锥形坑,当随机移动的蚂蚁陷入坑中时,蚁狮便捕食之并重新修缮坑穴等待下一只猎物(蚂蚁)。
蚁狮算法就是模仿蚁狮和蚂蚁的这种相互作用来实现对问题的优化:蚂蚁通过围绕蚁狮的随机游走实现对搜索空间的探索,并向蚁狮和精英进行学习以保证种群的多样性和算法的寻优性能;蚁狮相当于问题的解,通过猎捕适应度高的蚂蚁实现对近似最优解的更新和保存。
所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
适应度值大的蚁狮或者蚂蚁个体为优秀;
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(3)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
蚂蚁进行随机游走行为,具体公式如下:
其中cumsum是计算累积值,T为最大迭代次数,t是当前迭代次数,r(t)是一个随机函数,公式如下:
为了防止蚂蚁随机游走越界,根据边界,对蚂蚁随机游走的进行归一化处理:
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,ci t和di t对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响: 为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置;ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
(4)更新蚂蚁游走边界范围;
其中,ubt和lbt分别表示在第t次迭代时的上边界和下边界,ω与当前迭代次数有关,
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
所述作为输入层数据的行人跟踪检测图是指从一帧经过预处理后的图像中将单个行人轮廓图从图中提取出来的,假设一帧中有4个行人,那么就有4个行人跟踪检测图;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
跟踪模型每次都是对两帧图像进行处理,只是判断前一帧行人图像中的行人,在后一帧行人图像中是否出现,如果出现,则将第二帧中人的标签向量添加到第一帧中人的记录中;
使用该模型时,将前一帧和后一帧的所有行人跟踪检测图进行一一组合,作为输入层数据,进行匹配,若第二帧图像中出现的行人和第一帧出现的行人为同一人,则将第一帧中出现的行人目标标识赋予第二帧中对应行人,同时将第二帧对应的行人位置标签向量记入该目标跟踪轨迹;若第二帧图像中出现的行人不与第一帧中出现的任意行人匹配,则对第二帧图像中出现的行人设置新的目标标识;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.一种行人姿势多特征智能辨识方法,其特征在于,包括以下步骤:
步骤1:构建行人样本图像数据库;
所述行人样本图像数据库是从路口监控视频中提取连续的行人图像帧,获取三类图像组;
所述三类图像组,分别为不含行人的负样本、包含多个行人的多人样本以及只包含同一行人的单行人样本,每类图像组至少包括300帧图像;
步骤2:对行人样本数据库中的行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量;
所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;
所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;
所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;
步骤3:构建基于极限学习机的行人检测模型;
以行人样本数据库中行人图像帧经过预处理后的图像作为输入数据,对应的行人位置标签向量和行人数量作为输出数据,对极限学习机进行训练,得到基于极限学习机的行人检测模型;
所述极限学习机的输入层节点个数为输入图像的像素点个数s,隐含层小波元个数为2s-1,输出层节点个数为5Pe,Pe为输入图像中的最大行人数量,训练过程中的最大迭代次数设置为2000,训练学习率为0.01,阈值为0.00005;
步骤4:构建基于BP神经网络的行人跟踪模型;
依次将经过预处理的相邻两帧图像中的行人跟踪检测图和利用基于极限学习机的行人检测模型提取的对应行人位置标签向量作为输入层数据,以前一帧行人图像中的行人在后一帧行人图像中的跟踪结果为输出层数据,对BP神经网络模型进行训练,获得基于BP神经网络的行人跟踪模型;
所述前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中,所述行人轨迹的初始值为在监控视频中第一次出现在图像中的行人位置标签向量;
步骤5:行人轨迹实时跟踪辨识;
从实时监控视频中,依次提取两帧相邻的行人图像,输入所述基于极限学习机的行人检测模型中,进行两帧图像中行人位置标签向量和行人数量的检测,然后将两帧图像中的行人跟踪检测图输入所述基于BP神经网络的行人跟踪模型,对前一帧行人图像中出现的行人进行行人轨迹跟踪,得到监控视频中,所有行人的跟踪轨迹。
2.根据权利要求1所述的方法,其特征在于,对行人样本图像和实时采集的监控图像进行以下预处理:
步骤A1:对从路口监控视频中提取的图像帧进行统一尺寸裁剪;
步骤A2:对裁剪后的图像进行灰度化处理,再采用Gamma校正法调节图像对比度;
步骤A3:提取经过对比度调节后的图像的方向梯度直方图特征,并采用PCA对方向梯度直方图特征进行降维处理;
步骤A4:利用降维后的方向梯度直方图特征与设定的方向梯度直方图阈值,提取超过设定的方向梯度直方图阈值的降维后的方向梯度直方图特征,获得对应的行人区域;
步骤A5:对行人区域进行平滑去噪处理,并提取最大连通域作为行人轮廓区域;
步骤A6:以行人轮廓区域的最大宽度和最大高度,作为行人检测框的宽度和高度。
3.根据权利要求1所述的方法,其特征在于,使用鸡群算法对基于极限学习机的行人检测模型中的极限学习机的权值和阈值进行优化,具体步骤如下:
步骤B1:将鸡群个***置作为极限学习机的权值和阈值,初始化参数;
种群规模M=[50,200],搜索空间维数为j,j的值为所需优化极限学习机的权值和阈值的参数个数之和,最大迭次数T=[500,800],迭代次数为t,初始值为0,公鸡比例Pg=20%,母鸡比例Pm=70%,小鸡比例Px=10%,从母鸡中随机选择母代母鸡,比例Pd=10%;
步骤B2:设置适应度函数,并令迭代次数t=1;
依次将鸡群个***置对应的权值和阈值代入基于极限学习机的行人检测模型中,并利用鸡群个***置确定的基于极限学习机的行人检测模型,对输入图像中的的行人的标签向量进行检测,将输入图像中包含的所有行人标签向量的检测值与对应的行人标签向量实际值之差的和的绝对值的倒数作为第一适应度函数f1(x);
步骤B3:构建鸡群子群;
根据所有个体适应度值进行排序,选取适应度值排前M*Pg的鸡群个体判定为公鸡,每只公鸡作为一个子群体的头领;选取适应度值排后M*Px的鸡群个体判定为小鸡;其他鸡群个体判定为母鸡;
将鸡群分为根据公鸡个数划分子群,一个子群包括一只公鸡、若干小鸡和若干母鸡,并且每个小鸡在种群随机选择一只母鸡构建母子关系;
步骤B4:鸡群个***置更新并计算当前每个个体的适应度;
其中,为在第t次迭代中母鸡g在j维空间的位置,为在第t次迭代中母鸡g所在子群的唯一公鸡i1个***置,为在第t次迭代中母鸡i所在子群之外的随机一只公鸡i2个***置,rand(0,1)为随机函数,在(0,1)之间均匀随机取值,L1、L2为母鸡i被所在子群和其他子群影响的位置更新系数,L1取值范围[0.3,0.6],L2取值范围[0.2,0.4];
其中,为在第t次迭代中小鸡l在j维空间的位置,为在第t次迭代中小鸡l对应母子关系的母代母鸡gm个***置,为在第t次迭代中小鸡所在子群中唯一公鸡个***置,ω、α、β分别为小鸡自我更新系数[0.2,0.7],跟随母代母鸡系数[0.5,0.8],跟随公鸡系数[0.8,1.5];
步骤B5:根据适应度函数更新个体最优位置和鸡群全体个体最优位置,判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最优鸡群个***置对应的极限学习机的权值与阈值,得到基于极限学习机的行人检测模型。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值采用蚁狮算法进行优化,具体步骤如下:
步骤C1:将蚁狮群和蚂蚁群中每个个***置作为基于BP神经网络行人跟踪模型中的BP神经网络的权值和阈值,种群参数初始化;
蚁狮和蚂蚁数量均为N,取值范围为[40,100],最大迭代次数T,取值范围为[600,2000],待优化参数变量的下边界值设置为lb,上边界值设置为ub,所有权值变量的上下边界值为[0.01,0.6],所有阈值变量的上下边界的取值范围为[0.0001,0.001];
步骤C2:初始化蚁狮群和蚂蚁群中所有蚁狮和蚂蚁的位置;
蚂蚁和蚁狮的初始位置在搜索空间中随机初始化,公式如下:
步骤C3:设置适应度函数,并计算每个个体的适应度,依据适应度值选出精英蚁狮,令迭代次数t=1;
将蚁狮群和蚂蚁群中每个个***置对应的惩罚系数和核参数代入基于BP神经网络的行人跟踪模型中,将蚁狮和蚂蚁个***置确定的基于BP神经网络的行人跟踪模型得到的行人跟踪结果和实际跟踪结果之间差的绝对值的倒数作为第二适应度函数f2(x);
步骤C4:从蚂蚁群和蚁狮群中选择第二适应度函数值最大的个体为精英蚁狮,接着按照适应度从大到小排列,将前N-1个选择作为蚁狮,后N个作为蚂蚁;
步骤C5:蚂蚁和蚁狮个***置更新,计算每个个体的第二适应度函数值;
(1)令蚂蚁个体进行随机游走,并利用边界和采用轮盘赌选取的蚁狮个***置对随机游走后的蚂蚁个***置进行归一化处理;
其中,ai和bi对应蚂蚁个体i在整个游走过程中边界的最小值和最大值,cit和dit对应第t次迭代时边界的最小值和最大值,其值受蚁狮位置影响: 为第t次迭代时由蚂蚁个体i从蚁狮群中随机选择的蚁狮个体s的位置;ubt和lbt分别表示在第t次迭代时的上边界和下边界;
(2)蚁狮捕食蚂蚁,更新蚁狮个***置;
若进行游走后的蚂蚁个***置大于采用轮盘赌选取的蚁狮个***置的适应度,则蚁狮捕食该蚂蚁,利用游走后的蚂蚁个***置替代对应的蚁狮个***置;
(3)利用更新后的蚁狮个***置和精英蚁狮位置,更新被捕食蚂蚁的个***置;
(4)更新蚂蚁游走边界范围;
(5)计算所有个体的第二适应度函数值;
步骤C6:判断是否满足最大迭代次数,若不满足,则t=t+1,返回步骤C4,直到满足最大迭代次数后,以第二适应度函数值最大时对应的精英蚁狮个***置,确定基于BP神经网络的行人跟踪模型的权值和阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810578415.5A CN108805907B (zh) | 2018-06-05 | 2018-06-05 | 一种行人姿势多特征智能辨识方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810578415.5A CN108805907B (zh) | 2018-06-05 | 2018-06-05 | 一种行人姿势多特征智能辨识方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108805907A CN108805907A (zh) | 2018-11-13 |
CN108805907B true CN108805907B (zh) | 2022-03-29 |
Family
ID=64088732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810578415.5A Active CN108805907B (zh) | 2018-06-05 | 2018-06-05 | 一种行人姿势多特征智能辨识方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108805907B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712160B (zh) * | 2018-12-26 | 2023-05-23 | 桂林电子科技大学 | 基于广义熵结合改进的狮群算法实现图像阈值分割方法 |
CN110288606B (zh) * | 2019-06-28 | 2024-04-09 | 中北大学 | 一种基于蚁狮优化的极限学习机的三维网格模型分割方法 |
CN112836721B (zh) * | 2020-12-17 | 2024-03-22 | 北京仿真中心 | 一种图像识别方法及装置、计算机设备、可读存储介质 |
CN113239900B (zh) * | 2021-06-17 | 2024-06-07 | 云从科技集团股份有限公司 | 人***置的检测方法、装置及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105224912A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
WO2017120336A3 (en) * | 2016-01-05 | 2017-08-24 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
CN107274433A (zh) * | 2017-06-21 | 2017-10-20 | 吉林大学 | 基于深度学习的目标跟踪方法、装置及存储介质 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN107563313A (zh) * | 2017-08-18 | 2018-01-09 | 北京航空航天大学 | 基于深度学习的多目标行人检测与跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
CN108021848A (zh) * | 2016-11-03 | 2018-05-11 | 浙江宇视科技有限公司 | 客流量统计方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170161591A1 (en) * | 2015-12-04 | 2017-06-08 | Pilot Ai Labs, Inc. | System and method for deep-learning based object tracking |
-
2018
- 2018-06-05 CN CN201810578415.5A patent/CN108805907B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105224912A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
WO2017120336A3 (en) * | 2016-01-05 | 2017-08-24 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
CN108021848A (zh) * | 2016-11-03 | 2018-05-11 | 浙江宇视科技有限公司 | 客流量统计方法及装置 |
CN107274433A (zh) * | 2017-06-21 | 2017-10-20 | 吉林大学 | 基于深度学习的目标跟踪方法、装置及存储介质 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN107563313A (zh) * | 2017-08-18 | 2018-01-09 | 北京航空航天大学 | 基于深度学习的多目标行人检测与跟踪方法 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
Detect to Track and Track to Detect;Christoph Feichtenhofer 等;《2017 IEEE International Conference on Computer Vision》;20171225;第3057-3065页 * |
Object Location and Track in Image Sequences by Means of Neural Networks;Zhenghao Shi 等;《International Journal of Computational Science》;20081231;第2卷(第2期);第274-285页 * |
一种无刷同步发电机旋转整流器故障快速识别方法;唐军祥 等;《计算机月现代化》;20171031;第66-71页 * |
基于ALO-ENN算法的洪灾评估模型及应用;崔东文 等;《人民珠江》;20160531;第37卷(第5期);第44-50页 * |
基于卷积神经网络的实时跟踪算法;程朋 等;《传感器与微***》;20180531;第37卷(第5期);第144-146页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108805907A (zh) | 2018-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805907B (zh) | 一种行人姿势多特征智能辨识方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN109409297B (zh) | 一种基于双通道卷积神经网络的身份识别方法 | |
CN107657226B (zh) | 一种基于深度学习的人数估计方法 | |
CN110378281A (zh) | 基于伪3d卷积神经网络的组群行为识别方法 | |
CN109241829B (zh) | 基于时空注意卷积神经网络的行为识别方法及装置 | |
CN107122736B (zh) | 一种基于深度学习的人体朝向预测方法及装置 | |
Shi et al. | Detection and identification of stored-grain insects using deep learning: A more effective neural network | |
CN108932479A (zh) | 一种人体异常行为检测方法 | |
Arif et al. | Automated body parts estimation and detection using salient maps and Gaussian matrix model | |
CN111709285A (zh) | 一种基于无人机的疫情防护监控方法、装置和存储介质 | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN108491766B (zh) | 一种端到端的基于深度决策森林的人群计数方法 | |
CN108537181A (zh) | 一种基于大间距深度度量学习的步态识别方法 | |
CN110263920A (zh) | 卷积神经网络模型及其训练方法和装置、巡检方法和装置 | |
CN114863263B (zh) | 基于跨尺度分层特征融合对类内遮挡的乌鳢检测的方法 | |
JP7422456B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN112395977A (zh) | 基于身体轮廓和腿部关节骨架的哺乳动物姿态识别方法 | |
CN109918995B (zh) | 一种基于深度学习的人群异常检测方法 | |
CN110738166B (zh) | 基于PCNN和PCANet的渔政监控***红外目标识别方法及存储介质 | |
CN112347930A (zh) | 基于自学习半监督深度神经网络高分影像场景分类方法 | |
Adiwinata et al. | Fish species recognition with faster r-cnn inception-v2 using qut fish dataset | |
CN115713786A (zh) | 一种猪只重识别方法及*** | |
CN108846344B (zh) | 一种融合深度学习的行人姿势多特征智能辨识方法 | |
CN111291785A (zh) | 目标检测的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |