CN109766790A - 一种基于自适应特征通道的行人检测方法 - Google Patents

一种基于自适应特征通道的行人检测方法 Download PDF

Info

Publication number
CN109766790A
CN109766790A CN201811581304.6A CN201811581304A CN109766790A CN 109766790 A CN109766790 A CN 109766790A CN 201811581304 A CN201811581304 A CN 201811581304A CN 109766790 A CN109766790 A CN 109766790A
Authority
CN
China
Prior art keywords
pedestrian
image
channel
loss
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811581304.6A
Other languages
English (en)
Other versions
CN109766790B (zh
Inventor
陈乔松
弓攀豪
陶亚
申发海
范金松
于越
陆思翔
荣巧玲
官暘珺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jieyang Chengyu Intellectual Property Service Co ltd
Shandong Future Group Co ltd
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201811581304.6A priority Critical patent/CN109766790B/zh
Publication of CN109766790A publication Critical patent/CN109766790A/zh
Application granted granted Critical
Publication of CN109766790B publication Critical patent/CN109766790B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于自适应特征通道的行人检测方法,包括如下步骤:步骤一,获取Caltech行人数据帧,基于该数据帧捕获训练集和验证集;步骤二,缩放训练集和验证集图像;步骤三,将标准化后图像作为模型输入数据;步骤四,基于Caffe开源深度学习框架设计卷积神经网络,输出图像包含行人与否的信息、行人的位置信息以及该位置存在行人的可能性;步骤五,计算模型的输出信息与对应标注信息的损失,优化并训练模型;步骤六,利用优化后的模型参数,检测真实场景图像中存在的行人,得到相应的行人检测框。本发明基于卷积神经网络,采用了转移学习以及多任务联合学习的技术,实现了端到端的行人检测方法,为行人检测的后续操作提供了重要的技术支持。

Description

一种基于自适应特征通道的行人检测方法
技术领域
本发明涉及卷积神经网络和行人检测技术,尤其涉及基于卷积神经网络的自适应特征通道的行人检测方法。
背景技术
行人检测是计算机视觉中重要的研究课题之一,其研究结果对于其它的视觉任务有着重要的影响作用。行人检测目前已广泛应用于车辆辅助驾驶、智能视频监控以及人机交互***,但在某些复杂的场景中,还存在检测性能低下的问题。行人属于柔性物体,其不同的姿势和扮相都会在一定程度上造成行人间差距变大,使得行人难以检测。
随着深度学习和机器学习的稳步发展,利用卷积神经网络学习目标特征受到了研究者们的极大追捧,同时行人检测技术也得到了大的突破。目前基于卷积神经网络的行人检测方法分为单阶段网络和两阶段网络,单阶段网络中比较经典的算法包括:YOLO系列算法、SSD网络以及RPN网络等,而两阶段网络包括:RCNN系列算法以及基于RCNN改进的算法等。行人检测方法研究的难点在于如何消除行人的类内差距,并学习有效的分类与回归特征。
发明内容
本发明为解决真实场景中行人的检测与识别问题,为行人检测的后续操作提供了重要的技术支持,可应用于车辆辅助驾驶、智能视频监控以及人机交互***。
本发明采用的技术方案是:一种基于自适应特征通道的行人检测方法,包括以下步骤:
1)、获取Caltech行人数据帧,基于该数据帧捕获训练集图像和验证集图像,用于检测模型的训练与评估;
2)、将训练集图像和验证集图像大小均缩放至M×N,M和N分别为缩放后图像的宽和高,并根据缩放系数更新对应的行人位置数据;
3)、以减去ImageNet数据集的RGB通道均值形式对训练集图像和验证集图像进行标准化,标准化的数据作为模型的输入数据;
4)、基于Caffe开源深度学习框架设计卷积神经网络,输出图像包含行人与否的信息、行人的位置信息以及该位置存在行人的可能性;
5)、计算模型输出信息与对应标注信息的损失,优化并训练检测模型;
6)、利用优化后的模型参数,检测真实场景图像中是否存在行人,得到相应的行人检测框。
具体地,步骤1)所述训练集图像和验证集图像的获取,在数据帧中以每6帧捕获一帧的形式获取训练图像,以每120帧捕获一帧的形式获取验证图像,同时处理对应的行人位置数据标签,分别构成训练集图像和验证集图像。
步骤2)所述更新对应的行人位置数据为:
行人在图像中表示为中心坐标(x,y),行人的宽为w,高为h,更新后的行人中心坐标可表示为宽和高分别为λwW和λhh,λw为宽方向缩放系数,λh为高方向缩放系数,其中m和n分别为原始图片的宽和高。
步骤4)所述卷积神经网络包括:
基础网络模块,采用5个卷积层+修正线性单元+池化层组成,用于生成图像的浅层细节特征通道和深层语义特征通道;
特征通道连接模块,用于连接浅层细节特征通道和深层语义特征通道,生成特征多样化的新特征映射M1
特征通道适应模块,包括全局平均池化层、三个全连接层、修正线性单元函数、Sigmoid函数以及通道适应层,其中,全局平均池化层提取M1中每一特征通道的全局信息,全连接层拟合通道之间的关系以及生成图像包含行人与否的信息,修正线性单元函数和Sigmoid函数将线性结果做非线性映射,通道适应层根据Sigmoid函数值S以及M1选择并更新强辨识力特征通道,生成新的映射M2
候选框生成模块,用于生成行人的位置信息以及该位置存在行人的可能性。
进一步,所述修正线性单元函数和Sigmoid函数的公式分别为:
relu(x)=max(0,x),
其中x为网络层的输出值,relu(x)和sigmoid(x)为x的非线性映射。
步骤5)所述计算模型输出信息与对应标注信息的损失,优化并训练检测模型,具体包括:
(1)将步骤3)中标准化的数据输入步骤4)所述卷积神经网络进行优化训练;
(2)训练优化的损失主要由三部分组成:图像分类损失、区域候选框回归损失以及区域候选框分类损失;其中图像分类损失与区域候选框分类损失的计算选择交叉熵损失,分别记为loss1和loss2;区域候选框分类损失的计算选用SmoothL1损失,记为loss3;
loss1=-logcr
loss2=-logpu
其中cr为图像存在行人的可能性,pu为区域候选框存在行人的概率,和vi分别为真实行人的位置坐标和预测行人的位置坐标。
(3)训练优化的损失函数为:
loss=λ1loss1+λ2loss2+λ3loss3
其中λ1,λ2,λ3为不同任务损失占总损失的比重。
本发明的有益效果如下:
本发明基于卷积神经网络,连接浅层细节特征通道和深层语义特征通道,使得特征映射中的特征信息更加多样化,继而提高后续行人定位与分类的准确率;添加通道选择模块,学习不同特征通道对行人定位与回归影响权重,进一步的更新上流网络形成的特征映射,以此实现更具辨识度的行人特征;使用多任务联合学习技术,增加不同任务之间相互促进的影响作用;该模型具有稳定的检测性能,对不同真实场景中的行人具有很好的鲁棒性。
附图说明
图1是本发明的流程图;
图2是ReLU激活函数图像;
图3是Sigmoid激活函数图像;
图4是SmoothL1函数图;
图5是真实场景图片行人检测结果样例。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明提供一种基于自适应特征通道的行人检测方法,其流程示意图如图1所示,具体包含以下步骤:
步骤一,获取Caltech行人数据帧,基于该数据帧捕获训练集和验证集,用于检测模型的训练与评估;
步骤二,将训练集图像和验证集图像大小均缩放至M×N,M和N为缩放后图像的宽和高,并根据缩放系数更新对应的行人位置数据;
步骤三,以减去ImageNet数据集的RGB通道均值形式对训练图像和验证图像进行标准化,标准化的数据作为模型的输入数据;
步骤四,基于Caffe开源深度学习框架设计卷积神经网络,输出图像包含行人与否的信息、行人的位置信息以及该位置存在行人的可能性;
步骤五,计算模型输出信息与对应标注信息的损失,优化并训练检测模型;
步骤六,利用优化后的模型参数,检测真实场景图像中存在的行人,得到相应的行人检测框。
所述的一种基于自适应特征通道的行人检测方法,其中步骤一,包括:
下载公开的行人数据帧Caltech,基于该数据帧,以每6帧捕获一帧的形式获取训练图像,以每120帧捕获一帧的形式获取验证图像,共计21391张训练图像和1046张验证图像,分别构成训练集和验证集,同时处理捕获图像对应的行人位置标签数据,得到用于训练的监督信息。
所述的一种基于自适应特征通道的行人检测方法,其中步骤二,包括:
将训练集图像和验证集图像大小均缩放至M×N,并根据缩放系数更新对应的行人位置数据,其中M设置为896,N设置为672,缩放系数内容具体如下:
缩放系数可分为宽方向系数λw和高方向系数λh,其定义为:
其中m和n为原始图片的宽和高,即m=480,n=640。假设行人在图像中表示为中心坐标(x,y),行人的宽为w,高为h,那么更新后的行人中心坐标可表示为宽和高分别为λwW和λhh。
所述的一种基于自适应特征通道的行人检测方法,其中步骤四,包括:
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,最大的特征使局部连接性和权值共享性,通过卷积和池化操作能够自动的提取图像的特征,不同的卷积核提取不同的特征,同时利用网络输出的非线性映射与真实标签做损失计算完成卷积核参数的优化更新,提高模型的取征性能。本发明步骤四所述的卷积神经网络由四个模块组成,具体为:
(1)基础网络模块:由5个Conv+ReLU+Pooling操作组合组成,其结构采用Conv的卷积核大小均为3×3,数量分别为{32,64,128,256,512},padding均设置为SAME,保证卷积层输入映射的宽高与输出映射的宽高大小一致,池化层Pooling操作的核大小和步长均为2。该模块主要作用是生成图像的浅层细节特征映射和深层语义特征映射;
(2)特征通道融合模块:该模块的核心是Concat操作,主要用于连接(1)中浅层细节特征映射和深层语义特征映射,生成特征多样化的特征映射M1
(3)特征通道适应模块:包括全局平均池化层、三个全连接层、修正线性单元函数、Sigmoid函数以及通道选择层,全局平均池化层提取M1中每一特征通道的全局信息,全连接层拟合通道之间的关系以及生成图像包含行人与否的信息,修正线性单元函数和Sigmoid函数将线性结果做非线性映射,通道选择层根据Sigmoid函数值S以及M1选择强辨识力特征通道,生成新的映射M2,如上所述的修正线性单元函数和Sigmoid函数其公式如下:
relu(x)=max(0,x),
图2展示了relu函数图像,图3展示了sigmoid函数图像。对于通道适应层,其具体定义为:假设S=(s1,s2,...,si),i=1,2,...,n,其中si为M1中第i个特征通道对特征映射M1的影响程度,M1={m1,m2,...,mn},其中mi为M1的第i个特征通道,那么通道适应层的输出M2={x∈M1|x≥T},其中T为预设的阈值。
(4)候选框生成模块,用于生成行人的位置信息以及该位置存在行人的可能性。
所述的一种基于自适应特征通道的行人检测方法,其中步骤五,包括:
计算模型输出信息与对应标注信息的损失,优化并训练检测模型,具体包括:
(1)根据步骤3)中的模型输入数据和步骤4)中设计的卷积神经网络,将数据分别放入卷积神经网络并优化训练。其中具体的超参数设置为:优化算法使用SGD,学习率为0.001,动量系数0.9,以每批1张图片和120张区域候选框迭代,IOU设置为0.5;
(2)训练优化的损失主要由三部分组成:图像分类损失、区域候选框回归损失以及区域候选框分类损失。其中图像分类损失与区域候选框分类损失的计算选择交叉熵损失,分别记为loss1和loss2;区域候选框分类损失的计算选用SmoothL1损失,记为loss3。假设步骤5)模型输出中,对于图像分类输出的离散型概率分布c=(c0,c1),其中c0为非行人图像的概率,c1为行人图像的概率;对于区域候选框分类输出的离散型概率分布p=(p0,p1),其中p0为背景的概率,p1为行人的概率;对于区域候选框回归输出的位移t=(tx,ty,tw,th),其中tx,ty是相对于Anchor(即预定义的区域候选框)的平移,tw,th是对数空间中相对于Anchor的高与宽,那么loss1、loss2和loss3的具体定义如下:
loss1=-logcr
loss2=-logpu
其中r表示图像类别的标签,u表示区域候选框类别的标签,smoothL1函数图像如图4所示。
(3)根据如上损失函数的定义,本发明中模型的目标优化损失函数可定义为:
loss=λ1loss1+λ2loss2+λ3loss3
其中λ1,λ2,λ3为不同任务损失占总损失的比重,本发明中λ1=λ2=1,λ3=5。
(4)根据以上设置,迭代训练设计的卷积神经网络模型,完成模型框架参数的优化与更新,实现自适应特征通道行人检测器。
所述的一种基于自适应特征通道的行人检测方法,其中步骤六,包括:
利用优化后的模型,选择验证集图像测试已训练模型的检测性能,即通过前向传播,计算行人位置以及行人得分,最后标注出相应的行人检测框。图5真实场景图片上行人检测的测试结果样例。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (6)

1.一种基于自适应特征通道的行人检测方法,其特征在于,包括以下步骤:
1)、获取Caltech行人数据帧,基于该数据帧捕获训练集图像和验证集图像,用于检测模型的训练与评估;
2)、将训练集图像和验证集图像大小均缩放至M×N,M和N分别为缩放后图像的宽和高,并根据缩放系数更新对应的行人位置数据;
3)、以减去ImageNet数据集的RGB通道均值形式对训练集图像和验证集图像进行标准化,标准化的数据作为模型的输入数据;
4)、基于Caffe开源深度学习框架设计卷积神经网络,输出图像包含行人与否的信息、行人的位置信息以及该位置存在行人的可能性;
5)、计算模型输出信息与对应标注信息的损失,优化并训练检测模型;
6)、利用优化后的模型参数,检测真实场景图像中是否存在行人,得到相应的行人检测框。
2.根据权利要求1所述一种基于自适应特征通道的行人检测方法,其特征在于:步骤1)所述训练集图像和验证集图像的获取,在数据帧中以每6帧捕获一帧的形式获取训练图像,以每120帧捕获一帧的形式获取验证图像,同时处理对应的行人位置数据标签,分别构成训练集图像和验证集图像。
3.根据泉流要求1所述一种基于自适应特征通道的行人检测方法,其特征在于:步骤2)所述更新对应的行人位置数据为:
行人在图像中表示为中心坐标(x,y),行人的宽为w,高为h,更新后的行人中心坐标可表示为宽和高分别为λwW和λhh,λw为宽方向缩放系数,λh为高方向缩放系数,其中m和n分别为原始图片的宽和高。
4.根据权利要求1所述一种基于自适应特征通道的行人检测方法,其特征在于:步骤4)所述卷积神经网络包括:
基础网络模块,采用5个卷积层+修正线性单元+池化层组成,用于生成图像的浅层细节特征通道和深层语义特征通道;
特征通道连接模块,用于连接浅层细节特征通道和深层语义特征通道,生成特征多样化的新特征映射M1
特征通道适应模块,包括全局平均池化层、三个全连接层、修正线性单元函数、Sigmoid函数以及通道适应层,其中,全局平均池化层提取M1中每一特征通道的全局信息,全连接层拟合通道之间的关系以及生成图像包含行人与否的信息,修正线性单元函数和Sigmoid函数将线性结果做非线性映射,通道适应层根据Sigmoid函数值S以及M1选择并更新强辨识力特征通道,生成新的映射M2
候选框生成模块,用于生成行人的位置信息以及该位置存在行人的可能性。
5.根据权利要求4所述一种基于自适应特征通道的行人检测方法,其特征在于:所述修正线性单元函数和Sigmoid函数的公式分别为:
relu(x)=max(0,x),
其中x为网络层的输出值,relu(x)和sigmoid(x)为x的非线性映射。
6.根据权利要求1-5任一项所述一种基于自适应特征通道的行人检测方法,其特征在于:步骤5)所述计算模型输出信息与对应标注信息的损失,优化并训练检测模型,具体包括:
(1)将步骤3)中标准化的数据输入步骤4)所述卷积神经网络进行优化训练;
(2)训练优化的损失主要由三部分组成:图像分类损失、区域候选框回归损失以及区域候选框分类损失;其中图像分类损失与区域候选框分类损失的计算选择交叉熵损失,分别记为loss1和loss2;区域候选框分类损失的计算选用SmoothL1损失,记为loss3;
loss1=-logcr
loss2=-logpu
其中cr为图像存在行人的可能性,pu为区域候选框存在行人的概率,和vi分别为真实行人的位置坐标和预测行人的位置坐标。
(3)训练优化的损失函数为:
loss=λ1loss1+λ2loss2+λ3loss3
其中λ1,λ2,λ3为不同任务损失占总损失的比重。
CN201811581304.6A 2018-12-24 2018-12-24 一种基于自适应特征通道的行人检测方法 Active CN109766790B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811581304.6A CN109766790B (zh) 2018-12-24 2018-12-24 一种基于自适应特征通道的行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811581304.6A CN109766790B (zh) 2018-12-24 2018-12-24 一种基于自适应特征通道的行人检测方法

Publications (2)

Publication Number Publication Date
CN109766790A true CN109766790A (zh) 2019-05-17
CN109766790B CN109766790B (zh) 2022-08-23

Family

ID=66452105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811581304.6A Active CN109766790B (zh) 2018-12-24 2018-12-24 一种基于自适应特征通道的行人检测方法

Country Status (1)

Country Link
CN (1) CN109766790B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737968A (zh) * 2019-09-11 2020-01-31 北京航空航天大学 基于深层次卷积长短记忆网络的人群轨迹预测方法及***
CN111523478A (zh) * 2020-04-24 2020-08-11 中山大学 一种作用于目标检测***的行人图像检测方法
CN111767857A (zh) * 2020-06-30 2020-10-13 电子科技大学 一种基于轻量级两阶段神经网络的行人检测方法
CN111884873A (zh) * 2020-07-13 2020-11-03 上海华讯网络***有限公司 一种自学习的预测网络监控图形的方法和***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262735A1 (en) * 2016-03-11 2017-09-14 Kabushiki Kaisha Toshiba Training constrained deconvolutional networks for road scene semantic segmentation
CN107301387A (zh) * 2017-06-16 2017-10-27 华南理工大学 一种基于深度学习的图像高密度人群计数方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
EP3261017A1 (en) * 2016-06-20 2017-12-27 Delphi Technologies, Inc. Image processing system to detect objects of interest
CN108229390A (zh) * 2018-01-02 2018-06-29 济南中维世纪科技有限公司 基于深度学习的快速行人检测方法
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN109002752A (zh) * 2018-01-08 2018-12-14 北京图示科技发展有限公司 一种基于深度学习的复杂公共场景快速行人检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262735A1 (en) * 2016-03-11 2017-09-14 Kabushiki Kaisha Toshiba Training constrained deconvolutional networks for road scene semantic segmentation
EP3261017A1 (en) * 2016-06-20 2017-12-27 Delphi Technologies, Inc. Image processing system to detect objects of interest
CN107301387A (zh) * 2017-06-16 2017-10-27 华南理工大学 一种基于深度学习的图像高密度人群计数方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
CN108229390A (zh) * 2018-01-02 2018-06-29 济南中维世纪科技有限公司 基于深度学习的快速行人检测方法
CN109002752A (zh) * 2018-01-08 2018-12-14 北京图示科技发展有限公司 一种基于深度学习的复杂公共场景快速行人检测方法
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN QIAOSONG ET AL: "Scalable Object Detection Using Deep but Lightweight CNN with FeaturesFusion", 《INTERNATIONAL CONFERENCE ON IMAGE AND GRAPHICS》, 30 December 2017 (2017-12-30) *
陈光喜等: "基于聚合通道特征及卷积神经网络的行人检测", 《计算机工程与设计》, 16 July 2018 (2018-07-16) *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737968A (zh) * 2019-09-11 2020-01-31 北京航空航天大学 基于深层次卷积长短记忆网络的人群轨迹预测方法及***
CN111523478A (zh) * 2020-04-24 2020-08-11 中山大学 一种作用于目标检测***的行人图像检测方法
CN111523478B (zh) * 2020-04-24 2023-04-28 中山大学 一种作用于目标检测***的行人图像检测方法
CN111767857A (zh) * 2020-06-30 2020-10-13 电子科技大学 一种基于轻量级两阶段神经网络的行人检测方法
CN111884873A (zh) * 2020-07-13 2020-11-03 上海华讯网络***有限公司 一种自学习的预测网络监控图形的方法和***
CN111884873B (zh) * 2020-07-13 2021-10-29 上海华讯网络***有限公司 一种自学习的预测网络监控图形的方法和***

Also Published As

Publication number Publication date
CN109766790B (zh) 2022-08-23

Similar Documents

Publication Publication Date Title
CN110222653B (zh) 一种基于图卷积神经网络的骨架数据行为识别方法
CN109766790A (zh) 一种基于自适应特征通道的行人检测方法
CN110378281A (zh) 基于伪3d卷积神经网络的组群行为识别方法
CN109858569A (zh) 基于目标检测网络的多标签物体检测方法、***、装置
CN110414432A (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
CN109858390A (zh) 基于端到端时空图学习神经网络的人体骨架的行为识别方法
CN105447473A (zh) 一种基于PCANet-CNN的任意姿态人脸表情识别方法
CN109800628A (zh) 一种加强ssd小目标行人检测性能的网络结构及检测方法
CN110852347A (zh) 采用改进YOLO v3的火灾检测方法
KR102462934B1 (ko) 디지털 트윈 기술을 위한 영상 분석 시스템
Cao et al. Rapid detection of blind roads and crosswalks by using a lightweight semantic segmentation network
CN109341703A (zh) 一种全周期采用CNNs特征检测的视觉SLAM算法
CN107301376B (zh) 一种基于深度学习多层刺激的行人检测方法
CN110796018A (zh) 一种基于深度图像和彩色图像的手部运动识别方法
CN109002752A (zh) 一种基于深度学习的复杂公共场景快速行人检测方法
CN110688980B (zh) 基于计算机视觉的人体姿态分类方法
CN112364931A (zh) 基于元特征和权重调整的少样本目标检测方法及网络模型
CN103093237B (zh) 一种基于结构化模型的人脸检测方法
CN104966052A (zh) 基于属性特征表示的群体行为识别方法
CN111723667A (zh) 基于人体关节点坐标的智慧灯杆人群行为识别方法和装置
CN111985532B (zh) 一种场景级上下文感知的情感识别深度网络方法
CN106548194A (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN109858430A (zh) 一种基于强化学习优化的多人姿态检测方法
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
CN112884135B (zh) 一种基于边框回归的数据标注校正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231008

Address after: Building 5, Guohua Times Square, No. 29666 Youyou Road, Shizhong District, Jinan City, Shandong Province, 250002

Patentee after: Shandong Future Group Co.,Ltd.

Address before: 522000, No. 107, Building G, Dongyi District, Xiaocui Road, Xinhe Community, Dongsheng Street, Rongcheng District, Jieyang City, Guangdong Province

Patentee before: Jieyang Chengyu Intellectual Property Service Co.,Ltd.

Effective date of registration: 20231008

Address after: 522000, No. 107, Building G, Dongyi District, Xiaocui Road, Xinhe Community, Dongsheng Street, Rongcheng District, Jieyang City, Guangdong Province

Patentee after: Jieyang Chengyu Intellectual Property Service Co.,Ltd.

Address before: 400065 Chongwen Road, Nanshan Street, Nanan District, Chongqing

Patentee before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

TR01 Transfer of patent right