CN110427920B - 一种面向监控环境的实时行人解析方法 - Google Patents

一种面向监控环境的实时行人解析方法 Download PDF

Info

Publication number
CN110427920B
CN110427920B CN201910768586.9A CN201910768586A CN110427920B CN 110427920 B CN110427920 B CN 110427920B CN 201910768586 A CN201910768586 A CN 201910768586A CN 110427920 B CN110427920 B CN 110427920B
Authority
CN
China
Prior art keywords
pedestrian
data set
original
analysis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910768586.9A
Other languages
English (en)
Other versions
CN110427920A (zh
Inventor
梁超
黄鹏
李晨阳
郑淇
马宪政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910768586.9A priority Critical patent/CN110427920B/zh
Publication of CN110427920A publication Critical patent/CN110427920A/zh
Application granted granted Critical
Publication of CN110427920B publication Critical patent/CN110427920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉与图像处理技术领域,公开了一种面向监控环境的实时行人解析方法,包括:获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明解决了现有技术中行人解析的速度较慢、精度较低的问题,能有效地提升行人解析的准确率。

Description

一种面向监控环境的实时行人解析方法
技术领域
本发明涉及计算机视觉与图像处理技术领域,尤其涉及一种面向监控环境的实时行人解析方法。
背景技术
行人解析,指的是对行人图像中特定的部件分割区域赋予特定语义属性的过程,它可以针对视频监控中的行人进行特征提取和解析推理,为后续视觉任务提供有效的行人特征信息和预测,如:行人检索、姿态估计、行为分析等,在整个任务中起关键作用,也逐渐成为了研究热点。同时,行人解析技术还可以应用于智能监控、无人驾驶、电子商务等场景,例如:在智能监控领域中,行人解析技术可以获取行人的关键信息,如果有犯罪活动发生,刑侦人员可以根据这些信息进行筛选排查,对嫌疑人进行布防抓捕,相比于早期的人工排查锁定目标,行人解析技术能极大地提升刑侦效率,维护社会安定。然而,现阶段还没有人将行人解析技术用于实际监控领域,来提升监控***的智能化水平。
当前,将行人解析技术应用于实际监控中,主要面临以下挑战:(1)行人解析速度慢,现有的行人解析模型大多是基于深度神经网络,但由于神经网络模型自身参数量大而复杂,导致解析速度十分缓慢,难以满足实际监控对实时性的需求;(2)行人解析精度低,监控环境多变,单一数据集训练得到的模型,难以契合复杂多变的监控环境的行人解析,导致解析准确率低,不能应对高精度的需求。因此,受时效性的限制,市场上对于行人解析的监控***比较稀缺,没有成型的行人解析***,严重阻碍了行人解析技术的落地、应用及推广。
发明内容
本申请实施例通过提供一种面向监控环境的实时行人解析方法,解决了现有技术中行人解析的速度较慢、精度较低的问题。
本申请实施例提供一种面向监控环境的实时行人解析方法,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列;
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息;
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列;
步骤4、将所述解析后的视频帧序列转化为视频。
优选的,所述步骤2中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
优选的,所述步骤3包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像;
步骤3.2、利用行人解析模型进行解析处理;
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集;
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型;
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果;
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像;
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
优选的,所述步骤3.2.1的具体实现方式为:对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
优选的,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
优选的,所述步骤3.2.2的具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
优选的,所述损失函数L(X;W)为:
Figure BDA0002172796070000031
其中,X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重,lp(X;W)表示主损失函数,li(Xi;W)表示辅助损失函数,K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
优选的,所述步骤3.2.3中的所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束。
优选的,所述步骤3.3的具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
在本申请实施例中,获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明利用轻量级的网络模型能够对监控视频进行实时行人解析,在解析模型训练阶段使用部件缺失多尺度增强的优化策略,在分类阶段使用行人部件类别约束进行监督,两者都能有效地提升行人解析的准确率。
附图说明
为了更清楚地说明本实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种面向监控环境的实时行人解析方法的流程图;
图2为本发明实施例提供的一种面向监控环境的实时行人解析方法中原始行人图像拆分的示意图;
图3为本发明实施例提供的一种面向监控环境的实时行人解析方法中行人上衣部件约束的示意图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本发明提供一种面向监控环境的实时行人解析方法,如图1所示,主要包括:获取实时视频流转为视频帧序列、行人目标检测、截取行人图像、行人解析处理、解析结果填补原图、视频帧序列转视频、解析结果输出并展示。
下面对本发明做进一步的说明。
本实施例提供了一种面向监控环境的实时行人解析方法,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列。
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息。
其中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列。
具体的,包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像。
步骤3.2、利用行人解析模型进行解析处理。
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集。
具体实现方式为:对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
如图2所示,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸(边长)的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型。
具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
具体的,所述损失函数L(X;W)为:
Figure BDA0002172796070000061
其中,损失函数由主损失函数和辅助损失函数组成,主损失函数lp(X;W)(右边第一项)负责对整个BiseNet模型输出的监督,辅助损失函数li(Xi;W)(右边第二项)负责对Context Path模块的监督。X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重(可取1),K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果。
其中,所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束。
具体实现方式如下:在分类预测阶段,根据部件类别位置的先验,对(完整的)行人图像的类别进行空间位置的约束,参见图3,针对完整且是正立的行人图像,行人的上衣部件只会出现在行人图像的上半区域,不可能出现在行人图像的下半区域,根据这一先验知识,模型在对行人部件进行解析的时候,,头发、脸、上衣、胳膊等部件出现在图像的上半区域,裤子、鞋等类别只会出现在图像的下半区域,其他类别做相同的约束处理。在行人部件预测阶段根据位置先验进行约束,可有效地提升解析准确率。
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像。
具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
步骤4、将所述解析后的视频帧序列转化为视频。
综上,本发明提供了一种面向监控环境的实时行人解析方法,先从监控***中获取实时视频流并转化为视频帧序列,再使用目标检测算法检测出视频帧中的行人目标,然后使用轻量级行人解析模型解析视频帧中的行人图像,同时引入部件缺失行人多尺度增强和行人部件类别约束的优化策略,最后将解析结果填补回原视频帧,把视频帧序列转化为视频,得到行人解析处理后的视频。
本发明实施例提供的一种面向监控环境的实时行人解析方法至少包括如下技术效果:
(1)本发明通过使用轻量级的行人解析模型,能够对监控中的行人目标进行实时解析。
(2)本发明通过部件缺失行人多尺度数据增强的优化策略,能够解决处在不同尺度下部件缺失行人的解析问题,提升行人解析的准确率。
(3)本发明通过行人部件类别约束的优化策略辅助模型进行解析处理,能够提升行人解析的准确率。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照实例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种面向监控环境的实时行人解析方法,其特征在于,包括以下步骤:
步骤1、获取实时视频流,将所述视频流进行转化,得到原始视频帧序列;
步骤2、使用目标检测算法对所述原始视频帧序列进行检测,获得检测框信息;
步骤3、使用行人解析模型对原始行人图像进行解析处理,所述解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将所述解析结果填补回所述原始视频帧序列,得到解析后的视频帧序列;
步骤4、将所述解析后的视频帧序列转化为视频;
其中,所述步骤3包括以下子步骤:
步骤3.1、根据所述检测框信息,从所述原始视频帧序列中截取出原始行人图像;
步骤3.2、利用行人解析模型进行解析处理;
步骤3.2.1、制作部件缺失行人多尺度数据增强的监控数据集;
对完整的原始行人图像进行拆分,得到多类拆分数据集,对完整的原始行人图像数据集、多类拆分数据集分别进行尺寸调整,将尺寸调整后的数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集;
步骤3.2.2、使用所述部件缺失行人多尺度数据增强的监控数据集对轻量级的解析模型进行训练,得到行人解析模型;
步骤3.2.3、使用所述行人解析模型对所述原始行人图像进行解析处理,并进行部件类别约束,得到解析结果;
所述部件类别约束为根据部件类别位置的先验,对所述原始行人图像的类别进行空间位置的约束;
步骤3.3、将所述解析结果添加到所述原始行人图像,得到叠加行人图像;
步骤3.4、根据所述检测框信息,将所述叠加行人图像填补回所述原始视频帧序列,得到解析后的视频帧序列。
2.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤2中,所述目标检测算法采用YOLOv3,所述检测框信息包括检测框的帧号、检测框的坐标信息。
3.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述多类拆分数据集包括完整行人图像数据集、上半身数据集、下半身数据集、左半身数据集、右半身数据集、从头部到脚部的1/4部分数据集、从头部到脚部的3/4部分数据集;所述完整行人图像数据集构成第一类数据集,所述上半身数据集、所述下半身数据集、所述左半身数据集、所述右半身数据集构成第二类数据集,所述从头部到脚部的1/4部分数据集、所述从头部到脚部的3/4部分数据集构成第三类数据集;将所述第一类数据集中的图像尺寸分别调整为原始尺寸的1倍、1/2倍、1/3倍,三种不同尺寸的图像在所述第一类数据集中占比为1/2:1/4:1/4;按照与所述第一类数据集相同的调整方案,对所述第二类数据集、所述三类数据集的图像尺寸及图像占比分别进行调整;将尺寸调整后的三类数据集进行合并,得到部件缺失行人多尺度数据增强的监控数据集。
4.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.2.2的具体实现方式为:根据所述部件缺失行人多尺度数据增强的监控数据集,采用轻量级的解析模型BiseNet进行训练,并用损失函数进行监督训练,得到行人解析模型。
5.根据权利要求4所述的面向监控环境的实时行人解析方法,其特征在于,所述损失函数L(X;W)为:
Figure FDA0003197201280000021
其中,X表示预测的解析结果,Xi表示Xception中第i个stage输出的特征图,W表示标注图,α表示权重,lp(X;W)表示主损失函数,li(Xi;W)表示辅助损失函数,K=3;其中,所述主损失函数、所述辅助损失函数使用softmax损失函数。
6.根据权利要求1所述的面向监控环境的实时行人解析方法,其特征在于,所述步骤3.3的具体实现方式为:将所述解析结果与所述原始行人图像进行叠加,解析出来属于背景的像素点赋值为所述原始行人图像中对应的像素点的RGB值,解析出来属于目标的像素点的赋值为所述解析结果中的RGB值与所述原始行人图像中的RGB值的和的一半。
CN201910768586.9A 2019-08-20 2019-08-20 一种面向监控环境的实时行人解析方法 Active CN110427920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910768586.9A CN110427920B (zh) 2019-08-20 2019-08-20 一种面向监控环境的实时行人解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910768586.9A CN110427920B (zh) 2019-08-20 2019-08-20 一种面向监控环境的实时行人解析方法

Publications (2)

Publication Number Publication Date
CN110427920A CN110427920A (zh) 2019-11-08
CN110427920B true CN110427920B (zh) 2021-11-02

Family

ID=68417041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910768586.9A Active CN110427920B (zh) 2019-08-20 2019-08-20 一种面向监控环境的实时行人解析方法

Country Status (1)

Country Link
CN (1) CN110427920B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091110B (zh) * 2019-12-24 2023-11-17 山东仁功智能科技有限公司 一种基于人工智能的反光背心穿戴识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345744A (zh) * 2013-06-19 2013-10-09 北京航空航天大学 一种基于多图像的人体目标部件自动解析方法
CN105224937A (zh) * 2015-11-13 2016-01-06 武汉大学 基于人体部件位置约束的细粒度语义色彩行人重识别方法
CN107145845A (zh) * 2017-04-26 2017-09-08 中山大学 基于深度学习及多特征点融合的行人检测方法
CN107862696A (zh) * 2017-10-26 2018-03-30 武汉大学 基于时尚图迁移的特定行人衣物解析方法及***
CN108596098A (zh) * 2018-04-24 2018-09-28 北京京东尚科信息技术有限公司 人体部件的解析方法、***、设备和存储介质
CN109902573A (zh) * 2019-01-24 2019-06-18 中国矿业大学 面向矿井下视频监控的多摄像机无标注行人重识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345744A (zh) * 2013-06-19 2013-10-09 北京航空航天大学 一种基于多图像的人体目标部件自动解析方法
CN105224937A (zh) * 2015-11-13 2016-01-06 武汉大学 基于人体部件位置约束的细粒度语义色彩行人重识别方法
CN107145845A (zh) * 2017-04-26 2017-09-08 中山大学 基于深度学习及多特征点融合的行人检测方法
CN107862696A (zh) * 2017-10-26 2018-03-30 武汉大学 基于时尚图迁移的特定行人衣物解析方法及***
CN108596098A (zh) * 2018-04-24 2018-09-28 北京京东尚科信息技术有限公司 人体部件的解析方法、***、设备和存储介质
CN109902573A (zh) * 2019-01-24 2019-06-18 中国矿业大学 面向矿井下视频监控的多摄像机无标注行人重识别方法

Also Published As

Publication number Publication date
CN110427920A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
CN109829443B (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
Wiley et al. Computer vision and image processing: a paper review
CN111582095B (zh) 一种轻量级行人异常行为快速检测方法
CN110516536A (zh) 一种基于时序类别激活图互补的弱监督视频行为检测方法
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN113553979B (zh) 一种基于改进yolo v5的安全服检测方法和***
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN112270331A (zh) 一种基于yolov5改进的广告牌检测方法
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
CN110555420A (zh) 一种基于行人区域特征提取和重识别融合模型网络及方法
WO2023040146A1 (zh) 基于图像融合的行为识别方法、装置、电子设备及介质
Cho et al. Semantic segmentation with low light images by modified CycleGAN-based image enhancement
Geng et al. An improved helmet detection method for YOLOv3 on an unbalanced dataset
CN112487981A (zh) 基于双路分割的ma-yolo动态手势快速识别方法
CN113724286A (zh) 显著性目标的检测方法、检测设备及计算机可读存储介质
CN115035371A (zh) 基于多尺度特征融合神经网络的井壁裂缝识别方法
WO2023087420A1 (zh) 一种基于热红外视觉的停机坪人体动作识别方法及***
CN112800979B (zh) 一种基于表征流嵌入网络的动态表情识别方法及***
CN114782979A (zh) 一种行人重识别模型的训练方法、装置、存储介质及终端
Wang et al. Multiscale traffic sign detection method in complex environment based on YOLOv4
CN110427920B (zh) 一种面向监控环境的实时行人解析方法
CN111626197A (zh) 一种人体行为识别网络模型及识别方法
CN115588217A (zh) 一种基于深度自注意网络的人脸属性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant