CN113723261A - 一种多行人目标识别方法及*** - Google Patents

一种多行人目标识别方法及*** Download PDF

Info

Publication number
CN113723261A
CN113723261A CN202110978475.8A CN202110978475A CN113723261A CN 113723261 A CN113723261 A CN 113723261A CN 202110978475 A CN202110978475 A CN 202110978475A CN 113723261 A CN113723261 A CN 113723261A
Authority
CN
China
Prior art keywords
image
attribute
pedestrian
region
attribute image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110978475.8A
Other languages
English (en)
Inventor
刘睿丹
翟登辉
邵宇鹰
彭鹏
张航
许丹
赵梦洁
李东宾
张亚浩
李昭阳
高培源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
Xuji Group Co Ltd
State Grid Shanghai Electric Power Co Ltd
Original Assignee
State Grid Corp of China SGCC
Xuji Group Co Ltd
State Grid Shanghai Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, Xuji Group Co Ltd, State Grid Shanghai Electric Power Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN202110978475.8A priority Critical patent/CN113723261A/zh
Publication of CN113723261A publication Critical patent/CN113723261A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多行人目标识别方法及***,其中方法包括如下步骤:获取预设地域内的待识别图像;依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域;对所述行人图像区域和所述属性图像区域进行特征匹配,得到所述预设地域的多行人识别结果。通过机器学习模型同时识别出图像中存在的人员和各类属性特征,采用一定的几何规则进行目标特征点位的融合和匹配,可在保证识别准确率的情况下,有效节约资源,提高总体识别效率。

Description

一种多行人目标识别方法及***
技术领域
本发明涉及图像识别技术领域,特别涉及一种多行人目标识别方法及***。
背景技术
工程施工或作业现场的通常都隐藏很多安全隐患,现场作业人员有时安全意识不够、偶尔懒散且抱有侥幸心理,监管人员数量有限,再加之疏忽管理,虽然出台了一系列安全保障措施,但是每年依然会发生由于不规范操作导致的安全事故。因此,如何监管到位,有效保证现场作业人员生命和生产活动的安全具有十分重要的意义。
随着科技创新进步,采用大数据、机器学算法、人工智能、图像分析技术等先进手段,通过机器代替人为监督管理,通过检测分析,及时发现现场工作人员未佩戴安全帽、着装不合格等违规行为,抓拍图像记录并继续宁实时告警。可以有效解决由于监督体系力量缺乏、全过程监督薄弱、监控水平低的难题。
为解决上述问题,需要同时从视频中获取人员特征、安全帽特征、着装特征等多类别特征,而现场工作环境复杂,人员数目较多,如何将多种多类特征按照人员身份进行一一匹配和融合是亟待解决的问题。
发明内容
本发明实施例的目的是提供一种多行人目标识别方法及***,通过机器学习模型同时识别出图像中存在的人员和各类属性特征,采用一定的几何规则进行目标特征点位的融合和匹配,可在保证识别准确率的情况下,有效节约资源,提高总体识别效率。
为解决上述技术问题,本发明实施例的第一方面提供了一种多行人目标识别方法,包括如下步骤:
获取预设地域内的待识别图像;
依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域;
对所述行人图像区域和所述属性图像区域进行特征匹配,得到所述预设地域的多行人识别结果。
进一步地,所述依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域之前,还包括:
获取人体在多姿态多场景下的若干张图像数据;
对所述若干张图像数据中的所述行人图像区域和所述属性图像区域进行标识;
通过添加标识的所述若干张图像数据对卷积神经网络进行训练,得到所述多行人识别模型。
进一步地,所述属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域;
所述第一属性图像子区域与人体的头部位置相对应;
所述第二属性图像子区域与所述人体的躯干位置相对应;
所述第三属性图像子区域与所述人体的腿部位置对应。
进一步地,所述第一属性图像子区域的属性特征包括:安全帽图像特征;
所述第二属性图像子区域的属性特征包括:反光背心图像特征;
所述第三属性图像子区域的属性特征包括:工装裤图像特征。
进一步地,所述对所述行人图像区域和所述属性图像区域进行特征匹配,包括:
对所述属性图像子区域进行粗筛选;
依据粗筛选结果,对所述属性图像子区域进行细筛选,得到所述属性图像子区域与所述行人图像区域的特征匹配结果。
进一步地,所述对所述属性图像子区域进行粗筛选,包括:
若一个所述属性图像子区域全部位于一个所述行人图像区域内,则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
若一个所述属性图像子区域部分位于一个所述行人图像区域内,则判断所述属性图像子区域位于所述行人图像区域的比例值是否超过预设比例值,如是则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
若一个所述属性图像子区域分别位于多个所述行人图像区域内,则判断所述属性图像子区域分别位于多个所述行人图像区域的比例值是否相同或相近,如否则判定所述属性图像子区域属于与最高所述比例值相对应的所述行人图像区域,如是则对所述属性图像子区域进行多行人图像区域判断。
进一步地,所述对所述属性图像子区域进行多行人图像区域判断,包括:
获取所述属性图像子区域中心点的位置信息;
分别计算所述属性图像子区域中心点与多个所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的所述行人图像区域。
进一步地,所述对所述属性图像子区域进行细筛选,包括:
获取所述属性图像子区域中心点的位置信息;
分别计算所述属性图像子区域中心点与所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的人体部位位置。
相应地,本发明实施例的第二方面提供了一种多行人目标识别***,包括:
获取模块,其用于获取预设地域内的待识别图像;
识别模块,其用于依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域;
匹配模块,其用于对所述行人图像区域和所述属性图像区域进行特征匹配,得到所述预设地域的多行人识别结果。
进一步地,所述多行人目标识别***还包括:模型训练模块,其包括:
图像获取单元,其用于获取人体在多姿态多场景下的若干张图像数据;
标识单元,其用于对所述若干张图像数据中的所述行人图像区域和所述属性图像区域进行标识;
训练单元,其用于通过添加标识的所述若干张图像数据对卷积神经网络进行训练,得到所述多行人识别模型。
进一步地,所述属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域;
所述第一属性图像子区域与人体的头部位置相对应;
所述第二属性图像子区域与所述人体的躯干位置相对应;
所述第三属性图像子区域与所述人体的腿部位置对应。
进一步地,所述第一属性图像子区域的属性特征包括:安全帽图像特征;
所述第二属性图像子区域的属性特征包括:反光背心图像特征;
所述第三属性图像子区域的属性特征包括:工装裤图像特征。
进一步地,所述匹配模块包括:
粗筛选子模块,其用于对所述属性图像子区域进行粗筛选;
细筛选子模块,其用于依据粗筛选结果,对所述属性图像子区域进行细筛选,得到所述属性图像子区域与所述行人图像区域的特征匹配结果。
进一步地,所述粗筛选子模块包括:
第一筛选单元,其用于在一个所述属性图像子区域全部位于一个所述行人图像区域内,则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
第二筛选单元,其用于在一个所述属性图像子区域部分位于一个所述行人图像区域内,则判断所述属性图像子区域位于所述行人图像区域的比例值是否超过预设比例值,如是则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
第三筛选单元,其用于在一个所述属性图像子区域分别位于多个所述行人图像区域内,则判断所述属性图像子区域分别位于多个所述行人图像区域的比例值是否相同或相近,如否则判定所述属性图像子区域属于与最高所述比例值相对应的所述行人图像区域,如是则对所述属性图像子区域进行多行人图像区域判断。
进一步地,所述粗筛选子模块还包括:第四筛选单元,其包括:
获取子单元,其用于获取所述属性图像子区域中心点的位置信息;
计算子单元,其用于分别计算所述属性图像子区域中心点与多个所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
判定子单元,其用于结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的所述行人图像区域。
进一步地,所述细筛选子模块包括:
获取单元,其用于获取所述属性图像子区域中心点的位置信息;
计算单元,分别计算所述属性图像子区域中心点与所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
判定单元,结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的人体部位位置。
相应地,本发明实施例的第三方面提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述一个处理器执行,以使所述至少一个处理器执行上述多行人目标识别方法。
此外,本发明实施例的第四方面提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述多行人目标识别方法。
本发明实施例的上述技术方案具有如下有益的技术效果:
通过机器学习模型同时识别出图像中存在的人员和各类属性特征,采用一定的几何规则进行目标特征点位的融合和匹配,可在保证识别准确率的情况下,有效节约资源,提高总体识别效率。
附图说明
图1是本发明实施例提供的多行人目标识别方法流程图;
图2是本发明实施例提供的多行人目标识别方法逻辑图;
图3是本发明实施例提供的多行人目标识别***模块框图;
图4是本发明实施例提供的匹配模块框图;
图5是本发明实施例提供的粗筛选子模块框图;
图6是本发明实施例提供的第四筛选单元框图;
图7是本发明实施例提供的细筛选子模块框图;
图8是本发明实施例提供的模型训练模块框图。
附图标识:
1、获取模块,2、识别模块,3、匹配模块,31、粗筛选子模块,311、第一筛选单元,312、第二筛选单元,313、第三筛选单元,314、第四筛选单元,3141、获取子单元,3142、计算子单元,3143、判定子单元,32、细筛选子模块,321、获取单元,322、计算单元,323、判定单元,4、模型训练模块,41、图像获取单元,42、标识单元,43、训练单元。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是本发明实施例提供的多行人目标识别方法流程图;
图2是本发明实施例提供的多行人目标识别方法逻辑图。
请参照图1和图2,本发明实施例的第一方面提供了一种多行人目标识别方法,包括如下步骤:
S100,获取预设地域内的待识别图像。
S300,依据多行人识别模型获取待识别图像中的行人图像区域及属性图像区域。
其中,属性图像区域包括与人体不同部位分别对应的若干个属性图像子区域。
S500,对行人图像区域和属性图像区域进行特征匹配,得到预设地域的多行人识别结果。
上述多行人目标识别方法通过机器学习模型同时识别出图像中存在的人员和各类属性特征,采用一定的几何规则进行目标特征点位的融合和匹配,可在保证识别准确率的情况下,有效节约资源,提高总体识别效率。
此外,步骤S300之前,依据多行人识别模型获取待识别图像中的行人图像区域及属性图像区域之前,还包括:
S201,获取人体在多姿态多场景下的若干张图像数据。
S202,对若干张图像数据中的行人图像区域和属性图像区域进行标识。
S203,通过添加标识的若干张图像数据对卷积神经网络进行训练,得到多行人识别模型。
在对多行人识别模型进行机器训练时,首先要采集包含行人以各种姿态,在各种场景下穿反光背心、未穿反光背心,戴安全帽、未戴安全帽的上千张图像数据。然后,对每张图像进行标注,识别不同的目标分别用不同的标签进行标注,并记录标注的位置,本发明中对分别对行人以及行人的头部按照戴安全帽和未戴安全帽进行标注,对行人的上半身按照穿反光衣服和未穿反光衣进行标注。
然后,基于深度学习算法,搭建yolov3卷积神经网络框架,设定超参数,然后载入标注好的图像数据放入模型中进行训练,通过正向传播运算和反向传播运算,生成可以识别行人及其属性的模型文件。
加载模型文件到yolov3框架中,输入一张待识别的图像,通过模型可输出图像中要识别的目标及其位置(如:行人、戴安全帽、未戴安全帽、穿反光衣、未穿反光衣、穿工装裤和未穿工装裤)。
具体的,属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域。其中,第一属性图像子区域与人体的头部位置相对应。第二属性图像子区域与人体的躯干位置相对应。第三属性图像子区域与人体的腿部位置对应。
进一步地,第一属性图像子区域的属性特征包括:安全帽图像特征。第二属性图像子区域的属性特征包括:反光背心图像特征。第三属性图像子区域的属性特征包括:工装裤图像特征。
进一步地,步骤S300中,对行人图像区域和属性图像区域进行特征匹配,具体包括如下步骤:
S310,对属性图像子区域进行粗筛选。
S320,依据粗筛选结果,对属性图像子区域进行细筛选,得到属性图像子区域与行人图像区域的特征匹配结果。
更进一步地,步骤S310中,对属性图像子区域进行粗筛选,具体包括如下步骤:
S311,若一个属性图像子区域全部位于一个行人图像区域内,则判定属性图像子区域属于行人图像区域,并进行细筛选。
S312,若一个属性图像子区域部分位于一个行人图像区域内,则判断属性图像子区域位于行人图像区域的比例值是否超过预设比例值,如是则判定属性图像子区域属于行人图像区域,并进行细筛选。
S313,若一个属性图像子区域分别位于多个行人图像区域内,则判断属性图像子区域分别位于多个行人图像区域的比例值是否相同或相近,如否则判定属性图像子区域属于与最高比例值相对应的行人图像区域,如是则对属性图像子区域进行多行人图像区域判断。
具体的,步骤S313中,对属性图像子区域进行多行人图像区域判断,具体包括如下步骤:
S313a,获取属性图像子区域中心点的位置信息。
S313b,分别计算属性图像子区域中心点与多个行人图像区域中人体的头部位置、躯干位置和腿部位置的距离值。
S313c,结合属性图像子区域的属性特征及距离值,判定属性图像子区域属于与最小距离值相对应的行人图像区域。
更进一步地,步骤S320中,对属性图像子区域进行细筛选,具体包括如下步骤:
S321,获取属性图像子区域中心点的位置信息。
S322,分别计算属性图像子区域中心点与行人图像区域中人体的头部位置、躯干位置和腿部位置的距离值。
S323,结合属性图像子区域的属性特征及距离值,判定属性图像子区域属于与最小距离值相对应的人体部位位置。
由上可知,在对行人图像区域和属性图像区域进行特征匹配时,具体过程为:
(1)首先将所有行人特征提取出,作为基本特征属性。然后对人体的身体区域进行分割,分为上、中、下三个部分。如:上半部分主要是对人体头部的属性进行检测,如:是否佩戴安全帽;中间部分主要是对人体上半身属性进行检测,如:是否穿发光背心;下半部分主要是是人体下肢属性进行检测,如是否穿工装裤等。
(2)然后提取其他属性特征的位置信息依次和每个行人位置进行匹配。首先,进行粗筛选,分为以下几种情况:a、若一个属性图像区域全部包含于行人框内,认为该属性特征可能属于该行人,作为接下来细筛的备选;b、若一个属性图像区域部分包含于某个行人图像区域内,则查看包含的于行人中的比例,如果占比超过80%,则作为接下来细筛的备选;c、若一个属性图像区域的部分包含于多个行人图像区域内,一方面通过判断所占行人图像区域内的比例,选择比例明显高的作为该行人可能的属性,如果占比各个行人图像区域比例相近,则作为多个行人图像区域的可能的属性特征备选。
(3)然后,进行细筛选,根据行人属性实际应该所在行人中的位置进行判断,如安全帽属性特征就应该在行人的上半部分,反光衣应该存在于行人区域的中间部分。所以,将判断某个属性的中心点位置依次计算和行人三部分中心位置的距离,选择最短的距离且符合该属性实际应该存在行人中的区域,即可判断该属性属于该行人。如:安全帽中心位置更靠近行人的上方的中心位置,即中心点位置满足行人上部分,即可以判断该行人佩戴安全帽。
对于(2)中某个属性图像区域可能属于在多个行人图像区域中的情况,也是按照步骤三中的方式,分别计算其与每个行人图像区域中的每个部分距离,选择距离最近且符合该属性特征实际应该存在的位置即可判断,这个属性属于该行人的特征。
图3是本发明实施例提供的多行人目标识别***模块框图。
相应地,请参照图3,本发明实施例的第二方面提供了一种多行人目标识别***,包括:
获取模块1,其用于获取预设地域内的待识别图像。
识别模块2,其用于依据多行人识别模型获取待识别图像中的行人图像区域及属性图像区域。
其中,属性图像区域包括与人体不同部位分别对应的若干个属性图像子区域。
匹配模块3,其用于对行人图像区域和属性图像区域进行特征匹配,得到预设地域的多行人识别结果。
进一步地,属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域;
第一属性图像子区域与人体的头部位置相对应;
第二属性图像子区域与人体的躯干位置相对应;
第三属性图像子区域与人体的腿部位置对应。
进一步地,第一属性图像子区域的属性特征包括:安全帽图像特征;
第二属性图像子区域的属性特征包括:反光背心图像特征;
第三属性图像子区域的属性特征包括:工装裤图像特征。
图4是本发明实施例提供的匹配模块框图。
进一步地,请参照图4,匹配模块3包括:
粗筛选子模块31,其用于对属性图像子区域进行粗筛选;
细筛选子模块32,其用于依据粗筛选结果,对属性图像子区域进行细筛选,得到属性图像子区域与行人图像区域的特征匹配结果。
图5是本发明实施例提供的粗筛选子模块框图。
进一步地,请参照图5,粗筛选子模块31包括:
第一筛选单元311,其用于在一个属性图像子区域全部位于一个行人图像区域内,则判定属性图像子区域属于行人图像区域,并进行细筛选;
第二筛选单元312,其用于在一个属性图像子区域部分位于一个行人图像区域内,则判断属性图像子区域位于行人图像区域的比例值是否超过预设比例值,如是则判定属性图像子区域属于行人图像区域,并进行细筛选;
第三筛选单元313,其用于在一个属性图像子区域分别位于多个行人图像区域内,则判断属性图像子区域分别位于多个行人图像区域的比例值是否相同或相近,如否则判定属性图像子区域属于与最高比例值相对应的行人图像区域,如是则对属性图像子区域进行多行人图像区域判断。
图6是本发明实施例提供的第四筛选单元框图。
进一步地,请参照图6,粗筛选子模块还包括:第四筛选单元314,其包括:
获取子单元3141,其用于获取属性图像子区域中心点的位置信息;
计算子单元3142,其用于分别计算属性图像子区域中心点与多个行人图像区域中人体的头部位置、躯干位置和腿部位置的距离值;
判定子单元3143,其用于结合属性图像子区域的属性特征及距离值,判定属性图像子区域属于与最小距离值相对应的行人图像区域。
图7是本发明实施例提供的细筛选子模块框图。
进一步地,细筛选子模块32包括:
获取单元321,其用于获取属性图像子区域中心点的位置信息;
计算单元322,分别计算属性图像子区域中心点与行人图像区域中人体的头部位置、躯干位置和腿部位置的距离值;
判定单元323,结合属性图像子区域的属性特征及距离值,判定属性图像子区域属于与最小距离值相对应的人体部位位置。
图8是本发明实施例提供的模型训练模块框图。
进一步地,请参照图8,多行人目标识别***还包括:模型训练模块4,其包括:
图像获取单元41,其用于获取人体在多姿态多场景下的若干张图像数据;
标识单元42,其用于对若干张图像数据中的行人图像区域和属性图像区域进行标识;
训练单元43,其用于通过添加标识的若干张图像数据对卷积神经网络进行训练,得到多行人识别模型。
相应地,本发明实施例的第三方面提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器连接的存储器;其中,存储器存储有可被一个处理器执行的指令,指令被一个处理器执行,以使至少一个处理器执行上述多行人目标识别方法。
此外,本发明实施例的第四方面提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述多行人目标识别方法。
本发明实施例旨在保护一种多行人目标识别方法及***,其中方法包括如下步骤:获取预设地域内的待识别图像;依据多行人识别模型获取待识别图像中的行人图像区域及属性图像区域;对行人图像区域和属性图像区域进行特征匹配,得到预设地域的多行人识别结果。上述技术方案具备如下效果:
通过机器学习模型同时识别出图像中存在的人员和各类属性特征,采用一定的几何规则进行目标特征点位的融合和匹配,可在保证识别准确率的情况下,有效节约资源,提高总体识别效率。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。

Claims (16)

1.一种多行人目标识别方法,其特征在于,包括如下步骤:
获取预设地域内的待识别图像;
依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域;
对所述行人图像区域和所述属性图像区域进行特征匹配,得到所述预设地域的多行人识别结果。
2.根据权利要求1所述的多行人目标识别方法,其特征在于,所述依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域之前,还包括:
获取人体在多姿态多场景下的若干张图像数据;
对所述若干张图像数据中的所述行人图像区域和所述属性图像区域进行标识;
通过添加标识的所述若干张图像数据对卷积神经网络进行训练,得到所述多行人识别模型。
3.根据权利要求1所述的多行人目标识别方法,其特征在于,
所述属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域;
所述第一属性图像子区域与人体的头部位置相对应;
所述第二属性图像子区域与所述人体的躯干位置相对应;
所述第三属性图像子区域与所述人体的腿部位置对应。
4.根据权利要求3所述的多行人目标识别方法,其特征在于,
所述第一属性图像子区域的属性特征包括:安全帽图像特征;
所述第二属性图像子区域的属性特征包括:反光背心图像特征;
所述第三属性图像子区域的属性特征包括:工装裤图像特征。
5.根据权利要求3所述的多行人目标识别方法,其特征在于,所述对所述行人图像区域和所述属性图像区域进行特征匹配,包括:
对所述属性图像子区域进行粗筛选;
依据粗筛选结果,对所述属性图像子区域进行细筛选,得到所述属性图像子区域与所述行人图像区域的特征匹配结果。
6.根据权利要求5所述的多行人目标识别方法,其特征在于,所述对所述属性图像子区域进行粗筛选,包括:
若一个所述属性图像子区域全部位于一个所述行人图像区域内,则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
若一个所述属性图像子区域部分位于一个所述行人图像区域内,则判断所述属性图像子区域位于所述行人图像区域的比例值是否超过预设比例值,如是则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
若一个所述属性图像子区域分别位于多个所述行人图像区域内,则判断所述属性图像子区域分别位于多个所述行人图像区域的比例值是否相同或相近,如否则判定所述属性图像子区域属于与最高所述比例值相对应的所述行人图像区域,如是则对所述属性图像子区域进行多行人图像区域判断。
7.根据权利要求6所述的多行人目标识别方法,其特征在于,所述对所述属性图像子区域进行多行人图像区域判断,包括:
获取所述属性图像子区域中心点的位置信息;
分别计算所述属性图像子区域中心点与多个所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的所述行人图像区域。
8.根据权利要求5所述的多行人目标识别方法,其特征在于,所述对所述属性图像子区域进行细筛选,包括:
获取所述属性图像子区域中心点的位置信息;
分别计算所述属性图像子区域中心点与所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的人体部位位置。
9.一种多行人目标识别***,其特征在于,包括:
获取模块,其用于获取预设地域内的待识别图像;
识别模块,其用于依据多行人识别模型获取所述待识别图像中的行人图像区域及属性图像区域;
匹配模块,其用于对所述行人图像区域和所述属性图像区域进行特征匹配,得到所述预设地域的多行人识别结果。
10.根据权利要求9所述的多行人目标识别***,其特征在于,还包括:模型训练模块,其包括:
图像获取单元,其用于获取人体在多姿态多场景下的若干张图像数据;
标识单元,其用于对所述若干张图像数据中的所述行人图像区域和所述属性图像区域进行标识;
训练单元,其用于通过添加标识的所述若干张图像数据对卷积神经网络进行训练,得到所述多行人识别模型。
11.根据权利要求9所述的多行人目标识别***,其特征在于,
所述属性图像区域包括下述中的至少一种:第一属性图像子区域、第二属性图像子区域、第三属性图像子区域;
所述第一属性图像子区域与人体的头部位置相对应;
所述第二属性图像子区域与所述人体的躯干位置相对应;
所述第三属性图像子区域与所述人体的腿部位置对应。
12.根据权利要求11所述的多行人目标识别***,其特征在于,
所述第一属性图像子区域的属性特征包括:安全帽图像特征;
所述第二属性图像子区域的属性特征包括:反光背心图像特征;
所述第三属性图像子区域的属性特征包括:工装裤图像特征。
13.根据权利要求11所述的多行人目标识别***,其特征在于,所述匹配模块包括:
粗筛选子模块,其用于对所述属性图像子区域进行粗筛选;
细筛选子模块,其用于依据粗筛选结果,对所述属性图像子区域进行细筛选,得到所述属性图像子区域与所述行人图像区域的特征匹配结果。
14.根据权利要求13所述的多行人目标识别***,其特征在于,所述粗筛选子模块包括:
第一筛选单元,其用于在一个所述属性图像子区域全部位于一个所述行人图像区域内,则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
第二筛选单元,其用于在一个所述属性图像子区域部分位于一个所述行人图像区域内,则判断所述属性图像子区域位于所述行人图像区域的比例值是否超过预设比例值,如是则判定所述属性图像子区域属于所述行人图像区域,并进行所述细筛选;
第三筛选单元,其用于在一个所述属性图像子区域分别位于多个所述行人图像区域内,则判断所述属性图像子区域分别位于多个所述行人图像区域的比例值是否相同或相近,如否则判定所述属性图像子区域属于与最高所述比例值相对应的所述行人图像区域,如是则对所述属性图像子区域进行多行人图像区域判断。
15.根据权利要求14所述的多行人目标识别***,其特征在于,所述粗筛选子模块还包括:第四筛选单元,其包括:
获取子单元,其用于获取所述属性图像子区域中心点的位置信息;
计算子单元,其用于分别计算所述属性图像子区域中心点与多个所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
判定子单元,其用于结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的所述行人图像区域。
16.根据权利要求13所述的多行人目标识别***,其特征在于,所述细筛选子模块包括:
获取单元,其用于获取所述属性图像子区域中心点的位置信息;
计算单元,分别计算所述属性图像子区域中心点与所述行人图像区域中人体的所述头部位置、所述躯干位置和所述腿部位置的距离值;
判定单元,结合所述属性图像子区域的属性特征及所述距离值,判定所述属性图像子区域属于与最小所述距离值相对应的人体部位位置。
CN202110978475.8A 2021-08-24 2021-08-24 一种多行人目标识别方法及*** Pending CN113723261A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110978475.8A CN113723261A (zh) 2021-08-24 2021-08-24 一种多行人目标识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110978475.8A CN113723261A (zh) 2021-08-24 2021-08-24 一种多行人目标识别方法及***

Publications (1)

Publication Number Publication Date
CN113723261A true CN113723261A (zh) 2021-11-30

Family

ID=78677834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110978475.8A Pending CN113723261A (zh) 2021-08-24 2021-08-24 一种多行人目标识别方法及***

Country Status (1)

Country Link
CN (1) CN113723261A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法
CN109829356A (zh) * 2018-12-05 2019-05-31 科大讯飞股份有限公司 神经网络的训练方法及基于神经网络的行人属性识别方法
CN109858388A (zh) * 2019-01-09 2019-06-07 武汉中联智诚科技有限公司 一种智慧旅游管理***
CN111274945A (zh) * 2020-01-19 2020-06-12 北京百度网讯科技有限公司 一种行人属性的识别方法、装置、电子设备和存储介质
CN111553327A (zh) * 2020-05-29 2020-08-18 上海依图网络科技有限公司 一种服饰识别方法、装置、设备和介质
CN112434666A (zh) * 2020-12-11 2021-03-02 东莞先知大数据有限公司 重复动作识别方法、装置、介质及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法
CN109829356A (zh) * 2018-12-05 2019-05-31 科大讯飞股份有限公司 神经网络的训练方法及基于神经网络的行人属性识别方法
CN109858388A (zh) * 2019-01-09 2019-06-07 武汉中联智诚科技有限公司 一种智慧旅游管理***
CN111274945A (zh) * 2020-01-19 2020-06-12 北京百度网讯科技有限公司 一种行人属性的识别方法、装置、电子设备和存储介质
CN111553327A (zh) * 2020-05-29 2020-08-18 上海依图网络科技有限公司 一种服饰识别方法、装置、设备和介质
CN112434666A (zh) * 2020-12-11 2021-03-02 东莞先知大数据有限公司 重复动作识别方法、装置、介质及设备

Similar Documents

Publication Publication Date Title
CN112347916B (zh) 基于视频图像分析的电力现场作业安全监控方法及装置
CN110689054B (zh) 一种工人违规行为监测方法
CN108921054B (zh) 一种基于语义分割的行人多属性识别方法
CN107145851A (zh) 建筑作业区危险源智能识别***
CN112766050B (zh) 着装及作业检查方法、计算机装置及存储介质
CN113553979B (zh) 一种基于改进yolo v5的安全服检测方法和***
CN107491752A (zh) 一种基于深度学习的自然场景中船牌文字识别方法、装置
CN109886951A (zh) 视频处理方法、装置及电子设备
CN106778650A (zh) 基于多类型信息融合的场景自适应行人检测方法和***
CN116311081B (zh) 一种基于图像识别的医学实验室监控图像分析方法和***
CN112434669B (zh) 一种多信息融合的人体行为检测方法及***
CN108197575A (zh) 一种基于目标检测和骨点检测的异常行为识别方法及装置
CN113688709B (zh) 一种安全帽佩戴智能检测方法、***、终端及介质
CN110285801A (zh) 智能安全帽的定位方法及装置
CN113191273A (zh) 基于神经网络的油田井场视频目标检测与识别方法及***
CN115880722A (zh) 一种配电作业人员穿戴的智能识别方法、***和介质
CN117392611A (zh) 工地安全监测方法、***、设备及存储介质
CN104077591A (zh) 电脑智能自动监控***
CN112597903B (zh) 基于步幅测量的电力人员安全状态智能识别方法及介质
CN113723261A (zh) 一种多行人目标识别方法及***
CN109614926B (zh) 基于预测模型的分布式光纤传感信号模式识别方法及***
CN113762115B (zh) 一种基于关键点检测的配网作业人员行为检测方法
CN116824471A (zh) 智能井架区域作业监测方法和***
CN112949606B (zh) 工服穿戴状态检测方法、装置、存储介质及电子装置
Deepak et al. Design and utilization of bounding box in human detection and activity identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination