CN111539257B - 人员重识别方法、装置和存储介质 - Google Patents
人员重识别方法、装置和存储介质 Download PDFInfo
- Publication number
- CN111539257B CN111539257B CN202010244402.1A CN202010244402A CN111539257B CN 111539257 B CN111539257 B CN 111539257B CN 202010244402 A CN202010244402 A CN 202010244402A CN 111539257 B CN111539257 B CN 111539257B
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- person
- personnel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种人员重识别方法、装置和存储介质,属于监控视频检索技术领域,方法包括:通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;利用搜索网络提取所述特征图中的全人特征;所述搜索网络根据所述检测框和所述特征图提取所述目标人员图像中的局部特征;根据所述全人特征和所述局部特征,确定所述目标人员图像在预设人员图像库中对应的目标图像。解决了现有技术中对人员进行重识别时,检索准确率较低的问题;达到了可以根据全员特征和局部特征进行搜索,进而极大提升人员搜索的准确率,丰富人员搜索的手段的效果。
Description
技术领域
本发明涉及人员重识别方法、装置和存储介质,属于监控视频检索技术领域。
背景技术
随着平安城市的广泛建设和各种场所面临监控的普及,视频监控数据量变得越来越大,这给刑侦破案带来了巨大的挑战,如何快速准确地从这些海量数据库提取出目标嫌疑人成为破案的关键。
传统人工浏览的视频侦查模式需要耗费大量的人力和时间,容易贻误破案时机。人员搜索技术便于视频侦查员快速、准确地发现嫌疑目标活动画面和轨迹,对公安部门提高破案率、维护人民群众生命财产安全具有重要意义。目前行人检索方法都是根据查询行人对象和所有待测行人对象外貌特征的距离对待测集进行排序。然而实际视频监控环境下,不同摄像头的视角、光照、色差等因素不同,导致同一行人在多摄像头下的外貌特征往往存在显著差异,从而使得检索结果不准确。
发明内容
本发明的目的在于提供一种可以准确对人员进行重识别的识别方法。为达到上述目的,本发明提供如下技术方案:
第一方面,提供了一种人员重识别方法,所述方法包括:
通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;
利用搜索网络提取所述特征图中的全人特征;
所述搜索网络根据所述检测框和所述特征图提取所述目标人员图像中的局部特征;
根据所述全人特征和所述局部特征,确定所述目标人员图像在预设人员图像库中对应的目标图像。
进一步地,所述搜索网络包括属性网络,所述搜索网络根据所述检测框和所述特征图提取所述目标人员图像中的局部特征,包括:
根据所述检测框在所述特征图上做感兴趣区域池化ROI pooling,得到子特征图;
将所述子特征图输入所述属性网络,所述属性网络提取所述子特征图中的所述局部特征。
进一步地,所述属性网络确定所述子特征图的属性,提取属性分类前的全连接inner product层的预设维特征作为所述局部特征,或者根据获得的属性的语义确定所述局部特征。
进一步地,所述根据所述全人特征和所述局部特征,确定所述目标人员图像在预设人员图像库中对应的目标图像,包括:
根据所述全人特征和所述局部特征,计算所述目标人员图像与预设人员图像库中的图像的相似度;
根据相似度排序确定所述目标人员图像在预设人员图像库中对应的目标图像。
进一步地,所述检测网络在输出所述特征图时通过反卷积将所述特征图反卷积到与输入所述检测网络的所述目标人员图像相同大小。
进一步地,所述检测网络在反卷积时使用特征金字塔网络FPN结构。
进一步地,所述搜索网络包括所述人员重识别网络,所述人员重识别网络通过残差网络提取所述特征图中的全人特征。
进一步地,所述人员重识别网络在训练过程中以人员标识作为分类标签;所述人员重识别网络根据所述分类标签对所述目标人员图像进行分类,提取分类前的全连接inner product层的预设维特征作为所述全人特征。
第二方面,提供了一种人员重识别装置,所述装置包括存储器和处理器,所述存储器中存储有至少一条程序指令,所述处理器通过加载并执行所述至少一条程序指令以实现第一方面所述的人员重识别方法。
第三方面,提供了一种计算机存储介质,所述计算机存储介质中存储有至少一条程序指令,所述至少一条程序指令被处理器加载并执行以实现第一方面所述的人员重识别方法。
本发明的有益效果在于:
通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;利用搜索网络提取所述特征图中的全人特征;并且搜索网络根据所述检测框和所述特征图确定所述目标人员图像中的局部特征;进而根据所述全人特征和所述局部特征,确定目标人员图像在预设人员图像库中对应的目标图像;也即通过网络自动可以对目标人员图像进行识别,解决了现有方案中需要人工浏览进而导致准确率较低的问题;利用检测网络与搜索网络结合的网络架构,能够实现同时识别全人特征和局部特征,达到了可以根据全员特征和局部特征进行搜索,进而极大提升人员搜索的准确率,丰富人员搜索的手段的效果。
另外,通过检测网络输出特征图和感兴趣区域的检测框,使得感兴趣区域的激活值较大,再输入人员重识别网络时,相当于已经做了对齐的操作,可以有效提升重识别的准确率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
图1为本发明一个实施例提供的人员重识别方法的方法流程图;
图2为本发明一个实施例提供的一种可能的目标人员图像及其对应的特征图的示意图;
图3为本发明一个实施例提供的人员重识别方法所涉及的框图;
图4为本发明一个实施例提供的人员重识别装置的装置示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
请参考图1,其示出了本申请一个实施例提供的人员重识别方法的方法流程图,如图1所示,所述人员重识别方法包括:
步骤101,通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框。
具体地,获取目标人员图像,将获取到的目标人员图像作为检测网络的输入,检测网络的输出即为目标人员图像的特征图和目标人员图像中的感兴趣区域的检测框。
目标人员图像可以为卡口摄像机、监控录像、现有的人员监控或分析***等获取到的人员图像,本实施例对其具体来源并不做限定。
检测网络可以为改进的mobilenet-retinanet,改进的mobilenet-retinanet的网络模型可以使用mobilenetv2结构,输入的数据data大小为3x256x128(像素)。可选的,检测网络在输出特征图时,通过反卷积将所述特征图反卷积到与所述检测网络的输入相同大小。而由于目标人员图像为人员卡口下的目标图像,因此不同的人员图像的大小尺度变化不大,因此,本实施例中,检测网络可以在反卷积时加入FPN(Feature Pyramid Networks,特征金字塔网络)结构,只用一层的特征图进行检测即可满足要求,最终得到一个和输入的data层大小一致的 64个通道的特征图。通过使用FPN,提高了检测网络的检测率。请参考图2,其示出了一种可能的目标人员图像及其对应的特征图的示意图。
另外,感兴趣区域是指目标人员图像中的头肩、上半身、下半身、帽子、眼镜、口罩、Logo、雨伞、包、骑着的非机动车中的一种或者多种等等。通过检测网络即可预测得到感兴趣区域的检测框的位置和类别。容易理解的是,感兴趣区域可以为一个,也可以为多个,并且在有多个感兴趣区域时,得到的感兴趣区域的检测框也可以相应的有多个。
可选的,在训练检测网络时,将128*256像素的彩色全人图像和每张彩色全人图像中标定的感兴趣区域的局部区域框作为样本,对改进的 mobilenet-retinanet进行训练,在softmaxloss层的损失loss低于预设数值时,得到检测网络。样本的数量为多个,本实施例对检测网络的具体训练方式并不做限定。
步骤102,利用搜索网络提取特征图中的全人特征。
可选的,搜索网络可以包括人员重识别网络和属性网络,将检测网络检测到的特征图作为人员重识别网络的输入,人员重识别网络的输出为特征图中的全人特征。
可选的,所述人员重识别网络可以为残差网络。比如,将32x256x128的特征图输入至残差网络,残差网络提取得到全人特征。
进一步地,人员重识别网络架构包括两层全连接层,设置第一层全连接层的输出为预设维特征,第二全连接层的维度和实际分类维度一致,第二全连接层的输出输入至softmaxloss层。可选的,在训练人员重识别网络时,设置第一全连接层的输出为512维,将特征图以及特征图中标定的全人特征作为样本对人员重识别网络进行训练,第一全连接层输出512维的向量作为第二全连接层的输入,第二全连接层的分类维度与实际分类维度一致,第二全连接层的输出输入到softmaxloss层计算误差,在损失loss满足条件时停止迭代并得到训练好的人员重识别网络,也即确定人员重识别网络中各个网络层的权值。当然,实际实现时,还可以在训练一定次数比如100W次之后停止训练得到人员重识别网络,对此并不做限定。
进一步地,将特征图输入人员重识别网络,人员重识别网络可以根据人员 ID对特征图进行分类,并提取第一全连接层输出的特征向量作为全人特征,第一全连接层输出的特征向量为预设维特征向量,优选地,预设维为512维,维度可以在对网络进行训练时根据实际情况确定。需要说明的是,在人员重识别网络训练完成后,可以直接获取第一全连接层的输出特征向量作为全人特征,无需再次经过第二全连接层及softmaxloss层,第二全连接层和softmaxloss层是为了在对人员重识别网络进行训练时,对人员重识别网络的分类学习结果进行反馈,以使人员重识别网络的各个网络层得到最优的权值。需要进一步说明的是,提取属性分类前的全连接层的预设维特征即为提取第一全连接层输出的特征;第二全连接层和softmaxloss层的作用是对属性进行分类。对全人特征进行提取并设置维度,是为了从所有识别到的全人特征中提取主要的全人特征进行搜索,从而在保证准确度的同时降低数据运算率,提高识别效率。
步骤103,搜索网络根据所述检测框和所述特征图确定所述目标人员图像中的局部特征;
可选的,本步骤包括:
第一,根据所述检测框在特征图上做感兴趣区域池化ROI pooling,得到子特征图。
根据检测框在特征图上做ROI pooling进而将检测框缩放到24x24大小,得到子特征图。也即检测框对应的特征图缩放至24x24,得到子特征图。
容易理解的,在检测框有多个时,此处也可以得到每个检测框所对应的子特征图。
第二,根据属性网络提取所述子特征图中的所述局部特征。
可选的,属性网络可以为inception网络,inception网络可以根据子特征图确定得到检测框的属性。本步骤为:将子特征图输入到inception网络,得到检测框的属性。其中,不同类别的目标连接不同的属性。本实施例所述的类别与步骤101中的感兴趣区域对应,也即类别可以为头肩、上半身、下半身、帽子、眼镜、口罩、Logo、雨伞、包、骑着的非机动车等等。类别连接的属性是指该类别所具备的属性。比如,头肩区域包含的属性为姿态、发型、男女;上半身、下半身区域包括的属性为颜色、纹理、款式;帽子区域包含的属性为颜色、款式;口罩、雨伞区域包含的属性为颜色;包包含的属性为颜色、款式;骑着的非机动车包含颜色、款式、角度。Logo区域包含的属性为颜色。比如,感兴趣区域为上半身时,得到的感兴趣区域的属性可以为人员上半身穿着的颜色和款式。
inception网络在训练时可以使用子特征图以及预先标定的属性作为样本对softmaxloss进行训练,在loss满足条件时得到训练好的inception网络。与训练人员重识别网络类似的是,可以在训练次数达到一定次数时,确定得到训练好的inception网络。inception网络架构包括两个全连接层,第一全连接层用来提取预设维特征作为第二全连接层的输入,第二全连接层的维度与局部特征的属性分类维度一致,第二全连接层的输出作为softmaxloss的输入,对inception网络的损失loss进行计算,得到训练后的inception网络。
对于训练好的inception网络,提取属性分类前的inner product层的预设维特征作为所述局部特征,也即提取第一全连接层输出的特征向量作为局部特征,第一全连接层的输出可以为预设维特征向量,优选地,为64维特征向量,可以在对属性网络进行训练时根据实际场景需求设置,在此不做限制。或者根据获得的属性的语义确定所述局部搜索。也即将语义作为局部特征。以根据语义做局部搜索来举例说明,假设提取到的属性为红色上衣,那么即可搜索穿着红色上衣的目标。
步骤104,根据所述全人特征和所述局部特征,确定目标人员图像在预设人员图像库中对应的目标图像。
其中,预设人员图像库为预先步骤101-103的人员重识别方法,对预设数量的人员图像进行识别,并提取各个图像对应的全人特征和局部特征建立的特征库。预设人员图像库可以为常规人员数据库和危险人员数据库。
可选的,本步骤包括:
第一,根据所述全人特征和所述局部特征,计算所述目标人员图像与预设人员图像库中的图像的相似度;
第二,根据相似度排序目标人员图像在预设人员图像库中对应的目标图像。
可选的,可以将相似度得分排名在前n位且相似度高于预设阈值的图像作为目标人员图像的跟踪图像。
请参考图3,其示出了人员重识别方法所涉及的框图。
综上所述,通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;利用搜索网络提取所述特征图中的全人特征;并且搜索网络根据所述检测框和所述特征图确定所述目标人员图像中的局部特征;进而根据所述全人特征和所述局部特征,确定目标人员图像在预设人员图像库中对应的目标图像;也即通过网络自动可以对目标人员图像进行识别,解决了现有方案中需要人工浏览进而导致准确率较低的问题;达利用检测网络与搜索网络结合的网络架构,能够实现同时识别全人特征和局部特征,达到了可以根据全员特征和局部特征进行搜索,进而极大提升人员搜索的准确率,丰富人员搜索的手段的效果。
另外,通过检测网络输出特征图和感兴趣区域到的检测框,使得感兴趣区域的激活值较大,再输入人员重识别网络时,相当于已经做了对齐的操作,可以有效提升重识别的准确率。
根据目标人员图像的来源的不同,上述人员重识别方法应用的场景也不同,以下在3种不同的应用场景中分别对人员重识别方法做简单介绍。当目标人员图像为卡口摄像机采集到的图像时,在一种可能的实施场景中,该人员重识别方法包括:
步骤1在公司的不同点位架设人员卡口摄像机,实时抓拍监控范围内出现的行人图片;
步骤2将行人图片缩放到256x128大小送入检测网络,获取行人的特征图以及行人身上感兴趣区域的检测框;
步骤3利用搜索网络对获取到的检测框和特征图进行识别,获取行人的全人特征和行人身上感兴趣区域的局部特征;
步骤4根据应用分别计算全人相似度以及感兴趣区域如上半身,下半身的相似度;
步骤5根据相似度排序,认为相似度越高与目标越相近,也可以通过设置阈值,大于阈值的认为是同一个人。
如上,在公司追踪某人的活动轨迹,比如公司发生偷盗事件时,即可根据上述方法准确追踪到个人。
当目标人员图像为监控录像获取到的人员图像时,在一种可能的实施场景中,该方法包括:
步骤1针对后端保存的监控录像,先利用人员检测算法获取行人图片;
步骤2利用检测网络获取行人的特征图和行人身上的感兴趣区域的检测框;
步骤3利用搜索网络对获取到的检测框和特征图进行识别,获取全人特征和感兴趣区域的局部特征;
步骤4根据应用分别计算全人相似度以及感兴趣区域如上半身,下半身的相似度;
步骤2至步骤4与上述场景中的步骤2至步骤4类似。
步骤5将视频中所有的人员的全人特征和感兴趣区域的局部特征入库,供后续搜索使用。
当目标人员图像为分析***中的人员图像时,在一种可能的实施场景中,在上述实施例的再一种可能的应用场景中,该方法包括:
步骤1在分析***中,调用人员搜索模块功能;
调用人员搜索模块之后启动后续步骤。
步骤2前端相机抓拍轨迹发送到后端服务器;
步骤3调用检测网络,提取前端相机抓拍的图像中的行人的全人特征和行人身上感兴趣区域的局部特征;
步骤4将上述提取到的全人特征和局部特征与***布防库中的布防对象的特征进行比对,计算特征间的相似度;
步骤5相似度大于布防阈值的目标即认为比对成功,***实时给出报警信息。
上述各个应用场景中的各个步骤的具体实现请参考上述实施例,本实施例在此不再赘述。
请参考图4,其示出了本申请一个实施例提供的人员重识别装置的示意图,如图4所示,所述装置包括:
获取模块401,用于通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;
第一提取模块402,用于利用搜索网络提取所述特征图中的全人特征;
第二提取模块403,用于所述搜索网络根据所述检测框和所述特征图提取所述目标人员图像中的局部特征;
确定模块404,用于根据所述全人特征和所述局部特征,确定目标人员图像在预设人员图像库中对应的目标图像。
综上所述,本实施例所述的人员重识别装置,通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;利用搜索网络提取所述特征图中的全人特征;并且搜索网络根据所述检测框和所述特征图确定所述目标人员图像中的局部特征;进而根据所述全人特征和所述局部特征,确定目标人员图像在预设人员图像库中对应的目标图像;也即通过网络自动可以对目标人员图像进行识别,解决了现有方案中需要人工浏览进而导致准确率较低的问题;利用检测网络与搜索网络结合的网络架构,能够实现同时识别全人特征和局部特征,达到了可以根据全员特征和局部特征进行搜索,进而极大提升人员搜索的准确率,丰富人员搜索的手段的效果。
另外,通过检测网络输出特征图和感兴趣区域到的检测框,使得感兴趣区域的激活值较大,再输入人员重识别网络时,相当于已经做了对齐的操作,可以有效提升重识别的准确率。
本申请一个实施例还提供了一种人员重识别装置,所述装置包括存储器和处理器,所述存储器中存储有至少一条程序指令,所述处理器通过加载并执行所述至少一条程序指令以实现第一方面所述的人员重识别方法。
本申请一个实施例还提供了一种计算机存储介质,所述计算机存储介质中存储有至少一条程序指令,所述至少一条程序指令被处理器加载并执行以实现第一方面所述的人员重识别方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种人员重识别方法,其特征在于,所述方法包括:
通过检测网络获取目标人员图像的特征图和感兴趣区域的检测框;
利用搜索网络中的人员重识别网络提取所述特征图中的全人特征;
根据所述检测框在所述特征图上做感兴趣区域池化ROI pooling,得到子特征图;
将所述子特征图输入所述搜索网络中的属性网络,所述属性网络提取所述子特征图中的局部特征;
根据所述全人特征和所述局部特征,计算所述目标人员图像与预设人员图像库中的图像的相似度;
根据相似度排序确定所述目标人员图像在预设人员图像库中对应的目标图像,所述预设人员图像库为对预设数量的人员图像进行识别,并提取各个图像对应的全人特征和局部特征建立的特征库。
2.根据权利要求1所述的方法,其特征在于,所述属性网络提取所述子特征图中的所述局部特征,包括:
所述属性网络确定所述子特征图的属性,提取属性分类前的全连接inner product层的预设维特征作为所述局部特征,或者根据获得的属性的语义确定所述局部特征。
3.根据权利要求1所述的方法,其特征在于,所述检测网络在输出所述特征图时通过反卷积将所述特征图反卷积到与输入所述检测网络的所述目标人员图像相同大小。
4.根据权利要求3所述的方法,其特征在于,所述检测网络在反卷积时使用特征金字塔网络FPN结构。
5.根据权利要求1所述的方法,其特征在于,所述搜索网络包括所述人员重识别网络,所述人员重识别网络通过残差网络提取所述特征图中的全人特征。
6.根据权利要求5所述的方法,其特征在于,
所述人员重识别网络在训练过程中以人员标识作为分类标签;所述人员重识别网络根据所述分类标签对所述目标人员图像进行分类,提取分类前的全连接inner product层的预设维特征作为所述全人特征。
7.一种人员重识别装置,其特征在于,所述装置包括存储器和处理器,所述存储器中存储有至少一条程序指令,所述处理器通过加载并执行所述至少一条程序指令以实现如权利要求1至6任一所述的人员重识别方法。
8.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有至少一条程序指令,所述至少一条程序指令被处理器加载并执行以实现如权利要求1至6任一所述的人员重识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010244402.1A CN111539257B (zh) | 2020-03-31 | 2020-03-31 | 人员重识别方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010244402.1A CN111539257B (zh) | 2020-03-31 | 2020-03-31 | 人员重识别方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539257A CN111539257A (zh) | 2020-08-14 |
CN111539257B true CN111539257B (zh) | 2022-07-26 |
Family
ID=71974875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010244402.1A Active CN111539257B (zh) | 2020-03-31 | 2020-03-31 | 人员重识别方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539257B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232203B (zh) * | 2020-10-15 | 2024-05-28 | 平安科技(深圳)有限公司 | 行人识别方法、装置、电子设备及存储介质 |
CN113449592B (zh) * | 2021-05-18 | 2023-05-09 | 浙江大华技术股份有限公司 | 押运任务检测方法、***、电子装置和存储介质 |
CN113408356A (zh) * | 2021-05-21 | 2021-09-17 | 深圳市广电信义科技有限公司 | 基于深度学习的行人重识别方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753853A (zh) * | 2017-11-06 | 2019-05-14 | 北京航天长峰科技工业集团有限公司 | 一种同时完成行人检测与行人重识别的方法 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110555420A (zh) * | 2019-09-09 | 2019-12-10 | 电子科技大学 | 一种基于行人区域特征提取和重识别融合模型网络及方法 |
-
2020
- 2020-03-31 CN CN202010244402.1A patent/CN111539257B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753853A (zh) * | 2017-11-06 | 2019-05-14 | 北京航天长峰科技工业集团有限公司 | 一种同时完成行人检测与行人重识别的方法 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110555420A (zh) * | 2019-09-09 | 2019-12-10 | 电子科技大学 | 一种基于行人区域特征提取和重识别融合模型网络及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111539257A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539257B (zh) | 人员重识别方法、装置和存储介质 | |
CN111783576B (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
Cao et al. | Vehicle detection and motion analysis in low-altitude airborne video under urban environment | |
CN103996046B (zh) | 基于多视觉特征融合的人员识别方法 | |
US20200125923A1 (en) | System and Method for Detecting Anomalies in Video using a Similarity Function Trained by Machine Learning | |
CN110555420B (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
CN107688830B (zh) | 一种用于案件串并的现勘视觉信息关联图层生成方法 | |
CN101848377A (zh) | 一种基于云计算及海量视频检索的多视频录入装置智能联动的装置和方法 | |
CN113269091A (zh) | 一种面向智慧园区的人员轨迹分析方法、设备及介质 | |
CN111652035B (zh) | 一种基于ST-SSCA-Net的行人重识别方法及*** | |
CN104463232A (zh) | 一种基于hog特征和颜色直方图特征的密度人群计数的方法 | |
Gerónimo et al. | Unsupervised surveillance video retrieval based on human action and appearance | |
CN112465854A (zh) | 基于无锚点检测算法的无人机跟踪方法 | |
Hirano et al. | Industry and object recognition: Applications, applied research and challenges | |
Chen et al. | Nighttime pedestrian detection based on thermal imaging and convolutional neural networks | |
Hou et al. | A cognitively motivated method for classification of occluded traffic signs | |
Gawande et al. | Real-time deep learning approach for pedestrian detection and suspicious activity recognition | |
CN111833380A (zh) | 一种多视角影像融合的空间目标跟踪***及方法 | |
CN111898418A (zh) | 一种基于t-tiny-yolo网络的人体异常行为检测方法 | |
Jiang et al. | A unified tree-based framework for joint action localization, recognition and segmentation | |
EP3647997A1 (en) | Person searching method and apparatus and image processing device | |
Akanksha et al. | A Feature Extraction Approach for Multi-Object Detection Using HoG and LTP. | |
Peng et al. | Helmet wearing recognition of construction workers using convolutional neural network | |
Pham et al. | A multi-camera visual surveillance system for tracking of reoccurrences of people | |
Huang et al. | Whole-body detection, recognition and identification at altitude and range |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |