CN114299539A - 一种模型训练方法、行人重识别方法和装置 - Google Patents

一种模型训练方法、行人重识别方法和装置 Download PDF

Info

Publication number
CN114299539A
CN114299539A CN202111602234.XA CN202111602234A CN114299539A CN 114299539 A CN114299539 A CN 114299539A CN 202111602234 A CN202111602234 A CN 202111602234A CN 114299539 A CN114299539 A CN 114299539A
Authority
CN
China
Prior art keywords
feature
pedestrian
identification
network
identity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111602234.XA
Other languages
English (en)
Other versions
CN114299539B (zh
Inventor
侯博严
于吉鹏
王子豪
李驰
刘岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Insurance Group Co Ltd
Original Assignee
Taikang Insurance Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Insurance Group Co Ltd filed Critical Taikang Insurance Group Co Ltd
Priority to CN202111602234.XA priority Critical patent/CN114299539B/zh
Publication of CN114299539A publication Critical patent/CN114299539A/zh
Application granted granted Critical
Publication of CN114299539B publication Critical patent/CN114299539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种模型训练方法、行人重识别方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:将训练样本集输入至特征提取网络进行特征提取,得到第一特征图;将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的第一特征图进行融合,得到融合特征图;对融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,对特征提取网络和特征金字塔网络进行参数调整,以完成模型训练。该实施方式实现了无锚框、单步策略的目标检测,减少了计算量,同时可以更好的聚合多尺度特征。

Description

一种模型训练方法、行人重识别方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种模型训练方法、行人重识别方法和装置。
背景技术
行人重识别旨在同时在视频或者图像中将行人的位置和身份识别出来。现有技术通常有两种实现方式,一种是两步策略,即先进行目标检测,定位行人的位置后将行人从视频或者图像中抠取出来,再通过后续网络进行特征提取来识别行人的身份,典型网络是Faster-RCNN(一种目标检测算法)。另一种是单步策略,即端到端的实现行人的目标检测和身份识别。具体地,先通过锚框进行目标检测,并将目标检测过程中提取的特征共享给后续的身份识别网络,通过设计合适的损失函数就可以同时优化目标框的位置和行人身份的识别精度,典型网络为Yolo(You Only Look Once)。
上述方式中,两步策略计算复杂,耗费资源,不利于实时检索。单步策略在目标检测时需要使用锚框,每个像素点都要计算多个锚框,并且网络的精确度很大程度上依赖于超参的调整和锚框的个数。另外,现有技术中还存在采用金字塔结构代替锚框进行目标检测的单步方案,比如FCOS(Fully Convolutional One-Stage Object Detection)网络,该方案对于同一类别可以检测出不同尺度的目标,后续使用查询样本在数据库中检索时,存在尺度不对齐的问题,即只能查询出与该查询样本尺度一致的结果,无法查询出其他尺度的结果,导致查询精度低。
发明内容
有鉴于此,本发明实施例提供了一种模型训练方法、行人重识别方法和装置,该模型训练方法采用可变卷积层与特征金字塔网络相结合的结构,将特征金字塔网络的当前特征提取层输出的第二特征图与特征提取网络的上一特征提取层输出的第一特征图进行融合,并输出特征金字塔网络最后一个尺度的第二特征图,实现了无锚框、单步策略的目标检测,减少了计算量,同时可以更好的聚合多尺度特征,解决了尺度不对齐的问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种用于行人重识别的模型训练方法。
本发明实施例的一种用于行人重识别的模型训练方法,包括:将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图;其中,所述训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签;
将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图;
对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值;
根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。
可选地,所述多个第一特征提取层为所述特征提取网络的第3、4和5层,所述多个第二特征提取层为所述特征金字塔网络的第3、4和5层;
所述通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图,包括:
通过可变卷积层,将所述特征提取网络的第4层与所述特征金字塔网络的第5层进行融合,得到所述特征金字塔网络的第4层;
通过所述可变卷积层,将所述特征提取网络的第3层与所述特征金字塔网络的第4层进行融合,得到所述特征金字塔网络的第3层,并作为所述训练样本的融合特征图。
可选地,所述通过可变卷积层,将所述特征提取网络的第4层与所述特征金字塔网络的第5层进行融合,包括:
对所述特征金字塔网络的第5层进行设定倍数的上采样,得到与所述特征提取网络的第4层相同大小的上采样结果;
采用可变卷积层对所述特征提取网络的第4层进行特征提取,得到特征提取结果;
以通道叠加的方式,将所述特征提取结果与所述上采样结果进行融合。
可选地,对所述融合特征图进行身份识别,包括:
对所述融合特征图进行特征提取和通道压缩,得到所述训练样本的行人重识别特征;
计算所述行人重识别特征与设定的正样本特征和负样本特征之间的相似度,得到所述行人重识别特征属于目标标签的概率。
可选地,通过预设的损失函数,计算所述行人身份与所述身份标签的第二损失值,包括:
对所述融合特征图中每个行人对应的目标框进行中心点采样,并在所述中心点周围进行采样,以构建每个行人的候选特征集;
根据所述行人身份,从同一人的候选特征集以及不同人的候选特征集中分别选择候选特征,以构建同一人的特征对和不同人的特征对;
根据所述特征对,计算所述行人身份与所述身份标签的第二损失值;其中,计算所述第二损失值所使用的损失函数为:
LOSS=LOSStriplet+LOSSOIM
式中,LOSStriplet为所述三元损失函数,LOSSOIM为所述在线实例匹配损失函数,且LOSStriplet和LOSSOIM的计算公式为:
Figure BDA0003433354410000031
式中,M为距离边界常量,Dpos表示同一人的特征对之间的欧氏距离,Dneg表示不同人的特征对之间的欧氏距离,logpt表示第t个特征的对数似然函数,L为特征总数。
为实现上述目的,根据本发明实施例的又一个方面,提供了一种行人重识别方法。
本发明实施例的一种行人重识别方法,包括:将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征;其中,所述行人重识别模型包括特征提取网络和特征金字塔网络,且使用模型训练方法训练得到;
获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集;
计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。
为实现上述目的,根据本发明实施例的另一方面,提供了一种用于行人重识别的模型训练装置。
本发明实施例的一种用于行人重识别的模型训练装置,包括:特征提取模块,用于将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图;其中,所述训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签;
特征融合模块,用于将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图;
行人重识别模块,用于对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值;
参数调整模块,用于根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。
可选地,所述多个第一特征提取层为所述特征提取网络的第3、4和5层,所述多个第二特征提取层为所述特征金字塔网络的第3、4和5层;
所述特征融合模块,还用于
通过可变卷积层,将所述特征提取网络的第4层与所述特征金字塔网络的第5层进行融合,得到所述特征金字塔网络的第4层;
通过所述可变卷积层,将所述特征提取网络的第3层与所述特征金字塔网络的第4层进行融合,得到所述特征金字塔网络的第3层,并作为所述训练样本的融合特征图。
可选地,所述特征融合模块,还用于
对所述特征金字塔网络的第5层进行设定倍数的上采样,得到与所述特征提取网络的第4层相同大小的上采样结果;
采用可变卷积层对所述特征提取网络的第4层进行特征提取,得到特征提取结果;
以通道叠加的方式,将所述特征提取结果与所述上采样结果进行融合。
可选地,所述行人重识别模块,还用于
对所述融合特征图进行特征提取和通道压缩,得到所述训练样本的行人重识别特征;
计算所述行人重识别特征与设定的正样本特征和负样本特征之间的相似度,得到所述行人重识别特征属于目标标签的概率。
可选地,所述行人重识别模块,还用于
对所述融合特征图中每个行人对应的目标框进行中心点采样,并在所述中心点周围进行采样,以构建每个行人的候选特征集;
根据所述行人身份,从同一人的候选特征集以及不同人的候选特征集中分别选择候选特征,以构建同一人的特征对和不同人的特征对;
根据所述特征对,计算所述行人身份与所述身份标签的第二损失值;其中,计算所述第二损失值所使用的损失函数为:
LOSS=LOSStriplet+LOSSOIM
式中,LOSStriplet为所述三元损失函数,LOSSOIM为所述在线实例匹配损失函数,且LOSStriplet和LOSSOIM的计算公式为:
Figure BDA0003433354410000061
式中,M为距离边界常量,Dpos表示同一人的特征对之间的欧氏距离,Dneg表示不同人的特征对之间的欧氏距离,logpt表示第t个特征的对数似然函数,L为特征总数。
为实现上述目的,根据本发明实施例的又一个方面,提供了一种行人重识别装置。
本发明实施例的一种行人重识别装置,包括:第一特征确定模块,用于将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征;其中,所述行人重识别模型包括特征提取网络和特征金字塔网络,且使用如权利要求1-5的任一项所述的方法训练得到;
第二特征确定模块,用于获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集;
检索识别模块,用于计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。
为实现上述目的,根据本发明实施例的再一方面,提供了一种电子设备。
本发明实施例的一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的一种用于行人重识别的模型训练方法。
为实现上述目的,根据本发明实施例的再一方面,提供了一种计算机可读介质。
本发明实施例的一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的一种用于行人重识别的模型训练方法。
上述发明中的一个实施例具有如下优点或有益效果:采用可变卷积层与特征金字塔网络相结合的结构,将特征金字塔网络的当前特征提取层输出的第二特征图与特征提取网络的上一特征提取层输出的第一特征图进行融合,并输出特征金字塔网络最后一个尺度的第二特征图,实现了无锚框、单步策略的目标检测,减少了计算量,同时可以更好的聚合多尺度特征,解决了尺度不对齐的问题。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是本发明实施例的用于行人重识别的模型训练方法的主要步骤的示意图;
图2是本发明实施例的行人重识别模型的网络框架示意图;
图3是本发明实施例的用于行人重识别的模型训练方法的主要流程示意图;
图4是本发明实施例的三元OIM损失示意图;
图5是本发明实施例的行人重识别方法的主要流程示意图;
图6是本发明实施例的行人重识别方法的检索原理示意图;
图7是本发明实施例的用于行人重识别的模型训练装置的主要模块的示意图;
图8是本发明实施例的行人重识别装置的主要模块的示意图;
图9是本发明实施例可以应用于其中的示例性***架构图;
图10是适用于来实现本发明实施例的电子设备的计算机装置的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是本发明实施例的用于行人重识别的模型训练方法的主要步骤的示意图。如图1所示,本发明实施例的用于行人重识别的模型训练方法,主要包括如下步骤:
步骤S101:将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图。其中,训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签。行人图像可以是多个摄像头拍摄得到的图像或者视频,目标框标签可以是行人的真实位置,身份标签可以是行人的真实身份。
将训练样本集的训练样本输入至特征提取网络,比如残差网络(ResidualNetwork,ResNet)进行下采样特征提取。特征提取网络包括多个第一特征提取层,每个第一特征提取层会输出一个相应的第一特征图。
步骤S102:将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图。特征金字塔网络包括多个第二特征提取层,每个第二特征提取层会输出一个相应的第二特征图。
将每个训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中将当前层级的第二特征提取层输出的第二特征图与步骤S101下采样形成的、上一层级的第一特征提取层输出的第一特征图进行融合,并在融入过程中加入可变卷积层,以在训练过程中不断调整感受野,使感受野能够更好的拟合行人的真实位置区域,同时只输出特征金字塔网络最后一个尺度的第二特征图。
此处的层级是指网络层级。比如,通过可变卷积层,将特征金字塔网络第5层输出的第二特征图与特征提取网络第4层输出的第一特征图进行融合。再比如,通过可变卷积层,将特征金字塔网络第4层输出的第二特征图与特征提取网络第3层输出的第一特征图进行融合。
步骤S103:对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值。损失函数包括两类,一类用于计算目标检测任务的损失值,可称为第一损失函数;另一类用于计算身份识别任务的损失值,可称为第二损失函数。
目标检测包括目标框的回归和目标分类,即该步骤需对融合特征图进行行人的目标框回归和目标分类,得到行人位置,之后根据行人位置与目标框标签,计算设定第一损失函数的第一损失值。同时对融合特征图进行行人的身份识别,得到行人身份,之后根据行人身份和身份标签,计算设定二损失函数的第二损失值。
步骤S104:根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。通过反向传播的方式,更新调整特征提取网络和特征金字塔网络的参数,以使损失函数最小化,完成模型训练,得到行人重识别模型。
图2是本发明实施例的行人重识别模型的网络框架示意图。如图2所示,本发明实施例的行人重识别模型的基础框架是FCOS,包括特征提取网络和特征金字塔网络。其中,特征提取网络包括3个第一特征提取层,分别为第3、4和5层,可记为C3、C4、C5,采样步长分别为1/8、1/16、1/32;特征金字塔网络同样包括3个第二特征提取层,分别为第3、4和5层,可记为P3、P4、P5。
行人重识别模型对图像的处理过程为:将行人图像输入至特征提取网络(比如ResNet50)进行下采样特征提取,之后进入特征金字塔网络进行上采样,在上采样的过程中与之前下采样形成的特征图进行融合,并在融合的过程中加入可变卷积层,使感受野拟合行人真实区域。然后在上采样的最后一个特征图(即P3)上继续采用可变卷积层来提取特征,接着采用压缩层(flatten层)压缩特征图,形成行人重识别特征(Re-id特征)。
对于行人重识别任务而言,除需获取行人的Re-id特征,还需要定位行人的位置。具体地,同样采用上采样的最后一个特征图,分别进行目标框的回归和行人的分类,最后输出结果为检测出的行人的具***置、身份类别以及置信度。
图3是本发明实施例的用于行人重识别的模型训练方法的主要流程示意图。如图3所示,本发明实施例的用于行人重识别的模型训练方法,主要包括如下步骤:
步骤S301:将训练样本集的训练样本输入至特征提取网络进行特征提取,得到特征提取网络的多个第一特征提取层输出的第一特征图。以特征提取网络为ResNet50为例,本步骤将the Person Re-identification in the Wild(PRW)公开数据集的图像(包含从6个摄像头拍摄的共11816帧图像)输入至ResNet50网络,并将Resnet50网络中的第3、4、5层特征提取出来,分别记为C3、C4、C5,采样步长分别为1/8、1/16、1/32。所有图像均包括行人的目标框标签和身份标签。
步骤S302:将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层和通道叠加的方式,将特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的第一特征图进行融合,得到训练样本的融合特征图。本步骤中上采用用于恢复图像大小。
如前所述,在上采样过程中,同样将特征金字塔网络的第3、4、5层特征提取出来记为P3、P4、P5。之后将C4与P5进行融合,将C3与P4进行融合,融合的方式相同,均为通道叠加。其中,通道叠加是指将每一层通道的元素对应相加。
下面以C4与P5的融合进行说明:如图2所示的融合过程,首先将P5进行设定倍数的上采样,得到C4相同大小的上采样结果;然后采用可变卷积层对C4进行特征提取,得到特征提取结果;最后以通道叠加的方式,将特征提取结果与上采样结果进行融合,得到与C4同层级的P4。实施例中,由于C4、C5的采样步长为1/16、1/32,为了将P5变成与C4相同大小,需要进行2倍上采样。
上述处理通过采用可变卷积层,可以在训练的过程中不断调整自己的感受野来更好的拟合目标位置区域,这样可以不使用锚框就可以定位目标的区域,减少了计算量。同时采用通道叠加的方式进行融合,可以更好的聚合多尺度特征,而且本步骤仅输出特征金字塔网络的最后一个尺度,避免了尺度不对齐的缺陷。
步骤S303:对融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份。对融合特征图进行行人的目标检测属于现有技术。对融合特征图进行身份识别可以通过以下手段实现:对融合特征图进行特征提取和通道压缩,得到训练样本的行人重识别特征;计算行人重识别特征与设定的正样本特征和负样本特征之间的相似度,得到行人重识别特征属于目标标签的概率。
实施例中,将融合特征图经过一个3×3的可变卷积层进行特征提取,得到最后的特征图F,之后经过flatten层将特征图F的每个通道压缩为1维的特征向量,压缩方式可以是全局平均池化。压缩所得的特征向量即Re-id特征。
步骤S304:根据行人位置与目标框标签,计算设定的第一损失函数对应的第一损失值。目标检测任务包括目标框的回归和目标的分类,对于目标框的回归可以采用Distance-IOU损失函数,对于目标的分类可以采用Softmax损失函数。其中,IOU的全称为Intersection over Union,即交并比,用于计算预测出的行人位置与目标框标签的交并比。Distance-IOU损失可以直接最小化行人位置与目标框标签之间的距离。Softmax用于多分类过程中,将多个神经元的输出映射到(0,1)区间内,可以评估分类结果的好坏。损失函数的具体公式为现有技术。
步骤S305:根据行人身份与身份标签,计算设定的第二损失函数对于的第二损失值。本步骤用于对带有身份标签的目标框,以及网络检测出的无身份标签的目标框上进行中心点采样和中心点周围(为中心点附近指定范围内)采样,计算第二损失函数的损失值。其中,第二损失函数用于监督行人重识别特征,可以为在线实例匹配损失函数(OnlineInstance Matching,简称OIM)和三元损失函数之和,可称为三元OIM损失函数。
下面对OIM损失函数和三元损失函数的构造过程进行分别说明。
OIM将训练样本集中所有带身份标签个体的特征中心保存在查找表T1中作为正样本,即T1={v1,v2,……,vL},L为特征总数(即训练样本集中带身份标签的Id总数),每个特征的维度记为D。同时将图像中没有身份标签,但是被网络检测出的个体的特征中心保存在查找表T2中作为负样本,即T2={u1,u2,……,uQ},Q为没有身份标签的Id总数,每个特征的维度同样为D。
随着模型训练过程,每一轮迭代都会动态更新查找表T2中的特征,即查找表T2为动态表。Id为身份标签的标识,比如Id=m和Id=n代表两个不同的行人。正样本特征即查找表T1的全部特征,负样本特征即查找表T2的全部特征。
特征中心的确定过程如下:在网络输出的特征图上选取标签框的中心像素点作为采样点,将特征图的每个通道上在该位置的像素点取出组成一个特征向量,该特征向量即特征中心。结合图4,中心像素点在目标框(即用于框选行人的矩形框)的中心。在每一次迭代过程中,假设输入特征为x,标签为i,OIM损失分别计算特征x与查找表T1和查找表T2中所有特征的相似度,计算方式是T1Tx和T2Tx。则特征x属于标签i的概率如下:
Figure BDA0003433354410000121
式中,τ=0.1,为超参,用于控制概率分布的平缓程度;[·]T表示转置;vi表示标签i的特征向量;vj表示查找表T1的第j个特征向量;uk表示查找表T2的第k个特征向量。
OIM的目的是最小化负的对数似然损失函数,故OIM损失函数为:
LOSSOLM=-Ex[logpt],t=1,2,......,L 公式2
式中,logpt表示查找表T1的第t个特征的对数似然函数。
上述OIM损失只计算输入特征x与查找表T1、T2中所有特征的相似度,输入特征之间没有进行比较,而且对数似然损失无法表达出特征之间的距离度量。因此本实施例设计了三元OIM损失函数,具体如下。
对于输入图像的每个行人,首先采用中心点采样法,对行人对应的目标框进行中心点采样,并在中心点周围选取几个采样点作为正样本,目的是使同一个行人的特征距离变得较近,不同行人的特征变得较远。更为具体的,假设对每个行人采样S个特征向量,假设输入图像中有2个行人,则有Xm={xm,1,xm,2,…,xm,S,vm}和Xn={xn,1,xn,2,…,xn,S,vn}作为候选特征集。
上述候选特征集中,m和n是身份标签,xm,1是m的第1个特征向量,以此类推,vm是m在查找表T1的特征向量(即该Id的特征中心向量)。xn,1是n的第1个特征向量,以此类推,vn是n在查找表T1的特征向量(即该Id的特征中心向量)。将每一个特征向量作为一个候选特征。因此,同一个人的正样本对可以从同一个候选特征集中获取,不同人的负样本对可以从不同的候选特征集中获取。则三元损失函数可以用如下公式表示:
Figure BDA0003433354410000131
式中,M为距离边界常量,表示正负样本之间的边界大小;Dpos表示同一人的特征对之间的欧氏距离,Dneg表示不同人的特征对之间的欧氏距离。
最终的三元OIM损失函数可以用如下公式表示:
LOSS=LOSStriplet+LOSSOIM 公式4
图4是本发明实施例的三元OIM损失示意图。如图4所示,三元OIM损失中,OIM损失是比较输入特征x与各个带标签类别的中心和无标签类别的中心之间的距离。其中,带标签类别的中心比如行人1、行人3具有身份标签m和n,其中心即行人1、行人3目标框的中心;无类别标签的中心比如行人2不具有身份标签(即no Id),其中心即行人2目标框的中心。
三元损失则可以分为如下四组比较:1)m类的中心特征、m类中心特征周围采样特征、n类中心特征周围采样特征;2)n类的中心特征、n类中心特征周围采样特征、m类中心特征周围采样特征;3)m类中心特征周围采样特征、m类中心特征周围采样特征、n类中心特征周围采样特征;4)n类中心特征周围采样特征、n类中心特征周围采样特征、m类中心特征周围采样特征。
基于上述关于三元OIM损失的说明,本步骤的具体实现可以为:首先对融合特征图中每个行人对应的目标框进行中心点采样,并在中心点周围进行采样,以构建每个行人的候选特征集;之后根据行人身份,从同一人的候选特征集以及不同人的候选特征集中分别选择候选特征,以构建同一人的特征对和不同人的特征对;最后根据特征对,结合公式1-4,计算行人身份与身份标签的第二损失值。
步骤S306:根据第一损失值和第二损失值,对特征提取网络和特征金字塔网络进行参数调整,完成模型训练,得到行人重识别模型。对于目标检测任务,由于本实施例采用了可变卷积层,因此在训练过程中需要学习可变形卷积核感受野的偏移量。该偏移量可以在梯度反向传播时,通过双线性运算得到。对于身份识别任务,本实施例同样需要在反向传播时进行双线性运算学习可变形卷积的偏移量。
上述实施例,采用特征金字塔网络加可变卷积层,实现了无锚框ROI区域(Regionof Interest,感兴趣区域)定位,同时解决了特征金子塔网络在行人身份重识别任务中的尺度不对齐问题,大幅提升了网络的特征提取效率。在特征金字塔网络最后输出的特征图上同时进行目标检测和身份识别,实现了单步行人重识别功能。另外,本实施例改进了传统的OIM损失,加入了三元损失函数,增加了特征之间的距离度量,提高了检索精度。
图5是本发明实施例的行人重识别方法的主要流程示意图。如图5所示,本发明实施例的行人重识别方法,主要包括如下步骤:
步骤S501:将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征。确定待检索行人的图像样例,该图像样例可以是分割好的行人图像,也可以是未分割的行人图像。对于分割好的行人图像,行人重识别模型无需执行目标检测的过程。
步骤S502:获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集。查询时间区间可以自定义。图像数据所包含的每个行人的第二行人重识别特征构成第二行人重识别特征集。
步骤S503:计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。相似度计算可以通过欧式距离、余弦相似度等实现。实施例中,从图像数据中筛选出满足阈值条件的行人,比如相似度大于设定阈值,该行人即为与待检索行人身份相同的人。
下面结合具体场景,对本发明实施例的行人重识别方法进行进一步说明。
在养老社区中,经常有老人走丢却未能及时发现的情况,这给老年人的人身安全带来极大的隐患。当老年人走丢时,目前最有效的办法是通过养老社区的监控***来查找老人的行踪,即在确定了老人的体貌穿着特征后,在监控视频中肉眼查找符合特征的行人,且需要找到N天内老人所有出现过的地方,用以追踪老人的行踪轨迹。
上述方法不仅耗时,而且如果监控画质不高或者有遮挡、阴影等干扰因素存在的话,会给搜索带来极大的干扰。而应用本实施例的行人重识别方法,只需将带有目标老人的图像或者视频输入到行人重识别装置中就可以在所有摄像头的监控画面中检索出该老人,大大提高了搜索效率。并且,通过对老人的体貌、体态特征进行大量的针对性训练,可以大大提升检索的精度。
图6是本发明实施例的行人重识别方法的检索原理示意图。如图6所示,本发明实施例的行人重识别方法的具体检索流程如下:
(1)定期采集养老社区的老人图像,并赋予对应的身份标签(Id)保存到样例数据库中。图像样例数据库中存储有多个老人的图像样例,各图像样例具有相应的身份标签。
(2)在检索时,首先以待检索老人的身份标签作为查询条件,在样例数据库中查询该身份标签对应的图像样例,将查询出的图像样例输入至训练好的行人重识别模型,得到待检索老人的Re-id特征。假设待检索老人的身份标签Id=m,该身份标签的图像样例为图像样例3,则查询结果为图像样例3。将图像样例3输入至训练好的行人重识别模型,即可得到待检索老人的Re-id特征。
此处需要说明的是,图像样例是已经分割好的老人图像,因此无需执行目标检测的过程。
(3)查询指定时间范围内所有摄像头拍摄的监控视频,将监控视频逐帧输入至行人重识别模型,由行人重识别模型将每帧图像的行人检测出来并提取对应的Re-id特征。
(4)计算待检索老人的Re-id特征与步骤(3)提取的全部行人的Re-id特征之间的相似度,并将相似度与设定阈值比较,确定满足阈值条件的行人图像并输出。此次行人图像即摄像头拍摄的多帧图像中,与待检索老人为同一人的图像。
本实施例可用于丢失老人的查询。当发生老人走丢的情况,可以将老人对应的Id输入到行人重识别装置,短时间内就可以在养老社区内所有摄像头拍摄的画面中搜索老人的行踪,如果检索到与老人特征相符合的画面,便可返回老人的画面信息、出现过的场所信息,及时为寻找走丢老人提供重要线索,且可以实时检索。
图7是根据本发明实施例的用于行人重识别的模型训练装置的主要模块的示意图。如图7所示,本发明实施例的用于行人重识别的模型训练装置700,主要包括:
特征提取模块701,用于将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图。将训练样本集的训练样本输入至特征提取网络,比如ResNet网络进行下采样特征提取。特征提取网络包括多个第一特征提取层,每个第一特征提取层会输出一个相应的第一特征图。
特征融合模块702,用于将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图。特征金字塔网络包括多个第二特征提取层,每个第二特征提取层会输出一个相应的第二特征图。
将每个训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中将当前层级的第二特征提取层输出的第二特征图与下采样形成的、上一层级的第一特征提取层输出的第一特征图进行融合,并在融入过程中加入可变卷积层,以在训练过程中不断调整感受野,使感受野能够更好的拟合行人的真实位置区域,同时只输出特征金字塔网络最后一个尺度的第二特征图。
行人重识别模块703,用于对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值。
目标检测包括目标框的回归和目标分类,即该模块需对融合特征图进行行人的目标框回归和目标分类,得到行人位置,之后根据行人位置与目标框标签,计算设定第一损失函数的第一损失值。同时对融合特征图进行行人的身份识别,得到行人身份,之后根据行人身份和身份标签,计算设定二损失函数的第二损失值。
参数调整模块703,用于根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。通过反向传播的方式,更新调整特征提取网络和特征金字塔网络的参数,以使损失函数最小化,完成模型训练,得到行人重识别模型。
从以上描述可以看出,采用可变卷积层与特征金字塔网络相结合的结构,将特征金字塔网络的当前特征提取层输出的第二特征图与特征提取网络的上一特征提取层输出的第一特征图进行融合,并输出特征金字塔网络最后一个尺度的第二特征图,实现了无锚框、单步策略的目标检测,减少了计算量,同时可以更好的聚合多尺度特征,解决了尺度不对齐的问题。
图8是本发明实施例的行人重识别装置的主要模块的示意图。如图8所示,本发明实施例的行人重识别装置,主要包括:
第一特征确定模块801,用于将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征。确定待检索行人的图像样例,该图像样例可以是分割好的行人图像,也可以是未分割的行人图像。对于分割好的行人图像,行人重识别模型无需执行目标检测的过程。
第二特征确定模块802,用于获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集。将图像数据输入至行人重识别模型,可以输出图像数据所包含行人的第二行人重识别特征,这些第二行人重识别特征构成第二行人重识别特征集。
检索识别模块803,用于计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。相似度计算可以通过欧式距离、余弦相似度等实现。实施例中,从图像数据中筛选出满足阈值条件的行人,比如相似度大于设定阈值,该行人即为与待检索行人身份相同的人。
图9示出了可以应用本发明实施例的行人重识别方法或行人重识别装置的示例性***架构900。
如图9所示,***架构900可以包括终端设备901、902、903,网络904和服务器905。网络904用以在终端设备901、902、903和服务器905之间提供通信链路的介质。网络904可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备901、902、903通过网络904与服务器905交互,以接收或发送消息等。终端设备901、902、903上可以安装有各种通讯客户端应用。终端设备901、902、903可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器905可以是提供各种服务的服务器,例如对管理员利用终端设备901、902、903发送的检索请求进行处理的后台管理服务器。后台管理服务器可以查询待检索行人的图像样例,获取查询时间区间的图像数据,将图像样例、图像数据分别输入至行人重识别模型,得到相应的行人重识别特征,计算行人重识别特征之间的相似度,确定与待检索行人身份相同的行人,将处理结果(例如行人相关图像信息、出现的场所信息)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于行人重识别的模型训练方法一般由服务器905执行,相应地,用于行人重识别的模型训练装置一般设置于服务器905中。
应该理解,图9中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
根据本发明的实施例,本发明还提供了一种电子设备和一种计算机可读介质。
本发明的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的一种用于行人重识别的模型训练方法。
本发明的计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的一种用于行人重识别的模型训练方法。
下面参考图10,其示出了适用于来实现本发明实施例的电子设备的计算机***1000的结构示意图。图10示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,计算机***1000包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有计算机***1000操作所需的各种程序和数据。CPU 1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本发明公开的实施例,上文主要步骤图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行主要步骤图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本发明的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括特征提取模块、特征融合模块、行人重识别模块和参数调整模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,特征提取模块还可以被描述为“将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图;其中,所述训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签;将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图;对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值;根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。
根据本发明实施例的技术方案,采用可变卷积层与特征金字塔网络相结合的结构,将特征金字塔网络的当前特征提取层输出的第二特征图与特征提取网络的上一特征提取层输出的第一特征图进行融合,并输出特征金字塔网络最后一个尺度的第二特征图,实现了无锚框、单步策略的目标检测,减少了计算量,同时可以更好的聚合多尺度特征,解决了尺度不对齐的问题。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种用于行人重识别的模型训练方法,其特征在于,包括:
将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图;其中,所述训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签;
将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图;
对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值;
根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。
2.根据权利要求1所述的方法,其特征在于,所述多个第一特征提取层为所述特征提取网络的第3、4和5层,所述多个第二特征提取层为所述特征金字塔网络的第3、4和5层;
所述通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图,包括:
通过可变卷积层,将所述特征提取网络的第4层与所述特征金字塔网络的第5层进行融合,得到所述特征金字塔网络的第4层;
通过所述可变卷积层,将所述特征提取网络的第3层与所述特征金字塔网络的第4层进行融合,得到所述特征金字塔网络的第3层,并作为所述训练样本的融合特征图。
3.根据权利要求2所述的方法,其特征在于,所述通过可变卷积层,将所述特征提取网络的第4层与所述特征金字塔网络的第5层进行融合,包括:
对所述特征金字塔网络的第5层进行设定倍数的上采样,得到与所述特征提取网络的第4层相同大小的上采样结果;
采用可变卷积层对所述特征提取网络的第4层进行特征提取,得到特征提取结果;
以通道叠加的方式,将所述特征提取结果与所述上采样结果进行融合。
4.根据权利要求1所述的方法,其特征在于,对所述融合特征图进行身份识别,包括:
对所述融合特征图进行特征提取和通道压缩,得到所述训练样本的行人重识别特征;
计算所述行人重识别特征与设定的正样本特征和负样本特征之间的相似度,得到所述行人重识别特征属于目标标签的概率。
5.根据权利要求4所述的方法,其特征在于,通过预设的损失函数,计算所述行人身份与所述身份标签的第二损失值,包括:
对所述融合特征图中每个行人对应的目标框进行中心点采样,并在所述中心点周围进行采样,以构建每个行人的候选特征集;
根据所述行人身份,从同一人的候选特征集以及不同人的候选特征集中分别选择候选特征,以构建同一人的特征对和不同人的特征对;
根据所述特征对,计算所述行人身份与所述身份标签的第二损失值;其中,计算所述第二损失值所使用的损失函数为:
LOSS=LOSStriplet+LOSSOIM
式中,LOSStriplet为所述三元损失函数,LOSSOIM为所述在线实例匹配损失函数,且LOSStriplet和LOSSOIM的计算公式为:
Figure FDA0003433354400000021
式中,M为距离边界常量,Dpos表示同一人的特征对之间的欧氏距离,Dneg表示不同人的特征对之间的欧氏距离,logpt表示第t个特征的对数似然函数,L为特征总数。
6.一种行人重识别方法,其特征在于,包括:
将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征;其中,所述行人重识别模型包括特征提取网络和特征金字塔网络,且使用如权利要求1-5的任一项所述的方法训练得到;
获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集;
计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。
7.一种用于行人重识别的模型训练装置,其特征在于,包括:
特征提取模块,用于将训练样本集输入至特征提取网络进行特征提取,得到所述特征提取网络的多个第一特征提取层输出的第一特征图;其中,所述训练样本集的训练样本包括行人图像,以及不同行人的目标框标签和身份标签;
特征融合模块,用于将归属于同一训练样本的第一特征图输入至特征金字塔网络进行上采样,在上采样过程中,通过可变卷积层,将所述特征金字塔网络的多个第二特征提取层输出的第二特征图与上一层级的所述第一特征图进行融合,得到所述训练样本的融合特征图;
行人重识别模块,用于对所述融合特征图进行行人的目标检测和身份识别,得到相应的行人位置和行人身份,通过预设的损失函数,计算所述行人位置与所述目标框标签的第一损失值,以及所述行人身份与所述身份标签的第二损失值;
参数调整模块,用于根据所述第一损失值和所述第二损失值,对所述特征提取网络和所述特征金字塔网络进行参数调整,以完成模型训练。
8.一种行人重识别装置,其特征在于,包括:
第一特征确定模块,用于将待检索行人的图像样例输入至训练好的行人重识别模型,得到所述待检索行人的第一行人重识别特征;其中,所述行人重识别模型包括特征提取网络和特征金字塔网络,且使用如权利要求1-5的任一项所述的方法训练得到;
第二特征确定模块,用于获取查询时间区间所拍摄的图像数据,将所述图像数据输入至所述行人重识别模型,得到所述图像数据所包含行人的第二行人重识别特征集;
检索识别模块,用于计算所述第一行人重识别特征与所述第二行人重识别特征集的第二行人重识别特征之间的相似度,以根据所述相似度,从所述图像数据中确定与所述待检索行人身份相同的行人。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202111602234.XA 2021-12-24 2021-12-24 一种模型训练方法、行人重识别方法和装置 Active CN114299539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111602234.XA CN114299539B (zh) 2021-12-24 2021-12-24 一种模型训练方法、行人重识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111602234.XA CN114299539B (zh) 2021-12-24 2021-12-24 一种模型训练方法、行人重识别方法和装置

Publications (2)

Publication Number Publication Date
CN114299539A true CN114299539A (zh) 2022-04-08
CN114299539B CN114299539B (zh) 2024-08-13

Family

ID=80969883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111602234.XA Active CN114299539B (zh) 2021-12-24 2021-12-24 一种模型训练方法、行人重识别方法和装置

Country Status (1)

Country Link
CN (1) CN114299539B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019347A (zh) * 2022-06-24 2022-09-06 北京交通大学 基于跨类别矩阵满秩约束的行人搜索方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688883A (zh) * 2019-01-14 2020-01-14 成都通甲优博科技有限责任公司 车辆和行人检测方法及装置
CN111275010A (zh) * 2020-02-25 2020-06-12 福建师范大学 一种基于计算机视觉的行人重识别方法
CN111783576A (zh) * 2020-06-18 2020-10-16 西安电子科技大学 基于改进型YOLOv3网络和特征融合的行人重识别方法
CN113516012A (zh) * 2021-04-09 2021-10-19 湖北工业大学 一种基于多层级特征融合的行人重识别方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688883A (zh) * 2019-01-14 2020-01-14 成都通甲优博科技有限责任公司 车辆和行人检测方法及装置
CN111275010A (zh) * 2020-02-25 2020-06-12 福建师范大学 一种基于计算机视觉的行人重识别方法
CN111783576A (zh) * 2020-06-18 2020-10-16 西安电子科技大学 基于改进型YOLOv3网络和特征融合的行人重识别方法
CN113516012A (zh) * 2021-04-09 2021-10-19 湖北工业大学 一种基于多层级特征融合的行人重识别方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
范红超;李万志;章超权;: "基于Anchor-free的交通标志检测", 地球信息科学学报, no. 01, 25 January 2020 (2020-01-25) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019347A (zh) * 2022-06-24 2022-09-06 北京交通大学 基于跨类别矩阵满秩约束的行人搜索方法及***

Also Published As

Publication number Publication date
CN114299539B (zh) 2024-08-13

Similar Documents

Publication Publication Date Title
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、***、设备和介质
US20210342643A1 (en) Method, apparatus, and electronic device for training place recognition model
WO2019001481A1 (zh) 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
CN110503076B (zh) 基于人工智能的视频分类方法、装置、设备和介质
JP7393472B2 (ja) 陳列シーン認識方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN108564102A (zh) 图像聚类结果评价方法和装置
CN114359974B (zh) 一种人体姿态的检测方法、设备及存储介质
CN111611874A (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN110941978B (zh) 一种未识别身份人员的人脸聚类方法、装置及存储介质
CN111639970A (zh) 基于图像识别的物品价格确定方法及相关设备
CN112766284B (zh) 图像识别方法和装置、存储介质和电子设备
CN113052039B (zh) 一种交通路网行人密度检测的方法、***及服务器
US20230095533A1 (en) Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling
CN111582154A (zh) 基于多任务骨架姿态划分部件的行人重识别方法
CN117854156B (zh) 一种特征提取模型的训练方法和相关装置
CN114943937A (zh) 行人重识别方法、装置、存储介质及电子设备
CN114299539B (zh) 一种模型训练方法、行人重识别方法和装置
Gao et al. Occluded person re-identification based on feature fusion and sparse reconstruction
CN111914809B (zh) 目标对象定位方法、图像处理方法、装置和计算机设备
CN113190701A (zh) 图像检索方法、装置、设备、存储介质以及计算机程序产品
CN116824641A (zh) 姿态分类方法、装置、设备和计算机存储介质
CN116994319A (zh) 训练模型的方法和人脸识别方法、设备、介质
CN113792569B (zh) 对象识别方法、装置、电子设备及可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant