CN110321862A - 一种基于紧致三元损失的行人再识别方法 - Google Patents
一种基于紧致三元损失的行人再识别方法 Download PDFInfo
- Publication number
- CN110321862A CN110321862A CN201910614505.XA CN201910614505A CN110321862A CN 110321862 A CN110321862 A CN 110321862A CN 201910614505 A CN201910614505 A CN 201910614505A CN 110321862 A CN110321862 A CN 110321862A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- feature
- loss
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于紧致三元损失的行人再识别方法,该方法包括:将训练集行人图像输入预训练深度学习模型,得到第一行人图像特征;根据紧致三元损失函数计算第一行人图像特征的紧致三元损失;对第一行人图像特征进行归一化,得到第二行人图像特征;根据交叉熵损失函数计算第二行人图像特征的交叉熵损失;结合紧致三元损失和交叉熵损失,优化行人再识别网络框架;基于优化行人再识别网络框架进行行人识别。本发明充分利用紧致三元损失与交叉熵损失的优势,联合两种损失来执行多任务操作、学习行人特征,进一步提高了行人再识别的匹配正确率。
Description
技术领域
本发明属于模式识别、人工智能领域,具体涉及一种基于紧致三元损失的行人再识别方法。
背景技术
为了保障人民生命、财产安全,在公园、学校、医院等公共场所均安装有大量的监控摄像头,构成了大规模的分布式监控***。行人再识别(Person Re-Identification)技术能够在不同摄像头下搜索相同行人,进而定位目标行人。然而,由于行人姿势变化,光照变化,摄像头角度不同以及遮挡等众多原因,行人再识别技术仍面临着巨大的挑战。研究者一直致力于探索更具判别性的行人特征,以提高行人识别的准确率。
近年来,研究者将深度学习方法应用到行人再识别领域,使得行人再识别性能大幅提高。从深度模型所用损失函数的角度可以将深度学习方法大致分为三类:第一类是执行排序任务的方法,Varior等人利用对比损失优化孪生神经网络,使相同行人特征相互靠近,不同行人特征相互远离;Hermans等人提出难样本三元损失函数,使小批量中正样本对之间的最大距离小于负样本对之间的最小距离。第二类是执行分类任务的方法,Sun等人将深度模型的特征图划分为六部分,之后利用交叉熵损失函数为每部分特征进行分类,最后串联六部分特征用以表示行人图像;Si等人从多个分类模型中提取判别性特征,之后利用融合策略集成来自不同模型的特征表示,该方法进一步提高了行人再识别的准确率。第三类是执行多任务的方法,Bai等人将神经网络分为三个分支,其中前两个分支执行分类任务分别学习整体和局部特征,第三个分支执行排序任务,最后联合三个分支的损失共同优化神经网络;Wang等人提出多颗粒网络框架,之后利用三元组损失和交叉熵损失学习不同尺度的行人特征,并联合两种损失共同优化网络结构。然而,以上方法并没有考虑行人图像特征之间的关系,以至于相同行人图像特征差异较大,不同行人图像特征判别性不强。
发明内容
本发明的目的是要解决相同行人图像特征之间变化太大,不同行人图像特征之间变化不明显的技术问题,为此,本发明提供一种基于紧致三元损失的行人再识别方法。
为了实现所述目的,本发明提出的一种基于紧致三元损失的行人再识别方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft;
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv;
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
步骤S7,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果。
可选地,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft。
可选地,所述步骤S3中,所述紧致三元损失函数为LC表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重。
可选地,所述难样本三元损失函数LT表示为:
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft可包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与a类行人具有不同标签的行人特征,D(·,·)为距离函数。
可选地,所述正则项LI表示为:
其中,ca是小批量行人图像中第a类行人的特征中心,xak是小批量行人图像中第a类行人的第k幅图像特征,P是小批量行人图像中行人类别数,K是每一类行人的图像数量。
可选地,所述第a类行人的特征中心ca表示为:
可选地,所述正则项LE表示为:
其中,P是小批量行人图像中行人类别数,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像特征的中心。
可选地,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
可选地,所述交叉熵损失函数LID表示为:
其中,q(i)表示行人图像真实标签的分布,C为训练集中行人的总类别数目。
可选地,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像内的分类损失LIDT:
其中,表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量;
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
本发明的有益效果为:本发明通过紧致三元损失函数执行排序任务,这不仅进一步减小相同行人图像特征之间的变化,而且增大不同行人图像特征之间的变化,同时通过交叉熵损失函数执行分类任务,将两种任务融合于一个网络结构中,进一步提高了行人图像特征的判别性,提高了行人再识别搜索的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240,天津市自然科学基金重点项目No.17JCZDJC30600,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201800002,天津市高等教育创新团队基金项目和天津师范大学研究生科研实践重点项目No.YZ1260021937的资助。
附图说明
图1是根据本发明一实施例的一种基于紧致三元损失的行人再识别方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例的一种基于紧致三元损失的行人再识别方法流程图,下面以图1为例来说明本发明的一些具体实现流程,如图1所示,所述基于紧致三元损失的行人再识别方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
在本发明一实施例中,所采用的已预训练的深度学习模型为ResNet-50,其中,将ResNet-50中第四个块的步长由原来的2改为1,并且去掉最后一个全连接层。
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft;
进一步地,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
在本发明一实施例中,所述对训练集的行人图像进行预处理具体为:将行人图像的大小裁剪为预设大小,比如384×128,然后为裁剪后的行人图像填充预设数量的像素,比如填充10个值为0的像素,再次将所述行人图像随机裁剪到预设大小,即384×128,并把所有的像素值按比例缩小至预设范围之间,比如0到1之间,然后将每个像素值减去训练集中所有行人图像的像素平均值,再除以训练集中所有行人图像的像素标准方差。
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft。
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
其中,所述,紧致三元损失函数LC可表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重。
在本发明一实施例中,在Market1501数据库中进行测试时,λ和η可以分别设置为0.8和0.6。
进一步地,所述紧致三元损失函数LC中,所述难样本三元损失函数LT表示为:
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft可包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与第a类行人具有不同标签的行人特征,D(·,·)为距离函数,比如欧式距离函数。
在本发明一实施例中,小批量行人图像的数量与行人图像总数量的比例小于0.5或者远小于0.5,比如所述输入图像中的小批量一共有16类行人,每类行人有4幅图像,即P可设置为16,K可设置为4。在Market1501数据库中进行测试时,m=0.3。
进一步地,所述紧致三元损失函数LC中,所述正则项LI表示为:
其中,ca是小批量行人图像中第a类行人的特征中心。
进一步地,所述正则项LI中,所述第a类行人的特征中心ca表示为:
进一步地,所述紧致三元损失函数LC中,所述正则项LE表示为:
其中,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像的特征中心,cb可按照上述ca的计算方法来计算。
在本发明一实施例中,在Market1501数据库中进行测试时,β=0.9。
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv;
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
其中,所述预训练深度学习模型、批归一化层以及全连接层组成本公开中的行人再识别网络框架。
进一步地,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
进一步地,所述步骤S51中,所述行人图像特征fv属于第i类别的预测类别概率p(i)表示为:
其中,ui表示全连接层中第i个神经元的激活值,uj表示全连接层中第j个神经元的激活值,C为训练集中行人的总类别数目。
在本发明一实施例中,在Market 1501数据库中进行测试时,C=751。
进一步地,所述步骤S52中,所述交叉熵损失函数LID表示为:
其中,q(i)表示行人图像真实标签的分布,其可表示为:
其中,t是行人图像的真实标签。
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
进一步地,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像的分类损失LIDT,其可表示为:
其中,表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量。
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
其中,所述最终损失L可表示为:
L=LIDT+LC。
其中,通过迭代计算,调整所述行人再识别网络框架的参数,以使得所述最终损失L最小。
其中,可借助随机梯度下降法进行迭代计算。
步骤S7,在测试阶段,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果。
以网上公开的行人再识别大型数据库作为测试对象,比如在Market 1501数据库上测试时,本发明行人再识别正确搜索率达到94.6%(rank-1)和84.2(mAP)。本发明行人再识别方法有效地减小了相同行人图像特征之间的变化,增大了不同行人图像特征之间的变化,利用紧致三元损失函数和交叉熵损失函数提高特征的判别性,很大程度地提高了行人再识别正确搜索率,由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (10)
1.一种基于紧致三元损失的行人再识别方法,其特征在于,所述方法包括以下步骤:
步骤S1,获取预训练深度学习模型,并对其进行参数初始化;
步骤S2,将训练集的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft;
步骤S3,设置紧致三元损失函数,并根据所述紧致三元损失函数计算所述第一行人图像特征ft的紧致三元损失;
步骤S4,在所述预训练深度学习模型后增加批归一化层对所述第一行人图像特征ft进行归一化操作,得到第二行人图像特征fv;
步骤S5,在所述批归一化层后增加全连接层作为分类器对所述第二行人图像特征fv进行分类,设置交叉熵损失函数,并根据分类结果和所述交叉熵损失函数计算所述第二行人图像特征fv的交叉熵损失;
步骤S6,结合所述紧致三元损失和交叉熵损失,对于由所述预训练深度学习模型、批归一化层以及全连接层组成的行人再识别网络框架进行优化,得到最优行人再识别网络框架;
步骤S7,将测试行人图像输入所述最优行人再识别网络框架中,得到行人识别特征,并基于所述行人识别特征对于所述测试行人图像进行识别,得到行人识别结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21,对训练集的行人图像进行预处理;
步骤S22,将预处理后的行人图像输入所述预训练深度学习模型,得到与所述训练集行人图像对应的第一行人图像特征ft。
3.根据权利要求1所述的方法,其特征在于,所述步骤S3中,所述紧致三元损失函数为LC表示为:
LC=LT+λLI+ηLE,
其中,LT是难样本三元损失函数,LI是用于减小相同行人图像特征之间的差异的正则项,LE是用于增大不同行人图像特征之间变化的正则项,λ和η分别表示控制行人图像特征类间和类内关系重要性的权重。
4.根据权利要求3所述的方法,其特征在于,所述难样本三元损失函数LT表示为:
其中,P是小批量行人图像中行人类别数,K是每一类行人的图像数量,m是预设的阈值,第一行人图像特征ft可包括特征xak、特征xp和特征xn,其中,特征xak是小批量行人图像中第a类行人的第k幅图像特征,特征xp是小批量行人图像中与第a类行人具有相同标签的行人特征,特征xn是小批量行人图像中与a类行人具有不同标签的行人特征,D(·,·)为距离函数。
5.根据权利要求3所述的方法,其特征在于,所述正则项LI表示为:
其中,ca是小批量行人图像中第a类行人的特征中心,xak是小批量行人图像中第a类行人的第k幅图像特征,P是小批量行人图像中行人类别数,K是每一类行人的图像数量。
6.根据权利要求5所述的方法,其特征在于,所述第a类行人的特征中心ca表示为:
7.根据权利要求3所述的方法,其特征在于,所述正则项LE表示为:
其中,P是小批量行人图像中行人类别数,β是预先设置的阈值,ca和cb分别表示第a类和第b类行人图像特征的中心。
8.根据权利要求1所述的方法,其特征在于,所述步骤S5包括以下步骤:
步骤S51,在所述批归一化层后增加一个全连接层作为分类器对所述第二行人图像特征fv进行分类,计算所述第二行人图像特征fv属于第i类别的预测类别概率p(i);
步骤S52,基于所述预测类别概率p(i),利用所述交叉熵损失函数LID计算所述第二行人图像特征fv的交叉熵损失。
9.根据权利要求8所述的方法,其特征在于,所述交叉熵损失函数LID表示为:
其中,q(i)表示行人图像真实标签的分布,C为训练集中行人的总类别数目。
10.根据权利要求1所述的方法,其特征在于,所述步骤S6包括以下步骤:
步骤S61,计算小批量行人图像内的分类损失LIDT:
其中,表示小批量行人图像中第s个行人图像的分类损失值,P是小批量行人图像中行人类别数,K是每一类行人的图像数量;
步骤S62,将所述紧致三元损失与交叉熵损失相加得到的总损失作为所述行人再识别网络框架的最终损失L,并基于所述最终损失L对于所述行人再识别网络框架进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910614505.XA CN110321862B (zh) | 2019-07-09 | 2019-07-09 | 一种基于紧致三元损失的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910614505.XA CN110321862B (zh) | 2019-07-09 | 2019-07-09 | 一种基于紧致三元损失的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110321862A true CN110321862A (zh) | 2019-10-11 |
CN110321862B CN110321862B (zh) | 2023-01-10 |
Family
ID=68121616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910614505.XA Active CN110321862B (zh) | 2019-07-09 | 2019-07-09 | 一种基于紧致三元损失的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321862B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126155A (zh) * | 2019-11-25 | 2020-05-08 | 天津师范大学 | 一种基于语义约束生成对抗网络的行人再识别方法 |
CN111292801A (zh) * | 2020-01-21 | 2020-06-16 | 西湖大学 | 蛋白质质谱结合深度学习评估甲状腺结节的方法 |
CN111445899A (zh) * | 2020-03-09 | 2020-07-24 | 咪咕文化科技有限公司 | 语音情绪识别方法、装置及存储介质 |
CN111553428A (zh) * | 2020-04-30 | 2020-08-18 | 北京百度网讯科技有限公司 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
CN112131970A (zh) * | 2020-09-07 | 2020-12-25 | 浙江师范大学 | 一种基于多通道时空网络和联合优化损失的身份识别方法 |
CN112668544A (zh) * | 2021-01-13 | 2021-04-16 | 昆明理工大学 | 一种基于难样本混淆增强特征鲁棒性的行人重识别方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984915A (zh) * | 2014-02-28 | 2014-08-13 | 中国计量学院 | 一种监控视频中行人重识别方法 |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
US20180089540A1 (en) * | 2016-09-23 | 2018-03-29 | International Business Machines Corporation | Image classification utilizing semantic relationships in a classification hierarchy |
CN107953329A (zh) * | 2016-10-17 | 2018-04-24 | 中国科学院深圳先进技术研究院 | 物体识别和姿态估计方法、装置及机械臂抓取*** |
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
CN108960184A (zh) * | 2018-07-20 | 2018-12-07 | 天津师范大学 | 一种基于异构部件深度神经网络的行人再识别方法 |
CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
CN109583502A (zh) * | 2018-11-30 | 2019-04-05 | 天津师范大学 | 一种基于对抗擦除注意力机制的行人再识别方法 |
CN109615452A (zh) * | 2018-10-29 | 2019-04-12 | 华中科技大学 | 一种基于矩阵分解的产品推荐方法 |
CN109711366A (zh) * | 2018-12-29 | 2019-05-03 | 浙江大学 | 一种基于群组信息损失函数的行人重识别方法 |
-
2019
- 2019-07-09 CN CN201910614505.XA patent/CN110321862B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984915A (zh) * | 2014-02-28 | 2014-08-13 | 中国计量学院 | 一种监控视频中行人重识别方法 |
US20180089540A1 (en) * | 2016-09-23 | 2018-03-29 | International Business Machines Corporation | Image classification utilizing semantic relationships in a classification hierarchy |
CN107953329A (zh) * | 2016-10-17 | 2018-04-24 | 中国科学院深圳先进技术研究院 | 物体识别和姿态估计方法、装置及机械臂抓取*** |
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
CN108960184A (zh) * | 2018-07-20 | 2018-12-07 | 天津师范大学 | 一种基于异构部件深度神经网络的行人再识别方法 |
CN109615452A (zh) * | 2018-10-29 | 2019-04-12 | 华中科技大学 | 一种基于矩阵分解的产品推荐方法 |
CN109583502A (zh) * | 2018-11-30 | 2019-04-05 | 天津师范大学 | 一种基于对抗擦除注意力机制的行人再识别方法 |
CN109711366A (zh) * | 2018-12-29 | 2019-05-03 | 浙江大学 | 一种基于群组信息损失函数的行人重识别方法 |
Non-Patent Citations (5)
Title |
---|
SHUANG LIU 等: ""Pedestrian Retrieval via Part-Based Gradation Regularization in Sensor Networks"", 《IEEE》 * |
TONGZHEN SI 等: ""Discrimination-Aware Integration for Person Re-Identification in Camera Networks"", 《IEEE》 * |
WEIHUA CHEN 等: ""A Multi-Task Deep Network for Person Re-Identification"", 《PROCEEDINGS OF THE THIRTY-FIRST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
ZHONG ZHANG 等: ""Hybrid Cross Deep Network for Domain Adaptation and Energy Saving in Visual Internet of Things"", 《IEEE》 * |
宋婉茹 等: ""行人重识别研究综述"", 《智能***学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126155A (zh) * | 2019-11-25 | 2020-05-08 | 天津师范大学 | 一种基于语义约束生成对抗网络的行人再识别方法 |
CN111126155B (zh) * | 2019-11-25 | 2023-04-21 | 天津师范大学 | 一种基于语义约束生成对抗网络的行人再识别方法 |
CN111292801A (zh) * | 2020-01-21 | 2020-06-16 | 西湖大学 | 蛋白质质谱结合深度学习评估甲状腺结节的方法 |
CN111445899A (zh) * | 2020-03-09 | 2020-07-24 | 咪咕文化科技有限公司 | 语音情绪识别方法、装置及存储介质 |
CN111553428A (zh) * | 2020-04-30 | 2020-08-18 | 北京百度网讯科技有限公司 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
CN111553428B (zh) * | 2020-04-30 | 2024-01-12 | 北京百度网讯科技有限公司 | 用于训练判别模型的方法、装置、设备及可读存储介质 |
CN112131970A (zh) * | 2020-09-07 | 2020-12-25 | 浙江师范大学 | 一种基于多通道时空网络和联合优化损失的身份识别方法 |
CN112668544A (zh) * | 2021-01-13 | 2021-04-16 | 昆明理工大学 | 一种基于难样本混淆增强特征鲁棒性的行人重识别方法 |
CN112668544B (zh) * | 2021-01-13 | 2022-03-22 | 昆明理工大学 | 一种基于难样本混淆增强特征鲁棒性的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110321862B (zh) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321862A (zh) | 一种基于紧致三元损失的行人再识别方法 | |
CN109034044B (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
CN108038846A (zh) | 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及*** | |
CN112446388A (zh) | 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及*** | |
CN109815886A (zh) | 一种基于改进YOLOv3的行人和车辆检测方法及*** | |
CN113807464B (zh) | 基于改进yolo v5的无人机航拍图像目标检测方法 | |
CN106803069A (zh) | 基于深度学习的人群高兴程度识别方法 | |
CN108256426A (zh) | 一种基于卷积神经网络的人脸表情识别方法 | |
CN109784288B (zh) | 一种基于判别感知融合的行人再识别方法 | |
CN102902956B (zh) | 一种地基可见光云图识别处理方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN106446930A (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN108985192A (zh) | 一种基于多任务深度卷积神经网络的视频烟雾识别方法 | |
CN108596329A (zh) | 基于端到端深度集成学习网络的三维模型分类方法 | |
CN112464911A (zh) | 基于改进YOLOv3-tiny的交通标志检测与识别方法 | |
CN109214308A (zh) | 一种基于焦点损失函数的交通异常图片识别方法 | |
CN106203318A (zh) | 基于多层次深度特征融合的摄像机网络行人识别方法 | |
CN108960184A (zh) | 一种基于异构部件深度神经网络的行人再识别方法 | |
CN112287827A (zh) | 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及*** | |
CN108846334A (zh) | 一种云类别自动识别方法及*** | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN107203752A (zh) | 一种联合深度学习和特征二范数约束的人脸识别方法 | |
CN116311374B (zh) | 一种化工厂工人异常行为识别与预警方法及*** | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |