CN111062430A - 一种基于概率密度函数的行人重识别评价方法 - Google Patents

一种基于概率密度函数的行人重识别评价方法 Download PDF

Info

Publication number
CN111062430A
CN111062430A CN201911273914.4A CN201911273914A CN111062430A CN 111062430 A CN111062430 A CN 111062430A CN 201911273914 A CN201911273914 A CN 201911273914A CN 111062430 A CN111062430 A CN 111062430A
Authority
CN
China
Prior art keywords
training
class
probability density
model
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911273914.4A
Other languages
English (en)
Other versions
CN111062430B (zh
Inventor
廖志梁
王道宁
陶亮
郭宝珠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yicheng Gaoke Dalian Technology Co ltd
Original Assignee
Yicheng Gaoke Dalian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yicheng Gaoke Dalian Technology Co ltd filed Critical Yicheng Gaoke Dalian Technology Co ltd
Priority to CN201911273914.4A priority Critical patent/CN111062430B/zh
Publication of CN111062430A publication Critical patent/CN111062430A/zh
Application granted granted Critical
Publication of CN111062430B publication Critical patent/CN111062430B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种基于概率密度函数的行人重识别评价方法,包括以下步骤:1)行人数据集准备;2)构建Person ReID训练网络,设计损失函数,设置训练参数,开始训练;3)训练过程中保存模型,进行概率密度验证,确定训练停止时间;4)判定训练得到的最终Person ReID模型性能是否满足使用要求。本发明使用随机抽样方法构建训练和测试类内类间图像对,效率更高,实施性更强,更节省资源;利用概率密度函数监控Person ReID训练过程,可以及时调整,节省时间;训练正确率高,训练过程可控性得到有效提升;利用概率密度函数的重叠区域面积与正确率相结合,判定Person ReID模型是否可以实用,可靠性更高;还可以将模型在特征提取上存在的问题直观的暴露出来,为下一步的训练提供指导。

Description

一种基于概率密度函数的行人重识别评价方法
技术领域
本发明涉及图像处理技术领域。
背景技术
目前大部分Person ReID的研究,采用观察训练过程中的正确率、召回率、损失函数(loss)等变量的值来判断何时停止模型训练,以及评价模型的训练结果。而由于上述指标只关注个别变量数值上的变化,无法较全面展示模型在实际测试集上的表现情况。导致模型极易出现过拟合和欠拟合,以及训练得到模型测试结果不达标的情况,进而使训练得到的模型在实际应用中无法使用。
通常情况下,当训练集和验证集的正确率、召回率超过一定阈值(此处以95%为例),loss值小于一定阈值(此处以0.1为例),认为所训练的模型进入收敛状态,可以停止训练保存模型参数。若保存的模型在测试集上的正确率达到一定阈值(此处以95%为例),则认为该模型可以使用。
首先,只由训练和验证数据集的正确率,召回率和loss值的数值来判断模型是否训练完成,存在极大的片面性在Person ReID模型训练时无法反应训练过程的真实情况,容易出现模型过拟合的情况,即训练集和验证集的数值满足条件,但是测试集上无法达标。
其次,只通过保存模型在测试集上的正确率来评价模型的好坏过于笼统,当正确率不满足条件时无法提供关于模型缺陷点的有效反馈,进而使模型的修改变得艰难且没有针对性,极大地增加了模型的修改时间和修改难度。
发明内容
针对上述Person ReID评价方法存在的不足,本发明提供了一种基于概率密度函数的行人重识别评价方法。
本发明为实现上述目的所采用的技术方案是:一种基于概率密度函数的行人重识别评价方法,包括以下步骤:
3)行人数据集准备:
a)使用公开Person ReID数据集合并在一起作为训练数据集;
b)利用训练数据的标签制作验证图像对,分为类内图像对和类间图像对;
c)使用未参与训练数据集构建的公开Person ReID数据集作为测试数据集,按步骤1)-b),制作测试数据类内图像对和类间图像对;
4)构建Person ReID训练网络,设计损失函数,设置训练参数,开始训练,方法如下:
a)选择网络结构,;
b)选择损失函数;
c)开始训练,计算训练过程中每一轮权重更新后训练数据集的正确率,召回率和loss值。
3)训练过程中保存模型,进行概率密度验证,确定训练停止时间,具体方法如下:
a)记录开始训练的第一次权重更新后的正确率,在训练过程中当权重更新后的正确率比上一次记录值增长设定值,保存当前模型,同时将记录值刷新为当前正确率;
b)利用保存的模型对步骤1)-b)中得到的训练数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离dis;
c)对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数I(dis),对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数C(dis);
d)若训练过程中最新保存的模型Si得到的类内和类间图像对的距离概率密度函数均值之差大于上一个保存的模型Si-1得到的类内和类间图像对的距离概率密度函数均值之差,同时正确率和召回率持续增长,loss值持续下降,则认为训练过程正在收敛,在正确率达到一定数值以上时考虑停止训练,保存最终Person ReID模型,否则,认为训练过程发散,无法得到最终Person ReID模型,需要调整后重新训练;
4)利用测试集上的类内类间图像对判定训练得到的最终Person ReID模型性能是否满足使用要求,具体判定方法如下:
a)计算步骤3)中保存的最终模型在测试集上的正确率A;
b)利用步骤3)中保存的最终模型对步骤1)-c)中得到的测试数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离t_dis;
c)对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数TI(dis),对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数TC(dis),利用TI(t_dis)和TC(t_dis)绘制概率密度曲线,若两条曲线的重叠区域面积小于设定值且正确率A大于设定值,则模型满足条件,可以实用,否则,Person ReID模型不达标需要更换策略方法重新训练。
所述步骤1)-a)中,训练数据集的类别数多于10000类,每个类别包含至少10张图像,从属于不同的人的全身图像作为一个单独的类。
所述步骤1)-b)中,类内图像对为:在每个类别中进行不放回的3次抽取,每次随机收取2张图像,构成类内图像对集合;类间图像对:随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像,对这些图像进行排列组合,得到部分图像对;再次随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像,对这些图像进行排列组合,得到另一部分图像对,两部分图像对合在一起构成类内图像对集合。
所述步骤2)-a)中,网络结构采用ResNet34、ResNet50、ResNet101、ResNet152或MobileNet_V3网络。
所述步骤2)-b)中,损失函数采用度量学习损失函数triploss或者变形版分类损失函数Large-Margin Softmax Loss、SphereFace_loss。
所述步骤3)-a)中,在训练过程中当权重更新后的正确率比上一次记录值增长10%时,保存当前模型。
所述步骤3)-c)中,利用高斯混合模型对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数I(dis),利用高斯混合模型对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数C(dis)。
所述步骤3)-b)中,在正确率达到95%以上时考虑停止训练。
所述步骤4)-c)中,若两条曲线的重叠区域面积小于x∈[0.1,0.3]且A>=85%,则认为模型满足条件
本发明的基于概率密度函数的行人重识别评价方法,使用随机抽样方法构建训练和测试类内类间图像对,对Person ReID模型进行验证和测试,与使用整体训练数据和测试数据相比,效率更高,实施性更强,更节省资源;利用概率密度函数监控Person ReID训练过程,由类内和类间的特征距离分布情况直接反应训练中权重的优化方向是否合理正确,可以及时调整,节省时间;同时可以有效提高训练正确率,但实际特征提取能力未向预想方向进行的情况发生,训练过程可控性得到有效提升;利用测试图像对类内类间的概率密度函数的重叠区域面积与正确率相结合,判定Person ReID模型是否可以实用,可靠性更高;同时还可以将Person ReID模型在特征提取上存在的问题更直观的暴露出来,为下一步的训练提供指导作用。
附图说明
图1是本发明概率密度曲线及重叠区域示意图。
本发明的基于概率密度函数的Person ReID评价方法,主要包括以下4个步骤:
1)行人数据集准备,具体准备过程如下:
a)使用多个公开Person ReID数据集合并在一起作为我们的训练数据集,保证训练数据集的类别数超过10000类,每个类别包含至少10张图像。从属于不同的人的全身图像作为一个单独的类;
b)利用训练数据的标签制作验证图像对,分为类内图像对和类间图像对,具体定义如下:类内图像对:在每个类别中进行不放回的3次抽取,每次随机收取2张图像,构成类内图像对集合(例如,有10000个类别则最后得到一个包含30000对图像对的类内图像对集合)。类间图像对:随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像。对这些图像进行排列组合,得到部分图像对;再次随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像。对这些图像进行排列组合,得到另一部分图像对,两部分图像对合在一起构成类内图像对集合(例如,有10000个类别则最后得到一个包含99000对图像对的类间图像对集合);
c)使用未参与训练数据集构建的公开Person ReID数据集作为测试数据集,仿照步骤1)-b),制作测试数据类内图像对和类间图像对;
2)构建Person ReID训练网络,设计损失函数,设置训练参数,开始训练。具体过程如下:
a)网络结构方面选择已经成熟且被广泛使用的网络结构,如ResNet34、ResNet50、ResNet101、ResNet152、MobileNet_V3等;
b)损失函数采用度量学习常用损失函数triploss或者变形版分类损失函数Large-Margin Softmax Loss、SphereFace_loss等;
c)开始训练,计算训练过程中每一轮权重更新后训练数据集的正确率,召回率和loss值;
3)训练过程中定期保存模型,进行概率密度验证,确定训练停止时间,具体过程如下:
a)记录开始训练的第一次权重更新后的正确率,在训练过程中当某轮权重更新后的正确率比上一次记录值增长10%时,保存当前模型,同时将记录值刷新为当前正确率。(例如,开始训练的第一次权重更新后的正确率为0%,则在之后的训练过程中当正确率为10%、20%...90%时分别进行模型保存得到模型S1,S2…S9,刷新记录值。);
b)利用保存的模型对步骤1b)中得到的训练数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离dis(此处以欧式距离为例);
c)利用高斯混合模型对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数I(dis),利用高斯混合模型对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数C(dis);
d)若训练过程中最新保存的模型Si得到的类内和类间图像对的距离概率密度函数均值之差大于上一个保存的模型Si-1得到的类内和类间图像对的距离概率密度函数均值之差,即Si(mean(C(dis)-mean(I(dis)))>Si-1(mean(C(dis)-mean(I(dis))。其中,代表i∈[2,9]模型编号,同时正确率和召回率持续增长,loss值持续下降,则认为训练过程正在收敛,可以在正确率达到95%以上时考虑停止训练,保存最终Person ReID模型。否则,认为训练过程发散,无法得到最终Person ReID模型,需要调整后重新训练。
4)利用测试集上的类内类间图像对判定训练得到的最终Person ReID模型性能,是否满足使用要求,具体判定规则如下:
a)计算步骤3中保存的最终模型在测试集上的正确率A;
b)利用步骤3中保存的最终模型对步骤1c)中得到的测试数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离t_dis(此处以欧式距离为例)。
c)利用高斯混合模型对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数TI(dis),利用高斯混合模型对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数TC(dis);
d)利用TI(t_dis)和TC(t_dis)绘制概率密度曲线,若两条曲线的重叠区域面积小于x∈[0.1,0.3]如图一且A>=85%,则认为模型满足条件,可以实用。否则,则认为PersonReID模型不达标需要更换策略方法重新训练。
本方法在Person ReID训练过程中定期输出中间模型,对训练数据集进行抽样特征提取。通过训练数据集的标签,分别得到所抽取的类内和类间特征对之间的距离,进而通过计算类内和类间的概率密度函数来更真实全面地刻画训练过程,确定训练结束的最佳时间。节省训练时间促进训练收敛;利用Person ReID训练得到的模型对测试集进行特征提取,计算特征对间距离的概率密度函数,进而判断模型是否可以实用,若不可以,问题出在何处,从而给出模型的优化方向。
本发明是通过实施例进行描述的,本领域技术人员知悉,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明的保护范围。

Claims (9)

1.一种基于概率密度函数的行人重识别评价方法,其特征在于:包括以下步骤:
1)行人数据集准备:
a)使用公开Person ReID数据集合并在一起作为训练数据集;
b)利用训练数据的标签制作验证图像对,分为类内图像对和类间图像对;
c)使用未参与训练数据集构建的公开Person ReID数据集作为测试数据集,按步骤步骤1)-b),制作测试数据类内图像对和类间图像对;
2)构建Person ReID训练网络,设计损失函数,设置训练参数,开始训练,方法如下:
a)选择网络结构,;
b)选择损失函数;
c)开始训练,计算训练过程中每一轮权重更新后训练数据集的正确率,召回率和loss值。
3)训练过程中保存模型,进行概率密度验证,确定训练停止时间,具体方法如下:
a)记录开始训练的第一次权重更新后的正确率,在训练过程中当权重更新后的正确率比上一次记录值增长设定值,保存当前模型,同时将记录值刷新为当前正确率;
b)利用保存的模型对步骤1)-b)中得到的训练数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离dis;
c)对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数I(dis),对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数C(dis);
d)若训练过程中最新保存的模型Si得到的类内和类间图像对的距离概率密度函数均值之差大于上一个保存的模型Si-1得到的类内和类间图像对的距离概率密度函数均值之差,同时正确率和召回率持续增长,loss值持续下降,则认为训练过程正在收敛,在正确率达到一定数值以上时考虑停止训练,保存最终Person ReID模型,否则,认为训练过程发散,无法得到最终Person ReID模型,需要调整后重新训练;
4)利用测试集上的类内类间图像对判定训练得到的最终Person ReID模型性能是否满足使用要求,具体判定方法如下:
a)计算步骤3)中保存的最终模型在测试集上的正确率A;
b)利用步骤3)中保存的最终模型对步骤1)-c)中得到的测试数据集上的类间和类内图像对进行特征提取,计算每个图像对中两张图像的距离t_dis;
c)对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数TI(dis),对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数TC(dis),利用TI(t_dis)和TC(t_dis)绘制概率密度曲线,若两条曲线的重叠区域面积小于设定值且正确率A大于设定值,则模型满足条件,可以实用,否则,Person ReID模型不达标需要更换策略方法重新训练。
2.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤1)-a)中,训练数据集的类别数多于10000类,每个类别包含至少10张图像,从属于不同的人的全身图像作为一个单独的类。
3.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤1)-b)中,类内图像对为:在每个类别中进行不放回的3次抽取,每次随机收取2张图像,构成类内图像对集合;类间图像对:随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像,对这些图像进行排列组合,得到部分图像对;再次随机选择总类别数的10%个类别,每个类别不放回的随机抽取1张图像,对这些图像进行排列组合,得到另一部分图像对,两部分图像对合在一起构成类内图像对集合。
4.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤2)-a)中,网络结构采用ResNet34、ResNet50、ResNet101、ResNet152或MobileNet_V3网络。
5.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤2)-b)中,损失函数采用度量学习损失函数triploss或者变形版分类损失函数Large-Margin Softmax Loss、SphereFace_loss。
6.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤3)-a)中,在训练过程中当权重更新后的正确率比上一次记录值增长10%时,保存当前模型。
7.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤3)-c)中,利用高斯混合模型对类内图像对得到的所有距离值进行拟合,得到类内概率密度函数I(dis),利用高斯混合模型对类间图像对得到的所有距离值进行拟合,得到类间的概率密度函数C(dis)。
8.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤3)-b)中,在正确率达到95%以上时考虑停止训练。
9.根据权利要求1所述的一种基于概率密度函数的行人重识别评价方法,其特征在于:所述步骤4)-c)中,若两条曲线的重叠区域面积小于x∈[0.1,0.3]且A>=85%,则认为模型满足条件。
CN201911273914.4A 2019-12-12 2019-12-12 一种基于概率密度函数的行人重识别评价方法 Active CN111062430B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911273914.4A CN111062430B (zh) 2019-12-12 2019-12-12 一种基于概率密度函数的行人重识别评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911273914.4A CN111062430B (zh) 2019-12-12 2019-12-12 一种基于概率密度函数的行人重识别评价方法

Publications (2)

Publication Number Publication Date
CN111062430A true CN111062430A (zh) 2020-04-24
CN111062430B CN111062430B (zh) 2023-05-09

Family

ID=70298950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911273914.4A Active CN111062430B (zh) 2019-12-12 2019-12-12 一种基于概率密度函数的行人重识别评价方法

Country Status (1)

Country Link
CN (1) CN111062430B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582185A (zh) * 2020-05-11 2020-08-25 北京百度网讯科技有限公司 用于识别图像的方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682734A (zh) * 2016-12-30 2017-05-17 中国科学院深圳先进技术研究院 一种提升卷积神经网络泛化能力的方法及装置
WO2018137358A1 (zh) * 2017-01-24 2018-08-02 北京大学 基于深度度量学习的目标精确检索方法
CN109902757A (zh) * 2019-03-08 2019-06-18 山东领能电子科技有限公司 一种基于Center Loss改进的人脸模型训练方法
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN110008842A (zh) * 2019-03-09 2019-07-12 同济大学 一种基于深度多损失融合模型的行人重识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682734A (zh) * 2016-12-30 2017-05-17 中国科学院深圳先进技术研究院 一种提升卷积神经网络泛化能力的方法及装置
WO2018137358A1 (zh) * 2017-01-24 2018-08-02 北京大学 基于深度度量学习的目标精确检索方法
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN109902757A (zh) * 2019-03-08 2019-06-18 山东领能电子科技有限公司 一种基于Center Loss改进的人脸模型训练方法
CN110008842A (zh) * 2019-03-09 2019-07-12 同济大学 一种基于深度多损失融合模型的行人重识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WEIHUA CHEN 等: "Beyond Triplet Loss A Deep Quadruplet Network for Person Re-identification" *
刘靳 等: "一种改进的红外目标识别算法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582185A (zh) * 2020-05-11 2020-08-25 北京百度网讯科技有限公司 用于识别图像的方法和装置
CN111582185B (zh) * 2020-05-11 2023-06-30 北京百度网讯科技有限公司 用于识别图像的方法和装置

Also Published As

Publication number Publication date
CN111062430B (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN109271374B (zh) 一种基于机器学习的数据库健康度打分方法和打分***
CN112756759B (zh) 点焊机器人工作站故障判定方法
CN112232476A (zh) 更新测试样本集的方法及装置
CN110263934B (zh) 一种人工智能数据标注方法和装置
CN112434390B (zh) 基于多层网格搜索的pca-lstm轴承剩余寿命预测方法
CN111079861A (zh) 一种基于图像快速处理技术的配电网电压异常诊断方法
CN107563448A (zh) 基于近红外光谱分析的样本空间聚类划分法
CN115798022B (zh) 一种基于特征提取的人工智能识别方法
CN112836720A (zh) 建筑运维设备异常诊断方法、***及计算机可读存储介质
CN114580762A (zh) 一种基于XGBoost的水文预报误差校正方法
CN115659807A (zh) 一种基于贝叶斯优化模型融合算法对人才表现预测的方法
CN117290462A (zh) 一种数据大模型的智能决策***及方法
CN114139639B (zh) 一种基于自步邻域保持嵌入的故障分类方法
CN116244647A (zh) 一种无人机集群的运行状态估计方法
CN111062430A (zh) 一种基于概率密度函数的行人重识别评价方法
US20240184678A1 (en) Deep Learning Method Integrating Prior Knowledge for Fault Diagnosis
CN108009636B (zh) 深度学习神经网络进化方法、装置、介质和计算机设备
CN114155025A (zh) 基于随机森林的电动汽车充电站充电流失用户预测方法
CN113537693A (zh) 人员风险等级获取方法、终端、存储装置
CN112488160A (zh) 图像分类任务的模型训练方法
CN106473703A (zh) 睡眠状态分类器的训练方法和***
CN116502696A (zh) 基于联邦学习和模型剪枝的滚动轴承剩余寿命预测方法
CN116520150A (zh) 基于动态策略和主动学习的异常检测***构建***及方法
CN115575127A (zh) 一种基于鲸鱼优化lssvm的轴承剩余寿命预测方法
CN113212244B (zh) 一种新能源车辆动力电池寿命预测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A pedestrian re recognition evaluation method based on probability density function

Effective date of registration: 20230726

Granted publication date: 20230509

Pledgee: Dalian Branch of Shanghai Pudong Development Bank Co.,Ltd.

Pledgor: YICHENG GAOKE (DALIAN) TECHNOLOGY Co.,Ltd.

Registration number: Y2023980049989

PE01 Entry into force of the registration of the contract for pledge of patent right