CN108345866A - 一种基于深度特征学习的行人再识别方法 - Google Patents

一种基于深度特征学习的行人再识别方法 Download PDF

Info

Publication number
CN108345866A
CN108345866A CN201810191123.6A CN201810191123A CN108345866A CN 108345866 A CN108345866 A CN 108345866A CN 201810191123 A CN201810191123 A CN 201810191123A CN 108345866 A CN108345866 A CN 108345866A
Authority
CN
China
Prior art keywords
horizontal component
image
neural network
deep neural
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810191123.6A
Other languages
English (en)
Other versions
CN108345866B (zh
Inventor
刘爽
郝晓龙
张重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Development Anchor (Tianjin) Technology Co.,Ltd.
Original Assignee
Tianjin Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Normal University filed Critical Tianjin Normal University
Priority to CN201810191123.6A priority Critical patent/CN108345866B/zh
Publication of CN108345866A publication Critical patent/CN108345866A/zh
Application granted granted Critical
Publication of CN108345866B publication Critical patent/CN108345866B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于深度特征学***部分,并分配类别标签;训练深度神经网络模型;将测试图像集中的测试图像分为N个水平部分;利用深度神经网络模型提取测试图像的特征;基于待识别图像与测试图像的特征计算两者之间的相似度得分,进而得到待识别图像的行人再识别结果。本发明通过对图像的每个水平部分分配一个类别标签,从而能够充分利用局部特征的优势去训练网络,进而提高了行人再识别匹配的正确率。

Description

一种基于深度特征学习的行人再识别方法
技术领域
本发明属于模式识别、人工智能领域,具体涉及一种基于深度特征学习的行人再识别方法。
背景技术
行人再识别(Person Re-identification)是一个在实际应用中有着巨大价值的研究方向,它可以应用到刑事侦察、图像检索等领域。行人再识别旨在从大规模数据库中搜索出特定的行人。
现存行人再识别方法主要集中在两个方面,即特征表示和度量学习。就特征表示而言,很多方法专注于提高特征的判别能力。例如,Zeng等人提出一种有效的行人再识别描述子——混合直方图和协方差描述符(Hybrid Spatiogram and Covariance Descriptor,HSCD)。Matsukawa等人提出利用分层高斯描述符(hierarchical Gaussian descriptor)表示行人图像的局部区域。Variord等人利用数据驱动框架,通过联合学习线性变换和字典来编码像素值。就度量学习而言,Xiong等人提出了核局部费雪判别分类器(Kernel LocalFisher Discriminant Classifier,KLFDA),它利用内核技巧来处理高维度的特征同时最大化费雪标准。为了学习一种低维子空间的判别度量,Liao等人引入了一种有效的方法称为交叉视图二次判别分析(Cross-view Quadratic Discriminant Analysis,XQDA)。
近年来,卷积神经网络已被广泛应用于行人再识别的特征表示中。例如,Yi等人提出将图像分割成三个重叠部分,并训练三个网络来捕获行人图像的不同统计特性。Zhao等人认为不同的身体部位有不同的重要性,因此他们提出根据局部的空间结构信息提取局部特征的方法。Zheng等人提出利用身份嵌入模型(Identification Embedding model,IDE)进行特征提取。虽然以上方法取得了较大的成功,但是他们只考虑了一个方面的因素,即要么只考虑局部特征,要么只考虑判别性较强的网络。因此,不能充分挖掘具有较强判别性的局部特征。
发明内容
本发明的目的是提供一种基于深度特征学***部分分配类别标签的技术问题。
为了实现所述目的,本发明提出的一种基于深度特征学习的行人再识别方法包括以下步骤:
步骤S1,构建深度神经网络模型;
步骤S2,获取训练图像集,将所述训练图像集中的每幅训练图像分为N个水平部分,并为每个水平部分分配一个类别标签;
步骤S3,利用带有类别标签的水平部分训练所述深度神经网络模型;
步骤S4,获取测试图像集,将测试图像集中的每幅测试图像分为N个水平部分;
步骤S5,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征,并将每部分特征串联形成相应图像最终的特征;
步骤S6,获取待识别图像及其特征,并基于待识别图像与测试图像的特征计算待识别图像与每幅测试图像之间的相似度得分;
步骤S7,对相似度得分进行排序,得分最高的测试图像被认为与所述待识别图像是相同行人,进而得到待识别图像的行人再识别结果。
可选地,所述步骤S1包括以下步骤:
步骤S11,利用预设残差网络结构初始化所述深度神经网络的参数;
步骤S12,把所述深度神经网络中最后一个全连接层的神经元个数替换为K个,其中K为正整数,为行人类别的数量;
步骤S13,在全连接层后设置柔性最大单元;
步骤S14,在柔性最大单元后构建损失函数,得到所述深度神经网络模型。
可选地,所述步骤S2包括以下步骤:
步骤S21,将每幅训练图像从上至下无重叠地分为N个水平部分;
步骤S22,为每个水平部分分配类别标签。
可选地,每个水平部分的类别标签qpgr(k,n)表示为:
其中,n∈{1,2,...,N}表示训练图像中第n个水平部分,N是训练图像中水平部分的数量,k表示整幅图像预测的类别标签,y表示整幅图像真实的类别标签,K表示行人类别数量,ε∈[0,1]是一个光滑参数,α>1是一个超参数。
可选地,所述步骤S3包括以下步骤:
步骤S31,将带有类别标签的水平部分归一化到像素大小为p×p,其中p为正整数;
步骤S32,利用归一化的水平部分及其对应的类别标签训练所述深度神经网络模型。
可选地,所述步骤S32包括以下步骤:
步骤S321,把归一化的水平部分及其类别标签送入所述深度神经网络模型进行前向传播;
步骤S322,在前向传播结束后进行反向传播。
可选地,所述步骤S321包括以下步骤:
步骤S3211,设置深度神经网络模型训练参数;
步骤S3212,设置所述深度神经网络模型的损失函数;
步骤S3213,通过所述损失函数和深度神经网络模型参数计算得到前向传播损失值。
可选地,所述损失函数Lpgr(n)可设置为:
其中,p(k)表示某一水平部分被预测为第k类的概率。
可选地,所述步骤S3212之后还包括对于损失函数进行简化的步骤。
可选地,所述步骤S5包括以下步骤:
步骤S51,将所述测试图像的水平部分归一化为p×p大小;
步骤S52,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征;
步骤S53,将每部分的特征串联起来形成最终的特征。
本发明的有益效果为:本发明通过充分利用判别性的网络和局部特征,并利用一个渐变的函数为行人图像的每个部分分配一个类别标签,取得更好的监督学习的效果,达到充分挖掘深度网络对行人特征表示的目的,从而提高行人再识别匹配的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240,天津市自然科学基金重点项目No.17JCZDJC30600,天津市应用基础与前沿技术研究计划青年基金项目No.15JCQNJC01700,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201700001、No.201800002,中国国家留学基金No.201708120039、No.201708120040的资助。
附图说明
图1是根据本发明一实施例的一种基于深度特征学习的行人再识别方法的流程图。
图2是根据本发明一实施例的基于深度特征学习的网络模型。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例的一种基于深度特征学习的行人再识别方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。如图1所示,本发明一种基于深度特征学习的行人再识别方法包括以下步骤:
步骤S1,构建深度神经网络模型;
其中,所述步骤S1包括以下步骤:
步骤S11,利用预设残差网络结构初始化所述深度神经网络的参数;
其中,所述残差网络可利用现存的一些残差网络,比如可以选择残差网络-50(ResNet-50)。
步骤S12,把所述深度神经网络(即经所述步骤S11初始化参数的深度神经网络)中最后一个全连接层的神经元个数替换为K个,其中K为正整数,为行人类别的数量;
在本发明一实施例中,行人类别的个数为751个,则K=751。
步骤S13,为了标准化全连接层的输出,在全连接层后设置柔性最大单元(softmax);
步骤S14,在柔性最大单元后构建损失函数,得到所述深度神经网络模型。
步骤S2,获取训练图像集,将所述训练图像集中的每幅训练图像分为N个水平部分,并为每个水平部分分配一个类别标签;
其中,所述步骤S2包括以下步骤:
步骤S21,将每幅训练图像从上至下无重叠地分为N个水平部分;
在本发明一实施例中,为了方便计算,将每幅训练图像从上至下无重叠地均分为N个水平部分。
步骤S22,为每个水平部分分配类别标签,每个水平部分的类别标签qpgr(k,n)表示为:
其中,n∈{1,2,...,N}表示训练图像中第n个水平部分,N是训练图像中水平部分的数量,k表示整幅图像预测的类别标签,y表示整幅图像真实的类别标签,K表示行人类别数量,ε∈[0,1]是一个光滑参数,它的作用是调节非真实类别标签的概率,α>1是一个超参数,它的作用是决定不同水平部分的概率。为了方便表达标签分布,可定义为qk,并且定义为qy
在本发明一实施例中,可以设置N为3,α为1.1,ε为0.1。
步骤S3,利用带有类别标签的水平部分训练所述深度神经网络模型;
其中,所述步骤S3包括以下步骤:
步骤S31,将带有类别标签的水平部分归一化到像素大小为p×p,其中p为正整数;
在本发明一实施例中,可以设置p为224。
步骤S32,利用归一化的水平部分及其对应的类别标签训练所述深度神经网络模型。
其中,所述步骤S32包括以下步骤:
步骤S321,把归一化的水平部分及其类别标签送入所述深度神经网络模型进行前向传播;
步骤S322,在前向传播结束后进行反向传播。
其中,所述步骤S321包括以下步骤:
步骤S3211,设置深度神经网络模型训练参数;
在本发明一实施例中,所述训练参数可包括训练批次大小、迭代次数、以及学习率,比如可设置训练批次大小为64对,设置迭代次数为50,其中前40次网络的学习率设置为0.1,后10次网络的学习率设置为0.01。
步骤S3212,设置所述深度神经网络模型的损失函数;
在本发明一实施例中,所述损失函数Lpgr(n)可设置为:
其中,p(k)表示某一水平部分被预测为第k类的概率。
步骤S3213,通过所述损失函数和深度神经网络模型参数计算得到前向传播损失值。
为了减少计算量,所述步骤S3212之后还包括对于损失函数进行简化的步骤,具体为:
结合水平部分的标签分布和损失函数,对于所述损失函数进行简化:
其中,p(y)和p(k)分别表示某一水平部分被预测为第y类和第k类的概率:
其中xk表示全连接层中第k类的输出值,xy表示全连接层中第y类的输出值,xi表示全连接层中第i类的输出值;
将p(y)和p(k)带入到损失函数中,得到:
其中,所述步骤S322包括以下步骤:
步骤S3221,基于前向传播中的损失函数,在反向传播中计算它对于xy的导数:
步骤S3222,根据得到的导数和随机梯度下降算法(SGD)训练更新所述深度神经网络模型的参数。
在本发明一实施例中,通过查看损失值可以判断深度神经网络是否收敛。若损失值在一个迭代次数内变化很少时,可判断网络已经收敛。
步骤S4,在测试阶段,获取测试图像集,将测试图像集中的每幅测试图像分为N个水平部分;
在本发明一实施例中,为了方便计算,可按照训练集中对图像的划分方式,将每幅测试图像从上至下无重叠地均分为N个水平部分。
步骤S5,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征,并将每部分特征串联形成相应图像最终的特征;
其中,所述步骤S5包括以下步骤:
步骤S51,将所述测试图像的水平部分归一化为p×p大小;
步骤S52,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征;
在所述步骤S52中,可在所述深度神经网络模型的最后一个卷积层中提取特征,大小可以为2048维。
步骤S53,将每部分的特征串联起来形成相应图像最终的特征。
在本发明一实施例中,提取特征时应该按照图像从上到下的顺序分别提取水平部分的特征,并最终得到2048×N维的特征向量,当N=3时,特征向量的维数为2048×3=6144维。
步骤S6,在评估阶段,获取待识别图像及其特征,并基于待识别图像与测试图像的特征计算待识别图像与每幅测试图像之间的相似度得分;
其中,所述步骤S6包括以下步骤:
步骤S61,计算待识别图像与每幅测试图像的特征向量;
步骤S62,计算两个特征向量之间的余弦距离,将得到的距离值作为图像间的相似度得分。
步骤S7,对相似度得分进行排序,得分最高的测试图像被认为与所述待识别图像是相同行人,进而得到待识别图像的行人再识别结果。
以网上公开的行人再识别数据库作为测试对象,比如在Market-1501数据库上,行人再识别匹配的正确率分别为83.31%。由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (10)

1.一种基于深度特征学习的行人再识别方法,其特征在于,所述方法包括:
步骤S1,构建深度神经网络模型;
步骤S2,获取训练图像集,将所述训练图像集中的每幅训练图像分为N个水平部分,并为每个水平部分分配一个类别标签;
步骤S3,利用带有类别标签的水平部分训练所述深度神经网络模型;
步骤S4,获取测试图像集,将测试图像集中的每幅测试图像分为N个水平部分;
步骤S5,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征,并将每部分特征串联形成相应图像最终的特征;
步骤S6,获取待识别图像及其特征,并基于待识别图像与测试图像的特征计算待识别图像与每幅测试图像之间的相似度得分;
步骤S7,对相似度得分进行排序,得分最高的测试图像被认为与所述待识别图像是相同行人,进而得到待识别图像的行人再识别结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,利用预设残差网络结构初始化所述深度神经网络的参数;
步骤S12,把所述深度神经网络中最后一个全连接层的神经元个数替换为K个,其中K为正整数,为行人类别的数量;
步骤S13,在全连接层后设置柔性最大单元;
步骤S14,在柔性最大单元后构建损失函数,得到所述深度神经网络模型。
3.根据权利要求1所述的方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21,将每幅训练图像从上至下无重叠地分为N个水平部分;
步骤S22,为每个水平部分分配类别标签。
4.根据权利要求3所述的方法,其特征在于,每个水平部分的类别标签qpgr(k,n)表示为:
其中,n∈{1,2,...,N}表示训练图像中第n个水平部分,N是训练图像中水平部分的数量,k表示整幅图像预测的类别标签,y表示整幅图像真实的类别标签,K表示行人类别数量,ε∈[0,1]是一个光滑参数,α>1是一个超参数。
5.根据权利要求4所述的方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31,将带有类别标签的水平部分归一化到像素大小为p×p,其中p为正整数;
步骤S32,利用归一化的水平部分及其对应的类别标签训练所述深度神经网络模型。
6.根据权利要求5所述的方法,其特征在于,所述步骤S32包括以下步骤:
步骤S321,把归一化的水平部分及其类别标签送入所述深度神经网络模型进行前向传播;
步骤S322,在前向传播结束后进行反向传播。
7.根据权利要求6所述的方法,其特征在于,所述步骤S321包括以下步骤:
步骤S3211,设置深度神经网络模型训练参数;
步骤S3212,设置所述深度神经网络模型的损失函数;
步骤S3213,通过所述损失函数和深度神经网络模型参数计算得到前向传播损失值。
8.根据权利要求7所述的方法,其特征在于,所述损失函数Lpgr(n)可设置为:
其中,p(k)表示某一水平部分被预测为第k类的概率。
9.根据权利要求7所述的方法,其特征在于,所述步骤S3212之后还包括对于损失函数进行简化的步骤。
10.根据权利要求1所述的方法,其特征在于,所述步骤S5包括以下步骤:
步骤S51,将所述测试图像的水平部分归一化为p×p大小;
步骤S52,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征;
步骤S53,将每部分的特征串联起来形成最终的特征。
CN201810191123.6A 2018-03-08 2018-03-08 一种基于深度特征学习的行人再识别方法 Active CN108345866B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810191123.6A CN108345866B (zh) 2018-03-08 2018-03-08 一种基于深度特征学习的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810191123.6A CN108345866B (zh) 2018-03-08 2018-03-08 一种基于深度特征学习的行人再识别方法

Publications (2)

Publication Number Publication Date
CN108345866A true CN108345866A (zh) 2018-07-31
CN108345866B CN108345866B (zh) 2021-08-24

Family

ID=62956679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810191123.6A Active CN108345866B (zh) 2018-03-08 2018-03-08 一种基于深度特征学习的行人再识别方法

Country Status (1)

Country Link
CN (1) CN108345866B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN110070075A (zh) * 2019-05-07 2019-07-30 中国科学院宁波材料技术与工程研究所 基于群对称理论的行人重识别方法
CN110458217A (zh) * 2019-07-31 2019-11-15 腾讯医疗健康(深圳)有限公司 图像识别方法及装置、眼底图像识别方法和电子设备
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN112016443A (zh) * 2020-08-26 2020-12-01 深圳市商汤科技有限公司 同行识别方法及装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268556A (zh) * 2014-09-12 2015-01-07 西安电子科技大学 一种基于核低秩表示图和空间约束的高光谱图像分类方法
US20160180195A1 (en) * 2013-09-06 2016-06-23 Toyota Jidosha Kabushiki Kaisha Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks
CN106355171A (zh) * 2016-11-24 2017-01-25 深圳凯达通光电科技有限公司 一种视频监控联网***
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN107019525A (zh) * 2015-12-15 2017-08-08 柯尼卡美能达株式会社 超声波图像诊断装置
CN107506700A (zh) * 2017-08-07 2017-12-22 苏州经贸职业技术学院 基于广义相似性度量学习的行人再识别方法
CN107563344A (zh) * 2017-09-18 2018-01-09 天津师范大学 一种基于语义区域测度学习的行人再识别方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160180195A1 (en) * 2013-09-06 2016-06-23 Toyota Jidosha Kabushiki Kaisha Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks
CN104268556A (zh) * 2014-09-12 2015-01-07 西安电子科技大学 一种基于核低秩表示图和空间约束的高光谱图像分类方法
CN107019525A (zh) * 2015-12-15 2017-08-08 柯尼卡美能达株式会社 超声波图像诊断装置
CN106355171A (zh) * 2016-11-24 2017-01-25 深圳凯达通光电科技有限公司 一种视频监控联网***
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN107506700A (zh) * 2017-08-07 2017-12-22 苏州经贸职业技术学院 基于广义相似性度量学习的行人再识别方法
CN107563344A (zh) * 2017-09-18 2018-01-09 天津师范大学 一种基于语义区域测度学习的行人再识别方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHRISTIAN SZEGEDY 等: "Rethinking the Inception Architecture for Computer Vision", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
GUO-SEN XIE 等: "LG-CNN: From local parts to global discrimination for fine-grained recognition", 《PATTERN RECOGNITION》 *
SHUANG LIU 等: "Pedestrian Retrieval via Part-Based Gradation Regularization in Sensor Networks", 《IEEE ACCESS》 *
YIFAN SUN 等: "Beyond Part Models: Person Retrieval with Refined Part Pooling (and a Strong Convolutional Baseline)", 《网络在线公开: HTTPS://ARXIV.ORG/ABS/1711.09349》 *
ZHEDONG ZHENG 等: "A Discriminatively Learned CNN Embedding for Person Re-identification", 《ACM TRANSACTIONS ON MULTIMEDIA COMPUTING COMMUNICATIONS AND APPLICATIONS》 *
蒋桧慧 等: "基于特征融合与改进神经网络的行人再识别", 《基于特征融合与改进神经网络的行人再识别 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583502A (zh) * 2018-11-30 2019-04-05 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN109583502B (zh) * 2018-11-30 2022-11-18 天津师范大学 一种基于对抗擦除注意力机制的行人再识别方法
CN110070075A (zh) * 2019-05-07 2019-07-30 中国科学院宁波材料技术与工程研究所 基于群对称理论的行人重识别方法
CN110458217A (zh) * 2019-07-31 2019-11-15 腾讯医疗健康(深圳)有限公司 图像识别方法及装置、眼底图像识别方法和电子设备
CN110458217B (zh) * 2019-07-31 2024-04-19 腾讯医疗健康(深圳)有限公司 图像识别方法及装置、眼底图像识别方法和电子设备
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN110728263B (zh) * 2019-10-24 2023-10-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN112016443A (zh) * 2020-08-26 2020-12-01 深圳市商汤科技有限公司 同行识别方法及装置、电子设备和存储介质
CN112016443B (zh) * 2020-08-26 2022-04-26 深圳市商汤科技有限公司 同行识别方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN108345866B (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN108345866A (zh) 一种基于深度特征学习的行人再识别方法
CN109034044B (zh) 一种基于融合卷积神经网络的行人再识别方法
CN107145842B (zh) 结合lbp特征图与卷积神经网络的人脸识别方法
CN106599797B (zh) 一种基于局部并行神经网络的红外人脸识别方法
CN103258204B (zh) 一种基于Gabor和EOH特征的自动微表情识别方法
CN108345860A (zh) 基于深度学习和距离度量学习的人员再识别方法
CN101236608B (zh) 基于图片几何结构的人脸检测方法
CN108229444A (zh) 一种基于整体和局部深度特征融合的行人再识别方法
CN108491797A (zh) 一种基于大数据的车辆图像精确检索方法
CN107194341A (zh) Maxout多卷积神经网络融合人脸识别方法和***
CN104866829A (zh) 一种基于特征学习的跨年龄人脸验证方法
CN106446895A (zh) 一种基于深度卷积神经网络的车牌识别方法
CN107092894A (zh) 一种基于lstm模型的运动行为识别方法
CN110321862B (zh) 一种基于紧致三元损失的行人再识别方法
CN110097053A (zh) 一种基于改进Faster-RCNN的电力设备外观缺陷检测方法
CN107341463A (zh) 一种结合图像质量分析与度量学习的人脸特征识别方法
CN106156765A (zh) 基于计算机视觉的安全检测方法
CN108960184A (zh) 一种基于异构部件深度神经网络的行人再识别方法
CN102201236A (zh) 一种高斯混合模型和量子神经网络联合的说话人识别方法
CN108509939A (zh) 一种基于深度学习的鸟类识别方法
CN109934158A (zh) 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN105718866A (zh) 一种视觉目标检测与识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN103886305A (zh) 面向基层治安、维稳及反恐的特异人脸搜索方法
CN108256307A (zh) 一种智能商务旅居房车的混合增强智能认知方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221130

Address after: 300392 Room 501, Building 1, No. 1, Huixue Road, Xuefu Industrial Zone, Xiqing District, Tianjin

Patentee after: Development Anchor (Tianjin) Technology Co.,Ltd.

Address before: 300387 Tianjin city Xiqing District West Binshui Road No. 393

Patentee before: TIANJIN NORMAL University