CN113255492B - 行人重识别的方法及*** - Google Patents

行人重识别的方法及*** Download PDF

Info

Publication number
CN113255492B
CN113255492B CN202110533082.6A CN202110533082A CN113255492B CN 113255492 B CN113255492 B CN 113255492B CN 202110533082 A CN202110533082 A CN 202110533082A CN 113255492 B CN113255492 B CN 113255492B
Authority
CN
China
Prior art keywords
pedestrian
image
height
width
shielding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110533082.6A
Other languages
English (en)
Other versions
CN113255492A (zh
Inventor
杨帆
朱莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaoshi Technology Jiangsu Co ltd
Original Assignee
Nanjing Zhenshi Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Zhenshi Intelligent Technology Co Ltd filed Critical Nanjing Zhenshi Intelligent Technology Co Ltd
Priority to CN202110533082.6A priority Critical patent/CN113255492B/zh
Publication of CN113255492A publication Critical patent/CN113255492A/zh
Application granted granted Critical
Publication of CN113255492B publication Critical patent/CN113255492B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种行人重识别的方法及***,涉及行人识别技术领域,解决了在有遮挡情况下行人重识别准确率不高的技术问题,其技术方案要点是采用行人图像手工特征辅助监督行人重识别模型训练的方法,提高了识别模型对于遮挡行人场景的鲁棒性。采用基于人体关键点的遮挡行人图像的涂白匹配方法,进一步提高了行人重识别的匹配准确度。

Description

行人重识别的方法及***
技术领域
本公开涉及行人识别技术领域,尤其涉及一种行人重识别的方法及***。
背景技术
行人重识别的任务是匹配不同摄像机拍摄的行人,给定一个摄像机拍摄的行人图像,在其他摄像机拍摄的行人图像中检索该行人,广泛应用于智能安防、智慧零售等领域。在实际应用场景中,行人容易被一些物品(比如车辆,树木,广告牌等)遮挡,影响行人重识别的效果。
目前行人重识别的方法主要分为基于图像手工特征的方法(可参考Bingpeng Ma,Yu Su,and Frederic Jurie.Covariance descriptor based on bio-inspired featuresfor person reidentification and face verification.Image and Vision Computing,32(6-7):379–390,2014.及Yang Yang,Jimei Yang,Junjie Yan,Shengcai Liao,Dong Yi,and Stan Z Li.Salient color names for person reidentification.In Europeanconference on computer vision,pages 536–551.Springer,2014.)、度量学习的方法(可参考Shengcai Liao and Stan Z Li.Efficient psd constrained asymmetric metriclearning for person re-identification.In Proceedings of the IEEEInternational Conference on Computer Vision,pages3685–3693,2015.及Wei-ShiZheng,Shaogang Gong,and Tao Xiang.Reidentification by relative distancecomparison.IEEE transactions on pattern analysis and machine intelligence,35(3):653–668,2013.)以及深度学习的方法(可参考Yifan Sun,Liang Zheng,Yi Yang,QiTian,and ShengjinWang.Beyond part models:Person retrieval with refined partpooling(and a strong convolutional baseline).In Proceedings of the EuropeanConference on Computer Vision(ECCV),pages 480–496,2018.及Yan Lu,Yue Wu,BinLiu,Tianzhu Zhang,Baopu Li,Qi Chu,and Nenghai Yu.Cross-modality person re-identification with shared-specific feature transfer,2020.),大多为整体图像的行人重识别方法,对实际场景中遮挡行人重识别的效果较差。因此,亟需一种有效的遮挡行人重识别方法及***。
发明内容
本公开提供了一种行人重识别的方法及***,其技术目的是提高行人重识别的准确率,在行人有遮挡的情况下能够有效对行人进行识别。
本公开的上述技术目的是通过以下技术方案得以实现的:
一种行人重识别的方法,包括:
输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
通过所述第二识别模型进行行人重识别。
一种行人重识别的***,包括:
合成模块,输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
预处理模块,根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
第一特征提取模块,对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
第二特征提取模块,通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
训练模块,将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
识别模块,通过所述第二识别模型进行行人重识别。
本公开的有益效果在于:本公开的行人重识别方法和***,采用行人图像手工特征辅助监督行人重识别模型训练的方法,提高了识别模型对于遮挡行人场景的鲁棒性。采用基于人体关键点的遮挡行人图像的涂白匹配方法,进一步提高了行人重识别的匹配准确度。
附图说明
图1为本申请所述方法的流程图;
图2为通过第一识别模型进行训练的流程示意图;
图3为本申请所述***的示意图。
具体实施方式
下面将结合附图对本公开技术方案进行详细说明。在本申请的描述中,需要理解地是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量,仅用于区分不同的组成部分。
图1为本申请所述方法的流程图,如图1所示,步骤S1:输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像。
具体地,人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示行人图像的宽度、高度。
步骤S2:根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像。涂白主要是为了提升模型对于遮挡的鲁棒性。
步骤S3:对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征。
图像的颜色特征和纹理特征合并起来就是图像手工特征,本申请中用到的图像手工特征是经过降维处理的。将颜色特征和纹理特征进行对应的灰度图变换,将灰度图分成Q个大小为P×P的子块;对每个子块进行直方图统计,得到子块的直方图;然后对所有子块的直方图进行归一化处理;最后连接所有子块的归一化直方图,从而得到整幅图像的特征。
若第一图像手工特征的直方图表示的维度为256维,假设第一图像手工特征分为Q个特征子块,则有Q*256维HSV颜色特征和Q*256维LBP纹理特征,图像的整体特征维度为M*512维。由于特征维度较大,增大存储空间,不利于模型的训练,采用PCA降维算法对特征进行降维,经过实验验证,将特征维度设置为512维较为合理。
假设训练集有N张行人图片,提取图像手工特征m维,N张行人图片的特征表示为X∈Rm×N,N张行人图像对应维度i的特征
Figure BDA0003068691210000031
计算X的协方差矩阵,如下式所示:
Figure BDA0003068691210000032
其中
Figure BDA0003068691210000033
对协方差矩阵C进行特征分解,得到m个特征值λ12...λm和m个对应的特征向量u1,u2...um,对特征值进行降序排序,选择前512个特征值对应的特征向量,组成矩阵u∈R512×m为第一主成分,Y=uX即为降维后的特征Y∈R512×n
步骤S4:通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征。
提取图像的颜色特征和纹理特征时,不需要通过模型进行特征提取。通过第一识别模型对第一遮挡行人图像进行特征提取时,由图2可知,将第一遮挡行人图像投入到第一识别模型中,经过一系列的特征提取过程,最终将第一遮挡行人图像通过不同的处理形成第一特征和第二特征,第一特征用于和第二图像手工特征一起监督辅助训练,第二特征则用于在监督辅助训练对第一识别模型的参数进行不断调整的情况下对分类器进行训练,从而得到最终的识别模型。
步骤S5:将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型。
具体地,第一识别模型为改进后的MobileNetV2网络,其中特征比较器的损失函数为
Figure BDA0003068691210000041
其中Fp表示特征比较器的输出,Fh表示图像手工特征。
分类器的的损失函数为
Figure BDA0003068691210000042
其中N表示输入所述第一识别模型进行训练的总样本数,xi表示分类器的输出,I表示总类别数,yni表示样本n的第i个标签,若样本n属于第i个类别,则标签为1,否则标签为0。
步骤S6:通过所述第二识别模型进行行人重识别,包括:步骤S61:对底库行人图像与遮挡行人图像的人体躯干关键点进行提取。
步骤S62:所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度。
步骤S63:计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2
步骤S64:对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height'。
步骤S65:将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,yi),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti
步骤S66:对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白。
步骤S67:对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征。
步骤S68:将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
图3为本申请所述***的示意图,该***包括合成模块、预处理模块、第一特征提取模块、第二特征提取模块、训练模块和识别模块。其中,识别模块又包括关键点提取单元、第一遮挡区域提取单元、偏移量计算单元、归一化单元、第二遮挡区域提取单元、预处理单元、特征提取单元和比较单元。
合成模块用于:输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像。
预处理模块用于根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像。
第一特征提取模块用于对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征。
第二特征提取模块用于通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征。
训练模块用于将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型。
识别模块用于通过所述第二识别模型进行行人重识别,具体包括:
关键点提取单元对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
第一遮挡区域提取单元用于:所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度。
偏移量计算单元计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2
归一化单元对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height'。
第二遮挡区域提取单元用于:将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,yi),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti
预处理单元对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白。
特征提取单元对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征。
比较单元将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
以上为本申请示范性实施例,本申请的保护范围由权利要求书及其等效物限定。

Claims (8)

1.一种行人重识别的方法,其特征在于,包括:
输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
通过所述第二识别模型进行行人重识别。
2.如权利要求1所述的方法,其特征在于,所述根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像,包括:
所述人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示所述行人图像的宽度、高度。
3.如权利要求2所述的方法,其特征在于,通过所述第二识别模型进行行人重识别,包括:
对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度;
计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2
对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height';
将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,hi ),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti
对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白;
对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征;
将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
4.如权利要求1所述的方法,其特征在于,所述第一识别模型为改进后的MobileNetV2网络,所述特征比较器的损失函数为
Figure FDA0003068691200000021
其中Fp表示特征比较器的输出,Fh表示图像手工特征;
所述分类器的损失函数为
Figure FDA0003068691200000022
其中N表示输入所述第一识别模型进行训练的总样本数,xi表示分类器的输出,I表示总类别数,yni表示样本n的第i个标签,若样本n属于第i个类别,则标签为1,否则标签为0。
5.一种行人重识别的***,其特征在于,包括:
合成模块,输入行人图像,提取人体躯干关键点,根据人体躯干关键点和遮挡物品对所述行人图像进行合成,得到第一遮挡行人图像;
预处理模块,根据行人遮挡框信息,对所述第一遮挡行人图像的遮挡区域进行涂白,得到第二遮挡行人图像;
第一特征提取模块,对所述第二遮挡行人图像的颜色特征和纹理特征进行提取,得到第一图像手工特征,对所述第一图像手工特征进行降维处理得到第二图像手工特征;
第二特征提取模块,通过第一识别模型对所述第一遮挡行人图像进行特征提取,得到第一特征和第二特征;
训练模块,将所述第一特征和所述第二图像手工特征输入到所述第一识别模型的特征比较器进行训练,得到训练结果,根据所述训练结果对所述第一识别模型的参数进行调整,然后将所述第二特征输入到所述第一识别模型的分类器进行训练,得到第二识别模型;
识别模块,通过所述第二识别模型进行行人重识别。
6.如权利要求5所述的***,其特征在于,所述合成模块用于:
所述人体躯干关键点为遮挡区域的中心点[x,y],遮挡区域为[x,y,w,h],w∈[0.2*width,0.8*width],h∈[0.2*height,0.8*height],width、height分别表示所述行人图像的宽度、高度。
7.如权利要求6所述的***,其特征在于,所述识别模块包括:
关键点提取单元,对底库行人图像与遮挡行人图像的人体躯干关键点进行提取;
第一遮挡区域提取单元,所述遮挡行人图像的遮挡区域为(x',y',w',h')和中心点P(x1,y1),其中,x1=x'+w'/2,y1=y'+h'/2,w'∈[0.2*width',0.8*width'],h'∈[0.2*height',0.8*height'],width'、height'分别表示所述遮挡行人图像的宽度、高度;
偏移量计算单元,计算中心点P(x1,y1)与人体躯干关键点的欧式距离,确定距离最近的人体躯干关键点K(x2,y2),计算P(x1,y1)与K(x2,y2)的偏移量值ΔP=(Δx,Δy),其中,Δx=x1-x2,Δy=y1-y2
归一化单元,对所述行人遮挡框信息和ΔP进行归一化处理,得到Δx'=Δx/width',Δy'=Δy/height',w”=w'/width',h”=h'/height';
第二遮挡区域提取单元,将归一化后的遮挡区域映射到每个所述底库行人图像(widthi,heighti)中,距离所述底库行人图像的遮挡区域中心点最近的人体躯干关键点为Ki(x2i,y2i),则所述底库行人图像对应的遮挡区域为(xi,yi,wi,hi ),其中,xi=x2i+Δx'*widthi,yi=y2i+Δy'*heighti,wi=w”*widthi,hi=h”*heighti
预处理单元,对所述底库行人图像和所述遮挡行人图像的遮挡区域进行统一涂白;
特征提取单元,对所述底库行人图像和所述遮挡行人图像进行特征提取,得到底库行人特征和行人特征;
比较单元,将所述底库行人特征与所述行人特征进行比对,确定所述遮挡行人图像的行人身份。
8.如权利要求7所述的***,其特征在于,所述第一识别模型为改进后的Mobi leNetV2网络,所述特征比较器的损失函数为
Figure FDA0003068691200000031
其中Fp表示特征比较器的输出,Fh表示图像手工特征;
所述分类器的损失函数为
Figure FDA0003068691200000032
其中N表示输入所述第一识别模型进行训练的总样本数,xi表示分类器的输出,I表示总类别数,yni表示样本n的第i个标签,若样本n属于第i个类别,则标签为1,否则标签为0。
CN202110533082.6A 2021-05-17 2021-05-17 行人重识别的方法及*** Active CN113255492B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110533082.6A CN113255492B (zh) 2021-05-17 2021-05-17 行人重识别的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110533082.6A CN113255492B (zh) 2021-05-17 2021-05-17 行人重识别的方法及***

Publications (2)

Publication Number Publication Date
CN113255492A CN113255492A (zh) 2021-08-13
CN113255492B true CN113255492B (zh) 2022-08-05

Family

ID=77182109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110533082.6A Active CN113255492B (zh) 2021-05-17 2021-05-17 行人重识别的方法及***

Country Status (1)

Country Link
CN (1) CN113255492B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法
CN110135366A (zh) * 2019-05-20 2019-08-16 厦门大学 基于多尺度生成对抗网络的遮挡行人重识别方法
CN112200111A (zh) * 2020-10-19 2021-01-08 厦门大学 一种全局与局部特征融合的遮挡鲁棒行人重识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法
CN110135366A (zh) * 2019-05-20 2019-08-16 厦门大学 基于多尺度生成对抗网络的遮挡行人重识别方法
CN112200111A (zh) * 2020-10-19 2021-01-08 厦门大学 一种全局与局部特征融合的遮挡鲁棒行人重识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多尺度生成对抗网络的遮挡行人重识别方法;杨婉香等;《软件学报》(第07期);全文 *

Also Published As

Publication number Publication date
CN113255492A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
Chen et al. An end-to-end system for unconstrained face verification with deep convolutional neural networks
Bak et al. Person re-identification using spatial covariance regions of human body parts
Huang et al. Human gait recognition in canonical space using temporal templates
Han et al. Face recognition with contrastive convolution
Jüngling et al. View-invariant person re-identification with an implicit shape model
CN113449704B (zh) 人脸识别模型训练方法、装置、电子设备及存储介质
Karahan et al. On identification from periocular region utilizing sift and surf
Kadam Face recognition using principal component analysis with DCT
Symeonidis et al. Neural attention-driven non-maximum suppression for person detection
Chater et al. New approach to the identification of the easy expression recognition system by robust techniques (SIFT, PCA-SIFT, ASIFT and SURF)
Tathe et al. Human face detection and recognition in videos
KR101727833B1 (ko) 얼굴인식을 위한 판별분석 기반의 복합 특징 벡터 생성 장치 및 방법
Sahbi et al. Coarse to fine face detection based on skin color adaption
Epshtein et al. Identifying semantically equivalent object fragments
Aly An effective human action recognition system based on Zernike moment features
CN113255492B (zh) 行人重识别的方法及***
Sathish et al. A complete person re-identification model using Kernel-PCA-based Gabor-filtered hybrid descriptors
Sidibe et al. A simple and efficient eye detection method in color images
Wijaya et al. Real time face recognition using DCT coefficients based face descriptor
Li et al. Facial peculiarity retrieval via deep neural networks fusion
Babaee et al. View-invariant gait representation using joint bayesian regularized non-negative matrix factorization
Su et al. Linear and deep order-preserving wasserstein discriminant analysis
Safi et al. Robust face recognition algorithm with a minimum datasets
Naveen et al. Pose and head orientation invariant face detection based on optimised aggregate channel feature
Hadid et al. A novel approach to access control based on face recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province

Patentee after: Xiaoshi Technology (Jiangsu) Co.,Ltd.

Address before: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province

Patentee before: NANJING ZHENSHI INTELLIGENT TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder