CN109614853A - 一种基于身体结构划分的双线性行人再识别网络构建方法 - Google Patents

一种基于身体结构划分的双线性行人再识别网络构建方法 Download PDF

Info

Publication number
CN109614853A
CN109614853A CN201811273872.XA CN201811273872A CN109614853A CN 109614853 A CN109614853 A CN 109614853A CN 201811273872 A CN201811273872 A CN 201811273872A CN 109614853 A CN109614853 A CN 109614853A
Authority
CN
China
Prior art keywords
pedestrian
bilinearity
network
sub
body structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811273872.XA
Other languages
English (en)
Other versions
CN109614853B (zh
Inventor
胡潇
郭晓强
周芸
饶丰
李下雨
姜竹青
门爱东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National News Publishes Broadcast Research Institute Of General Bureau Of Radio Film And Television
Beijing University of Posts and Telecommunications
Original Assignee
National News Publishes Broadcast Research Institute Of General Bureau Of Radio Film And Television
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National News Publishes Broadcast Research Institute Of General Bureau Of Radio Film And Television, Beijing University of Posts and Telecommunications filed Critical National News Publishes Broadcast Research Institute Of General Bureau Of Radio Film And Television
Priority to CN201811273872.XA priority Critical patent/CN109614853B/zh
Publication of CN109614853A publication Critical patent/CN109614853A/zh
Application granted granted Critical
Publication of CN109614853B publication Critical patent/CN109614853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;设置加权的局部损失函数来训练该结构框预测子网络;构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。本发明结合整体特征和局部特征,充分利用了身体结构信息,通过双线性融合方法获得更具判别力的行人特征,使得***整体匹配准确率大大提升。

Description

一种基于身体结构划分的双线性行人再识别网络构建方法
技术领域
本发明属于计算机视觉行人再识别技术领域,尤其是一种基于身体结构划分的双线性行人再识别网络构建方法。
背景技术
行人再识别是一种利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,其广泛被认为是一个图像检索的子问题。通过给定一个监控行人图像,检索跨设备、不重叠视野下的该行人图像,在刑侦、安防监控等方面具有重要作用,是“平安城市”建设的重要一环。
传统行人再识别的解决方法主要有两大类:一是特征提取,即根据监控视频里的行人提取鲁棒性的特征表示;二是距离度量,即学习一个更具判别力的特征度量方法,使得同一行人的特征间距离更近。近年来,随着深度学习技术的兴起,卷积神经网络被广泛运用在行人检测、目标跟踪等视觉任务中,并表现出了出色的性能,因此,基于深度学习的行人再识别也成为了当前的一大趋势。
然而,现有的深度学习方法大多直接提取整张行人图像的特征,无法充分利用行人的身体结构信息,这些特征对于不同视角下行人的姿势变化具有较好的鲁棒性。此外,现有方法大多运用全连接层进行特征融合,特征各维度间的交融性不强,得到的融合后特征的判别力有限。因此,上述行人再识别方法的行人再识别准确率不高。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于身体结构划分的双线性行人再识别网络构建方法,解决行人再识别准确率不高的问题。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:
步骤1、对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;
步骤2、采用设置加权的局部损失函数来训练该结构框预测子网络;
步骤3、构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;
步骤4、设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。
进一步,所述步骤1的具体实现方法为:
⑴关键点定位:对原始行人图像定位多个身体关键点并将其作为结构块划分的依据;
⑵结构块预测:根据多个关键点对行人身体结构分块,并使用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿和右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的结构框预测子网络。
进一步,所述身体关键点包括:头顶关键点、颈关键点、左臂的上中下三个关键点、右臂的上中下三个关键点、左腿的上中下三个关键点、右腿的上中下三个关键点
进一步,所述结构框预测子网络为放射变换子网络放射变换子网络,其结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)。
进一步,所述步骤2的具体实现方法为:
⑴将多个结构子框按照头部、身体、左右臂、左右腿分为四组;
⑵将四组不同身体部位特征分别用对应的局部损失函数进行训练,最后设置加权损失Lpartition进行求和,其计算方法为:
其中,头部、身体、左右臂、左右腿的各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1。
进一步,所述步骤3以深度残差网络为基础构建两个相同结构的子网络,两个子网络的前三个块共享参数,第四个块参数独立。
进一步,所述步骤4的具体实现方法为:
⑴定义两个子网络提取的特征向量分别为:其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算:其中表示外积操作,[·]表示将n1×n2维矩阵变换为n1n2×1维向量;
⑵采用简易双线性算法,将fg、fp融合为低维向量fc∈Rd,其融合过程为:
首先,随机初始化中间向量:ug,up∈{-1,1}n,vg,vp∈{1,2,3,…,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:其中1≤i≤d,1≤j≤n;
然后,得到如下向量:对其进行FFT变换和逆FFT变换,得到如下简易双线性融合后的特征向量:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
进一步,所述步骤5的具体实现方法为:输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1和步骤2的方法对其进行分块重组得到的图像I′,再将I和I′分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
本发明的优点和积极效果是:
本发明设计合理,其充分利用身体结构信息对行人图像进行分块,相比均等分块,得到更具表现力的局部特征;在结构框预测子网络中,考虑到不同身体部位的重要性差异,引入了加权的损失函数之和,提取到更具鲁棒性和判别力的局部特征;在特征融合层,相比传统的全连接方式,运用双线性融合(外积)的方法能够提高特征的融合程度,使得融合后的特征具有较高的判别力和鲁棒性,而“简易”双线性算法的提出,有效解决了直接求外积运算量大的问题,这种融合方式提取到的行人特征,能够获得了很好的行人再识别结果,使得***整体匹配准确率大大提升。
附图说明
图1是本发明的实现原理图。
图2是本发明的结构框预测(PBE)子网络流程图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于身体结构划分的双线性行人再识别网络,如图1所示,包括以下步骤:
步骤1、构造结构框预测子网络,对原始行人图像进行身体结构分块,得到六个结构子框,将这六个子框组合成新的行人图像。
如图2所示,本步骤的具体实施方法如下:
⑴关键点定位:定位14个身体关键点并将其作为结构块划分的依据,14个身体关键点分别为:头顶、颈、左臂(上中下3点)、右臂(上中下3点)、左腿(上中下3点)、右腿(上中下3点);
⑵结构块预测:根据14个关键点,用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿、右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的预测框。放射变换子网络(ATN)的结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)
步骤2、将六个子框按照头部、身体、左右臂、左右腿分为四组,考虑到不同身体部位特征对于行人特征的重要性差异,设置加权的局部损失函数来训练该结构框预测子网络。
本步骤的具体实施方法如下:
⑴将六个矩形结构框进行分组:头部、身体、左右臂、左右腿;
⑵考虑到不同身体部位特征对于行人特征的重要性差异,各个部分的分别用对应的局部损失函数进行训练:head_loss、body_loss、arms_loss、legs_loss,最后设置加权损失Lpartition进行求和,计算过程为:
其中,通过实验验证设置各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1,分别赋予上述各局部损失。
步骤3、构造两个同结构的子网络,分别以原始行人图像和重组后行人图像作为输入,可对应地提取全局行人特征和局部行人特征。
本步骤的具体实施方法如下:
⑴以深度残差网络为基础,设置两个相同结构的子网络;
⑵子网络1以原始行人图像为输入,子网络2以其对应的重组图像为输入,两个子网络在Block1,2,3共享参数,Block4参数独立,以便提取出相应的全局特征和局部特征。
步骤4、设置双线性融合层,作为全局特征和局部特征的融合层,得到最终的行人特征表示。
本步骤的具体实施方法如下:
⑴假设步骤3中两个子网络提取的特征向量分别为其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算方法为:其中表示外积操作,[·]表示将n1×n2维矩阵变换为n1n2×1维向量。
⑵考虑到n1、n2较大时计算量大的问题,本发明采用了“简易”双线性算法,将fg、fp融合为低维向量fc∈Rd,其算法过程为:
随机初始化中间向量ug,up∈{-1,1}n,vg,vp∈{1,2,3,...,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:其中1≤i≤d,1≤j≤n。
接着,得到向量对其进行FFT变换和逆FFT变换,即可得到“简易”双线性融合后的特征向量fc:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。
本步骤的具体实施方法如下:
输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1,2对其进行分块重组得到I′,再将I和I′分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
下面按照本发明方法在公开的数据集上进行测试,进而说明本发明的效果。
测试环境:Ubuntu14.04、MATLAB R2016a
测试数据:用于行人再识别的公共数据集CUHK01、Market1501、CUHK03-labeled和CUHK03-detected。
测试指标:本发明使用了行人再识别领域常用的两个评价指标:CMC(CumulatedMatching Characteristics)曲线和mAP(meanAverage Precision)。CMC曲线是一种top-k击中概率,该指标表示相似度排名前k的样本中,正确匹配的概率累积和。曲线越接近100%性能越好;mAP是对每个类别上的准确率进行平均得到的,适用于多摄像头的情况,如本发明实验中的Market1501数据集均来自六个不同摄像头,其评价指标有CMC和mAP。
实验设置了非双线性融合网络(Con-Net)与双线性融合网络的对比:
分别计算两种网络模型下的rank-1、rank-5、rank-10的结果,结果表明本发明优于目前其他的行人再识别算法,使得***整体匹配准确率大大提升。表1至表4是本发明算法与现有算法的性能比较。
表1
表2
表3
表4
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。

Claims (8)

1.一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于包括以下步骤:
步骤1、对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;
步骤2、采用设置加权的局部损失函数来训练该结构框预测子网络;
步骤3、构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;
步骤4、设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。
2.根据权利要求1所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤1的具体实现方法为:
(1)关键点定位:对原始行人图像定位多个身体关键点并将其作为结构块划分的依据;
(2)结构块预测:根据多个关键点对行人身体结构分块,并使用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿和右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的结构框预测子网络。
3.根据权利要求2所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述身体关键点包括:头顶关键点、颈关键点、左臂的上中下三个关键点、右臂的上中下三个关键点、左腿的上中下三个关键点、右腿的上中下三个关键点。
4.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述结构框预测子网络为放射变换子网络放射变换子网络,其结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)。
5.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤2的具体实现方法为:
(1)将多个结构子框按照头部、身体、左右臂、左右腿分为四组;
(2)将四组不同身体部位特征分别用对应的局部损失函数进行训练,最后设置加权损失Lpartition进行求和,其计算方法为:
其中,Li为每个Softmax损失,为wi每个损失函数的权重,头部、身体、左右臂、左右腿的各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1。
6.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤3以深度残差网络为基础构建两个相同结构的子网络,两个子网络的前三个块共享参数,第四个块参数独立。
7.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤4的具体实现方法为:
(1)定义两个子网络提取的特征向量分别为:其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算:其中表示外积操作,[·]表示将n1×n2维矩阵变换为n1n2×1维向量;
(2)采用简易双线性算法,将fg、fp融合为低维向量fc∈Rd,其融合过程为:
首先,随机初始化中间向量:ug,up∈{-1,1}n,vg,vp∈{1,2,3,...,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:其中1≤i≤d,1≤j≤n;
然后,得到如下向量:对其进行FFT变换和逆FFT变换,得到如下简易双线性融合后的特征向量:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
8.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤5的具体实现方法为:输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1和步骤2的方法对其进行分块重组得到的图像I′,再将I和I′分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
CN201811273872.XA 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法 Active CN109614853B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811273872.XA CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811273872.XA CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Publications (2)

Publication Number Publication Date
CN109614853A true CN109614853A (zh) 2019-04-12
CN109614853B CN109614853B (zh) 2023-05-05

Family

ID=66002316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811273872.XA Active CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Country Status (1)

Country Link
CN (1) CN109614853B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335624A (zh) * 2019-07-29 2019-10-15 吉林大学 基于功率归一化倒谱系数特征的帕金森病语音检测方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN110781931A (zh) * 2019-10-14 2020-02-11 国家广播电视总局广播电视科学研究院 一种局部特征提取和融合的超高清片源转换曲线检测方法
CN111191587A (zh) * 2019-12-30 2020-05-22 兰州交通大学 一种行人重识别方法及***
CN112084917A (zh) * 2020-08-31 2020-12-15 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN112541448A (zh) * 2020-12-18 2021-03-23 济南博观智能科技有限公司 一种行人重识别方法、装置、电子设备和存储介质
WO2021082078A1 (zh) * 2019-10-30 2021-05-06 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及可读存储介质
CN112836677A (zh) * 2021-03-02 2021-05-25 西安建筑科技大学 一种利用深度学习的弱监督车辆重识别方法
CN113657197A (zh) * 2021-07-27 2021-11-16 浙江大华技术股份有限公司 图像识别方法、图像识别模型的训练方法以及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101434A1 (zh) * 2015-12-16 2017-06-22 深圳大学 一种多摄像机间人体目标再识别的方法及***
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108416295A (zh) * 2018-03-08 2018-08-17 天津师范大学 一种基于局部嵌入深度特征的行人再识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017101434A1 (zh) * 2015-12-16 2017-06-22 深圳大学 一种多摄像机间人体目标再识别的方法及***
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108416295A (zh) * 2018-03-08 2018-08-17 天津师范大学 一种基于局部嵌入深度特征的行人再识别方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335624A (zh) * 2019-07-29 2019-10-15 吉林大学 基于功率归一化倒谱系数特征的帕金森病语音检测方法
CN110781931A (zh) * 2019-10-14 2020-02-11 国家广播电视总局广播电视科学研究院 一种局部特征提取和融合的超高清片源转换曲线检测方法
CN110781931B (zh) * 2019-10-14 2022-03-08 国家广播电视总局广播电视科学研究院 一种局部特征提取和融合的超高清片源转换曲线检测方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN110728263B (zh) * 2019-10-24 2023-10-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
WO2021082078A1 (zh) * 2019-10-30 2021-05-06 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及可读存储介质
CN111191587A (zh) * 2019-12-30 2020-05-22 兰州交通大学 一种行人重识别方法及***
CN112084917A (zh) * 2020-08-31 2020-12-15 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN112084917B (zh) * 2020-08-31 2024-06-04 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN112541448A (zh) * 2020-12-18 2021-03-23 济南博观智能科技有限公司 一种行人重识别方法、装置、电子设备和存储介质
CN112541448B (zh) * 2020-12-18 2023-04-07 济南博观智能科技有限公司 一种行人重识别方法、装置、电子设备和存储介质
CN112836677A (zh) * 2021-03-02 2021-05-25 西安建筑科技大学 一种利用深度学习的弱监督车辆重识别方法
CN112836677B (zh) * 2021-03-02 2023-04-07 西安建筑科技大学 一种利用深度学习的弱监督车辆重识别方法
CN113657197A (zh) * 2021-07-27 2021-11-16 浙江大华技术股份有限公司 图像识别方法、图像识别模型的训练方法以及相关装置

Also Published As

Publication number Publication date
CN109614853B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN109614853A (zh) 一种基于身体结构划分的双线性行人再识别网络构建方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN109993072A (zh) 基于超分辨图像生成的低分辨率行人重识别***和方法
CN111310668B (zh) 一种基于骨架信息的步态识别方法
CN107563328A (zh) 一种基于复杂环境下的人脸识别方法及***
WO2020001083A1 (zh) 一种基于特征复用的人脸识别方法
CN109635636A (zh) 基于属性特征和加权的分块特征相融合的行人再识别方法
CN109902585A (zh) 一种基于图模型的手指三模态融合识别方法
CN109063643B (zh) 一种用于脸部信息部分隐藏条件下的面部表情痛苦度识别方法
CN113096169B (zh) 一种非刚性多模医学图像的配准模型建立方法及其应用
Barman et al. Shape: A novel graph theoretic algorithm for making consensus-based decisions in person re-identification systems
KR102593835B1 (ko) 휴리스틱 가우스 클라우드 변환에 기반하는 얼굴인식 기술
CN114241517A (zh) 基于图像生成和共享学习网络的跨模态行人重识别方法
CN108985200A (zh) 一种基于终端设备的非配合式的活体检测算法
CN111488815A (zh) 基于图卷积网络和长短时记忆网络的篮球比赛进球事件预测方法
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN108564061A (zh) 一种基于二维主元分析的图像识别方法和***
Wang et al. Face aging on realistic photos by generative adversarial networks
Chen et al. Easynet: An easy network for 3d industrial anomaly detection
Wu et al. Adversarial UV-transformation texture estimation for 3D face aging
Shao et al. Federated test-time adaptive face presentation attack detection with dual-phase privacy preservation
CN114863499A (zh) 一种基于联邦学习的指静脉与掌静脉识别方法
CN115830643B (zh) 一种姿势引导对齐的轻量行人重识别方法
CN116740485A (zh) 病变检测模型的训练方法和装置、电子设备及存储介质
CN112749711B (zh) 视频获取方法和装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant