CN109614853B - 一种基于身体结构划分的双线性行人再识别网络构建方法 - Google Patents

一种基于身体结构划分的双线性行人再识别网络构建方法 Download PDF

Info

Publication number
CN109614853B
CN109614853B CN201811273872.XA CN201811273872A CN109614853B CN 109614853 B CN109614853 B CN 109614853B CN 201811273872 A CN201811273872 A CN 201811273872A CN 109614853 B CN109614853 B CN 109614853B
Authority
CN
China
Prior art keywords
pedestrian
bilinear
body structure
sub
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811273872.XA
Other languages
English (en)
Other versions
CN109614853A (zh
Inventor
胡潇
郭晓强
周芸
饶丰
李下雨
姜竹青
门爱东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Academy of Broadcasting Science Research Institute
Original Assignee
Beijing University of Posts and Telecommunications
Academy of Broadcasting Science Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications, Academy of Broadcasting Science Research Institute filed Critical Beijing University of Posts and Telecommunications
Priority to CN201811273872.XA priority Critical patent/CN109614853B/zh
Publication of CN109614853A publication Critical patent/CN109614853A/zh
Application granted granted Critical
Publication of CN109614853B publication Critical patent/CN109614853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;设置加权的局部损失函数来训练该结构框预测子网络;构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。本发明结合整体特征和局部特征,充分利用了身体结构信息,通过双线性融合方法获得更具判别力的行人特征,使得***整体匹配准确率大大提升。

Description

一种基于身体结构划分的双线性行人再识别网络构建方法
技术领域
本发明属于计算机视觉行人再识别技术领域,尤其是一种基于身体结构划分的双线性行人再识别网络构建方法。
背景技术
行人再识别是一种利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,其广泛被认为是一个图像检索的子问题。通过给定一个监控行人图像,检索跨设备、不重叠视野下的该行人图像,在刑侦、安防监控等方面具有重要作用,是“平安城市”建设的重要一环。
传统行人再识别的解决方法主要有两大类:一是特征提取,即根据监控视频里的行人提取鲁棒性的特征表示;二是距离度量,即学习一个更具判别力的特征度量方法,使得同一行人的特征间距离更近。近年来,随着深度学习技术的兴起,卷积神经网络被广泛运用在行人检测、目标跟踪等视觉任务中,并表现出了出色的性能,因此,基于深度学习的行人再识别也成为了当前的一大趋势。
然而,现有的深度学习方法大多直接提取整张行人图像的特征,无法充分利用行人的身体结构信息,这些特征对于不同视角下行人的姿势变化具有较好的鲁棒性。此外,现有方法大多运用全连接层进行特征融合,特征各维度间的交融性不强,得到的融合后特征的判别力有限。因此,上述行人再识别方法的行人再识别准确率不高。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于身体结构划分的双线性行人再识别网络构建方法,解决行人再识别准确率不高的问题。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:
步骤1、对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;
步骤2、采用设置加权的局部损失函数来训练该结构框预测子网络;
步骤3、构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;
步骤4、设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型;
所述步骤4的具体实现方法为:
⑴定义两个子网络提取的特征向量分别为:
Figure GDA0004038294660000011
其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算:
Figure GDA0004038294660000012
其中
Figure GDA0004038294660000013
表示外积操作,·]表示将n1×n2维矩阵变换为n1n2×1维向量;
(2)采用简易双线性算法,将fg、fp融合为低维向量fc∈Rd,其融合过程为:
首先,随机初始化中间向量:ug,up∈{-1,1}n,vg,vp∈{1,2,3,...,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:
Figure GDA0004038294660000021
其中1≤γ≤d,1≤j≤n;
然后,得到如下向量:
Figure GDA0004038294660000024
对其进行FFT变换和逆FFT变换,得到如下简易双线性融合后的特征向量:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
进一步,所述步骤1的具体实现方法为:
(1)关键点定位:对原始行人图像定位多个身体关键点并将其作为结构块划分的依据;
(2)结构块预测:根据多个关键点对行人身体结构分块,并使用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿和右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的结构框预测子网络。
进一步,所述身体关键点包括:头顶关键点、颈关键点、左臂的上中下三个关键点、右臂的上中下三个关键点、左腿的上中下三个关键点、右腿的上中下三个关键点
进一步,所述结构框预测子网络为仿射变换子网络,其结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)。
进一步,所述步骤2的具体实现方法为:
(1)将多个结构子框按照头部、身体、左右臂、左右腿分为四组;
(2)将四组不同身体部位特征分别用对应的局部损失函数进行训练,最后设置加权损失Lpartition进行求和,其计算方法为:
Figure GDA0004038294660000023
其中,Li为每个Softmax损失,wi为每个损失函数的权重,头部、身体、左右臂、左右腿的各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1。
进一步,所述步骤3以深度残差网络为基础构建两个相同结构的子网络,两个子网络的前三个块共享参数,第四个块参数独立。
进一步,所述步骤5的具体实现方法为:输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1和步骤2的方法对其进行分块重组得到的图像I′,再将I和I′分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
本发明的优点和积极效果是:
本发明设计合理,其充分利用身体结构信息对行人图像进行分块,相比均等分块,得到更具表现力的局部特征;在结构框预测子网络中,考虑到不同身体部位的重要性差异,引入了加权的损失函数之和,提取到更具鲁棒性和判别力的局部特征;在特征融合层,相比传统的全连接方式,运用双线性融合(外积)的方法能够提高特征的融合程度,使得融合后的特征具有较高的判别力和鲁棒性,而“简易”双线性算法的提出,有效解决了直接求外积运算量大的问题,这种融合方式提取到的行人特征,能够获得了很好的行人再识别结果,使得***整体匹配准确率大大提升。
附图说明
图1是本发明的实现原理图。
图2是本发明的结构框预测(PBE)子网络流程图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于身体结构划分的双线性行人再识别网络,如图1所示,包括以下步骤:
步骤1、构造结构框预测子网络,对原始行人图像进行身体结构分块,得到六个结构子框,将这六个子框组合成新的行人图像。
如图2所示,本步骤的具体实施方法如下:
(1)关键点定位:定位14个身体关键点并将其作为结构块划分的依据,14个身体关键点分别为:头顶、颈、左臂(上中下3点)、右臂(上中下3点)、左腿(上中下3点)、右腿(上中下3点);
(2)结构块预测:根据14个关键点,用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿、右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的预测框。仿射变换子网络(ATN)的结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)
步骤2、将六个子框按照头部、身体、左右臂、左右腿分为四组,考虑到不同身体部位特征对于行人特征的重要性差异,设置加权的局部损失函数来训练该结构框预测子网络。
本步骤的具体实施方法如下:
(1)将六个矩形结构框进行分组:头部、身体、左右臂、左右腿;
(2)考虑到不同身体部位特征对于行人特征的重要性差异,各个部分的分别用对应的局部损失函数进行训练:head_loss、body_loss、arms_loss、legs_loss,最后设置加权损失Lpartition进行求和,计算过程为:
Figure GDA0004038294660000031
其中,通过实验验证设置各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1,分别赋予上述各局部损失。
步骤3、构造两个同结构的子网络,分别以原始行人图像和重组后行人图像作为输入,可对应地提取全局行人特征和局部行人特征。
本步骤的具体实施方法如下:
(1)以深度残差网络为基础,设置两个相同结构的子网络;
(2)子网络1以原始行人图像为输入,子网络2以其对应的重组图像为输入,两个子网络在Block1,2,3共享参数,Block4参数独立,以便提取出相应的全局特征和局部特征。
步骤4、设置双线性融合层,作为全局特征和局部特征的融合层,得到最终的行人特征表示。
本步骤的具体实施方法如下:
(1)假设步骤3中两个子网络提取的特征向量分别为
Figure GDA0004038294660000041
其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算方法为:
Figure GDA0004038294660000042
其中
Figure GDA0004038294660000043
表示外积操作,[·]表示将n1×n2维矩阵变换为n1n2×1维向量。
(2)考虑到n1、n2较大时计算量大的问题,本发明采用了“简易”双线性算法,将fg、fp融合为低维向量fc∈Rd,其算法过程为:
随机初始化中间向量ug,up∈{-1,1}n,vg,vp∈{1,2,3,...,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:
Figure GDA0004038294660000044
其中1≤i≤d,1≤j≤n。
接着,得到向量
Figure GDA0004038294660000045
对其进行FFT变换和逆FFT变换,即可得到“简易”双线性融合后的特征向量fc:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。
本步骤的具体实施方法如下:
输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1,2对其进行分块重组得到I′,再将I和I′分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
下面按照本发明方法在公开的数据集上进行测试,进而说明本发明的效果。
测试环境:Ubuntu14.04、MATLAB R2016a
测试数据:用于行人再识别的公共数据集CUHK01、Market1501、CUHK03-labeled和CUHK03-detected。
测试指标:本发明使用了行人再识别领域常用的两个评价指标:CMC(CumulatedMatching Characteristics)曲线和mAP(mean Average Precision)。CMC曲线是一种top-k击中概率,该指标表示相似度排名前k的样本中,正确匹配的概率累积和。曲线越接近100%性能越好;mAP是对每个类别上的准确率进行平均得到的,适用于多摄像头的情况,如本发明实验中的Market150l数据集均来自六个不同摄像头,其评价指标有CMC和mAP。
实验设置了非双线性融合网络(Con-Net)与双线性融合网络的对比:
分别计算两种网络模型下的rank-1、rank-5、rank-10的结果,结果表明本发明优于目前其他的行人再识别算法,使得***整体匹配准确率大大提升。表1至表4是本发明算法与现有算法的性能比较。
表1
Figure GDA0004038294660000046
Figure GDA0004038294660000051
表2
Figure GDA0004038294660000052
表3
Figure GDA0004038294660000053
表4
Figure GDA0004038294660000054
Figure GDA0004038294660000061
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。

Claims (7)

1.一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于包括以下步骤:
步骤1、对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;
步骤2、采用设置加权的局部损失函数来训练该结构框预测子网络;
步骤3、构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;
步骤4、设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;
步骤5、对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型;
所述步骤4的具体实现方法为:
(1)定义两个子网络提取的特征向量分别为:
Figure FDA0004038294650000011
其中n1=n2=n=1024,利用两向量的外积对其进行双线性融合的计算:
Figure FDA0004038294650000012
其中
Figure FDA0004038294650000013
表示外积操作,[·]表示将n1×n2维矩阵变换为n1n2×1维向量;
(2)采用简易双线性算法,将fg、fp融合为低维向量fc∈Rd,其融合过程为:
首先,随机初始化中间向量:ug,up∈{-1,1}n,vg,vp∈{1,2,3,...,d}n,定义两向量Cg∈Rd,Cp∈Rd,其计算方法为:
Figure FDA0004038294650000014
其中1≤i≤d,1≤j≤n;
然后,得到如下向量:Cg={Cg1,Cg2,...,Cgd},Cp={Cp1,Cp2,...,Cpd},对其进行FFT变换和逆FFT变换,得到如下简易双线性融合后的特征向量:fc=FFT-1(FFT(Cg)⊙FFT(Cp)),其中⊙表示元素间相乘。
2.根据权利要求1所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤1的具体实现方法为:
(1)关键点定位:对原始行人图像定位多个身体关键点并将其作为结构块划分的依据;
(2)结构块预测:根据多个关键点对行人身体结构分块,并使用六个矩形结构框框出对应的身体部位:头部、上身、左臂、右臂、左腿和右腿;
(3)结构框微调:运用仿射变换,对矩形结构框的位置进行平移、旋转变换,得到微调后的结构框预测子网络。
3.根据权利要求2所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述身体关键点包括:头顶关键点、颈关键点、左臂的上中下三个关键点、右臂的上中下三个关键点、左腿的上中下三个关键点、右腿的上中下三个关键点。
4.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述结构框预测子网络为仿射变换子网络,其结构为:
平均池化层(4×4)→卷积层1(5×5)→卷积层2(5×5)。
5.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤2的具体实现方法为:
(1)将多个结构子框按照头部、身体、左右臂、左右腿分为四组;
⑵将四组不同身体部位特征分别用对应的局部损失函数进行训练,最后设置加权损失Lpartition进行求和,其计算方法为:
Figure FDA0004038294650000021
其中,Li为每个Softmax损失,wi为每个损失函数的权重,头部、身体、左右臂、左右腿的各权重参数为:w1=0.2,w2=0.4,w3=0.3,w4=0.1。
6.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤3以深度残差网络为基础构建两个相同结构的子网络,两个子网络的前三个块共享参数,第四个块参数独立。
7.根据权利要求1或2或3所述的一种基于身体结构划分的双线性行人再识别网络构建方法,其特征在于:所述步骤5的具体实现方法为:输入图像I首先被统一为256×128×3像素尺寸,然后按照步骤1和步骤2的方法对其进行分块重组得到的图像I',再将I和I'分别作为两个子网络的输入,设置批量大小为16,训练50000次,得到最终的行人再识别模型。
CN201811273872.XA 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法 Active CN109614853B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811273872.XA CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811273872.XA CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Publications (2)

Publication Number Publication Date
CN109614853A CN109614853A (zh) 2019-04-12
CN109614853B true CN109614853B (zh) 2023-05-05

Family

ID=66002316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811273872.XA Active CN109614853B (zh) 2018-10-30 2018-10-30 一种基于身体结构划分的双线性行人再识别网络构建方法

Country Status (1)

Country Link
CN (1) CN109614853B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335624A (zh) * 2019-07-29 2019-10-15 吉林大学 基于功率归一化倒谱系数特征的帕金森病语音检测方法
CN110781931B (zh) * 2019-10-14 2022-03-08 国家广播电视总局广播电视科学研究院 一种局部特征提取和融合的超高清片源转换曲线检测方法
CN110728263B (zh) * 2019-10-24 2023-10-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN110874574B (zh) * 2019-10-30 2024-05-07 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及可读存储介质
CN111191587B (zh) * 2019-12-30 2021-04-09 兰州交通大学 一种行人重识别方法及***
CN112084917B (zh) * 2020-08-31 2024-06-04 腾讯科技(深圳)有限公司 一种活体检测方法及装置
CN112541448B (zh) * 2020-12-18 2023-04-07 济南博观智能科技有限公司 一种行人重识别方法、装置、电子设备和存储介质
CN112836677B (zh) * 2021-03-02 2023-04-07 西安建筑科技大学 一种利用深度学习的弱监督车辆重识别方法
CN113657197A (zh) * 2021-07-27 2021-11-16 浙江大华技术股份有限公司 图像识别方法、图像识别模型的训练方法以及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574505B (zh) * 2015-12-16 2019-02-12 深圳大学 一种多摄像机间人体目标再识别的方法及***
CN108229444B (zh) * 2018-02-09 2021-10-12 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108416295B (zh) * 2018-03-08 2021-10-15 天津师范大学 一种基于局部嵌入深度特征的行人再识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法

Also Published As

Publication number Publication date
CN109614853A (zh) 2019-04-12

Similar Documents

Publication Publication Date Title
CN109614853B (zh) 一种基于身体结构划分的双线性行人再识别网络构建方法
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN113936339B (zh) 基于双通道交叉注意力机制的打架识别方法和装置
CN106778604B (zh) 基于匹配卷积神经网络的行人再识别方法
CN107220611B (zh) 一种基于深度神经网络的空时特征提取方法
CN111310668B (zh) 一种基于骨架信息的步态识别方法
CN110263845B (zh) 基于半监督对抗深度网络的sar图像变化检测方法
CN109635636B (zh) 基于属性特征和加权的分块特征相融合的行人再识别方法
CN112818931A (zh) 基于多粒度深度特征融合的多尺度行人重识别方法
CN109101865A (zh) 一种基于深度学习的行人重识别方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN110781766B (zh) 基于特征谱正则化的格拉斯曼流形判别分析图像识别方法
CN112084895B (zh) 一种基于深度学习的行人重识别方法
CN111353411A (zh) 一种基于联合损失函数的遮挡人脸的识别方法
CN114299542A (zh) 一种基于多尺度特征融合的视频行人重识别方法
CN112668544A (zh) 一种基于难样本混淆增强特征鲁棒性的行人重识别方法
CN116052218B (zh) 一种行人重识别方法
CN116128024A (zh) 多视角对比自监督属性网络异常点检测方法
CN111985332A (zh) 一种基于深度学习的改进损失函数的步态识别方法
Wang et al. Occluded person re-identification via defending against attacks from obstacles
CN115830531A (zh) 一种基于残差多通道注意力多特征融合的行人重识别方法
CN110222568B (zh) 一种基于时空图的跨视角步态识别方法
CN110321801B (zh) 一种基于自编码网络的换衣行人重识别方法及***
Rizzoli et al. Source-free domain adaptation for rgb-d semantic segmentation with vision transformers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant