CN114091548A - 一种基于关键点和图匹配的车辆跨域重识别方法 - Google Patents

一种基于关键点和图匹配的车辆跨域重识别方法 Download PDF

Info

Publication number
CN114091548A
CN114091548A CN202111114117.9A CN202111114117A CN114091548A CN 114091548 A CN114091548 A CN 114091548A CN 202111114117 A CN202111114117 A CN 202111114117A CN 114091548 A CN114091548 A CN 114091548A
Authority
CN
China
Prior art keywords
vehicle
domain
key point
model
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111114117.9A
Other languages
English (en)
Inventor
汪淑娟
罗慧诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202111114117.9A priority Critical patent/CN114091548A/zh
Publication of CN114091548A publication Critical patent/CN114091548A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及计算机视觉领域,特别是涉及一种基于关键点和图匹配的车辆跨域重识别方法。本发明利用以HRNet为基线的关键点模型预测出车辆的关键点坐标,将基于HRNet的关键点模型得到的坐标映射到transformer模型上,通过关键点坐标得到车辆的局部特征,使用权重分配的方式使车辆的局部特征更具鲁棒性,最后使用基于图匹配的对齐策略加强车辆全局特征和局部特征之间的联系性,可得到跨域效果良好的车辆重识别模型,克服多摄像头下车辆的外观不同差异。该方法可在跨摄像头的车辆重识别中增强同一身份车辆不同样本之间的匹配度,极大的克服多视角带来的差异和不同车辆数据集带来的身份风格差异。

Description

一种基于关键点和图匹配的车辆跨域重识别方法
技术领域
本发明涉及计算机视觉领域,特别是涉及一种基于关键点和图匹配的车辆跨域重识别方法。
背景技术
近年来,计算机视觉领域在车辆的有监督学习上进行了充分的发展,大量的方法使用在不同摄像头下多视角的图片来训练车辆网络。这些方法往往会在源域上发挥出色的性能。然而,当训练有素的源域模型一旦在网络未曾见过的目标域上进行测试时,会造成剧烈的性能下降。会造成这样的现象是基于两部分的原因,一个原因是不同的域存在着诸如车辆方向,光照,视觉模糊等环境因素的影响。另一个原因是传统的跨域车辆重识别方法只使用车辆的全局特征作为网络输入,而不重视对跨域识别有重要作用的局部特征以及局部特征之间的关联性。
在跨域车辆重识别中,最近的工作都是集中在使用聚类策略来得到车辆的伪标签,然而车辆伪标签的生成与图像的清晰度和是否模糊相关,更与超参数的使用有关。有些研究者提出使用域自适应的方法来实现车辆跨域,他们通常使用域分类或摄像头分类的对抗方法来完成对多摄像头下车辆图像视角差异的克服。然而,这些域自适应的方法只能对抗掉一部分域之间的差异,只能作为提升性能的一种手段。
现有的大部分车辆重识别策略都是基于有监督的。通过注意力模型让网络注意到车辆的关键性局部信息,为局部信息间建立互补和关联;使用教师-学生流网络,让学生流网络学习教师流网络中充分全面的车辆信息,并且用学生流中比较少的网络参数就能达到教师流中网络的效果;使用语义分割策略得到不同语义部分的车辆局部信息,通过这些局部信息辅助车辆重识别。此外,也有研究人员使用关键点来得到非常精确的局部信息,和全局特征合并使用提升车辆重识别性能。然而,他们只是将关键点作为一种提升性能的辅助手段,没有去关注更重要的车辆局部信息之间的联系。
近几年,无监督跨域车辆重识别也开始受到人工智能界的关注,一些方法也被提出。通过将目标域的风格向源域转变和利用聚类,生成能克服风格信息的伪标签来实现跨域;通过对每个方向的车辆图片进行聚类来克服视角对车辆带来的视觉偏差。然而,这些基于聚类的跨域车辆重识别方法存在不小的瑕疵。一部分的原因是因为训练聚类网络需要大量相同身份的多视角车辆图片,一旦缺少,聚类的效果就会大打折扣。另一部分的原因是当图片不够清晰或者图片出现噪音,聚类的效果就会变得很差,所以现在的学术界越来越不提倡使用聚类进行车辆跨域。
发明内容
本发明提供了一种跨域车辆重识别的方法,利用以HRNet为基线的关键点模型预测出车辆的关键点坐标,通过关键点坐标得到车辆的局部特征,使用权重分配的方式使车辆的局部特征更具鲁棒性,最后使用基于图匹配的对齐策略加强车辆全局特征和局部特征之间的联系性,克服多摄像头下车辆的外观不同差异。
本发明所采用的技术方案是:
一种基于关键点和图匹配的车辆跨域重识别方法,其特征在于,包括如下步骤:
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
使用包含有整辆车36个车辆关键点的标注作为关键点网络的坐标标签,并引进了最先进的基于CNN网络的用于人体关键点预测的HRNet模型,作为训练车辆的关键点模型。此外,我们还在多个车辆的图像集中额外挑选出不同摄像头下多视角的车辆图像作为训练和测试集,用于测试关键点模型预测关键点位置的能力。
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
Figure BDA0003274681720000031
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
用四个patch块做拼接操作来代表车辆的某个区域,接着经过两个完全连接层FC1和FC2,再经过一个softmax函数,得到代表车辆某个部件最关键信息的车辆语义特征Fl即车辆的局部特征,总共得到m个局部特征,通过如下的公式为局部特征赋予权重Wl
Figure BDA0003274681720000032
将得到的m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
经过transformer模型后,我们不仅能获取分块信息,也能获取从分块信息中得到的全局特征。对车辆的局部特征做约束固然很重要,但是在车辆跨域重识别中,车辆的全局特征才是起主体作用的,所以我们也要用全局特征和车辆的交叉熵损失做一个相乘对车辆的身份做一个全局意义上的约束。
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片的特征组进行图匹配操作,通过图匹配操作,我们能加强相同身份的两张图片的相似性,削弱不同身份两张图片的相似性,从而加强网络的辨别能力,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
此外在上述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,
Figure BDA0003274681720000033
为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,
Figure BDA0003274681720000034
为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,
Figure BDA0003274681720000041
表示在训练的前d代摄像头正确分类的损失;
Figure BDA0003274681720000042
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,
Figure BDA0003274681720000043
为transformer模型预测出的摄像头标签,
Figure BDA0003274681720000044
表示在训练的d代以后摄像头分到第u+v+1类的损失;
Figure BDA0003274681720000045
有益效果:本发明将基于CNN的关键点模型得到的坐标映射到transformer模型上,通过关键点坐标取得局部特征,通过权重分配模块使特征更加鲁棒,图匹配模块处理特征之间的关系,使特征之间联系更紧密。通过以上一系列操作,可得到跨域效果良好的车辆重识别模型,该方法可在跨摄像头的车辆重识别中增强同一身份车辆不同样本之间的匹配度,极大的克服多视角带来的环境差异和不同车辆数据集带来的身份风格差异。
附图说明
图1为基于关键点和图匹配的车辆跨域重识别方法处理流程图。
具体实施方式
为了更好的说明本发明的技术方案,下面结合附图对本发明的具体实施方式进行详细描述。
实施例1:如图1为本发明方法的流程示意图,
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
使用包含有整辆车36个车辆关键点的标注作为关键点网络的坐标标签,并引进了最先进的基于CNN网络的用于人体关键点预测的HRNet模型,作为训练车辆的关键点模型。此外,我们还在多个车辆的图像集中额外挑选出不同摄像头下多视角的车辆图像作为训练和测试集,用于测试关键点模型预测关键点位置的能力。
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
Figure BDA0003274681720000051
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
用四个patch块做拼接操作来代表车辆的某个区域,接着经过两个完全连接层FC1和FC2,再经过一个softmax函数,得到代表车辆某个部件最关键信息的车辆语义特征Fl即车辆的局部特征,总共得到m个局部特征,通过如下的公式为局部特征赋予权重Wl
Figure BDA0003274681720000052
将得到的m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
经过transformer模型后,我们不仅能获取分块信息,也能获取从分块信息中得到的全局特征。对车辆的局部特征做约束固然很重要,但是在车辆跨域重识别中,车辆的全局特征才是起主体作用的,所以我们也要用全局特征和车辆的交叉熵损失做一个相乘对车辆的身份做一个全局意义上的约束。
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片A和B的特征组PA和PB进行图匹配操作,通过图匹配操作,我们能加强相同身份的两张图片的相似性,削弱不同身份两张图片的相似性,从而加强网络的辨别能力,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
此外在上述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,
Figure BDA0003274681720000061
为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,
Figure BDA0003274681720000062
为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,
Figure BDA0003274681720000063
表示在训练的前d代摄像头正确分类的损失;
Figure BDA0003274681720000064
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,
Figure BDA0003274681720000065
为transformer模型预测出的摄像头标签,
Figure BDA0003274681720000066
表示在训练的d代以后摄像头分到第u+v+1类的损失;
Figure BDA0003274681720000067
本实施例中,我们在三个大型的车辆重识别数据集VeRi-776,VehicleID和VERI-Wild上进行了实验,与大量最先进的车辆跨域重识别方法进行了比较。
模型在VehicleID数据集跨域VeRi-776数据集和VehicleID数据集跨域VERI-Wild数据集的性能与近两年最先进方法的性能的比较结果如表1所示,比较的方法包括图像风格迁移学习方法,即SPGAN和DAVR,域自适应学习方法,即ECN和AE,以及聚类伪标签方法,即VR-PROUD和PAL。其中,→表示跨域,”-”表示无报告数据。所提出的方法在VehicleID→VeRi-776和VehicleID→VERI-Wild的Rank-1,Rank-5和mAP中实现了最好车辆的识别能力。具体而言,该模型在VeRi-776→VehicleID的Rank-1/mAP识别率达到了最先进的74.4%/41.2%。作为跨域重识别车辆的方法,在VehicleID→VeRi-776的Rank-1/mAP上优于第二好的域自适应学习方法1.0%/15.0%。与风格迁移的方法相比,所提出的方法也表现出了更好的性能,并在VehicleID→VeRi-776的Rank-1/mAP上优于第二好的风格迁移学习方法12.19%/14.85%。在VehicleID→VERI-Wild上,所提出的方法性能也优于现有车辆重识别中的所有风格迁移学习方法,大部分域自适应学习方法和部分聚类学习方法。
表1本方法与其他方法在现有数据集跨域识别的结果比较
Figure BDA0003274681720000071
为了进一步测试该方法在不同数据集上的有效性和可扩展性,我们同样探究了模型在VeRi-776数据集跨域VehicleID数据集的性能与近两年最先进方法的性能的比较结果,如表2所示。然而在VeRi-776数据集跨域VehicleID数据集上的方法有限,只有一个聚类学习方法PAL和一个风格迁移学习方法DAVR。我们所提出的方法在VeRi-776数据集跨域VehicleID数据集的性能均优于这两个方法。
表2本方法与其他方法在VeRi-776数据集跨域VehicleID数据集识别的比较结果
Figure BDA0003274681720000072
同时为了实验的完整性,模型也在别人未做过的VeRi-776数据集跨域VERI-Wild数据集,VERI-Wild数据集跨域VeRi-776数据集和VERI-Wild数据集跨域VehicleID数据集的三个跨域设置上做了实验,性能如表3和表4所示,→表示跨域,可见本方法在以上三个不同跨域类型中均取得了较好的识别效果。
表3本方法在VeRi-776数据集跨域VERI-Wild数据集以及VERI-Wild数据集跨域VeRi-776数据集的识别结果
Figure BDA0003274681720000073
Figure BDA0003274681720000081
表4本方法在VERI-Wild数据集跨域VehicleID数据集的识别结果
Figure BDA0003274681720000082
上述实施例对本发明进行说明而不是对本发明进行限制。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (7)

1.一种基于关键点和图匹配的车辆跨域重识别方法,其特征在于,包括如下步骤:
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片的特征组进行图匹配操作,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
2.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step1中训练集中的图片包含整辆车36个车辆关键点,以车辆关键点的标注作为坐标标签,对HRNet网络进行训练得到车辆的关键点模型。
3.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step2的具体步骤如下:通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
Figure FDA0003274681710000011
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
4.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step3中车辆局部特征的提取如下:用四个patch块做拼接操作来代表车辆的某个区域,接着经过两个完全连接层FC1和FC2,再经过一个softmax函数,得到代表车辆某个部件最关键信息的车辆语义特征Fl即车辆的局部特征,总共得到m个局部特征,通过如下的公式为局部特征赋予权重Wl
Figure FDA0003274681710000021
5.根据权利要求4所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,将得到的所述m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
6.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step3中用全局特征和车辆的交叉熵损失做一个相乘,对车辆的身份做一个全局意义上的约束。
7.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,在所述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,
Figure FDA0003274681710000022
为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,
Figure FDA0003274681710000023
为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,
Figure FDA0003274681710000024
表示在训练的前d代摄像头正确分类的损失;
Figure FDA0003274681710000025
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,
Figure FDA0003274681710000026
为transformer模型预测出的摄像头标签,
Figure FDA0003274681710000027
表示在训练的d代以后摄像头分到第u+v+1类的损失;
Figure FDA0003274681710000028
CN202111114117.9A 2021-09-23 2021-09-23 一种基于关键点和图匹配的车辆跨域重识别方法 Pending CN114091548A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111114117.9A CN114091548A (zh) 2021-09-23 2021-09-23 一种基于关键点和图匹配的车辆跨域重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111114117.9A CN114091548A (zh) 2021-09-23 2021-09-23 一种基于关键点和图匹配的车辆跨域重识别方法

Publications (1)

Publication Number Publication Date
CN114091548A true CN114091548A (zh) 2022-02-25

Family

ID=80296165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111114117.9A Pending CN114091548A (zh) 2021-09-23 2021-09-23 一种基于关键点和图匹配的车辆跨域重识别方法

Country Status (1)

Country Link
CN (1) CN114091548A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581864A (zh) * 2022-03-04 2022-06-03 哈尔滨工程大学 基于transformer的动态密集对齐车辆重识别技术
CN117354471A (zh) * 2023-12-05 2024-01-05 深圳市微浦技术有限公司 多摄像头协同监控方法、装置、设备及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214366A (zh) * 2018-10-24 2019-01-15 北京旷视科技有限公司 局部目标重识别方法、装置及***
US20200226421A1 (en) * 2019-01-15 2020-07-16 Naver Corporation Training and using a convolutional neural network for person re-identification
CN111797813A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于可见感知纹理语义对齐的部分行人重识别方法
CN112071075A (zh) * 2020-06-28 2020-12-11 南京信息工程大学 逃逸车辆重识别方法
CN112861691A (zh) * 2021-01-29 2021-05-28 中国科学技术大学 基于部位感知建模的遮挡场景下的行人重识别方法
CN112906493A (zh) * 2021-01-27 2021-06-04 中国石油大学(华东) 一种基于互相关注意力机制的跨模态行人重识别方法
CN112990120A (zh) * 2021-04-25 2021-06-18 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法
CN112990152A (zh) * 2021-05-10 2021-06-18 中国科学院自动化研究所 基于关键点检测和局部特征对齐的车辆重识别方法
CN113177633A (zh) * 2021-04-20 2021-07-27 浙江大学 一种深度解耦时间序列预测方法
CN113255598A (zh) * 2021-06-29 2021-08-13 南京视察者智能科技有限公司 一种基于Transformer的行人重识别方法
CN113408508A (zh) * 2021-08-20 2021-09-17 中国科学院自动化研究所 基于Transformer的非接触式心率测量方法
CN114067143A (zh) * 2021-11-24 2022-02-18 西安烽火软件科技有限公司 一种基于双子网络的车辆重识别方法
CN114581864A (zh) * 2022-03-04 2022-06-03 哈尔滨工程大学 基于transformer的动态密集对齐车辆重识别技术

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214366A (zh) * 2018-10-24 2019-01-15 北京旷视科技有限公司 局部目标重识别方法、装置及***
US20200226421A1 (en) * 2019-01-15 2020-07-16 Naver Corporation Training and using a convolutional neural network for person re-identification
CN112071075A (zh) * 2020-06-28 2020-12-11 南京信息工程大学 逃逸车辆重识别方法
CN111797813A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于可见感知纹理语义对齐的部分行人重识别方法
CN112906493A (zh) * 2021-01-27 2021-06-04 中国石油大学(华东) 一种基于互相关注意力机制的跨模态行人重识别方法
CN112861691A (zh) * 2021-01-29 2021-05-28 中国科学技术大学 基于部位感知建模的遮挡场景下的行人重识别方法
CN113177633A (zh) * 2021-04-20 2021-07-27 浙江大学 一种深度解耦时间序列预测方法
CN112990120A (zh) * 2021-04-25 2021-06-18 昆明理工大学 一种利用相机风格分离域信息的跨域行人重识别方法
CN112990152A (zh) * 2021-05-10 2021-06-18 中国科学院自动化研究所 基于关键点检测和局部特征对齐的车辆重识别方法
CN113255598A (zh) * 2021-06-29 2021-08-13 南京视察者智能科技有限公司 一种基于Transformer的行人重识别方法
CN113408508A (zh) * 2021-08-20 2021-09-17 中国科学院自动化研究所 基于Transformer的非接触式心率测量方法
CN114067143A (zh) * 2021-11-24 2022-02-18 西安烽火软件科技有限公司 一种基于双子网络的车辆重识别方法
CN114581864A (zh) * 2022-03-04 2022-06-03 哈尔滨工程大学 基于transformer的动态密集对齐车辆重识别技术

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LIAN, JIAWEI等: "Transformer-Based Attention Network for Vehicle Re-Identification", ELECTRONICS, vol. 11, no. 7, 4 April 2022 (2022-04-04) *
WEI Y等: "Pose estimation and occlusion augmentation based vision transformer for occluded person re-identification", IET CONFERENCE PROCEEDINGS, 5 May 2023 (2023-05-05) *
张强;李嘉锋;卓力;: "车辆识别技术综述", 北京工业大学学报, no. 03, 20 December 2017 (2017-12-20), pages 68 - 78 *
罗慧诚等: "Transformer框架下面向车辆重识别的特征对齐与判别性增强", 电视技术, vol. 45, no. 12, 31 December 2021 (2021-12-31), pages 129 - 135 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581864A (zh) * 2022-03-04 2022-06-03 哈尔滨工程大学 基于transformer的动态密集对齐车辆重识别技术
CN114581864B (zh) * 2022-03-04 2023-04-18 哈尔滨工程大学 基于transformer的动态密集对齐车辆重识别技术
CN117354471A (zh) * 2023-12-05 2024-01-05 深圳市微浦技术有限公司 多摄像头协同监控方法、装置、设备及存储介质
CN117354471B (zh) * 2023-12-05 2024-04-09 深圳市微浦技术有限公司 多摄像头协同监控方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Wang et al. Weakly supervised adversarial domain adaptation for semantic segmentation in urban scenes
Deng et al. Rethinking triplet loss for domain adaptation
Li et al. Triple adversarial learning and multi-view imaginative reasoning for unsupervised domain adaptation person re-identification
CN111738315B (zh) 基于对抗融合多源迁移学习的图像分类方法
Xiao et al. Learning deep feature representations with domain guided dropout for person re-identification
Yao et al. Boosting for transfer learning with multiple sources
Tsagkatakis et al. Online distance metric learning for object tracking
CN114091548A (zh) 一种基于关键点和图匹配的车辆跨域重识别方法
CN111832511A (zh) 一种增强样本数据的无监督行人重识别方法
Liu et al. Domain adaptation for semantic segmentation via patch-wise contrastive learning
Zhao et al. Transfer learning with ensemble of multiple feature representations
Shi et al. Decision-based black-box attack against vision transformers via patch-wise adversarial removal
CN111783521A (zh) 基于低秩先验引导的域不变信息分离的行人重识别方法
Hossain et al. Recognition and solution for handwritten equation using convolutional neural network
CN112488229A (zh) 一种基于特征分离和对齐的域自适应无监督目标检测方法
CN113807214B (zh) 基于deit附属网络知识蒸馏的小目标人脸识别方法
Chen et al. Multi-view vehicle type recognition with feedback-enhancement multi-branch CNNs
Zhong et al. Improving pedestrian attribute recognition with multi-scale spatial calibration
CN116563410A (zh) 基于两级生成对抗网络的电气设备电火花图像生成方法
Cai et al. Beyond photo-domain object recognition: Benchmarks for the cross-depiction problem
CN108280481A (zh) 一种基于残差网络的联合目标分类和三维姿态估计方法
Li et al. Adversarial domain adaptation via category transfer
Peng et al. Cooperative Refinement Learning for domain adaptive person Re-identification
Zha et al. Intensifying the consistency of pseudo label refinement for unsupervised domain adaptation person re-identification
CN111091165A (zh) 一种图像的细粒度识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination