CN114091548A - 一种基于关键点和图匹配的车辆跨域重识别方法 - Google Patents
一种基于关键点和图匹配的车辆跨域重识别方法 Download PDFInfo
- Publication number
- CN114091548A CN114091548A CN202111114117.9A CN202111114117A CN114091548A CN 114091548 A CN114091548 A CN 114091548A CN 202111114117 A CN202111114117 A CN 202111114117A CN 114091548 A CN114091548 A CN 114091548A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- domain
- key point
- model
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000012549 training Methods 0.000 claims description 35
- 238000013507 mapping Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000013508 migration Methods 0.000 description 5
- 230000005012 migration Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 102100040160 Rabankyrin-5 Human genes 0.000 description 1
- 101710086049 Rabankyrin-5 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及计算机视觉领域,特别是涉及一种基于关键点和图匹配的车辆跨域重识别方法。本发明利用以HRNet为基线的关键点模型预测出车辆的关键点坐标,将基于HRNet的关键点模型得到的坐标映射到transformer模型上,通过关键点坐标得到车辆的局部特征,使用权重分配的方式使车辆的局部特征更具鲁棒性,最后使用基于图匹配的对齐策略加强车辆全局特征和局部特征之间的联系性,可得到跨域效果良好的车辆重识别模型,克服多摄像头下车辆的外观不同差异。该方法可在跨摄像头的车辆重识别中增强同一身份车辆不同样本之间的匹配度,极大的克服多视角带来的差异和不同车辆数据集带来的身份风格差异。
Description
技术领域
本发明涉及计算机视觉领域,特别是涉及一种基于关键点和图匹配的车辆跨域重识别方法。
背景技术
近年来,计算机视觉领域在车辆的有监督学习上进行了充分的发展,大量的方法使用在不同摄像头下多视角的图片来训练车辆网络。这些方法往往会在源域上发挥出色的性能。然而,当训练有素的源域模型一旦在网络未曾见过的目标域上进行测试时,会造成剧烈的性能下降。会造成这样的现象是基于两部分的原因,一个原因是不同的域存在着诸如车辆方向,光照,视觉模糊等环境因素的影响。另一个原因是传统的跨域车辆重识别方法只使用车辆的全局特征作为网络输入,而不重视对跨域识别有重要作用的局部特征以及局部特征之间的关联性。
在跨域车辆重识别中,最近的工作都是集中在使用聚类策略来得到车辆的伪标签,然而车辆伪标签的生成与图像的清晰度和是否模糊相关,更与超参数的使用有关。有些研究者提出使用域自适应的方法来实现车辆跨域,他们通常使用域分类或摄像头分类的对抗方法来完成对多摄像头下车辆图像视角差异的克服。然而,这些域自适应的方法只能对抗掉一部分域之间的差异,只能作为提升性能的一种手段。
现有的大部分车辆重识别策略都是基于有监督的。通过注意力模型让网络注意到车辆的关键性局部信息,为局部信息间建立互补和关联;使用教师-学生流网络,让学生流网络学习教师流网络中充分全面的车辆信息,并且用学生流中比较少的网络参数就能达到教师流中网络的效果;使用语义分割策略得到不同语义部分的车辆局部信息,通过这些局部信息辅助车辆重识别。此外,也有研究人员使用关键点来得到非常精确的局部信息,和全局特征合并使用提升车辆重识别性能。然而,他们只是将关键点作为一种提升性能的辅助手段,没有去关注更重要的车辆局部信息之间的联系。
近几年,无监督跨域车辆重识别也开始受到人工智能界的关注,一些方法也被提出。通过将目标域的风格向源域转变和利用聚类,生成能克服风格信息的伪标签来实现跨域;通过对每个方向的车辆图片进行聚类来克服视角对车辆带来的视觉偏差。然而,这些基于聚类的跨域车辆重识别方法存在不小的瑕疵。一部分的原因是因为训练聚类网络需要大量相同身份的多视角车辆图片,一旦缺少,聚类的效果就会大打折扣。另一部分的原因是当图片不够清晰或者图片出现噪音,聚类的效果就会变得很差,所以现在的学术界越来越不提倡使用聚类进行车辆跨域。
发明内容
本发明提供了一种跨域车辆重识别的方法,利用以HRNet为基线的关键点模型预测出车辆的关键点坐标,通过关键点坐标得到车辆的局部特征,使用权重分配的方式使车辆的局部特征更具鲁棒性,最后使用基于图匹配的对齐策略加强车辆全局特征和局部特征之间的联系性,克服多摄像头下车辆的外观不同差异。
本发明所采用的技术方案是:
一种基于关键点和图匹配的车辆跨域重识别方法,其特征在于,包括如下步骤:
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
使用包含有整辆车36个车辆关键点的标注作为关键点网络的坐标标签,并引进了最先进的基于CNN网络的用于人体关键点预测的HRNet模型,作为训练车辆的关键点模型。此外,我们还在多个车辆的图像集中额外挑选出不同摄像头下多视角的车辆图像作为训练和测试集,用于测试关键点模型预测关键点位置的能力。
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
用四个patch块做拼接操作来代表车辆的某个区域,接着经过两个完全连接层FC1和FC2,再经过一个softmax函数,得到代表车辆某个部件最关键信息的车辆语义特征Fl即车辆的局部特征,总共得到m个局部特征,通过如下的公式为局部特征赋予权重Wl:
将得到的m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
经过transformer模型后,我们不仅能获取分块信息,也能获取从分块信息中得到的全局特征。对车辆的局部特征做约束固然很重要,但是在车辆跨域重识别中,车辆的全局特征才是起主体作用的,所以我们也要用全局特征和车辆的交叉熵损失做一个相乘对车辆的身份做一个全局意义上的约束。
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片的特征组进行图匹配操作,通过图匹配操作,我们能加强相同身份的两张图片的相似性,削弱不同身份两张图片的相似性,从而加强网络的辨别能力,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
此外在上述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,表示在训练的前d代摄像头正确分类的损失;
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,为transformer模型预测出的摄像头标签,表示在训练的d代以后摄像头分到第u+v+1类的损失;
有益效果:本发明将基于CNN的关键点模型得到的坐标映射到transformer模型上,通过关键点坐标取得局部特征,通过权重分配模块使特征更加鲁棒,图匹配模块处理特征之间的关系,使特征之间联系更紧密。通过以上一系列操作,可得到跨域效果良好的车辆重识别模型,该方法可在跨摄像头的车辆重识别中增强同一身份车辆不同样本之间的匹配度,极大的克服多视角带来的环境差异和不同车辆数据集带来的身份风格差异。
附图说明
图1为基于关键点和图匹配的车辆跨域重识别方法处理流程图。
具体实施方式
为了更好的说明本发明的技术方案,下面结合附图对本发明的具体实施方式进行详细描述。
实施例1:如图1为本发明方法的流程示意图,
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
使用包含有整辆车36个车辆关键点的标注作为关键点网络的坐标标签,并引进了最先进的基于CNN网络的用于人体关键点预测的HRNet模型,作为训练车辆的关键点模型。此外,我们还在多个车辆的图像集中额外挑选出不同摄像头下多视角的车辆图像作为训练和测试集,用于测试关键点模型预测关键点位置的能力。
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
用四个patch块做拼接操作来代表车辆的某个区域,接着经过两个完全连接层FC1和FC2,再经过一个softmax函数,得到代表车辆某个部件最关键信息的车辆语义特征Fl即车辆的局部特征,总共得到m个局部特征,通过如下的公式为局部特征赋予权重Wl:
将得到的m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
经过transformer模型后,我们不仅能获取分块信息,也能获取从分块信息中得到的全局特征。对车辆的局部特征做约束固然很重要,但是在车辆跨域重识别中,车辆的全局特征才是起主体作用的,所以我们也要用全局特征和车辆的交叉熵损失做一个相乘对车辆的身份做一个全局意义上的约束。
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片A和B的特征组PA和PB进行图匹配操作,通过图匹配操作,我们能加强相同身份的两张图片的相似性,削弱不同身份两张图片的相似性,从而加强网络的辨别能力,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
此外在上述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,表示在训练的前d代摄像头正确分类的损失;
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,为transformer模型预测出的摄像头标签,表示在训练的d代以后摄像头分到第u+v+1类的损失;
本实施例中,我们在三个大型的车辆重识别数据集VeRi-776,VehicleID和VERI-Wild上进行了实验,与大量最先进的车辆跨域重识别方法进行了比较。
模型在VehicleID数据集跨域VeRi-776数据集和VehicleID数据集跨域VERI-Wild数据集的性能与近两年最先进方法的性能的比较结果如表1所示,比较的方法包括图像风格迁移学习方法,即SPGAN和DAVR,域自适应学习方法,即ECN和AE,以及聚类伪标签方法,即VR-PROUD和PAL。其中,→表示跨域,”-”表示无报告数据。所提出的方法在VehicleID→VeRi-776和VehicleID→VERI-Wild的Rank-1,Rank-5和mAP中实现了最好车辆的识别能力。具体而言,该模型在VeRi-776→VehicleID的Rank-1/mAP识别率达到了最先进的74.4%/41.2%。作为跨域重识别车辆的方法,在VehicleID→VeRi-776的Rank-1/mAP上优于第二好的域自适应学习方法1.0%/15.0%。与风格迁移的方法相比,所提出的方法也表现出了更好的性能,并在VehicleID→VeRi-776的Rank-1/mAP上优于第二好的风格迁移学习方法12.19%/14.85%。在VehicleID→VERI-Wild上,所提出的方法性能也优于现有车辆重识别中的所有风格迁移学习方法,大部分域自适应学习方法和部分聚类学习方法。
表1本方法与其他方法在现有数据集跨域识别的结果比较
为了进一步测试该方法在不同数据集上的有效性和可扩展性,我们同样探究了模型在VeRi-776数据集跨域VehicleID数据集的性能与近两年最先进方法的性能的比较结果,如表2所示。然而在VeRi-776数据集跨域VehicleID数据集上的方法有限,只有一个聚类学习方法PAL和一个风格迁移学习方法DAVR。我们所提出的方法在VeRi-776数据集跨域VehicleID数据集的性能均优于这两个方法。
表2本方法与其他方法在VeRi-776数据集跨域VehicleID数据集识别的比较结果
同时为了实验的完整性,模型也在别人未做过的VeRi-776数据集跨域VERI-Wild数据集,VERI-Wild数据集跨域VeRi-776数据集和VERI-Wild数据集跨域VehicleID数据集的三个跨域设置上做了实验,性能如表3和表4所示,→表示跨域,可见本方法在以上三个不同跨域类型中均取得了较好的识别效果。
表3本方法在VeRi-776数据集跨域VERI-Wild数据集以及VERI-Wild数据集跨域VeRi-776数据集的识别结果
表4本方法在VERI-Wild数据集跨域VehicleID数据集的识别结果
上述实施例对本发明进行说明而不是对本发明进行限制。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (7)
1.一种基于关键点和图匹配的车辆跨域重识别方法,其特征在于,包括如下步骤:
Step1训练车辆的关键点模型:通过训练集对CNN网络进行训练得到关键点模型;
Step2基于关键点模型进行关键点的映射:通过关键点模型预测出车辆的关键点并映射至transformer模型上;
Step3对训练集进行特征提取:利用Step2中的transformer模型提取训练集中车辆图片的全局特征和局部特征,并对图像的局部特征赋予权重;
Step4对训练集中的车辆图片进行图匹配:对Step3中得到的每张图片的全局特征和局部特征进行拼接操作,得到代表图片的特征组,对任意两张图片的特征组进行图匹配操作,最后输出得到车辆跨域重识别模型;
Step5利用Step4中得到的车辆跨域重识别模型对跨域车辆进行重识别。
2.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step1中训练集中的图片包含整辆车36个车辆关键点,以车辆关键点的标注作为坐标标签,对HRNet网络进行训练得到车辆的关键点模型。
3.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step2的具体步骤如下:通过关键点模型预测出车辆的关键点s的坐标(sx,sy)和坐标(sx,sy)的可信赖度e,用transformer模型中多头注意力层得到的patch块来取代关键点模型中得到的关键点,即从transformer模型所有patch块里选择x个和关键点模型预测出的关键点相匹配的patch块t,得到的patch块作为下一步加权和图匹配的输入,得到patch块的过程如下:
其中,transformer模型滑动的步长为d,patch块的边长为h,W代表图片的宽度,Relu代表一种激活函数,t代表由关键点模型预测出的关键点映射到transformer模型的patch块。
5.根据权利要求4所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,将得到的所述m个局部特征的权重和车辆的交叉熵损失做一个相乘,对车辆的身份做一个局部意义上的约束。
6.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,所述Step3中用全局特征和车辆的交叉熵损失做一个相乘,对车辆的身份做一个全局意义上的约束。
7.根据权利要求1所述的基于关键点和图匹配的车辆跨域重识别方法,其特征在于,在所述transformer模型训练的过程中加入源域车辆和目标域车辆的摄像头标签,引入摄像头分类对抗,来实现车辆的域自适应,假设源域的摄像头有u个,目标域的摄像头有v个,x为源域真实的摄像头标签,为transformer模型预测出的摄像头标签,y为目标域真实的摄像头标签,为transformer模型预测出的目标域摄像头标签,源域和目标域的批次均为bs,在训练的前d代,我们让transformer模型能够准确地分类源域和目标域的摄像头标签,表示在训练的前d代摄像头正确分类的损失;
在d代以后,将源域和目标域的摄像头分到第u+v+1类上,以此类克服域差异带来的影响,其中,z为第u+v+1类的摄像头标签,为transformer模型预测出的摄像头标签,表示在训练的d代以后摄像头分到第u+v+1类的损失;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111114117.9A CN114091548A (zh) | 2021-09-23 | 2021-09-23 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111114117.9A CN114091548A (zh) | 2021-09-23 | 2021-09-23 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114091548A true CN114091548A (zh) | 2022-02-25 |
Family
ID=80296165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111114117.9A Pending CN114091548A (zh) | 2021-09-23 | 2021-09-23 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114091548A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581864A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工程大学 | 基于transformer的动态密集对齐车辆重识别技术 |
CN117354471A (zh) * | 2023-12-05 | 2024-01-05 | 深圳市微浦技术有限公司 | 多摄像头协同监控方法、装置、设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214366A (zh) * | 2018-10-24 | 2019-01-15 | 北京旷视科技有限公司 | 局部目标重识别方法、装置及*** |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN111797813A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于可见感知纹理语义对齐的部分行人重识别方法 |
CN112071075A (zh) * | 2020-06-28 | 2020-12-11 | 南京信息工程大学 | 逃逸车辆重识别方法 |
CN112861691A (zh) * | 2021-01-29 | 2021-05-28 | 中国科学技术大学 | 基于部位感知建模的遮挡场景下的行人重识别方法 |
CN112906493A (zh) * | 2021-01-27 | 2021-06-04 | 中国石油大学(华东) | 一种基于互相关注意力机制的跨模态行人重识别方法 |
CN112990120A (zh) * | 2021-04-25 | 2021-06-18 | 昆明理工大学 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
CN112990152A (zh) * | 2021-05-10 | 2021-06-18 | 中国科学院自动化研究所 | 基于关键点检测和局部特征对齐的车辆重识别方法 |
CN113177633A (zh) * | 2021-04-20 | 2021-07-27 | 浙江大学 | 一种深度解耦时间序列预测方法 |
CN113255598A (zh) * | 2021-06-29 | 2021-08-13 | 南京视察者智能科技有限公司 | 一种基于Transformer的行人重识别方法 |
CN113408508A (zh) * | 2021-08-20 | 2021-09-17 | 中国科学院自动化研究所 | 基于Transformer的非接触式心率测量方法 |
CN114067143A (zh) * | 2021-11-24 | 2022-02-18 | 西安烽火软件科技有限公司 | 一种基于双子网络的车辆重识别方法 |
CN114581864A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工程大学 | 基于transformer的动态密集对齐车辆重识别技术 |
-
2021
- 2021-09-23 CN CN202111114117.9A patent/CN114091548A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214366A (zh) * | 2018-10-24 | 2019-01-15 | 北京旷视科技有限公司 | 局部目标重识别方法、装置及*** |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN112071075A (zh) * | 2020-06-28 | 2020-12-11 | 南京信息工程大学 | 逃逸车辆重识别方法 |
CN111797813A (zh) * | 2020-07-21 | 2020-10-20 | 天津理工大学 | 基于可见感知纹理语义对齐的部分行人重识别方法 |
CN112906493A (zh) * | 2021-01-27 | 2021-06-04 | 中国石油大学(华东) | 一种基于互相关注意力机制的跨模态行人重识别方法 |
CN112861691A (zh) * | 2021-01-29 | 2021-05-28 | 中国科学技术大学 | 基于部位感知建模的遮挡场景下的行人重识别方法 |
CN113177633A (zh) * | 2021-04-20 | 2021-07-27 | 浙江大学 | 一种深度解耦时间序列预测方法 |
CN112990120A (zh) * | 2021-04-25 | 2021-06-18 | 昆明理工大学 | 一种利用相机风格分离域信息的跨域行人重识别方法 |
CN112990152A (zh) * | 2021-05-10 | 2021-06-18 | 中国科学院自动化研究所 | 基于关键点检测和局部特征对齐的车辆重识别方法 |
CN113255598A (zh) * | 2021-06-29 | 2021-08-13 | 南京视察者智能科技有限公司 | 一种基于Transformer的行人重识别方法 |
CN113408508A (zh) * | 2021-08-20 | 2021-09-17 | 中国科学院自动化研究所 | 基于Transformer的非接触式心率测量方法 |
CN114067143A (zh) * | 2021-11-24 | 2022-02-18 | 西安烽火软件科技有限公司 | 一种基于双子网络的车辆重识别方法 |
CN114581864A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工程大学 | 基于transformer的动态密集对齐车辆重识别技术 |
Non-Patent Citations (4)
Title |
---|
LIAN, JIAWEI等: "Transformer-Based Attention Network for Vehicle Re-Identification", ELECTRONICS, vol. 11, no. 7, 4 April 2022 (2022-04-04) * |
WEI Y等: "Pose estimation and occlusion augmentation based vision transformer for occluded person re-identification", IET CONFERENCE PROCEEDINGS, 5 May 2023 (2023-05-05) * |
张强;李嘉锋;卓力;: "车辆识别技术综述", 北京工业大学学报, no. 03, 20 December 2017 (2017-12-20), pages 68 - 78 * |
罗慧诚等: "Transformer框架下面向车辆重识别的特征对齐与判别性增强", 电视技术, vol. 45, no. 12, 31 December 2021 (2021-12-31), pages 129 - 135 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581864A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工程大学 | 基于transformer的动态密集对齐车辆重识别技术 |
CN114581864B (zh) * | 2022-03-04 | 2023-04-18 | 哈尔滨工程大学 | 基于transformer的动态密集对齐车辆重识别技术 |
CN117354471A (zh) * | 2023-12-05 | 2024-01-05 | 深圳市微浦技术有限公司 | 多摄像头协同监控方法、装置、设备及存储介质 |
CN117354471B (zh) * | 2023-12-05 | 2024-04-09 | 深圳市微浦技术有限公司 | 多摄像头协同监控方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Weakly supervised adversarial domain adaptation for semantic segmentation in urban scenes | |
Deng et al. | Rethinking triplet loss for domain adaptation | |
Li et al. | Triple adversarial learning and multi-view imaginative reasoning for unsupervised domain adaptation person re-identification | |
CN111738315B (zh) | 基于对抗融合多源迁移学习的图像分类方法 | |
Xiao et al. | Learning deep feature representations with domain guided dropout for person re-identification | |
Yao et al. | Boosting for transfer learning with multiple sources | |
Tsagkatakis et al. | Online distance metric learning for object tracking | |
CN114091548A (zh) | 一种基于关键点和图匹配的车辆跨域重识别方法 | |
CN111832511A (zh) | 一种增强样本数据的无监督行人重识别方法 | |
Liu et al. | Domain adaptation for semantic segmentation via patch-wise contrastive learning | |
Zhao et al. | Transfer learning with ensemble of multiple feature representations | |
Shi et al. | Decision-based black-box attack against vision transformers via patch-wise adversarial removal | |
CN111783521A (zh) | 基于低秩先验引导的域不变信息分离的行人重识别方法 | |
Hossain et al. | Recognition and solution for handwritten equation using convolutional neural network | |
CN112488229A (zh) | 一种基于特征分离和对齐的域自适应无监督目标检测方法 | |
CN113807214B (zh) | 基于deit附属网络知识蒸馏的小目标人脸识别方法 | |
Chen et al. | Multi-view vehicle type recognition with feedback-enhancement multi-branch CNNs | |
Zhong et al. | Improving pedestrian attribute recognition with multi-scale spatial calibration | |
CN116563410A (zh) | 基于两级生成对抗网络的电气设备电火花图像生成方法 | |
Cai et al. | Beyond photo-domain object recognition: Benchmarks for the cross-depiction problem | |
CN108280481A (zh) | 一种基于残差网络的联合目标分类和三维姿态估计方法 | |
Li et al. | Adversarial domain adaptation via category transfer | |
Peng et al. | Cooperative Refinement Learning for domain adaptive person Re-identification | |
Zha et al. | Intensifying the consistency of pseudo label refinement for unsupervised domain adaptation person re-identification | |
CN111091165A (zh) | 一种图像的细粒度识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |