CN111950367A - 一种面向航拍影像的无监督车辆重识别方法 - Google Patents

一种面向航拍影像的无监督车辆重识别方法 Download PDF

Info

Publication number
CN111950367A
CN111950367A CN202010653505.3A CN202010653505A CN111950367A CN 111950367 A CN111950367 A CN 111950367A CN 202010653505 A CN202010653505 A CN 202010653505A CN 111950367 A CN111950367 A CN 111950367A
Authority
CN
China
Prior art keywords
vehicle
unsupervised
training
identification
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010653505.3A
Other languages
English (en)
Inventor
黄庆明
滕尚志
张史梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Chinese Academy of Sciences
Original Assignee
University of Chinese Academy of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Chinese Academy of Sciences filed Critical University of Chinese Academy of Sciences
Priority to CN202010653505.3A priority Critical patent/CN111950367A/zh
Publication of CN111950367A publication Critical patent/CN111950367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及计算机视觉附属装置的技术领域,特别是涉及一种面向航拍影像的无监督车辆重识别方法,可以直接从采集的原始视频中无监督的学得车辆重识别特征表示,包括以下步骤:(一)、从原始视频中随机挑选出200帧用来标注车辆框,然后训练车辆检测模型;(二)、根据训练好的车辆检测模型得到所有视频帧中的车辆的位置和边界框参数。(三)、根据目标车辆边界框参数和循环一致性方法训练车辆跟踪定位模型。(四)、根据车辆跟踪定位模型把视频帧中的对应车辆关联起来并标注相应的车辆ID(身份标识号)。(五)、根据自动标注好的车辆数据训练神经网络并更新参数,然后在测试集上提取车辆特征并进行检索。

Description

一种面向航拍影像的无监督车辆重识别方法
技术领域
本发明涉及计算机视觉附属装置的技术领域,特别是涉及一种面向航拍影像的无监督车辆重识别方法。
背景技术
目标重识别技术是目标广域检索与长时跟踪、轨迹预测,以及智慧城市、平安工程等应用的基础,具有重要的研究意义和应用价值。车辆重识别是实现高效交通监控和智能城市监控的重要技术之一。给定查询目标车辆图像,车辆重识别需要在监控摄像头或网络中收集的大规模车辆图像库中查找属于同一车辆的图像。当前的车辆重识别方法主要分为三类:基于度量学习进行全局特征优化;融合局部细节进行高判别力特征学习;基于视角信息学习视角鲁棒特征。虽然车辆重识别已经取得较大发展,但是这些方法都依赖于大量的人工标注数据的训练。
目前,还没有无监督车辆重识别算法的相关工作,但关于行人的无监督重识别算法已经被广泛关注和研究,主要分为两类:减小源数据集和目标数据集的分布差异,然后把在源数据集上学到的模型直接应用到目标数据集上;利用源数据集学到的模型对目标数据集聚类然后标注伪标签,根据得到的伪标签微调网络参数。这些无监督重识别方法都会利用一个或多个源数据集来提高网络模型在目标数据集上的泛化性能。但是,当源数据和目标数据分布差异过大时,这种迁移学习方法和聚类方法就很难获得比较好的性能。如果可以不依赖任何其他相关数据集和标签,直接从原始视频中自动标注车辆ID(identification,身份标识号)并学习重识别特征,则会极大地方便重识别技术的扩展和落地。利用无监督跟踪技术自动标注视频中车辆的ID可以减轻重识别技术对大量人工标注数据的依赖。而先前的工作并没有类似解决问题的方法。
发明内容
为解决上述技术问题,本发明提供一种可以直接从采集的原始视频中无监督的学得车辆重识别特征表示的面向航拍影像的无监督车辆重识别方法。
本发明的一种面向航拍影像的无监督车辆重识别方法,包括以下步骤:
(一)、从原始视频中随机挑选出200帧用来标注车辆框,然后训练车辆检测模型;
(二)、根据训练好的车辆检测模型得到所有视频帧中的车辆的位置和边界框参数。
(三)、根据目标车辆边界框参数和循环一致性方法训练车辆跟踪定位模型。
(四)、根据车辆跟踪定位模型把视频帧中的对应车辆关联起来并标注相应的车辆ID(身份标识号)。
(五)、根据自动标注好的车辆数据训练神经网络并更新参数,然后在测试集上提取车辆特征并进行检索。
本发明的一种面向航拍影像的无监督车辆重识别方法,所述步骤(一)中,训练车辆检测模型时,选择目标检测任务中广泛使用的SSD作为车辆检测的基础模型。
本发明的一种面向航拍影像的无监督车辆重识别方法,所述步骤(二)中,边界框参数即为车辆目标的四个顶点在帧中的相对位置。
本发明的一种面向航拍影像的无监督车辆重识别方法,所述步骤(四)中,在把对应车辆关联起来并标注相应的车辆ID的过程中,采用车辆检测框替代车辆定位区域及时修正跟踪定位结果。
本发明的一种面向航拍影像的无监督车辆重识别方法,所述步骤(三)中,引入自监督三元组损失函数辅助车辆特征表示学习。
本发明的一种面向航拍影像的无监督车辆重识别方法,所述步骤(五)中,把自动标注的车辆数据与人工标注的车辆数据相结合进行网络训练,进一步提高车辆特征的表示能力。
与现有技术相比本发明的有益效果为:设计了一个循环一致性学习方法,用来无监督的学习一个车辆跟踪定位模块,并引入三元组损失函数优化跟踪定位模块的训练,同时加速网络收敛;训练阶段可以挖掘海量的无标签视频数据的内在对应关系,测试阶段可以根据前一帧中目标车辆的位置推断出目标车辆在下一帧中出现的位置;利用学到的车辆跟踪定位模块,解决视频中无标签车辆数据自动分配标签的问题;能根据海量的无标签视频数据,自动标注视频中各个车辆的ID信息,减轻车辆重识别技术对大量人工标注数据的依赖;在自动标注车辆数据集的过程中,采用车辆检测框替代车辆定位区域及时修正跟踪定位结果;使得从视频帧中抠出和标注的车辆图片更加准确,进而可以获得更好的车辆特征表示能力;在自动标注车辆数据集后,利用同标签之间特征距离关系去除一些噪声图片;使得自动标注的车辆数据集更加干净、准确,进而有利于获得更好的车辆特征表示能力;将自动标注的车辆数据与人工标注的车辆数据相结合进行模型训练;首先利用自动标注的车辆数据预训练网络,然后再在人工标注的车辆数据上做微调,可以极大地提高车辆特征的表示能力;相比于之前基于迁移学习或聚类的无监督重识别算法依赖相关源数据集来辅助训练,该方法可以直接从采集的原始视频中无监督的学得车辆重识别特征表示。不需要相关的辅助数据集可以极大地方便重识别***的扩展和落地应用。另外采用循环一致性方法,把原始视频中各个车辆的图片序列关联起来,进而自动获得各车辆的身份标签信息,可以极大地缓解再识别任务对人工标注数据的依赖。
附图说明
图1是本发明的流程图;
图2是循环一致性学习算法装置图;
图3是定位模块结构图;
图4是训练数据量的大小对再识别性能的影响结果图;
图5是车辆序列自动标注结果展示图;
图6是三元组损失对最终车辆再识别性能的影响表;
图7是采用车辆检测框替代车辆定位区域及时修正跟踪定位结果对最终车辆再识别性能的影响表;
图8是结合自动标注数据和有监督数据的性能展示表;
附图中标记:
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例:
由图1可知,包括如下步骤:
1、从原始视频中随机挑选出200帧用来标注车辆框,然后训练车辆检测模型。具体而言,在步骤1训练车辆检测模型时,选择目标检测任务中广泛使用的SSD作为车辆检测的基础模型。把从训练视频中随机抽取的200帧图像和对应的车辆框标注文件作为输入(输入图像尺寸缩放到512*512大小),训练检测模型SSD,模型收敛后保存模型参数。
2、根据训练好的车辆检测模型得到所有视频帧中的车辆的位置和边界框参数θ。边界框参数即为车辆目标的四个顶点在帧中的相对位置。例如,以帧的左上角为(0,0),右下角为(1,1)进行坐标归一化。
3、根据目标车辆边界框参数和循环一致性方法训练车辆跟踪定位模型LM(Localization Model)。在训练时,通过无监督的方式,在每一帧中选取一个三元组构建三元损失函数,进而辅助车辆跟踪定位模型更好更快地收敛。
由图2和图3可知,具体而言,前向跟踪定位时,根据两张连续帧图片It,It+1及图片It中对应的车辆位置参数θt,从It中随机选择一个车辆位置
Figure BDA0002575869780000051
以此抠出对应的目标车辆图片Tt,以及以Tt为中心四倍Tt大小的对应It,It+1中的搜索区域Pt和Pt+1。把Tt,Pt和Pt+1输入图3中共享参数的网络
Figure BDA0002575869780000052
中得到特征图
Figure BDA0002575869780000053
Figure BDA0002575869780000054
然后计算两个特征向量之间的相似性矩阵:
Figure BDA0002575869780000055
其中
Figure BDA0002575869780000056
Figure BDA0002575869780000057
都在c维度上进行了二范数归一化。在H后面再接上一个卷积层和全连接层,最后输出拥有三个数值的变换参数
Figure BDA0002575869780000058
这三个数值代表了目标Tt对应于搜索区域Pt+1的平移旋转参数,即可以根据
Figure BDA00025758697800000510
Figure BDA00025758697800000511
中找到跟
Figure BDA00025758697800000512
最相似的特征区域
Figure BDA00025758697800000513
也意味着可以根据
Figure BDA00025758697800000514
在Pt+1中找到跟Tt最相似的像素区域Tt+1。在反向跟踪定位时,把预测区域Tt+1作为初始目标,Pt作为搜索区域,然后用同样的方式经过定位模块后可以得到位置变换参数
Figure BDA0002575869780000059
根据
Figure BDA00025758697800000515
Figure BDA00025758697800000516
可以计算循环一致性损失Lθ(具体运算操作参考[12])。Lθ越小表示我们的跟踪定位模型学得越好。根据
Figure BDA00025758697800000517
Figure BDA00025758697800000518
可以计算特征相似性损失Lsim(具体操作参考[13])。Lsim越小表示
Figure BDA00025758697800000519
Figure BDA00025758697800000520
越相似,即特征越有判别力。自监督三元损失Ltri(fa,fp,fn)=max(0,d(fa,fp)-d(fa,fn)+m),其中fa为图2中初始目标的特征表示,fp为图2中正例的特征表示(通过对初始目标做小范围的旋转和缩放得到),fn为图2中最难的负例的特征表示(选取与初始目标特征距离最近的负例特征),m为一个距离阈值常量。最终的损失函数可以表示为:
L=Lθ1Lsim2Ltri
其中,λ1与λ2为权重系数。
4、根据车辆跟踪定位模型LM把视频帧中的对应车辆关联起来并标注相应的车辆ID(identification,身份标识号)。其中,在把对应车辆关联起来并标注相应的车辆ID的过程中,采用车辆检测框替代车辆定位区域及时修正跟踪定位结果。同时在自动标注车辆数据集后,利用同标签之间特征距离关系去除一些噪声图片,使得自动标注的车辆数据集更加干净、准确。
具体而言,因为学到的LM可以根据当前帧中目标车辆的位置定位出目标车辆在下一帧中出现的位置,所以我们可以连续的使用LM来得到目标车辆在之后帧中出现的所有序列图片,然后把它们标注成相同的ID。但是,LM可能出现误差,连续使用可能会使误差放大,所以利用定位结果附近的车辆检测框来修正LM的跟踪定位结果可以使得自动获得的车辆序列更加准确。当定位结果附近没有检测框时或者是最相近的车辆检测框不对时,自动标注的序列里会出现车辆框不准或ID标注错误的干扰图片。如果能去除这些干扰图片再训练网络,会更加有利于提升车辆再识别的性能。首先利用自动标注的车辆序列训练一个车辆特征编码网络,然后提取出序列中所有车辆图片的特征,对于相同ID的车辆序列,计算序列中所有图片到初始目标(序列中第一个车辆图)的特征距离,超过一定阈值的就从序列中去除掉。
5、根据自动标注好的车辆数据训练神经网络并更新参数,然后在测试集上提取车辆特征并进行检索。结合少量人工标注的数据,可以进一步大幅提升车辆再识别性能。
该实施例中的实验结果是根据无人机拍摄的车辆图片数据库(UAV-VeRI)上测试得出。经试验得到体现技术效果的表格如下:
图6为三元组损失(triplet loss)对最终车辆再识别性能的影响,其中:
CCLM-w/o-TL代表不使用三元组损失的方法;
CCLM-w/-TL代表使用三元组损失的方法。
从图6可以看出,使用三元组损失可以提升最终的车辆再识别性能。
图7为采用车辆检测框替代车辆定位区域及时修正跟踪定位结果对最终车辆再识别性能的影响,其中:
SLLM-w/o-RVS代表不修正车辆跟踪序列的方法;
SLLM-w/-RVS代表修正车辆跟踪序列的方法。
从图7可以看出,采用车辆检测框替代车辆定位区域及时修正跟踪定位结果可以提升最终的车辆再识别性能。
由图4可以看出,随着训练帧数的增多,性能也逐渐上升。因为这些训练用的视频帧都是不需要手动标注ID的,所以表明我们的方法非常容易扩展。
由图5可以看出,其中每一行为自动标注的连续10帧中的相同ID的车辆图片。前5个图片为不使用车辆检测框修正车辆跟踪序列的结果,后5个图片为使用车辆检测框修正车辆跟踪序列的结果。可以看出,我们方法的有效性。
图8为结合自动标注数据和有监督数据,联合训练以提升再识别性能的结果,其中:
Fully Supervised代表只使用有标签数据来训练神经网络,然后在测试集上测试的方法;
Weakly Supervised代表只使用自动标注数据来训练神经网络,然后在测试集上测试的方法;
S+W代表把自动标注数据和有标签数据混在一起之后训练神经网络,然后在测试集上测试的方法;
S->W代表先用有标签数据训练神经网络,然后再用自动标注数据进行微调网络的方法;
W->S代表先用自动标注数据训练神经网络,然后再用有标签数据进行微调网络的方法。
从图8可以看出,W->S相较于Fully Supervised性能上有极大地提升。这表明我们提出的无监督再识别方法,既可以达到有监督方法的良好性能,又可以辅助有监督数据进一步提升性能。
附件:
[1]H.Liu,Y.Tian,Y.Wang,L.Pang,and T.Huang,“Deep relative distancelearning:Tell the difference between similar vehicles,”in CVPR,Jun.2016,pp.2167–2175.
[2]Y.Bai,Y.Lou,F.Gao,S.Wang,Y.Wu,and L.-Y.Duan,“Group sensitivetriplet embedding for vehicle reidentification,”TMM,pages 2385–2399,Sep.2018.
[3]B.He,J.Li,Y.Zhao and Y.Tian.Part-regularized Near-duplicateVehicle Re-identification.In CVPR,2019.
[4]Z.Wang,L.Tang,X.Liu,Z.Yao,S.Yi,J.Shao,J.Yan,S.Wang,H.Li andX.Wang.Orientation Invariant Feature Embedding and Spatial TemporalRegularization for Vehicle Re-identification.In CVPR,2017.
[5]R.Chu,Y.Sun,Y.Li,Z.Liu,C.Zhang,Y.Wei.Vehicle Re-identificationwith Viewpoint-aware Metric Learning.In ICCV,2019.
[6]P.Khorramshahi,A.Kumar,N.Peri,S.Rambhatla,J.Chen and R.Chellappa.ADual-Path Model with Adaptive Attention For Vehicle Re-Identification.InICCV,2019.
[7]L.Qi,L.Wang,J.Huo,L.Zhou,Y.Shi,and Y.Gao.A novel unsupervisedcamera-aware domain adaptation framework for person re-identification.InICCV,2019.
[8]A.Wu,W.-S.Zheng,and J.-H.Lai.Unsupervised person re-identificationby camera-aware similarity consistency learning.In ICCV,2019.
[9]Y.Lin,X.Dong,L.Zheng,Y.Yan,and Y.Yang.A bottom-up clusteringapproach to unsupervised person re-identification.In AAAI,2019.
[10]Y.Fu,Y.Wei,G.Wang,Y.Zhou,H.Shi,and T.S.Huang.Selfsimilaritygrouping:A simple unsupervised cross domain adaptation approach for personre-identification.In ICCV,2019.
[11]W.Liu,D.Anguelov,D.Erhan,C.Szegedy,S.Reed,C.-Y.Fu,andA.C.Berg.SSD:Single shot multibox detector.In ECCV,2016.
[12]I.Rocco,R.Arandjelovic,and J.Sivic.Convolutional neural networkarchitecture for geometric matching.In CVPR,2017.
[13]I.Rocco,R.Arandjelovi′c,and J.Sivic.End-to-end weaklysupervisedsemantic alignment.In CVPR,2018.
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。

Claims (6)

1.一种面向航拍影像的无监督车辆重识别方法,其特征在于,包括以下步骤:
(一)、从原始视频中随机挑选出200帧用来标注车辆框,然后训练车辆检测模型;
(二)、根据训练好的车辆检测模型得到所有视频帧中的车辆的位置和边界框参数。
(三)、根据目标车辆边界框参数和循环一致性方法训练车辆跟踪定位模型。
(四)、根据车辆跟踪定位模型把视频帧中的对应车辆关联起来并标注相应的车辆ID(身份标识号)。
(五)、根据自动标注好的车辆数据训练神经网络并更新参数,然后在测试集上提取车辆特征并进行检索。
2.如权利要求1所述的一种面向航拍影像的无监督车辆重识别方法,其特征在于,所述步骤(一)中,训练车辆检测模型时,选择目标检测任务中广泛使用的SSD等目标检测算法作为车辆检测的基础模型。
3.如权利要求2所述的一种面向航拍影像的无监督车辆重识别方法,其特征在于,所述步骤(二)中,边界框参数即为车辆目标的四个顶点在帧中的相对位置。
4.如权利要求3所述的一种面向航拍影像的无监督车辆重识别方法,其特征在于,所述步骤(四)中,在把对应车辆关联起来并标注相应的车辆ID的过程中,采用车辆检测框替代车辆定位区域及时修正跟踪定位结果。
5.如权利要求4所述的一种面向航拍影像的无监督车辆重识别方法,其特征在于,所述步骤(三)中,引入自监督三元组损失函数辅助车辆特征表示学习。
6.如权利要求5所述的一种面向航拍影像的无监督车辆重识别方法,其特征在于,所述步骤(五)中,把自动标注的车辆数据与人工标注的车辆数据相结合进行网络训练,进一步提高车辆特征的表示能力。
CN202010653505.3A 2020-07-08 2020-07-08 一种面向航拍影像的无监督车辆重识别方法 Pending CN111950367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010653505.3A CN111950367A (zh) 2020-07-08 2020-07-08 一种面向航拍影像的无监督车辆重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010653505.3A CN111950367A (zh) 2020-07-08 2020-07-08 一种面向航拍影像的无监督车辆重识别方法

Publications (1)

Publication Number Publication Date
CN111950367A true CN111950367A (zh) 2020-11-17

Family

ID=73341042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010653505.3A Pending CN111950367A (zh) 2020-07-08 2020-07-08 一种面向航拍影像的无监督车辆重识别方法

Country Status (1)

Country Link
CN (1) CN111950367A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256680A (zh) * 2021-05-13 2021-08-13 燕山大学 一种基于无监督学习高精度的目标跟踪***
CN113449643A (zh) * 2021-06-29 2021-09-28 福信富通科技股份有限公司 使用自监督预训练的TimeSformer进行视频目标检测的方法及其应用
CN113792686A (zh) * 2021-09-17 2021-12-14 中南大学 基于视觉表征跨传感器不变性的车辆重识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921875A (zh) * 2018-07-09 2018-11-30 哈尔滨工业大学(深圳) 一种基于航拍数据的实时车流检测与追踪方法
CN109766828A (zh) * 2019-01-08 2019-05-17 重庆同济同枥信息技术有限公司 一种车辆目标分割方法、装置及通信设备
CN110119726A (zh) * 2019-05-20 2019-08-13 四川九洲视讯科技有限责任公司 一种基于YOLOv3模型的车辆品牌多角度识别方法
WO2020023518A1 (en) * 2018-07-23 2020-01-30 Hrl Laboratories, Llc A method of real time vehicle recognition with neuromorphic computing network for autonomous driving
CN111078946A (zh) * 2019-12-04 2020-04-28 杭州皮克皮克科技有限公司 一种基于多目标区域特征聚合的卡口车辆检索方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921875A (zh) * 2018-07-09 2018-11-30 哈尔滨工业大学(深圳) 一种基于航拍数据的实时车流检测与追踪方法
WO2020023518A1 (en) * 2018-07-23 2020-01-30 Hrl Laboratories, Llc A method of real time vehicle recognition with neuromorphic computing network for autonomous driving
CN109766828A (zh) * 2019-01-08 2019-05-17 重庆同济同枥信息技术有限公司 一种车辆目标分割方法、装置及通信设备
CN110119726A (zh) * 2019-05-20 2019-08-13 四川九洲视讯科技有限责任公司 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN111078946A (zh) * 2019-12-04 2020-04-28 杭州皮克皮克科技有限公司 一种基于多目标区域特征聚合的卡口车辆检索方法及***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256680A (zh) * 2021-05-13 2021-08-13 燕山大学 一种基于无监督学习高精度的目标跟踪***
CN113449643A (zh) * 2021-06-29 2021-09-28 福信富通科技股份有限公司 使用自监督预训练的TimeSformer进行视频目标检测的方法及其应用
CN113792686A (zh) * 2021-09-17 2021-12-14 中南大学 基于视觉表征跨传感器不变性的车辆重识别方法
CN113792686B (zh) * 2021-09-17 2023-12-08 中南大学 基于视觉表征跨传感器不变性的车辆重识别方法

Similar Documents

Publication Publication Date Title
Sun et al. TBE-Net: A three-branch embedding network with part-aware ability and feature complementary learning for vehicle re-identification
Chen et al. Learning context flexible attention model for long-term visual place recognition
Lopez-Antequera et al. Appearance-invariant place recognition by discriminatively training a convolutional neural network
Garg et al. Don't look back: Robustifying place categorization for viewpoint-and condition-invariant place recognition
Xia et al. Loop closure detection for visual SLAM using PCANet features
CN111950367A (zh) 一种面向航拍影像的无监督车辆重识别方法
Lu et al. Rskdd-net: Random sample-based keypoint detector and descriptor
Mousavian et al. Semantic image based geolocation given a map
Wang et al. Online visual place recognition via saliency re-identification
Fan et al. Visual localization using semantic segmentation and depth prediction
Cai et al. Patch-NetVLAD+: Learned patch descriptor and weighted matching strategy for place recognition
Vidanapathirana et al. Spectral geometric verification: Re-ranking point cloud retrieval for metric localization
Zhang et al. Unseen object instance segmentation with fully test-time rgb-d embeddings adaptation
Shi et al. Dense semantic 3D map based long-term visual localization with hybrid features
Orhan et al. Semantic pose verification for outdoor visual localization with self-supervised contrastive learning
Yu et al. Improving feature-based visual localization by geometry-aided matching
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及***
CN115049833A (zh) 一种基于局部特征增强和相似性度量的点云部件分割方法
CN114399731A (zh) 一种单粗点监督下的目标定位方法
Zhang et al. Motion Field Consensus with Locality Preservation: A Geometric Confirmation Strategy for Loop Closure Detection
Zhang et al. Movable object detection in remote sensing images via dynamic automatic learning
Hong et al. Learning local features with context aggregation for visual localization
Song et al. Learning Local Feature Descriptor with Motion Attribute For Vision-based Localization
Lu et al. Self-supervised Camera Relocalization with Hierarchical Fern Encoding
Zeng et al. A Novel Visual SLAM System for Autonomous Vehicles in Dynamic Environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination