CN112766353B - 一种加强局部注意的双分支车辆再识别方法 - Google Patents

一种加强局部注意的双分支车辆再识别方法 Download PDF

Info

Publication number
CN112766353B
CN112766353B CN202110040859.5A CN202110040859A CN112766353B CN 112766353 B CN112766353 B CN 112766353B CN 202110040859 A CN202110040859 A CN 202110040859A CN 112766353 B CN112766353 B CN 112766353B
Authority
CN
China
Prior art keywords
vehicle
image
branch
foc
tri
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110040859.5A
Other languages
English (en)
Other versions
CN112766353A (zh
Inventor
张小瑞
陈旋
孙伟
宋爱国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202110040859.5A priority Critical patent/CN112766353B/zh
Publication of CN112766353A publication Critical patent/CN112766353A/zh
Application granted granted Critical
Publication of CN112766353B publication Critical patent/CN112766353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种加强局部注意的双分支车辆再识别方法,包括以下步骤:(1)预训练ResNet50网络,并将其最后的下采样步长设置为1;(2)利用ResNet50的Layer3、Layer4搭建上分支;(3)将Layer4提出的特征沿纵向均匀分成三个部分,对每个部分的像素做随机丢弃操作,搭建下分支;(4)用三元组与焦点损失训练双分支模型;(5)使用训练好的网络模型,提取待查询与图像库图像特征;(6)计算待查询与图像库车辆图像的相似度,返回图像库中相似度靠前的车辆图像。本发明提出双分支车辆再识别方法,上分支提取车辆全局特征,下分支加强了对局部特征的注意力,增加车辆图像特征的区分程度和辨识度,适合复杂交通场景下跨摄像头的车辆再识别,提高车辆再识别的效率。

Description

一种加强局部注意的双分支车辆再识别方法
技术领域
本发明涉及车辆再识别方法,尤其涉及一种加强局部注意的双分支车辆再识别方法。
背景技术
近年来,车辆再识别受到越来越多的关注,其技术可广泛应用于视频监控、智能交通等领域,尤其是当车牌被遮挡、移除,甚至伪造时,车辆再识别将成为交管部门找到逃逸车辆的唯一途径。车辆再识别可以理解为一个图像检索的子问题,其目的是对跨摄像机设备中的目标车辆进行检测和跟踪,即给定一个监控车辆图像检索跨设备监控下的该车辆图像。
车辆再识别是具有挑战性的一项计算机视觉任务。因为在不受控制的光照、视角、低分辨率和复杂背景情况下,同一辆车在不同相机视点下的视觉外观变化较大,具有类内差异性,而同款车型的车辆具有相似视觉外观,它们具有同样颜色和相似模型特征,属于同一款式的不同车辆又具有明显的类间相似性。为了解决上述挑战,目前大部分工作都采取深度学习的方法自动提取车辆图像特征。许多方法通过卷积网络提取车辆的全局特征,但是在姿态变化大,车辆存在遮挡,全局特征容易导致误判。因此一些研究开始通过对关键点、局部位置等进行标注,以提取局部特征,但这些方法需要巨大的标注工作。
发明内容
发明目的:本发明目的是提供一种加强局部注意的双分支车辆再识别方法,既提取全局特征,又用简洁有效的方法关注局部特征,解决需要提前标注和庞大计算量的问题,实现高效显著的车辆再识别。
技术方案:本发明提供一种加强局部注意的双分支车辆再识别方法,包括以下步骤:
(1)预训练ResNet50网络,将其最后的下采样步长设置为1;
(2)利用ResNet50的Layer3、Layer4搭建上分支;
(3)将Layer4提取出的特征沿纵向均匀分成三个部分,对每部分做随机丢弃,搭建下分支;
(4)用三元组与焦点损失训练两分支模型;
(5)使用训练好的网络模型,提取待查询与图库中车辆图像特征;
(6)计算待查询与图库中车辆图像的相似度,返回图像库中相似度靠前的车辆图像。
进一步地,步骤(2)中,将Layer3、Layer4得到的特征分别表示用X3、X4表示;对X3做全局平均池化和全局最大池化分别得到X3-avg、X3-max,X3-avg与X3-max相互叠加送入全连接层;对X4做全局平均池化和全局最大池化分别得到X4-avg、X4-max,X4-avg与X4-max相互叠加后送入全连接层。
进一步地,步骤(3)中,将Layer4提取出的特征沿纵向均匀分成top、middle、bottom三个部分,对于每部分都有一个大小与其相同的Mask矩阵与之相乘,相乘后每部分都会丢弃一块区域,被丢弃区域的高度和宽度可以依据训练效果进行调整;分别对做丢弃处理过的top、middle、bottom做全局最大池化后送入全连接层。
进一步地,步骤(4)中,焦点损失Lfoc计算公式为:
其中,M表示图像库中车辆类别数,qi表示输入图片经过网络得到特征后预测该图片属于每个i类(i∈{1,2,3,...M})车辆的概率,γ是大于0的超参数,yi表示输入样本车辆的真实标签。
进一步地,步骤(4)中,每次输入三张成对图像,包括一张固定图anchora、与a属于同一车辆的正样本positivep、与a属于不同车辆的负样本negativen,三元组损失Ltri计算公式为:
Ltri=max(da,p-da,n+margin,0)
da,p为a、p经过网络得到特征向量计算得出的欧式距离,da,n为a、n经过网络得到特征向量计算得出的欧式距离,margin是根据实际需求设置的训练阈值参数。
进一步地,步骤(4)中,三元组损失与焦点损失的联合损失L计算公式为:
L=α(Lfoc1+Lfoc2+Lfoc3+Lfoc4+Lfoc5)+β(Ltri1+Ltri2+Ltri3+Ltri4)
Lfoc1、Lfoc2、Lfoc3、Lfoc4、Lfoc5是对应特征计算得到的焦点损失,Ltri1、Ltri2、Ltri3、Ltri4是对应特征计算得到的三元组损失,α、β为焦点损失和三元组损失的加权系数。
进一步地,步骤(6)中,利用余弦距离计算查询与图库车辆图像的相似度,余弦距离c计算公式为:
其中,feature1为待查询图像特征,feature2为图像库车辆图像特征,·表示矩阵点乘运算,各元素逐一相乘,||||表示二范数;
图库车辆图像按相似度大小排列,返回最相似车辆图像。
有益效果:与现有技术相比,本发明具有如下显著的优点:
(1)使用双分支模型,提取车辆图像的多特征。既提取了具有表征的全局特征,又让模型更加关注了局部特征;
(2)对每一批图像每一部分做随机丢弃操作,不需要提前标注和庞大的计算,加强了模型对局部特征的关注;
(3)采用困难三元组损失与焦点损失的联合损失优化网络,使模型在训练过程中更加关注难分样本,增强模型对难分样本的鉴别能力。
附图说明
图1为本发明的流程图;
图2为本发明的双分支网络结构示意图;
图3为本发明的随机丢弃模型示意图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
本发明采用双分支网络,上分支提取车辆图像的全局特征,提取了车辆整体结构信息,下分支对特征进行分块随后采取随机丢弃策略,更加关注了车辆的局部注意特征,双分支模型具有更强大的判别能力。采用三元组与焦点损失的联合损失,使模型在训练过程中更加关注难分样本,增强模型对难分样本的鉴别能力。
如图1所示为本发明的流程图,详细步骤如下:
(1)预训练ResNet50网络,将其最后的下采样步长设置为1。
将ImageNet数据集作为训练数据集,训练一个ResNet50网络,并将其最后的下采样步长设置为1,训练后的网络具有初始参数。
(2)利用ResNet50的Layer3、Layer4搭建上分支,如图2上半部分框中所示。
训练批次大小为P×K,P为每批次中车辆的种类,K为每种车辆包含的图片数量。一次输入P×K幅车辆图像,图像的大小被裁剪为384×320像素。ResNet50Layer3、Layer4得到的特征分别表示用X3、X4表示。对X3做全局平均池化(GAP)和全局最大池化(GMP)分别得到X3-avg、X3-max,对X3-avg、X3-max做叠加运算得到特征f0[P×K,1024],接着后面为两个全连接层,依次得到特征f1、f2大小分别为[P×K,512]、[P×K,M],M表示图像库中车辆类别数。同样的,对X4做同样的操作,得到X4-avg、X4-max做叠加运算得到特征f3[P×K,2048],随后送入全连接层得到特征f4、f5大小分别为[P×K,512]、[P×K,M]。X3-avg、X3-max、X4-avg、X4-max分别是用来训练时计算三元组损失Ltri1、Ltri2、Ltri3、Ltri4;f2、f5分别用来计算焦点损失Lfoc1、Lfoc2。上分支同时利用Layer3、Layer4的特征能够获得更多的车辆表示特征,且融合了GAP与GMP多尺度的池化特征增强了车辆全局表征,提取了整幅车辆图像的全局特征。
(3)将Layer4提取出的特征沿纵向均匀分成三个部分,对每部分做随机丢弃,搭建下分支,如图2下半部分框中所示。
考虑到大部分车辆图像上面更多是车的顶部,中间部分为车身、底部包含更多的底盘及轮胎信息,故将Layer4提取出的特征沿纵向均匀分成三个部分,分别为top、middle、bottom,每部分大小都为[P×K,2048,8,20],对于每部分都有一个大小为[P×K,2048,8,20]的Mask与之相乘,Mask相当一个随机矩阵,相乘后同一批次图像每部分都会丢弃相同的一块区域,被丢弃区域的高度和宽度因任务而异。具体做法是将Mask其中一部分区域置0,其余全为1。top、middle、bottom与之对应的Mask相乘的目的是将同一批次训练图像的三个部分每一部分都随机丢弃了相同的区域,如图3所示,同一批次的两个特征图被均匀分成三部分,每一部分相同的区域被丢弃,图中画叉部分表示被丢弃。随后对每部分特征应用全局最大池化(GMP),分别得到大小为[P×K,2048]的特征f6、f7、f8,对它们进行降维得到大小为[P×K,1024]的特征f9、f10、f11,最后添加全连接层分别得到大小为[P×K,M]的特征f12、f13、f14分别是用来计算焦点损失Lfoc3、Lfoc4、Lfoc5。下分支通过将特征划分为三个部分加强了对区域特征的学习,并且对每部分的相同区域进行批量丢弃,又加强了对该部分的注意力学习。
(4)用困难三元组与焦点损失训练两分支模型。
采用焦点损失Lfoc和三元组损失Ltri组合的损失L优化双分支网络。
焦点损失Lfoc计算公式为:
其中,M表示图像库中车辆类别数,qi表示输入图片经过网络得到特征后预测该图片属于每个i类(i∈{1,2,3,...M})车辆的概率,γ是大于0的超参数,yi表示输入样本车辆的真实标签。
通过(1-qi)γ项来放大困难样本的损失在总损失中的权重,困难样本即难分、容易分错的样本。对于简单的样本,即qi越大的样本,调制因子(1-qi)γ越小;反之,对于困难的样本,即qi越小的样本,调制因子越大。这样,在训练中,困难样本的损失被放大,模型会更加关注困难样本,解决车辆再识别中大量简单样本降低模型整体损失的问题,提高了模型对困难样本的判断能力。
每次输入三张成对图像,包括一张固定图(anchor)a、与a属于同一车辆的正样本(positive)p、与a属于不同车辆的负样本(negative)n。三元组损失Ltri计算公式为:
Ltri=max(da,p-da,n+margin,0)
da,p为a、p经过网络得到特征向量计算得出的欧式距离,da,n为a、n经过网络得到特征向量计算得出的欧式距离,margin是根据实际需求设置的训练阈值参数。
组合的损失L计算公式为:
L=α(Lfoc1+Lfoc2+Lfoc3+Lfoc4+Lfoc5)+β(Ltri1+Ltri2+Ltri3+Ltri4)
Lfoc1、Lfoc2、Lfoc3、Lfoc4、Lfoc5分别是上述f2、f5、f12、f13、f14特征计算得到的焦点损失,Ltri1、Ltri2、Ltri3、Ltri4是上述X3-avg、X3-max、X4-avg、X4-max特征计算得到的三元组损失,α、β为焦点损失和三元组损失的加权系数。
(5)使用训练好的网络模型,提取待查询与图库车辆图像特征。
使用训练好的双分支网络模型,得到待查询图像特征feature1与图像库图像特征feature2,得到待查询与图像库图像特征。
(6)用余弦距离计算查询与图像库图像的相似度,按相似度大小排列
余弦距离c计算公式为:
其中,feature1为待查询图像特征,feature2为图像库车辆图像特征,·表示矩阵点乘运算,各元素逐一相乘,||||表示二范数。
图像库图像按相似度大小排列,返回最相似车辆图像。
综上所述,本发明所述的车辆再识别方法使用双分支模型,上分支提取了车辆整体的全局特征,下分支用简洁高效的随机丢弃方法提升了模型对局部特征的注意力。采用三元组损失与焦点损失的联合损失优化网络,使模型在训练过程中更加关注难分样本,增强模型对难分样本的鉴别能力。
本发明的具体实施方式中凡未涉到的说明属于本领域的公知技术,可参考公知技术加以实施。

Claims (6)

1.一种加强局部注意的双分支车辆再识别方法,其特征在于,包括以下步骤:
(1)预训练ResNet50网络,将其最后的下采样步长设置为1;
(2)利用ResNet50的Layer3、Layer4搭建上分支;
(3)将Layer4提取出的特征沿纵向均匀分成三个部分,对每部分做随机丢弃,搭建下分支;
(4)用三元组与焦点损失训练两分支模型;
(5)使用训练好的网络模型,提取待查询与图库中车辆图像特征;
(6)计算待查询与图库中车辆图像的相似度,返回图像库中相似度靠前的车辆图像;
其中,所述步骤(2)中,将Layer3、Layer4得到的特征分别表示用X3、X4表示;对X3做全局平均池化和全局最大池化分别得到X3-avg、X3-max,所述X3-avg与X3-max做叠加运算得到特征f0,随后送入两个全连接层,得到特征f1、f2;同理,对X4做全局平均池化和全局最大池化分别得到X4-avg、X4-max,所述X4-avg与X4-max做叠加运算得到特征f3,随后送入两个全连接层得到特征f4、f5
2.根据权利要求1所述的加强局部注意的双分支车辆再识别方法,其特征在于:所述步骤(3)中,将Layer4提取出的特征沿纵向均匀分成top、middle、bottom三个部分,对于每部分都有一个大小与其相同的Mask矩阵与之相乘,相乘后每部分都会丢弃一块区域,被丢弃区域的高度和宽度依据训练效果进行调整;分别对做丢弃处理过的top、middle、bottom做全局最大池化分别得到特征f6、f7、f8,对它们进行降维得到特征f9、f10、f11,最后添加全连接层分别得到特征f12、f13、f14
3.根据权利要求1所述的加强局部注意的双分支车辆再识别方法,其特征在于:所述步骤(4)中,焦点损失Lfoc计算公式为:
其中,M表示图像库中车辆类别数,qi表示输入图片经过网络得到特征后预测该图片属于每个i类(i∈{1,2,3,...M})车辆的概率,γ是大于0的超参数,yi表示输入样本车辆的真实标签。
4.根据权利要求1所述的加强局部注意的双分支车辆再识别方法,其特征在于:所述步骤(4)中,每次输入三张成对图像,包括一张固定图anchora、与a属于同一车辆的正样本positive p、与a属于不同车辆的负样本negative n,三元组损失Ltri计算公式为:
Ltri=max(da,p-da,n+margin,0)
da,p为a、p经过网络得到特征向量计算得出的欧式距离,da,n为a、n经过网络得到特征向量计算得出的欧式距离,margin是根据实际需求设置的训练阈值参数。
5.根据权利要求2所述的加强局部注意的双分支车辆再识别方法,其特征在于:所述步骤(4)中,三元组损失与焦点损失的联合损失L计算公式为:
L=α(Lfoc1+Lfoc2+Lfoc3+Lfoc4+Lfoc5)+β(Ltri1+Ltri2+Ltri3+Ltri4)
Lfoc1、Lfoc2、Lfoc3、Lfoc4、Lfoc5分别是f2、f5、f12、f13、f14特征计算得到的焦点损失,Ltri1、Ltri2、Ltri3、Ltri4是X3-avg、X3-max、X4-avg、X4-max特征计算得到的三元组损失,α、β为焦点损失和三元组损失的加权系数。
6.根据权利要求1所述的加强局部注意的双分支车辆再识别方法,其特征在于:所述步骤(6)中,利用余弦距离计算查询与图库车辆图像的相似度,余弦距离c计算公式为:
其中,feature1为待查询图像特征,feature2为图像库车辆图像特征,·表示矩阵点乘运算,各元素逐一相乘,||||表示二范数;
图库车辆图像按相似度大小排列,返回最相似车辆图像。
CN202110040859.5A 2021-01-13 2021-01-13 一种加强局部注意的双分支车辆再识别方法 Active CN112766353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110040859.5A CN112766353B (zh) 2021-01-13 2021-01-13 一种加强局部注意的双分支车辆再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110040859.5A CN112766353B (zh) 2021-01-13 2021-01-13 一种加强局部注意的双分支车辆再识别方法

Publications (2)

Publication Number Publication Date
CN112766353A CN112766353A (zh) 2021-05-07
CN112766353B true CN112766353B (zh) 2023-07-21

Family

ID=75699991

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110040859.5A Active CN112766353B (zh) 2021-01-13 2021-01-13 一种加强局部注意的双分支车辆再识别方法

Country Status (1)

Country Link
CN (1) CN112766353B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119977B (zh) * 2021-12-01 2022-12-30 昆明理工大学 一种基于图卷积的Transformer胃癌癌变区域图像分割方法
CN116644788B (zh) * 2023-07-27 2023-10-03 山东交通学院 一种用于车辆重识别的局部细化和全局强化网络

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339849A (zh) * 2020-02-14 2020-06-26 北京工业大学 一种融合行人属性的行人重识别的方法
CN111582178A (zh) * 2020-05-09 2020-08-25 山东建筑大学 基于多方位信息和多分支神经网络车辆重识别方法及***
WO2020186914A1 (zh) * 2019-03-20 2020-09-24 北京沃东天骏信息技术有限公司 行人再识别方法、装置及存储介质
CN111709364A (zh) * 2020-06-16 2020-09-25 兰州理工大学 基于视角信息和批特征擦除的行人再识别方法
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法
CN111738143A (zh) * 2020-06-19 2020-10-02 重庆邮电大学 一种基于期望最大化的行人重识别方法
CN111860678A (zh) * 2020-07-29 2020-10-30 中国矿业大学 一种基于聚类的无监督跨域行人重识别方法
CN111898431A (zh) * 2020-06-24 2020-11-06 南京邮电大学 一种基于注意力机制部件遮挡的行人再识别方法
CN111985367A (zh) * 2020-08-07 2020-11-24 湖南大学 一种基于多尺度特征融合的行人重识别特征提取方法
CN112163498A (zh) * 2020-09-23 2021-01-01 华中科技大学 前景引导和纹理聚焦的行人重识别模型建立方法及其应用
CN112199983A (zh) * 2020-07-08 2021-01-08 北京航空航天大学 一种多层次筛选的长时间大范围行人再识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020186914A1 (zh) * 2019-03-20 2020-09-24 北京沃东天骏信息技术有限公司 行人再识别方法、装置及存储介质
CN111339849A (zh) * 2020-02-14 2020-06-26 北京工业大学 一种融合行人属性的行人重识别的方法
CN111582178A (zh) * 2020-05-09 2020-08-25 山东建筑大学 基于多方位信息和多分支神经网络车辆重识别方法及***
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法
CN111709364A (zh) * 2020-06-16 2020-09-25 兰州理工大学 基于视角信息和批特征擦除的行人再识别方法
CN111738143A (zh) * 2020-06-19 2020-10-02 重庆邮电大学 一种基于期望最大化的行人重识别方法
CN111898431A (zh) * 2020-06-24 2020-11-06 南京邮电大学 一种基于注意力机制部件遮挡的行人再识别方法
CN112199983A (zh) * 2020-07-08 2021-01-08 北京航空航天大学 一种多层次筛选的长时间大范围行人再识别方法
CN111860678A (zh) * 2020-07-29 2020-10-30 中国矿业大学 一种基于聚类的无监督跨域行人重识别方法
CN111985367A (zh) * 2020-08-07 2020-11-24 湖南大学 一种基于多尺度特征融合的行人重识别特征提取方法
CN112163498A (zh) * 2020-09-23 2021-01-01 华中科技大学 前景引导和纹理聚焦的行人重识别模型建立方法及其应用

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Batch DropBlock Network for Person Re-identification and Beyond;Zuozhuo Dai 等;《Proceedings of the IEEE/CVF International Conference on Computer Vision》;3691-3701 *
Going Beyond Real Data:A Robust Visual Representation for Vehicle Re-identification;Zhedong Zheng 等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops》;1-9 *
Random Erasing Data Augmentation;Zhun Zhong 等;《Proceedings of the AAAI Conference on Artificial Intelligence》;第34卷(第07期);13001-13008 *
Semantic-Guided Shared Feature Alignment for Occluded Person Re-IDentification;Xuena Ren 等;《Proceedings of Machine Learning Research》;1-32 *
基于多池化融合与背景消除网络的跨数据集行人再识别方法;李艳凤;张斌;孙嘉;陈后金;朱锦雷;;《通信学报》;第41卷(第10期);70-79 *
多特征联合学习的车辆重识别研究;陈旋;《中国优秀硕士学位论文全文数据库工程科技II辑》;C034-855 *

Also Published As

Publication number Publication date
CN112766353A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
Garcia-Garcia et al. A survey on deep learning techniques for image and video semantic segmentation
Zhao et al. Semantic segmentation with attention mechanism for remote sensing images
CN107358257B (zh) 一种大数据场景下可增量学习的图像分类训练方法
CN104616032B (zh) 基于深度卷积神经网络的多摄像机***目标匹配方法
Yin et al. FD-SSD: An improved SSD object detection algorithm based on feature fusion and dilated convolution
Derpanis et al. Classification of traffic video based on a spatiotemporal orientation analysis
US20180165552A1 (en) All-weather thermal-image pedestrian detection method
CN112766353B (zh) 一种加强局部注意的双分支车辆再识别方法
CN112215074A (zh) 基于无人机视觉的实时目标识别与检测追踪***及方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN113065645A (zh) 孪生注意力网络、图像处理方法和装置
CN109948643A (zh) 一种基于深层网络融合模型的车辆类型分类方法
CN111611956B (zh) 面向地铁视觉图像的轨道检测方法及***
CN113128476A (zh) 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN114049572A (zh) 识别小目标的检测方法
CN114220126A (zh) 一种目标检测***及获取方法
CN112613434A (zh) 道路目标检测方法、装置及存储介质
CN114639067A (zh) 一种基于注意力机制的多尺度全场景监控目标检测方法
Shahbaz et al. Deep atrous spatial features-based supervised foreground detection algorithm for industrial surveillance systems
Zhou et al. A novel object detection method in city aerial image based on deformable convolutional networks
Ren et al. MPSA: A multi-level pixel spatial attention network for thermal image segmentation based on Deeplabv3+ architecture
CN109255052A (zh) 一种基于多特征的三阶段车辆检索方法
CN108538053A (zh) 一种自动检测车辆超限***
CN117079095A (zh) 基于深度学习的高空抛物检测方法、***、介质和设备
CN116524432A (zh) 一种小目标检测算法在交通监控中的应用

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant