CN111461181B - 一种车辆细粒度分类方法及装置 - Google Patents

一种车辆细粒度分类方法及装置 Download PDF

Info

Publication number
CN111461181B
CN111461181B CN202010183058.XA CN202010183058A CN111461181B CN 111461181 B CN111461181 B CN 111461181B CN 202010183058 A CN202010183058 A CN 202010183058A CN 111461181 B CN111461181 B CN 111461181B
Authority
CN
China
Prior art keywords
feature map
global
classification
neural network
classification method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010183058.XA
Other languages
English (en)
Other versions
CN111461181A (zh
Inventor
傅慧源
马华东
王川铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202010183058.XA priority Critical patent/CN111461181B/zh
Publication of CN111461181A publication Critical patent/CN111461181A/zh
Application granted granted Critical
Publication of CN111461181B publication Critical patent/CN111461181B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种车辆细粒度分类方法及装置,该分类方法包括:通过卷积神经网络提取输入图片的基本特征图;根据基本特征图自适应构建全局结构图;采用图卷积神经网络对全局结构图进行关联关系推理,形成全局指导信息;将全局指导信息应用在基本特征图上,得到增强特征图;将增强特征图输入到分类器中进行分类。本发明分类方法通过对车辆不同部件之间进行关联关系推理,并将关联关系推理结果应用到基本特征图上,使得到的特征图拥有更强的表达能力,提升了车辆细粒度图像分类的准确率;此外,该分类方法无需对关键区域进行标注而且特征提取快捷,应用场景广,而且计算消耗低。

Description

一种车辆细粒度分类方法及装置
技术领域
本发明涉及车辆分类技术领域,尤其涉及一种车辆细粒度分类方法及装置。
背景技术
车辆作为一种人类出行的重要交通工具,与人们的生活息息相关,而现代化车辆生产技术的发展也使得越来越多种类的汽车出现在人们的日常中;车辆通常都具有着相似的外观结构,不同类别的车辆仅在车灯、车门等位置上有细微的差异,对车辆细粒度的进行识别往往需要相关方面的专家。
车辆的细粒度分类是计算机视觉中最重要的任务之一,它不仅在其他视觉任务中发挥重要作用,例如车辆重新识别、车辆跟踪,而且还可为城市的大脑和智能交通构建提供助力;同时,这是一个非常具有挑战性的问题,因为识别模型需要捕获类别或实例之间的细微视觉差异,而这些差异很容易被其他因素(如视点,照明或场景)所掩盖。
现有车辆细粒度分类方法的基本流程可以概括为:
基本特征提取:通常先通过CNNs进行基本特征提取,获得输入图片数据的特征图;
通过有监督或者无监督地方法找到特征图上车辆关键区域对应的位置;有监督是指对每一张包含待识别车辆的图像,都有对应的关键区域位置的标注,通常是四个坐标值,表示区域左上角点和右下角点的位置;无监督方法是指通过注意力机制或其他无监督学习方法获得关键区域的位置;
对关键区域进一步提取细粒度的特征;对于找到的关键区域,利用神经网络进行特征提取;
将各个关键区域独立的细粒度的特征进行拼接,得到车辆的特征表征,拼接方法一般都是数组或数值矩阵的拼接;
将拼接的车辆特征表征通过分类器对得到的车辆特征表征进行分类,得到最后的分类结果。
然而,现有分类方法存在如下问题:
现有分类方法中在寻找关键区域时,有监督的方法通常需要额外的标注信息,对车辆的车灯,车窗、车门等的位置进行标注,从而才能找到特征图上对应的区域,这极大的增加了数据的标注成本,限制了数据的数量,也限制了模型能够应用的场景;
现有分类方法需要对关键区域分别进行特征提取,多次计算就增加了该分类方法的计算消耗。
发明内容
有鉴于此,本发明的目的在于提出一种车辆细粒度分类方法,以解决现有分类方法存在的需要对关键区域信息进行标注、关键区域未进行关联关系以及计算消耗大的问题。
基于上述目的,本发明提供了一种车辆细粒度分类方法,所述方法包括:
步骤一:通过卷积神经网络提取输入图片的基本特征图;
步骤二:根据基本特征图自适应构建全局结构图;
步骤三:采用图卷积神经网络对全局结构图进行关联关系推理,形成全局指导信息;
步骤四:将全局指导信息应用在基本特征图上,得到增强特征图;
步骤五:将增强特征图输入到分类器中进行分类。
可选地,所述基本特征图的提取方法包括:
将输入图片输入到残差神经网络中,并将残差神经网络的layer3结构的输出作为所述基本特征图;优选地,将输入图片输入到残差神经网络中之前,通过线性插值法调整输入图片尺寸至测试尺寸大小,例如可以将输入图片尺寸调整至448×448;优先地,所述残差神经网络的层数可以根据实际需要进行选择,例如,可以选择具有34层、50层或101层网络层的残差神经网络,优选为具有101层网络层的残差神经网络。
可选地,所述构建全局结构图包括构建全局结构图的节点信息和边信息;
所述节点信息的构建包括:
采用预先定义的区域大小在长和宽的维度上对基本特征图进行区域分割,获得多尺度的区域,随后通过神经网络中的池化操作对每个区域特征分别进行聚合,并且每个区域特征聚合为一个长度为基本特征图通道维度大小的一维向量,得到所述节点信息;
所述边信息的构建包括:
采用矩阵乘法计算所述节点信息之间的关联关系,得到所述边信息;
所述关联关系如式I所示:
V=η(A,Wη)*ε(A,Wε) 式I;
式I中,V为边信息;A为节点信息;η和ε分别为两个卷积层;W代表卷积层的参数;*表示矩阵乘法。
可选地,所述采用图卷积神经网络对全局结构图进行关联关系推理包括:
将全局结构图输入一个具有一层图卷积层的图卷积神经网络中,并利用所述边信息对不同区域特征进行关联关系推理。
可选地,所述关联关系推理如式II所示:
G=V*(A*Wg) 式II;
式II中,G为全局指导信息;V为边信息;A为节点信息;Wg为图卷积神经网络的参数;*表示矩阵乘法。
可选地,所述将全局指导信息应用在基本特征图上包括:将全局指导信息应用在基本特征图的通道维度和空间维度上;
所述将全局指导信息应用在基本特征图的通道维度上包括:
按空间方向池化操作将全局结构图池化为一个一维向量,再将一维向量与基本特征图按维度相乘;
所述将全局指导信息应用在基本特征图的空间维度上包括:
通过一层卷积层从基本特征图上生成一个局部注意力图;
通过池化操作将全局指导信息按通道方向池化为一个只有一个维度的全局特征图;
将基本特征图与局部注意力图和全局特征图按像素相乘。
可选地,所述将增强特征图输入到分类器中进行分类包括:
通过一个空间池化层将增强特征图聚合为一个具有基本特征图通道维度大小的特征向量;
将特征向量输入到一层全联接层中进行分类。
可选地,所述分类方法还包括:
以斯坦福车辆数据集(Stanford Cars Dataset)作为训练数据集,将训练数据集中图像按照上述步骤一~五进行处理,得到预测分类结果,将预测分类结果与训练数据集中给定的标准结果按照交叉熵损失法进行损失计算,随后,将计算得到的损失通过反向传播的方法反传到需要学习参数的相应位置,并根据随机梯度下降法对参数进行修改,得到最后模型的参数。
可选地,所述损失计算公式如式III所示:
Figure BDA0002413233270000041
式III中,L为损失;N为图像的总数量,M是类别数量,Pic表示当前预测分类结果为类别c时的概率,yic表示预测分类结果类别与训练数据集给定类别是否相同,相同时为1,不同时为0。
本发明实施例第二方面还提供一种车辆细粒度分类装置,所述分类装置包括:存储器、与所述存储器连接的处理器,及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行上述的分类方法。
从上面所述可以看出,本发明提供的一种车辆细粒度分类方法及装置至少包括如下技术效果:
本发明分类方法通过对车辆不同部件之间进行关联关系推理,并将关联关系推理结果应用到基本特征图上,能够使得到的特征图拥有更强的表达能力,提升了车辆细粒度图像分类的准确率;此外,该分类方法无需对关键区域进行标注而且特征提取快捷,应用场景广,而且计算消耗低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的车辆细粒度分类方法流程图;
图2为本发明实施例提供的全局结构图的构建流程图;
图3为本发明实施例提供的全局指导信息应用在基本特征图上的流程图;
图4为本发明实施例提供的训练过程中车辆分类准确率的变化图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。
车辆的细粒度分类是计算机视觉中最重要的任务之一,它不仅在其他视觉任务中发挥重要作用,例如车辆重新识别、车辆跟踪,而且还可为城市的大脑和智能交通构建提供助力;同时,这是一个非常具有挑战性的问题,因为识别模型需要捕获类别或实例之间的细微视觉差异,而这些差异很容易被其他因素(如视点,照明或场景)所掩盖。
现有车辆细粒度分类方法的基本流程可以概括为:基本特征提取;通过有监督或者无监督地方法找到特征图上车辆关键区域对应的位置;对关键区域进一步提取细粒度的特征;将各个关键区域独立的细粒度的特征进行拼接,得到车辆的特征表征;将拼接的车辆特征表征通过分类器对得到的车辆特征表征进行分类,得到最后的分类结果。
然而,现有分类方法存在如下问题:
现有分类方法中在寻找关键区域时,有监督的方法通常需要额外的标注信息,对车辆的车灯,车窗、车门等的位置进行标注,从而才能找到特征图上对应的区域,这极大的增加了数据的标注成本,限制了数据的数量,也限制了模型能够应用的场景;此外,现有分类方法需要对关键区域分别进行特征提取,多次计算就增加了该分类方法的计算消耗。
针对上述技术问题,本发明提供了一种车辆细粒度分类方法,如图1所示,该方法包括:
步骤一:通过卷积神经网络提取输入图片的基本特征图,基本特征图实际为图片数据经过卷积神经网络得到的具有多维度的数组;
步骤二:根据基本特征图自适应构建全局结构图;
步骤三:采用图卷积神经网络对全局结构图进行关联关系推理,形成全局指导信息;
步骤四:将全局指导信息应用在基本特征图上,得到增强特征图;
步骤五:将增强特征图输入到分类器中进行分类。
上述分类方法通过进行关联关系推理,考虑到了车辆不同部件之间的关联关系,并将关联关系推理结果应用到基本特征图上,能够使得到的特征图拥有更强的表达能力,提升了车辆细粒度图像分类的准确率。
在本发明中对基本特征图的提取方法不作严格限制,例如,在一实施方式中,可以采用具有50层网络层的残差神经网络进行提取;具体地,将输入图片输入到具有50层网络层的残差神经网络中,并将残差申经网络的layer3结构的输出作为基本特征图;在一实施方式中,将输入图片输入到具有50层网络层的残差神经网络中之前,还可以通过线性插值法调整输入图片尺寸至448×448;在输入图片为448×448不变得情况下,得到基本特征图的大小为28×28,同时每个像素点上都是一个具有1024个数值的向量。
图2为本发明全局结构图的构建流程图,如图2所示,构建全局结构图包括构建全局结构图的节点信息和边信息;
节点信息的构建包括:
采用预先定义的区域大小在长和宽的维度上对基本特征图进行区域分割,获得多尺度的区域,随后通过神经网络中的池化操作对每个区域特征分别进行聚合,并且每个区域特征聚合为一个长度为基本特征图通道维度大小的一维向量,得到节点信息;
边信息的构建包括:
采用矩阵乘法计算节点信息之间的关联关系,得到边信息。
上述关联关系如式I所示:
V=η(A,Wη)*ε(A,Wε) 式I;
式I中,V为边信息;A为节点信息;η和ε分别为两个卷积层;W代表卷积层的参数;*表示矩阵乘法。
通过计算节点信息之间的关联关系,自适应的构建全局结构图的边信息;构建得到的全局结构图在边信息的存在下,对于不同的输入图片,构建得到的全局结构图也自适应的进行变化,这样能够更鲁棒的应对图像中车辆姿态等因素的变化。
在本发明中对采用图卷积神经网络对全局结构图进行关联关系推理的方法不作严格限制,例如,在一实施方式中,采用图卷积神经网络对全局结构图进行关联关系推理具体可以通过如下方法进行:
将全局结构图输入一个具有一层图卷积层的图卷积神经网络中,并利用全局结构图的边信息对不同区域特征进行关联关系推理;
上述关联关系推理采用如式II所示公式进行:
G=V*(A*Wg) 式II;
式II中,G为全局指导信息;V为边信息;A为节点信息;Wg为图卷积神经网络的参数;*表示矩阵乘法。
本发明中得到的全局结构图中的节点信息仍然是孤立的,它们之间虽然通过边信息进行了连接,但是彼此之间并没有进行信息交换,因此通过采用图卷积神经网络对全局结构图进行关联关系推理,提升了车辆全局结构图的表达能力。
图3为本发明全局指导信息应用在基本特征图上的流程图;如图3所示,将全局指导信息应用在基本特征图上包括:将全局指导信息应用在基本特征图(可缩写为特征图)的通道维度和空间维度上;
具体地,将全局指导信息应用在基本特征图的通道维度上包括:
按空间方向池化操作将全局结构图池化为一个一维向量(gc),再将一维向量与基本特征图按维度相乘,其乘法同时遵循数组传播法则;
将全局指导信息应用在基本特征图的空间维度上包括:
通过一层卷积层从基本特征图上生成一个局部注意力图(gs1);
通过池化操作将全局指导信息按通道方向池化为一个只有一个维度的全局特征图(gs2);
将基本特征图与局部注意力图和全局特征图按像素相乘。
在本发明中对分类方法不作严格限制,例如,可以根据实际需要采用本领域的常规分类方法进行分类;在一实施方式中,可以通过一个空间池化层将增强特征图聚合为一个具有基本特征图通道维度大小的特征向量;
再将特征向量输入到一层全联接层中进行分类。
在一实施方式中,该分类方法还包括:
以Stanford Cars Dataset作为训练数据集,将训练数据集中图像按照上述步骤一~五进行处理,得到预测分类结果,将预测分类结果与训练数据集中给定的标准结果按照交叉熵损失法进行损失计算,随后,将计算得到的损失通过反向传播的方法反传到需要学习参数的相应位置,并根据随机梯度下降法对参数进行修改,得到最后模型的参数。
具体地,在一实施方式中,将Stanford Cars Dataset训练数据集中图像归一化到448x448的大小,将归一化的图像输入到本发明上述步骤一~五中,得到预测的分类结果,按照如下式III所示的公式计算预测分类结果与标准结果的损失,
Figure BDA0002413233270000081
式III中,L为损失;N为图像的总数量,M是类别数量,Pic表示当前预测分类结果为类别c时的概率,yic表示预测分类结果类别与训练数据集给定类别是否相同,相同时为1,不同时为0;
然后,采用随机梯度下降作为优化器,其参数按照式IV进行更新:
Figure BDA0002413233270000082
式IV中,θ为需要更新的参数,α表示学习率;
将学习率设为0.1,每经过30轮训练,将学习率缩小10倍,一共训练100轮,得到最后的参数;训练过程中准确率的变化如图4所示,图中,纵坐标为准确率,横坐标为训练轮数;
由图4可知,本发明车辆细粒度分类方法的准确率可达92.4%。
本发明还提供了一种车辆细粒度分类装置,该分类装置包括:存储器、与存储器连接的处理器,及存储在存储器上并可在处理器上运行的计算机程序,处理器运行计算机程序时执行上述的分类方法。
本发明分类方法通过对车辆不同部件之间进行关联关系推理,并将关联关系推理结果应用到基本特征图上,能够使得到的特征图拥有更强的表达能力,提升了车辆细粒度图像分类的准确率;此外,该分类方法无需对关键区域进行标注和特征的提取,应用场景广,而且计算消耗低。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种车辆细粒度分类方法,其特征在于,包括:
步骤一:通过卷积神经网络提取输入图片的基本特征图;
步骤二:根据基本特征图自适应构建全局结构图;
步骤三:采用图卷积神经网络对全局结构图进行关联关系推理,形成全局指导信息;
步骤四:将全局指导信息应用在基本特征图上,得到增强特征图;
步骤五:将增强特征图输入到分类器中进行分类;
其中,所述构建全局结构图包括构建全局结构图的节点信息和边信息;
所述节点信息的构建包括:
采用预先定义的区域大小在长和宽的维度上对基本特征图进行区域分割,获得多尺度的区域,随后通过神经网络中的池化操作对每个区域特征分别进行聚合,并且每个区域特征聚合为一个长度为基本特征图通道维度大小的一维向量,得到所述节点信息;
所述边信息的构建包括:
采用矩阵乘法计算所述节点信息之间的关联关系,得到所述边信息;
所述关联关系推理如式II所示:
G=V*(A*Wg) 式II;
式II中,G为全局指导信息;V为边信息;A为节点信息;Wg为图卷积神经网络的参数;*表示矩阵乘法;
所述将全局指导信息应用在基本特征图上包括:将全局指导信息应用在基本特征图的通道维度和空间维度上;
所述将全局指导信息应用在基本特征图的通道维度上包括:
按空间方向池化操作将全局结构图池化为一个一维向量,再将一维向量与基本特征图按维度相乘;
所述将全局指导信息应用在基本特征图的空间维度上包括:
通过一层卷积层从基本特征图上生成一个局部注意力图;
通过池化操作将全局指导信息按通道方向池化为一个只有一个维度的全局特征图;
将基本特征图与局部注意力图和全局特征图按像素相乘。
2.根据权利要求1所述的分类方法,其特征在于,所述基本特征图的提取方法包括:
将输入图片输入到残差神经网络中,并将残差神经网络的中间层结构的输出作为所述基本特征图。
3.根据权利要求1所述的分类方法,其特征在于,所述关联关系如式I所示:
V=η(A,Wη)*ε(A,Wε) 式I;
式I中,V为边信息;A为节点信息;η和ε分别为两个卷积层;W代表卷积层的参数;*表示矩阵乘法。
4.根据权利要求3所述的分类方法,其特征在于,所述采用图卷积神经网络对全局结构图进行关联关系推理包括:
将全局结构图输入一个具有一层图卷积层的图卷积神经网络中,并利用所述边信息对不同区域特征进行关联关系推理。
5.根据权利要求1所述的分类方法,其特征在于,所述将增强特征图输入到分类器中进行分类包括:
通过一个空间池化层将增强特征图聚合为一个具有基本特征图通道维度大小的特征向量;
将特征向量输入到一层全连接层中进行分类。
6.根据权利要求1所述的分类方法,其特征在于,还包括:
以Stanford Cars Dataset作为训练数据集,将训练数据集中图像按照权利要求1中步骤一~五进行处理,得到预测分类结果,将预测分类结果与训练数据集中给定的标准结果按照交叉熵损失法进行损失计算,随后,将计算得到的损失通过反向传播的方法反传到需要学习参数的相应位置,并根据随机梯度下降法对参数进行修改,得到最后模型的参数。
7.根据权利要求6所述的分类方法,其特征在于,所述损失计算公式如式III所示:
Figure FDA0003170802070000021
式III中,L为损失;N为图像的总数量,M是类别数量,Pic表示当前预测分类结果为类别c时的概率,yic表示预测分类结果类别与训练数据集给定类别是否相同,相同时为1,不同时为0。
8.一种车辆细粒度分类装置,其特征在于,包括:存储器、与所述存储器连接的处理器,及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行权利要求1-7任一项所述的分类方法。
CN202010183058.XA 2020-03-16 2020-03-16 一种车辆细粒度分类方法及装置 Active CN111461181B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010183058.XA CN111461181B (zh) 2020-03-16 2020-03-16 一种车辆细粒度分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010183058.XA CN111461181B (zh) 2020-03-16 2020-03-16 一种车辆细粒度分类方法及装置

Publications (2)

Publication Number Publication Date
CN111461181A CN111461181A (zh) 2020-07-28
CN111461181B true CN111461181B (zh) 2021-09-07

Family

ID=71684316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010183058.XA Active CN111461181B (zh) 2020-03-16 2020-03-16 一种车辆细粒度分类方法及装置

Country Status (1)

Country Link
CN (1) CN111461181B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814920B (zh) * 2020-09-04 2021-01-05 中国科学院自动化研究所 基于图网络的多粒度特征学习的图像精细分类方法及***
CN112150821B (zh) * 2020-10-14 2022-05-06 清华大学 轻量化车辆检测模型构建方法、***及装置
CN114373080B (zh) * 2022-03-22 2022-07-29 中国石油大学(华东) 基于全局推理的轻量化混合卷积模型的高光谱分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619369A (zh) * 2019-09-23 2019-12-27 常熟理工学院 基于特征金字塔与全局平均池化的细粒度图像分类方法
CN110751212A (zh) * 2019-10-21 2020-02-04 南京大学 一种移动设备上高效的细粒度图像识别方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10074041B2 (en) * 2015-04-17 2018-09-11 Nec Corporation Fine-grained image classification by exploring bipartite-graph labels
US10354362B2 (en) * 2016-09-08 2019-07-16 Carnegie Mellon University Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
US20190122111A1 (en) * 2017-10-24 2019-04-25 Nec Laboratories America, Inc. Adaptive Convolutional Neural Knowledge Graph Learning System Leveraging Entity Descriptions
CN108830823B (zh) * 2018-03-14 2021-10-26 西安理工大学 基于空域结合频域分析的全参考型图像质量评价方法
CN109359696B (zh) * 2018-10-29 2021-04-02 重庆中科云从科技有限公司 一种车款识别方法、***及存储介质
CN110111337A (zh) * 2019-04-16 2019-08-09 中山大学 一种基于图迁移学习的通用人体解析框架及其解析方法
CN110309732B (zh) * 2019-06-13 2021-04-06 浙江大学 基于骨架视频的行为识别方法
CN110443261B (zh) * 2019-08-15 2022-05-27 南京邮电大学 一种基于低秩张量恢复的多图匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619369A (zh) * 2019-09-23 2019-12-27 常熟理工学院 基于特征金字塔与全局平均池化的细粒度图像分类方法
CN110751212A (zh) * 2019-10-21 2020-02-04 南京大学 一种移动设备上高效的细粒度图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Global Structure Graph Guided Fine-Grained Vehicle Recognition";C. Wang等;《ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)》;20200314;第1913-1917页 *

Also Published As

Publication number Publication date
CN111461181A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
Akilan et al. A 3D CNN-LSTM-based image-to-image foreground segmentation
US20220083801A1 (en) Methods and apparatuses for vehicle appearance feature recognition, methods and apparatuses for vehicle retrieval, storage medium, and electronic devices
Sakkos et al. End-to-end video background subtraction with 3d convolutional neural networks
WO2021093435A1 (zh) 语义分割网络结构的生成方法、装置、设备及存储介质
WO2022000426A1 (zh) 基于孪生深度神经网络的动目标分割方法及***
Li et al. Deep neural network for structural prediction and lane detection in traffic scene
CN111461181B (zh) 一种车辆细粒度分类方法及装置
CN109784150B (zh) 基于多任务时空卷积神经网络的视频驾驶员行为识别方法
WO2019136623A1 (en) Apparatus and method for semantic segmentation with convolutional neural network
CN110163286B (zh) 一种基于混合池化的领域自适应图像分类方法
JP2017062781A (ja) 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN113468978B (zh) 基于深度学习的细粒度车身颜色分类方法、装置和设备
CN113869138A (zh) 多尺度目标检测方法、装置及计算机可读存储介质
CN112070174A (zh) 一种基于深度学习的自然场景下文本检测方法
Grigorev et al. Depth estimation from single monocular images using deep hybrid network
US20230154157A1 (en) Saliency-based input resampling for efficient object detection
Muthalagu et al. Vehicle lane markings segmentation and keypoint determination using deep convolutional neural networks
CN116863384A (zh) 一种基于CNN-Transfomer的自监督视频分割方法和***
Panda et al. Modified ResNet-152 network with hybrid pyramidal pooling for local change detection
CN114596548A (zh) 目标检测方法、装置、计算机设备及计算机可读存储介质
Nguyen et al. Robust stereo data cost with a learning strategy
CN116844032A (zh) 一种海洋环境下目标检测识别方法、装置、设备及介质
CN115240163A (zh) 一种基于一阶段检测网络的交通标志检测方法及***
CN114445775A (zh) 训练方法、行人重识别方法、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant