CN114565792A - 一种基于轻量化卷积神经网络的图像分类方法和装置 - Google Patents

一种基于轻量化卷积神经网络的图像分类方法和装置 Download PDF

Info

Publication number
CN114565792A
CN114565792A CN202210189921.1A CN202210189921A CN114565792A CN 114565792 A CN114565792 A CN 114565792A CN 202210189921 A CN202210189921 A CN 202210189921A CN 114565792 A CN114565792 A CN 114565792A
Authority
CN
China
Prior art keywords
layer
sampling
neural network
feature map
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210189921.1A
Other languages
English (en)
Other versions
CN114565792B (zh
Inventor
王天江
张量奇
沈海波
罗逸豪
曹翔
潘蕾西兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202210189921.1A priority Critical patent/CN114565792B/zh
Publication of CN114565792A publication Critical patent/CN114565792A/zh
Application granted granted Critical
Publication of CN114565792B publication Critical patent/CN114565792B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于轻量化卷积神经网络的图像分类方法和装置,属于计算机深度学习中图像分类领域。本发明包括:S1:构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;S2:将待分类图片输入所述轻量化卷积神经网络模型得到分类结果。本发明通过构建低参数量、低计算量且推理速度快的轻量化卷积神经网络模型,再利用轻量化卷积神经网络模型进行图像分类,相较于之前的轻量化卷积神经网络模型,在相近的分类准确率下,大幅减少参数量的同时大幅提高模型的分类速度。

Description

一种基于轻量化卷积神经网络的图像分类方法和装置
技术领域
本发明属于深度学习图像分类领域,更具体地,涉及一种基于轻量化卷积神经网络的图像分类方法和装置。
背景技术
近年来,卷积神经网络(Convolutional Neural Network,CNN)在计算机视觉,例如图像分类,中得到了广泛的应用,为了提高分类的准确率,CNN模型的深度和宽度都迅速增加,由此带来了模型参数量和计算量的迅速增长,这给CNN在计算能力较弱的设备上的应用带来了阻碍。
为了在移动或嵌入式设备上进行应用,模型的轻量化是一种重要的途径。目前基于深度可分离卷积(Depthwise Separable Convolution,DSCs)由一层深度卷积和一层逐点卷积构成构建模型并使用神经架构搜索(Neural Architecture Search,NAS)算法搜索最佳架构的方法取得了显著成功,比如MobileNets系列和EfficientNets系列。这些模型均使用深度可分离卷积代替标准卷积,相较于标准卷积,深度可分离卷积的参数量和计算量减少了几倍;在确定网络架构的主干后,再使用NAS算法再搜索最优的模型。例如每层的宽度等,使得在减少模型参数量和计算量的情况下,保证模型的分类准确率。
这类方法极大的减少了参数量和计算量,但是在GPU上的推理速度并没有提升甚至比ResNet等经典网络有所下降。其原因是深度可分离卷积中的并不能较好的利用GPU资源,并且这些网络相较于同等准确率的经典网络,使用了更多的网络层,其中包括了更多的非线性激活层和批归一化层,这些都对模型的推理速度造成了影响。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于轻量化卷积神经网络的图像分类方法和装置,其目的在于通过设计所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;将待分类图片输入所述轻量化卷积神经网络模型得到分类结果;由此在降低卷积神经网络模型参数量的同时提升模型的推理速度。
为实现上述目的,按照本发明的一个方面,提供了一种设计轻量化卷积神经网络构架的方法,包括:
S1:构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
S2:将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,包括:
S21:利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
S22:利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
S23:将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述全局池化层降低维度后输入全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
在其中一个实施例中,所述下采样层,用于包括依次连接的:高斯下采样层、逐点卷积层、非线性激活层和批量标准化层;所述下采样层输出两组输出特征图;
输入特征图经过高斯下采样层得到一组输出特征图;
输入的特征图依次输入所述下采样层中的高斯下采样层、逐点卷积层、非线性激活层和批量标准化层得到另一组输出特征图。
在其中一个实施例中,所述下采样层中的高斯下采样层对上一层输出的特征图进行卷积操作,输出特征图的分辨率将为输入时的一半。
在其中一个实施例中,所述下采样层中的逐点卷积层根据输入输出的特征通道数对输入特征图进行扩张或收缩。
在其中一个实施例中,所述下采样层中的非线性激活层中使用ReLU作为激活函数。
在其中一个实施例中,所述通用层包括依次连接的:深度卷积层、拼接层、逐点卷积层、非线性激活层和批量标准化层;
每个所述通用层输入为a组特征图和b组特征图;b组特征图输入所述深度卷积层进行卷积得到的c组特征图;将a组特征图和c组特征图输入所述通用层中的拼接层、逐点卷积层、非线性激活层和批量标准化层得到新的b组特征图;
所述b组特征图作为新a组特征图和所述新的b组特征图作为相邻的下一个通用层的输入。
按照本发明的另一方面,提供了一种基于轻量化卷积神经网络的图像分类装置,包括:
构建模块,用于构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
分类模块,用于将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,具体包括:
利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述、全局池化层将低维度后输入全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
本发明通过修改网络单元结构,构建低参数量、低计算量且推理速度快的轻量化卷积神经网络模型,再利用轻量化卷积神经网络模型进行图片分类;由于本发明模型的参数量和计算量低,在GPU上具有更快的推理速度,利用该模型进行图片分类能够提高图片的分类效率。
附图说明
图1是本发明一实施例中可视化的MobileNetV2下采样层的部分卷积核的示意图,卷积核大小为1××3×3;
图2是本发明一实施例中可视化的EfficientNet-B0非下采样层的部分卷积核的示意图,卷积核大小为1×5×5;
图3是本发明一实施例中可视化的RegNetX-400MF相邻层第5和第7层的部分相似特征图;
图4是本发明一实施例中构建的下采样层的示意图;
图5是本发明一实施例中构建的通用层的示意图;
图6是是本发明一实施例中基于轻量化卷积神经网络的图像分类方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明通过可视化特征图和卷积核提出轻量化卷积神经网络架构的设计依据。需要说明的是,可视化的网络可以是已经训练好参数的任意深度可分离卷积神经网络;可视化过程中均对特征图和卷积核进行归一化操作,而且如果卷积核的中心值为负数,则整个卷积核乘以-1。
依据1、如图1所示,下采样层(步长为2的深度卷积层)中的卷积核大部分近似于高斯模糊卷积核,并且下采样前进行模糊操作符合采样定理,因此我们构建的网络中,将用高斯模糊核代替下采样层中的卷积核。需要说明的是,图1由多个3x3大小(每个最小的方格代表一个像素,9个像素)的卷积核组成,越暗的像素值越大。这些3x3的卷积核中很多和高斯卷积核相似,即两个方差不同的高斯核。因此可以尝试使用高斯卷积核替代。
依据2、如图2所示,除下采样层外的其他深度卷积层中的卷积核很大一部分近似于恒等核(即只有中央有值的卷积核),因此我们构建的网络中,将使用恒等核代替部分深度卷积核,这等价于直接移除部分深度卷积层的卷积核。注意,为提升准确率和计算效率,深度卷积层后不再使用非线性激活层和批归一化层。需要说明的是,图2也是由多个3x3的卷积核组成。这些卷积核中很多和3x3的恒等核(Identity Kernel,中间值为1,其他值为0)相似,而Identity Kernl可以直接去除,从而减少计算量。
依据3、如图3所示,相邻层输出的特征图中,有很大一份分为相似的重复特征图,因此,我们将在相近的层中通过恒等映射复用部分特征图,且使得复用后的特征图不参与下一次的深度卷积操作,这保证网络宽度不变的同时,减少了一半的参数量和计算量。
本发明提供了一种基于轻量化卷积神经网络的图像分类方法,包括:
S1:构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元、全局池化层和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
S2:将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,包括:
S21:利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
S22:利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
S23:将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述全局池化层降低维度后输入全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
在其中一个实施例中,所述下采样层,用于包括依次连接的:高斯下采样层、逐点卷积层、非线性激活层和批量标准化层;所述下采样层输出两组输出特征图;
输入特征图经过高斯下采样层得到一组输出特征图;
输入的特征图依次输入所述下采样层中的高斯下采样层、逐点卷积层、非线性激活层和批量标准化层得到另一组输出特征图。
如图4所示,本申请提供的下采样层由4层构成:高斯下采样层(替换为高斯卷积核后步长为2的深度卷积层)、逐点卷积层、非线性激活层、批归一化层。高斯下采样层对上一层输出的特征图进行卷积操作,输出特征图的分辨率将为输入时的一半;逐点卷积层根据输入输出的特征通道数对输入特征图进行扩张或收缩;非线性激活层和批归一化层分别对上一层的输出特征进行非线性激活和归一化操作;最终,高斯下采样层的输出特征图和批归一化层的输出特征图共同作为本单元的输出。特别的,非线性激活层中使用ReLU作为激活函数。
在其中一个实施例中,所述下采样层中的高斯下采样层对上一层输出的特征图进行卷积操作,输出特征图的分辨率将为输入时的一半。
在其中一个实施例中,所述下采样层中的逐点卷积层根据输入输出的特征通道数对输入特征的通道进行扩张或收缩。
在其中一个实施例中,所述下采样层中的非线性激活层中使用ReLU作为激活函数。
在其中一个实施例中,所述通用层包括依次连接的:深度卷积层、拼接层、逐点卷积层、非线性激活层和批量标准化层;
每个所述通用层输入为a组特征图和b组特征图;b组特征图输入所述深度卷积层进行卷积得到的c组特征图;将a组特征图和c组特征图输入所述通用层中的拼接层、逐点卷积层、非线性激活层和批量标准化层得到新的b组特征图;
所述新的b组特征图作为新一轮的a组特征图和新一轮中输入的b组特征图作为相邻的下一个通用层的输入。
如图5所示,通用层共由5层构成:深度卷积层、拼接层、逐点卷积层、非线性激活层、批归一化层。根据步骤一中依据2,我们移除了深度卷积层中的一半卷积核,即深度卷积层仅对输入的第2组特征图进行卷积操作;拼接层将该单元输入的第1组特征图和深度卷积层输出的特征图拼接为1组作为输出;根据步骤一中的依据3,为了复用特征图并降低参数量,逐点卷积层对拼接层的输出特征图处理并降低一半的通道数,之后再经过非线性激活层和批归一化层处理;最终,该单元将输入的第2组特征图作为输出的第1组特征图,并将逐点卷积层的输出作为该单元的第2组输出特征图。
需要说明的是,本发明利用下采样层(DownBlock)和通用层(HalfConvBlock)构建轻量化神经网络,如图6所示:
1、使用标准卷积将输入图片通道扩充为指定通道数量;
2、使用DownBlock下采样并扩充通道数量,输出为2组特征图;
3、重复使用HalfConvBlock提取特征,输入输出均为2组特征图;
4、拼接2组特征图为1组;
4、再次重复2、3和4的操作3次;
5、使用全连接层输出最终的分类结果。
需要说明的是,最终的模型可以根据具体的需求(如参数量或计算量)来设置不同层的层数,例如,构建参数量为1.5M的网络具体细节如表1所示(表中省略了每个通用层后的拼接层)。
Figure BDA0003524869390000081
Figure BDA0003524869390000091
表1
当参数量限制为1.5M或2.5M且达到其他模型相近准确率时,本专利模型在参数量和推理速度上均大幅领先,如表2(本专利模型使用1.5M参数时在ImageNet上的准确率。GPU推理速度在RTX 6000上测得)和表3所示。另外,按照1.5M和2.5M的参数量构建的实施例仅用以说明本发明的技术方案,本领域的技术人员应当理解,仅对本发明的技术方案进行修改或等同替换,特别是仅修改网络层数和通道数量,而不脱离本技术方案的宗旨和范围。
Figure BDA0003524869390000092
表2
Figure BDA0003524869390000093
Figure BDA0003524869390000101
表3
按照本发明的另一方面,提供了一种基于轻量化卷积神经网络的图像分类装置,包括:
构建模块,用于构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
分类模块,用于将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,具体包括:
利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述全局池化层降低维度后输入所述全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于轻量化卷积神经网络的图像分类方法,其特征在于,包括:
S1:构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
S2:将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,具体包括:
S21:利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
S22:利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
S23:将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述全局池化层降低维度后输入所述全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
2.如权利要求1所述的基于轻量化卷积神经网络的图像分类方法,其特征在于,
所述下采样层,用于包括依次连接的:高斯下采样层、逐点卷积层、非线性激活层和批量标准化层;所述下采样层输出两组输出特征图;
输入特征图经过高斯下采样层得到一组输出特征图;
输入的特征图依次输入所述下采样层中的高斯下采样层、逐点卷积层、非线性激活层和批量标准化层得到另一组输出特征图。
3.如权利要求2所述的基于轻量化卷积神经网络的图像分类方法,其特征在于,
所述下采样层中的高斯下采样层对上一层输出的特征图进行卷积操作,输出特征图的分辨率将为输入时的一半。
4.如权利要求2所述的基于轻量化卷积神经网络的图像分类方法,其特征在于,
所述下采样层中的逐点卷积层根据输入输出的特征通道数对输入特征的通道进行扩张或收缩。
5.如权利要求2所述的基于轻量化卷积神经网络的图像分类方法,其特征在于,
所述下采样层中的非线性激活层中使用ReLU作为激活函数。
6.如权利要求1所述的基于轻量化卷积神经网络的图像分类方法,其特征在于,
所述通用层包括依次连接的:深度卷积层、拼接层、逐点卷积层、非线性激活层和批量标准化层;
每个所述通用层输入为a组特征图和b组特征图;b组特征图输入所述深度卷积层进行卷积得到的c组特征图;将a组特征图和c组特征图输入所述通用层中的拼接层、逐点卷积层、非线性激活层和批量标准化层得到b组特征图;
所述新的b组特征图作为新一轮的a组特征图和新一轮中输入的b组特征图作为相邻的下一个通用层的输入。
7.一种基于轻量化卷积神经网络的图像分类装置,其特征在于,用于执行权利要求1-6任一项所述的方法,所述图像分类装置,包括:
构建模块,用于构建轻量化卷积神经网络模型,所述轻量化神经网络模型包括依次连接的:标准卷积层、多个采样拼接单元和全连接层,所述采样拼接单元包括依次连接的:下采样层、多个通用层和拼接层;
分类模块,用于将待分类图片输入所述轻量化卷积神经网络模型得到分类结果,具体包括:
利用所述标准卷积层将所述待分类图片的通道扩充为指定通道数量,从而得到原始特征图;
利用第一个所述采样拼接单元中的下采样层对所述原始特征图进行下采样得到两组第一特征图,然后利用其中的多个通用层对两组所述第一特征图分别进行特征提取得到各自对应的第二特征图,再利用其中的拼接层将两组所述第二特征图进行拼接得到第一目标特征图;将所述第一目标特征图输入相邻的第二个所述采样拼接单元,以使其对所述第一目标特征图进行下采样、特征提取和拼接得到第二目标特征图;再将所述第二目标特征图输入相邻的第三个所述采样拼接单元,以此类推,直至最后一个所述采样拼接单元输出最终目标特征图;
将最后一个所述采样拼接单元输出的所述最终目标特征图输入所述全局池化层降低维度后输入所述全连接层,以使所述全连接层输出所述分类图片对应的分类结果。
CN202210189921.1A 2022-02-28 2022-02-28 一种基于轻量化卷积神经网络的图像分类方法和装置 Active CN114565792B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210189921.1A CN114565792B (zh) 2022-02-28 2022-02-28 一种基于轻量化卷积神经网络的图像分类方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210189921.1A CN114565792B (zh) 2022-02-28 2022-02-28 一种基于轻量化卷积神经网络的图像分类方法和装置

Publications (2)

Publication Number Publication Date
CN114565792A true CN114565792A (zh) 2022-05-31
CN114565792B CN114565792B (zh) 2024-07-19

Family

ID=81715751

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210189921.1A Active CN114565792B (zh) 2022-02-28 2022-02-28 一种基于轻量化卷积神经网络的图像分类方法和装置

Country Status (1)

Country Link
CN (1) CN114565792B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651438A (zh) * 2020-12-24 2021-04-13 世纪龙信息网络有限责任公司 多类别图像的分类方法、装置、终端设备和存储介质
US20210118137A1 (en) * 2019-05-16 2021-04-22 Beijing Boe Technology Development Co., Ltd. Method and apparatus of labeling target in image, and computer recording medium
US20210303911A1 (en) * 2019-03-04 2021-09-30 Southeast University Method of segmenting pedestrians in roadside image by using convolutional network fusing features at different scales

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210303911A1 (en) * 2019-03-04 2021-09-30 Southeast University Method of segmenting pedestrians in roadside image by using convolutional network fusing features at different scales
US20210118137A1 (en) * 2019-05-16 2021-04-22 Beijing Boe Technology Development Co., Ltd. Method and apparatus of labeling target in image, and computer recording medium
CN112651438A (zh) * 2020-12-24 2021-04-13 世纪龙信息网络有限责任公司 多类别图像的分类方法、装置、终端设备和存储介质

Also Published As

Publication number Publication date
CN114565792B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN109964250B (zh) 用于分析卷积神经网络中的图像的方法和***
CN113409191B (zh) 一种基于注意力反馈机制的轻量级图像超分方法及***
CN110084274B (zh) 实时图像语义分割方法及***、可读存储介质和终端
CN111209910A (zh) 用于语义分割的***、方法和非暂时性计算机可读介质
CN111091130A (zh) 基于轻量级卷积神经网络的实时图像语义分割方法及***
CN112990219B (zh) 用于图像语义分割的方法和装置
CN110598788A (zh) 目标检测方法、装置、电子设备及存储介质
CN112183295A (zh) 行人重识别方法、装置、计算机设备及存储介质
CN115358932B (zh) 一种多尺度特征融合的人脸超分辨率重构方法及***
CN112598110B (zh) 神经网络构建方法、装置、设备及介质
CN112419152A (zh) 一种图像超分辨率方法、装置、终端设备和存储介质
CN111709415B (zh) 目标检测方法、装置、计算机设备和存储介质
CN112419191A (zh) 基于卷积神经网络的图像运动模糊去除方法
CN111882053B (zh) 一种基于拼接卷积的神经网络模型压缩方法
Hua et al. Dynamic scene deblurring with continuous cross-layer attention transmission
CN111882028B (zh) 用于卷积神经网络的卷积运算装置
CN114494006A (zh) 图像重建模型的训练方法、装置、电子设备及存储介质
CN110490876B (zh) 一种基于轻量级神经网络的图像分割方法
CN111967478A (zh) 一种基于权重翻转的特征图重构方法、***、存储介质及终端
CN116029905A (zh) 一种基于渐进差值互补的人脸超分辨率重构方法及***
CN114565792B (zh) 一种基于轻量化卷积神经网络的图像分类方法和装置
CN113688783B (zh) 人脸特征提取方法、低分辨率人脸识别方法及设备
CN115578561A (zh) 一种基于多尺度上下文聚合网络的实时语义分割方法及装置
CN112529064B (zh) 一种高效的实时语义分割方法
CN112528899B (zh) 基于隐含深度信息恢复的图像显著性物体检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant