CN108304920A - 一种基于MobileNets优化多尺度学习网络的方法 - Google Patents

一种基于MobileNets优化多尺度学习网络的方法 Download PDF

Info

Publication number
CN108304920A
CN108304920A CN201810108120.1A CN201810108120A CN108304920A CN 108304920 A CN108304920 A CN 108304920A CN 201810108120 A CN201810108120 A CN 201810108120A CN 108304920 A CN108304920 A CN 108304920A
Authority
CN
China
Prior art keywords
convolution
group
output
weights
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810108120.1A
Other languages
English (en)
Other versions
CN108304920B (zh
Inventor
王改华
刘文洲
吕朦
袁国亮
李涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN201810108120.1A priority Critical patent/CN108304920B/zh
Publication of CN108304920A publication Critical patent/CN108304920A/zh
Application granted granted Critical
Publication of CN108304920B publication Critical patent/CN108304920B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明涉及一种基于MobileNets优化多尺度学习网络的方法,本发明所述多尺度学习网络包括4部分,前3部分为相同的可分离卷积层,每个可分离卷积层后面连接batchnorm和ReLU,再连接池化层,最终与第4部分的全连接层和输出层连接,其中可分离卷积层包括3组卷积操作,具体网络结构为,第一组以3*3的深度卷积进行卷积操作,第二组连续用两个3*3的深度卷积进行卷积操作,然后再将第一组和第二组的输出进行加和操作,继续用1*1的点卷积进行卷积操作;第三组直接用1*1的点卷积进行卷积操作,接着把第一、二组和第三组的输出进行合并操作;通过实验对比发现,本发明构建的网络结构实验参数少,精度高,三组可分离卷积层结构稳定,实验效果最为理想。

Description

一种基于MobileNets优化多尺度学习网络的方法
技术领域
本发明属于图像分类领域,它主要是应用于移动和嵌入式视觉应用,是针对手机等嵌入式设备提出的一种轻量级的深层神经网络。图像分类,是通过各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。
背景技术
在深度学***台上的应用,如机器人和自动驾驶等,他们本身的硬件资源相对有限,就更需要一种轻量级、低延迟(同时精度尚可接受)的网络模型。
MobileNets本身就是一种用于移动和嵌入式视觉应用的高效模型。MobileNets是基于一个流线型的架构,它使用深度可分离的卷积来构建轻量级的深层神经网络。见图1,可以看出标准卷积和可分离卷积具体卷积模块的区别,它可以将标准卷积分离成一个深度卷积和一个点卷积(1×1卷积核)。深度卷积将每个卷积核应用到每一个通道,而1×1卷积用来组合通道卷积的输出。这种分离可以有效减少计算量,并且降低模型大小。如图2,形象的说明标准卷积是如何进行分离的。
并且MobileNets网络引入了两个简单的全局超参数,分别是宽度乘数和分辨率乘数。前者是为了改变输入输出通道数,减少特征图数量,让网络变瘦;后者通过改变输入数据层的分辨率,同样也能减少参数。在延迟度和准确度之间有效地进行平衡,在表现出较好的性能同时,兼顾模型大小。但是现有的MobileNets网络和同样层数的其他网络相比,虽然时间和参数数量有所优化,但精度不容乐观。
发明内容
在构建模型的时候,可以通过选择MobileNets网络中两个超参数来构建合适大小的效果更好的模型。本发明主要是对移动和嵌入式视觉应用方面神经网络的优化,在MobileNets网络的基础上,对网络进行一些优化和改进,提高网络的准确率。在对其他数据集的测试中,本发明所得到的结果较为理想,在精度和时间上与其他模型相比都有较好的表现。
为了达到上述目的,本发明所采用的技术方案是:一种基于MobileNets优化多尺度学习网络的方法,以MobileNets网络所突出的深度可分离卷积形式为基础,在每层可分离卷积层中交叉并联三组深度卷积和点卷积;分别以一组深度卷积、两组点卷积、一组连续深度卷积和组合的形式;通过cancat函数与add函数进行连接。具体包括如下步骤:
步骤1,构建多尺度学习网络,所述多尺度学习网络包括4部分,前3部分为相同的可分离卷积层,每个可分离卷积层后面连接batchnorm和ReLU,再连接池化层,最终与第4部分的全连接层和输出层连接,其中可分离卷积层包括3组卷积操作,具体网络结构如下,
第一组以3*3的深度卷积进行卷积操作,第二组连续用两个3*3的深度卷积进行卷积操作,然后再将第一组和第二组的输出进行加和操作,继续用1*1的点卷积进行卷积操作;第三组直接用1*1的点卷积进行卷积操作,接着把第一、二组和第三组的输出进行合并操作;
步骤2,多尺度学习网络初始化,获得可分离卷积层的初始权值和阈值;
步骤3,输入训练样本至多尺度学习网络进行训练,获得更新的权值和阈值,进而获得优化后的多尺度学习网络,其中前三部分中的任意一部分的操作过程如下,
(1)令输入层的输入数据为x1,第一组深度卷积过程的权值为w1,输出特征图为y1,其y1的值为,
y1=σ1(x1*w1+b1) (1)
其中,σ1是激活函数,b1是该组卷积的阈值;
(2)第二组第一个深度卷积过程的权值为w2_1,第二个深度卷积过程的权值为w2_2,输出特征图分别为y2_1、y2,其y2_2、y2的值为,
y2_1=σ2_1(x1*w2_1+b2_2) (2)
y2=σ2_2(y2_1*w2_2+b2_2) (3)
其中,σ2_1和σ2_2均为激活函数,w2_1、w2_2、b2_1、b2_2分别是第一和第二个卷积过程中的权值和阈值;
(3)将(1)、(2)中的输出y1和y2进行加和操作得到y3,其y3的值可表示为,
y3=concat[y1,y2] (4)
其中concat函数用于连接两个或多个数组;
(4)第三组通过一个1*1的点卷积过程,其权值为w3,输出特征图为y4;(3)中的输出y3同样通过一个1*1的点卷积过程,其权值为w2_3,输出特征图为y5,则y4、y5可表示为
y4=σ3(x1*w3+b3) (5)
y5=σ4(y3*w2_3+b4) (6)
其中σ3、σ4是激活函数,b3、b5为阈值;
(5)将(4)中的两个输出进行合并操作得到y6,则y6表示为,
y6=merge[y4,y5] (7)
其中merge函数用于合并数据集;
(6)然后采用2*2的均值池化,对特征图进行压缩。
进一步的,步骤2中初始权值和阈值均通过随机数函数随机产生的,其中权值的范围在[0,1]之间。
进一步的,步骤3所述激活函数为Relu函数。
与现有技术相比,本发明的优点和有益效果。
通过实验对比发现,本发明构建的网络结构实验参数少,精度高,三组可分离卷积层结构稳定,实验效果最为理想。
本发明与同层数的MobileNets网络相比,参数有少量增加(相比较来说不明显),但是精度上提高的较为明显,与同层数的Alexnet网络相比精度变化不大,但是参数数量上有显著减少。
附图说明
图1为标准卷积与可分离卷积示意图;
图2为深度可分离卷积结构示意图;
图3为本发明实施例构建的网络结构图;
图4为本发明实施例可分离卷积部分结构图;
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明是以MobileNets网络为基础的优化神经网络,其步骤包括:
步骤1,如表1所示,其中3*3*3和1*1*3分别表示3*3大小的深度卷积核、1*1大小的点卷积核。本发明构建的网络可分为4个部分,前3部分为相同的可分离卷积层,每个可分离卷积层后面连接batchnorm和ReLU,再连接池化层,第四个部分是全连接层和输出层,现以第一部分的卷积过程为例来介绍,具体网络结构见图3。第一部分的隐含层结构分成3组,第一组以3*3的深度卷积进行卷积操作,第二组连续用两个3*3的深度卷积进行卷积操作,然后再将第一组和第二组的输出进行加和操作,继续用1*1的点卷积进行卷积操作。第三组直接用1*1的点卷积进行卷积操作,接着把第一、二组和第三组的输出进行合并操作,然后连接batchnorm和ReLU,再连接池化层;如此,将以上操作重复2次,接入全连接层,最终输入到softmax进行分类,如图4所示。
表1本发明实施例网络结构表格形式
步骤2,网络初始化,初始化时,权值和阈值均通过随机数函数随机产生的,权值的范围在[0,1]之间;
步骤3,将CIFAR-10训练样本作为该优化网络的输入层的输入数据,对网络进行训练,训练过程中权值和阈值不断调节更新。通过步骤2获得3组卷积核的初始训练权值,在第一组3*3*3深度卷积核操作得到32*32*1大小的输出,第二组两个连续3*3*3度卷积核操作得到32*32*1大小的输出,将两输出进行加和函数操作,得到32*32*2大小的输出作为下一层32个1*1*3点卷积核的输入得到32*32*32大小的输出,第三层直接将输入层的输入数据通过32个1*1*3的点卷积核卷积操作得到32*32*32大小的输出,之后将两组输出进行合并函数操作得到32*32*32大小的输出,紧接着将上一步的输出作为以2*2大小的最大池化操作的输入。前面的三组卷积操作和池化过程作为一个部分,再重复两次,得到8*8*128大小的输出,继续将上一步输出结果作为输入数据接入全连接层,最终输入到softmax进行分类。
下面对三组卷积操作和池化过程进行详细的介绍。
(1)令输入层的输入数据为x1,第一组深度卷积过程的权值为w1,输出特征图为y1,其y1的值为
y1=σ1(x1*w1+b1) (1)
其中,σ1是激活函数,本发明实施例中的激活函数用的是Relu函数,b1是该组卷积的阈值。
(2)第二组第一个深度卷积过程的权值为w2_1,第二个深度卷积过程的权值为w2_2,输出特征图分别为y2_1、y2,其y2_2、y2的值为
y2_1=σ2_1(x1*w2_1+b2_2) (2)
y2=σ2_2(y2_1*w2_2+b2_2) (3)
其中,σ2_1和σ2_2均为激活函数,w2_1、w2_2、b2_1、b2_2分别是第一和第二个卷积过程中的权值和阈值。
(3)将(1)、(2)中的输出y1和y2进行加和操作得到y3,其y3的值可表示为
y3=concat[y1,y2] (4)
其中concat函数用于连接两个或多个数组。
(4)第三组通过一个1*1的点卷积过程,其权值为w3,输出特征图为y4,(3)中的输出y3同样通过一个1*1的点卷积过程,其权值为w2_3,输出特征图为y5,则y4、y5可表示为
y4=σ3(x1*w3+b3) (5)
y5=σ4(y3*w2_3+b4) (6)
其中σ3、σ4是激活函数,b3、b5为阈值,因为是1*1的点卷积,特征图的大小并没有发生变化。
(5)将(4)中的两个输出进行合并操作得到y6,则y6表示为
y6=merge[y4,y5] (7)
其中merge函数用于合并数据集。
(6)再进行池化过程,采用2*2的均值池化,对特征图进行压缩。输出结果即作为第二个部分的输入数据,再重复第一个部分的卷积池化过程。
为了进一步说明本发明的有益效果,下面以3个数据集上进行了实验:MNIST标准数据集,SVHN数据集和CIFAR-10数据集,通过在三个相同层数的不同网络AlexNet、MobileNets、优化后的网络结构上进行测试,对比实验精度和参数数量。
(1)MNIST数据集的比较
优化后的结构与AlexNet网络相比,精度有一定的提高,参数数量减少了将近四分之三,降幅较为明显;与MobileNets网络相比,参数数量是MobileNets网络的两倍,参数数量有一定增加,但是,精度提高了百分之五,有明显的提高。整体来看,优化效果较为理想。
(2)SVHN数据集的比较
优化后的结构与AlexNet网络相比,精度有小幅度的下降,参数数量减少了将近四分之三,降幅较为明显;与MobileNets网络相比,参数数量是MobileNets网络的两倍,参数数量有一定增加,但是,精度略有提高。整体来看,优化效果较为理想。
(3)CIFAR-10数据集的比较
优化后的结构与AlexNet网络相比,精度有小幅度的下降,参数数量减少了将近四分之三,降幅较为明显;与MobileNets网络相比,参数数量没有变化,但是,精度提高了百分之五,有明显的提高。整体来看,优化效果较为理想。
通过3个数据集的测试,对比与AlexNet网络和MobileNets网络(三个网络层数相同,都是3层)的测试结果,优化后的网络结构整体上优化较为理想。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (3)

1.一种基于MobileNets优化多尺度学习网络的方法,其特征在于,包括如下步骤:
步骤1,构建多尺度学习网络,所述多尺度学习网络包括4部分,前3部分为相同的可分离卷积层,每个可分离卷积层后面连接batchnorm和ReLU,再连接池化层,最终与第4部分的全连接层和输出层连接,其中可分离卷积层包括3组卷积操作,具体网络结构如下,
第一组以3*3的深度卷积进行卷积操作,第二组连续用两个3*3的深度卷积进行卷积操作,然后再将第一组和第二组的输出进行加和操作,继续用1*1的点卷积进行卷积操作;第三组直接用1*1的点卷积进行卷积操作,接着把第一、二组和第三组的输出进行合并操作;
步骤2,多尺度学习网络初始化,获得可分离卷积层的初始权值和阈值;
步骤3,输入训练样本至多尺度学习网络进行训练,获得更新的权值和阈值,进而获得优化后的多尺度学习网络,其中前三部分中的任意一部分的操作过程如下,
(1)令输入层的输入数据为x1,第一组深度卷积过程的权值为w1,输出特征图为y1,其y1的值为,
y1=σ1(x1*w1+b1) (1)
其中,σ1是激活函数,b1是该组卷积的阈值;
(2)第二组第一个深度卷积过程的权值为w2_1,第二个深度卷积过程的权值为w2_2,输出特征图分别为y2_1、y2,其y2_2、y2的值为,
y2_1=σ2_1(x1*w2_1+b2_2) (2)
y2=σ2_2(y2_1*w2_2+b2_2) (3)
其中,σ2_1和σ2_2均为激活函数,w2_1、w2_2、b2_1、b2_2分别是第一和第二个卷积过程中的权值和阈值;
(3)将(1)、(2)中的输出y1和y2进行加和操作得到y3,其y3的值可表示为,
y3=concat[y1,y2] (4)
其中concat函数用于连接两个或多个数组;
(4)第三组通过一个1*1的点卷积过程,其权值为w3,输出特征图为y4;(3)中的输出y3同样通过一个1*1的点卷积过程,其权值为w2_3,输出特征图为y5,则y4、y5可表示为
y4=σ3(x1*w3+b3) (5)
y5=σ4(y3*w2_3+b4) (6)
其中σ3、σ4是激活函数,b3、b5为阈值;
(5)将(4)中的两个输出进行合并操作得到y6,则y6表示为,
y6=merge[y4,y5] (7)
其中merge函数用于合并数据集;
(6)然后采用2*2的均值池化,对特征图进行压缩。
2.如权利要求1所述的一种基于MobileNets优化多尺度学习网络的方法,其特征在于:步骤2中初始权值和阈值均通过随机数函数随机产生的,其中权值的范围在[0,1]之间。
3.如权利要求1所述的一种基于MobileNets优化多尺度学习网络的方法,其特征在于:步骤3所述激活函数为Relu函数。
CN201810108120.1A 2018-02-02 2018-02-02 一种基于MobileNets优化多尺度学习网络的方法 Expired - Fee Related CN108304920B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810108120.1A CN108304920B (zh) 2018-02-02 2018-02-02 一种基于MobileNets优化多尺度学习网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810108120.1A CN108304920B (zh) 2018-02-02 2018-02-02 一种基于MobileNets优化多尺度学习网络的方法

Publications (2)

Publication Number Publication Date
CN108304920A true CN108304920A (zh) 2018-07-20
CN108304920B CN108304920B (zh) 2020-03-10

Family

ID=62864084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810108120.1A Expired - Fee Related CN108304920B (zh) 2018-02-02 2018-02-02 一种基于MobileNets优化多尺度学习网络的方法

Country Status (1)

Country Link
CN (1) CN108304920B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543549A (zh) * 2018-10-26 2019-03-29 北京陌上花科技有限公司 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器
CN109740481A (zh) * 2018-12-26 2019-05-10 山东科技大学 基于跳跃连接的cnn与lstm结合的房颤信号分类方法
CN110009096A (zh) * 2019-03-06 2019-07-12 开易(北京)科技有限公司 基于嵌入式设备的目标检测网络模型优化方法
CN110414585A (zh) * 2019-07-22 2019-11-05 武汉理工大学 基于改进的嵌入式平台的实时颗粒物检测方法
CN110766127A (zh) * 2018-07-25 2020-02-07 北京深鉴智能科技有限公司 神经网络计算专用电路及其相关计算平台与实现方法
CN111652330A (zh) * 2020-08-05 2020-09-11 深圳市优必选科技股份有限公司 图像处理方法、装置、***、电子设备及可读存储介质
CN112101318A (zh) * 2020-11-17 2020-12-18 深圳市优必选科技股份有限公司 基于神经网络模型的图像处理方法、装置、设备及介质
US20220044370A1 (en) * 2020-08-05 2022-02-10 Ubtech Robotics Corp Ltd Image processing methods
CN114239808A (zh) * 2021-12-20 2022-03-25 湖北工业大学 一种基于PointCloudTransformer的多尺度优化网络方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117587A1 (en) * 2014-10-27 2016-04-28 Zhicheng Yan Hierarchical deep convolutional neural network for image classification
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
CN107292333A (zh) * 2017-06-05 2017-10-24 浙江工业大学 一种基于深度学习的快速图像分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160117587A1 (en) * 2014-10-27 2016-04-28 Zhicheng Yan Hierarchical deep convolutional neural network for image classification
US20160140438A1 (en) * 2014-11-13 2016-05-19 Nec Laboratories America, Inc. Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification
CN106845528A (zh) * 2016-12-30 2017-06-13 湖北工业大学 一种基于K‑means与深度学习的图像分类算法
CN107292333A (zh) * 2017-06-05 2017-10-24 浙江工业大学 一种基于深度学习的快速图像分类方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766127A (zh) * 2018-07-25 2020-02-07 北京深鉴智能科技有限公司 神经网络计算专用电路及其相关计算平台与实现方法
CN110766127B (zh) * 2018-07-25 2022-09-23 赛灵思电子科技(北京)有限公司 神经网络计算专用电路及其相关计算平台与实现方法
CN109543549A (zh) * 2018-10-26 2019-03-29 北京陌上花科技有限公司 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器
CN109740481A (zh) * 2018-12-26 2019-05-10 山东科技大学 基于跳跃连接的cnn与lstm结合的房颤信号分类方法
CN109740481B (zh) * 2018-12-26 2019-12-10 山东科技大学 基于跳跃连接的cnn与lstm结合的房颤信号分类***
CN110009096A (zh) * 2019-03-06 2019-07-12 开易(北京)科技有限公司 基于嵌入式设备的目标检测网络模型优化方法
CN110414585B (zh) * 2019-07-22 2022-04-01 武汉理工大学 基于改进的嵌入式平台的实时颗粒物检测方法
CN110414585A (zh) * 2019-07-22 2019-11-05 武汉理工大学 基于改进的嵌入式平台的实时颗粒物检测方法
CN111652330A (zh) * 2020-08-05 2020-09-11 深圳市优必选科技股份有限公司 图像处理方法、装置、***、电子设备及可读存储介质
US20220044370A1 (en) * 2020-08-05 2022-02-10 Ubtech Robotics Corp Ltd Image processing methods
WO2022027917A1 (zh) * 2020-08-05 2022-02-10 深圳市优必选科技股份有限公司 图像处理方法、装置、***、电子设备及可读存储介质
CN111652330B (zh) * 2020-08-05 2020-11-13 深圳市优必选科技股份有限公司 图像处理方法、装置、***、电子设备及可读存储介质
CN112101318A (zh) * 2020-11-17 2020-12-18 深圳市优必选科技股份有限公司 基于神经网络模型的图像处理方法、装置、设备及介质
CN114239808A (zh) * 2021-12-20 2022-03-25 湖北工业大学 一种基于PointCloudTransformer的多尺度优化网络方法
CN114239808B (zh) * 2021-12-20 2023-09-01 湖北工业大学 一种基于PointCloudTransformer的多尺度优化网络方法

Also Published As

Publication number Publication date
CN108304920B (zh) 2020-03-10

Similar Documents

Publication Publication Date Title
CN108304920A (zh) 一种基于MobileNets优化多尺度学习网络的方法
CN108764072B (zh) 一种基于多尺度融合的血细胞亚型图像分类方法
CN107229942A (zh) 一种基于多个分类器的卷积神经网络快速分类方法
CN110059740A (zh) 一种针对嵌入式移动端的深度学习语义分割模型压缩方法
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
EP3398035B1 (en) Detection of hand gestures using gesture language discrete values
CN111145145B (zh) 一种基于MobileNets的图像表面缺陷检测方法
CN105404619B (zh) 一种基于相似度的语义Web服务聚类标注方法
CN114581356B (zh) 基于风格迁移数据增广的图像增强模型泛化方法
CN116416561A (zh) 一种视频图像处理方法和装置
CN111160458B (zh) 一种图像处理***及其卷积神经网络
CN112036475A (zh) 融合模块和多尺度特征融合卷积神经网络及图像识别方法
CN113569881A (zh) 一种基于链式残差与注意力机制的自适应语义分割方法
CN108664993A (zh) 一种密集权重连接的卷积神经网络图像分类方法
CN110211685A (zh) 基于完全关注机制的糖网筛查网络结构模型
CN112256739A (zh) 一种基于多臂***的动态流大数据中数据项筛选方法
CN114219824A (zh) 基于深度网络的可见光-红外目标跟踪方法及***
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN108921287A (zh) 一种神经网络模型的优化方法及***
Li et al. Coevolutionary framework for generalized multimodal multi-objective optimization
Chao The fractal artistic design based on interactive genetic algorithm
CN112233043A (zh) 一种基于DenseNet与GAN的低照度图像增强方法
CN110766083A (zh) 一种基于特征融合Alexnet壁画图像分类方法
Li et al. Learning aesthetic judgements in evolutionary art systems
Xiang et al. Optical flow estimation using spatial-channel combinational attention-based pyramid networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200310

CF01 Termination of patent right due to non-payment of annual fee