CN112488167A - 基于改进的EfficientNet网络的垃圾辨识分类*** - Google Patents

基于改进的EfficientNet网络的垃圾辨识分类*** Download PDF

Info

Publication number
CN112488167A
CN112488167A CN202011303297.0A CN202011303297A CN112488167A CN 112488167 A CN112488167 A CN 112488167A CN 202011303297 A CN202011303297 A CN 202011303297A CN 112488167 A CN112488167 A CN 112488167A
Authority
CN
China
Prior art keywords
improved
garbage
learning rate
network
efficientnet network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011303297.0A
Other languages
English (en)
Inventor
洪炎
徐涛
苏静明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University of Science and Technology
Original Assignee
Anhui University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University of Science and Technology filed Critical Anhui University of Science and Technology
Priority to CN202011303297.0A priority Critical patent/CN112488167A/zh
Publication of CN112488167A publication Critical patent/CN112488167A/zh
Priority to LU500063A priority patent/LU500063B1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明要解决的技术问题是,提供一种基于改进的EfficientNet网络的垃圾分类***,利用改进的EfficientNet网络分类算法,实现了对垃圾分类更加精确,分类速度更快。具体步骤包括:(1)通过图片采集设备对各种垃圾进行采集,建立数据库;(2)将采集的垃圾图片进行图像的预处理,常见的预处理方法有灰度处理、中值滤波处理、图像增强,用来增强图像中感兴趣的特征,抑制图像中不感兴趣的特征,这样能够有效的改善图像的质量。其次再将预处理好的数据进行划分;(3)采用迁移式学习的方法,保持EfficientNet网络在ImageNet数据集上原有的权值,通过微调训练出新的权值,将训练好的EfficientNet网络模型保存;(4)将预处理后的数据集通过改进后的EfficientNet网络模型进行分类识别,得出分类的结果。

Description

基于改进的EfficientNet网络的垃圾辨识分类***
技术领域
本发明涉及目标检测领域,具体涉及基于改进的EfficientNet网络的垃圾辨识分类***
背景技术
随着经济发展,国民的生活水平有了显著的提高,但随之而来的各种生活垃圾也以惊人的速度增长。大量的生活垃圾若未及时处理,不仅影响城市面貌,也会损害人们的身体健康。在倡导节约、环保型社会的今天,不仅要处理日益增加的垃圾,同时也需要回收垃圾中的可用资源。垃圾分类是一种高效的资源回收方法,也是一项关乎民生和社会可持续发展的社会问题
目前垃圾分类的问题已经成为了焦点,越来越多的人通过深度学习对垃圾分类进行研究,其中人工神经网路在垃圾分类的这个领域做出来巨大的贡献。前人利用BP神经网络进行垃圾分类,利用改进的BP进行分类,也有利用卷积神经网络进行分类等各种神经网络进行垃圾的分类。但是这些依然存在这一些问题:
(1)垃圾辨识分类的效果差。各种各样的神经网络用来进行垃圾的分类,这些神经网络在垃圾分类上的应用已经表现的很优秀了。但是最终垃圾分类的效果还不够好,一些分类***,其分类的精度很低。
(2)垃圾分类算法的辨识速度慢。由于垃圾的形状以及颜色变化较大,不容易手动提取类别特征,并且数据量很大。从而导致分类算法进行垃圾分类识别时速度很慢,不能满足生产现场嵌入式设备的实时性要求。
因此,有必要开发一种具有高分类效果,并且运行速度快的垃圾分类***。
发明内容
本发明要解决的技术问题是,提供一种基于改进的EfficientNet网络的垃圾辨识分类***,利用改进的EfficientNet网络分类算法,实现了对垃圾分类更加精确,分类速度更快。为解决上述技术问题,本发明采用的技术方案是:基于改进的EfficientNet网络的垃圾辨识分类***,具体包括以下步骤,相关流程图参见图1:
(1)通过图片采集设备对各种垃圾进行采集,建立数据库;
(2)将采集的垃圾图片进行图像的预处理,采用灰度处理、中值滤波处理、图像增强等方法对采集来的垃圾图像进行预处理,随后将预处理好的数据集进行划分;
(3)采用迁移式学习的方法,保持EfficientNet网络在ImageNet数据集上原有的权值,通过微调训练出新的权值,将训练好的EfficientNet网络模型保存;
(4)利用改进后的EfficientNet网络模型对预处理后的数据集进行分类识别,得出分类辨识结果;
本发明提出的基于改进的EfficientNet网络的垃圾辨识分类***,其中对EfficientNet的算法进行一些优化;具体地,是利用带有Warmup(预热)的余弦学习率衰减的方式对整个算法的学习率进行调整,常见改变学习率的方式有指数衰减方式、逐步衰减方式、多项式衰减方式。由于刚开始训练时模型的权重(weights)是随机初始化的,此时选择一个较大的学习率,可能会带来模型的不稳定,所以在刚开始训练的时候先使用一个较小的学习率,进行学习率的预热,等模型稳定时再修改为预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。其次再利用余弦退火的方式降低学习率,从而有利于提升精度。两种方式的相结合提升***的识别率和速度。
所述改进的具体流程为:
改进主要是改变学习率的计算方式,新的学习率计算方法主要分为两个阶段Warmup阶段和余弦退火阶段。
Warmup阶段:
(1)首先选取一个较小的预热学习率,对网络模型进行训练,训练了一些epochs或者steps(比如4个epoches,10000steps),然后每个step增大一点点,观察训练的结果;
(2)当训练的模型到达稳定时,将学习率增大到预先设置的学习率;
余弦退火阶段:将经过Warmup阶段的学习率按照余弦函数将学习速率从初始值逐渐降低,观察训
练结果;
两阶段结合后,具体的学习率计算如下:
(1)首先要初始化预热初始学习率、预热基础学习率、epochs(总迭代次数)、Warmup_epoch(预热迭代次数)、batch_size(批次大小)、样本数量、预留步数;
(2)根据公式计算Warmup的学习率;
(3)Warmup结束后,根据公式计算余弦退火学习率;
(4)余弦退火学习率进一步计算并判断,如果预留步数大于0,判断目前步数是否大于预热步数加预留步数,是的话返回上面计算的学习率,不是的话使用Warmup之后的基础学习率;
(5)当预热步数是大于0的时候,如果目前步数小于预热步数的话,那么返回Warmup当时的学习率,否则直接返回第二步的余弦退火计算的;
(6)如果最后当前到达的步数大于总步数,则学习率归为0,否则返回当前的计算出来的学习率;
附图说明
下面结合附图和本发明的实施方式进一步详细说明:
图1为基于改进的EfficientNet网络的垃圾辨识分类***的流程示意图
图2为改进的EfficientNet网络算法的流程图
图3为带Warmup的余弦退火原理图
图4为余弦学习率衰减与逐步学习率衰减对照图。

Claims (5)

1.一种基于改进的EfficientNet网络的垃圾辨识分类***,其特征在于,具体包括以下步骤:
(1)通过图片采集设备对各种垃圾进行采集,建立数据库;
(2)将采集的垃圾图片进行图像的预处理,采用灰度处理、中值滤波处理、图像增强等方法对采集来的垃圾图像进行预处理,随后将预处理好的数据集进行划分;
(3)采用迁移式学习的方法,保持EfficientNet网络在ImageNet数据集上原有的权值,通过微调训练出新的权值,将训练好的EfficientNet网络模型保存;
(4)利用改进后的EfficientNet网络模型对预处理后的数据集进行分类识别,得出分类辨识结果。
2.根据权利要求1所述的基于改进的EfficientNet网络的垃圾辨识分类***,其特征在于,所述步骤(1)中通过相机、摄像头、手机等硬件设备采集垃圾的原始图像,并将这些图片收集来构建图片数据库。
3.根据权利要求1所述的基于改进的EfficientNet网络的垃圾辨识分类***,其特征在于,所述步骤(2)中原始数据库里图片进行预处理,通过中值滤波,图片增强的方法,将图片中的噪声等无用信息进行剔除,所述图片增强的方法通常采用频域法和空域法。
4.根据权利要求1所述的基于改进的EfficientNet网络的垃圾辨识分类***,其特征在于,所述步骤(3)中利用迁移式的学习方法将已经在ImageNet数据集上训练好的EfficientNet网络移植过来,然后利用预处理好的图片来对该网络进行重新训练,从而重新修改该网络的权值,用以满足分类垃圾的条件。
5.根据权利要求1所述的基于改进的EfficientNet网络的垃圾辨识分类***,其特征在于,所述步骤(4)中在迁移式学习的基础上,对EfficientNet网络进行改进,利用改进的EfficientNet网络来进行垃圾的分类。其改进的内容主要是对网络的学习率进行改进,通过带有Warmup的余弦学习率衰减的方式来进行学习率的修改,从而用以提高EfficientNet网络模型的识别精度以及运行的速度。具体地为,是利用带有Warmup(预热)的余弦退火学习率调度的方法对整个算法的学习率进行调整。由于刚开始训练时模型的权重(weights)是随机初始化的,此时选择一个较大的学习率,可能会带来模型的不稳定,所以在刚开始训练的时候先使用一个较小的学习率,进行学习率的预热,等模型稳定时再修改为预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。其次再利用余弦退火的方式降低学习率,从而有利于提升精度。两种方式的相结合提升***的识别率和速度。
CN202011303297.0A 2020-11-19 2020-11-19 基于改进的EfficientNet网络的垃圾辨识分类*** Pending CN112488167A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011303297.0A CN112488167A (zh) 2020-11-19 2020-11-19 基于改进的EfficientNet网络的垃圾辨识分类***
LU500063A LU500063B1 (en) 2020-11-19 2021-04-20 Garbage identification and classification system based on improved efficient net

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011303297.0A CN112488167A (zh) 2020-11-19 2020-11-19 基于改进的EfficientNet网络的垃圾辨识分类***

Publications (1)

Publication Number Publication Date
CN112488167A true CN112488167A (zh) 2021-03-12

Family

ID=74932046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011303297.0A Pending CN112488167A (zh) 2020-11-19 2020-11-19 基于改进的EfficientNet网络的垃圾辨识分类***

Country Status (2)

Country Link
CN (1) CN112488167A (zh)
LU (1) LU500063B1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610163A (zh) * 2021-08-09 2021-11-05 安徽工业大学 一种基于知识蒸馏的轻量级苹果叶片病害识别方法
CN113657143A (zh) * 2021-06-25 2021-11-16 中国计量大学 一种基于分类和检测联合判决的垃圾分类方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110786824A (zh) * 2019-12-02 2020-02-14 中山大学 基于边界框修正网络的粗标注眼底照出血病变检测方法及***
CN110852420A (zh) * 2019-11-11 2020-02-28 北京智能工场科技有限公司 一种基于人工智能的垃圾分类方法
CN110884791A (zh) * 2019-11-28 2020-03-17 石家庄邮电职业技术学院(中国邮政集团公司培训中心) 一种基于TensorFlow的视觉垃圾分类***及分类方法
CN111079639A (zh) * 2019-12-13 2020-04-28 中国平安财产保险股份有限公司 垃圾图像分类模型构建的方法、装置、设备及存储介质
CN111611949A (zh) * 2020-05-25 2020-09-01 陈金山 基于cim与区块链的智慧城市水域垃圾密度检测方法
CN111723772A (zh) * 2020-06-30 2020-09-29 平安国际智慧城市科技股份有限公司 基于图像识别的易腐垃圾识别方法、装置及计算机设备
CN111768406A (zh) * 2020-08-05 2020-10-13 赛维森(广州)医疗科技服务有限公司 细胞图像处理方法、装置、设备和存储介质
CN111783841A (zh) * 2020-06-09 2020-10-16 中科院成都信息技术股份有限公司 基于迁移学习和模型融合的垃圾分类方法、***及介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852420A (zh) * 2019-11-11 2020-02-28 北京智能工场科技有限公司 一种基于人工智能的垃圾分类方法
CN110884791A (zh) * 2019-11-28 2020-03-17 石家庄邮电职业技术学院(中国邮政集团公司培训中心) 一种基于TensorFlow的视觉垃圾分类***及分类方法
CN110786824A (zh) * 2019-12-02 2020-02-14 中山大学 基于边界框修正网络的粗标注眼底照出血病变检测方法及***
CN111079639A (zh) * 2019-12-13 2020-04-28 中国平安财产保险股份有限公司 垃圾图像分类模型构建的方法、装置、设备及存储介质
CN111611949A (zh) * 2020-05-25 2020-09-01 陈金山 基于cim与区块链的智慧城市水域垃圾密度检测方法
CN111783841A (zh) * 2020-06-09 2020-10-16 中科院成都信息技术股份有限公司 基于迁移学习和模型融合的垃圾分类方法、***及介质
CN111723772A (zh) * 2020-06-30 2020-09-29 平安国际智慧城市科技股份有限公司 基于图像识别的易腐垃圾识别方法、装置及计算机设备
CN111768406A (zh) * 2020-08-05 2020-10-13 赛维森(广州)医疗科技服务有限公司 细胞图像处理方法、装置、设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MING ZENG 等: "PublicGarbageNet : A Deep Learning Framework for Public Garbage Classification", 《PROCEEDINGS OF THE 39TH CHINESE CONTROL CONFERENCE》, 9 September 2020 (2020-09-09), pages 3 *
高明 等: "基于新型空间注意力机制和迁移学习的垃圾图像分类算法", 《***工程理论与实践》, 28 October 2020 (2020-10-28), pages 3 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657143A (zh) * 2021-06-25 2021-11-16 中国计量大学 一种基于分类和检测联合判决的垃圾分类方法
CN113657143B (zh) * 2021-06-25 2023-06-23 中国计量大学 一种基于分类和检测联合判决的垃圾分类方法
CN113610163A (zh) * 2021-08-09 2021-11-05 安徽工业大学 一种基于知识蒸馏的轻量级苹果叶片病害识别方法

Also Published As

Publication number Publication date
LU500063B1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
CN110555368B (zh) 基于三维卷积神经网络的跌倒行为识别方法
CN100367294C (zh) 在彩色数字图像和视频中分割出人体皮肤区域的方法
CN110135386B (zh) 一种基于深度学习的人体动作识别方法和***
CN108829826A (zh) 一种基于深度学习和语义分割的图像检索方法
CN111008639B (zh) 一种基于注意力机制的车牌字符识别方法
CN110807757B (zh) 基于人工智能的图像质量评估方法、装置及计算机设备
CN110084149B (zh) 一种基于难样本四元组动态边界损失函数的人脸验证方法
CN111680702B (zh) 一种使用检测框实现弱监督图像显著性检测的方法
CN111310718A (zh) 一种遮挡人脸图像高准确率检测对比方法
CN112488167A (zh) 基于改进的EfficientNet网络的垃圾辨识分类***
CN108520212A (zh) 基于改进的卷积神经网络的交通标志检测方法
CN111160481B (zh) 基于深度学习的adas目标检测方法及***
CN101923637B (zh) 一种移动终端及其人脸检测方法和装置
CN113177464B (zh) 基于深度学习的端到端的多模态步态识别方法
CN112507617A (zh) 一种SRFlow超分辨率模型的训练方法及人脸识别方法
CN109784368A (zh) 一种应用程序分类的确定方法和装置
CN110796623A (zh) 一种基于渐进式残差网络的红外图像去雨方法及装置
CN111340758A (zh) 一种基于深度神经网络的高效虹膜图像质量评价新方法
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN116030396A (zh) 一种用于视频结构化提取的精确分割方法
CN110633689B (zh) 基于半监督注意力网络的人脸识别模型
CN116452469B (zh) 一种基于深度学习的图像去雾处理方法及装置
CN117095471A (zh) 基于多尺度特征的人脸伪造溯源方法
CN113449676A (zh) 一种基于双路互促进解纠缠学习的行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210312