CN111814860A - 一种面向垃圾分类的多目标检测方法 - Google Patents

一种面向垃圾分类的多目标检测方法 Download PDF

Info

Publication number
CN111814860A
CN111814860A CN202010620024.2A CN202010620024A CN111814860A CN 111814860 A CN111814860 A CN 111814860A CN 202010620024 A CN202010620024 A CN 202010620024A CN 111814860 A CN111814860 A CN 111814860A
Authority
CN
China
Prior art keywords
network
training
garbage
classification
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010620024.2A
Other languages
English (en)
Inventor
黄立鑫
雷艳静
曹迪
张澳
陈国鑫
彭湃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010620024.2A priority Critical patent/CN111814860A/zh
Publication of CN111814860A publication Critical patent/CN111814860A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种面向垃圾分类的多目标检测方法,包括以下步骤:步骤(1)、构建初期网络;步骤(2)、获取训练集和数据集;步骤(3)、用深度卷积神经网络的卷积层实现目标检测;步骤(4)、部分特征提取;步骤(5)、多层特征图连接;步骤(6)、候选框的产生:采用anchor与区域生产网络结构生产候选框;步骤(7)、YOLO网络预训练;步骤(8)、模型网络正式训练;步骤9:将垃圾图片拍摄输入到模型中,即可进行垃圾识别,得到正确的垃圾类别。本发明可应用于居民日常生活的垃圾分类,居民可通过摄像头将垃圾放置摄像头可观测合适的位置,就可通过本发明对垃圾进行准确的识别,极大的提高了目标检测精度。

Description

一种面向垃圾分类的多目标检测方法
技术领域
本发明涉及智能技术领域,尤其涉及一种对垃圾分类问题的训练方法及多目标检测方法。
技术背景
目标检测是计算机视觉中最基本和最具挑战性的问题之一,其目的是检测图像中特定目标的位置,已广泛用于人脸检测、自动驾驶、行人检测、视频监控等领域。现有的目标检测方法可分为传统方法和基于深度学习的方法。
传统目标检测方法主要包括区域选择、特征提取和分类回归。其中特征提取使用手工提取特征的方法,如通过提取图像颜色连通区域的共生矩阵来描述图像特征;通过结构元素描述符来提取和描述图像的纹理和颜色[2];通过基于自适应强边缘提取的方法估计模糊核。但是,上述方法特征提取方式单一,检测准确率低,且计算复杂。随着深度卷积神经网络的快速发展,基于深度学习的目标检测方法由于其无需进行人工特征设计、具有良好的特征表达能力及优良的检测精度,已经超越传统检测方法,成为当前目标检测算法的主流.基于深度学习的目标检测方法主要通过卷积神经网络提取图像特征,主流的网络结构有DenseNet、ShuffleNetv2、MobileNetv2等。
另外,有些方法将手工提取特征和神经网络方法相结合。在现实场景中存在大量小目标物体,尤其是对于低分辨率图像,很难提取到其中的小目标特征,造成检测效果较差。为了解决目标检测中小目标漏检问题,提出了基于卷积神经网络的多尺度处理方法.多尺度检测方法可以分为两类:一类是基于图像金字塔的方法,如R-CNN、Fast R-CNN、FasterR-CNN等,上述方法通常将输入图像重采样得到不同尺度,并将这些不同尺度的图像分别输入到网络中训练,但是,随着输入数据量增大,基于图像金字塔的方法复杂度很高;另一类是基于特征金字塔的方法,与基于图像金字塔的方法相比,特征图金字塔方法可充分利用不同卷积层的特征信息,并且速度更快,因此,基于特征金字塔的方法越来越流行。MSCNN在不同尺度的特征图上生成候选框,SSD采用了类似结构。但是,它们仅将低层特征图用于小目标检测,而低层特征图中只拥有较少的语义信息,造成小目标检测性能低下。
发明内容
为了克服现有技术的不足,本发明目的在于提供一种面向垃圾分类的多目标检测方法,在原有的R-CNN、Fast R-CNN,Faster R-CNN等技术上存在精度低,分辨率不高,识别速度慢,冗余度过高等问题,采用了以YOLO网络结构为核心思想,在原有基础上采用了特征图堆叠的方式进行特征融合,而不是通过简单的元素对应相加进行特征融合得到,在效率和精度上较于原有技术上精度对于特定的垃圾类别提高了100倍,速度提高了15倍,能够很好的适用于面向家庭生活日常的垃圾分类工作中。
为了克服上述技术问题本发明提供以下的技术方案:
一种面向垃圾分类的多目标检测方法,包括以下步骤:
步骤(1)、构建初期网络,过程如下:
步骤(101)、深度学习网络由两个二分类判别模型和一个多分类判别模型组成,每个判别模型都是由多层的全连接网络构成:
步骤(102)、每层全连接后面接Relu激励函数;
步骤(102)、最后输出做符号函数运算,把输出控制为{0,1};
步骤(2)、获取训练集和数据集:
步骤(201)、进行模糊过滤数据处理,剔除数据集中模糊无法看清的图像,避免干扰图像结果;
步骤(202)、进行遮挡过滤数据集处理,剔除数据集中被遮盖,看不清的图像;
步骤(203)、选取包含有待检测目标的图片,对各待检测目标在图片中的位置进行标注,记录各待检测的坐标信息构成目标检测定位数据集,通过使用区域生成网络绘制图像中包括待检测目标的anchor,并将待检测目标的坐标信息标注在最小矩形框的右下角;
步骤(204)、使用ImageNet上预训练好的模型对全部垃圾分类图像进行预分类,并提取图像分类结果导入至表格中;
步骤(205)、根据检索的要求构建数据对应表格,结合元数据集中的步数、位置等数据对该使用的图片施加限制,减小检索范围;
步骤(206)、将数据预设为预训练集(A),验证集(B)和测试机(C),准备进行第二次预训练;
步骤(3)、用深度卷积神经网络的卷积层实现目标检测;卷积神经网络的结构分为四个部分:特征提取、多层特征图连接、候选框的产生及目标分类,特征提取使了ResNet101作为搭建框架,多层特征图连接针对ResNet101进行三层残差学习模块C2,C3,C4交替连接,候选框只要由anchor与区域生成网络产生,目标分类和回归通过rpn网络实现;
步骤(4)、部分特征提取:特征提取网络包含了三个残差学习模块分别为C2,C3,C4。在C2中使用了五个相同的结构进行叠加,C2的结构中包含了三个卷积层;在C3中使用了六个相同的结构进行叠加,C3的结构中包括了三个卷积层;在C4中使用了五个相同的结构叠加,C4的结构中包括了三个卷积层;
步骤(5)、多层特征图连接:特征提取网络的C2,C3,C4的输出作为多层特征图连接模块的输入,对特征提取网络的C2,C3,C4的输出特征图进行上下堆叠与连接;
步骤(6)、候选框的产生:采用anchor与区域生产网络结构生产候选框;
步骤(7)、YOLO网络预训练,过程如下:
步骤(701)、第一次训练二分类判别模型;
步骤(702)、第二次训练二分类判别模型;
步骤(703)、使用ImageNet1000类数据训练初始状态的YOLO网络的前20个卷积层+1个池化层+1个全连接层,训练图片分辨率resize到224*224。
步骤(704)、将训练结果保存起来,作为第二次类别每一类询问下的分类结果图片合并作为我们训练样本的训练数据;
步骤(8)、模型网络正式训练,过程如下:
步骤(801)、针对垃圾分类要求的四种类别,建立多类别垃圾分类模型;
步骤(802)、对YOLO网络进行修改:用预训练得到的前20个卷积层网络参数来初始化YOLO模型前20个卷积层的网络参数,然后在其池化结果后增加3个全连接层,三个全连接层的输出分别为4096,64,4;首先处理图片通过池化层对YOLO网络进行目标特征图提取,候选框尺寸进行自适应映射,得到适应于图片中不同待检测目标的最佳尺寸,然后将输出结果映射到64层的全连接层中,再将结果输出至4层的全连接层中进行预测目标类别反馈信息;
步骤9:将垃圾图片拍摄输入到模型中,即可进行垃圾识别,得到正确的垃圾类别。
本发明的有益效果表现在:目标检测方法可应用于居民日常生活的垃圾分类,居民可通过摄像头将垃圾放置摄像头可观测合适的位置,就可通过本发明对垃圾进行准确的识别,同时该算法相较于原有的R-CNN、Fast R-CNN,Faster R-CNN等技术上存在精度低,分辨率不高,识别速度慢,冗余度过高等问题,极大的提高了目标检测精度。
附图说明
图1是面向垃圾分类的目标检测技术框架示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。
参照图1,一种面向垃圾分类的多目标检测方法,本实施案例中的垃圾分类按四种不同类别分为4个文件夹,每个文件夹下大约由20000张不同垃圾的图片,共计十万余张图片。本案例将通过垃圾分类实施环节描述面向垃圾分类的目标检测技术。
所述方法包括以下步骤:
步骤(1)、构建初期网络,过程如下:
步骤(101)、深度学习网络由两个二分类判别模型和一个多分类判别模型组成,每个判别模型都是由多层的神经元个数为4096的全连接网络构成:
步骤(102)、每层全连接后面接Relu激励函数;
步骤(103)、最后输出做符号函数运算,把输出控制为{0,1};
步骤(2)、获取训练集和数据集:
步骤(201)、进行模糊过滤数据处理,使用3x3的拉普拉斯逆变换,将模糊度计算为卷积结果的方法,剔除数据集中模糊无法看清的图像,避免干扰图像结果;
步骤(202)、进行遮挡过滤数据集处理,对图像进行快速傅里叶变化,得到变换后图像的平均值,根据图像大小进行缩放,补偿撕裂状态,最后用平均值对图像进行二域值话,剔除数据集中被遮盖,看不清的图像;
步骤(203)、选取包含有待检测目标的图片,对各待检测目标在图片中的位置进行标注,记录各待检测的坐标信息构成目标检测定位数据集,通过使用区域生成网络绘制图像中包括待检测目标的anchor,并将待检测目标的坐标信息标注在最小矩形框的右下角;
步骤(204)、使用ImageNet上预训练好的模型对全部垃圾分类图像进行预分类,并提取图像分类结果导入至表格中;
步骤(205)、根据检索的要求构建数据对应表格,结合元数据集中的步数、位置等数据对该使用的图片施加限制,减小检索范围;
步骤(206)、将数据预设为预训练集(A),验证集(B)和测试机(C),准备进行第二次预训练;
步骤(3)、用深度卷积神经网络的卷积层实现目标检测;卷积神经网络的结构分为四个部分:特征提取、多层特征图连接、候选框的产生及目标分类,特征提取使用ResNet101作为搭建框架,多层特征图连接针对ResNet101进行三层残差学习模块C2,C3,C4交替连接,候选框只要由anchor与区域生成网络产生,目标分类和回归通过rpn网络实现;
步骤(4)、部分特征提取:特征提取网络包含了三个残差学习模块分别为C2,C3,C4。在C2中使用了五个相同的结构进行叠加,C2的结构中包含了三个卷积层;在C3中使用了六个相同的结构进行叠加,C3的结构中包括了三个卷积层;在C4中使用了五个相同的结构叠加,C4的结构中包括了三个卷积层,上述所提到的卷积层核大小均为1*1、3*3和1*1,输出的通道分别均为512,512和2048;
步骤(5)、多层特征图连接:特征提取网络的C2,C3,C4的输出作为多层特征图连接模块的输入,对特征提取网络的C2,C3,C4的输出特征图进行上下堆叠与连接;
步骤(6)、候选框的产生:采用anchor与区域生产网络结构生产候选框;
步骤(7)、YOLO网络预训练,过程如下:
步骤(701)、第一次训练二分类判别模型,设定学习率为0.0001,最小批大小为50,第一次判断模型,模型图片特征为正样本,其余为负样本,并将这些结果送入第二次判别器中,重新对GoogleNet卷积神经网络的各个参数进行微调;
步骤(702)、第二次训练二分类判别模型,设定学习率为0.00005,最小批大小为50,根据第一次判别模型的数据再次进行类似步骤(701)操作,得到第二次结果,输入初始状态的YOLO网络中;
步骤(703)、使用ImageNet1000类数据训练初始状态的YOLO网络的前20个卷积层+1个池化层+1个全连接层,训练图片分辨率resize到224*224;
步骤(704)、将训练结果保存起来,作为第二次类别每一类询问下的分类结果图片合并作为我们训练样本的训练数据;
步骤(8)、模型网络正式训练,过程如下:
步骤(801)、针对垃圾分类要求的四种类别,建立多类别垃圾分类模型;
步骤(802)、对YOLO网络进行修改:用预训练得到的前20个卷积层网络参数来初始化YOLO模型前20个卷积层的网络参数,然后在其池化结果后增加3个全连接层,三个全连接层的输出分别为4096,64,4;首先处理图片通过池化层对YOLO网络进行目标特征图提取,候选框尺寸进行自适应映射,得到适应于图片中不同待检测目标的最佳尺寸,然后将输出结果映射到64层的全连接层中,再将结果输出至4层的全连接层中进行预测目标类别反馈信息;
步骤9:将垃圾图片拍摄输入到模型中,即可进行垃圾识别,得到正确的垃圾类别。

Claims (1)

1.一种面向垃圾分类的多目标检测方法,其特征在于,所述方法包括以下步骤:
步骤(1)、构建初期网络,过程如下:
步骤(101)、深度学习网络由两个二分类判别模型和一个多分类判别模型组成,每个判别模型都是由多层的全连接网络构成:
步骤(102)、每层全连接后面接Relu激励函数;
步骤(102)、最后输出做符号函数运算,把输出控制为{0,1};
步骤(2)、获取训练集和数据集:
步骤(201)、进行模糊过滤数据处理,剔除数据集中模糊无法看清的图像,避免干扰图像结果;
步骤(202)、进行遮挡过滤数据集处理,剔除数据集中被遮盖,看不清的图像;
步骤(203)、选取包含有待检测目标的图片,对各待检测目标在图片中的位置进行标注,记录各待检测的坐标信息构成目标检测定位数据集,通过使用区域生成网络绘制图像中包括待检测目标的anchor,并将待检测目标的坐标信息标注在最小矩形框的右下角;
步骤(204)、使用ImageNet上预训练好的模型对全部垃圾分类图像进行预分类,并提取图像分类结果导入至表格中;
步骤(205)、根据检索的要求构建数据对应表格,结合元数据集中的步数、位置等数据对该使用的图片施加限制,减小检索范围;
步骤(206)、将数据预设为预训练集(A),验证集(B)和测试机(C),准备进行第二次预训练;
步骤(3)、用深度卷积神经网络的卷积层实现目标检测;卷积神经网络的结构分为四个部分:特征提取、多层特征图连接、候选框的产生及目标分类,特征提取使了ResNet101作为搭建框架,多层特征图连接针对ResNet101进行三层残差学习模块C2,C3,C4交替连接,候选框只要由anchor与区域生成网络产生,目标分类和回归通过rpn网络实现;
步骤(4)、部分特征提取:特征提取网络包含了三个残差学习模块分别为C2,C3,C4,在C2中使用了五个相同的结构进行叠加,C2的结构中包含了三个卷积层;在C3中使用了六个相同的结构进行叠加,C3的结构中包括了三个卷积层;在C4中使用了五个相同的结构叠加,C4的结构中包括了三个卷积层;
步骤(5)、多层特征图连接:特征提取网络的C2,C3,C4的输出作为多层特征图连接模块的输入,对特征提取网络的C2,C3,C4的输出特征图进行上下堆叠与连接;
步骤(6)、候选框的产生:采用anchor与区域生产网络结构生产候选框
步骤(7)、YOLO网络预训练,过程如下:
步骤(701)、第一次训练二分类判别模型;
步骤(702)、第二次训练二分类判别模型;
步骤(703)、使用ImageNet1000类数据训练初始状态的YOLO网络的前20个卷积层+1个池化层+1个全连接层,训练图片分辨率resize到224*224;
步骤(704)、将训练结果保存起来,作为第二次类别每一类询问下的分类结果图片合并作为我们训练样本的训练数据;
步骤(8)、模型网络正式训练,过程如下:
步骤(801)、针对垃圾分类要求的四种类别,建立多类别垃圾分类模型;
步骤(802)、对YOLO网络进行修改:用预训练得到的前20个卷积层网络参数来初始化YOLO模型前20个卷积层的网络参数,然后在其池化结果后增加3个全连接层,三个全连接层的输出分别为4096,64,4;首先处理图片通过池化层对YOLO网络进行目标特征图提取,候选框尺寸进行自适应映射,得到适应于图片中不同待检测目标的最佳尺寸,然后将输出结果映射到64层的全连接层中,再将结果输出至4层的全连接层中进行预测目标类别反馈信息;
步骤9:将垃圾图片拍摄输入到模型中,即可进行垃圾识别,得到正确的垃圾类别。
CN202010620024.2A 2020-07-01 2020-07-01 一种面向垃圾分类的多目标检测方法 Pending CN111814860A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010620024.2A CN111814860A (zh) 2020-07-01 2020-07-01 一种面向垃圾分类的多目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010620024.2A CN111814860A (zh) 2020-07-01 2020-07-01 一种面向垃圾分类的多目标检测方法

Publications (1)

Publication Number Publication Date
CN111814860A true CN111814860A (zh) 2020-10-23

Family

ID=72855695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010620024.2A Pending CN111814860A (zh) 2020-07-01 2020-07-01 一种面向垃圾分类的多目标检测方法

Country Status (1)

Country Link
CN (1) CN111814860A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257799A (zh) * 2020-10-30 2021-01-22 电子科技大学中山学院 一种生活垃圾目标检测的方法、***及装置
CN112287941A (zh) * 2020-11-26 2021-01-29 国际关系学院 一种基于自动字符区域感知的车牌识别方法
CN112561191A (zh) * 2020-12-22 2021-03-26 北京百度网讯科技有限公司 预测模型的训练、预测方法、装置、设备、程序和介质
CN112949509A (zh) * 2021-03-08 2021-06-11 三一智造(深圳)有限公司 一种基于人工智能的垃圾分类方法
CN113158956A (zh) * 2021-04-30 2021-07-23 杭州电子科技大学 一种基于改进型yolov5网络的垃圾检测与识别方法
CN113177564A (zh) * 2021-05-16 2021-07-27 河南牧原智能科技有限公司 一种计算机视觉猪只关键点识别方法
CN113343838A (zh) * 2021-06-03 2021-09-03 安徽大学 一种基于cnn神经网络的智能垃圾识别方法及装置
CN113688825A (zh) * 2021-05-17 2021-11-23 海南师范大学 一种ai智能垃圾识别分类***和方法
CN113731832A (zh) * 2021-11-04 2021-12-03 南京信息工程大学 一种用于垃圾转运站的垃圾分拣处理方法和***
CN114022923A (zh) * 2021-09-17 2022-02-08 云南开屏信息技术有限责任公司 智能采编***
CN114937199A (zh) * 2022-07-22 2022-08-23 山东省凯麟环保设备股份有限公司 一种基于判别性特征增强的垃圾分类方法与***
CN115205521A (zh) * 2022-08-09 2022-10-18 湖南大学 基于神经网络的厨余垃圾检测方法
CN116342895A (zh) * 2023-05-31 2023-06-27 浙江联运知慧科技有限公司 基于ai处理的提升再生资源分拣效率的方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
CN109165582A (zh) * 2018-08-09 2019-01-08 河海大学 一种城市街道垃圾检测和清洁度评估方法
CN110110783A (zh) * 2019-04-30 2019-08-09 天津大学 一种基于多层特征图连接的深度学习目标检测方法
CN110723432A (zh) * 2019-09-20 2020-01-24 精锐视觉智能科技(深圳)有限公司 垃圾分类的方法及增强现实设备
CN110750663A (zh) * 2019-10-08 2020-02-04 浙江工业大学 一种面向生活记录的跨模态图像检索方法
CN110942000A (zh) * 2019-11-13 2020-03-31 南京理工大学 一种基于深度学习的无人驾驶车辆目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
CN109165582A (zh) * 2018-08-09 2019-01-08 河海大学 一种城市街道垃圾检测和清洁度评估方法
CN110110783A (zh) * 2019-04-30 2019-08-09 天津大学 一种基于多层特征图连接的深度学习目标检测方法
CN110723432A (zh) * 2019-09-20 2020-01-24 精锐视觉智能科技(深圳)有限公司 垃圾分类的方法及增强现实设备
CN110750663A (zh) * 2019-10-08 2020-02-04 浙江工业大学 一种面向生活记录的跨模态图像检索方法
CN110942000A (zh) * 2019-11-13 2020-03-31 南京理工大学 一种基于深度学习的无人驾驶车辆目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOSEPH REDMON 等: "You Only Look Once: Unified, Real-Time Object Detection", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 30 June 2016 (2016-06-30), pages 779 - 788, XP033021255, DOI: 10.1109/CVPR.2016.91 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257799A (zh) * 2020-10-30 2021-01-22 电子科技大学中山学院 一种生活垃圾目标检测的方法、***及装置
CN112287941A (zh) * 2020-11-26 2021-01-29 国际关系学院 一种基于自动字符区域感知的车牌识别方法
CN112561191B (zh) * 2020-12-22 2024-02-27 北京百度网讯科技有限公司 预测模型的训练、预测方法、装置、设备、程序和介质
CN112561191A (zh) * 2020-12-22 2021-03-26 北京百度网讯科技有限公司 预测模型的训练、预测方法、装置、设备、程序和介质
CN112949509A (zh) * 2021-03-08 2021-06-11 三一智造(深圳)有限公司 一种基于人工智能的垃圾分类方法
CN113158956A (zh) * 2021-04-30 2021-07-23 杭州电子科技大学 一种基于改进型yolov5网络的垃圾检测与识别方法
CN113177564A (zh) * 2021-05-16 2021-07-27 河南牧原智能科技有限公司 一种计算机视觉猪只关键点识别方法
CN113688825A (zh) * 2021-05-17 2021-11-23 海南师范大学 一种ai智能垃圾识别分类***和方法
CN113343838A (zh) * 2021-06-03 2021-09-03 安徽大学 一种基于cnn神经网络的智能垃圾识别方法及装置
CN114022923A (zh) * 2021-09-17 2022-02-08 云南开屏信息技术有限责任公司 智能采编***
CN113731832A (zh) * 2021-11-04 2021-12-03 南京信息工程大学 一种用于垃圾转运站的垃圾分拣处理方法和***
CN113731832B (zh) * 2021-11-04 2022-02-15 南京信息工程大学 一种用于垃圾转运站的垃圾分拣处理方法和***
CN114937199A (zh) * 2022-07-22 2022-08-23 山东省凯麟环保设备股份有限公司 一种基于判别性特征增强的垃圾分类方法与***
CN114937199B (zh) * 2022-07-22 2022-10-25 山东省凯麟环保设备股份有限公司 一种基于判别性特征增强的垃圾分类方法与***
CN115205521A (zh) * 2022-08-09 2022-10-18 湖南大学 基于神经网络的厨余垃圾检测方法
CN115205521B (zh) * 2022-08-09 2024-03-26 湖南大学 基于神经网络的厨余垃圾检测方法
CN116342895A (zh) * 2023-05-31 2023-06-27 浙江联运知慧科技有限公司 基于ai处理的提升再生资源分拣效率的方法及***
CN116342895B (zh) * 2023-05-31 2023-08-11 浙江联运知慧科技有限公司 基于ai处理的提升再生资源分拣效率的方法及***

Similar Documents

Publication Publication Date Title
CN111814860A (zh) 一种面向垃圾分类的多目标检测方法
Deng et al. Learning to predict crisp boundaries
CN111445459B (zh) 一种基于深度孪生网络的图像缺陷检测方法及***
WO2022121039A1 (zh) 银行卡倾斜矫正检测方法、装置、可读存储介质和终端
CN110457515B (zh) 基于全局特征捕捉聚合的多视角神经网络的三维模型检索方法
CN110782420A (zh) 一种基于深度学习的小目标特征表示增强方法
CN111126412B (zh) 基于特征金字塔网络的图像关键点检测方法
CN111612051B (zh) 一种基于图卷积神经网络的弱监督目标检测方法
CN110163211B (zh) 一种图像识别方法、装置和存储介质
CN111898432A (zh) 一种基于改进YOLOv3算法的行人检测***及方法
Saqib et al. Person head detection in multiple scales using deep convolutional neural networks
Ma et al. An improved ResNet-50 for garbage image classification
CN110689578A (zh) 一种基于单目视觉的无人机障碍物识别方法
CN115588024B (zh) 一种基于人工智能的复杂工业影像边缘提取方法及装置
US20230154157A1 (en) Saliency-based input resampling for efficient object detection
Khellal et al. Pedestrian classification and detection in far infrared images
CN112084897A (zh) 一种gs-ssd的交通大场景车辆目标快速检测方法
Zheng et al. Feature enhancement for multi-scale object detection
CN116342536A (zh) 基于轻量化模型的铝带材表面缺陷检测方法、***及设备
CN113505808B (zh) 基于深度学习用于配电类设施开关检测识别算法
CN111199255A (zh) 基于darknet53网络的小目标检测网络模型及检测方法
CN111027472A (zh) 一种基于视频光流和图像空间特征权重融合的视频识别方法
CN114187506A (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
Bandarupally et al. Detection of Military Targets from Satellite Images using Deep Convolutional Neural Networks
CN115861595A (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination