CN116777843A - 一种基于动态非极大值抑制的厨余垃圾检测方法及*** - Google Patents

一种基于动态非极大值抑制的厨余垃圾检测方法及*** Download PDF

Info

Publication number
CN116777843A
CN116777843A CN202310606583.1A CN202310606583A CN116777843A CN 116777843 A CN116777843 A CN 116777843A CN 202310606583 A CN202310606583 A CN 202310606583A CN 116777843 A CN116777843 A CN 116777843A
Authority
CN
China
Prior art keywords
kitchen waste
image
nms
training set
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310606583.1A
Other languages
English (en)
Other versions
CN116777843B (zh
Inventor
方乐缘
丁帅予
冯浩
汤琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202310606583.1A priority Critical patent/CN116777843B/zh
Publication of CN116777843A publication Critical patent/CN116777843A/zh
Application granted granted Critical
Publication of CN116777843B publication Critical patent/CN116777843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于动态非极大值抑制的厨余垃圾检测方法及***,将厨余垃圾训练集按单张图像输入至预先训练好的目标检测网络并结合不同的NMS交并比阈值进行测试,得到单张图像的DNMS值;获取厨余垃圾训练集中单张图像的目标数目Ni、同类别目标平均中心点间距离Di,构建单张图像的DNMS值与Ni、Di之间的映射关系式;搭建NMS回归网络,并结合目标检测网络构建厨余垃圾检测网络,将Ni、Di作为标签,使用标签和厨余垃圾训练集对厨余垃圾检测网络进行训练,得到厨余垃圾检测模型;将厨余垃圾待检测图像输入厨余垃圾检测模型,并结合映射关系式处理得到待检测图像的预测框。该方法能够缓解厨余垃圾检测中的漏检或重复检测问题。

Description

一种基于动态非极大值抑制的厨余垃圾检测方法及***
技术领域
本发明属于数字图像处理技术领域,具体涉及一种基于动态非极大值抑制的厨余垃圾检测方法及***。
背景技术
近年来,人均垃圾年产量已高达440kg,其中厨余垃圾占到40%,占比最重、也最受关注。实行厨余垃圾无害化也面临着两大挑战,首先,由于厨余垃圾成分复杂,包含塑料、金属、玻璃等杂质的特点,若不对其进行分拣除杂,将会极大地影响后续厨余垃圾消纳处置;其次,现有的厨余垃圾分拣方式还是以人工分拣为主,存在着环境脏乱差、分拣费时费力等窘迫境地。因此,研究高效的厨余垃圾智能检测算法是实行厨余垃圾自动化分拣迫切所需的。
非极大值抑制作为目标检测算法的必要后处理步骤,通过按置信度分数对所有候选框进行排序,并迭代删除超过所设候选框与真实边界框的交并比阈值的候选框,从而剔除冗余候选框。传统的NMS(Non Maximum Supression,非极大值抑制)方法对整个检测过程仅凭个人经验设置固定的筛选阈值,忽视了不同时刻检测场景的独特性,由于不同时刻传送带上检测场景复杂度不同,当检测场景复杂时,若所设阈值过低,将导致漏检;当检测场景单一时,若所设阈值过高,将引起重复检测,这些错误都将造成分拣错误,进而影响后续厨余垃圾消纳处置。
发明内容
为了缓解厨余垃圾检测中的漏检或重复检测问题,本发明提出了一种基于动态非极大值抑制的厨余垃圾检测方法及***。
一种基于动态非极大值抑制的厨余垃圾检测方法,包括以下步骤:
S1、预设厨余垃圾训练集、目标检测网络和NMS交并比阈值集,采用预设的厨余垃圾训练集对目标检测网络进行训练,得到训练后的目标检测网络,从预设的厨余垃圾训练集中每次选取一张图像输入至训练后的目标检测网络并结合NMS交并比阈值集进行测试,得到厨余垃圾训练集中每张图像的DNMS值;
S2、获取厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di,构建每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系,得到映射关系式;
S3、构建NMS回归网络,将NMS回归网络和训练后的目标检测网络组成厨余垃圾检测网络,将厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过标签和厨余垃圾训练集对厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型;
S4、获取真实场景下的厨余垃圾待检测图像,将厨余垃圾待检测图像输入厨余垃圾检测模型,并结合映射关系式进行处理,输出厨余垃圾待检测图像预测的NMS交并比阈值和候选框,根据预测的NMS交并比阈值对候选框进行过滤,得到厨余垃圾待检测图像的预测框。
优选地,S1中从预设的厨余垃圾训练集中每次选取一张图像输入至训练后的目标检测网络并结合NMS交并比阈值集进行测试,得到厨余垃圾训练集中每张图像的DNMS值,具体包括:
S11、从预设的厨余垃圾训练集中任意选取一张图像输入至训练后的目标检测网络,测试选取的图像在NMS交并比阈值集中的每一个NMS交并比阈值处对应的类别平均精度,由此得到选取的图像在NMS交并比阈值集上对应的多个类别平均精度;
S12、从多个类别平均精度中选取最高类别平均精度对应的NMS交并比阈值,并从最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取图像的DNMS值;
S13、从预设的厨余垃圾训练集中再次选取另外一张图像输入至训练后的目标检测网络,直到厨余垃圾训练集中的每张图像都被选取,经过步骤S11至S12处理,得到厨余垃圾训练集中的每张图像的DNMS值。
优选地,S11中得到选取的图像在NMS交并比阈值集上对应的多个类别平均精度,类别平均精度的计算公式具体为:
其中,β=0.05:0.05:0.95
式中,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,Ci为厨余垃圾训练集中第i张图像的目标类别数目,c为厨余垃圾训练集中第i张图像中的第c个目标类别,c=1,2,...,Ci,/>为厨余垃圾训练集中第i张图像中第c个目标类别的预测框数目,k为厨余垃圾训练集中第i张图像在第c个目标类别上的第k个预测框, 为厨余垃圾训练集中第i张图像在第k个预测框处的召回率,pi为厨余垃圾训练集中第i张图像的精确率,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
优选地,S12中从最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取的图像的DNMS值,DNMS值的具体公式为:
式中,DNMSi为厨余垃圾训练集中第i张图像在最高类别平均精度下的最小的NMS交并比阈值,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
优选地,S2具体包括:
S21、读取厨余垃圾训练集中每张图像对应的标签信息,标签信息包括每张图像中目标的类别和坐标位置;
S22、统计每张图像对应的目标数目Ni,根据目标的类别和坐标位置获取同类别目标的中心点坐标,并由欧氏距离计算出同类别目标平均中心点间距离Di
S23、采用最小二乘法得到每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系式。
优选地,S3中的NMS回归网络包括依次连接的特征提取模块、特征融合模块和NMS回归模块,NMS回归模块包括依次连接的第一block模块,第二block模块和全连接层,第一block模块包括依次连接的第一卷积层、第一归一化层、第一激活函数层,第二block模块包括依次连接的第二卷积层、第二归一化层、第二激活函数层和平均池化层。
优选地,S1中的目标检测网络包括特征提取模块和特征融合模块,S3中的NMS回归网络和目标检测网络共用特征提取模块和特征融合模块,S3中将厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过标签和厨余垃圾训练集对厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型,具体包括:
S31、对厨余垃圾检测网络中的目标检测网络进行预训练权重初始化,然后将其冻结;
S32、对厨余垃圾检测网络中的NMS回归网络随机初始化并单独训练,通过特征提取模块对厨余垃圾训练集中的每张图像进行逐层次特征提取,生成逐层次的特征图;
S33、通过特征融合模块对逐层次的特征图进行特征融合,输出逐层次的融合特征图;
S34、将逐层次的融合特征图中的顶层融合特征图输入至NMS回归模块,NMS回归模块对顶层融合特征图进行特征大小和通道数的调整,输出每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值;
S35、根据每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值和标签,结合NMS回归网络的损失函数计算NMS回归网络的损失值,反向传播梯度来更新NMS回归网络参数;
S36、待NMS回归网络的损失收敛时,将目标检测网络解冻,对目标检测网络和NMS网络进行联合训练,得到厨余垃圾检测模型。
优选地,S35中NMS回归网络的损失函数具体为:
式中,Li为厨余垃圾训练集中第i张图像的损失,为smooth L1损失,xi为损失函数/>的自变量,Ni为厨余垃圾训练集中第i张图像的目标数目,Ni'为厨余垃圾训练集中第i张图像的目标数目的训练值,Di为厨余垃圾训练集中第i张图像的同类别目标平均中心点间距离,Di'为厨余垃圾训练集中第i张图像的同类别目标平均中心点间距离的训练值。
优选地,S4具体包括:
S41、获取真实场景下的厨余垃圾待检测图像,将待检测图像输入厨余垃圾检测模型,厨余垃圾检测模型中的NMS回归网络对待检测图像进行处理,输出待检测图像的目标数目、同类别目标平均中心点间距离的预测值;
S42、将待检测图像的目标数目、同类别目标平均中心点间距离的预测值输入映射关系式,得到待检测图像的NMS交并比阈值;
S43、厨余垃圾检测模型中的目标检测网络对待检测图像进行处理,输出待检测图像的多个候选框;
S44、根据待检测图像的NMS交并比阈值按照预设的置信度分数对多个候选框进行排序,并迭代删除超过NMS交并比阈值的候选框,得到厨余垃圾待检测图像的预测框。
一种基于动态非极大值抑制的厨余垃圾检测***,包括图像采集模块、MCU信号处理模块、厨余垃圾检测模块以及显示模块,MCU信号处理模块分别与图像采集模块、厨余垃圾检测模块以及显示模块连接,其中:
图像采集模块用于实时采集厨余垃圾待检测图像,并将厨余垃圾待检测图像发送至MCU信号处理模块;
MCU信号处理模块用于将厨余垃圾待检测图像输入至厨余垃圾检测模块;
厨余垃圾检测模块采用基于动态非极大值抑制的厨余垃圾检测方法对厨余垃圾待检测图像进行处理,得到厨余垃圾待检测图像的预测框,并将预测框通过MCU信号处理模块发送至显示模块;
显示模块用于接收并显示厨余垃圾待检测图像的预测框。
上述一种基于动态非极大值抑制的厨余垃圾检测方法及***,首先预设厨余垃圾图像训练集、NMS交并比阈值集和目标检测网络,采用预设的厨余垃圾训练集对目标检测网络进行训练,得到训练后的目标检测网络,从厨余垃圾图像训练集中每次选取一张图像输入至训练后的目标检测网络中并在NMS交并比阈值集中的每个NMS交并比阈值处进行测试,得到每张图像在每个NMS交并比阈值处对应的类别平均精度,选取使每张图像类别平均精度达到最高时的最小NMS交并比阈值,作为每张图像的DNMS值;然后获取训练集中每张图像的目标数目与每张图像的同类别目标平均中心点间距离,构建厨余垃圾图像训练集中每张图像的DNMS值与每张图像的目标数目、同类别目标平均中心点间距离之间的映射关系式;接着搭建NMS回归网络,将训练后的目标检测网络和NMS回归网络组成厨余垃圾检测网络,将厨余垃圾训练集中每张图像的目标数目、同类别目标平均中心点间距离作为标签,与厨余垃圾图像共同输入至厨余垃圾检测网络进行训练,并使用回归损失函数监督NMS回归网络的训练过程,得到厨余垃圾检测模型;将厨余垃圾检测模型应用于真实场景下的厨余垃圾检测,可动态的预测每张厨余垃圾待检测图像的预测框,避免了仅凭个人经验对整个测试集设置统一、固定的NMS交并比阈值,可有效缓解漏检或重复检测,提升检测精度;另外,通过构建一个轻量化的NMS回归网络,可嵌入至主流的目标检测网络中,具有较强的普适性和灵活性。
附图说明
图1是本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法的基本流程图;
图2是本发明一实施例中NMS回归网络的网络结构示意图;
图3是本发明一实施例中厨余垃圾检测网络的网络结构示意图;
图4是本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法和现有方法在厨余垃圾测试集上的第一组测试结果对比图;
图5是本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法和现有方法在厨余垃圾测试集上的第二组测试结果对比图;
图6是本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测***的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
一种基于动态非极大值抑制的厨余垃圾检测方法,包括以下步骤:
S1、预设厨余垃圾训练集、目标检测网络和NMS交并比阈值集,采用预设的厨余垃圾训练集对目标检测网络进行训练,得到训练后的目标检测网络,从预设的厨余垃圾训练集中每次选取一张图像输入至训练后的目标检测网络并结合NMS交并比阈值集进行测试,得到厨余垃圾训练集中每张图像的DNMS值;
S2、获取厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di,构建每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系,得到映射关系式;
S3、构建NMS回归网络,将NMS回归网络和训练后的目标检测网络组成厨余垃圾检测网络,将厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过标签和厨余垃圾训练集对厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型;
S4、获取真实场景下的厨余垃圾待检测图像,将厨余垃圾待检测图像输入厨余垃圾检测模型,并结合映射关系式进行处理,输出厨余垃圾待检测图像预测的NMS交并比阈值和候选框,根据预测的NMS交并比阈值对候选框进行过滤,得到厨余垃圾待检测图像的预测框。
具体地,参见图1,图1为本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法的基本流程图。
(1)预设厨余垃圾训练集和目标检测网络,目标检测网络为现有技术,包括依次连接的特征提取模块、特征融合模块、区域候选框生成模块和目标检测头模块,其中特征提取模块用于提取厨余垃圾图像的多尺度特征,特征融合模块将提取的多尺度特征进行融合,得到融合后的多尺度特征,区域候选框生成模块接收融合后的多尺度特征,生成候选框样本,目标检测头模块输出候选框。采用预设的厨余垃圾训练集对目标检测网络进行训练,得到训练后的目标检测网络,预设多个NMS交并比阈值,多个NMS交并比阈值共同组成NMS交并比阈值集,从厨余垃圾图像训练集中每次取一张图像输入至训练后的目标检测网络,测试选取的每一张图像在不同的NMS交并比阈值处对应的类别平均精度,选取类别平均精度最高时的最小NMS交并比阈值作为每张图像的DNMS值;
(2)获取厨余垃圾训练集中每张图像的目标数目Ni、每张图像的同类别目标平均中心点间距离Di,构建厨余垃圾训练集中的每张图像的DNMS值与目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系式;
(3)构建NMS回归网络,NMS回归网络包括特征提取模块、特征融合模块和NMS回归模块,其中NMS回归网络和目标检测网络共用特征提取模块和特征融合模块,通过NMS回归网络和训练后的目标检测网络组建厨余垃圾检测网络,将厨余垃圾训练集中每张图像的目标数目Ni和同类别目标平均中心点间距离Di作为标签,将厨余垃圾图像训练集中每张图像和对应的标签共同输入至厨余垃圾检测网络进行训练,得到厨余垃圾检测模型;
(4)将厨余垃圾检测模型应用于真实场景下的厨余垃圾待检测图像,并结合映射关系式进行处理,输出厨余垃圾待检测图像的预测框。
在一个实施例中,S1中从预设的厨余垃圾训练集中每次选取一张图像输入至训练后的目标检测网络并结合NMS交并比阈值集进行测试,得到厨余垃圾训练集中每张图像的DNMS值,具体包括:
S11、从预设的厨余垃圾训练集中任意选取一张图像输入至训练后的目标检测网络,测试选取的图像在NMS交并比阈值集中的每一个NMS交并比阈值处对应的类别平均精度,由此得到选取的图像在NMS交并比阈值集上对应的多个类别平均精度;
S12、从多个类别平均精度中选取最高类别平均精度对应的NMS交并比阈值,并从最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取图像的DNMS值;
S13、从预设的厨余垃圾训练集中再次选取另外一张图像输入至训练后的目标检测网络,直到厨余垃圾训练集中的每张图像都被选取,经过步骤S11至S12处理,得到厨余垃圾训练集中的每张图像的DNMS值。
具体地,从厨余垃圾训练集中任意选取一张图像均输入至训练后的目标检测网络,并在NMS交并比阈值集中的每个交并比阈值处进行测试,得到选取的图像在每个NMS交并比阈值下的类别平均精度,然后找出选取的图像在最高类别平均精度时对应的NMS交并比阈值,由于类别平均精度最高时对应的NMS交并比阈值可能不止一个,比如在NMS交并比阈值等于0.2或0.25时,对应的类别平均精度可能都是0.9,此时,选取类别平均精度最高时的最小的NMS交并比阈值保存,因此只需要选择0.2这个NMS交并比阈值保存下来,作为选取的图像的DNMS值,因为在同等类别平均精度下,NMS交并比阈值越小,通常产生的预测框数目也越少,更有利于缓解重复检测,从厨余垃圾训练集中再次选取另外一张图像,直到厨余垃圾训练集中的所有图像都被选取,经过同前所述的方式进行处理,得到厨余垃圾训练集中每张图像的DNMS值。
在一个实施例中,S11中得到选取的图像在NMS交并比阈值集上对应的多个类别平均精度,类别平均精度的计算公式具体为:
其中,β=0.05:0.05:0.95
式中,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,Ci为厨余垃圾训练集中第i张图像的目标类别数目,c为厨余垃圾训练集中第i张图像中的第c个目标类别,c=1,2,...,Ci,/>为厨余垃圾训练集中第i张图像中第c个目标类别的预测框数目,k为厨余垃圾训练集中第i张图像在第c个目标类别上的第k个预测框, 为厨余垃圾训练集中第i张图像在第k个预测框处的召回率,pi为厨余垃圾训练集中第i张图像的精确率,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
具体地,厨余垃圾训练集中的第i张图像在NMS交并比阈值β处的类别平均精度为第i张图像在目标类别数目为Ci、第c个目标类别上对应的预测框数目为时精度的平均值。
在一个实施例中,S12中从最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取的图像的DNMS值,DNMS值的具体公式为:
式中,DNMSi为厨余垃圾训练集中第i张图像在最高类别平均精度下的最小的NMS交并比阈值,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
具体地,设置NMS交并比阈值范围为0.05~0.95,NMS交并比阈值的取值间隔为0.05,由此得到多个NMS交并比阈值:0.05,0.1,0.15,...,0.90,0.95,多个NMS交并比阈值构成NMS交并比阈值集。将厨余垃圾训练集中的单张图像输入至训练后的目标检测网络,测试单张图像在每个NMS交并比阈值下对应的类别平均精度,并从中选取最高的类别平均精度,由于最高的类别平均精度可能会对应多个NMS交并比阈值,从多个NMS交并比阈值中选取最小的NMS交并比阈值,此时得到单张图像在类别平均精度最高时的最小的NMS交并比阈值,将类别平均精度最高时的最小的NMS交并比阈值作为单张图像的DNMS值。
在一个实施例中,S2具体包括:
S21、读取厨余垃圾训练集中每张图像对应的标签信息,标签信息包括每张图像中目标的类别和坐标位置;
S22、统计每张图像对应的目标数目Ni,根据目标的类别和坐标位置获取同类别目标的中心点坐标,并由欧氏距离计算出同类别目标平均中心点间距离Di
S23、采用最小二乘法得到每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系式。
具体地,读取厨余垃圾训练集中每张图像的标签信息,标签信息包括每张图像中目标的类别和坐标位置,统计得出每张图像的目标数目Ni,根据目标的类别和坐标位置获取同类别目标的中心点坐标,根据欧氏距离计算出同类别目标平均中心点间距离Di,由最小二乘法可求出每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系表达式,具体为:
式中,Ni为厨余垃圾训练集中第i张图像的目标数目,Di为厨余垃圾训练集中第i张图像的同类别目标的平均中心点间距离。
在一个实施例中,S3中的NMS回归网络包括依次连接的特征提取模块、特征融合模块和NMS回归模块,NMS回归模块包括依次连接的第一block模块,第二block模块和全连接层,第一block模块包括依次连接的第一卷积层、第一归一化层、第一激活函数层,第二block模块包括依次连接的第二卷积层、第二归一化层、第二激活函数层和平均池化层。
具体地,参见图2和图3,图2为本发明一实施例中NMS回归网络的网络结构示意图,图3为本发明一实施例中厨余垃圾检测网络的网络结构示意图。
图2中的NMS回归网络包括特征提取模块、特征融合模块和NMS回归模块,由图3可以看出,目标检测网络和NMS回归网络共用特征提取模块和特征融合模块。NMS回归模块包括两组block模块以及全连接层,第一block模块包括第一卷积层(对应图2中的1×1的卷积层)、第一归一化层、第一激活函数层(对应图2中的归一化、激活层),第二block模块包括第二卷积层(对应图2中的3×3的卷积层)、第二归一化层、第二激活函数层(对应图2中的归一化、激活层)和一个2×2的平均池化层。其中,第一block模块用于降维以减少参数计算量,第二block模块用于进行特征大小和通道数的调整,全连接层用于输出目标数目Ni和同类别目标的平均中心点间距离Di的预测值,再通过DNMSi(Ni,Di)的映射关系式得到预测的NMS交并比阈值。
在一个实施例中,S1中的目标检测网络包括特征提取模块和特征融合模块,S3中的NMS回归网络和目标检测网络共用特征提取模块和特征融合模块,S3中将厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过标签和厨余垃圾训练集对厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型,具体包括:
S31、对厨余垃圾检测网络中的目标检测网络进行预训练权重初始化,然后将其冻结;
S32、对厨余垃圾检测网络中的NMS回归网络随机初始化并单独训练,通过特征提取模块对厨余垃圾训练集中的每张图像进行逐层次特征提取,生成逐层次的特征图;
S33、通过特征融合模块对逐层次的特征图进行特征融合,输出逐层次的融合特征图;
S34、将逐层次的融合特征图中的顶层融合特征图输入至NMS回归模块,NMS回归模块对顶层融合特征图进行特征大小和通道数的调整,输出每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值;
S35、根据每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值和标签,结合NMS回归网络的损失函数计算NMS回归网络的损失值,反向传播梯度来更新NMS回归网络参数;
S36、待NMS回归网络的损失收敛时,将目标检测网络解冻,对目标检测网络和NMS网络进行联合训练,得到厨余垃圾检测模型。
具体地,参见图3,图3为本发明一实施例中厨余垃圾检测网络的网络结构示意图。
图3所示的厨余垃圾检测网络包括NMS回归网络和目标检测网络,其中NMS回归网络包括特征提取模块,特征融合模块和NMS回归模块,目标检测网络包括特征提取模块,特征融合模块、区域候选框生成模块和目标检测头模块,其中NMS回归网络和目标检测网络共用特征提取模块和特征融合模块。
采取两阶段训练策略对厨余垃圾检测网络进行训练和微调:
第一阶段对NMS回归网络进行训练:
首先对目标检测网络进行训练权重初始化,也就是利用目标检测网络训练好后得到的权重文件对目标检测网络进行初始化操作,完成后将其冻结;
然后对NMS回归网络进行训练,通过特征提取模块对厨余垃圾训练集中的每张图像进行逐层次特征提取,生成逐层次的特征图Fi,特征融合模块对逐层次的特征图进行特征融合,输出逐层次的融合特征图Fi'(例如,对第i张图像进行第一层次的特征提取,生成第一层次特征图F1、第二层次特征图F2,...,第五层次特征图F5,特征融合模块分别对第一层次特征图F1、第二层次特征图F2,...,第五层次特征图F5进行特征融合,相应生成第一层次融合特征图F1'、第二层次融合特征图F2',...,第五层次融合特征图F5'),将得到的逐层次的融合特征图中的顶层融合特征图(例如前面的第五层次特征图F5')输入至NMS回归模块,NMS回归模块对逐层次融合特征图中的顶层融合特征图进行特征大小和通道数的调整,输出每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值,根据目标数目Ni、同类别目标平均中心点间距离Di的训练值和标签,结合NMS回归网络的损失函数计算NMS回归网络的损失值,反向传播梯度来更新NMS回归网络参数,当NMS回归网络的损失收敛时,对目标检测网络进行解冻;
第二阶段为联合训练,对第一阶段得到的训练后的NMS回归网络和目标检测网络进行联合训练,并对超出理论范围的输出异常值进行处理,得到厨余垃圾检测模型。
厨余垃圾检测网络训练配置如下:选择AdamW作为优化器,学习率为0.0001,权重衰减为0.05,训练总批次为16,最大迭代周期为12。
在一个实施例中,S35中NMS回归网络的损失函数具体为:
式中,Li为厨余垃圾训练集中第i张图像的损失,为smooth L1损失,xi为损失函数/>的自变量,Ni为厨余垃圾训练集中每张图像的目标数目,Ni'为厨余垃圾训练集中每张图像的目标数目的训练值,Di为厨余垃圾训练集中每张图像的同类别目标平均中心点间距离,Di'为厨余垃圾训练集中每张图像的同类别目标平均中心点间距离的训练值。
具体地,在对NMS回归网络进行单独训练时,采用回归损失函数计算NMS回归网络在训练过程中的损失值,反向传播并更新NMS回归网络的网络参数,当计算得到的损失值收敛时,结束训练过程,得到训练后的NMS回归网络。
在一个实施例中,S4具体包括:
S41、获取真实场景下的厨余垃圾待检测图像,将待检测图像输入厨余垃圾检测模型,厨余垃圾检测模型中的NMS回归网络对待检测图像进行处理,输出待检测图像的目标数目、同类别目标平均中心点间距离的预测值;
S42、将待检测图像的目标数目、同类别目标平均中心点间距离的预测值输入映射关系式,得到待检测图像的NMS交并比阈值;
S43、厨余垃圾检测模型中的目标检测网络对待检测图像进行处理,输出待检测图像的多个候选框;
S44、根据待预测图像的NMS交并比阈值按照预设的置信度分数对多个候选框进行排序,并迭代删除超过NMS交并比阈值的候选框,得到厨余垃圾待检测图像的预测框。
具体地,得到厨余垃圾检测模型后,预设置信度分数,将厨余垃圾待检测图像输入至厨余垃圾检测模型,经过NMS回归网络处理,并结合映射关系式,得到待检测图像的NMS交并比阈值;经过目标检测网络处理,得到待检测图像的多个候选框,采用NMS交并比阈值按照预设的置信度分数对多个候选框进行排序,并迭代删除超过NMS交并比阈值的候选框,得到厨余垃圾待检测图像的预测框。
在一个实施例中,将本发明提出的一种基于动态非极大值抑制的厨余垃圾检测方法与四种现有方法进行对比,现有方法包括WeightedNMS、D-IOU NMS、SoftNMS、AdaptiveNMS。
表1
参见表1,表1为采用本发明方法与现有方法在测试集上得到的类别平均精度结果。
厨余垃圾检测网络测试配置如下:区域候选框生成网络NMS交并比阈值为0.7,目标检测头网络NMS置信度分数阈值为0.05。
从表1可以看到,本发明中的方法得到的类别平均精度更高,表现出比其他方法更优的量化结果。
参见图4和图5,图4为本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法和现有方法在厨余垃圾测试集上的第一组测试结果对比图;图5为本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测方法和现有方法在厨余垃圾测试集上的第二组测试结果对比图。
图4(a)为采用WeightedNMS方法的第一组测试结果,图4(b)为采用D-IOU NMS方法的第一组测试结果,图4(c)为采用SoftNMS方法的第一组测试结果,图4(d)为采用AdaptiveNMS方法的第一组测试结果,图4(e)为采用本方法的第一组测试结果,图4(f)为真实标签结果。
图5(a)为采用WeightedNMS方法的第二组测试结果,图5(b)为采用D-IOUNMS方法的第二组测试结果,图5(c)为采用SoftNMS方法的第二组测试结果,图5(d)为采用AdaptiveNMS方法的第二组测试结果,图5(e)为采用本方法的第二组测试结果,图5(f)为真实标签结果。
从量化和可视化结果可以看出,本发明提出的一种基于动态非极大值抑制的厨余垃圾检测方法对于重复检测和漏检缓解能力更强,测试结果更接近真实标签结果。
在一个实施例中,一种基于动态非极大值抑制的厨余垃圾检测***,包括图像采集模块、MCU信号处理模块、厨余垃圾检测模块以及显示模块,MCU信号处理模块分别与图像采集模块、厨余垃圾检测模块以及显示模块连接,其中:
图像采集模块用于实时采集厨余垃圾待检测图像,并将厨余垃圾待检测图像发送至MCU信号处理模块;
MCU信号处理模块用于将厨余垃圾待检测图像输入至厨余垃圾检测模块;
厨余垃圾检测模块采用基于动态非极大值抑制的厨余垃圾检测对厨余垃圾待检测图像进行处理,得到厨余垃圾待检测图像的预测框,并将预测框通过MCU信号处理模块发送至显示模块;
显示模块用于接收并显示厨余垃圾待检测图像的预测框。
具体地,参见图6,图6为本发明一实施例中一种基于动态非极大值抑制的厨余垃圾检测***的结构示意图。
在图6中,基于动态非极大值抑制的厨余垃圾检测***包括图像采集模块、MCU信号处理模块、厨余垃圾检测模块以及显示模块,图像采集模块采集厨余垃圾待检测图像并将其通过MCU信号处理模块输入至厨余垃圾检测模块,厨余垃圾检测模块对采用基于动态非极大值抑制的厨余垃圾检测方法对其处理,输出待检测图像的预测框,将预测框通过MCU信号处理模块发送至显示模块显示。
上述一种基于动态非极大值抑制的厨余垃圾检测方法及***,首先预设厨余垃圾图像训练集、NMS交并比阈值集和目标检测网络,采用预设的厨余垃圾训练集对目标检测网络进行训练,得到训练后的目标检测网络,从厨余垃圾图像训练集中每次选取一张图像输入至训练后的目标检测网络中并在NMS交并比阈值集中的每个NMS交并比阈值处进行测试,得到每张图像在每个NMS交并比阈值处对应的类别平均精度,选取使每张图像类别平均精度达到最高时的最小NMS交并比阈值,作为每张图像的DNMS值;然后获取训练集中每张图像的目标数目与每张图像的同类别目标平均中心点间距离,构建厨余垃圾图像训练集中每张图像的DNMS值与每张图像的目标数目、同类别目标平均中心点间距离之间的映射关系式;接着搭建NMS回归网络,将训练后的目标检测网络和NMS回归网络组成厨余垃圾检测网络,将厨余垃圾训练集中每张图像的目标数目、同类别目标平均中心点间距离作为标签,与厨余垃圾图像共同输入至厨余垃圾检测网络进行训练,并使用回归损失函数监督NMS回归网络的训练过程,得到厨余垃圾检测模型;将厨余垃圾检测模型应用于真实场景下的厨余垃圾检测,可动态的预测每张厨余垃圾待检测图像的预测框,避免了仅凭个人经验对整个测试集设置统一、固定的NMS交并比阈值,可有效缓解漏检或重复检测,提升检测精度;另外,通过构建一个轻量化的NMS回归网络,可嵌入至主流的目标检测网络中,具有较强的普适性和灵活性。
以上对本发明所提供的一种基于动态非极大值抑制的厨余垃圾检测方法及***进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述方法包括:
S1、预设厨余垃圾训练集、目标检测网络和NMS交并比阈值集,采用预设的厨余垃圾训练集对所述目标检测网络进行训练,得到训练后的目标检测网络,从预设的厨余垃圾训练集中每次选取一张图像输入至所述训练后的目标检测网络并结合所述NMS交并比阈值集进行测试,得到所述厨余垃圾训练集中每张图像的DNMS值;
S2、获取所述厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di,构建每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系,得到映射关系式;
S3、构建NMS回归网络,将所述NMS回归网络和所述训练后的目标检测网络组成厨余垃圾检测网络,将所述厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过所述标签和所述厨余垃圾训练集对所述厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型;
S4、获取真实场景下的厨余垃圾待检测图像,将所述厨余垃圾待检测图像输入所述厨余垃圾检测模型,并结合所述映射关系式进行处理,输出所述厨余垃圾待检测图像预测的NMS交并比阈值和候选框,根据所述预测的NMS交并比阈值对所述候选框进行过滤,得到所述厨余垃圾待检测图像的预测框。
2.如权利要求1所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S1中从预设的厨余垃圾训练集中每次选取一张图像输入至所述训练后的目标检测网络并结合所述NMS交并比阈值集进行测试,得到所述厨余垃圾训练集中每张图像的DNMS值,具体包括:
S11、从预设的厨余垃圾训练集中任意选取一张图像输入至所述训练后的目标检测网络,测试选取的图像在所述NMS交并比阈值集中的每一个NMS交并比阈值处对应的类别平均精度,由此得到选取的图像在所述NMS交并比阈值集上对应的多个类别平均精度;
S12、从多个所述类别平均精度中选取最高类别平均精度对应的NMS交并比阈值,并从所述最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取图像的DNMS值;
S13、从预设的厨余垃圾训练集中再次选取另外一张图像输入至所述训练后的目标检测网络,直到所述厨余垃圾训练集中的每张图像都被选取,经过步骤S11至S12处理,得到所述厨余垃圾训练集中的每张图像的DNMS值。
3.如权利要求2所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S11中得到选取的图像在所述NMS交并比阈值集上对应的多个类别平均精度,所述类别平均精度的计算公式具体为:
其中,β=0.05:0.05:0.95
式中,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,Ci为厨余垃圾训练集中第i张图像的目标类别数目,c为厨余垃圾训练集中第i张图像中的第c个目标类别,c=1,2,...,Ci,/>为厨余垃圾训练集中第i张图像中第c个目标类别的预测框数目,k为厨余垃圾训练集中第i张图像在第c个目标类别上的第k个预测框,为厨余垃圾训练集中第i张图像在第k个预测框处的召回率,pi为厨余垃圾训练集中第i张图像的精确率,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
4.如权利要求3所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S12中从所述最高类别平均精度对应的NMS交并比阈值中选取最小的NMS交并比阈值,作为选取的图像的DNMS值,所述DNMS值的具体公式为:
式中,DNMSi为厨余垃圾训练集中第i张图像在最高类别平均精度下的最小的NMS交并比阈值,为厨余垃圾训练集中第i张图像在NMS交并比阈值β处的类别平均精度,β为NMS交并比阈值,β=0.05:0.05:0.95表示NMS交并比阈值范围为0.05~0.95,取值间隔为0.05。
5.如权利要求4所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S2具体包括:
S21、读取厨余垃圾训练集中每张图像对应的标签信息,所述标签信息包括每张图像中目标的类别和坐标位置;
S22、统计每张图像对应的目标数目Ni,根据所述目标的类别和坐标位置获取同类别目标的中心点坐标,并由欧氏距离计算出同类别目标平均中心点间距离Di
S23、采用最小二乘法得到每张图像的DNMS值与对应的目标数目Ni、同类别目标平均中心点间距离Di之间的映射关系式。
6.如权利要求5所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S3中的NMS回归网络包括依次连接的特征提取模块、特征融合模块和NMS回归模块,所述NMS回归模块包括依次连接的第一block模块,第二block模块和全连接层,所述第一block模块包括依次连接的第一卷积层、第一归一化层、第一激活函数层,所述第二block模块包括依次连接的第二卷积层、第二归一化层、第二激活函数层和平均池化层。
7.如权利要求6所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,S1中的所述目标检测网络包括特征提取模块和特征融合模块,所述S3中的NMS回归网络和所述目标检测网络共用所述特征提取模块和特征融合模块,所述S3中将所述厨余垃圾训练集中的每张图像的目标数目Ni、同类别目标平均中心点间距离Di作为标签,通过所述标签和所述厨余垃圾训练集对所述厨余垃圾检测网络采用两阶段训练策略进行训练,并使用损失函数监督训练过程,得到厨余垃圾检测模型,具体包括:
S31、对所述厨余垃圾检测网络中的目标检测网络进行预训练权重初始化,然后将其冻结;
S32、对所述厨余垃圾检测网络中的NMS回归网络随机初始化并单独训练,通过所述特征提取模块对所述厨余垃圾训练集中的每张图像进行逐层次特征提取,生成逐层次的特征图;
S33、通过所述特征融合模块对所述逐层次的特征图进行特征融合,输出逐层次的融合特征图;
S34、将所述逐层次的融合特征图中的顶层融合特征图输入至所述NMS回归模块,所述NMS回归模块对所述顶层融合特征图进行特征大小和通道数的调整,输出每张图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值;
S35、根据每张所述图像的目标数目Ni、同类别目标平均中心点间距离Di的训练值和标签,结合所述NMS回归网络的损失函数计算所述NMS回归网络的损失值,反向传播梯度来更新NMS回归网络参数;
S36、待所述NMS回归网络的损失收敛时,将所述目标检测网络解冻,对所述目标检测网络和所述NMS网络进行联合训练,得到厨余垃圾检测模型。
8.如权利要求7所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S35中所述NMS回归网络的损失函数具体为:
其中,
式中,Li为厨余垃圾训练集中第i张图像的损失,为smoothL1损失,xi为损失函数的自变量,Ni为厨余垃圾训练集中第i张图像的目标数目,Ni'为厨余垃圾训练集中第i张图像的目标数目的训练值,Di为厨余垃圾训练集中第i张图像的同类别目标平均中心点间距离,Di'为厨余垃圾训练集中第i张图像的同类别目标平均中心点间距离的训练值。
9.如权利要求8所述的基于动态非极大值抑制的厨余垃圾检测方法,其特征在于,所述S4具体包括:
S41、获取真实场景下的厨余垃圾待检测图像,将所述待检测图像输入所述厨余垃圾检测模型,所述厨余垃圾检测模型中的NMS回归网络对所述待检测图像进行处理,输出所述待检测图像的目标数目、同类别目标平均中心点间距离的预测值;
S42、将所述待检测图像的目标数目、同类别目标平均中心点间距离的预测值输入所述映射关系式,得到所述待检测图像的NMS交并比阈值;
S43、所述厨余垃圾检测模型中的目标检测网络对所述待检测图像进行处理,输出所述待检测图像的多个候选框;
S44、根据所述待检测图像的NMS交并比阈值按照预设的置信度分数对多个所述候选框进行排序,并迭代删除超过所述NMS交并比阈值的候选框,得到厨余垃圾待检测图像的预测框。
10.一种基于动态非极大值抑制的厨余垃圾检测***,其特征在于,所述***包括图像采集模块、MCU信号处理模块、厨余垃圾检测模块以及显示模块,所述MCU信号处理模块分别与所述图像采集模块、厨余垃圾检测模块以及显示模块连接,其中:
所述图像采集模块用于实时采集厨余垃圾待检测图像,并将厨余垃圾待检测图像发送至所述MCU信号处理模块;
所述MCU信号处理模块用于将所述厨余垃圾待检测图像输入至所述厨余垃圾检测模块;
所述厨余垃圾检测模块采用如权利要求1至9任一项所述的基于动态非极大值抑制的厨余垃圾检测方法对所述厨余垃圾待检测图像进行处理,得到厨余垃圾待检测图像的预测框,并将所述预测框通过所述MCU信号处理模块发送至所述显示模块;
所述显示模块用于接收并显示所述厨余垃圾待检测图像的预测框。
CN202310606583.1A 2023-05-26 2023-05-26 一种基于动态非极大值抑制的厨余垃圾检测方法及*** Active CN116777843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310606583.1A CN116777843B (zh) 2023-05-26 2023-05-26 一种基于动态非极大值抑制的厨余垃圾检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310606583.1A CN116777843B (zh) 2023-05-26 2023-05-26 一种基于动态非极大值抑制的厨余垃圾检测方法及***

Publications (2)

Publication Number Publication Date
CN116777843A true CN116777843A (zh) 2023-09-19
CN116777843B CN116777843B (zh) 2024-02-27

Family

ID=88010682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310606583.1A Active CN116777843B (zh) 2023-05-26 2023-05-26 一种基于动态非极大值抑制的厨余垃圾检测方法及***

Country Status (1)

Country Link
CN (1) CN116777843B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
CN113807347A (zh) * 2021-08-20 2021-12-17 北京工业大学 一种基于目标检测技术的厨余垃圾杂质识别方法
WO2021254205A1 (zh) * 2020-06-17 2021-12-23 苏宁易购集团股份有限公司 一种目标检测方法及装置
US20220292311A1 (en) * 2021-03-12 2022-09-15 Dibi (Chongqing) Intelligent Technology Research Institute Co., Ltd. Method for object detection and recognition based on neural network
CN115205521A (zh) * 2022-08-09 2022-10-18 湖南大学 基于神经网络的厨余垃圾检测方法
CN115272652A (zh) * 2022-07-29 2022-11-01 东南大学 基于多元回归和自适应焦点损失的密集物体图像检测方法
US20220405576A1 (en) * 2021-06-21 2022-12-22 Plumerai Limited Multi-layer neural network system and method
CN115761259A (zh) * 2022-11-14 2023-03-07 湖南大学 基于类别平衡损失函数的厨余垃圾目标检测方法和***
CN116152571A (zh) * 2023-03-09 2023-05-23 西北大学 基于深度学习的厨余垃圾识别分类方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
WO2021254205A1 (zh) * 2020-06-17 2021-12-23 苏宁易购集团股份有限公司 一种目标检测方法及装置
US20220292311A1 (en) * 2021-03-12 2022-09-15 Dibi (Chongqing) Intelligent Technology Research Institute Co., Ltd. Method for object detection and recognition based on neural network
US20220405576A1 (en) * 2021-06-21 2022-12-22 Plumerai Limited Multi-layer neural network system and method
CN113807347A (zh) * 2021-08-20 2021-12-17 北京工业大学 一种基于目标检测技术的厨余垃圾杂质识别方法
CN115272652A (zh) * 2022-07-29 2022-11-01 东南大学 基于多元回归和自适应焦点损失的密集物体图像检测方法
CN115205521A (zh) * 2022-08-09 2022-10-18 湖南大学 基于神经网络的厨余垃圾检测方法
CN115761259A (zh) * 2022-11-14 2023-03-07 湖南大学 基于类别平衡损失函数的厨余垃圾目标检测方法和***
CN116152571A (zh) * 2023-03-09 2023-05-23 西北大学 基于深度学习的厨余垃圾识别分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GUANGMIAO GUO 等: "Oriented Spatial Correlative Aligned Feature for Remote Sensing Object Detection", 《2021 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM IGARSS》 *
申新杰;兰浩;曾渝;: "基于AGAST角点域特征的垃圾识别算法", 电脑知识与技术, no. 20 *
龚安;张洋;唐永红;: "基于YOLOv3网络的电能表示数识别方法", 计算机***应用, no. 01 *

Also Published As

Publication number Publication date
CN116777843B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CN111507182B (zh) 基于骨骼点融合循环空洞卷积的乱丢垃圾行为检测方法
CN110728360A (zh) 一种基于bp神经网络的微能源器件能量识别方法
CN110135386B (zh) 一种基于深度学习的人体动作识别方法和***
CN108416314B (zh) 图片重要人脸检测方法
CN113191178B (zh) 一种基于听觉感知特征深度学习的水声目标识别方法
CN106558308A (zh) 一种互联网音频数据质量自动打分***及方法
CN110599459A (zh) 基于深度学习的地下管网风险评估云***
CN112562698B (zh) 一种基于声源信息与热成像特征融合的电力设备缺陷诊断方法
CN111368142A (zh) 一种基于生成对抗网络的视频密集事件描述方法
CN109063589A (zh) 基于神经网络的仪器设备在线监测方法及***
CN112749675A (zh) 一种基于卷积神经网络的马铃薯病害识别方法
CN110599458A (zh) 基于卷积神经网络的地下管网检测评估云***
CN115457980A (zh) 一种无参考语音的自动化语音质量评估方法及***
CN114049305A (zh) 基于改进ALI和Faster-RCNN的配电线路销钉缺陷检测方法
CN109740672B (zh) 多流特征距离融合***与融合方法
CN111027542A (zh) 一种基于Faster RCNN算法改进的目标检测方法
CN114359167A (zh) 一种复杂场景下基于轻量化YOLOv4的绝缘子缺陷检测方法
CN116777843B (zh) 一种基于动态非极大值抑制的厨余垃圾检测方法及***
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN110599460A (zh) 基于混合卷积神经网络的地下管网检测评估云***
CN114821174B (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN107766838B (zh) 一种视频场景切换检测方法
CN113571050A (zh) 一种基于Attention与Bi-LSTM的语音抑郁状态识别方法
CN109684954B (zh) 在无人设备上实现目标检测的在线训练方法
CN111222463A (zh) 一种基于级联式卷积网络的机动车人脸检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant