CN113435271A - 一种基于目标检测和实例分割模型的融合方法 - Google Patents

一种基于目标检测和实例分割模型的融合方法 Download PDF

Info

Publication number
CN113435271A
CN113435271A CN202110648678.0A CN202110648678A CN113435271A CN 113435271 A CN113435271 A CN 113435271A CN 202110648678 A CN202110648678 A CN 202110648678A CN 113435271 A CN113435271 A CN 113435271A
Authority
CN
China
Prior art keywords
result
box
segmentation model
information
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110648678.0A
Other languages
English (en)
Inventor
吴伟
闵志先
何威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 38 Research Institute
Original Assignee
CETC 38 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 38 Research Institute filed Critical CETC 38 Research Institute
Priority to CN202110648678.0A priority Critical patent/CN113435271A/zh
Publication of CN113435271A publication Critical patent/CN113435271A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于目标检测和实例分割模型的融合方法,属于人工智能技术领域,包括以下步骤:S1:训练目标检测模型;S2:训练实例分割模型;S3:图片推理阶段;S4:结果融合输出。本发明结合了两个模型的优点,分别选取了目标检测模型的缺陷分类结果和实例分割模型的缺陷形态识别结果作为最终输出;同时,由于在训练实例分割模型时,只采用了少量样本进行mask数据标记,相对于直接对全部训练样本进行mask标记来进行实例分割模型训练,节约了大量的人力成本,值得被推广使用。

Description

一种基于目标检测和实例分割模型的融合方法
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于目标检测和实例分割模型的融合方法。
背景技术
在一些目标缺陷检测的项目中,除了需要对目标缺陷进行准确的分类和定位外,还需要精确计算缺陷的尺寸信息(面积,长宽,比例等)。一般来说,这需要采用能够检测出目标轮廓信息的一些算法框架实现,如实例分割算法。但是由于项目中需要参与训练的样本量非常多,而进行实例分割要求对每个样本都进行mask标注,需要人工标注的工作量非常大(通常为只进行box标注的3倍或以上时间)。而只基于目标检测的算法框架只需要对样本进行box标注,需要的标注人力成本相对较低,但是相对的只能对目标缺陷进行box的定位,无法精确地计算出目标的尺寸信息。这就形成了人力成本和项目需求之间的矛盾。为此,提出一种基于目标检测和实例分割模型的融合方法。
发明内容
本发明所要解决的技术问题在于:如何解决现有技术中人力成本和项目需求之间的矛盾,提供了一种基于目标检测和实例分割模型的融合方法,该方法在基于目标检测的算法框架的基础上,只增加了少量的人力成本,但是结果能够达到基于实例分割的算法框架的检测精度水平。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
S1:训练目标检测模型
对所有训练数据进行box标注,利用所有训练数据训练一个目标检测模型;
S2:训练实例分割模型
从步骤S1的训练数据中,针对需要进行轮廓检测的缺陷类型,抽取少量样本作为新的训练样本,并对该部分新样本进行mask标注,利用该部分新样本训练一个实例分割模型;
S3:图片推理阶段
同一张图片,分别通过步骤S1中的目标检测模型和步骤S2中的实例分割模型,分别输出结果,目标检测模型输出结果为A,实例分割模型输出结果为B;
S4:结果融合输出
对结果A、B进行融合处理,输出融合后结果C。
更进一步地,在所述步骤S2中,少量样本占所有训练数据的比例为1/12~ 1/8。
更进一步地,在所述步骤S3中,输出结果A包括box信息、缺陷分类信息、目标的置信度,输出结果B包括box信息、mask信息、缺陷分类信息、目标的置信度。
更进一步地,在所述步骤S4中,融合过程具体如下:
S41:对结果A进行目标的置信度阈值处理,去除所有不满足置信度阈值的结果,此时输出结果为A’;
S42:对结果B进行基于box信息的NMS(非极大值抑制)合并,去掉满足 IOU条件且分数较低的结果,此时输出结果为B’;
S43:计算A’的box和B’的box的交叠情况,若同时满足:
条件1、A’的box面积大于B’的box面积;
条件2、A’的box和B’的box重叠度超过给定阈值;
则在结果C中更新A’的缺陷分类信息、A’的目标置信度、A’的box信息、 B’的box信息,B’的mask信息;
若不能同时满足条件1与条件2,则在结果C只更新A’的缺陷分类信息、 A’的目标置信度、A’的box信息。
更进一步地,在所述步骤S41中,若没有满足置信度阈值条件的结果残留,则该图片直接判定为无缺陷,输出结果C直接更新为无缺陷,不进行后续处理。
更进一步地,在所述步骤S43中,条件2内的重叠度给定阈值为0.9。
更进一步地,在所述步骤S4中,结果C中必定包含A’的缺陷分类信息即为最终的缺陷分类结果,如果包含了B’的box和mask信息,则以B’的box和 mask信息为准。
本发明相比现有技术具有以下优点:该基于目标检测和实例分割模型的融合方法,结合了两个模型的优点,分别选取了目标检测模型的缺陷分类结果和实例分割模型的缺陷形态识别结果作为最终输出;同时,由于在训练实例分割模型时,只采用了少量样本进行mask数据标记,相对于直接对全部训练样本进行mask标记来进行实例分割模型训练,节约了大量的人力成本,值得被推广使用。
附图说明
图1是本发明实施例一中融合方法的流程示意图;
图2是本发明实施例一中模型融合示意图;
图3是本发明实施例二中的待检测图片;
图4是本发明实施例二中采用基于目标检测的算法模型的检测结果示意图;
图5是本发明实施例二中采用基于实例分割检测的算法模型的检测结果示意图;
图6是本发明实施例二中算法融合模型的检测结果示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
如图1所示,本实施例提供一种技术方案:一种基于目标检测和实例分割模型的融合方法,包括以下步骤:
S1、对所有训练数据进行box标注;
S2、使用步骤S1中的训练数据,训练一个目标检测模型;
S3、从步骤S1的训练数据中,针对需要进行轮廓检测的缺陷类型,抽取少量样本(约10:1)作为新的训练样本,并对这部分新样本进行mask标注;
S4、使用步骤S3中的训练数据,训练一个实例分割模型;
S5、图片推理阶段:同一张图片,分别通过步骤2中的目标检测模型和步骤 4中的实例分割模型,分别输出结果,假设目标检测模型输出结果为A(包含box 信息,缺陷分类信息,目标的置信度),实例分割模型输出结果为B(包含box信息,mask信息,缺陷分类信息,目标的置信度);
S6、对A,B进行融合处理,假设融合后输出结果为C、基本逻辑如下:
S6.1、对A结果进行目标的置信度阈值处理,去除所有不满足置信度阈值 (根据不同缺陷类型单独设定)的结果,假设此时输出为A’;(注:若没有满足置信度阈值条件的结果残留,则该图片直接判定为无缺陷,输出结果C直接更新为无缺陷,不需要进行后续处理)
S6.2、由于实例分割模型由少样本训练而成,我们需要对模型的结果进行筛选,去除重复的候选框和分数低的候选框。这里采用了国际上通用的NMS(非极大值抑制)合并算法来进行处理,算法原理参照下述说明,完成NMS后,就得去掉满足IOU条件且分数较低的候选框的结果,假设此时结果为B’;
注:非极大值抑制(NMS)就是抑制不是极大值的元素,搜索局部的极大值。
具体的非极大值抑制算法流程如下:
图上给出多个候选框,但是这些框很可能有互相重叠的部分(相当于同一个物体对应多个候选框),实际只需要保留最优的框。
假设有N个框,每个框得到的分数为Si,1<=i<=N。
建造一个存放待处理候选框的集合H,初始化为包含全部N个框;建造一个存放最优框的集合M,初始化为空集。
将所有集合H中的框进行排序,选出分数最高的框m,从集合H移到集合M;
遍历集合H中的框,分别与框m计算交并比(Interection-over-union, IoU),如果高于某个阈值(一般为0~0.5),则认为此框与m重叠,将此框从集合H中去除。
回到第2步进行迭代,直到集合H为空。集合M中的框为我们所需。
S6.3、计算A’的box和B’的box的交叠情况,若同时满足:
条件1.A’的box面积大于B’的box面积(如果不满足,就不认为B的结果精度更高);
条件2.A’的box和B’的box重叠度超过给定阈值(默认0.9)(注:这里计算box重叠度是为了保证A’和B’的结果均为针对同一个物体,设置0.9而不是1是为了包容一定程度上的box相对偏差);
则在结果C中更新A’的缺陷分类信息,A’的目标置信度,A’的box信息, B’的box信息,B’的mask信息;
注:结果中的各类信息的详细说明如下:
缺陷分类信息----被检测物体的分类结果;
目标置信度-----被检测物体分类的得分(0-1);
Box信息----被检测物体的位置的box定位信息(左上角x、y坐标和右下角x、y坐标);
Mask信息---被检测物体的轮廓定位信息(连接物体轮廓的点的坐标)。
S6.4、若不能同时满足6.3的条件,则在结果C只更新A’的缺陷分类信息, A’的目标置信度,A’的box信息;
S7、融合结果的使用处理:根据实际需要选取处理,一般来说,结果C中必定包含的A’的缺陷分类信息即为最终的缺陷分类结果,如果包含了B’的box 和mask信息,则以B’的box和mask信息为准。注意,A’的box中有可能包含了多个B’的box信息,这种情况则需要根据项目实际情况具体处理。
实施例二
如图3所示:客户首先需要检测图中缺陷(白色污点)的分类,然后计算缺陷和背景图案(灰色圆盘)的面积占比来确定该缺陷的严重程度(不同的缺陷分类对严重程度的要求比例不一样),如果同一个背景包含数个缺陷,则需要累加缺陷的总面积,这就不仅需要精确的识别缺陷的分类,还需要对缺陷大小进行较高精度的检测。
如果直接采用基于目标检测的算法模型,无法保证缺陷面积的精确检测,通过box计算出来的面积会比实际缺陷面积大,检测结果如下图4所示。
如果直接采用基于实例分割检测的算法模型,虽然可以满足精度要求,但为了满足缺陷的分类准确,需要对所有的样本进行mask级标注,对于有上万级的样本数据库来说,需要的标注人力成本为采用目标检测的算法模型的3~5倍。检测结果如图5所示。
而采用本发明中所述的算法融合模型,通过目标检测的算法模型保证缺陷的分类准确率,通过实例分割检测的算法模型保证缺陷的检测大小精度,且本模型中由于实例分割检测模型并不要求分类准确率,需要的标注样本量大量减少,最终实现了在节约大量标注人力的情况下,达到了高精度的检测效果。检测结果如图6所示。
综上所述,上述实施例的基于目标检测和实例分割模型的融合方法,结合了两个模型的优点,分别选取了目标检测模型的缺陷分类结果和实例分割模型的缺陷形态识别结果作为最终输出;同时,由于在训练实例分割模型时,只采用了少量样本进行mask数据标记,相对于直接对全部训练样本进行mask标记来进行实例分割模型训练,节约了大量的人力成本,值得被推广使用。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (7)

1.一种基于目标检测和实例分割模型的融合方法,其特征在于,包括以下步骤:
S1:训练目标检测模型
对所有训练数据进行box标注,利用所有训练数据训练并得到一个目标检测模型;
S2:训练实例分割模型
从步骤S1的训练数据中,针对需要进行轮廓检测的缺陷类型,抽取少量样本作为新的训练样本,并对该部分新样本进行mask标注,利用该部分新样本训练并得到一个实例分割模型;
S3:图片推理阶段
同一张图片分别通过步骤S1中的目标检测模型和步骤S2中的实例分割模型,分别输出结果,目标检测模型输出结果为A,实例分割模型输出结果为B;
S4:结果融合输出
对结果A、B进行融合处理,输出融合后结果C。
2.根据权利要求1所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S2中,少量样本占所有训练数据的比例为1/12~1/8。
3.根据权利要求1所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S3中,输出结果A包括box信息、缺陷分类信息、目标的置信度,输出结果B包括box信息、mask信息、缺陷分类信息、目标的置信度。
4.根据权利要求1所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S4中,融合过程具体如下:
S41:对结果A进行目标的置信度阈值处理,去除所有不满足置信度阈值的结果,此时输出结果为A’;
S42:对结果B进行基于box信息的NMS合并,去掉满足IOU条件且分数较低的结果,此时输出结果为B’;
S43:计算A’的box和B’的box的交叠情况,若同时满足:
条件1、A’的box面积大于B’的box面积;
条件2、A’的box和B’的box重叠度超过给定阈值;
则在结果C中更新A’的缺陷分类信息、A’的目标置信度、A’的box信息、B’的box信息,B’的mask信息;
若不能同时满足条件1与条件2,则在结果C只更新A’的缺陷分类信息、A’的目标置信度、A’的box信息。
5.根据权利要求4所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S41中,若没有满足置信度阈值条件的结果残留,则该图片直接判定为无缺陷,输出结果C直接更新为无缺陷,不进行后续处理。
6.根据权利要求4所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S43中,条件2内的重叠度给定阈值为0.9。
7.根据权利要求4所述的一种基于目标检测和实例分割模型的融合方法,其特征在于:在所述步骤S4中,结果C中必定包含A’的缺陷分类信息即为最终的缺陷分类结果,如果包含了B’的box和mask信息,则以B’的box和mask信息为准。
CN202110648678.0A 2021-06-10 2021-06-10 一种基于目标检测和实例分割模型的融合方法 Pending CN113435271A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110648678.0A CN113435271A (zh) 2021-06-10 2021-06-10 一种基于目标检测和实例分割模型的融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110648678.0A CN113435271A (zh) 2021-06-10 2021-06-10 一种基于目标检测和实例分割模型的融合方法

Publications (1)

Publication Number Publication Date
CN113435271A true CN113435271A (zh) 2021-09-24

Family

ID=77755668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110648678.0A Pending CN113435271A (zh) 2021-06-10 2021-06-10 一种基于目标检测和实例分割模型的融合方法

Country Status (1)

Country Link
CN (1) CN113435271A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985269A (zh) * 2018-08-16 2018-12-11 东南大学 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型
CN109145769A (zh) * 2018-08-01 2019-01-04 辽宁工业大学 融合图像分割特征的目标检测网络设计方法
CN110390251A (zh) * 2019-05-15 2019-10-29 上海海事大学 一种基于多神经网络模型融合处理的图像文字语义分割方法
CN111783782A (zh) * 2020-05-29 2020-10-16 河海大学 融合改进UNet和SegNet的遥感图像语义分割方法
CN112580647A (zh) * 2020-12-11 2021-03-30 湖北工业大学 一种面向堆叠物体的识别方法及***
CN112598085A (zh) * 2021-03-02 2021-04-02 聚时科技(江苏)有限公司 支持混合模型融合的Model Ensemble方法
CN112926630A (zh) * 2021-01-29 2021-06-08 北京百度网讯科技有限公司 路线规划方法、装置、电子设备以及计算机可读介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145769A (zh) * 2018-08-01 2019-01-04 辽宁工业大学 融合图像分割特征的目标检测网络设计方法
CN108985269A (zh) * 2018-08-16 2018-12-11 东南大学 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型
CN110390251A (zh) * 2019-05-15 2019-10-29 上海海事大学 一种基于多神经网络模型融合处理的图像文字语义分割方法
CN111783782A (zh) * 2020-05-29 2020-10-16 河海大学 融合改进UNet和SegNet的遥感图像语义分割方法
CN112580647A (zh) * 2020-12-11 2021-03-30 湖北工业大学 一种面向堆叠物体的识别方法及***
CN112926630A (zh) * 2021-01-29 2021-06-08 北京百度网讯科技有限公司 路线规划方法、装置、电子设备以及计算机可读介质
CN112598085A (zh) * 2021-03-02 2021-04-02 聚时科技(江苏)有限公司 支持混合模型融合的Model Ensemble方法

Similar Documents

Publication Publication Date Title
TWI726364B (zh) 電腦執行的車輛定損方法及裝置
CN110264444B (zh) 基于弱分割的损伤检测方法及装置
WO2022012110A1 (zh) 胚胎光镜图像中细胞的识别方法及***、设备及存储介质
CN111382785B (zh) 一种gan网络模型及实现样本自动清洗、辅助标记的方法
CN108334835B (zh) 基于卷积神经网络的***分泌物显微图像有形成分检测方法
CN111798447B (zh) 一种基于Faster RCNN的深度学习塑化材料缺陷检测方法
US11307150B2 (en) Automatic optimization of an examination recipe
CN113111703B (zh) 基于多种卷积神经网络融合的机场道面病害异物检测方法
CN106340016A (zh) 一种基于细胞显微镜图像的dna定量分析方法
CN109460735A (zh) 基于图半监督学习的文档二值化处理方法、***、装置
CN109543753B (zh) 基于自适应模糊修复机制的车牌识别方法
KR20220012217A (ko) 반도체 시편에서의 결함들의 기계 학습 기반 분류
CN110032952B (zh) 一种基于深度学习的道路边界点检测方法
CN111369526B (zh) 基于半监督深度学习的多类型旧桥裂痕识别方法
CN116935092A (zh) 自动化缺陷分类和检测
CN115423796A (zh) 一种基于TensorRT加速推理的芯片缺陷检测方法及***
CN116012291A (zh) 工业零件图像缺陷检测方法及***、电子设备和存储介质
CN114511077A (zh) 使用基于伪元素的数据扩增来训练点云处理神经网络
CN112508857A (zh) 基于改进型Cascade R-CNN的铝材表面缺陷检测方法
CN115713488A (zh) 基于实例分割的桥梁表观病害像素级识别方法和***
CN113673482A (zh) 基于动态标签分配的细胞抗核抗体荧光识别方法及***
CN113111875A (zh) 一种基于深度学习的无缝钢轨焊缝缺陷识别装置及方法
US20230281791A1 (en) Adaptive system and method for inspection of imaged items
CN116844143B (zh) 基于边缘增强的胚胎发育阶段预测与质量评估***
CN112381730B (zh) 一种遥感影像数据扩增方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210924