CN112184698B - 基于辅助学习网络的竹条缺陷检测方法 - Google Patents

基于辅助学习网络的竹条缺陷检测方法 Download PDF

Info

Publication number
CN112184698B
CN112184698B CN202011118649.5A CN202011118649A CN112184698B CN 112184698 B CN112184698 B CN 112184698B CN 202011118649 A CN202011118649 A CN 202011118649A CN 112184698 B CN112184698 B CN 112184698B
Authority
CN
China
Prior art keywords
prediction matrix
network
loss
frame
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011118649.5A
Other languages
English (en)
Other versions
CN112184698A (zh
Inventor
刘文哲
黄炳城
童同
高钦泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanming Dishi Robot Technology Co ltd
Original Assignee
Sanming Dishi Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanming Dishi Robot Technology Co ltd filed Critical Sanming Dishi Robot Technology Co ltd
Priority to CN202011118649.5A priority Critical patent/CN112184698B/zh
Publication of CN112184698A publication Critical patent/CN112184698A/zh
Application granted granted Critical
Publication of CN112184698B publication Critical patent/CN112184698B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30161Wood; Lumber
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于辅助学习网络的竹条缺陷检测方法,包括以下步骤:步骤S1:采集竹条缺陷数据,并通过标定,生成数据集;步骤S2:对数据集进行预处理,并将预处理后的数据集作为训练集;步骤S3:基于训练集训练骨干网络和辅助定位检测网络,进一步得到物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵;步骤S4:根据得到的物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵,分别计算物体预测损失、边框尺寸预测损失、边框偏移预测损失,并进一步计算网络总损失;步骤S5:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到检测结果。本发明能够准确的检测出竹条的缺陷。

Description

基于辅助学习网络的竹条缺陷检测方法
技术领域
本发明涉及目标检测领域,具体涉及一种基于辅助学习网络的竹条缺陷检测方法。
背景技术
现有基于传统机器学习的方法,由于存在大量人为设计超参数且面对***的竹条缺陷形状,存在以下缺点:检测效率低下且检测效果不是很理想;不能根据竹条缺陷形状自适应调整检测方案。且现实中,由于采集标定数据的成本较高,往往只能拿到较少的数据。
发明内容
有鉴于此,本发明的目的在于提供一种基于辅助学习网络的竹条缺陷检测方法,能够针对在较少的竹条缺陷数据和对不同来源类型的竹条数据的情况下检测得到较好的检测结果。
为实现上述目的,本发明采用如下技术方案:
一种基于辅助学习网络的竹条缺陷检测方法,包括以下步骤:
步骤S1:采集竹条缺陷数据,并通过标定,生成数据集;
步骤S2:对数据集进行预处理,并将预处理后的数据集作为训练集;
步骤S3:基于训练集训练骨干网络和辅助定位检测网络,进一步得到物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵;
步骤S4:根据得到的物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵,分别计算物体预测损失、边框尺寸预测损失、边框偏移预测损失,并进一步计算网络总损失;
步骤S5:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到检测结果。
进一步的,所述预处理具体为:对不同产地的竹条和不同批次的竹条所呈现的颜色差别,在每次训练前随机的在图像的HSV空间进行微调,并加上随机颜色抖动。
进一步的,所述步骤S3具体为:
步骤S31:输入竹条图像I经过辅助定位检测网络的降采样特征提取表示模块、多尺度特征融合模块、特征传递输出模块分别得到竹条图像特征Fd I、Fm I、FL I
步骤S32:输入竹条图像I经过骨干网络的下采样模块、上采样模块特征融合部分、特征结合传递输出模块,得到特征结合传递输出模块特征F1 I、F2 I、F3 I
步骤S33:冻结骨干网络,将骨干网络的参数进行传递到下一步,但不进行更新,只训练辅助定位检测网络;
步骤S34:训练辅助定位检测网络至损失loss趋于稳定后,放开冻结,将骨干网络与辅助定位检测网络一同训练;
步骤S35:将竹条特征图Fd I、Fm I、FL I分别与特征F1 I、F2 I、F3 I进行融合传递;
步骤S36:采取以中心点检测为目标的网络,以预测热力图中心点视为检测目标,将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积,得到物体预测矩阵;
步骤S37:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框尺寸预测矩阵.
步骤S38:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框偏移预测矩阵。
进一步的,所述步骤S4具体为:
步骤S41:将物体预测矩阵与实际物体矩阵进行比较,计算两个矩阵之间的focal损失focalloss
步骤S42:将物体边框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的梯度均衡损失(GHM loss)Lsize
步骤S43:将物体偏移框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的L1损失Loff
步骤S44:将物体预测矩阵的损失focalloss、边框尺寸预测矩阵的损失Lsize、边框偏
移预测矩阵的损失Loff赋予不同的权重,作为网络更新的总损失,其计算公式为
Figure BDA0002731233080000041
其中
Figure BDA0002731233080000042
β=0.1,γ=1。
进一步的,所述步骤S5具体为:
步骤S51:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到物体预测矩阵、尺寸预测矩阵和边框预测矩阵;
步骤S52:遍历物体预测矩阵的所有通道,然后找到每个通道的物体预测矩阵的激活点,即每个矩阵不为零的点,那么这个点所在的坐标即物体坐标,这个点所在的通道即其所属的类别;
步骤S53:将得到的物体坐标代入尺寸预测矩阵中,所得到的值即为检测到的目标的大小;
步骤S54:将得到物体坐标、所属的类别和标的大小输出,得到检测结果。
本发明与现有技术相比具有以下有益效果:
1、本发明采用可变形卷积结合空洞卷积的方法来提取竹条缺陷特征,可变形卷积能够针对竹条多变的缺陷形状做出响应的卷积形状调整,能够更加精确的定位缺陷的特征,且为了能够得到多尺度的竹条缺陷特征;
2、本发明针对骨干网络具有的分类特征提取能力采用通过通道注意力机制的方式来获得缺陷类别特征的权重,而针对辅助定位检测网络则通过采用空间注意机制的方式来提取竹条缺陷的位置信息,通过将两网络得到的具有大权重信息的特征进行结合,大大降低了冗余特征信息,加快了缺陷特征处理效率
3、本发明针对竹条数据缺陷样本中,数据正负样本不均衡的问题采取使用Focal-Loss来计算竹条预测物体与实际物体的偏差,在竹条缺陷形状大小回归问题,采取对其进行梯度均衡,衡量其预测大小与实际大小的偏差。
附图说明
图1是本发明网络结构示意图;
图2是本发明一实施例中自学习权重模块示意图;
图3是本发明一实施例中多尺度特征融合示意图;
图4是本发明一实施例中竹条缺陷检测效果图
图5是本发明一实施例中本发明与一种基于三重损失网络的竹条缺陷检测方法的检测效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于辅助学习网络的竹条缺陷检测方法,包括以下步骤:
步骤S1:将相机安装在竹条分选机器人上,实时采集竹条缺陷数据,并通过标定,生成数据集;
步骤S2:对不同产地的竹条和不同批次的竹条所呈现的颜色差别,在每次训练前随机的在图像的HSV空间进行微调,并加上随机颜色抖动,并将预处理后的数据集作为训练集;
步骤S3:基于训练集训练骨干网络和辅助定位检测网络,进一步得到物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵;
所述步骤S3具体为:
步骤S31:输入竹条图像I经过辅助定位检测网络的降采样特征提取表示模块、多尺度特征融合模块、特征传递输出模块分别得到竹条图像特征Fd I、Fm I、FL I
步骤S32:输入竹条图像I经过骨干网络的下采样模块、上采样模块特征融合部分、特征结合传递输出模块,得到特征结合传递输出模块特征F1 I、F2 I、F3 I
步骤S33:冻结骨干网络,将骨干网络的参数进行传递到下一步,但不进行更新,只训练辅助定位检测网络;
步骤S34:训练辅助定位检测网络至损失loss趋于稳定后,放开冻结,将骨干网络与辅助定位检测网络一同训练;
步骤S35:将竹条特征图Fd I、Fm I、FL I分别与特征F1 I、F2 I、F3 I进行融合传递;
步骤S36:采取以中心点检测为目标的网络,以预测热力图中心点视为检测目标,将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积,得到物体预测矩阵;
步骤S37:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框尺寸预测矩阵.
步骤S38:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框偏移预测矩阵。
步骤S4:根据得到的物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵,分别计算物体预测损失、边框尺寸预测损失、边框偏移预测损失,并进一步计算网络总损失;
所述步骤S4具体为:
步骤S41:将物体预测矩阵与实际物体矩阵进行比较,计算两个矩阵之间的focal损失focalloss
步骤S42:将物体边框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的梯度均衡损失(GHM loss)Lsize
步骤S43:将物体偏移框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的L1损失Loff
步骤S44:将物体预测矩阵的损失focalloss、边框尺寸预测矩阵的损失Lsize、边框偏
移预测矩阵的损失Loff赋予不同的权重,作为网络更新的总损失,其计算公式为
Figure BDA0002731233080000071
其中
Figure BDA0002731233080000072
β=0.1,γ=1。
步骤S5:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到检测结果。
所述步骤S5具体为:
步骤S51:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到物体预测矩阵、尺寸预测矩阵和边框预测矩阵;
步骤S52:遍历物体预测矩阵的所有通道,然后找到每个通道的物体预测矩阵的激活点,即每个矩阵不为零的点,那么这个点所在的坐标即物体坐标,这个点所在的通道即其所属的类别;
步骤S53:将得到的物体坐标代入尺寸预测矩阵中,所得到的值即为检测到的目标的大小;
步骤S54:将得到物体坐标、所属的类别和标的大小输出,得到检测结果。
参考图4,本实施例中,第一行为yolov3的检测效果图,第二行为CenterNet的检测效果图,第三行为本发明的检测效果图。由图2第二列中,yolov3针对狭长的裂片(crack)缺陷出现了漏检,且在竹黄(bamboo_yellow)缺陷特征中,即检测出了竹黄(bamboo_yellow)又检测出了凹黄(concave_bamboo_yellow),说明了在yolov3中,针对竹黄缺陷出现了不确定的判断。在CenterNet中,针对狭长的裂片特征能够准确的预测,而由于在此竹条缺陷中,竹黄的缺陷位置和裂片的缺陷位置较为靠近,且网络经过过多的下采样提取特征,导致缺陷特征的消失遗漏,所以CenterNet则检测出了裂片却漏检了竹黄缺陷。而在本发明中,骨干网络对裂片和竹黄的缺陷特征进行了分类后,辅助定位检测网络能够根据其缺陷所在的位置对检测进行效果叠加,所以能够准确的检测出了竹条的缺陷。
参考图5,为本发明与一种基于三重损失网络的竹条缺陷检测算法检测结果图比较,其中第一行为基于三重损失网络的竹条缺陷检测算法的检测结果,第二行为本发明的检测结果,由图中结果可以看出,在相同数据集下,本发明提出基于辅助定位检测能够针对较少数据的情况下,对检测效果进行叠加的处理。获得了更好的检测结果。
表1本发明与yolov3、CenterNet等模型mAP比较
方法 yolov3 CenterNet 本发明
mAP(%) 60.45 66.94 76.9
FPS 20 25 17
表1为本发明与yolov3、CenterNet等模型在相同实验条件下的mAP与FPS的比较,由表可以看出本发明在竹条缺陷数据集上获得76.9%的mAP,能够以明显的优势优于yolov3的60.45%mAP和CenterNet的66.94%mAP。同时由表1看出本发明得到的76.9%mAP和17FPS相比yolov3的60.45%mAP和20FPS,能够在FPS相差较小的情况下,大幅提高检测的mAP。
表2本发明与一种基于三重损失网络的竹条缺陷检测算法的mAP比较
Figure BDA0002731233080000101
表2为本发明与一种基于三重损失网络的竹条缺陷检测方法在相同实验条件下的mAP与FPS的比较,由表2可以看出,本发明提出的方法在较少数据集的情况下,其检测mAP更高。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (4)

1.一种基于辅助学习网络的竹条缺陷检测方法,其特征在于,包括以下步骤:
步骤S1:采集竹条缺陷数据,并通过标定,生成数据集;
步骤S2:对数据集进行预处理,并将预处理后的数据集作为训练集;
步骤S3:基于训练集训练骨干网络和辅助定位检测网络,进一步得到物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵;
所述步骤S3具体为:
步骤S31:输入竹条图像I经过辅助定位检测网络的降采样特征提取表示模块、多尺度特征融合模块、特征传递输出模块分别得到竹条图像特征Fd I、Fm I、FL I
步骤S32:输入竹条图像I经过骨干网络的下采样模块、上采样模块特征融合部分、特征结合传递输出模块,得到特征结合传递输出模块特征F1 I
Figure FDA0003367576720000011
步骤S33:冻结骨干网络,将骨干网络的参数进行传递到下一步,但不进行更新,只训练辅助定位检测网络;
步骤S34:训练辅助定位检测网络至损失loss趋于稳定后,放开冻结,将骨干网络与辅助定位检测网络一同训练;
步骤S35:将竹条特征图Fd I、Fm I、FL I分别与特征F1 I
Figure FDA0003367576720000012
进行融合传递;
步骤S36:采取以中心点检测为目标的网络,以预测热力图中心点视为检测目标,将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积,得到物体预测矩阵;
步骤S37:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框尺寸预测矩阵.
步骤S38:将步骤S35融合得到的特征图经过一个3×3的卷积后,经过rule激活函数激活后再经过一个1×1的卷积得到边框偏移预测矩阵;
步骤S4:根据得到的物体预测矩阵、边框尺寸预测矩阵和边框偏移预测矩阵,分别计算物体预测损失、边框尺寸预测损失、边框偏移预测损失,并进一步计算网络总损失;
步骤S5:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到检测结果。
2.根据权利要求1所述的基于辅助学习网络的竹条缺陷检测方法,其特征在于,所述预处理具体为:对不同产地的竹条和不同批次的竹条所呈现的颜色差别,在每次训练前随机的在图像的HSV空间进行微调,并加上随机颜色抖动。
3.根据权利要求1所述的基于辅助学习网络的竹条缺陷检测方法,其特征在于,所述步骤S4具体为:
步骤S41:将物体预测矩阵与实际物体矩阵进行比较,计算两个矩阵之间的focal损失focalloss
步骤S42:将物体边框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的梯度均衡损失(GHM loss)Lsize
步骤S43:将物体偏移框预测矩阵与实际物体边框矩阵进行比较,计算两个矩阵之间的L1损失Loff
步骤S44:将物体预测矩阵的损失focalloss、边框尺寸预测矩阵的损失Lsize、边框偏
移预测矩阵的损失Loff赋予不同的权重,作为网络更新的总损失,其计算公式为
Figure FDA0003367576720000031
其中
Figure FDA0003367576720000032
β=0.1,γ=1。
4.根据权利要求1所述的基于辅助学习网络的竹条缺陷检测方法,其特征在于,所述步骤S5具体为:
步骤S51:将待测图像经过预处理后输入训练后的训练骨干网络和辅助定位检测网络,得到物体预测矩阵、尺寸预测矩阵和边框预测矩阵;
步骤S52:遍历物体预测矩阵的所有通道,然后找到每个通道的物体预测矩阵的激活点,即每个矩阵不为零的点,那么这个点所在的坐标即物体坐标,这个点所在的通道即其所属的类别;
步骤S53:将得到的物体坐标代入尺寸预测矩阵中,所得到的值即为检测到的目标的大小;
步骤S54:将得到物体坐标、所属的类别和标的大小输出,得到检测结果。
CN202011118649.5A 2020-10-19 2020-10-19 基于辅助学习网络的竹条缺陷检测方法 Active CN112184698B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011118649.5A CN112184698B (zh) 2020-10-19 2020-10-19 基于辅助学习网络的竹条缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011118649.5A CN112184698B (zh) 2020-10-19 2020-10-19 基于辅助学习网络的竹条缺陷检测方法

Publications (2)

Publication Number Publication Date
CN112184698A CN112184698A (zh) 2021-01-05
CN112184698B true CN112184698B (zh) 2022-04-15

Family

ID=73950894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011118649.5A Active CN112184698B (zh) 2020-10-19 2020-10-19 基于辅助学习网络的竹条缺陷检测方法

Country Status (1)

Country Link
CN (1) CN112184698B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116309587A (zh) * 2023-05-22 2023-06-23 杭州百子尖科技股份有限公司 一种布料瑕疵检测方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105158258B (zh) * 2015-07-15 2017-09-01 广西师范大学 一种基于计算机视觉的竹条表面缺陷检测方法
GB201704373D0 (en) * 2017-03-20 2017-05-03 Rolls-Royce Ltd Surface defect detection
CN108181316B (zh) * 2018-03-13 2019-12-20 广西师范大学 一种基于机器视觉的竹条缺陷检测方法
CN110245655B (zh) * 2019-05-10 2023-06-06 天津大学 一种基于轻量级图像金字塔网络的单阶段物体检测方法
CN110766681B (zh) * 2019-10-28 2023-04-14 福建帝视信息科技有限公司 一种基于三重损失网络的竹条表面缺陷检测方法

Also Published As

Publication number Publication date
CN112184698A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN108537215B (zh) 一种基于图像目标检测的火焰检测方法
CN105069477B (zh) AdaBoost级联分类器检测图像目标的方法
CN110033473B (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN110766681B (zh) 一种基于三重损失网络的竹条表面缺陷检测方法
CN111768392B (zh) 目标检测方法及装置、电子设备、存储介质
CN109784358B (zh) 一种融合人工特征和深度特征的无参考图像质量评价方法
CN111898406A (zh) 基于焦点损失和多任务级联的人脸检测方法
CN111767861A (zh) 一种基于多判别器生成对抗网络的sar图像目标识别方法
CN108960404A (zh) 一种基于图像的人群计数方法及设备
CN112258470B (zh) 基于缺陷检测的工业图像临界压缩率智能分析***及方法
CN112184698B (zh) 基于辅助学习网络的竹条缺陷检测方法
CN111680705A (zh) 适于目标检测的mb-ssd方法和mb-ssd特征提取网络
CN111222545A (zh) 基于线性规划增量学习的图像分类方法
CN111652297B (zh) 用于图像检测模型训练的故障图片生成方法
CN106980846A (zh) 一种基于深度卷积网络的汽车配件识别装置
CN115631411A (zh) 基于sten网络对不同环境中的绝缘子破损检测方法
CN109284667B (zh) 一种面向视频的三流式人体运动行为空间域检测方法
CN107564013B (zh) 融合局部信息的场景分割修正方法与***
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN117456230A (zh) 一种数据分类方法、***及电子设备
CN114998186B (zh) 基于图像处理的铜始极片表面结疤缺陷检测方法及***
CN115546581A (zh) 一种解耦的增量目标检测方法
CN112541859B (zh) 一种光照自适应的人脸图像增强方法
CN111353976B (zh) 一种基于卷积神经网络的沙粒目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant