CN113128249B - 大蒜的疤识别方法、***及分选设备 - Google Patents

大蒜的疤识别方法、***及分选设备 Download PDF

Info

Publication number
CN113128249B
CN113128249B CN201911371235.0A CN201911371235A CN113128249B CN 113128249 B CN113128249 B CN 113128249B CN 201911371235 A CN201911371235 A CN 201911371235A CN 113128249 B CN113128249 B CN 113128249B
Authority
CN
China
Prior art keywords
garlic
area
scar
preset
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911371235.0A
Other languages
English (en)
Other versions
CN113128249A (zh
Inventor
吴小号
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Meyer Optoelectronic Technology Inc
Original Assignee
Hefei Meyer Optoelectronic Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Meyer Optoelectronic Technology Inc filed Critical Hefei Meyer Optoelectronic Technology Inc
Priority to CN201911371235.0A priority Critical patent/CN113128249B/zh
Publication of CN113128249A publication Critical patent/CN113128249A/zh
Application granted granted Critical
Publication of CN113128249B publication Critical patent/CN113128249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Sorting Of Articles (AREA)

Abstract

本发明提出一种大蒜的疤识别方法、***及分选设备,该方法包括以下步骤:采集大蒜图像;对大蒜图像中的大蒜进行疤识别,得到缺陷区域;识别大蒜图像中的预设区域;根据预设区域排除缺陷区域中的误识别,得到疤区域。本发明能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。

Description

大蒜的疤识别方法、***及分选设备
技术领域
本发明涉及色选技术领域,特别涉及一种大蒜的疤识别方法、***及分选设备。
背景技术
大蒜在生长过程中会受到各种外在、内在因素的影响,从而形成了疤,带疤大蒜不能食用,会影响售卖,因此需要对带疤大蒜进行筛选。
目前主要通过分选设备,例如色选机对大蒜进行筛选,以识别出带疤大蒜,然而目前色选机对带疤大蒜的识别准确率并不高。
为了提高色选机对带疤大蒜的识别准确率,发明人对目前的大蒜色选方式进行研究,发现目前的大蒜色选方式至少存在以下问题:由于大蒜的一些区域,如根部区域与疤区域的颜色及形状的相似度都很高,导致色选机在对大蒜进行分选时,对好蒜的误识别概率很高,也就是大蒜疤识别的准确率不高。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的一个目的在于提出一种大蒜的疤识别方法,该方法能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
为此,本发明的第二个目的在于提出一种大蒜的疤识别***。
为此,本发明的第三个目的在于提出一种分选设备。
为了实现上述目的,本发明第一方面的实施例提出了一种大蒜的疤识别方法,包括以下步骤:采集大蒜图像;对所述大蒜图像中的大蒜进行疤识别,得到缺陷区域;识别所述大蒜图像中的预设区域;根据所述预设区域排除所述缺陷区域中的误识别,得到疤区域。
根据本发明实施例的大蒜的疤识别方法,对采集的大蒜图像进行疤识别,得到缺陷区域,并识别大蒜图像中的预设区域,根据预设区域排除缺陷区域中的误识别,得到疤区域,从而能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
另外,根据本发明上述实施例的大蒜的疤识别方法还可以具有如下附加的技术特征:
在一些示例中,所述对所述大蒜图像中的大蒜进行疤识别,具体包括:通过训练好的基于卷积神经网络的识别模型对所述大蒜图像中的大蒜进行疤识别;或者通过色选方式对所述大蒜图像中的大蒜进行疤识别。
在一些示例中,所述识别所述大蒜图像中的预设区域,具体包括:确定大蒜的主轴,获取所述主轴与所述大蒜边缘的第一交点和第二交点,其中,所述主轴为贯穿所述大蒜根部区域和尾部区域的轴;沿所述主轴在所述大蒜上分别取包括所述第一交点的预设长度的第一区域和包括所述第二交点的预设长度的第二区域;将所述第一区域和所述第二区域作为所述预设区域,或将所述第一区域和所述第二区域中面积变化幅度较小的一者作为所述预设区域。
在一些示例中,所述识别所述大蒜图像中的预设区域,具体包括:提取具有缺陷区域的大蒜图像;以该大蒜图像的背景灰度为阈值,进行二值化处理,得到第一目标区域;以大蒜根部区域的灰度为阈值,进行二值化处理,得到第二目标区域;对所述第一目标区域进行腐蚀,得到第三目标区域;从所述第二目标区域中去除其与所述第三目标区域的交集区域,得到预设区域。
在一些示例中,根据所述预设区域排除所述缺陷区域中的误识别,具体包括:针对与预设区域有重叠的缺陷区域,如果重叠面积占该缺陷区域面积的比例大于预设比例阈值,则判定该缺陷区域为误识别,并从识别到的缺陷区域中去除该误识别。
在一些示例中,所述确定大蒜的主轴,具体包括:计算所述大蒜的最小外接矩;确定所述最小外接矩的长中心轴;将所述长中心轴作为所述大蒜的主轴。
在一些示例中,所述确定大蒜的主轴,具体包括:提取所述大蒜的所有边界点;根据所有边界点的坐标拟合出椭圆;将所述椭圆的长轴作为所述大蒜的主轴。
为了实现上述目的,本发明第二方面的实施例提出了一种大蒜的疤识别***,包括:采集模块,用于采集大蒜图像;第一识别模块,用于对所述大蒜图像中的大蒜进行疤识别,得到缺陷区域;第二识别模块,用于识别所述大蒜图像中的预设区域;处理模块,用于根据所述预设区域排除所述缺陷区域中的误识别,得到疤区域。
根据本发明实施例的大蒜的疤识别***,对采集的大蒜图像进行疤识别,得到缺陷区域,并识别大蒜图像中的预设区域,根据预设区域排除缺陷区域中的误识别,得到疤区域,从而能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
另外,根据本发明上述实施例的大蒜的疤识别***还可以具有如下附加的技术特征:
在一些示例中,所述第一识别模块具体用于:通过训练好的基于卷积神经网络的识别模型对所述大蒜图像中的大蒜进行疤识别;或者通过色选方式对所述大蒜图像中的大蒜进行疤识别。
为了实现上述目的,本发明第三方面的实施例提出了一种分选设备,包括本发明上述实施例所述的大蒜的疤识别***。
根据本发明实施例的分选设备,能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的大蒜的疤识别方法的流程图;
图2是根据本发明一个实施例的大蒜的疤识别***的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
以下结合附图描述根据本发明实施例的大蒜的疤识别方法、***及分选设备。
图1是根据本发明一个实施例的大蒜的疤识别方法的流程图。如图1所示,该大蒜的疤识别方法,包括以下步骤:
步骤S1:采集大蒜图像。
具体的,这里的大蒜可以为带皮或不带皮的带根蒜瓣,可利用高速相机对皮带上正常输送的大蒜进行图像采集,得到大蒜图像。
步骤S2:对大蒜图像中的大蒜进行疤识别,得到缺陷区域。
具体的,对大蒜图像中的大蒜进行疤识别的过程,具体包括:通过训练好的基于卷积神经网络的识别模型对大蒜图像中的大蒜进行疤识别;或者通过色选方式对大蒜图像中的大蒜进行疤识别。
其中,基于卷积神经网络的识别模型通过以下方式获得:采集预设数量的大蒜图像样本;对大蒜图像样本进行数据增广处理,以快速获取样本,并使样本更加丰富,通过训练可以使识别模型具有很好的识别精度和鲁棒性,数据增广处理具体包括:不同角度的旋转、镜像、添加噪声、改变光照强度等;对数据增广处理后的大蒜图像样本中的大蒜的疤区域进行人工标注;将人工标注完成后的数据作为训练数据对卷积神经网络网络进行训练,得到识别模型。进而,将待检测大蒜图像,即采集到的大蒜图像作为识别模型的输入,对缺陷区域进行定位识别。也即是说,大蒜图像经训练得到的识别模型进行检测后,得到缺陷区域。或者,通过色选的方式对大蒜图像中的缺陷区域进行定位识别。
步骤S3:识别大蒜图像中的预设区域。其中,预设区域为大蒜上与疤区域具有相似的识别特征的区域,疤区域的识别特征是可以用来识别出疤区域的特征。预设区域是会影响疤识别结果准确性的区域,具体是从易被误识别为疤区域的区域中确定的至少一种区域,如大蒜的根部区域的形状和颜色与疤区域相似,则可以将大蒜的根部区域作为预设区域,或者还将根部区域和尾部区域作为预设区域,这是因为大蒜的疤区域出现在尾部的概率非常小。
一种实施例中,识别大蒜图像中的预设区域的过程,具体包括:确定大蒜的主轴,获取主轴与大蒜边缘的第一交点和第二交点,其中,主轴为贯穿大蒜根部区域和尾部区域的轴;沿主轴在大蒜上分别取包括第一交点的预设长度的第一区域和包括第二交点的预设长度的第二区域;将第一区域和第二区域作为预设区域,或将第一区域和第二区域中面积变化幅度较小的一者作为预设区域。需要说明的是,第一区域和第二区域在垂直主轴的方向的宽度应该覆盖大蒜在这一方向的宽度,也就是说在这一方向上截取大蒜完整的宽度。
通过上述方式识别出的第一区域和第二区域中的一者为大蒜根部区域,另一者为大蒜尾部区域。一种实施方式中,预设区域可包括大蒜根部和尾部区域,将第一区域和第二区域作为预设区域,即,实现将识别出的根部和尾部区域作为预设区域。由于疤区域出现在尾部区域的概率较小,所以处理时,连同尾部区域被识别为预设区域也是可以的。另一种实施方式中,预设区域可以仅包括大蒜根部区域,第一区域和第二区域中面积变化幅度较小的一者通常为大蒜根部区域,将两者中面积变化幅度较小的一者作为预设区域,即,实现仅将识别出的大蒜根部区域作为预设区域。
在另一实施例中,识别大蒜图像中的预设区域的过程,还可以具体包括:提取具有缺陷区域的大蒜图像;以该大蒜图像的背景灰度为阈值,进行二值化处理,得到第一目标区域,其中,第一目标区域包括大蒜区域,还可能有阴影区域;以根部区域的灰度为阈值,进行二值化处理,得到第二目标区域,第二目标区域包括大蒜根部区域,还可能包括疤区域和阴影区域;对第一目标区域进行腐蚀,得到第三目标区域;从第二目标区域中去除其与第三目标区域的交集区域,得到预设区域,此处得到的预设区域包括大蒜根部区域,还可能有阴影区域。实际上,除了大蒜根部区域会造成疤区域的误识别,大蒜的阴影区域也可能会造成疤区域的误识别。需要说明的是,选为阈值的背景灰度可以为背景灰度的平均值,可以是固定光源照射下呈现的背景的平均灰度;选为阈值的根部区域灰度可以为采样统计的部分大蒜的最亮根部区域的灰度,或者该部分大蒜的根部区域灰度的平均值;第一目标区域的腐蚀尺寸可以以腐蚀掉大蒜的根部区域为目标来设置。
在一个实施例中,确定大蒜的主轴的方式,具体包括:计算大蒜的最小外接矩;确定最小外接矩的长中心轴;将该长中心轴作为大蒜的主轴。最小外接矩的长中心轴为过最小外接矩的两个短边中心的轴,大蒜的最长长度通常是沿着贯穿根部区域和尾部区域方向的长度,计算得到的最小外接矩的长边也是沿着大蒜最长长度方向的,因此,长中心轴穿过大蒜根部区域和尾部区域的概率非常高且接近贯穿大蒜根部区域和尾部区域中心的轴,将长中心轴确定为大蒜的主轴准确率也更高。
或者,在另一个实施例中,确定大蒜的主轴的方式,具体包括:提取该大蒜的所有边界点;根据所有边界点的坐标拟合出椭圆,如通过对所有边界点描点得到椭圆;将椭圆的长轴作为大蒜的主轴。另外,针对任一颗大蒜,提取并保存该大蒜的所有边界点,基于该大蒜的所有边界点,通过椭圆拟合,得到相应的椭圆。通过这种方式获得大蒜的主轴,处理过程简单,且准确率高,不仅有利于提高疤识别的准确率,还有利于提高识别效率。
步骤S4:根据预设区域排除缺陷区域中的误识别,得到疤区域,从而提高疤区域识别的准确率。
如前所述,可将第一区域和第二区域作为预设区域,或将第一区域和第二区域中面积变化幅度较小的一者作为预设区域,或者将从第二目标区域中去除其与第三目标区域的交集区域得到的区域作为预设区域。
具体的,根据预设区域排除缺陷区域中的误识别的过程,具体包括:针对与预设区域有重叠的缺陷区域,如果重叠面积占该缺陷区域面积的比例大于预设比例阈值,则判定该缺陷区域为误识别,并从识别到的缺陷区域中去除该误识别,从而提高疤区域识别的准确率。其中,预设比例阈值可以根据经验设置,如可以设置为大于50%的数,当然,也可以根据实际识别结果的反馈来调整确定该值。
根据本发明实施例的大蒜的疤识别方法,对采集的大蒜图像进行疤识别,得到缺陷区域,并识别大蒜图像中的预设区域,根据预设区域排除缺陷区域中的误识别,得到疤区域,从而能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
本发明的进一步实施例还提出了一种大蒜的疤识别***。
图2是根据本发明一个实施例的大蒜的疤识别***的结构框图。如图2所示,该大蒜的疤识别***100,包括:采集模块110、第一识别模块120、第二识别模块130和处理模块140。
具体的,采集模块110用于采集大蒜图像。
具体的,这里的大蒜可以为带皮或不带皮的带根蒜瓣,采集模块110可包括高速相机,通过高速相机对皮带上正常输送的大蒜进行图像采集,得到大蒜图像。
第一识别模块120用于对大蒜图像中的大蒜进行疤识别,得到缺陷区域。
具体的,第一识别模块120对大蒜图像中的大蒜进行疤识别的过程,具体包括:通过训练好的基于卷积神经网络的识别模型对大蒜图像中的大蒜进行疤识别;或者通过色选方式对大蒜图像中的大蒜进行疤识别。
其中,基于卷积神经网络的识别模型通过以下方式获得:采集预设数量的大蒜图像样本;对大蒜图像样本进行数据增广处理,数据增广处理具体包括:不同角度的旋转、镜像、添加噪声、改变光照强度等;对数据增广处理后的大蒜图像样本中的大蒜的疤区域进行人工标注;将人工标注完成后的数据作为训练数据对卷积神经网络网络进行训练,得到识别模型。进而,将待检测大蒜图像,即采集到的大蒜图像作为识别模型的输入,对缺陷区域进行识别定位。也即是说,大蒜图像经训练得到的识别模型进行检测后,得到缺陷区域。或者,通过色选的方式对大蒜图像中的缺陷区域进行定位识别。
第二识别模块130用于识别大蒜图像中的预设区域。其中,预设区域为大蒜上与疤区域具有相似的识别特征的区域,疤区域的识别特征是可以用来识别出疤区域的特征。预设区域是会影响疤识别结果准确性的区域,具体是从易被误识别为疤区域的区域中确定的至少一种区域,如大蒜的根部区域的形状和颜色与疤区域相似,则可以将大蒜的根部区域作为预设区域,或者还将根部区域和尾部区域作为预设区域,这是因为大蒜的疤区域出现在尾部的概率非常小。
在一实施例中,第二识别模块130识别大蒜图像中的预设区域的过程,具体包括:确定大蒜的主轴,获取主轴与大蒜边缘的第一交点和第二交点,其中,主轴为贯穿大蒜根部区域和尾部区域的轴;沿主轴在大蒜上分别取包括第一交点的预设长度的第一区域和包括第二交点的预设长度的第二区域;将第一区域和第二区域作为预设区域,或将第一区域和第二区域中面积变化幅度较小的一者作为预设区域。需要说明的是,第一区域和第二区域在垂直主轴的方向的宽度应该覆盖大蒜在这一方向的宽度,也就是说在这一方向上截取大蒜完整的宽度。
通过上述方式识别出的第一区域和第二区域中的一者为大蒜根部区域,另一者为大蒜尾部区域。一种实施方式中,预设区域可包括大蒜根部和尾部区域,将第一区域和第二区域作为预设区域,即,实现将识别出的根部和尾部区域作为预设区域。由于疤区域出现在尾部区域的概率较小,所以处理时,连同尾部区域被识别为预设区域也是可以的。另一种实施方式中,预设区域可以仅包括大蒜根部区域,第一区域和第二区域中面积变化幅度较小的一者通常为大蒜根部区域,将两者中面积变化幅度较小的一者作为预设区域,即,实现仅将识别出的大蒜根部区域作为预设区域。
在另一实施例中,第二识别模块130识别大蒜图像中的预设区域的过程,还可以具体包括:提取具有缺陷区域的大蒜图像;以该大蒜图像的背景灰度为阈值,进行二值化处理,得到第一目标区域,其中,第一目标区域包括大蒜区域,还可能有阴影区域;以根部区域的灰度为阈值,进行二值化处理,得到第二目标区域,第二目标区域包括大蒜根部区域,还可能包括疤区域和阴影区域;对第一目标区域进行腐蚀,得到第三目标区域;从第二目标区域中去除其与第三目标区域的交集区域,得到预设区域,此处得到的预设区域包括大蒜根部区域,还可能有阴影区域。实际上,除了大蒜根部区域会造成疤区域的误识别,大蒜的阴影区域也可能会造成疤区域的误识别。需要说明的是,选为阈值的背景灰度可以为背景灰度的平均值,可以是固定光源照射下呈现的背景的平均灰度;选为阈值的根部区域灰度可以为采样统计的部分大蒜的最亮根部区域的灰度,或者该部分大蒜的根部区域灰度的平均值;第一目标区域的腐蚀尺寸以腐蚀掉大蒜的根部区域为目标来设置。
其中,在一个实施例中,确定大蒜的主轴的方式,具体包括:具体包括:计算大蒜的最小外接矩;确定最小外接矩的长中心轴;将该长中心轴作为大蒜的主轴。最小外接矩的长中心轴为过最小外接矩的两个短边中心的轴,大蒜的最长长度通常是沿着贯穿根部区域和尾部区域方向的长度,计算得到的最小外接矩的长边也是沿着大蒜最长长度方向的,因此,长中心轴穿过大蒜根部区域和尾部区域的概率非常高且接近贯穿大蒜根部区域和尾部区域中心的轴,将长中心轴确定为大蒜的主轴准确率也更高。
或者,在另一个实施例中,确定大蒜的主轴的方式,具体包括:提取该大蒜的所有边界点;根据所有边界点的坐标拟合出椭圆,如通过对所有边界点描点得到椭圆;将椭圆的长轴作为大蒜的主轴。另外,针对任一颗大蒜,提取并保存该大蒜的所有边界点,基于该大蒜的所有边界点,通过椭圆拟合,得到相应的椭圆。通过这种方式获得大蒜的主轴,处理过程简单,且准确率高,不仅有利于提高疤识别的准确率,还有利于提高识别效率。
处理模块140根据预设区域对缺陷区域中的误识别排除,得到疤区域,从而提高疤区域识别的准确率。
如前所述,可将第一区域和第二区域作为预设区域,或将第一区域和第二区域中面积变化幅度较小的一者作为预设区域,或者将从第二目标区域中去除其与第三目标区域的交集区域得到的区域作为预设区域。
具体的,处理模块140根据预设区域排除缺陷区域中的误识别的过程,具体包括:针对与预设区域有重叠的缺陷区域,如果重叠面积占该缺陷区域面积的比例大于预设比例阈值,则判定该缺陷区域为误识别,并从识别到的缺陷区域中去除该误识别,从而提高疤区域识别的准确率。其中,预设比例阈值可以根据经验设置,如可以设置为大于50%的数,当然,也可以根据实际识别结果的反馈来调整确定该值。
本发明实施例的大蒜的疤识别***的各个模块的具体执行步骤与本发明实施例的大蒜的疤识别方法中的具体实现方式类似,其他具体细节可以请参见前述对应部分的描述。
根据本发明实施例的大蒜的疤识别***,对采集的大蒜图像进行疤识别,得到缺陷区域,并识别大蒜图像中的预设区域,根据预设区域排除缺陷区域中的误识别,得到疤区域,从而能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
本发明的进一步实施例还提出了一种分选设备,该分选设备包括本发明上述任意一个实施例所描述的大蒜的疤识别***。因此,本发明实施例的分选设备的具体实现方式与本发明实施例的大蒜的疤识别***的具体实现方式类似,具体请参见***部分的描述,为了减少冗余,此处不再赘述。
在具体实施例中,该分选设备例如为色选机。
根据本发明实施例的分选设备,对采集的大蒜图像进行疤识别,得到缺陷区域,并识别大蒜图像中的预设区域,根据预设区域排除缺陷区域中的误识别,得到疤区域,从而能够有效识别大蒜的疤区域,同时减少误识别,提高大蒜疤识别的准确率。
另外,根据本发明实施例的分选设备的其它构成以及作用对于本领域的普通技术人员而言都是已知的,为了减少冗余,不做赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (9)

1.一种大蒜的疤识别方法,其特征在于,包括以下步骤:
采集大蒜图像;
对所述大蒜图像中的大蒜进行疤识别,得到缺陷区域;
识别所述大蒜图像中的预设区域;
根据所述预设区域排除所述缺陷区域中的误识别,得到疤区域;
所述识别所述大蒜图像中的预设区域,具体包括:
确定大蒜的主轴,获取所述主轴与所述大蒜边缘的第一交点和第二交点,其中,所述主轴为贯穿所述大蒜根部区域和尾部区域的轴;
沿所述主轴在所述大蒜上分别取包括所述第一交点的预设长度的第一区域和包括所述第二交点的预设长度的第二区域;
将所述第一区域和所述第二区域作为所述预设区域,或将所述第一区域和所述第二区域中面积变化幅度较小的一者作为所述预设区域。
2.根据权利要求1所述的大蒜的疤识别方法,其特征在于,所述对所述大蒜图像中的大蒜进行疤识别,具体包括:
通过训练好的基于卷积神经网络的识别模型对所述大蒜图像中的大蒜进行疤识别;或者
通过色选方式对所述大蒜图像中的大蒜进行疤识别。
3.根据权利要求1所述的大蒜的疤识别方法,其特征在于,所述识别所述大蒜图像中的预设区域,具体包括:
提取具有缺陷区域的大蒜图像;
以该大蒜图像的背景灰度为阈值,进行二值化处理,得到第一目标区域;
以大蒜根部区域的灰度为阈值,进行二值化处理,得到第二目标区域;
对所述第一目标区域进行腐蚀,得到第三目标区域;
从所述第二目标区域中去除其与所述第三目标区域的交集区域,得到所述预设区域。
4.根据权利要求1或3所述的大蒜的疤识别方法,其特征在于,根据所述预设区域排除所述缺陷区域中的误识别,具体包括:
针对与预设区域有重叠的缺陷区域,如果重叠面积占该缺陷区域面积的比例大于预设比例阈值,则判定该缺陷区域为误识别,并从识别到的缺陷区域中去除该误识别。
5.据权利要求1所述的大蒜的疤识别方法,其特征在于,所述确定大蒜的主轴,具体包括:
计算所述大蒜的最小外接矩;
确定所述最小外接矩的长中心轴;
将所述长中心轴作为所述大蒜的主轴。
6.据权利要求1所述的大蒜的疤识别方法,其特征在于,所述确定大蒜的主轴,具体包括:
提取所述大蒜的所有边界点;
根据所有边界点的坐标拟合出椭圆;
将所述椭圆的长轴作为所述大蒜的主轴。
7.一种大蒜的疤识别***,其特征在于,包括:
采集模块,用于采集大蒜图像;
第一识别模块,用于对所述大蒜图像中的大蒜进行疤识别,得到缺陷区域;
第二识别模块,用于识别所述大蒜图像中的预设区域;
处理模块,用于根据所述预设区域排除所述缺陷区域中的误识别,得到疤区域;
所述识别所述大蒜图像中的预设区域,具体包括:
确定大蒜的主轴,获取所述主轴与所述大蒜边缘的第一交点和第二交点,其中,所述主轴为贯穿所述大蒜根部区域和尾部区域的轴;
沿所述主轴在所述大蒜上分别取包括所述第一交点的预设长度的第一区域和包括所述第二交点的预设长度的第二区域;
将所述第一区域和所述第二区域作为所述预设区域,或将所述第一区域和所述第二区域中面积变化幅度较小的一者作为所述预设区域。
8.根据权利要求7所述的大蒜的疤识别***,其特征在于,所述第一识别模块具体用于:
通过训练好的基于卷积神经网络的识别模型对所述大蒜图像中的大蒜进行疤识别;或者
通过色选方式对所述大蒜图像中的大蒜进行疤识别。
9.一种分选设备,其特征在于,包括如权利要求7或8所述的大蒜的疤识别***。
CN201911371235.0A 2019-12-26 2019-12-26 大蒜的疤识别方法、***及分选设备 Active CN113128249B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911371235.0A CN113128249B (zh) 2019-12-26 2019-12-26 大蒜的疤识别方法、***及分选设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911371235.0A CN113128249B (zh) 2019-12-26 2019-12-26 大蒜的疤识别方法、***及分选设备

Publications (2)

Publication Number Publication Date
CN113128249A CN113128249A (zh) 2021-07-16
CN113128249B true CN113128249B (zh) 2022-08-23

Family

ID=76767440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911371235.0A Active CN113128249B (zh) 2019-12-26 2019-12-26 大蒜的疤识别方法、***及分选设备

Country Status (1)

Country Link
CN (1) CN113128249B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912235B (zh) * 2023-09-08 2023-11-24 金乡县金禧园食品有限公司 基于计算机视觉的脱水蒜状态智能检测方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105044128A (zh) * 2015-07-14 2015-11-11 浙江大学 基于光照背景差影法的水果表面缺陷检测方法
CN105046700A (zh) * 2015-07-09 2015-11-11 北京农业智能装备技术研究中心 基于亮度校正与颜色分类的水果表面缺陷检测方法及***
CN105241555A (zh) * 2015-09-09 2016-01-13 浙江大学 基于水果表面不同组织热特性的水果损伤检测方法及装置
CN107563999A (zh) * 2017-09-05 2018-01-09 华中科技大学 一种基于卷积神经网络的芯片缺陷识别方法
CN108230321A (zh) * 2018-01-19 2018-06-29 深圳市亿图视觉自动化技术有限公司 缺陷检测方法及装置
CN108665450A (zh) * 2018-04-28 2018-10-16 中国农业大学 一种玉米果穗机械损伤区域识别方法
CN108765374A (zh) * 2018-04-27 2018-11-06 华南理工大学 一种宫颈涂片图像中异常核区域筛查的方法
CN109543647A (zh) * 2018-11-30 2019-03-29 国信优易数据有限公司 一种道路异常识别方法、装置、设备及介质
CN109709103A (zh) * 2019-01-17 2019-05-03 北京农业智能装备技术研究中心 一种环形条纹打光成像的柑橘早期腐果识别***及方法
CN109816622A (zh) * 2017-11-22 2019-05-28 深圳市祈飞科技有限公司 一种基于分块的自适应水果缺陷检测方法及***
CN110473194A (zh) * 2019-08-12 2019-11-19 西南大学 基于多图像块阈值分割算法的水果表面缺陷检测方法
CN110609037A (zh) * 2019-07-12 2019-12-24 北京旷视科技有限公司 产品缺陷检测***及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6086455B2 (ja) * 2015-05-27 2017-03-01 株式会社ニレコ 青果物選別装置及び青果物選別方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046700A (zh) * 2015-07-09 2015-11-11 北京农业智能装备技术研究中心 基于亮度校正与颜色分类的水果表面缺陷检测方法及***
CN105044128A (zh) * 2015-07-14 2015-11-11 浙江大学 基于光照背景差影法的水果表面缺陷检测方法
CN105241555A (zh) * 2015-09-09 2016-01-13 浙江大学 基于水果表面不同组织热特性的水果损伤检测方法及装置
CN107563999A (zh) * 2017-09-05 2018-01-09 华中科技大学 一种基于卷积神经网络的芯片缺陷识别方法
CN109816622A (zh) * 2017-11-22 2019-05-28 深圳市祈飞科技有限公司 一种基于分块的自适应水果缺陷检测方法及***
CN108230321A (zh) * 2018-01-19 2018-06-29 深圳市亿图视觉自动化技术有限公司 缺陷检测方法及装置
CN108765374A (zh) * 2018-04-27 2018-11-06 华南理工大学 一种宫颈涂片图像中异常核区域筛查的方法
CN108665450A (zh) * 2018-04-28 2018-10-16 中国农业大学 一种玉米果穗机械损伤区域识别方法
CN109543647A (zh) * 2018-11-30 2019-03-29 国信优易数据有限公司 一种道路异常识别方法、装置、设备及介质
CN109709103A (zh) * 2019-01-17 2019-05-03 北京农业智能装备技术研究中心 一种环形条纹打光成像的柑橘早期腐果识别***及方法
CN110609037A (zh) * 2019-07-12 2019-12-24 北京旷视科技有限公司 产品缺陷检测***及方法
CN110473194A (zh) * 2019-08-12 2019-11-19 西南大学 基于多图像块阈值分割算法的水果表面缺陷检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Masking based Segmentation of Rotten Fruits;Kyamelia Roy等;《2019 International Conference on Opto-Electronics and Applied Optics (Optronix)》;20191010;1-4 *
Segmentation Techniques for Rotten Fruit detection;Kyamelia Roy等;《2019 International Conference on Opto-Electronics and Applied Optics (Optronix)》;20191010;1-4 *
基于机器视觉的砀山梨表面缺陷识别;蒋林权;《中国优秀硕士学位论文全文数据库 农业科技辑》;20190515;第2019年卷(第5期);D048-77 *
基于机器视觉的苹果果梗/花萼与缺陷识别;邱光应;《中国优秀硕士学位论文全文数据库 农业科技辑》;20180215;第2018年卷(第2期);D048-134 *

Also Published As

Publication number Publication date
CN113128249A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
CN105389593B (zh) 基于surf特征的图像物体识别方法
CN107389701A (zh) 一种基于图像的pcb表观缺陷自动检测***及方法
CN111340130B (zh) 一种基于深度学习和影像组学的泌尿结石检测分类方法
CN111275679B (zh) 一种基于图像的太阳能电池缺陷检测***及方法
CN109684906B (zh) 基于深度学习的检测红脂大小蠹的方法
US20120201430A1 (en) System and method for animal identification using iris images
CN110210477B (zh) 一种数字式仪表读数识别方法
CN111986183B (zh) 一种染色体散型图像自动分割识别***及装置
CN111852792B (zh) 一种基于机器视觉的风机叶片缺陷自诊断定位方法
CN104198497A (zh) 一种基于视觉显著图和支持向量机的表面缺陷检测方法
US20090167850A1 (en) Method for identifying guignardia citricarpa
CN113256598B (zh) 一种用于芯片生产的视觉检测***
CN112069985A (zh) 基于深度学习的高分辨率大田图像稻穗检测与计数方法
CN113962976A (zh) 用于病理玻片数字图像的质量评估方法
JP5707570B2 (ja) 物体識別装置、物体識別方法、及び、物体識別装置の学習方法
CN113128249B (zh) 大蒜的疤识别方法、***及分选设备
CN111122590A (zh) 一种陶瓷表面缺陷检测装置及检测方法
CN113052177B (zh) 大蒜的疤识别方法、装置及分选设备
CN116434206A (zh) 一种基于机器视觉技术的棉花质量性状检测方法
KR20190114241A (ko) 딥러닝 기반의 독성조류 판별 및 셀카운팅 장치 및 그 방법
CN111178405A (zh) 一种融合多种神经网络的相似物体识别方法
Cao et al. Automatic latent value determination
CN107507192B (zh) 一种水稻剑叶夹角在体测量便携装置及在体测量方法
CN203970354U (zh) 一种基于移动终端的中医舌象分析***
CN110619273B (zh) 一种高效的虹膜识别方法以及识别装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant