CN107917920B - 边缘检测设备、边缘检测方法以及物体保持设备 - Google Patents

边缘检测设备、边缘检测方法以及物体保持设备 Download PDF

Info

Publication number
CN107917920B
CN107917920B CN201710810603.1A CN201710810603A CN107917920B CN 107917920 B CN107917920 B CN 107917920B CN 201710810603 A CN201710810603 A CN 201710810603A CN 107917920 B CN107917920 B CN 107917920B
Authority
CN
China
Prior art keywords
light emitting
image data
edge
plane
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710810603.1A
Other languages
English (en)
Other versions
CN107917920A (zh
Inventor
加纳宏弥
冈野英明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017162757A external-priority patent/JP6845768B2/ja
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN107917920A publication Critical patent/CN107917920A/zh
Application granted granted Critical
Publication of CN107917920B publication Critical patent/CN107917920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/028Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Analytical Chemistry (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

实施例提供了一种能够正确地检测相邻地加载的物体的边缘的边缘检测设备、边缘检测方法以及物体保持设备。一种边缘检测设备,包括光源、成像部件和检测器。光源包括用于用光来照射相邻的多个物体的至少三个光发射部件。成像部件对每个光发射部件所照射的物体的表面进行成像,并且生成表面的多个图像数据。检测器基于多个图像数据的至少两个不同组合来检测被成像的表面的边缘。

Description

边缘检测设备、边缘检测方法以及物体保持设备
相关申请的交叉引用
本申请基于并要求享有于2016年10月11日提交的日本专利申请 No.2016-200197以及于2017年8月25日提交的日本专利申请 No.2017-162757的优先权;这两项日本专利申请的全部内容以引用的方式并入本文中。
技术领域
本文所描述的实施例总体上涉及边缘检测设备、边缘检测方法以及物体保持设备。
背景技术
当前,在配送和物流行业中,通过邮购市场的扩展,物品的处理量有增加的趋势。因此,各物流公司应对物流***的自动化。
对于仓库中物体的输送和保管,发展了使用带式输送机的自动化。然而,对于将物体移动到另一个地方的传送工作(例如,卸垛和拾取),自动化是困难的,并且需要一个自动化的想法。为了使传送工作自动化,正确地检测物体的加载状态和位置状态非常重要。作为检测方法,通过从多个光源中的每一个光源照射到物体,并且通过二维图像传感器(等等)对来自物体的反射光进行成像,从图像中检测物体的边缘和边界。在该方法中,例如,如果多个物体相邻并且被三维地定位,则不能正确地检测其边缘和边界。因此,期望有一种设备,即使多个物体相邻地定位,也能够正确地检测其边缘和边界。
发明内容
实施例提供一种能够正确地检测相邻地加载的物体的边缘的边缘检测设备、边缘检测方法以及物体保持设备。
根据一个实施例,一种边缘检测设备,包括光源、成像部件和检测器。光源包括用于用光来照射相邻的多个物体的至少三个光发射部件。成像部件对每个光发射部件所照射的物体的表面进行成像,并且生成表面的多个图像数据。检测器基于多个图像数据的至少两个不同组合来检测被成像的表面的边缘。
附图说明
图1是示出根据第一实施例的边缘检测设备1的一个示例的俯视图。
图2是示出在从不同位置照射两个物体的条件下这两个物体的边缘和成像部件的一个示例的放大图。
图3是根据第一实施例的检测器进行的边缘检测处理的流程图。
图4是示出多个箱体(物体)的位置的一个示例的图像数据。
图5是示出用于第一实施例的成像部件和光源的位置的示意图。
图6是通过从不同光源照射而获取的两个图像数据,以及相应图像数据之间的两个差值图像。
图7是通过将两个差值图像相乘而获取的图像数据。
图8是示出根据第二实施例的边缘检测设备1的一个示例的俯视图。
图9是示出根据第三实施例的边缘检测设备1的一个示例的俯视图。
图10A和图10B是示出根据第四实施例的物体保持设备的一个示例的俯视图和前视图。
图11是示出在物体的表面上具有附加物的该物体的一个示例的示意图。
图12是示出被附加物捆绑的物体的一个示例的示意图。
图13A和图13B是通过成像物体获取的常规彩色图像和由第三实施例的边缘检测设备获取的边缘检测图像。
图14是依据饱和度划分其颜色的多个图像的一个示例。
图15A和图15B是通过成像物体获取的常规彩色图像,以及通过重叠每个分色图像数据的外部形状而获取的图像。
图16是根据第五实施例的边缘检测方法的处理的流程图。
具体实施方式
在下文中,以下参考附图来描述根据实施例的边缘检测设备。具有相同的附图标记表示相同的组件。顺便提及,附图是示意性的或概念性的,各部分的厚度和宽度之间的关系、部分之间的尺寸比等不一定与实际相同。此外,即使相同的部分也可以在附图中以不同的尺寸或尺寸比示出。
(第一实施例)
将参考图1来说明第一实施例。图1是示出根据第一实施例的边缘检测设备1的一个示例的俯视图。
如图1所示,多个物体G与边缘检测设备1相对放置。
此处,为了简化说明,将定义+X方向、-X方向、+Y方向、-Y方向、 +Z方向和-Z方向。例如,+X方向、-X方向、+Y方向和-Y方向是大致平行于水平面的方向。-X方向是与+X方向相反的方向。在第一实施例中, +X方向是沿着其针对边缘检测设备1定位物体G的方向。如图1所示,针对边缘检测设备1定位物体G的方向是从边缘检测设备1到物体G的方向。 +Y方向是与+X方向交叉的方向(例如,大致垂直的方向)。-Y方向是与 +Y方向相反的方向。+Z方向是与+X方向和+Y方向交叉的方向(例如,大致垂直的方向),即大致垂直向上的方向。如图1所示,+Z方向是沿纸面的这一侧的方向(图1)。-Z方向是与+Z方向相反的方向,例如大致垂直向下的方向。
多个物体G相邻地定位,例如被放置在架子上。可替换地,它们可以被放置在托盘、篮形托架或箱式托盘上。物体G可以堆叠加载。此外,物体G的形状是长方体的或立方体的。例如,它是纸板箱或容器,其中包装有商品。物体G的形状不限于长方体等。它可以是多面体。
物体G的边缘是物体的面的边缘部分或边界。边缘不是物体的某个面的所有边缘部分或边界,并且包括其一部分。即,如果面的形状是矩形,则边缘可以是沿着垂直方向的边缘和沿着水平方向的边缘中的任何一个。此外,在形成物体的多个面中,边缘包括角、边沿和两个面接触的边缘。
如图1所示,边缘检测设备1配备有光源2、成像部件3、检测器4、控制器5和显示器6。光源2用光照射多个物体G。成像部件3对多个物体 G(由光源2的每个光发射部件21~24照射)的面进行成像,并获取多个图像数据作为成像结果。检测器4基于多个图像数据来检测所成像的物体G 的面的边缘。控制器5控制光源2和成像部件3的驱动。显示器6显示物体G的边缘信息(由检测器4检测的)。
边缘检测设备1从(被成像的)多个物体G的面的图像数据中检测面的边缘。此处,面是被光源照射的多个物体G中的面。边缘检测设备1从图像数据中检测亮度突然变化的部分,并将该部分检测为物体的边缘。
在第一实施例中,光源2包括四个光发射部件21~24。光发射部件21 ~24用光照射多个物体G,并且光发射部件21~24中的每一个位于不同的位置。光发射部件21~24分别在不同的定时照射,并用光照射多个物体G。
如图1所示,光发射部件21~24被定位以便与物体G相对,并且用光照射包括物体G的B面的区域。物体G的B面是成像部件3进行成像的面,作为物体G的边缘的检测目标。包括B面的区域不限于与光源2相对的物体G的B面。B面包括待被照射的物体的其它面和区域(除B面外)。光发射部件21~24被定位以便将平面D置于其间。平面D包括将物体G与成像部件3连接的线段A(点划线),并且与待检测的边缘的方向C平行。将物体G与成像部件3连接的线段可以是将物体G中的一个与成像部件3 连接的线段,或将物体G的一端和另一端之间的距离的中心(沿Y方向对齐)与成像部件3连接的线段。此外,光源2可以位于沿着-X方向的一侧超过成像部件3。即,线段包括从物体G延伸穿过成像部件3的线。
基于光发射部件21~24的位置(后面说明),待检测的边缘的方向是可检测边缘的方向。在第一实施例中,它对应于图1中边缘的方向C。平面D是包括线段A并且平行于方向C的面。“以便将平面D置于其间”表示将光发射部件分类为两组(或两个集合),并且被定位以便将平面D放置在两类之间。例如,在如图1所示的四个光发射部件的情况下,优选按两个两个地对它们进行分类,并被定位以便将平面D置于其间。此外,四个光发射部件可以分类为一个部件和三个部件,并且被定位以便将平面D置于其间。光发射部件21和23位于沿平面D的+Y方向的区域(被称为第一区域)。光发射部件21位于物体G附近,并且光发射部件23位于沿光发射部件21的-X方向的一侧。另一方面,光发射部件22和24位于沿平面D 的-Y方向的区域(被称为第二区域)。光发射部件22位于物体G附近,光发射部件24位于沿光发射部件22的-X方向的一侧。光源2(四个光发射部件21~24)优选地位于沿Y方向比物体G宽度更宽的宽度。例如,在从 -X方向观察物体G的情况下,两个光发射部件21和23及两个光发射部件22和24优选地被定位以便将平面D置于其间。
如图1所示,光发射部件21~24分别用光照射物体G。因此,当一个光发射部件用光照射物体G时,其它光发射部件被定位以便不进入该一个光发射部件的照射区域中。此处,照射区域是由投影线形成的区域,其中物体G被一个光发射部件(视点)透视投影。在图1中,虚线是光发射部件21的投影线,阴影部分是照射区域。
将详细说明光发射部件21~24的位置。此处,对于包括线段A(将沿着Y方向对齐的物体G的中心与成像部件3连接)并且与边缘的方向C平行的平面D,两个光发射部件21和23以及两个光发射部件22和24几乎对称地定位。首先,通过将光发射部件21的位置设定为参考,光发射部件 23位于光发射部件21的照射区域(图1的阴影部分)的外侧。这是因为如果光发射部件23位于照射区域中,则当光发射部件23用光照射物体G时,光发射部件21的阴影反射到物体G上,并且图像数据包括假信号。假信号是除了期望信号之外的信号,即噪声分量。此外,其它光发射部件22和24 的位置与光发射部件21和23的位置相同。此外,从物体G到光发射部件 21和23的距离优选地等于从物体G到光发射部件22和24的距离。此外,两个光发射部件21和23以及两个光发射部件22和24并不总是相对于平面D对称。
作为光源2的光发射部件21~24,可以使用白炽灯、卤素灯、荧光灯、放电灯,例如LED(发光二极管)。然而,光发射部件21~24不限于此。此外,光源2的形状可以分成多个单元,或者形成为一体。例如,如果光源2分成四个单元(例如,定位四个白炽灯),则该四个单元可以分别是光发射部件。此外,如果光源2形成为一体(例如,能够从其每个位置发光的LED板),则光源2的四个部分(各自不同地发光)可以分别是光发射部件。此外,如果将光源分成两个单元(例如,LED被定位为棒状,并且两个线光源(均具有能够照明的预定部件)对齐),则两个线光源的相应预定部件可以是两个光发射部件。在上述说明中,光源2包括四个光发射部件21~24。然而,光源2不限于这种组成。光源2可以包括三个光发射部件或五个(或五个以上)光发射部件。此外,在上述说明中,光源2位于与放置物体G的平面相同的平面(或与其平行的平面)上。然而,光源2 所在的平面不限于此。
成像部件3对每个光发射部件21~24照射的多个物体G进行成像,并获取相应的图像数据。图像数据对应于成像部件3对物体G及其周边进行成像的成像结果。例如,可以应用通常使用的图像数据,例如RAW数据、 jpg、gif、png或bmp。
如图1所示,成像部件3位于光源2所在的一侧(与物体G相对)。即,成像部件3被定位为沿物体G的-X方向,并从-X方向对物体G的B面进行成像。成像部件3优选位于朝向-X方向远离物体G的中心(沿Y方向对齐)的位置。在光发射部件21~24分别照射物体G时,成像部件3获取图像数据。具体而言,在第一实施例中,光发射部件的数量为4个,图像数据的数量也为4个。即,图像数据的数量等于光发射部件的数量,但不限于此。图像数据是至少包括物体G的B面(与成像部件3相对)的图像。图像数据被存储在成像部件3的储存器3A中。例如,作为储存器3A,可以使用诸如磁带或盒式磁带之类的磁带***、诸如磁盘(软盘(注册商标) /硬盘)或光盘(CD-ROM/MO/MD/DVD/CD-R)之类的盘***、诸如IC卡 (包括存储卡)或光卡之类的卡***、以及诸如掩模 ROM/EPROM/EEPROM/闪存ROM之类的半导体存储器***。成像部件3 可以使用被安装在外部的存储器(用以存储图像数据)。
成像部件3包括诸如相机、CCD(电荷耦合器件)传感器或成像元件 (例如,CMOS传感器(互补金属氧化物半导体))之类的光学***。
成像部件3可以包括一个相机。然而,成像部件3不限于这种组成。
检测器4基于由成像部件3成像的多个图像数据来检测物体G的B面的边缘。边缘是物体G的B面上具有不均匀形状的边沿、轮廓或边界。在图像数据中,亮度突然变化的部分对应于边缘。
图2是示出在从不同位置照射两个物体的条件下,成像部件3和两个物体的边缘的一个示例的放大图。如图2所示,来自右侧的光发射部件21 的光以实线表示,来自左侧的光发射部件22的光以虚线表示。在图2中,仅示出了在物体的表面(包括边缘)散射并朝向成像部件3的光。通常,物体(例如,纸板箱)的边缘不是绝对的直角,并且包括斜度或圆度。由于光的照射角度的关系,如果光发射部件21用光照射包括这些边缘的物体,则位于图2左侧的物体的边缘被许多光照亮,并且这些光朝向成像部件3 散射。另一方面,位于图2右侧的物体的边缘难以被许多光照亮。以相同的方式,如果光发射部件22用光照射,则位于图2右侧的物体的边缘被许多光照亮,但是位于图2左侧的物体的边缘难以被许多光照亮。如果通过从位于左边和右边的相应光发射部件进行照射来获取图像数据,则获取了边缘的亮度不同(由于光发射部件的位置)的两个图像数据。通过计算这两个图像数据之间的差值,在边缘处出现相对较大的差值。因此,可以检测物体的边缘。通过在两个图像数据之间比较每个像素(两个对应的像素) 并通过保留其间的不同像素来获取两个图像数据之间的差值。比较每个像素意味着在两个图像数据之间对相同像素位置处的两个对应像素进行比较。例如,在两个图像数据之间的差值中,其间具有相同像素值的像素位置显示黑色,其间具有不同像素值的像素位置显示白色。显示黑色和白色可以是相反的,或者可以用另一种颜色显示像素位置。
接下来,在第一实施例中,将详细说明检测器4检测物体G的边缘的方法。
在第一实施例中,检测器4从分别由四个光发射部件(位于不同位置) 照射的物体G的四个图像数据中检测物体G的边缘。为了简化说明,在光发射部件21照明时,由成像部件3获取的图像被称为图像数据31(图中未示出)。以相同的方式,在光发射部件22、23和24分别进行照明时,由成像部件3获取的图像被称为图像数据32、33和34(图中未示出)。
除此之外,将四个图像数据31~34分类为第一组合和第二组合。
此处,对于包括线段A(将物体G与成像部件3连接)并且与边缘方向C平行的平面D,从两个图像数据31和33(由沿+Y方向定位的两个光发射部件21和23照射)中选择一个,并且从两个图像数据32和34(由沿 -Y方向定位的两个光发射部件22和24照射)中选择一个。通过组合所选择的图像数据,生成第一组合和第二组合。例如,第一组合是图像数据31 和图像数据32,第二组合是图像数据33和图像数据34。
这种组合的原因是,如果通过沿相同方向成像而获得的两个图像数据被组合,如上所述,则差值图像中的边缘处不会出现差值。因此,不能正确地检测出物体G的边缘。
此外,作为图像数据的组合,图像数据31和图像数据34可以是第一组合,图像数据32和图像数据33可以是第二组合。此外,通过将图像数据31和图像数据33中的任何一个与图像数据32或图像数据34组合,可以生成第一组合和第二组合。此外,通过将图像数据32和图像数据34中的任何一个与图像数据31或图像数据33组合,可以生成第一组合和第二组合。
在生成第一组合和第二组合之后,为了从每个组合检测边缘,通过计算包括在相同组合中的两个图像数据之间的差值,来生成每个组合的差值图像。之后,为了消除假信号,针对每个像素,将两个差值图像之间的相同像素位置处的两个像素值相乘。以这种方式,检测物体G的边缘。
在下文中,将详细说明在生成第一组合和第二组合之后的处理。
首先,在获取差值图像之前,对两个图像数据(包括在相同组合中) 执行校正处理,以使得两个图像数据的低空间频率分量的亮度相等。例如,通过以下步骤来执行该处理。
通过平均两个图像数据(包括在相同组合中),生成参考图像数据。具体地,计算两个图像数据之间的两个像素值(在相同的像素位置处)的总和,并且将该总和除以2(步骤1)。为了提取两个图像数据的低空间频率分量,由低通滤波器对每个图像数据执行滤波(步骤2)。低通滤波器进行的滤波去除了高于预定空间频率分量的高空间频率分量,例如,用于模糊图像中的精细图案的方法。此外,针对每个像素,将两个图像中的每一个图像除以经滤波的图像数据(在步骤2处生成的)。对于被除的每个图像数据,针对每个像素位置乘以参考图像数据(在步骤1处生成的)(步骤3)。图像数据的相除是加强图像数据中的不同部分并且模糊相同部分的处理。此外,图像数据的相乘是加强图像数据中的相同部分并且模糊不同部分的处理。
作为这种亮度校正的原因,在差值处理(之后进行说明)中保留了由于两个图像数据之间的亮度差异而导致的噪声分量。因此,需要避免噪声分量的保留。此外,待检测的边缘的信号表示高空间频率分量的特性。因此,仅对低空间频率分量执行校正处理。
接下来,对每个图像数据执行用于加强图像数据的边缘的处理。这是因为,作为物体的边缘相邻部分,仅需要提取亮度变化相对较大的部分。在该处理中,例如,通过诸如Prewit滤波器、Sobel滤波器或Roberts滤波器之类的高通滤波器执行滤波。通过高通滤波器进行的滤波去除了低于预定空间频率的低空间频率分量,例如,用于加强图像中的精细图案的方法。
在对两个图像数据执行上述处理之后,计算两个图像数据之间的差值,并且计算差值的绝对值。对第一组合和第二组合执行这一系列的处理。结果,针对每个组合,获取具有在边缘部分的特性的图像数据。此处,在上述处理之后第一组合和第二组合的相应图像数据中,还检测到除了边缘之外的假信号(例如,由于相邻物体的阴影的边界,反射光)。在物体G(相邻定位的)朝向光源2侧的面处存在水平差(level difference)的情况下,该假信号更为显著。即,在物体G的形状或尺寸不相等的情况下,或者即使形状和尺寸相等,通过沿X方向移位而使物体G对齐,假信号出现。该假信号未与边缘区分开,被错误地检测为边缘。因此,为了减少假信号,针对每个像素位置,将两个图像数据(通过上述处理获取的)相乘。结果,可以减少假信号分量(例如,由于相邻物体的阴影、或反射光)。在该处理中,利用了“由于相邻物体的阴影的边界和出现反射光的位置由光源22的位置来改变”的事实。即,从第一组合获取的图像数据中的假信号的位置与从第二组合获取的图像数据中的假信号的位置不同。与此相反,待检测的边缘存在于从第一组合和第二组合获取的相应图像数据中的相同位置处。因此,通过针对每个像素位置将两个图像数据相乘(在上述处理之后),边缘信号较大,而假信号较小。
作为以下处理,如果需要,可以添加对孤立点的消除处理(称为形态学操作)和加粗(thickening)处理。此外,在此之后,可以添加二值化处理。二值化处理是将图像转换成两个灰度级(黑和白)的处理。通过设定阈值,如果像素的值高于阈值,则用白像素替换该像素的值。如果像素的值低于阈值,则用黑像素替换该像素的值。
在第一实施例的边缘检测设备中,光发射部件位于放置物体G的同一平面上。因此,在物体G的边缘中,可以特别地检测到沿着垂直于平面(光发射部件所在的平面)的方向对齐的边缘。即,可以检测到沿物体G的Z 方向对齐的边缘。这意味着由于光发射部件的位置而确定可特别地检测的边缘的方向。
图3是根据第一实施例的通过检测器4进行的上述边缘检测处理的流程图。
首先,检测器4从储存器3A获取四个图像数据(S301)。检测器4将四个图像数据分类为第一组合和第二组合(S302)。
第一组合是两个图像数据31和32。第二组合是两个图像数据33和34。
对于第一组合的两个图像数据31和32,执行校正处理,以使得其低空间频率分量的亮度相等(S303)。对于两个图像数据31和32,执行边缘加强处理(S304)。对于两个图像数据31和32,计算它们之间的差值,并且获取第一差值图像数据(S305)。对于第一差值图像数据,执行绝对值处理 (S306)。
另一方面,对于第二组合的两个图像数据33和34,执行校正处理,以使得其低空间频率分量的亮度相等(S307)。对于两个图像数据33和34,执行边缘加强处理(S308)。对于两个图像数据33和34,计算它们之间的差值,并且获取第二差值图像数据(S309)。对于第二差值图像数据,执行绝对值处理(S310)。
接下来,对于第一差值图像数据和第二差值图像数据,针对每个像素位置执行相乘处理(S311)。对于相乘的图像数据,执行孤立点的消除处理和加粗处理(S312)。对于所获取的图像数据,执行二值化处理(S313)。以这种方式,在物体G中,检测朝向光源2和成像部件3的面的边缘。
相乘的图像数据是其中使假信号模糊且仅加强边缘的图像数据。
例如,将检测器4封装到计算机(配备有处理器和存储器)或LSI(大规模集成电路)中。
控制器5控制光源2和成像部件3的驱动。该驱动是光源2的四个光发射部件21~24中的每一个的开/关操作、以及成像部件3的成像操作。为了对每个光发射部件所照射的物体G进行成像,成像部件3基于光发射部件的开/关而操作。例如,在只有光发射部件21为“开”以便用光照射物体 G的条件下,成像部件3操作用于对物体G进行成像。接下来,在光发射部件21为“关”而只有光发射部件22为“开”以便用光照射物体G的条件下,成像部件3操作用于对物体G进行成像。对于其它光发射部件23和 24,重复该操作。光发射部件21~24的照射顺序并不限于此。光发射部件 21~24可以以任何顺序照射。
控制器5是用于控制光源2和成像部件3的操作的驱动器或驱动器电路。控制器5可以被封装到计算机8(配备有处理器和存储器)或LSI中。此外,控制器5可以包括在检测器4中。
显示器6显示物体G与光源2和成像部件3相对的面的边缘信息(由检测器4检测到的)。边缘信息是包括检测器4检测到的边缘的图像数据、或者图像数据在视觉上可识别的信息。作为显示器6,可以使用计算机的监视器或便携式终端的LCD监视器。显示器6不是边缘检测设备1的必需组件。边缘检测设备1可以不包括显示器6。
接下来,参考图4~7说明根据第一实施例的边缘检测设备的实例。作为边缘检测目标的物体,八个箱体在横向方向上相邻地排齐。
图4示出了在以下情况下的图像:通过沿深度方向对每个箱体添加水平差(从左到右逐渐变大)来定位多个箱体(物体)。如图4所示,从左侧开始,相邻两个箱体之间的水平方向为0mm、5mm、10mm、20mm、30mm、 40mm、50mm。
图5是示出第一实施例的光源和成像部件的位置的示意图。如图5所示,成像部件3被定位为沿-X方向与多个箱体相对。作为光源,使用四个光发射部件21~24。每个光发射部件是沿Z方向延伸的线形光发射部件。对于从箱体到线形光发射部件的距离,两个光发射部件21和22位于沿-X 方向距离箱体30cm的位置处。此外,两个光发射部件23和24位于沿-X方向距离箱体100cm的位置处。光发射部件21和22以及光发射部件23和 24分别以140cm的间隔定位。对于包括将箱体的中心(沿Y方向对齐)与成像部件3连接的线段A并与待检测边缘的方向C平行的平面D,两个光发射部件21和23以及两个光发射部件22和24对称地定位。
图6是通过从光发射部件21和23照射而获取的两个图像数据,通过从光发射部件21和22照射而获取的两个图像数据之间的差值,以及通过从光发射部件23和24照射而获取的两个图像数据之间的差值。
如图6所示,在通过从光发射部件21和23照射而获取的两个图像数据中,相邻两个箱体的阴影在这两个箱体被定位为具有水平差的位置处被成像。从图像数据的差值图像检测该阴影的边界,并且该边界不能与待检测的边缘区分开。作为值得注意的事实,在从箱体到光发射部件21和22 距离30cm的情况下的差值图像中以及在从箱体到光发射部件23和24距离 100cm的情况下的差值图像中,阴影的边界的相应位置不同。
图7是通过将差值图像(通过从光发射部件21和22照射而获取的两个图像数据之间的差值图像)与差值图像(在从光发射部件23和24照射而获取的两个图像数据之间的差值图像)相乘而获取的图像数据。
通过将两个差值图像相乘,减少了在不同位置处出现的假信号(由于阴影的边界),并且正确地获取了边缘信号。
通过第一实施例的边缘检测设备,减少了诸如阴影或反射光(相邻物体出现的)之类的假信号的影响,并且正确地检测物体的边缘。
此外,边缘检测设备1的光发射部件21~24的定位包括光发射部件中的至少一个沿X方向或Y方向偏移的情况。在这种情况下,获得了相同的效果。
在上面的说明中,对于包括将物体G的中心与成像部件3连接的线段 A并且与待检测的边缘的方向C平行的平面D,沿+Y方向和-Y方向两个两个地定位四个光发射部件。然而,一个(光发射部件21)可以沿+Y方向定位,三个(光发射部件22~24)可以沿-Y方向定位。在这种情况下,当光发射部件21照明时,由成像部件3获取的图像是图像数据31。以相同的方式,当光发射部件22、23和24不同地照明时,由成像部件3获取的图像是图像数据32、33和34。此处,两个图像数据31和32可以是第一组合。两个图像数据31和33或两个图像数据31和34可以是第二组合。此外,两个图像数据31和33可以是第一组合,并且两个图像数据31和34可以是第二组合。此外,三个(光发射部件21、23、24)可以沿+Y方向定位,一个(光发射部件22)可以沿-Y方向定位。在这种情况下,第一组合和第二组合与上述组合相同。
在上面的说明中,两个图像数据的组合是第一组合和/或第二组合。然而,要组合的图像数据的数量不限于两个。三个图像数据(或多于三个的图像数据)的组合可以是第一组合和/或第二组合。
此外,在上述说明中,从分别由光发射部件(位于不同位置处)照射的物体的图像数据中选择第一组合和第二组合。然而,组合的数量不限于两个,并且可以是大于两个的复数。在多个组合中,两个两个地计算两个图像数据之间的差值图像,并且对两个差值图像执行相乘处理。在这种情况下,可以检测物体的边缘。
(第二实施例)
将参考图8来说明第二实施例。图8是示出根据第二实施例的边缘检测设备1的一个示例的俯视图。
如图8所示,在边缘检测设备1中,光源2包括三个光发射部件21~ 23。其它组件与第一实施例的边缘检测设备1的组件相同。
光发射部件21~23位于与放置多个物体G的平面相同的平面(或与其平行的平面)上。成像部件3被定位以便沿-X方向与物体G相对。对于包括将物体G与成像部件3连接的线段A并与待检测的边缘的方向C平行的平面D,两个光发射部件21和23位于沿+Y方向的一侧,一个光发射部件 22位于沿-Y方向的一侧。光发射部件21~23的定位不限于该定位。对于平面D,两个光发射部件21和23可以位于沿-Y方向的一侧,一个光发射部件22可以位于沿+Y方向的一侧。
成像部件3优选地定位为使得从其到光发射部件22的距离短于从其到光发射部件21和23的距离。结果,避免了光发射部件22的反射光被成像部件3直接成像。因此,即使一个光发射部件22位于沿-Y方向的一侧,也可以减少由于反射光引起的假信号。如果成像部件3被定位以便不出现光发射部件22的反射光,那么位于沿+Y方向的一侧的光发射部件的反射光常常被成像部件3成像。因此,两个光发射部件21、23位于沿+Y方向的一侧。
当光发射部件21照明时,由成像部件3获取的图像是图像数据31(图 8中未示出)。以相同的方式,当光发射部件22和23照明时,由成像部件 3获取的相应图像是图像数据32和33(图8中未示出)。
在三个图像数据31~33中,检测器4选择具有两个图像数据31和32 的第一组合,以及具有两个图像数据32和33的第二组合。用以检测边缘的后续处理与第一实施例的后续处理相同。
三个光发射部件21~23可以不被控制为依次进行照明,并对由每个光发射部件照射的物体G进行成像。例如,如果三个光发射部件用具有不同波长(红色、绿色、蓝色)的相应光进行照射,通过使用彩色图像传感器 (红色、绿色、蓝色),可以在三个光发射部件同时用光进行照射的条件下对物体G进行成像。对于每个光发射部件,光的波长优选在大于(或等于) 400nm且小于(或等于)2000nm的范围内。此外,理想地,波长大于(或等于)400nm且小于(或等于)780nm。
在第二实施例的边缘检测设备1中,通过将光发射部件的数量减少到三个,可以预期由于部件数量的减少而引起的成本下降以及用以检测边缘的处理时间的减少。
在上述说明中,光发射部件的数量是三个。然而,光发射部件的数量可以是一个或两个。在这种情况下,通过准备用于光发射部件的移动机构,可以获得与三个或四个光发射部件的情况相同的效果。例如,如果光源2 包括两个光发射部件21和22,将两个光发射部件21和22中的一个移动到光发射部件23在第二实施例中所在的位置。对于移动机构,可以通过配备轮子或通过使用轨道(预先安装)来移动光发射部件。此外,通过使用加载步进电机的电动滑动器的直线运动机构,可以移动光发射部件。此外,可以使用电动缸来代替电动滑动器。在移动之后,通过由成像部件3获取被照射的物体的图像数据,可以获得与光发射部件23进行照射的情况相同的图像数据。光发射部件的移动由控制器5等控制。在一个光发射部件的情况下,通过以相同的方式移动该光发射部件,可以以其替代三个或四个光发射部件的情况。
(第三实施例)
将参考图9来说明第三实施例。图9示出了根据第三实施例的边缘检测设备1的一个示例。
如图9所示,在边缘检测设备1中,光源2包括四个光发射部件21~ 24。光源2位于大致垂直于线段A(将物体G与成像部件3连接)的平面上。其它组件与第一实施例的边缘检测设备1的组件相同。
在图9中,光发射部件21~24位于与YZ平面大致平行的平面上,其中,与多个物体G沿-X方向具有预定距离。即,光发射部件21~24位于大致平行于朝向光源2一侧的(物体G的)B面的平面上。成像部件3被定位为沿-X方向与物体G相对。对于包括线段A(将物体G与成像部件3 连接)并且与待检测边缘的方向C1平行的平面D1,光发射部件21~24被定位以便将平面D1置于其间。在这种情况下,方向C1是Z方向。对于平面D1,两个光发射部件21和23位于沿+Y方向的一侧,两个光发射部件 22和24位于沿-Y方向的一侧。
此外,在根据第三实施例的光发射部件的定位的情况下,可以检测沿Y 方向的边缘。对于包括线段A(将物体G与成像部件3连接)并且与待检测边缘的方向C2平行的平面D2,光发射部件21~24被定位以便将平面 D2置于其间。即,对于平面D2,两个光发射部件21和22位于沿+Z方向的一侧,两个光发射部件23和24位于沿-Z方向的一侧。优选地,从平面 D1(或平面D2)到每个光发射部件的距离大致相等。因为,如果可能的话,期望每个光发射部件照射物体G的亮度(照度)相等。
当光发射部件21照明时,由成像部件3获取的图像是图像数据31(图9中未示出)。以相同的方式,当光发射部件22、23和24照明时,由成像部件3获取的相应图像是图像数据32、33和34(图9中未示出)。
在第三实施例中,检测器4选择具有两个图像数据31和34的第一组合以及具有两个图像数据32和33的第二组合。在光发射部件21~24的位置中,通过组合通过从沿对角线方向定位的两个光发射部件照射而获取的相应图像数据,可以检测物体G的沿Y方向(横向)和Z方向(垂直方向) 的边缘。使用第一组合和第二组合检测边缘的后续处理与第一实施例的边缘检测设备的处理相同。
此外,如果选择两个图像数据31和33作为第一组合,并且如果选择两个图像数据32和34作为第二组合,则可以有效地检测物体G沿Y方向的边缘。此外,如果选择两个图像数据31和32作为第一组合,并且如果选择两个图像数据33和34作为第二组合,则可以有效地检测物体G沿Z 方向的边缘。
优选地,从-X方向观察物体G,光发射部件21~24位于物体G所在区域的外部。此处,物体G所在的区域是将物体G投影到光发射部件21 ~24所在的各处上的区域。
光发射部件21~24优选地位于物体G和成像部件3之间的区域。然而,光发射部件21~24的定位不限于该定位。光发射部件21~24可以位于沿-X 方向远离成像部件3的位置。即,可以根据使用环境适当地改变其定位。
在上面的说明中,光发射部件21~24位于大致平行于YZ平面的平面上。然而,其定位不限于该平面。光发射部件21~24中的至少一个可以沿 X方向偏移。此外,光发射部件21~24中的至少一个可以沿Y方向或Z方向偏移。
在上述说明中,光发射部件的数量是四个。然而,光发射部件的数量可以至少是3个。
在第三实施例的边缘检测设备1中,通过将光发射部件定位在与待由成像部件进行成像的物体G的面平行的平面上,可以根据图像数据的组合来检测沿所有(XYZ)方向的边缘。
此外,在第三实施例的边缘检测设备1中,可以检测沿预定方向的边缘。
此外,在第三实施例的边缘检测设备1中,通过沿着垂直方向(Z方向) 定位光发射部件,可以实现紧凑的设备设计,而没有无用的空间。
(第四实施例)
将参考图10A和图10B来说明第四实施例。图10A和图10B是示出根据第四实施例的物体保持设备10的一个示例的俯视图和前视图。该物体保持设备10配备有根据第一实施例、第二实施例和第三实施例的边缘检测设备。
首先,对物体保持设备10及其周围组件进行说明。如图10A和图10B 所示,多个物体G被加载在加载区域20上。物体保持设备10和输送区域 30固定在地面上。物体保持设备10从加载区域20选择性地拾取物体G,并将所拾取的物体传送到输送区域30。物体保持设备10可以是可移动的。例如,物体保持设备10可以在其底部配备有滚轮(等)。可替换地,物体保持设备10可以沿着轨道移动。
加载区域20可以是用于加载物体G的托盘、篮形托架、箱式托盘或架子。加载区域20可以通过在底部配备滚轮来移动,或者可以是固定的。
输送区域30输送由物体保持设备10所传送的物体G。例如,输送30 可以是带式输送机、托架、托盘、工作台或货物台。
如图10A和图10B所示,物体保持设备10包括保持部件50、驱动部件60、识别部件70和控制器80。保持部件50保持物体(以从加载区域20 传送到输送区域30),并且移动由此保持的物体。驱动部件60对保持部件 50进行驱动。识别部件70从物体(存在于加载区域20上)的图像识别物体的形状。控制器80通过对驱动部件60进行驱动来控制保持部件50的操作。
保持部件50连接到驱动部件60,并且可沿着三个轴方向移动。具体地,驱动部件60沿着垂直方向、前后方向和横向方向驱动保持部件50。如图 10A和图10B所示,设定正交坐标轴。Z轴对应于垂直方向,X轴对应于前后方向,Y轴对应于横向方向。前后方向和横向方向平行于水平方向,即安装物体保持部件10的平面。水平方向与作为保持目标的物体的底部平行。保持部件50被安装为以便与加载区域20上加载的物体G的顶面相对。例如,保持部件50配备有与真空泵(图 10A 和图10B中未示出)连接的多个吸盘51,并且通过吸力来保持物体G。吸盘51安装在保持部件50的后表面上。
具体而言,驱动部件60配备支撑部件61、62和63。支撑部件61沿Z 方向驱动保持部件50。支撑部件62沿X方向驱动保持部件50。支撑部件 63沿Y方向驱动保持部件50。
此外,保持部件50和驱动部件60的上述组件是一个示例。例如,用于通过保持部件50来保持物体G的方法可以是夹住。
在保持部件50或驱动部件60上安装识别部件70。
识别部件70包括第一实施例、第二实施例和第三实施例的边缘检测设备1。除了边缘检测设备之外,识别部件70还包括相机或传感器,用于沿深度方向测量物体G(加载在加载区域20上)的位置以及保持部件50与物体G之间的距离。识别部件70可以是三维距离图像传感器。
边缘检测设备1的光源2位于物体保持设备10的驱动部件60处。具体地,边缘检测设备1的光源2位于加载区域20一侧的支撑部件61(沿Z 方向驱动保持部件50)的两个柱状件的侧表面上。光源2的光发射部件21 ~24两个两个地定位在加载区域20一侧的支撑部件61的两个柱状件的侧表面上。此外,光发射部件21~24可以一个一个地定位在加载区域20一侧的支撑部件61的四个柱状件的侧表面上。成像部件3位于保持部件50 的臂52处。此外,成像部件3可以通过在距加载区域20远侧处的(在支撑部件61的四个柱状件中的)两个柱状件之间的梁被定位。检测器4包括在控制器80中。
如果光发射部件21~24分别位于支撑部件61的四个柱状件上,则可以显著地检测物体G(加载在加载区域20上)的(在光源侧的)面上沿Z 方向的边缘。此外,如果光发射部件21~24两个两个地位于支撑部件61 的两个柱状件(在加载区域侧)的两个侧面处,则可以检测物体G的(在光源侧处的)面上沿Y方向和/或Z方向的边缘。
此外,光发射部件21~24可以位于保持部件50上。在这种情况下,成像部件3也优选地位于保持部件50上。结果,与保持部件50的移动成比例,可以检测物体G(加载在加载区域20上)的期望部分处的边缘。
在上述说明中,光发射部件的数量是四个。然而,其数量不限于四个,并且可以至少是三个。
控制器80控制保持部件50和驱动部件60的驱动。此外,控制器80 包括边缘检测设备1的检测器4,并且基于由成像部件3成像的图像数据来检测物体G的边缘。检测边缘的方法与第一实施例的方法相同。控制器80 基于检测到的物体的边缘信息来识别物体的位置,并控制保持部件50和驱动部件60的驱动。
在第四实施例的物体保持设备10中,通过配备边缘检测设备1,可以准确地识别所加载的物体G的位置。
此外,通过沿高度方向识别所加载的物体G的边缘,可以防止保持部件50与所加载的物体G的干扰或碰撞。
第四实施例的物体保持设备10包括卸垛设备、码垛设备、拾取设备、货物保持设备等。
(第五实施例)
通过参考图11~16来说明第五实施例。第五实施例的边缘检测设备的组件与第一~第三实施例的边缘检测设备(参考图1或图9)相同。在第五实施例中,用于检测边缘的方法与第一至第三实施例的边缘检测设备不同。
具体地,说明了一种方法,其中,即使在物体(检测边缘的目标)的表面上放置了附加物,也能够准确地检测边缘。
图11和图12是示出作为检测边缘的目标的物体的一个示例的示意图。图11示出了包括其表面上的附加物的物体G。例如,该附加物是树胶胶带、塑料胶带、标签、纸片、发送单(transmittal letter)、贴纸或标志。图12示出了物体G,其具有被附加物I束缚的两个物体。此处,附加物I是捆绑带、树胶胶带、塑料胶带、焙固带(curing tape)、聚丙烯带、包装绳或胶带。
接下来,详细说明通过使用第五实施例的边缘检测设备来检测边缘的方法。
在第五实施例的成像部件3中,除了在四个光发射部件21~24不同地照明时所成像的图像数据31~34(图中未示出)之外,还获取了所有四个光发射部件21~24都照明时所成像的图像数据35(图中未示出)。这些图像数据被存储到储存器3A中。基于总共五个图像数据,检测器4检测多个加载的物体的边缘。此处,图像数据35是具有表示物体G的颜色的信息的彩色图像,其用于随后说明的处理。彩色图像可以是RGB(红绿蓝)颜色***的图像,或诸如HSV(色调饱和度亮度)颜色***之类的另一种颜色***的图像。此外,当所有光发射部件照明时,通过成像获取图像数据35。然而,在可以获取物体G的颜色信息的明亮环境下,照明的光发射部件的数量不受限制。
检测器4通过对图像数据31~34执行与第一至第三实施例的边缘检测设备相同的处理来获取边缘提取图像36(图中未示出)。然而,在物体G 包括附加物的情况下,在边缘提取图像36中,除了物体G的边缘之外,还包括附加物的边缘。
图13A示出了通过对物体成像获取的常规彩色图像,图13B示出了通过第三实施例的边缘检测设备获取的边缘检测图像。如图13A的箭头所示,在物体G的捆绑带和附加物的发送单处,确认与物体G的边缘不同的边缘。第五实施例的检测器4执行去除附加物的边缘的处理。
下文详细说明了去除附加物的边缘信息的处理。
首先,通过划分图像数据35的颜色,检测器4从图像数据35获取多个分色图像数据(图中未示出)。例如,在检测器4从常规RGB图像生成包括三个分量(色调、饱和度、亮度)的HSV图像之后,检测器4将饱和度的值划分到预定的每个范围中。通过该处理,借助饱和度划分物体G和附加物。分色图像数据是其中划分物体和附加物的图像。图14是依据饱和度划分其颜色的多个图像的一个示例。如图14所示,可以理解,物体和附加物依据饱和度的值被划分。此外,解释了获取借助饱和度的分色图像数据的方法。然而,可以使用色调、亮度或照度来代替饱和度。此外,可以使用RBG的每个分量的值。
接下来,检测器4检测被拍摄到每个分色图像数据中的多个物体的外形。例如,通过从相应分色图像数据检测外接四边形来执行外形的检测。图15A示出了通过对物体成像获取的常规彩色图像,图15B示出了通过重叠相应分色图像数据的外接四边形而获取的图像。如图15B所示,可以理解,物体G和附加物的外形被检测到。此外,从分色图像数据检测的外形不限于外接四边形。可以检测另一种多边形、圆形或椭圆形。在直到此时的处理中,分别检测到物体G和附加物的外形。
接下来,检测器4判断检测到的外形属于物体G还是属于附加物。例如,按照以下步骤来执行该判断处理。
一外形和另一外形中涉及的线被判定为附加物。例如,它们被判定为诸如标签之类的外形(步骤1)。对应于图15B中的E部分。其纵横比大于预定值的外形被判定为附加物。例如,将其判定为诸如捆绑带之类的外形 (步骤2)。对应于图15B中的F部分。将步骤1和2中没有被判定为附加物的外形判定为物体G的外形(边缘)(步骤3)。
接下来,检测器4b从边缘提取图像36中去除被判定为附加物(通过上述步骤)的边缘信息。例如通过针对每个像素将二值图像(外形(被判定为附加物)的内部部分为黑色,其外部部分为白色)乘以具有边缘提取图像36来执行该处理。
通过上述处理,从边缘提取图像36获取没有附加物的边缘信息的图像 37(图中未示出)。如果需要,检测器4可以对图像37执行分段处理等。通过分段处理,可以确定拍摄相应物体的区域。
图16是根据第五实施例的边缘检测方法的处理流程图。首先,通过与第三实施例相同的处理,获取边缘提取图像36。通过与图3的流程图相同的步骤来获取该边缘提取图像36(S313)。
接下来,检测器4从储存器3A获取作为彩色图像的图像数据35 (S1601)。
接下来,检测器4通过将图像数据35的颜色划分到每个范围中来获取多个分色图像数据(S1602)。
接下来,检测器4检测被拍摄到分色图像数据的每个图像中的外形 (S1603)。
接下来,检测器4判断外部形状(从每个图像检测到的外部形状)属于物体G还是属于附加物(S1604)。
接下来,检测器4生成二值图像,其中外形的内部部分(被判定为属于附加物)是黑色的。此外,通过针对每个像素位置将二值图像与边缘提取图像36相乘,检测器4从边缘提取图像36中去除了附加物的边缘 (S1605)。
接下来,如果需要,检测器4对在S1605处获取的图像执行分段处理 (S1606)。此后,处理完成。
通过使用第五实施例的边缘检测设备,不会错误地检测到附加物的边缘,而只会准确地检测到物体G的边缘。
此外,第五实施例的边缘检测方法可以应用于包括附加物的各种物体 G。因此,可以进一步扩大该边缘检测设备的应用范围。
此外,上述处理可以仅由检测器4来执行。因此,在不增加设备的组件的情况下,可以通过紧凑的组件来实现本发明的效果。
此外,通过将第五实施例的边缘检测设备封装在第四实施例的物体保持设备中,可以进一步提高物体保持设备对物体的识别准确度。
在上面的说明中,根据第一、第二、第三和第五实施例的边缘检测设备限于被加载的物体。但是,它们不限于被加载的物体。例如,边缘检测设备可以应用于平平地放置而其间没有间隙的多个物体的边缘检测。此外,关于被输送到诸如配送仓库之类的分选器上的多个物体(其间没有间隙),边缘检测设备可以应用于分类器或分选器的物体的边缘检测以对物体进行分类或分选。
虽然已经描述了某些实施例,但是这些实施例仅以举例的方式呈现,而并非旨在限制本发明的范围。实际上,本文描述的新颖实施例可以以各种其它形式来具体化;此外,在不脱离本发明的精神的情况下,可以对本文所述实施例的形式进行各种省略、替换和改变。所附权利要求及其等效形式旨在涵盖落入本发明的范围和精神内的这些形式或修改。

Claims (10)

1.一种边缘检测设备,包括:
光源,所述光源包括用于用光照射相邻的多个物体的至少三个光发射部件;
成像部件,所述成像部件对所述光发射部件中的每个光发射部件所照射的所述物体的表面进行成像,并且生成所述表面的多个图像数据;以及
检测器,所述检测器基于所述多个图像数据的至少两个不同组合来检测被成像的所述表面的边缘,
其中,
所述光发射部件分别被定位以便将第一平面置于其间,并且被定位在放置所述物体的第二平面上,
所述第一平面包括将所述物体与所述成像部件连接的线段并且与所述边缘的方向平行,
所述不同组合中的每个组合包括:
从所述光发射部件中的位于所述第一平面的一侧的一个光发射部件进行照射而被成像的所述表面的一个图像数据;以及
从所述光发射部件中的位于所述第一平面的另一侧的另一光发射部件进行照射而被成像的所述表面的另一图像数据,
所述检测器计算所述不同组合中的每个组合中的所述一个图像数据与所述另一图像数据之间的差值图像,并且通过将所述不同组合中的两个不同组合的两个差值图像之间的相同像素位置处的两个像素值相乘来检测所述边缘。
2.根据权利要求1所述的边缘检测设备,其中,
所述光发射部件包括第一光源和第二光源,以将第一平面置于其间,
所述第一光源和所述第二光源分别包括至少一个光发射部件,并且
所述检测器基于通过从所述第一光源的至少一个光发射部件进行照射而被成像的所述表面的第一图像数据和通过从所述第二光源的至少一个光发射部件进行照射而被成像的所述表面的第二图像数据的至少两个不同组合,来检测所述表面的所述边缘。
3.根据权利要求1所述的边缘检测设备,其中,
如果所述光发射部件位于与所述第二平面大致平行的第三平面上,则所述检测器沿着与所述第二平面交叉的方向检测所述表面的边缘。
4.根据权利要求1所述的边缘检测设备,其中,
所述光发射部件分别在不同的定时用光照射所述物体,并且
在一个光发射部件正在用光照射所述物体时,其它光发射部件被定位以便不进入所述一个光发射部件的照射区域中。
5.根据权利要求1所述的边缘检测设备,其中,
所述光发射部件的光的波长大于或等于400nm并且小于或等于2000nm。
6.根据权利要求1所述的边缘检测设备,还包括:
显示器,所述显示器显示所述表面的所述边缘的检测结果。
7.根据权利要求1所述的边缘检测设备,其中,
所述多个图像数据中的至少一个图像数据是包括颜色信息的彩色图像。
8.一种边缘检测设备,包括:
光源,所述光源包括用于用光来照射相邻的多个物体的至少一个能够移动的光发射部件;
成像部件,所述成像部件对所述能够移动的光发射部件所照射的所述物体的表面进行成像,并且生成所述表面的多个图像数据;以及
检测器,所述检测器基于所述多个图像数据的至少两个不同组合来检测被成像的所述表面的边缘,
其中,
所述能够移动的光发射部件能够在第一平面的两侧之间移动,并且被定位在放置所述物体的第二平面上,
所述第一平面包括将所述物体与所述成像部件连接的线段并且与所述边缘的方向平行,
所述不同组合中的每个组合包括:
从位于所述第一平面的一侧的所述能够移动的光发射部件进行照射而被成像的所述表面的一个图像数据;以及
从位于所述第一平面的另一侧的所述能够移动的光发射部件进行照射而被成像的所述表面的另一图像数据,
所述检测器计算所述不同组合中的每个组合中的所述一个图像数据与所述另一图像数据之间的差值图像,并且通过将所述不同组合中的两个不同组合的两个差值图像之间的相同像素位置处的两个像素值相乘来检测所述边缘。
9.一种用于在边缘检测设备中检测边缘的方法,
所述边缘检测设备包括:
光源,所述光源包括用于用光来照射相邻的多个物体的至少三个光发射部件;
成像部件,所述成像部件对所述光发射部件中的每个光发射部件所照射的所述物体进行成像,以及
检测器,所述检测器对所述物体的边缘进行检测,
所述光发射部件分别被定位以便将第一平面置于其间,并且被定位在放置所述物体的第二平面上,
所述第一平面包括将所述物体与所述成像部件连接的线段并且与所述边缘的方向平行,
所述方法包括:
由所述光发射部件中的每个光发射部件用光来照射所述物体的表面;
由所述成像部件对所述光发射部件中的每个光发射部件所照射的所述表面进行成像;
由所述成像部件生成所述表面的多个图像数据;以及
由所述检测器基于所述多个图像数据的至少两个不同组合来检测所述表面的边缘,
其中,
所述不同组合中的每个组合包括:
从所述光发射部件中的位于所述第一平面的一侧的一个光发射部件进行照射而被成像的所述表面的一个图像数据;以及
从所述光发射部件中的位于所述第一平面的另一侧的另一光发射部件进行照射而被成像的所述表面的另一图像数据,
其中,所述检测包括:
计算所述不同组合中的每个组合中的所述一个图像数据与所述另一图像数据之间的差值图像,并且
通过将所述不同组合中的两个不同组合的两个差值图像之间的相同像素位置处的两个像素值相乘来检测所述边缘。
10.一种物体保持设备,包括:
根据权利要求1所述的边缘检测设备;以及
保持部件和驱动部件中的至少一个。
CN201710810603.1A 2016-10-11 2017-09-11 边缘检测设备、边缘检测方法以及物体保持设备 Active CN107917920B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016200197 2016-10-11
JP2016-200197 2016-10-11
JP2017-162757 2017-08-25
JP2017162757A JP6845768B2 (ja) 2016-10-11 2017-08-25 エッジ検出装置、エッジ検出方法、及び物品保持装置

Publications (2)

Publication Number Publication Date
CN107917920A CN107917920A (zh) 2018-04-17
CN107917920B true CN107917920B (zh) 2021-03-12

Family

ID=61829004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710810603.1A Active CN107917920B (zh) 2016-10-11 2017-09-11 边缘检测设备、边缘检测方法以及物体保持设备

Country Status (2)

Country Link
US (1) US10872418B2 (zh)
CN (1) CN107917920B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658205B (zh) * 2020-06-04 2022-08-12 牧今科技 用于执行或促进物理边缘检测的方法和计算***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871049A (zh) * 2014-01-08 2014-06-18 香港应用科技研究院有限公司 非均匀背景光下的边缘检测方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4711579A (en) * 1986-08-12 1987-12-08 H. Fred Johnston System for automatically inspecting a flat workpiece for holes
JPH03225212A (ja) 1990-01-30 1991-10-04 Mitsubishi Electric Corp 部品認識装置
JPH05296715A (ja) 1992-04-17 1993-11-09 Hitachi Ltd 弦巻状線材位置計測装置
JP3345586B2 (ja) 1997-09-16 2002-11-18 株式会社東芝 段差検知装置およびこれを用いた処理装置
JP3455676B2 (ja) 1997-09-17 2003-10-14 株式会社東芝 段差検知装置およびこれを用いた処理装置
JP2001183113A (ja) 1999-12-27 2001-07-06 Toshiba Corp 段差検知装置
WO2007132378A2 (en) * 2006-05-09 2007-11-22 Koninklijke Philips Electronics N. V. Imaging system for three-dimensional imaging of the interior of an object
US20100309309A1 (en) * 2009-06-05 2010-12-09 Shenzhen Siweier Detecting Technology Ltd. Method for precisely detecting crack width
JP5513324B2 (ja) * 2010-09-01 2014-06-04 キヤノン株式会社 決定方法、露光方法及びプログラム
CA2860691C (en) 2012-01-06 2023-09-19 Kemira Oyj Method of characterizing creped materials
US9070019B2 (en) * 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
JP2014038045A (ja) 2012-08-17 2014-02-27 Sony Corp 検査装置、照明、検査方法、プログラム及び基板の製造方法
EP2801786B1 (de) * 2013-05-08 2019-01-02 Sick AG Optoelektronischer Sensor und Verfahren zur Erkennung von Objektkanten
US9830501B2 (en) * 2013-07-23 2017-11-28 Northwestern University High throughput partial wave spectroscopic microscopy and associated systems and methods
US9687059B2 (en) * 2013-08-23 2017-06-27 Preemadonna Inc. Nail decorating apparatus
EP2928174B1 (en) * 2014-03-31 2023-01-04 Open Text S.A. A method and device for capturing a document
TWI702386B (zh) * 2014-07-17 2020-08-21 以色列商奧寶科技股份有限公司 遠心亮場與環形暗場無縫融合式照射
JP2016170122A (ja) * 2015-03-13 2016-09-23 キヤノン株式会社 計測装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871049A (zh) * 2014-01-08 2014-06-18 香港应用科技研究院有限公司 非均匀背景光下的边缘检测方法

Also Published As

Publication number Publication date
US20180101958A1 (en) 2018-04-12
CN107917920A (zh) 2018-04-17
US10872418B2 (en) 2020-12-22

Similar Documents

Publication Publication Date Title
CN108474647B (zh) 尺寸测量装置、包裹柜***和尺寸测量方法
US10451405B2 (en) Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
KR101527525B1 (ko) 삼차원 계측 장치
EP3689793A1 (en) Package sorting system, projected instruction device, and package sorting method
US11195042B2 (en) Drug inspection assistance device, drug identification device, image processing device, image processing method, and program
CN112654569B (zh) 用于对能悬挂地输送的运输袋进行检查的装置和方法
CN107490579B (zh) 缺陷检查方法及其设备
CN210304635U (zh) 带有自动补光摄像头的扫码***
JP6845768B2 (ja) エッジ検出装置、エッジ検出方法、及び物品保持装置
US20180330472A1 (en) Slice scan imaging system and methods of use
CN107917920B (zh) 边缘检测设备、边缘检测方法以及物体保持设备
CN109040537B (zh) 检查装置、安装装置、检查方法
JP2006300929A (ja) 物体の3次元位置認識装置およびデパレタイズシステム
KR20150037545A (ko) 3차원 측정 장치, 3차원 측정 방법 및 기판의 제조 방법
JP2012220366A (ja) 距離画像カメラおよびこれを用いた対象物の面形状認識方法
US9977948B2 (en) Method for the localization of gripping points of objects
US8823953B2 (en) Optical position detection
JP5832167B2 (ja) 部品有無判定装置及び部品有無判定方法
JP6493842B2 (ja) 不要物検出システム、不要物除去システム、処理システム、プログラム及び不要物検出方法
CN112317335A (zh) 托盘防混***及方法
CN110672600A (zh) 一种滤光片在线检测设备及方法
JP4135367B2 (ja) 欠陥部分検出方法
CN109792860B (zh) 拍摄装置及安装装置
JP7259877B2 (ja) 検出方法、検出装置、検出システム及びコンピュータプログラム
JP7313211B2 (ja) 組付機

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant