CN101274432A - 目标物取出装置 - Google Patents

目标物取出装置 Download PDF

Info

Publication number
CN101274432A
CN101274432A CNA2008100869083A CN200810086908A CN101274432A CN 101274432 A CN101274432 A CN 101274432A CN A2008100869083 A CNA2008100869083 A CN A2008100869083A CN 200810086908 A CN200810086908 A CN 200810086908A CN 101274432 A CN101274432 A CN 101274432A
Authority
CN
China
Prior art keywords
mentioned
unit
gradient
mechanical hand
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100869083A
Other languages
English (en)
Other versions
CN101274432B (zh
Inventor
伴一训
管野一郎
组谷英俊
泷泽象太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN101274432A publication Critical patent/CN101274432A/zh
Application granted granted Critical
Publication of CN101274432B publication Critical patent/CN101274432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

一种目标物取出装置,包括用于将至少在一部分具有曲面形状的目标物取出的机器手,具备:将目标物的深浅梯度分布模型存储的存储单元;拍摄目标物的深浅图像的拍摄单元;从由拍摄单元拍摄的深浅图像抽取深浅梯度分布的梯度抽取单元;根据由梯度抽取单元抽取的深浅梯度分布和由存储单元存储的深浅梯度分布模型,来检测深浅图像的目标物的位置或位置姿势的目标物检测单元;将由目标物检测单元检测的位置或位置姿势的信息转换为与机器手相关的坐标系的位置或位置姿势的信息的检测信息转换单元;以及使机器手移动到由检测信息转换单元转换的位置或位置姿势而取出目标物的机器手移动单元。这样,能够以实用性的时间检测并取出具有曲面形状的工件。

Description

目标物取出装置
技术领域
本发明涉及将目标物,特别是包含曲面形状的工件用机器手取出的目标物取出装置。
背景技术
近年来,用工业用机器手进行将杂乱配置的多个工件、即在筐中或货盘上没有定位的多个工件取出的工作。在“Practical Bin Picking by the IntelligentRobot”(Proc.of 36th ISR,TH311,2005)中,记载了将具备多个平面部位且可稳定地检测轮廓和形状特征的所谓多面体工件从筐等取出的内容。
另一方面,在包含曲面形状的工件中,可稳定地检测的纹理那样的形状特征较少。再有,在包含曲面形状的工件中,因照明及其它的拍摄条件而存在对包含曲面形状的工件的轮廓的辨认有误之类的问题。因此,检测包含曲面形状的工件是困难的,因而为取出此类工件而引入机器手的事例较少。
例如,在日本特开2005-1022号公报中,记载了根据轮廓线或纹理来构建包含曲面形状的工件的三位模型并进行匹配的内容。
此外,在日本特许第3252941号说明书中,提出了根据使用固有矢量的近似法来识别包含曲面形状的工件的方法。
再有,在日本特开平10-315167号公报中,公开了通过使用以激光狭缝光进行扫描,或网格状地进行照射而得到的反射光来求出包含曲面形状的工件的三维形状的内容。在该情况下,可不使用轮廓或纹理就能进行三维形状的模型匹配。
但是,用在日本特开2005-1022号公报中所记载的方法,在工件不具备可检测的轮廓或纹理的情况下,不能检测此类工件。
此外,在日本特许第3252941号说明书中所记载的方法中,以能够将背景和检测目标完全分离为前提。因此,在日本特许第3252941号说明书中所记载的方法,不能应对多个工件互相重叠的状况。再有,与日本特开2005-1022号公报的情况相同地,在日本特许第3252941号说明书中所记载的方法中也需要纹理或轮廓,所以难以正确识别简单圆柱那样的工件。
再有,在日本特开平10-315167号公报中所记载的方法中,为求出三维形状数据而需要复杂且高价的装置。再有,为了算出三维数据,通常需要进行极为庞大的计算处理,所以难以将在日本特开平10-315167号公报中所记载的***实用化。
发明内容
本发明鉴于此类问题而研制,其目的是提供能够以实用性的时间检测并取出缺乏纹理或轮廓不稳定的曲面形状的工件的目标物取出装置。
为实现上述目的,根据第一方式,提供一种目标物取出装置,包括用于将至少在一部分具有曲面形状的目标物取出的机器手,该装置具备:将上述目标物的深浅梯度分布模型存储的存储单元;拍摄上述目标物的深浅图像的拍摄单元;从由上述拍摄单元拍摄的上述深浅图像抽取深浅梯度分布的梯度抽取单元;根据由上述梯度抽取单元抽取的上述深浅梯度分布和由上述存储单元存储的上述深浅梯度分布模型,来检测上述深浅图像的上述目标物的位置或位置姿势(位置和/或姿势)的目标物检测单元;将由上述目标物检测单元检测的上述位置或位置姿势的信息转换为与上述机器手相关的坐标系的位置或位置姿势的信息的检测信息转换单元;以及使上述机器手移动到由上述检测信息转换单元转换的位置或位置姿势而取出上述目标物的机器手移动单元。
即,在第一方式中,通过将从目标物,例如工件的深浅图像得到的深浅梯度分布与深浅梯度分布模型比较来确定目标物的位置或位置姿势。因此,即使是缺乏纹理或轮廓不稳定的曲面形状的目标物也可迅速地检测并取出目标物。
根据第二方式,在第一方式的基础上,还具备:指定由上述拍摄单元拍摄的上述深浅图像的上述目标物的边缘信息的指定单元;以及将由该指定单元指定的上述边缘信息从上述深浅图像抽取的边缘抽取单元,上述存储单元存储上述目标物的边缘信息模型,上述目标物检测单元根据由上述梯度抽取单元抽取的上述深浅梯度分布及由上述边缘抽取单元抽取的上述边缘信息和在上述存储单元中存储的上述深浅梯度分布模型及上述边缘信息模型,来检测上述深浅图像的上述目标物的位置或位置姿势。
即,在第二方式中,通过兼用边缘信息能够更正确地检测目标物的位置或位置姿势。
根据第三方式,提供一种目标物取出装置,包括用于将至少在一部分具有曲面形状的目标物取出的机器手,该装置具备:将上述目标物的距离梯度分布模型存储的存储单元;拍摄上述目标物的距离图像的拍摄单元;从由上述拍摄单元拍摄的上述距离图像抽取距离梯度分布的梯度抽取单元;根据由上述梯度抽取单元抽取的上述距离梯度分布和由上述存储单元存储的上述距离梯度分布模型,来检测上述距离图像的上述目标物的位置或位置姿势的目标物检测单元;将由上述目标物检测单元检测的上述位置或位置姿势的信息转换为与上述机器手相关的坐标系的位置或位置姿势的信息的检测信息转换单元;以及使上述机器手移动到由上述检测信息转换单元转换的位置或位置姿势而取出上述目标物的机器手移动单元。
即,在第三方式中,通过将从目标物,例如工件的距离图像得到的距离梯度分布与距离梯度分布模型比较来确定目标物的位置或位置姿势。因此,即使是缺乏纹理或轮廓不稳定的曲面形状的目标物也可迅速地检测并取出目标物。
根据第四方式,在第三方式的基础上还具备:指定由上述拍摄单元拍摄的上述距离图像的上述目标物的边缘信息的指定单元;以及将由该指定单元指定的上述边缘信息从上述距离图像抽取的边缘抽取单元,上述存储单元存储上述目标物的边缘信息模型,上述目标物检测单元根据由上述梯度抽取单元抽取的上述距离梯度分布及由上述边缘抽取单元抽取的上述边缘信息和在上述存储单元中存储的上述距离梯度分布模型及上述边缘信息模型,来检测上述距离图像的上述目标物的位置或位置姿势。
即,在第四方式中,通过兼用边缘信息能够更正确地检测目标物的位置或位置姿势。
根据第五方式,在第一或第三方式的基础上还具备在通过上述机器手移动单元来使上述机器手移动时将上述机器手所具备的手部和上述目标物之间的位置误差补偿的位置误差补偿单元。
即,在第五方式中,通过补偿位置误差,可更正确地抓住并取出目标物。作为位置误差补偿单元,可在机器手的尤其手部具备浮动机构,或者,也可使掌管机器手的关节动作的伺服控制***对外力机动灵活。
根据第六方式,在第一方式的基础上,上述拍摄单元具备与该拍摄单元同轴化的平行光照明。
即,在第六方式中,形成深浅图像的深浅图案仅取决于拍摄单元和目标物之间的相对姿势的状况,能够得到适当的深浅图像。
根据第七方式,在第一方式的基础上还具备将上述深浅梯度分布在每个梯度方向上用颜色区分并显示的显示单元。
即,在第七方式中,通过显示深浅梯度信息,在检测目标物时能够辅助操作者的理解。
根据第八方式,在第三方式的基础上还具备将上述距离梯度分布在每个梯度方向上用颜色区分并显示的显示单元。
即,在第八方式中,通过显示距离梯度信息,在检测目标物时能够辅助操作者的理解。
从附图所示的本发明的典型的实施方式的详细说明,可更明了本发明的这些目的、特征和优点以及其它目的、特征和优点。
附图说明
图1是表示根据本发明的一个实施方式的工件取出装置的整体构成的图。
图2a是根据本发明的工件取出装置的功能方框图。
图2b是根据本发明的工件取出装置的其它功能方框图。
图3是图像处理装置的详图。
图4是表示将工件取出的一连串流程的流程图。
图5是表示图4的步骤S2的广域计测的一个方法的流程图。
图6是用于说明Log-Pol转换图案的图。
图7a是用摄像机拍摄的图像的图。
图7b是用于说明步骤T2的梯度的图。
图8是表示图5的步骤T2的梯度的计算方法的流程图。
图9是用于说明光的强度的图。
图10是表示光源没有相对工件配置成同轴平行照明的场合的图。
图11是用于说明同轴平行光照明的图。
图12a是表示使梯度方向和颜色对应的图。
图12b是说明所计算的梯度方向的显示方法的图。
图13是表示图4的步骤S5的狭域计测的一个方法的流程图。
具体实施方式
下面参照附图来说明本发明的实施方式。在下面的附图中,对相同的部件标以相同标记。为易于理解,适当变更了这些附图的缩尺。
图1是表示根据本发明的一个实施方式的工件取出装置的整体构成的图。
本发明的工件取出装置10由在下面说明的机器手1、摄像机2、三维视觉传感器3、照明4a、4b、手部5及浮动机构5a构成。图1所示的机器手1是公知的机器人机械手(以下称为机器手)。机器手1包括其手部5可到达进行取出作业的位置姿势的一切机构。
此类机器手1用于将在货盘7内配置的相同形状的多个工件6取出。由本发明的工件取出装置取出的工件具有缺乏纹理或轮廓不稳定的曲面形状。在图1中,作为代表性的工件,表示了圆柱型工件6。
如图所示,在机器手1的手部5的基端附近,为了检测工件6的位置姿势而安装了摄像机2和三维视觉传感器3。摄像机2用于拍摄较宽阔的区域并取得深浅图像。在图1中,摄像机2安装在机器手1的手部5附近。但是,也可将摄像机2固定在货盘上方的摄像机支架(未图示)上。
三维视觉传感器3由具有可捕捉单个工件6的视野的摄像机(未图示)和激光狭缝投光灯(未图示)构成。三维视觉传感器3利用激光狭缝投光灯可计测激光所投射到的部位的三维位置。再有,三维视觉传感器3可计测具有规定的几何学形状的工件6例如平面型或圆柱型的工件6的位置姿势。
由于此类三维视觉传感器3是公知的,所以省略详细说明。此外,由多个二维摄像机构成的三维视觉传感器也是公知的,可将此类三维视觉传感器适用于本发明。此外,三维视觉传感器3可与机器手1的动作组合而取得后述的距离图像。
在本发明中,所使用的机器手1的数量没有限制,也可使用例如检测工件6的位置姿势的机器手和进行工件6的取出作业的机器手。再有,如图1所示,单个机器手也可构成进行工件6的检测和取出的***。
此外,摄像机2和三维视觉传感器3的摄像机可以是相同种类且这些摄像机可以是彩色摄像机也可以是黑白摄像机。在这些摄像机为彩色摄像机的情况下,从所拍摄的图像取出特定的颜色信息并进行与黑白摄像机相同的处理。
手部5具备依照工件6的倾斜度的浮动机构5a。此类浮动机构5a起到作为补偿手部5和工件6之间的位置误差的位置误差补偿单元的功能。此外,取代手部5具备此类浮动机构5a,也可将掌管机器手1的关节动作的伺服控制***构成为对外力机动灵活。在此类构成中,在手部5受到外力的情况下,或停止机器手1的动作,或依照外力使机器手1动作。此类伺服控制是公知技术,所以省略说明。
再有,如图所示,照明4a、4b分别安装在摄像机2和三维视觉传感器3上。如后述那样,将这些照明4a、4b配置成在摄像机2及三维视觉传感器3的各自的光轴上成为同轴平行光照明。
图2a是根据本发明的工件取出装置的功能方框图。如图2a所示,机器手1具备使机器手1的各部分移动的机器手移动单元1a,例如伺服电机。如图所示,机器手1连接到机器手控制装置11。机器手控制装置11是数字计算机,进行机器手1的各种控制。
如图所示,摄像机2及三维视觉传感器3连接到图像处理装置12上,图像处理装置12连接到机器手控制装置11上。机器手1的动作指示通过在机器手控制装置11上连接的指示操作盘13来进行。此外,摄像机2和三维视觉传感器3的设定使用图像处理装置12的用户接口(未图示)来分别进行。此外,机器手1的状态在指示操作盘13上显示,三维视觉传感器3的状态在显示器14上显示。再有,在机器手控制装置11上,连接有键盘、鼠标灯指定单元15。
此外,图2b是根据本发明的工件取出装置的其它功能方框图。在图2b中,图像处理装置12内装在机器手控制装置11中。在图2b中,机器手1的动作指示和三维视觉传感器3的设定皆通过指示操作盘13来进行。此外,机器手1的状态和三维视觉传感器3的状态可在指示操作盘13上显示。
再有,基于易于确认摄像机2和三维视觉传感器3的设定及状态的目的,可经通信接口而使用辅助输入装置16及监视器14。再有,辅助输入装置16及监视器14可在机器手1的自动运转中拆下。
图3是图像处理装置的详图。如图3所示,图像处理装置12包括具备图像存储单元31和模型存储单元32及检测目录33的存储单元30,例如RAM。再有,如图所示,机器手控制装置11包括梯度抽取单元34、边缘抽取单元35、目标物检测单元36、检测信息转换单元37。对这些将在后面描述。
图3的图像存储单元31可存储由摄像机2及三维视觉传感器3拍摄的图像。模型存储单元32存储预定的工件6的模型信息。工件6的模型信息包括对工件6整体的深浅梯度分布及距离梯度分布。再有,工件6的模型信息也包括表示例如工件6的纹理或工件6的轮廓分明的部位的边缘信息模型。
图4是表示由本发明的工件取出装置10将工件取出的一连串流程的流程图。如图4所示,首先,通过机器手1的机器手移动单元1a来使摄像机2向货盘7上方移动(步骤S1)。其次,由摄像机2进行后述的广域计测,从而掌握工件6的大概位置姿势(步骤S2)。
其次,判断是否在广域计测中在所拍摄的图像内检测到工件6(步骤S3)。此类检测由机器手控制装置11的目标物检测单元36如后述那样进行。在步骤S3中,在没有检测工件6的情况下,使摄像机2再次向货盘上方移动,进行广域计测(步骤S10)。
另一方面,在步骤S3中检测到工件6的情况下,选择已检测的工件6中位于最上方的工件6。此类工件6是在所拍摄的图像内尺寸最大的工件。而且,通过机器手1的机器手移动单元1a而使三维视觉传感器3移动到已选择的工件6附近(步骤S4)。
其次,将来自三维视觉传感器3的激光狭缝投光灯的激光狭缝光向工件6投射并进行狭域计测(步骤S5)。然后,判断是否由狭域计测检测到工件6(步骤S6)。在没有检测到工件6的情况下,回到步骤S5,重复进行处理直至检测到工件6。
在步骤S6中检测到工件6的情况下,由手部5抓住该工件6(步骤S7)。其次,从手部5的开闭程度判断是否成功抓住(步骤S8)。在适当地抓住了工件6的情况下,前进到步骤S9,将该工件6从货盘7取出并结束处理。另一方面,在步骤S8中,在不能适当地抓住工件6的情况下,使摄像机2再次移动到货盘上方,并进行广域计测(步骤S10)。
图5是表示图4的步骤S2的广域计测的一个方法的流程图。如图5所示,首先,由摄像机2从上方拍摄货盘7整体(步骤T1)。所拍摄的图像存储在图像存储单元31中,其次,在已拍摄的图像内算出检测工件6的范围的深浅梯度分布(步骤T2)。此类深浅梯度分布的算出通过后述的梯度抽取单元34来进行。
其次,将由梯度抽取单元34抽取的深浅梯度分布中用于与模型比较的工件候补区域切出(步骤T3)。然后,在步骤T4中,将与切出的工件候补区域对应的模型候补区域从模型存储单元32取出。而且,由目标物检测单元36将工件候补区域的深浅梯度分布和模型候补区域的深浅梯度分布模型进行比较并进行两者的匹配。而且,求出相近度(匹配度)为最大时的尺寸和转动量(步骤T4)。
其次,在步骤T5中,判断所得到的匹配度是否比规定的阈值大。在匹配度比阈值大的情况下,可判断为满足检测条件。在这种情况下,将上述尺寸和转动量存储在存储单元30的检测目录33中。再有,通过检测信息转换单元37来将尺寸和转动量转换为机器手1的坐标系,并将其结果也存储在检测目录33中。
再有,为了利用检测信息转换单元37进行向机器手1的坐标系的转换作业,预先求出使摄像机2的图像上的工件6的位置姿势和机器手1的坐标系中的工件6的位置姿势相关联的校准数据。上述转换作业根据此类校准作业来进行。由于此类转换作业是公知的,所以省略详细说明。
然后,判断是否搜索了工件候补区域的全部区域(步骤T6)。在存在未处理的工件候补区域的情况下,如图示那样回到步骤T3并重复进行处理。
但是,在步骤T4中确定尺寸和转动量的处理中,使用Log-Pol转换图案。图6是用于说明Log-Pol转换图案的图。如图6所示,Log-Pol转换图案是指将用欧几里得坐标系表示的深浅图案转换为用横轴η、纵轴log(1)的极座标表示。
即使在以实际检测推定的50%~200%左右的尺寸范围内将深浅梯度图案放大缩小的情况下,Log-Pol转换图案的形状也几乎不变。因此,在本发明中,从来自模型存储单元32的模型候补区域和来自摄像机2的图像的工件候补区域两者产生Log-Pol转换图案。其次,边使这些在极座标空间内平行移动边搜索最一致的位置,从最一致的位置的横轴的值确定转动量,并从纵轴确定尺寸。这样,在本发明中,由于不需要工件的模型的转动处理和相似转换处理,所以与现有的情况比较可进行高速的处理。
在Log-Pol转换图案中,尤其关于尺寸,有可能产生因用Log尺度进行匹配而使精度不足的情况。因此,在可能的情况下,最好对图5的步骤T4追加以下的处理。
即,在已拍摄的图像内的工件6上存在包含分明的轮廓的部位或纹理的情况下,操作者使用指定单元15来将包含轮廓的部位或纹理作为边缘信息在图像上指定。其次,机器手控制装置11的边缘抽取单元35从图像抽取已指定的边缘信息。而且,作为仅确定尺寸用的图案匹配,用目标物检测单元36将来自模型存储单元32的边缘信息模型和已指定的边缘信息进行比较并进行两者的匹配。
此类处理是在已经确定位置和转动量的状态下进行的匹配,所以处理时间不会大幅度地增加。即,在本发明中,通过并用边缘信息,可更正确地检测工件6的位置或位置姿势而不会大幅度地增加处理时间。
图7a是由摄像机拍摄的图像的图,图7b是用于说明图5的步骤T2中的梯度的图。再有,图8是表示图5的步骤T2中的梯度的计算方法的流程图。下面参照这些附图来说明步骤T2的梯度的计算方法。
在图7a所示的实施方式中,摄像机2拍摄工件6而得到的图像21是深浅图像。而且,图像21的各像素的每个要素表示辉度。如图所示,将图像21的上下方向设为x方向,将左右方向设为y方向。在将图像21的某一像素(x、y)的要素值表示为I(x、y)时,图像的梯度22由以下的式(1)表示。
( ∂ ∂ x I ( x , y ) , ∂ ∂ y I ( x , y ) ) = ( Δ I cos λ , Δ sin λ ) 式(1)
在式(1)中,ΔI、λ分别表示梯度的强度、梯度的方向。此外,图7b表示这些之间的关系。
如图8的流程图所示那样,缩小拍摄的图像,进行滤光处理,然后,放大图像。这样,能以较少的计算成本得到与使用尺寸较大的滤光器的情况同等的效果。
即,在图8的流程图中,最初缩小图像(步骤P1),从缩小的图像除去成为梯度变动的原因的斑点状干扰(步骤P2)。其次,为减小工件间的细微差异所产生的影响,而将图像晕色(步骤P3)。然后,使用差分式空间滤光器来计算图像的梯度22(步骤P4)。而且,以所计算的梯度22基本上连续为前提,来修正梯度方向与周围不同的像素的梯度方向(步骤P5)。最后,将图像放大到原尺寸(步骤P6),并结束处理。
虽然在上述实施方式中,对由摄像机2得到的深浅图像的处理进行了说明,但也可以通过同样地处理由三维视觉传感器3得到的距离图像来用梯度抽取单元34求出图像的距离梯度。相对于深浅图像中的各像素的值表示亮度,距离图像中的各像素的值表示与离三维视觉传感器3的距离或与距离相关的信息。例如,可将离三维视觉传感器3的距离设为机器手的坐标系的Z座标的值。在使用距离图像的情况下,可将距离梯度分布与模型存储单元32内的距离梯度分布模型进行比较。此外,在摄像机2为彩色摄像机的情况下,通过从拍摄的图像抽取特定的颜色而可用同样的方法进行梯度的计算。
这里,对于将照明4a、4b配置成在摄像机2及三维视觉传感器3的各自的光轴上成为同轴平行光照明的情况进行说明。图9是用于说明光的强度的图。如图9所示,从物体表面的某一点(观测点)反射并向视野入射的光的强度用下面的式2表示。
Figure A20081008690800141
式(2)
式(2)中右边的第一项是漫反射成分,表示向全部方向均等地扩散的光。由该光识别物体的颜色。这里,Kd是漫反射系数,θ是光的入射方向和上述观测点的切平面的法线所成的角度。
式(2)中右边的第二项是镜面反射成分,其反射强度因物体的形状、光源的位置和强度及观察点(摄像机)的位置而大不相同。这里,Ks是镜面反射系数。α是表示镜面反射光从观测点传播的系数,取决于工件的表面粗糙度。φ是光的入射方向和自观察点的视线所成的角的二等分线与切平面的法线所成的角度。
如图10所示,假设了将拍摄工件6′的摄像机2′和光源4′配置在不同位置的情况。该情况下,设上述的角度θ为θ1且角度φ为φ1。如果在工件6′相对于摄像机2′保持规定姿势的状态下将工件6′和摄像机2′在摄像机2′的视线上向箭头方向相对移动,则角度θ从θ1变化到θ2,且角度φ从φ1变化到φ2。因此,从式(2)可知,将观测到在工件6′上的同一观测点的不同的反射强度。
这意味着通过摄像机2′和工件6′之间的距离(以下称为基准距)及通常不能控制的光源4′和工件6′之间的相对位置的各个来使工件6′的深浅图案变化。在该情况下,不能将根据预先准备的深浅图案的工件检测用模型对任意工件6同样地使用。
因此,在本发明中,如图11所示那样将照明4a相对于摄像机2的光轴平行地安装。在该情况下,即使基准距变化,角度θ及角度φ也不会变化。再有,在该情况下,无论使照明4a和工件6之间的相对位置如何变化,至少角度θ也不会变化。再有,在基准距足够大的情况下,角度φ也不会变化(φ≒θ)。即,在本发明中,通过使用同轴平行光照明,而形成深浅图案仅取决于摄像机2和工件6之间的相对姿势的状况,这样,可得到适当的深浅图像。同样地,将照明4b作为平行光照明而设置在三维视觉传感器3上较理想。
图12a是表示使梯度方向和颜色对应的表的图,图12b是说明所计算的梯度方向的显示方法的图。在将所算出的全部梯度用箭头进行矢量显示的情况下,相邻的箭头互相重叠且显示画面变得非常难看。因此,有时需要通过隔几个像素显示梯度来拉长间隔显示信息。
因此,在本发明中,预先制成了图12a所示那样的使梯度方向和颜色(深浅的程度)对应的表。此类表在存储单元30中存储。而且,如图12b所示,从表中选择与图像的各像素的梯度相对应的颜色而显示。这样,可将图像内的全部像素的梯度信息在监视器14的单个画面内显示。
图13是表示图4的步骤S5的狭域计测的一个方法的流程图。如图13所示,使用三维视觉传感器3来取得工件6的深浅图像和向工件6投射激光狭缝光的图像(步骤Q1)。其次,对工件6的深浅图像进行与广域计测同样的处理,并确定图像上的圆柱状工件6的位置和转动量(步骤Q2)。
其次,根据投射激光狭缝光的图像和圆柱状工件6的位置和转动量,来制作仅抽取向工件6的表面投射的激光狭缝光的掩模图像(步骤Q3)。其次,使用掩模图像来抽取激光狭缝光并取得激光点列(步骤Q4),计算激光狭缝光的各辉点的三维位置数据(步骤Q5)。
在工件6为圆柱型的情况下,对三维位置数据进行最小二乘法并确定表示圆柱的位置姿势的参数。其次,用公知的方法,使用三维视觉传感器3的校准数据来确定机器手1的坐标系中的工件6的位置姿势(步骤Q6)。
还有,在工件6不具有如圆柱那样的确定的参数而具有自由曲面的情况下,在步骤Q6中,从三维位置数据中仅算出高度的平均值。而且,在图4的步骤S9中取出工件6时,可以使用手部5的浮动机构5a来补偿工件6的倾斜度误差和位置误差。这样,可更正确地抓住并取出工件6。
在上述实施方式中,模型存储单元32存储工件6的模型信息,例如深浅梯度分布等。此类模型信息可通过在进行工件6的取出作业之前用摄像机2等拍摄一个工件6并进行图8所示的处理来取得。此外,模型存储单元32的模型信息可从工件6的CAD数据得到。
虽然使用典型的实施方式来说明本发明,但可以理解的是,本领域技术人员在不脱离本发明范围的情况下可进行上述变更及各种其它变更、省略、添加。

Claims (8)

1.一种目标物取出装置,包括用于将至少在一部分具有曲面形状的目标物(6)取出的机器手(1),其特征在于,具备:
将上述目标物(6)的深浅梯度分布模型存储的存储单元(30);
拍摄上述目标物(6)的深浅图像的拍摄单元(2);
从由上述拍摄单元(2)拍摄的上述深浅图像抽取深浅梯度分布的梯度抽取单元(34);
根据由上述梯度抽取单元(34)抽取的上述深浅梯度分布和由上述存储单元(30)存储的上述深浅梯度分布模型,来检测上述深浅图像的上述目标物(6)的位置或位置姿势的目标物检测单元(36);
将由上述目标物检测单元(36)检测的上述位置或位置姿势的信息转换为与上述机器手(1)相关的坐标系的位置或位置姿势的信息的检测信息转换单元(37);以及
使上述机器手(1)移动到由上述检测信息转换单元(37)转换的位置或位置姿势而取出上述目标物(6)的机器手移动单元(1a)。
2.根据权利要求1所述的目标物取出装置,其特征在于,
还具备:指定由上述拍摄单元(2)拍摄的上述深浅图像的上述目标物(6)的边缘信息的指定单元(15);以及
将由该指定单元(15)指定的上述边缘信息从上述深浅图像抽取的边缘抽取单元(35),
上述存储单元(30)存储上述目标物(6)的边缘信息模型,
上述目标物检测单元(36)根据由上述梯度抽取单元(34)抽取的上述深浅梯度分布及由上述边缘抽取单元(35)抽取的上述边缘信息和在上述存储单元(30)中存储的上述深浅梯度分布模型及上述边缘信息模型来检测上述深浅图像的上述目标物(6)的位置或位置姿势。
3.一种目标物取出装置,包括用于将至少在一部分具有曲面形状的目标物(6)取出的机器手(1),其特征在于,具备:
将上述目标物(6)的距离梯度分布模型存储的存储单元(30);
拍摄上述目标物(6)的距离图像的拍摄单元(3);
从由上述拍摄单元(3)拍摄的上述距离图像抽取距离梯度分布的梯度抽取单元(34);
根据由上述梯度抽取单元(34)抽取的上述距离梯度分布和由上述存储单元(30)存储的上述距离梯度分布模型,来检测上述距离图像的上述目标物(6)的位置或位置姿势的目标物检测单元(36);
将由上述目标物检测单元(36)检测的上述位置或位置姿势的信息转换为与上述机器手(1)相关的坐标系的位置或位置姿势的信息的检测信息转换单元(37);以及
使上述机器手(1)移动到由上述检测信息转换单元(37)转换的位置或位置姿势而取出上述目标物(6)的机器手移动单元(1a)。
4.根据权利要求3所述的目标物取出装置,其特征在于,
还具备:指定由上述拍摄单元(3)拍摄的上述距离图像的上述目标物(6)的边缘信息的指定单元(15);以及
将由该指定单元(15)指定的上述边缘信息从上述距离图像抽取的边缘抽取单元(35),
上述存储单元(30)存储上述目标物(6)的边缘信息模型,
上述目标物检测单元(36)根据由上述梯度抽取单元(34)抽取的上述距离梯度分布及由上述边缘抽取单元(35)抽取的上述边缘信息和在上述存储单元(30)中存储的上述距离梯度分布模型及上述边缘信息模型,来检测上述距离图像的上述目标物(6)的位置或位置姿势。
5.根据权利要求1或3所述的目标物取出装置,其特征在于,
还具备在通过上述机器手移动单元(1a)来使上述机器手(1)移动时将上述机器手(1)所具备的手部和上述目标物(6)之间的位置误差补偿的位置误差补偿单元。
6.根据权利要求1所述的目标物取出装置,其特征在于,
上述拍摄单元(2、3)具备与该拍摄单元同轴化的平行光照明。
7.根据权利要求1所述的目标物取出装置,其特征在于,
还具备将上述深浅梯度分布在每个梯度方向上用颜色区分并显示的显示单元。
8.根据权利要求3所述的目标物取出装置,其特征在于,
还具备将上述距离梯度分布在每个梯度方向上用颜色区分并显示的显示单元。
CN2008100869083A 2007-03-30 2008-03-28 目标物取出装置 Active CN101274432B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007091730A JP4309439B2 (ja) 2007-03-30 2007-03-30 対象物取出装置
JP2007-091730 2007-03-30

Publications (2)

Publication Number Publication Date
CN101274432A true CN101274432A (zh) 2008-10-01
CN101274432B CN101274432B (zh) 2012-07-04

Family

ID=39794440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100869083A Active CN101274432B (zh) 2007-03-30 2008-03-28 目标物取出装置

Country Status (4)

Country Link
US (1) US8098928B2 (zh)
EP (1) EP2045772B1 (zh)
JP (1) JP4309439B2 (zh)
CN (1) CN101274432B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102428497A (zh) * 2009-06-22 2012-04-25 株式会社丰田自动织机 判定三维形状一致的方法以及装置
CN103158151A (zh) * 2011-12-19 2013-06-19 发那科株式会社 具备修正物品的姿势的功能的取出装置
CN103402715A (zh) * 2010-12-30 2013-11-20 泽恩机器人技术有限公司 用于确定夹紧位置的方法、计算机程序以及装置
CN104227722A (zh) * 2013-06-17 2014-12-24 佳能株式会社 机器人***与机器人控制方法
CN105988128A (zh) * 2015-03-20 2016-10-05 福特全球技术公司 车辆定位准确度
CN109159119A (zh) * 2018-09-05 2019-01-08 张军强 机械手控制方法、装置、存储介质及电子设备
CN110382172A (zh) * 2017-03-06 2019-10-25 株式会社富士 图像处理数据生成用的数据结构以及图像处理数据生成方法
CN111862198A (zh) * 2019-04-25 2020-10-30 发那科株式会社 图像处理装置、图像处理方法以及机器人***
CN112567200A (zh) * 2018-08-15 2021-03-26 国立研究开发法人产业技术综合研究所 标记物
WO2024113653A1 (zh) * 2022-11-30 2024-06-06 宁德时代新能源科技股份有限公司 拾取工装

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8150165B2 (en) * 2008-04-11 2012-04-03 Recognition Robotics, Inc. System and method for visual recognition
US9576217B2 (en) 2008-04-11 2017-02-21 Recognition Robotics System and method for visual recognition
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
US8286320B2 (en) * 2008-09-18 2012-10-16 Automatic Handling International Apparatus and method for the robotic plugging/unplugging of rolls
US8144193B2 (en) * 2009-02-09 2012-03-27 Recognition Robotics, Inc. Work piece tracking system and method
JP5289087B2 (ja) * 2009-02-10 2013-09-11 ファナック株式会社 ワーク取り出し装置
JP5333344B2 (ja) 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP5468366B2 (ja) * 2009-11-24 2014-04-09 Idec株式会社 ロボット制御システムおよびロボット制御方法
JP5468367B2 (ja) * 2009-11-24 2014-04-09 Idec株式会社 ロボット制御方法およびロボット制御システム
US9179106B2 (en) * 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
JP5445848B2 (ja) * 2010-02-05 2014-03-19 アイシン精機株式会社 物体形状評価装置
JP2011164991A (ja) * 2010-02-10 2011-08-25 Toyota Motor Corp 画像処理装置
JP2011200948A (ja) * 2010-03-24 2011-10-13 Sony Corp 把持判別装置および把持判別方法
US8842191B2 (en) 2010-06-03 2014-09-23 Recognition Robotics, Inc. System and method for visual recognition
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP5802917B2 (ja) * 2011-04-06 2015-11-04 オプテックス株式会社 距離画像カメラおよびこれを用いた距離測定方法
JP5606424B2 (ja) * 2011-11-04 2014-10-15 三菱電機株式会社 部品取り出し方法、及び部品取り出しシステム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2014102685A (ja) * 2012-11-20 2014-06-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2014126943A (ja) 2012-12-25 2014-07-07 Fanuc Ltd 画像中の対象物を検出するために画像処理を行う画像処理装置及び方法
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
CN103273496B (zh) * 2013-05-08 2015-07-15 长沙长泰机器人有限公司 一种利用智能相机在机器人搬运***中定位工件的方法
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
EP3012695B1 (en) 2014-10-23 2017-10-11 Comau S.p.A. System for monitoring and controlling an industrial plant
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6624911B2 (ja) * 2015-12-03 2019-12-25 キヤノン株式会社 計測装置、計測方法および物品の製造方法
JP6363589B2 (ja) * 2015-12-24 2018-07-25 ファナック株式会社 ロボットを備えたワイヤ放電加工システム
JP6346216B2 (ja) * 2016-04-01 2018-06-20 ファナック株式会社 ワイヤ放電加工機及びワイヤ放電加工方法
CN107378941B (zh) * 2016-05-16 2022-02-18 精工爱普生株式会社 机器人、控制装置以及机器人***
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
US10303154B2 (en) * 2016-10-11 2019-05-28 The Boeing Company Surface based hole target for use with systems and methods for determining a position and a vector of a hole formed in a workpiece
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
CN111246977A (zh) 2017-03-30 2020-06-05 软机器人公司 用户辅助型机器人控制***
US20190226287A1 (en) * 2017-05-11 2019-07-25 National Oilwell Varco Norway As System and method for placing pipe in and removing pipe from a finger rack
JP6487495B2 (ja) * 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
US11358290B2 (en) * 2017-10-19 2022-06-14 Canon Kabushiki Kaisha Control apparatus, robot system, method for operating control apparatus, and storage medium
JP2019150931A (ja) * 2018-03-05 2019-09-12 パナソニック株式会社 ロボットシステム、制御装置、及びロボット
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
CN109377268A (zh) * 2018-09-27 2019-02-22 北京理工大学 商品的调整方法及装置
WO2020121399A1 (ja) * 2018-12-11 2020-06-18 株式会社Fuji ロボット制御システム及びロボット制御方法
DE102020112352A1 (de) 2019-05-30 2020-12-03 Panasonic I-Pro Sensing Solutions Co., Ltd. Kamera und Roboter-System
JP2020196116A (ja) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 カメラおよびロボットシステム
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
JP7376318B2 (ja) * 2019-10-30 2023-11-08 ファナック株式会社 アノテーション装置
WO2021172256A1 (ja) 2020-02-27 2021-09-02 ファナック株式会社 3次元撮影装置および撮影条件調整方法
US20230083531A1 (en) * 2020-03-05 2023-03-16 Fanuc Corporation Three-dimensional measuring device, and three-dimensional measuring method
JP7314871B2 (ja) * 2020-07-09 2023-07-26 新東工業株式会社 強度計測装置及び強度計測方法
US20230281857A1 (en) 2020-07-13 2023-09-07 Fanuc Corporation Detection device and detection method
CN114092632A (zh) 2020-08-06 2022-02-25 财团法人工业技术研究院 标注方法、应用其的装置、***、方法及计算机程序产品
CN113459084A (zh) * 2021-05-21 2021-10-01 广东拓斯达科技股份有限公司 一种机器人参数标定方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0672770B2 (ja) * 1988-02-01 1994-09-14 豊田工機株式会社 ロボットの物体認識装置
JPH02110788A (ja) 1988-10-20 1990-04-23 Niigata Eng Co Ltd 3次元物体の形状認識方法
GB2261069B (en) * 1991-10-30 1995-11-01 Nippon Denso Co High speed picking system for stacked parts
JPH0719813A (ja) 1993-06-21 1995-01-20 Sharp Corp 3次元視覚認識装置
JP3252941B2 (ja) 1994-11-29 2002-02-04 日本電信電話株式会社 画像切り出し認識装置
JP2775404B2 (ja) 1995-02-21 1998-07-16 防衛庁技術研究本部長 自動目標識別装置
JPH09255158A (ja) 1996-03-22 1997-09-30 Kobe Steel Ltd 物体配置認識装置
JPH10118975A (ja) * 1996-10-18 1998-05-12 Komatsu Ltd ハンドリング位置認識方法および認識装置
JP3362834B2 (ja) 1997-05-16 2003-01-07 ダイハツ工業株式会社 ワークのピッキング装置
JP2005001022A (ja) 2003-06-10 2005-01-06 Yaskawa Electric Corp 物体モデル作成装置及びロボット制御装置
JP4432623B2 (ja) 2003-10-14 2010-03-17 パナソニック電工株式会社 画像処理装置
JP4060261B2 (ja) * 2003-10-16 2008-03-12 独立行政法人科学技術振興機構 画像に含まれる身体形状を判定する方法及び非接触型ポインティング・デバイスの実現方法
US7403641B2 (en) 2004-05-28 2008-07-22 Matsushita Electric Works, Ltd. Object recognition system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102428497A (zh) * 2009-06-22 2012-04-25 株式会社丰田自动织机 判定三维形状一致的方法以及装置
CN102428497B (zh) * 2009-06-22 2015-04-15 株式会社丰田自动织机 判定三维形状一致的方法以及装置
CN103402715A (zh) * 2010-12-30 2013-11-20 泽恩机器人技术有限公司 用于确定夹紧位置的方法、计算机程序以及装置
CN103158151B (zh) * 2011-12-19 2015-04-29 发那科株式会社 具备修正物品的姿势的功能的取出装置
CN103158151A (zh) * 2011-12-19 2013-06-19 发那科株式会社 具备修正物品的姿势的功能的取出装置
US9393696B2 (en) 2013-06-17 2016-07-19 Canon Kabushiki Kaisha Robot system and robot control method
CN104227722A (zh) * 2013-06-17 2014-12-24 佳能株式会社 机器人***与机器人控制方法
CN105988128A (zh) * 2015-03-20 2016-10-05 福特全球技术公司 车辆定位准确度
CN110382172A (zh) * 2017-03-06 2019-10-25 株式会社富士 图像处理数据生成用的数据结构以及图像处理数据生成方法
CN112567200A (zh) * 2018-08-15 2021-03-26 国立研究开发法人产业技术综合研究所 标记物
US11378392B2 (en) 2018-08-15 2022-07-05 National Institute Of Advanced Industrial Science And Technology Marker
CN109159119A (zh) * 2018-09-05 2019-01-08 张军强 机械手控制方法、装置、存储介质及电子设备
CN111862198A (zh) * 2019-04-25 2020-10-30 发那科株式会社 图像处理装置、图像处理方法以及机器人***
WO2024113653A1 (zh) * 2022-11-30 2024-06-06 宁德时代新能源科技股份有限公司 拾取工装

Also Published As

Publication number Publication date
US20080240511A1 (en) 2008-10-02
EP2045772A2 (en) 2009-04-08
JP4309439B2 (ja) 2009-08-05
EP2045772A3 (en) 2013-11-13
CN101274432B (zh) 2012-07-04
JP2008246631A (ja) 2008-10-16
EP2045772B1 (en) 2021-08-25
US8098928B2 (en) 2012-01-17

Similar Documents

Publication Publication Date Title
CN101274432B (zh) 目标物取出装置
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
CN108555908A (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN108592788B (zh) 一种面向喷涂生产线的3d智能相机***与工件在线测量方法
JP3242108B2 (ja) ターゲットマークの認識・追跡システム及び方法
US9533418B2 (en) Methods and apparatus for practical 3D vision system
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
CN108161931A (zh) 基于视觉的工件自动识别及智能抓取***
EP2682710B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
EP1814083A1 (en) Photometric measurements using at least three light sources
JP7128933B2 (ja) 画像処理装置
CN106651752A (zh) 三维点云数据配准方法及拼接方法
US10661442B2 (en) Calibration article for a 3D vision robotic system
CN108177150A (zh) 基于视觉的电梯门板定位与抓取装置及方法
CN102781631A (zh) 信息处理装置及控制该装置的方法
CN103196370A (zh) 一种导管接头空间位姿参数的测量方法和装置
US20130057652A1 (en) Handheld Scanning Device
US20110007155A1 (en) Position measurement apparatus and position measuring method
DE112021003955T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP2004239791A (ja) ズームによる位置計測方法
JP2004354320A (ja) 撮像対象物品の認識検定システム
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
Peng et al. Real time and robust 6D pose estimation of RGBD data for robotic bin picking
Kiddee et al. A geometry based feature detection method of V-groove weld seams for thick plate welding robots

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant