CN104842361A - 具有3d箱体定位功能的机器人*** - Google Patents
具有3d箱体定位功能的机器人*** Download PDFInfo
- Publication number
- CN104842361A CN104842361A CN201410138089.8A CN201410138089A CN104842361A CN 104842361 A CN104842361 A CN 104842361A CN 201410138089 A CN201410138089 A CN 201410138089A CN 104842361 A CN104842361 A CN 104842361A
- Authority
- CN
- China
- Prior art keywords
- group
- casing
- line segment
- robot
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Manipulator (AREA)
Abstract
一种机器人***,包括机器人、三维(3D)点云摄像机和控制器。摄像机输出具有二维(2D)颜色数据和3D深度数据的图像数据。控制器接收输入标准和图像数据文件,且检测图像数据文件中的2D和3D线段。经由将一些2D线段向回投射到一些3D线段上而产生新的3D线组。新的3D线被分组为相交线,且控制器在相交线上执行法向量分组功能以识别候选平面。从候选平面识别相交平面,且从相交平面识别候选箱体。控制器经由输入标准从识别的候选箱体中定位目标箱体。命令通过末端执行器在目标箱体上执行控制动作。
Description
技术领域
本发明涉及具有三维(3D)箱体定位功能(three-dimensional box locationfunctionality)的机器人***。
背景技术
机器人是能以自动方式执行复杂或重复任务的机电装置。典型的机器人响应于任务指令和传感反馈在多个轴线上运动。例如,机器人可以使用各种近程传感器、触觉传感器、开关、测压元件(load cell)、换能器等,以评估给定工作任务执行过程中其周围的环境。机器人可以经由一个或多个末端执行器作用于位于其环境中的物体,
材料处理机器人具体说被程控为在自动工作环境下对物体进行定位、选择和移动。例如,在典型的制造设施中,这样的机器人可以用于执行重复的配装操作(kitting operations),在该操作中部件被包装在箱体中。因此,在配装操作中机器人必须首先定位目标箱体,识别位于箱体中的零件或部件,且随后执行末端执行器控制工序,以给定的方式操作识别的部件。
发明内容
公开本文的机器人***包括机器人,例如具有末端执行器的材料操作机器人。机器人***还包括一个或多个三维(3D)点云摄像机,也称为红、绿、蓝加深度(RGB-D)摄像机,且控制器与机器人和摄像机(一个或多个)通信。每一个摄像机经由收集的3D点云深度信息和二维(2D)红、绿、蓝(RGB)颜色数据而对目标物体成像,且输出具有2D颜色数据和3D深度数据的自动同步数据文件。控制器可以实施为具有处理器和实体的非瞬时存储器的计算机装置,该控制器被程控或以其他方式配置为自动地将来自摄像机的2D和3D信息融合,且其后在各种图像深度处将融合信息中的平面和线分段,以便在机器人的工作空间中定位可能的/候选的箱体且识别其位置和取向。如果候选箱体匹配目标箱体的已知参数,即具有已知尺寸和/或颜色特点的箱体,则控制器针对目标箱体执行控制动作。示例性的控制动作可以包括,经由传递到机器人的控制命令而命令机器人的末端执行器抓持和/或移动目标箱体和/或位于其中的部件。
在具体实施例中,机器人***包括具有末端执行器的机器人、三维(3D)点云摄像机和控制器。摄像机可操作为收集和输出具有二维(2D)颜色数据和3D点云深度数据的数据文件。与3D点云摄像机和机器人通信的控制器包括记录了用于定位目标箱体的指令的存储器和处理器。通过处理器执行指令使得控制器从3D点云摄像机接收数据文件,且还接收一组输入标准。控制器在接收的数据文件中检测多个2D线段和多个3D线段,且产生一组3D线,包括将至少一些2D线段向回投射到多个3D线段中的至少一些上。控制器还将产生的一组3D线分组为相交线组,在相交线组上执行法向量分组(NVG)功能,以由此识别可能/候选平面,且从该一组候选平面中识别相交平面组。随后从相交平面组识别可能/候选箱体,且控制器经由接收的输入标准在识别的候选箱体中定位目标箱体。控制器还配置为做出通过机器人的末端执行器在目标箱体上执行控制动作的命令。
一种用于机器人***的方法,包括经由机器人***的控制器接收一组输入标准,且经由控制器接收来自机器人***的点云摄像机的图像数据文件。图像数据文件包括2D颜色数据,通常描述为红、绿、蓝(RGB)数据和3D深度数据。方法还包括在接收的数据文件中检测多个2D线段和多个3D线段,产生一组3D线,包括将至少一些2D线段向回投射到至少一些3D线段上,且将产生的一组3D线分组为相交线组。另外,方法对相交线组执行NVG功能,以识别一组候选平面,从该一组候选平面识别相交平面组,且从相交平面组识别候选箱体。其后,方法经由输入标准从识别的候选箱体中定位目标箱体,且包括经由控制器命令机器人***的机器人的末端执行器在目标箱体上执行控制动作。
在另一实施例中,机器人***包括具有多指抓持器形式的末端执行器的材料操作机器人、可操作为收集和输出具有RGB颜色图像数据形式的2D数据和3D点云深度数据的数据文件的3D点云摄像机、和与点云摄像机和机器人通信的控制器。控制器包括录了用于定位目标箱体的指令的存储器和处理器。执行指令使得控制器从3D点云摄像机接收数据文件、接收一组输入标准(包括目标箱体的长度、宽度、高度和/或颜色),且在接收的数据文件中检测多个2D线段和多个3D线段。在该实施例中控制器还经由低通过滤器处理接收的图像数据文件,以在检测2D和3D线段之前从数据文件除去信号噪声,且产生一组3D线,包括经由最佳拟合统计处理将至少一些2D线段向回投射到至少一些3D线段上。
在该实施例中的控制器还配置为将产生的一组3D线分组为相交线组,在相交线组上执行NVG功能以识别一组候选平面,从候选平面组识别一组相交平面,且从相交平面组识别候选箱体。其后,控制器经由输入标准在识别候选箱体中定位目标箱体且命令通过机器人抓持器抓持被定位的目标箱体。
在下文结合附图进行的对实施本发明的较佳模式做出的详尽描述中能容易地理解上述的本发明的特征和优点以及其他的特征和优点。
附图说明
图1是机器人***的示例性实施例的示意图,具有本文所述的三维(3D)箱体定位功能。
图2是描述了经由图1所示的机器人***定位和识别目标箱体的方法的流程图。
图3是3D线融合任务的示意图,其作为图2所示的方法的一部分将2D和3D线段融合或关联。
图4是图2的方法的线分组任务示意图。
图5是图2所示的方法的不足的平面分组任务的示意图。
图6是图1所示的控制器的可能的箱体构造确定过程的示意图。
具体实施方式
参考附图,其中几幅图中相同的附图标记表示相同或相似的部件,且从图1开始,机器人***10被显示为具有一个或多个三维(3D)点云摄像机12(也称为红、绿、蓝加深度(RGB-D)摄像机)、具有关节15和末端执行器16的机器人14、和控制器(C)20。控制器20与机器人14和摄像机(一个或多个)12通信,控制器被程控为经由执行实施方法100的指令而自动地定位和识别箱体18形式的目标物体,方法的例子在下文通过参考图2描述。机器人***10因其被分配工作任务的执行情况而可以使用各种其他传感器。尽管出于简单的目的从图1省略,但是示例性传感器可以包括限位开关、近程传感器、力或载荷传感器、触觉传感器等。
在本发明的范围内,图1的箱体18可以是任何类型的矩形箱体,用于保持作为库存的部件或零件,或在制造或仓储设施中运送这样的部件。即箱体18在其长度(L)、宽度(W)和高度(H)维度每个中通过直线边缘21限定。这种常规的箱体18可以堆叠、聚集、组合,或它们可以在给定设施中单独定位。为了使得机器人14能对箱体18执行期望的控制动作,例如经由末端执行器16抓持和/或移动箱体18和/或其任何内容物,机器人14必须首先能从典型的工厂的工人、机械和设备造成的潜在信号噪声中定位和识别箱体18。
典型的视觉***和高分辨率成像装置可以用于在设施中定位物体。然而,这样的方法不令人满意,原因是相对高的硬件成本、图像处理复杂且需要通过大训练图像库来明确地训练视觉***。本发明目的是通过简单地指定要被机器人14定位的目标箱体的尺寸和/或颜色而避免明确视觉***训练(explicit vision system training)。通过将从3D点云摄像机12而来的2D和3D信息融合,可以以实时应用的方式鲁棒地定位目标箱体。本方法的优点是如下所述的相对有优势的两种类型的图像。为了进一步减少成本,3D点云摄像机12可以被实施为相对不贵的本领域已知的游戏摄像机(gamingcamera),且由此相对于现有的机器学习技术,例如神经网络、支持向量机等,执行本方法的成本可以是有吸引力的。
图1的机器人的可以实施为材料操作机器人,其具有作为末端执行器16的可促动抓持器,其适用于在箱体18已经定位且被正确地识别为目标箱体时抓持或拾取箱体18。通过例子的方式,机器人14可以构造为典型的6轴工业机器人,其对从控制器20而来的一组输入命令(箭头11)作出响应。输入命令(箭头11)可以实施为力、阻抗、和/或位置命令、或任何其他合适命令,其最终操作末端执行器16以接近和接触箱体18。虽然出于简单的目的作了省略,但是机器人14的每一个关节15可以通过一个或多个关节促动器驱动,例如滚珠丝杠关节电动机、直线促动器、旋转促动器等,如本领域理解的。
图1的控制器20可以实施为一个或多个计算机装置,其具有处理器(P)22和实体的非瞬时存储器(M)24,在其上记录了用于执行方法100的指令。存储器24可以包括磁性或光学存储器、电可擦写可编程只读存储器(EEPROM),等。额外瞬时存储器可以按照需要包括例如随机访问存储器(RAM)、用于内部信号缓冲的存储器等。控制器20的其他硬件可以包括高速时钟、模拟-数字(A/D)和数字-模拟(D/A)电路和任何所需的输入/输出(I/O)电路和装置以及信号调制和缓冲电路。位于控制器20中或易于被控制器20访问的各控制算法可以存储在存储器24和/或其他合适的存储器中,且经由处理器22自动地执行,以提供所需的控制功能。
仍然参见图1,3D点云摄像机12可操作为,每当箱体18定位在摄像机12的视野17中时就对箱体18成像,且将收集的箱体18的云数据传递(箭头19)回到控制器20,用于根据方法100进行处理。如本领域已知的,3D点云是3D坐标系(例如X、Y、Z笛卡尔坐标系)中的一组数据点。这种摄像机能捕获描述目标物体表面轮廓的任何数量的数据点,且将收集的点云数据作为具有同步的颜色数据的深度数据文件输出(箭头19)。控制器20可以接收限定要被机器人14定位的具体目标箱体的已知尺寸、形状、颜色和/或其他描述性参数的预定目标信息(箭头13)。
由此,在处理从3D点云摄像机(一个或多个)12而来的收集点云数据(箭头19)之前,图1所示的控制器20得知应要被定位的目标箱体的尺寸、颜色和/或其他识别特征。尽管出于简单的目的在图1中显示了两个3D点云摄像机12,但是本方法100可以用于仅一个3D点云摄像机12,或任何其他数量的3D点云摄像机12。非限制性的示例性3D点云摄像机12可以具有示例性的高达30帧每秒的640×480像素的2D分辨率,或高达12帧每秒的1280×960的分辨率。3D点云摄像机12可以具有从距目标物体1m的距离处感知约0.3mm的分辨率的示例性3D点准确性和深度,且可以定位为距被成像目标物体约0.5到1.5m。其他摄像机构造可以使用而不脱离本发明的范围,只要收集点云数据(箭头19)包括2D颜色图像和3D深度数据且是自动同步的即可。如本领域已知的,术语“自动同步”是指同一被收集点云数据(图1的箭头19)中的被收集的2D数据与3D数据的时间同步。
参见图2,方法100的示例性实施例从步骤102开始,其中被收集的点云数据(图1的的箭头19)被接收且被预处理。点云数据含有2D颜色(RGB)数据以及3D位置数据,例如点云中的每一个数据点具有X、Y和Z坐标。点云摄像机12被自动同步,其如本领域已知的是指在同一被收集的点云数据(图1的箭头19)中的被收集的2D数据与3D数据的时间同步。术语“预处理”是指已知的图像处理技术,例如图像平滑和边缘增强。平滑和增强可以抑制被收集图像中的高频和/或低频噪声,例如通过使用带通过滤器等过滤掉具体的频带。
在步骤104,控制器20接下从步骤102的预处理图像执行2D/3D线检测过程。用于检测图像中直线特征的各种方法是本领域已知的。这种方法通常用于计算机视觉、图像分割和模型识别。非限制性的示例性线检测处理包括霍夫变换或快速霍夫变换。
在步骤106,图1的控制器20将之前在步骤104检测的2D和3D线融合。如上所述,用于图1的点云摄像机12的摄像机类型是3D点云摄像机,其是这样的装置,其将作为RGB图像的2D数据和描述自由空间中XYZ或其他3D位置的相应3D点输出。2D数据相对于3D数据更精确,但是通过2D数据无法准确地知道收集的2D数据点在自由空间中位于何处。另一方面,3D数据提供了丢失的位置信息,但是该额外信息相对于2D数据不太精确。步骤106因此包括将用于同一目标的这些不同数据段融合。
简要地参见图3,从步骤104输出的一组示例性的线40包括2D线段42和3D线段44,所述2D线段代表检测的2D线,且所述3D线段代表从来自图1的3D点云摄像机12的同一自动同步图像数据文件而来的3D点云数据。图2的步骤106可以包括将2D数据向回投射到3D空间,如箭头A示出的。相对于2D数据,3D数据通常有噪声且不太精确,且由此是不连续的。即在步骤104发生线检测之后,3D数据中仍然可以存在间隙,如分开的3D线段44之间的间距所示。从2D线段42而来的数据可以通过图1的控制器20向回投射到3D空间,以填充3D线段44中的间隙,例如使用最佳拟合统计方法。步骤106产生一组新的3D线,其可以之前的分段的3D线段连接,所述分段的3D线段与一个或多个2D线段关联。在此发生之后,从步骤104而来的2D线信息可以被抛弃。方法100随后前进到步骤108。
图2的步骤108可以经由图1的控制器20执行线分组(line grouping)功能,以便确定来自步骤106的新的3D线如何或是否相交。如果线在点P处相交,则线被分组为潜在候选线组,即LG=(L1,L2,P),其中LG代表给定的候选线组,L1代表候选组中的一条线,L2是同一组中相交的线,且P是线L1和L2的3D空间中的交叉点。
简要地参见图4,为了执行步骤108,图1的控制器20可以计算用于每一个相交线对(L1,L2,P)的法向量(n)。其他候选线被表示为LC。所有线段可以按照需要延长以便找出交叉点P。法向量(n)可以被计算为线L1和L2的向量积(cross product),即n=L1×L2,如本领域已知的。由此,步骤108的输出是一组法向量(n)。
图2的步骤110包括执行法向量分组(Normal Vector Grouping:NVG)处理。已知的NVG处理是基于位于共同平面上的3D点具有相似的法向量(n)这一事实做出的。NVG由此使用IJK空间,其在本领域是已知的,是垂直于XYZ空间的另一种3D坐标空间,以确定来自步骤108的哪个法向量(n)指向同一方向。越是法向量的集合越是集中,则越可能的是向量是从受关注的同一平坦或平面表面发出的。
这种表面可以是图1的机器人14正试图定位(作为方法100的一部分)的目标箱体的矩形表面。由此,步骤110通过将k个相交对的一组矢量Ni进行分类而输出一组候选平面,即Ni={(L1,L2,P)k}。一旦已经确定一组候选平面则方法100前进到步骤112。
在步骤112,参见图5,控制器接下来将来自步骤110的候选平面的平面分组为平面分组(PG)或不足平面分组(deficient plane grouping:DPG)。在平面分组中,组被描述为PG=(L1,L2,L3,L4,n)。如果通过同一法向量(n)和同一相位识别了两个正交组,则其描述了一个平面。在不足平面分组中,组可以被描述为DPG=(L4,L5,L6,n),即对于可能的面(F)存在少于四条的线。由此描述了与完全平面有差距的事物,在该具体情况下是通过让线段(L5,L6)和线段L4相交,所有这些线段实际上可能在或可能不在同一平面中。然而,这样的可能/候选平面仍然可以是有用的和有效的,且因此可以被图1的控制器20认为是有助于识别给定目标箱体的补充信息。
步骤114包括用在步骤112确定的候选平面构造箱体。控制器20可以从步骤112的平面分组(PG)确定图6所示的三个平面(P1,P2,P3)是否已经被识别为彼此成直角地布置,即是典型的矩形箱体的形式。步骤114可以包括将平面分组为具有三个平面、两个平面和一个平面的不同候选箱体。一旦如此分组,则方法100前进到步骤116。
在图2的步骤116,图1的控制器20接下来做出有关步骤114的箱体的决定。具有三个平面(P1,P2,P3)的候选箱体(BC)在图6示出。这种候选箱体(BC)很可能是真实的矩形箱体。即使仅两个平面以直角布置,例如平面P1和P2,该信息也仍然可以表示最可能的候选箱体,因为一些额外的尺寸数据以深度的形式提供。如果仅一个平面(P1,P2,或P3)被识别,则这相对于具有两个或三个平面的候选箱体而言给出不佳的候选箱体,因为经由单个平面无法提供深度信息。然而,单个平面识别仍然可以是对图1的控制器20来说有用的,例如通过将顶点之间的已知距离与用于被定位的具体目标箱体的预定尺寸标准进行匹配。
作为步骤116的一部分,图1的控制器20可以经由输入标准从识别的候选箱体中定位目标箱体,所述输入标准例如是预定目标信息(图1的箭头13)。例如,如果预定目标信息是每个边为0.5m的尺寸的箱体,则控制器20可将候选箱体(BC)的尺寸与该信息比较,以确定尺寸是否充分匹配。颜色是另一可能的比较标准。
在检测到匹配时,控制器20可以命令通过图1所示的机器人14的末端执行器16而在目标箱体上执行控制动作,例如的箱体18。示例性控制动作可以包括经由将输入命令传送(图1的箭头11)到同一图中所示的关节15的促动器而命令机器人14将末端执行器16夹持到箱体18上。以这种方式,一旦使用如上所述的方法100将箱体18正确地识别为目标箱体,则其可被机器人14作用。
尽管已经对执行本发明的较佳模式进行了详尽的描述,但是本领域技术人员可得知在所附的权利要求的范围内的用来实施本发明的许多替换设计和实施例。
Claims (9)
1.一种机器人***,包括:
机器人,具有末端执行器;
三维(3D)点云摄像机,可操作为收集和输出具有二维(2D)颜色数据和3D深度数据的图像数据文件;和
控制器,与摄像机和机器人通信,且具有记录了用于定位目标箱体的指令的存储器和处理器,其中通过处理器执行指令使得控制器进行以下动作:
从摄像机接收图像数据文件;
接收一组输入标准;
在接收的图像数据文件中检测多个2D线段和多个3D线段;
产生一组新的3D线,包括将至少一些2D线段向回投射到至少一些3D线段上;
将产生的一组新的3D线分组为相交线组;
在相交线组上执行法向量分组功能,以识别一组候选平面;
从识别的一组候选平面识别相交平面组;
从识别的相交平面组识别候选箱体;
在使用输入标准识别的候选箱体中定位目标箱体;和
做出通过机器人的末端执行器在目标箱体执行控制动作的命令。
2.如权利要求1所述的机器人***,其中2D颜色数据为红、绿、蓝(RGB)颜色数据。
3.如权利要求1所述的机器人***,其中控制器配置为,在检测2D和3D线段之前,预处理接收的图像数据文件,以从图像数据文件除去信号噪声。
4.如权利要求1所述的机器人***,其中机器人是材料操作机器人且末端执行器是多指抓持器。
5.如权利要求1所述的机器人***,其中输入标准包括目标箱体的长度、宽度、高度和颜色中的至少一个。
6.如权利要求1所述的机器人***,其中控制器配置为执行最佳拟合统计处理,以将2D线段向回投射到3D线段上。
7.一组用于机器人***的方法,该方法包括:
经由机器人***的控制器接收一组输入标准;
经由控制器从机器人***的三维(3D)点云摄像机接收图像数据文件,其中图像数据文件包括二维(2D)颜色数据和3D深度数据;
在接收的图像数据文件中检测多个2D线段和多个3D线段;
产生一组新的3D线,包括将至少一些2D线段向回投射到至少一些3D线段上;
将产生的一组新的3D线分组为相交线组;
在相交线组上执行法向量分组功能,以由此识别一组候选平面;
从该一组候选平面识别相交平面组;
从识别的相交平面组识别候选箱体;
使用输入标准经由控制器从识别的候选箱体中定位目标箱体;和
经由控制器做出通过机器人***的机器人的末端执行器在目标箱体上执行控制动作的命令。
8.如权利要求7所述的方法,其中接收输入标准包括接收目标箱体的长度、宽度、高度和颜色中的至少一个。
9.如权利要求7所述的方法,其中产生一组新的3D线包括经由最佳拟合统计功能将至少一些2D线段向回投射到至少一些3D线段上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/179,968 | 2014-02-13 | ||
US14/179,968 US9233469B2 (en) | 2014-02-13 | 2014-02-13 | Robotic system with 3D box location functionality |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104842361A true CN104842361A (zh) | 2015-08-19 |
CN104842361B CN104842361B (zh) | 2017-05-17 |
Family
ID=53676758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410138089.8A Active CN104842361B (zh) | 2014-02-13 | 2014-04-08 | 具有3d箱体定位功能的机器人*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US9233469B2 (zh) |
CN (1) | CN104842361B (zh) |
DE (1) | DE102014102943B4 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105729468A (zh) * | 2016-01-27 | 2016-07-06 | 浙江大学 | 一种基于多深度摄像机增强的机器人工作台 |
CN106269548A (zh) * | 2016-09-27 | 2017-01-04 | 深圳市创科智能技术有限公司 | 一种物体自动分拣方法及其装置 |
CN106853637A (zh) * | 2015-12-09 | 2017-06-16 | 发那科株式会社 | 机器人控制装置以及通信*** |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护***和防护方法 |
CN107962549A (zh) * | 2016-10-20 | 2018-04-27 | 因特利格雷特总部有限责任公司 | 用于机器人纸箱卸载的3d-2d视觉*** |
CN109820350A (zh) * | 2019-03-24 | 2019-05-31 | 济宁市传染病医院 | 一种自动分类存取档案柜 |
CN110603571A (zh) * | 2017-04-26 | 2019-12-20 | Abb瑞士股份有限公司 | 用于操作机器人的机器人***和方法 |
CN111783529A (zh) * | 2019-07-26 | 2020-10-16 | 牧今科技 | 基于边缘和多维拐角的检测后改善 |
US11389965B2 (en) | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8648867B2 (en) | 2006-09-25 | 2014-02-11 | Neurala Llc | Graphic processor based accelerator system and method |
EP2999940A4 (en) | 2013-05-22 | 2017-11-15 | Neurala Inc. | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge |
EP3000030A4 (en) | 2013-05-22 | 2017-07-05 | Neurala Inc. | Methods and apparatus for iterative nonspecific distributed runtime architecture and its application to cloud intelligence |
US9626566B2 (en) | 2014-03-19 | 2017-04-18 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
CA2941250A1 (en) | 2014-03-19 | 2015-09-24 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
US9492923B2 (en) | 2014-12-16 | 2016-11-15 | Amazon Technologies, Inc. | Generating robotic grasping instructions for inventory items |
CN108701430B (zh) * | 2016-03-28 | 2020-12-01 | Abb瑞士股份有限公司 | 确定用于焊缝点校准的搜索参数的方法、***和装置 |
US9687983B1 (en) * | 2016-05-11 | 2017-06-27 | X Development Llc | Generating a grasp pose for grasping of an object by a grasping end effector of a robot |
JP6420296B2 (ja) | 2016-12-01 | 2018-11-07 | ファナック株式会社 | ロボットの干渉領域を自動で設定するロボット制御装置 |
US10515319B2 (en) * | 2016-12-16 | 2019-12-24 | Fetch Robotics, Inc. | System and method for computing a probability that an object comprises a target |
CN107225573A (zh) * | 2017-07-05 | 2017-10-03 | 上海未来伙伴机器人有限公司 | 机器人的动作控制方法和装置 |
WO2019028075A1 (en) * | 2017-08-01 | 2019-02-07 | Enova Technology, Inc. | INTELLIGENT ROBOTS |
CN107479501A (zh) * | 2017-09-28 | 2017-12-15 | 广州智能装备研究院有限公司 | 基于深度学习的3d零部件吸取方法 |
US11225039B2 (en) | 2018-06-08 | 2022-01-18 | Aurora Flight Sciences Corporation | Systems and methods to automate composite manufacturing quality checks |
CN108931983B (zh) * | 2018-09-07 | 2020-04-24 | 深圳市银星智能科技股份有限公司 | 地图构建方法及其机器人 |
CN111696144B (zh) * | 2019-03-11 | 2024-06-25 | 北京地平线机器人技术研发有限公司 | 深度信息确定方法、深度信息确定装置及电子设备 |
CN110238831B (zh) * | 2019-07-23 | 2020-09-18 | 青岛理工大学 | 基于rgb-d图像及示教器的机器人示教***及方法 |
US11597078B2 (en) | 2020-07-28 | 2023-03-07 | Nvidia Corporation | Machine learning control of object handovers |
DE102021202759A1 (de) | 2021-03-22 | 2022-09-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks zum Steuern eines Roboters |
DE102021210903A1 (de) | 2021-09-29 | 2023-03-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Aufnehmen eines Objekts mittels einer Robotervorrichtung |
CN113733100B (zh) * | 2021-09-29 | 2022-10-28 | 珠海优特电力科技股份有限公司 | 巡检操作机器人的目标定位方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2133863Y (zh) * | 1992-09-23 | 1993-05-19 | 张应铭 | 光学套版投映装置及装有该装置的影象套版机 |
JPH10124767A (ja) * | 1996-10-24 | 1998-05-15 | Hochiki Corp | 防災監視制御盤のパネル構造 |
WO2003039820A1 (fr) * | 2001-11-06 | 2003-05-15 | Kabushiki Kaisha Yaskawa Denki | Procede servant a determiner la position tridimensionnelle et la posture d'un objet en cours de detection et detecteur visuel pour robot |
EP1462997A2 (en) * | 2003-03-25 | 2004-09-29 | Fanuc Ltd | Image processing device |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
CN103019023A (zh) * | 2012-11-21 | 2013-04-03 | 中山大学 | 基于体视技术的全视角三维显示***和方法 |
US20130108116A1 (en) * | 2010-07-16 | 2013-05-02 | Canon Kabushiki Kaisha | Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
US6317953B1 (en) * | 1981-05-11 | 2001-11-20 | Lmi-Diffracto | Vision target based assembly |
US6163946A (en) * | 1981-05-11 | 2000-12-26 | Great Lakes Intellectual Property | Vision target based assembly |
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
EP0852732A1 (en) * | 1995-09-21 | 1998-07-15 | Omniplanar, Inc. | Method and apparatus for determining position and orientation |
US5978504A (en) | 1997-02-19 | 1999-11-02 | Carnegie Mellon University | Fast planar segmentation of range data for mobile robots |
US7995096B1 (en) * | 1999-09-23 | 2011-08-09 | The Boeing Company | Visual security operations system |
US6297844B1 (en) * | 1999-11-24 | 2001-10-02 | Cognex Corporation | Video safety curtain |
US8625854B2 (en) * | 2005-09-09 | 2014-01-07 | Industrial Research Limited | 3D scene scanner and a position and orientation system |
JP2007090448A (ja) * | 2005-09-27 | 2007-04-12 | Honda Motor Co Ltd | 二次元コード検出装置及びそのプログラム、並びに、ロボット制御情報生成装置及びロボット |
JP4839827B2 (ja) * | 2005-12-26 | 2011-12-21 | コニカミノルタセンシング株式会社 | 3次元測定装置 |
DE102006036346B4 (de) | 2006-08-03 | 2010-12-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung |
DE102007008598A1 (de) | 2007-02-19 | 2008-08-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Automatische Programmierung von Robotern zum Abschweißen gehefteter Profile auf Mikropaneelen mit Hilfe digitaler Bilderfassung |
DE102007026956A1 (de) | 2007-06-12 | 2008-12-18 | Kuka Innotec Gmbh | Verfahren und System zum Roboter geführten Depalettieren von Reifen |
CA2591808A1 (en) * | 2007-07-11 | 2009-01-11 | Hsien-Hsiang Chiu | Intelligent object tracking and gestures sensing input device |
DE102008020579B4 (de) | 2008-04-24 | 2014-07-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur automatischen Objektlageerkennung und Bewegung einer Vorrichtung relativ zu einem Objekt |
AT507339B1 (de) | 2008-09-26 | 2011-06-15 | Stiwa Holding Gmbh | Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
EP2400261A1 (de) * | 2010-06-21 | 2011-12-28 | Leica Geosystems AG | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
JP5924862B2 (ja) * | 2010-12-15 | 2016-05-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP5863440B2 (ja) * | 2010-12-28 | 2016-02-16 | キヤノン株式会社 | 情報処理装置および方法 |
US8639644B1 (en) * | 2011-05-06 | 2014-01-28 | Google Inc. | Shared robot knowledge base for use with cloud computing system |
US8380349B1 (en) * | 2011-05-06 | 2013-02-19 | Google Inc. | Methods and systems for providing instructions to a robotic device |
EP2527784A1 (de) * | 2011-05-19 | 2012-11-28 | Hexagon Technology Center GmbH | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
US9199380B2 (en) * | 2011-10-28 | 2015-12-01 | University Of Washington Through Its Center For Commercialization | Acoustic proximity sensing |
JP2013101045A (ja) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
US8965104B1 (en) * | 2012-02-10 | 2015-02-24 | Google Inc. | Machine vision calibration with cloud computing systems |
US8933912B2 (en) * | 2012-04-02 | 2015-01-13 | Microsoft Corporation | Touch sensitive user interface with three dimensional input sensor |
US9846960B2 (en) * | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US20130343640A1 (en) * | 2012-06-21 | 2013-12-26 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
US9041914B2 (en) * | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9395810B2 (en) * | 2013-05-28 | 2016-07-19 | The Boeing Company | Ubiquitous natural user system |
US9904356B2 (en) * | 2013-05-28 | 2018-02-27 | The Boeing Company | Tracking a user to support tasks performed on complex-system components |
-
2014
- 2014-02-13 US US14/179,968 patent/US9233469B2/en not_active Expired - Fee Related
- 2014-03-06 DE DE102014102943.7A patent/DE102014102943B4/de active Active
- 2014-04-08 CN CN201410138089.8A patent/CN104842361B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2133863Y (zh) * | 1992-09-23 | 1993-05-19 | 张应铭 | 光学套版投映装置及装有该装置的影象套版机 |
JPH10124767A (ja) * | 1996-10-24 | 1998-05-15 | Hochiki Corp | 防災監視制御盤のパネル構造 |
WO2003039820A1 (fr) * | 2001-11-06 | 2003-05-15 | Kabushiki Kaisha Yaskawa Denki | Procede servant a determiner la position tridimensionnelle et la posture d'un objet en cours de detection et detecteur visuel pour robot |
EP1462997A2 (en) * | 2003-03-25 | 2004-09-29 | Fanuc Ltd | Image processing device |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
US20130108116A1 (en) * | 2010-07-16 | 2013-05-02 | Canon Kabushiki Kaisha | Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium |
CN103019023A (zh) * | 2012-11-21 | 2013-04-03 | 中山大学 | 基于体视技术的全视角三维显示***和方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106853637A (zh) * | 2015-12-09 | 2017-06-16 | 发那科株式会社 | 机器人控制装置以及通信*** |
US10345782B2 (en) | 2015-12-09 | 2019-07-09 | Fanuc Corporation | Robot control device and communication system having communication function for communicating with programmable logic controller |
CN106853637B (zh) * | 2015-12-09 | 2019-08-13 | 发那科株式会社 | 机器人控制装置以及通信*** |
CN105729468A (zh) * | 2016-01-27 | 2016-07-06 | 浙江大学 | 一种基于多深度摄像机增强的机器人工作台 |
CN106269548A (zh) * | 2016-09-27 | 2017-01-04 | 深圳市创科智能技术有限公司 | 一种物体自动分拣方法及其装置 |
CN107962549A (zh) * | 2016-10-20 | 2018-04-27 | 因特利格雷特总部有限责任公司 | 用于机器人纸箱卸载的3d-2d视觉*** |
CN110603571A (zh) * | 2017-04-26 | 2019-12-20 | Abb瑞士股份有限公司 | 用于操作机器人的机器人***和方法 |
CN110603571B (zh) * | 2017-04-26 | 2023-11-03 | Abb瑞士股份有限公司 | 用于操作机器人的机器人***和方法 |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护***和防护方法 |
CN107932560B (zh) * | 2017-11-14 | 2021-04-27 | 上海交通大学 | 一种人机安全防护***和防护方法 |
CN109820350A (zh) * | 2019-03-24 | 2019-05-31 | 济宁市传染病医院 | 一种自动分类存取档案柜 |
CN111783529A (zh) * | 2019-07-26 | 2020-10-16 | 牧今科技 | 基于边缘和多维拐角的检测后改善 |
CN111783529B (zh) * | 2019-07-26 | 2021-07-09 | 牧今科技 | 基于边缘和多维拐角的检测后改善 |
US11389965B2 (en) | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
US11850760B2 (en) | 2019-07-26 | 2023-12-26 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
Also Published As
Publication number | Publication date |
---|---|
DE102014102943A1 (de) | 2015-08-13 |
DE102014102943B4 (de) | 2018-08-30 |
CN104842361B (zh) | 2017-05-17 |
US20150224648A1 (en) | 2015-08-13 |
US9233469B2 (en) | 2016-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104842361A (zh) | 具有3d箱体定位功能的机器人*** | |
US9436987B2 (en) | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images | |
CN108044627B (zh) | 抓取位置的检测方法、装置及机械臂 | |
CN102922521B (zh) | 一种基于立体视觉伺服的机械臂***及其实时校准方法 | |
CN111151463B (zh) | 一种基于3d视觉的机械臂分拣抓取***及方法 | |
CN103529855B (zh) | 一种旋转可调式双目视觉的目标识别定位装置及其在农业果实采摘机械的应用 | |
CN104331894A (zh) | 一种基于双目立体视觉的机器人拆垛方法 | |
JPWO2012066819A1 (ja) | ワーク取り出し装置 | |
CN107263468A (zh) | 一种利用数字图像处理技术的scara机器人装配方法 | |
DE102020116803A1 (de) | System und verfahren zur objekterkennung auf der grundlage von bilddaten | |
CN104808490A (zh) | 一种面向模具保护的基于回声状态网络估计图像雅克比矩阵的无标定视觉伺服控制方法 | |
US20210276185A1 (en) | Imaging process for detecting failures modes | |
CN104515502A (zh) | 一种机器人手眼立体视觉测量方法 | |
EP4207068A1 (en) | Target object detection method and apparatus, and electronic device, storage medium and program | |
CN112288815A (zh) | 一种目标模位置测量方法、***、存储介质及设备 | |
CN114750154A (zh) | 一种配网带电作业机器人的动态目标识别定位与抓取方法 | |
CN114494463A (zh) | 一种双目立体视觉技术机器人分拣方法及装置 | |
JP2022152845A (ja) | ロボット制御用のキャリブレーション装置 | |
CN110533717B (zh) | 一种基于双目视觉的目标抓取方法及装置 | |
CN112102473A (zh) | 配网带电作业机器人的作业场景建模方法及*** | |
CN111625001B (zh) | 机器人的控制方法及装置、工业机器人 | |
Spevakov et al. | Detecting objects moving in space from a mobile vision system | |
CN111354031A (zh) | 基于深度学习的3d视觉引导*** | |
Chiu | Dual laser 3D scanner for Random Bin Picking system | |
Rohner et al. | Using active vision for enhancing an surface-based object recognition approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |