CN105522592B - 机器人的干涉区域设定装置 - Google Patents

机器人的干涉区域设定装置 Download PDF

Info

Publication number
CN105522592B
CN105522592B CN201510673066.1A CN201510673066A CN105522592B CN 105522592 B CN105522592 B CN 105522592B CN 201510673066 A CN201510673066 A CN 201510673066A CN 105522592 B CN105522592 B CN 105522592B
Authority
CN
China
Prior art keywords
mentioned
robot
color
interference region
point range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510673066.1A
Other languages
English (en)
Other versions
CN105522592A (zh
Inventor
西浩次
尾崎俊
尾崎俊一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN105522592A publication Critical patent/CN105522592A/zh
Application granted granted Critical
Publication of CN105522592B publication Critical patent/CN105522592B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

一种机器人的干涉区域设定装置,具备:3D摄像机,其通过对机器人的周围进行拍摄,来取得包含距离信息和颜色信息的机器人的周围的区域的拍摄图像;3D图生成部,其根据拍摄图像来生成由在机器人的周围的三维空间等间隔地配置的点列构成的3D图;颜色设定部,其设定机器人的颜色;颜色检索部,其从3D图中检索具有对应于机器人颜色的颜色信息的点列;以及干涉区域设定部,其根据检索到的点列的位置数据来设定干涉区域。

Description

机器人的干涉区域设定装置
技术领域
本发明涉及一种设定机器人的干涉区域的干涉区域设定装置。
背景技术
以往已知有如下的装置,其在使用机器人进行作业的情况下,为了避免机器人与周围的障碍物的干涉,而在机器人的周围设定供障碍物存在的干涉区域,并禁止机器人进入干涉区域内。关于这一点,例如在日本特开2005-81445号公报中,记载了一种脱机设定干涉区域并进行动作模拟的装置。在日本特开2005-81445号公报记载的装置中,从CAD装置读取机器人以及障碍物等的三维形状数据,并使用该三维形状数据在屏幕上设定干涉区域。进而,通过鼠标操作等,在屏幕上设定对应于安全栅等的干涉区域。
但是,在上述的日本特开2005-81445号公报中记载的装置中,需要为了设定干涉区域而预先准备三维形状模型,进而手动输入干涉区域,因此耗时较多。
发明内容
本发明的一方案的机器人的干涉区域设定装置具备3D摄像机,其通过对机器人的周围进行拍摄来取得包含距离信息和颜色信息的机器人的周围的区域的拍摄图像。干涉区域设定装置具有生成3D图的3D图生成部,该3D图由根据拍摄图像而在机器人的周围的三维空间等间隔地配置的多个点列构成,各个点列具有拍摄图像所包含的颜色信息。干涉区域设定装置具备颜色设定部,其设定能够区别机器人与障碍物的颜色,该颜色为机器人以及机器人的周围的障碍物的至少一方的颜色。干涉区域设定装置具备颜色检索部,其从由3D图生成部生成的3D图中检索具有对应于由颜色设定部设定的颜色的颜色信息的点列。干涉区域设定装置具备干涉区域设定部,其根据通过拍摄图像的距离信息而得到的位置数据来设定干涉区域,该位置数据是由颜色检索部检索到的点列的位置数据。
附图说明
本发明的目的、特征、以及优点可以通过联系附图而进行的以下实施方式的说明而变得更明确。在这些附图中:
图1是表示应用了本发明的实施方式的干涉区域设定装置的加工***的一个例子的图。
图2是表示本发明的实施方式的干涉区域设定装置的整体结构的框图。
图3是表示由图2的机器人控制装置执行的处理的一个例子的流程图。
具体实施方式
以下,参照图1~图3来对本发明的实施方式进行说明。图1是表示应用了本发明的实施方式的干涉区域设定装置的加工***100的一个例子的图。该加工***100具有机器人1和机床2。机床2具有罩3,利用罩3形成加工室4。在罩3的一部分设置有能够开闭的门5,通过门5把工件搬送至加工室4,并在加工室4内加工工件。
在加工室4中,配置有机器人1。机器人1例如是具有能够转动的多个臂的垂直多关节机器人。机器人1通过伺服马达的驱动进行动作,并在臂前端部把持工件、夹具,来辅助利用机床2进行的工件的加工。此外,还能够在臂前端部安装焊接装置、涂装装置来将机器人1构成为焊接机器人、涂装机器人,并在加工室4利用机器人1来加工工件。机器人1连接于机器人控制装置10(图2),按照预定的程序由机器人控制装置10来控制。也能够由作业人员将机器人1的驱动指令输入至机器人控制装置10,并根据该驱动指令来控制机器人1。
在通过作业人员的操作使这样配置在加工室4的机器人1进行动作的情况下,存在机器人1与机床2的一部分(加工室4内的工作台、地板、罩3等)或配置于加工室4的各种部件(以下,将这些统称为障碍物)干涉的隐患。因此,优选预先在机器人1的周围设定供障碍物存在的干涉区域,利用机器人控制装置10来禁止机器人1向干涉区域内移动。
干涉区域能够由作业人员通过将例如大小、位置不同的多个长方体输入到机器人控制装置10来设定。但是,这样手动设定干涉区域会费时。而且,在长方体的数目达到可输入的长方体的数目的上限的情况下,无法设定干涉区域。虽然也可以利用障碍物的3D模型来设定干涉区域,但是,在这种情况下,由于每当障碍物的位置、形状变化都需要重新制作3D模型,因此并不容易。由此,在本实施方式中,使用如下利用3D摄像机6所取得的机器人1的周围的拍摄图像来设定干涉区域。
3D摄像机6是一种立体摄像机,从不同的方向同时对对象物进行拍摄,通过产生视差来取得到对象物的距离信息。3D摄像机6具有相距规定距离地配置的一对摄像机6a、6b,且一对摄像机6a、6b分别具有拍摄元件。本实施方式的3D摄像机6不仅取得距离信息,还取得对象物的颜色信息(RGB等)。此外,3D摄像机6也可以是发射激光来根据反射位置以及反射时间来取得反射点的距离信息的摄像机。
在设定干涉区域时,首先,通过3D摄像机6来对机器人1的周围(加工室4的整个区域)进行拍摄。机器人1中带有表示机器人坐标系的基准点(例如原点)的标记7(图中为箭头)。因此,通过利用3D摄像机6来对包含标记7的区域进行拍摄,换句话说,通过将标记7包含到拍摄范围8,能够使用机器人坐标系来表示拍摄范围8内的对象物的位置(XYZ坐标)。
图1表示作业人员把持3D摄像机6进行拍摄的例子。另一方面,也能够由能够变更3D摄像机6的位置以及姿势的摄像机支架来保持3D摄像机6,并根据来自外部的拍摄指令来执行拍摄。在这种情况下,可以将控制信号输入到摄像机支架驱动用的驱动器来调整3D摄像机6的位置和姿势。这时,在拍摄范围8不包括加工室4的整体区域的情况下,变更3D摄像机6的位置以及姿势,并从多个地方和多个方向反复进行多次拍摄,直至结束对加工室4整体区域的拍摄。通过对这样得到的多个拍摄图像进行合成,能够取得加工室4的整体区域的机器人坐标系中的距离信息。这时,也可以不以摄像机支架来调整摄像机的位置和姿势,而是使用能够对由手拿着摄像机来拍摄的多个图像进行合成的摄像机。
图2是表示本发明的实施方式的干涉区域设定装置的整体结构的框图。干涉区域设定装置的一部分由机器人控制装置10构成。机器人控制装置10作为功能性结构,具有3D摄像机控制器11、3D图生成部12、颜色设定部13、颜色检索部14、干涉区域设定部15以及机器人控制部16。
在机器人控制装置10连接有示教操作盘9,示教操作盘9具有输入部9a,能够通过输入部9a将各种指令输入到机器人控制装置10。另外,示教操作盘9具有显示部9b,能够通过显示部9b来显示各种指令值、演算结果、干涉区域等。
3D摄像机控制器11控制3D摄像机6。即,将拍摄指令输出到3D摄像机6,来调整拍摄时刻。或者,调整激光的发射时刻。在由摄像机支架来保持3D摄像机6的情况下,3D摄像机控制器11能够将控制信号输出到摄像机支架,从而变更3D摄像机6的位置和姿势。通过3D摄像机6而取得的拍摄图像被存储到作为机器人控制装置10的存储部的存储器。
3D图生成部12根据存储于存储器的拍摄图像(距离信息),在机器人1的周围的三维空间等间隔地配置多个点列来形成3D图。即,3D图生成部12利用拍摄图像来特定机器人1和障碍物的位置,并在由机器人1和障碍物形成的三维空间等间隔地设定点列。此外,在生成3D图的阶段中,机器人1与障碍物还未被区别开来。
构成3D图的各个点列构成微小长度的正方形的区域。各点列分别具有拍摄图像所包含的颜色信息(RGB)的数据。即,在点列相当于机器人1、障碍物时,点列具有其颜色信息。一方面,在点列相当于加工室4内的什么都没有的空间时,赋予点列用于区别于机器人1和障碍物的颜色信息(例如R、G、B=0、0、0)。3D图生成部12还在由3D摄像机6取得的拍摄图像中通过图案匹配等来特定标记7的图像,并赋予对应于标记7的点列能够识别于其他点列的颜色信息(例如R、G、B=1、1、1)。
颜色设定部13设定通过示教操作盘9而指令的机器人1的颜色(外形颜色)。颜色设定部13设定能够区别机器人与障碍物的颜色。在本实施方式中,机器人1与障碍物由相互不同的颜色(分别称作机器人颜色和障碍物颜色)形成。例如机器人颜色为黄色,障碍物颜色为黄色以外(例如灰色)。此外,机器人颜色也可以包含多个颜色(例如黄色和红色),这种情况下的障碍物颜色为黄色和红色以外的单个或多个颜色。
颜色检索部14从由3D图生成部12生成的3D图中检索具有对应于标记7的颜色信息的点列。通过将检索到的点列作为基准点(原点),能够将3D图的各点列转换为机器人坐标系中的点列数据。再有,颜色检索部14检索具有对应于由颜色设定部13设定的机器人颜色(黄色)的颜色信息(RGB)的点列。有时机器人颜色会因经年变化等而在机器人的各部分产微小偏差。因此,在检索点列时,优选使颜色信息持有一定的宽度,并检索在该宽度内的点列。
干涉区域设定部15从三维图的点列排除由颜色检索部14检索到的机器人颜色的点列。然后,干涉区域设定部15根据3D图的剩余点列的位置数据来设定干涉区域。由此,仅利用障碍物的位置数据来设定干涉区域。所设定的干涉区域被存储到存储器。
机器人控制部16根据预定的加工程序或者按照来自作业人员的指令来将控制信号输出到机器人驱动用伺服马达,从而使机器人1进行动作。这时,机器人控制部16随时判定机器人1是否进入干涉区域。若机器人1进入了干涉区域,或者将要进入干涉区域,则机器人控制部16将停止信号输出到伺服马达来使机器人1的动作停止。由此能够防止机器人1与障碍物的碰撞。
图3是表示由机器人控制装置10执行的处理的一个例子的流程图。该流程图所示的处理例如在作业人员向机器人控制装置10输入干涉区域设定指令后开始。
在步骤S1中,颜色设定部13设定通过示教操作盘9来输入的机器人颜色。在步骤S2中,3D摄像机控制器11将控制信号输出到摄像机支架和3D摄像机6来对加工室4的整体区域进行拍摄,从而取得包含标记7的拍摄图像。在步骤S3中,3D图生成部12根据拍摄图像,在机器人1的周围的三维空间生成由多个点列构成的3D图。
在步骤S4中,颜色检索部14从3D图中检索标记7。在步骤S5中,3D图生成部12以对应于标记7的点列为基准,将3D图的各点列转换为机器人坐标系中的点列数据。在步骤S6中,颜色检索部14检索具有对应于步骤S1中设定的机器人颜色的颜色信息的点列。在步骤S7中,干涉区域设定部15从3D图点列中排除机器人颜色的点列,并使用3D图剩余的点列的位置数据来设定干涉区域。
根据本实施方式,能够起到如下的作用效果。
(1)干涉区域设定装置具备:3D摄像机6,其通过对机器人1的周围进行拍摄,来取得包含距离信息和颜色信息的机器人1的周围的区域的拍摄图像。干涉区域设定装置具备:3D图生成部12,其根据拍摄图像来生成由在机器人1的周围的三维空间等间隔地配置的多个点列构成的3D图;以及颜色设定部13,其设定机器人1的颜色。干涉区域设定装置具备:颜色检索部14,其从由3D图生成部12生成的3D图检索具有对应于机器人颜色的颜色信息的点列;以及干涉区域设定部15,其根据检索到的点列的位置数据来设定干涉区域。由此,不需要由用户手动输入来设定干涉区域,也不需要由用户制作障碍物的三维形状的模型,就能够容易地设定各种形状的干涉区域。
(2)颜色设定部13设定机器人颜色,颜色检索部14从3D图中检索具有对应于机器人颜色的颜色信息的点列(机器人点列),干涉区域设定部15根据除去机器人点列后的3D图剩余的点列的位置数据来设定干涉区域。因此,能够容易地设定排除了机器人1的适当的干涉区域。
(3)拍摄图像包含成为机器人坐标系的基准的标记7的图像,干涉区域设定部15根据标记7的图像在机器人坐标系中设定干涉区域。因此,机器人1的位置与干涉区域由同一个坐标系来表示,从而能够容易地判定机器人1是否进入了干涉区域。
此外,在上述实施方式中,由颜色设定部13来设定机器人的颜色,但也可以由其设定障碍物的颜色。在这种情况下,颜色检索部14从3D图中检索具有对应于障碍物的颜色的颜色信息的点列(障碍物点列),干涉区域设定部15根据障碍物点列的位置数据来设定干涉区域即可。也可以由颜色设定部13设定机器人颜色和障碍物颜色双方,并由颜色检索部14从3D图分别检索机器人点列和障碍物点列。即,如果是根据由颜色检索部14所检索的点列的位置数据来设定干涉区域的话,则干涉区域设定部15的结构可以为任一种结构。
在上述实施方式中,对对应于标记7的点列赋予能够识别于其他点列的颜色信息,并从3D图中检索标记7(步骤S4),但是在制作3D图时,也可以对对应于标记7的点列的数据赋予任意识别符,以使标记7的点列区别于其他的点列。即,如果是根据利用拍摄图像而特定的标记7的图像,干涉区域设定部15在机器人坐标系中设定干涉区域的话,也可以由其他的机构来检索标记7。
根据本发明,不需要用户手动输入来设定干涉区域,也不需要准备障碍物的三维形状模型,就能够容易地设定干涉区域。
以上的说明只是一个例子,只要不超出本发明的特征,本发明并不限定于上述的实施方式和变形例。上述实施方式和变形例的构成要素中包括维持发明的同一性并且能够置换且明显置换的要素。即,对于可在本发明的技术思想的范围内想到的其他形态来说,也包含在本发明的范围内。另外,也可以将上述实施方式和变形例的一个或多个进行任意组合。

Claims (3)

1.一种机器人的干涉区域设定装置,其特征在于,具备:
3D摄像机,其位置以及姿势能够改变且能够合成多个图像,通过对机器人的周围进行拍摄,来取得包含距离信息和颜色信息的上述机器人周围的区域的拍摄图像;
3D图生成部,其为根据上述拍摄图像来生成由在上述机器人周围的三维空间等间隔地配置的多个点列构成的3D图的3D图生成部,各个上述点列具有上述拍摄图像中所包含的上述颜色信息;
颜色设定部,其设定能够区别上述机器人与障碍物的颜色,该颜色为上述机器人以及上述机器人周围的上述障碍物的至少一方的颜色;
颜色检索部,其从由上述3D图生成部生成的上述3D图中检索具有对应于由上述颜色设定部设定的颜色的颜色信息的点列;以及
干涉区域设定部,其根据通过上述拍摄图像的上述距离信息而得到的位置数据来设定作为存在上述障碍物的区域的干涉区域,该位置数据是由上述颜色检索部检索到的上述点列的位置数据,
上述拍摄图像包含成为机器人坐标系的基准的标记的图像,
上述干涉区域设定部根据上述标记的图像,在机器人坐标系中设定上述干涉区域。
2.根据权利要求1所述的机器人的干涉区域设定装置,其特征在于,
上述颜色设定部设定上述机器人的颜色,
上述颜色检索部从上述3D图中检索具有对应于上述机器人的颜色的颜色信息的机器人点列,
上述干涉区域设定部根据除去上述机器人点列后的上述3D图剩余的点列的位置数据来设定上述干涉区域。
3.根据权利要求1所述的机器人的干涉区域设定装置,其特征在于,
上述颜色设定部设定上述障碍物的颜色,
上述颜色检索部从上述3D图中检索具有对应于上述障碍物的颜色的颜色信息的障碍物点列,
上述干涉区域设定部根据上述障碍物点列的位置数据来设定上述干涉区域。
CN201510673066.1A 2014-10-17 2015-10-16 机器人的干涉区域设定装置 Active CN105522592B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014213052A JP5980873B2 (ja) 2014-10-17 2014-10-17 ロボットの干渉領域設定装置
JP2014-213052 2014-10-17

Publications (2)

Publication Number Publication Date
CN105522592A CN105522592A (zh) 2016-04-27
CN105522592B true CN105522592B (zh) 2017-07-21

Family

ID=55638001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510673066.1A Active CN105522592B (zh) 2014-10-17 2015-10-16 机器人的干涉区域设定装置

Country Status (4)

Country Link
US (1) US9584796B2 (zh)
JP (1) JP5980873B2 (zh)
CN (1) CN105522592B (zh)
DE (1) DE102015013161B4 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410300B1 (ko) * 2015-06-26 2022-06-20 한국전자통신연구원 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
ES2903532T3 (es) 2016-06-10 2022-04-04 Univ Duke Planificación de movimiento para vehículos autónomos y procesadores reconfigurables de planificación de movimiento
JP6420296B2 (ja) 2016-12-01 2018-11-07 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置
JP6457469B2 (ja) 2016-12-08 2019-01-23 ファナック株式会社 移動ロボットの干渉領域設定装置
JP6434550B2 (ja) * 2017-02-06 2018-12-05 ファナック株式会社 可搬型ロボット
CN108032333B (zh) * 2017-10-30 2020-06-09 广州明珞汽车装备有限公司 可批量自动检查机器人仿真姿态的方法
JP2019084609A (ja) * 2017-11-06 2019-06-06 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびロボットシステム
CN108044624A (zh) * 2017-12-11 2018-05-18 上海信耀电子有限公司 一种基于powerlink总线的机器人控制***
JP6687591B2 (ja) 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
JP6994411B2 (ja) * 2018-02-28 2022-01-14 オークマ株式会社 工作機械システム
EP3769174B1 (en) 2018-03-21 2022-07-06 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
WO2020044491A1 (ja) * 2018-08-30 2020-03-05 TechShare株式会社 ロボット
JP6895128B2 (ja) * 2018-11-09 2021-06-30 オムロン株式会社 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
JP7147571B2 (ja) * 2019-01-15 2022-10-05 オムロン株式会社 経路生成装置、経路生成方法、及び経路生成プログラム
WO2020214723A1 (en) 2019-04-17 2020-10-22 Real Time Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
JP7479064B2 (ja) 2019-06-03 2024-05-08 リアルタイム ロボティクス, インコーポレーテッド 動的障害物を有する環境における動作計画を容易にする装置、方法及び物品
WO2021041223A1 (en) 2019-08-23 2021-03-04 Realtime Robotics, Inc. Motion planning for robots to optimize velocity while maintaining limits on acceleration and jerk
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
EP4096875A4 (en) * 2020-03-18 2024-02-28 Realtime Robotics, Inc. DIGITAL REPRESENTATIONS OF A ROBOT OPERATING ENVIRONMENT FOR MOTION PLANNING OF ROBOTS
CN112605999B (zh) * 2020-12-22 2022-01-18 杭州北冥星眸科技有限公司 基于红外线深度摄像头技术的机器人障碍检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101085523A (zh) * 2006-06-06 2007-12-12 发那科株式会社 机器人模拟装置
CN102426391A (zh) * 2011-09-05 2012-04-25 华南理工大学 一种判断机器人运行是否发生碰撞的方法
CN104102185A (zh) * 2013-02-27 2014-10-15 洛克威尔自动控制技术股份有限公司 具有人和物体区分的基于识别的工业自动化控制

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
JP2007307630A (ja) * 2006-05-16 2007-11-29 Nissan Motor Co Ltd ワーク格納装置およびワーク格納方法
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR100955483B1 (ko) 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
JP5343641B2 (ja) * 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
JP5539001B2 (ja) * 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
JP5742862B2 (ja) 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101085523A (zh) * 2006-06-06 2007-12-12 发那科株式会社 机器人模拟装置
CN102426391A (zh) * 2011-09-05 2012-04-25 华南理工大学 一种判断机器人运行是否发生碰撞的方法
CN104102185A (zh) * 2013-02-27 2014-10-15 洛克威尔自动控制技术股份有限公司 具有人和物体区分的基于识别的工业自动化控制

Also Published As

Publication number Publication date
US9584796B2 (en) 2017-02-28
JP2016078184A (ja) 2016-05-16
DE102015013161A1 (de) 2016-04-21
JP5980873B2 (ja) 2016-08-31
CN105522592A (zh) 2016-04-27
US20160112694A1 (en) 2016-04-21
DE102015013161B4 (de) 2018-04-19

Similar Documents

Publication Publication Date Title
CN105522592B (zh) 机器人的干涉区域设定装置
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
KR101980603B1 (ko) 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
CN105729466B (zh) 机器人识别***
EP2048557B1 (de) Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration
CN107438494A (zh) 用于激光加工的视觉预览
DE102019125126A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und System
EP2977844A1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
CN107052583A (zh) 包括成像装置的加性制造***和操作这类***的方法
JP5404450B2 (ja) 加工状況監視装置
DE102015209899B4 (de) Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
US9591228B2 (en) Method for the localization of a tool in a workplace, corresponding system and computer program product
EP3578321A1 (de) Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
JP2018048839A (ja) 三次元データ生成装置及び三次元データ生成方法、並びに三次元データ生成装置を備えた監視システム
JP2014184543A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6725736B1 (ja) 画像特定システムおよび画像特定方法
CN110458104B (zh) 人眼视线检测***的人眼视线方向确定方法和***
JP2022532725A (ja) 3次元深度マップデータの2次元画像上へのマッピング
JP2008009899A (ja) 組立作業用ロボットの自動教示システム及び教示方法
JP2021177144A (ja) 情報処理装置、情報処理方法及びープログラム
EP2831839B1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
JP7120894B2 (ja) 3次元モデル作成装置、加工シミュレーション装置、工具経路自動生成装置
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
AU2015345061B2 (en) A method of controlling a subsea platform, a system and a computer program product
WO2017038401A1 (ja) ワイヤハーネス製造装置、ワイヤハーネス製造方法及び被加工電線位置特定方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant