CN113710432A - 用于确定机器人的轨迹的方法 - Google Patents

用于确定机器人的轨迹的方法 Download PDF

Info

Publication number
CN113710432A
CN113710432A CN202080029579.8A CN202080029579A CN113710432A CN 113710432 A CN113710432 A CN 113710432A CN 202080029579 A CN202080029579 A CN 202080029579A CN 113710432 A CN113710432 A CN 113710432A
Authority
CN
China
Prior art keywords
robot
trajectory
determined
point
user input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080029579.8A
Other languages
English (en)
Inventor
P·梅斯特
W·纽鲍尔
K·沃姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of CN113710432A publication Critical patent/CN113710432A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40427Integrate sensing and action in planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40465Criteria is lowest cost function, minimum work path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40476Collision, planning for collision free path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40521Alternative, allowable path substitution if arm movements not possible
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40523Path motion planning, path in space followed by tip of robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种用于确定机器人从起始位置到目标位置的轨迹的方法。起始位置和目标位置由用户在机器人的真实环境中手动明确。然后基于机器人的环境确定机器人从起始位置到目标位置的无碰撞轨迹。本发明还涉及一种设备、一种机器人***、一种计算机程序和一种机器可读存储介质。

Description

用于确定机器人的轨迹的方法
技术领域
本发明涉及一种用于确定机器人从起始位置到目标位置的轨迹的方法。本发明还涉及一种设备、一种机器人***、一种计算机程序和一种机器可读存储介质。
背景技术
已知完全手动地教导机器人从起始位置到目标位置的轨迹。在此情况下,机器人行驶到起始位置和目标位置,其中用户分别随后通过输入预先给定其在这里是起始位置或目标位置。
该起始位置和该目标位置之间的轨迹然后借助于用户通过多个中间位置手动地明确。这意味着用户将机器人移动到位于所期望的轨迹上的多个中间位置。在每次驶向到中间位置之后规定,用户再次手动地通过输入向机器人预先给定要驶向该位置。
然后紧接着使机器人相继地驶向如此教导的中间位置,其方式是所述机器人在两个中间位置之间执行直线运动。
在此情况下,用户自己必须确定和明确起始位置和目标位置之间的轨迹。没有发生在使用环境模型的情况下计算机实现的轨迹计算。
以外已知的是,模拟机器人的环境。在这样模拟的环境中,用户明确起始位置和目标位置。然后以计算机实现的方式计算模拟环境中该起始位置和该目标位置之间的轨迹。
公开文献US 2017/0210008 A1公开了一种用于确定机器人从起始位置到目标位置的轨迹的方法。
公开文献US 2019/0015980 A1公开了一种用于确定机器人从起始位置到目标位置的轨迹的方法。
公开文献US 2019/0039242 A1公开了一种用于确定机器人从起始位置到目标位置的轨迹的方法。
发明内容
本发明所基于的任务在于提供一种用于有效地确定机器人从起始位置到目标位置的轨迹的概念。
该任务借助于独立权利要求的相应主题来解决。本发明的有利构型是各从属权利要求的主题。
根据第一方面,提供了一种用于确定机器人从起始位置到目标位置的轨迹的方法,包括以下步骤:
接收第一用户输入信号,所述第一用户输入信号表示在第一时间点的第一用户输入,即应当存储机器人在第一时间点的第一当前位置作为起始位置,
响应于对第一用户输入信号的接收,存储机器人的第一当前位置作为起始位置,
接收第二用户输入信号,所述第二用户输入信号表示在不同于第一时间点的第二时间点的第二用户输入,即应当存储机器人在第二时间点的第二当前位置作为目标位置,
响应于对第二用户输入信号的接收,存储机器人的第二当前位置作为目标位置,
接收环境信号,所述环境信号表示机器人的环境,并且
基于机器人的环境,确定机器人从存储的起始位置到存储的目标位置的无碰撞轨迹。
根据第二方面,提供了一种设备,该设备被设置为实施根据第一方面的方法的所有步骤。
根据第三方面,提供了一种机器人***,该机器人***包括机器人和根据第二方面的设备。
根据第四方面,提供了一种计算机程序,所述计算机程序包括指令,当计算机程序由计算机实施时,所述指令促使计算机实施根据第一方面的方法。
根据第五方面,提供了一种机器可读存储介质,在其上存储了根据第四方面的计算机程序。
本发明基于的认识是,可以通过如下方式解决以上任务:用户通过用户输入明确机器人的真实环境中的起始位置以及目标位置。
然后自动确定起始位置和目标位置之间的轨迹,其中在此情况下考虑机器人的环境以确定从起始位置到目标位置的无碰撞轨迹。
这因此意味着,根据这里描述的概念,尤其是规定用户将机器人行驶到第一位置,其中然后用户通过第一用户输入明确该第一位置要么是起始位置要么是目标位置。
还尤其是规定,用户将机器人移动到第二位置。然后,用户又执行第二用户输入以明确该第二位置是目标位置或者是起始位置。
因此没有规定,用户在模拟环境中明确起始位置和目标位置。因此,起始位置和目标位置的明确在机器人的真实环境中执行。因此,起始位置和目标位置是实际位置。
而从起始位置到目标位置的轨迹的确定不必再由用户来执行。更确切地,该确定以计算机实现的方式执行。这因此意味着,可以在没有用户方面的任何动作的情况下执行该确定。
因此,在说明书开头中描述的做法的一些部分方面以协同方式彼此组合。可以说将两种做法的优点挑选出来,从而以协同方式结合了两种做法的优点:一方面对从起始位置到目标位置的无碰撞轨迹的计算机实现的自动确定。另一方面,简单地明确了现实世界中的起始位置和目标位置。因此,用户例如有利地不必了解必须如何操作计算机程序来确定轨迹。
用户将机器人行驶到相对应的位置就足够了,以便然后通过简单的用户输入明确其在这里是起始位置或目标位置。
此外,例如实现了如下技术优点,即可以有效地、舒适地和快速地执行轨迹教导。
因此,尤其是引起了如下技术优点,即提供了一种用于有效确定机器人从起始位置到目标位置的轨迹的概念。
由环境信号表示的机器人的环境例如是真实环境、模拟或虚拟环境或组合的真实/模拟虚拟(模拟)环境。
机器人的虚拟或模拟环境例如由 CAD 环境确定。
例如在使用一个或多个环境传感器的情况下确定机器人的真实环境。这意味着,机器人的环境借助于这样的环境传感器或借助于多个这样的环境传感器来以传感方式检测,其中基于相对应的检测确定机器人的真实环境。
环境传感器是例如以下环境传感器之一:雷达传感器、超声波传感器、视频传感器、激光雷达传感器或磁场传感器。
在机器人的组合的真实/虚拟环境中,尤其是环境的一个或多个元素是模拟的,并且尤其是环境的一个或多个元素是真实的,也就是说尤其是在使用一个或多个环境传感器的情况下检测。
在一个实施方式中规定,接收第三用户输入信号,所述第三用户输入信号表示在第三时间点的第三用户输入,即应当存储机器人在第三时间点的第三当前位置作为中间位置,其中所述第三时间点不同于第一时间点且不同于第二时间点,其中响应于对第三用户输入信号的接收存储机器人在第三时间点的第三当前位置,其中基于存储的中间位置以这样的方式确定轨迹,即存储的中间位置位于轨迹上。
由此例如引起如下技术优点,即可以有效地确定轨迹。尤其是,由此引起如下技术优点,即用户可以有效地明确机器人应该驶向的一个或多个中间位置。
在一个实施方式中规定,产生并输出表示所确定的无碰撞轨迹的轨迹信号。
由此例如引起如下技术优点,即可以有效地提供所确定的轨迹。
根据一个实施方式规定,基于机器人的环境确定机器人从存储的起始位置到存储的目标位置的多个无碰撞轨迹。
涉及一个无碰撞轨迹的实施方式类似地适用于多个无碰撞轨迹,并且反之亦然。这因此意味着,如果“轨迹”是单数,则应始终一并阅读复数,并且反之亦然。与一个轨迹相关的实施类似地适用于多个轨迹,并且反之亦然。
同样的情况类似地适用于中间位置。这因此意味着,根据一种实施方式规定,多个中间位置应该位于所确定的轨迹上。相对应地于是例如规定,接收第四、第五和尤其是任意其他用户输入信号,其表示在相对应时间点的第四、第五和任意相对应的其他用户输入,即应当存储机器人在相对应的时间点的相对应当前的位置作为相对应的中间位置。
根据一个实施方式规定,基于所确定的轨迹和基于预先给定的最大速度,以这样的方式产生并输出用于控制机器人的机器人控制信号,使得在基于机器人控制信号控制机器人时,机器人以预先给定的最大速度沿着所确定的轨迹从起始位置运动到目标位置。
由此引起例如如下技术优点,即可以借助于用户在真实环境中有效地检查确定的轨迹。通过在这种情况下机器人仅以预先给定的最大速度运动,有利地引起可以有效地提高安全性。如果例如确定的轨迹有错误,则在可能碰撞时通过预先给定的最大速度有效地降低碰撞严重程度。预先给定的最大速度例如为25cm/s,例如3.3cm/s,例如5cm/s,例如小于或小于等于5cm/s。
对于自动化制造***中的运动部件,即当前对于机器人,尤其是对于机器人的各个关节,VDI 2854 规定在没有(由碰撞造成的)挤压和剪切风险的危险运动时的“可靠”降低的速度为最大25 cm / s 以及在具有挤压和剪切风险的危险运动时的“可靠”降低的速度为最大 3.3 cm / s。力驱动的分离保护装置的复位速度应 <= 5 cm / s (DIN EN12203)。
通过预先给定相对应的最大速度,尤其是引起如下技术优点,即可以遵守相关标准。
根据一个实施方式规定,基于所确定的轨迹并且基于机器人的环境,以这样的方式产生和输出显示控制信号,使得在基于显示控制信号控制显示装置时,借助于显示装置与机器人的环境一起显示所确定的轨迹。
由此例如引起如下技术优点,即可以有效地检查所确定的轨迹。根据该实施范式规定,向用户显示所确定的轨迹,从而用户可以在视觉上对此进行有效地检查。
根据一个实施方式,显示装置包括一个或多个屏幕。
屏幕例如是英语中称为“Touchscreen(触摸屏)”的触敏屏幕。
屏幕例如由终端设备、例如移动终端设备、例如智能手机或平板电脑包括。
这因此意味着,用户可以例如在使用其移动终端设备的情况下检查所确定的轨迹。
借助于显示装置与机器人的环境一起显示所确定的轨迹有利地引起如下技术效果,即可以有效地检查所确定的轨迹以确定机器人与环境的要素是否可能发生碰撞,而在此情况下在真是世界中不会发生机器人与该要素或对象的碰撞。
所确定的轨迹与环境一起显示在此尤其应在“增强现实(Augmented Reality)”的意义上理解,即扩展现实。
根据一种实施方式规定,接收边界条件信号,该边界条件信号表示针对要确定的轨迹的边界条件,其中该轨迹基于边界条件来确定。
由此例如引起如下技术优点,即可以有效地确定轨迹。尤其是,由此引起如下技术优点,即用户可以有效影响要确定的轨迹。
例如,边界条件明确了机器人和/或机器人的抓手的位置或姿态、机器人和/或机器人的抓手在特定位置或在沿着要确定的轨迹运动期间的取向。
根据一个实施方式规定,如果不能确定满足边界条件的轨迹,则以这样的方式适配边界条件,使得可以确定满足适配的边界条件的轨迹,从而基于适配的边界条件确定轨迹。
由此例如引起如下技术优点,即当最初无法满足边界条件时,也可以确定轨迹。
要遵守的边界条件可以例如是不允许机器人驶入的区域。另一个边界条件可以是必须遵守抓手的特定取向。两个边界条件于是都可以不那么有限制。
边界条件的适配因此例如意味着,上述两个边界条件不那么有限制。
与一个边界条件相关的实施类似地适用于多个边界条件,并且反之亦然。这因此意味着,如果“边界条件”是单数,则应始终一并阅读复数,并且反之亦然。在多个边界条件的情况下,这些边界条件例如是不同的。
根据一个实施方式规定,在多个边界条件的情况下,这些边界条件被不同地加权,其中相应的权重说明是否允许以及如果是的话,允许以何种顺序适配相对应的边界条件。
根据一个实施方式规定,在多个边界条件的情况下,输出提示信号,所述提示信号表示已经适配了哪些边界条件的提示。
由此例如引起如下技术优点,即能够有效地使用户随后决定其是否同意相对应的适配。
根据一个实施方式规定,确定多个无碰撞轨迹,这些轨迹分别包括从起始位置到目标位置的最短轨迹和/或最快轨迹和/或最均匀轨迹。
由此例如具有如下技术优点,即可以有效地为用户提供可能的无碰撞轨迹的选择。因此,用户可以选择他想要最短轨迹、最快轨迹还是最均匀轨迹。
本领域技术人员将最均匀轨迹理解为能量最优的轨迹,即具有最低能量消耗的轨迹,这又也包括小的加速度变化(“最均匀轨迹”)。
“最均匀轨迹”在这里尤其是被视为与时间最佳轨迹(“最快轨迹”)相关,该时间最佳轨迹是最快的轨迹并且具有强加速度变化,这可意味着更大的机械磨损。
“最均匀轨迹”在此尤其是与几何上最短的轨迹(“最短轨迹”)有关。
根据一个实施方式规定,接收机器人参数信号,所述机器人参数信号表示机器人环境中的另一机器人的机器人参数,其中基于机器人参数确定轨迹,其中机器人参数是选自以下机器人参数的组中的要素:另一机器人的另一轨迹的另一起始位置、另一机器人的另一轨迹的另一目标位置、另一机器人从另一起始位置到另一目标位置的另一轨迹、另一机器人的尺寸、另一机器人的轮廓。
由此例如引起如下技术优点,即在确定无碰撞轨迹时可以有效地考虑机器人的环境中是否存在另一机器人。
根据一个实施方式规定,该方法借助于该设备来实施或执行。
设备特征类似地由相对应的方法特征产生,并且反之亦然。这因此尤其意味着,该方法的技术功能以类似的方式由设备的相对应的技术功能产生,并且反之亦然。
表达“或(bzw.)”尤其是代表表达“或(respektive)”,其尤其代表“和/或”。
根据一个实施方式,机器人包括一个或多个机器人臂,所述机器人臂分别借助于关节彼此铰接连接。
根据一个实施方式,机器人包括一个或多个抓手。
确定从起始位置到目标位置的无碰撞轨迹尤其包括为机器人臂中的每一个确定自己的无碰撞子轨迹。
确定从起始位置到目标位置的无碰撞轨迹尤其包括为每个抓手确定自己的无碰撞子轨迹。
为了检测相对应的用户输入,根据一个实施方式设置人机接口或者根据一个实施方式设置几个人机接口。
根据一个实施方式,人机接口是选自以下人机接口的组中的要素:键盘、触敏屏幕、鼠标、按钮、开关。
例如规定,在机器人处布置这样的人机接口。
根据一个实施方式,可以提供触敏屏幕作为人机接口以及用于显示所确定的轨迹,尤其是在扩展现实的意义上与机器人的环境一起显示。
根据一个实施方式,根据第一方面的方法是计算机实现的方法。
根据一个实施方式,轨迹的确定是计算机实现的确定。
说明书意义上的位置,即尤其是开始位置、目标位置和中间位置,尤其是明确了机器人的空间位置和/或机器人的取向和/或机器人的抓手的取向和/或机器人臂的取向。
机器人的紧固点通常是固定的,除非机器人臂紧固在其他移动轴上。在这种情况下,这些轴与这些附加运动轴变成为机器人运动学的一部分。可以通过两种方式明确机器人位置:
通过所有关节值(旋转或平移)的位置,可以借助“正向运动学”来计算夹具的空间位置。
由于抓手的空间位置,即其位置和取向,可以借助“逆运动学”计算机器人的关节值。
根据一个实施方式规定机器人控制装置,该机器人控制装置被设置为控制机器人,尤其是控制机器人的运动。根据一个实施方式,基于所确定的轨迹来执行对机器人的控制。
根据一个实施方式,该方法包括借助于显示装置显示所确定的轨迹。
根据一个实施方式,该方法包括控制机器人,尤其是基于所确定的轨迹和预先给定的最大速度进行控制。
根据一个实施方式,第一时间点在第二时间点之前。根据一个实施方式,第二时间点在第一时间点之前。
这因此意味着,例如规定首先存储起始位置并且然后存储目标位置,或者相反。
这因此尤其意味着,根据一个实施方式,用户可以首先明确起始位置并且然后明确目标位置,或者相反。
相同的情况类似地适用于在第三时间点存储中间位置。因此,第三时间点尤其可以在第一时间点之前或在第一时间点之后或在第二时间点之前或在第二时间点之后或在第一时间点与第二时间点之间。
这因此尤其意味着,可以首先存储中间位置,其中于是首先存储起始位置,并且然后存储目标位置,或者相反。
这因此意味着,用户未明确其想要以哪个顺序存储位置中的哪一个。
同样的情况类似地适用于表示机器人的环境的环境信号的接收。
该步骤可在任意时间点执行。这因此意味着,例如,首先明确各个位置,其中然后才接收环境信号。例如也可以规定,首先接收环境信号,其中然后才明确位置。
这因此尤其意味着可以在该方法的流程中的任意时间点执行接收环境信号的步骤,只要该步骤在确定机器人的无碰撞轨迹的步骤之前执行。
附图说明
结合以下对实施例的结合附图更详细地解释的描述,本发明的上述特性、特征和优点以及实现它们的方式将变得更清楚和更明确,其中
图1示出了用于确定机器人轨迹的第一方法的流程图,
图2示出了用于确定机器人轨迹的第二方法的流程图,
图 3示出了设备,
图4示出了包括机器人的机器人***,
图5示出了机器可读存储介质,并且
图6示出了处于起始位置和处于目标位置的图4中所示的机器人。
具体实施方式
图1示出了用于确定机器人从起始位置到目标位置的轨迹的第一方法的流程图。
该方法包括以下步骤:
接收101第一用户输入信号,所述第一用户输入信号表示在第一时间点的第一用户输入,即应当存储机器人在第一时间点的第一当前位置作为起始位置,
响应于对第一用户输入信号的接收,存储103机器人的第一当前位置作为起始位置,
接收105第二用户输入信号,所述第二用户输入信号表示在不同于第一时间点的第二时间点的第二用户输入,即应当存储机器人在第二时间点的第二当前位置作为目标位置,
响应于对第二用户输入信号的接收,存储107机器人的第二当前位置作为目标位置,
接收109表示机器人的环境的环境信号,以及
基于机器人的环境,确定111机器人从存储的起始位置到存储的目标位置的无碰撞轨迹。
图2示出了用于确定机器人从起始位置到目标位置的轨迹的第二方法的流程图。
该方法包括以下步骤:
接收201第一用户输入信号,所述第一用户输入信号表示在第一时间点的第一用户输入,即应当存储机器人在第一时间点的第一当前位置作为起始位置,
响应于对第一用户输入信号的接收,存储203机器人的第一当前位置作为起始位置,
接收205第二用户输入信号,所述第二用户输入信号表示在不同于第一时间点的第二时间点的第二用户输入,即应当存储机器人在第二时间点的第二当前位置作为目标位置,
响应于对第二用户输入信号的接收,存储207机器人的第二当前位置作为目标位置,
接收209表示机器人的环境的环境信号,以及
基于机器人的环境,确定211机器人从存储的起始位置到存储的目标位置的无碰撞轨迹。
根据步骤213规定,基于所确定的轨迹并且基于预先给定的最大速度,将用于控制机器人的机器人信号产生为,使得在基于机器人控制信号控制机器人时,机器人以预先给定的最大速度沿着确定的轨迹从起始位置移动到目标位置。
该方法还包括输出所产生的机器人控制信号的步骤215。
替代地或附加地,可以在步骤213中规定,基于所确定的轨迹和基于机器人的环境以这样的方式产生显示控制信号,使得在基于显示控制信号控制显示装置时,借助于显示装置与机器人的环境一起显示所确定的轨迹。
替代地或附加地,可以在步骤215中规定输出所产生的显示控制信号。
图3示出了设备301。
设备301被设置为实施根据第一方面的方法的所有步骤。
设备301包括输入端303、处理器305和输出端307。
输入端303被设置为接收表示机器人环境的环境信号309。
输入端303还被设置为接收第一用户输入信号311,所述第一用户输入信号表示在第一时间点的第一用户输入,即应当存储机器人在第一时间点的第一当前位置作为起始位置。
输入端303还被设置为接收第二用户输入信号313,所述第二用户输入信号表示在不同于第一时间点的第二时间点的第二用户输入,即应当存储机器人在第二时间点的第二当前位置作为目标位置。
设备301还包括存储装置315,该存储装置被设置为存储机器人的第一当前位置作为起始位置并且被设置为存储机器人的第二当前位置作为目标位置。
存储设备315包括例如一个或多个存储器,例如电子和/或磁存储器。例如,存储装置315包括一个或多个硬盘和/或一个或多个SSD(“Solid State Disk(固态盘)”)。
处理器305被设置为基于存储的起始位置、基于存储的目标位置并且基于环境来确定机器人从起始位置到目标位置的无碰撞轨迹。
处理器305还被设置为基于所确定的轨迹产生轨迹信号317,所述轨迹信号表示所确定的无碰撞轨迹。
输出端 307 被设置为输出所产生的轨迹信号 317。
例如规定,所产生的轨迹信号317被输出到机器人控制装置,该机器人控制装置基于所确定的轨迹以这样的方式控制机器人,使得其沿着无碰撞轨迹从起始位置移动到目标位置。
例如规定,轨迹信号317被输出到显示装置,该显示装置然后显示所确定的轨迹,尤其是与机器人的环境一起显示。
一般地规定,所接收的信号借助于输入端 303 来接收。输入端303因此相对应地被设置为接收这样的信号。
所输出的信号一般例如借助于输出端 307 输出。这因此意味着输出端307尤其是被设置为输出这样的信号。
如果实施方式规定存储中间位置,则例如规定将中间位置存储在存储装置 315中。
图4示出了机器人***401。
机器人***401包括图3中所示的设备301。
机器人***401还包括机器人403,所述机器人包括第一机器人臂405、第二机器人臂407和第三机器人臂409。第一机器人臂405以铰接方式与第二机器人臂407连接。第二机器人臂407以铰接方式与第三机器人臂409连接。
抓手411布置在第一机器人臂405处。机器人***401包括机器人控制装置413,该机器人控制装置被设置为控制机器人403,尤其是控制机器人403的运动。
在一个实施方式中,机器人控制装置413不是机器人***401的一部分。
借助设备301产生的机器人控制信号例如被机器人控制装置413用于基于机器人控制信号控制机器人沿着所确定的无碰撞轨迹从起始位置到目标位置的运动。
机器人***401还包括显示装置415,该显示装置包括触敏屏幕417。
借助于设备301产生的显示控制信号被输出到触敏屏幕417,使得该触敏屏幕相对应地与机器人的环境一起显示所确定的轨迹。
用户可以通过触敏屏幕 417 进行输入。例如,在需要时,用户还可以通过触敏屏幕417来适配或改变所显示的、所确定的轨迹。
例如规定,第一用户输入或第二用户输入或第三用户输入借助于触敏屏幕417来检测。
在一个实施方式中规定,具有触敏屏幕417的显示装置417不是机器人***401的一部分。
图5示出了其上存储有计算机程序503的机器可读存储介质501。
计算机程序503包括指令,当计算机程序503由计算机、例如由设备301实施时,这些指令促使计算机实施根据第一方面的方法。
图6示出了处于起始位置601以及处于目标位置603的机器人403。
第三机器人臂409从起始位置601到目标位置603的运动借助带有附图标记605的箭头象征性地示出。
第二机器人臂407从起始位置601到目标位置603的运动借助于带有附图标记607的箭头象征性地示出。
第一机器人臂405从起始位置601到目标位置603的运动借助于带有附图标记609的箭头象征性地示出。
第一对象611、第二对象613和第三对象615布置在机器人403的环境中。
确定从起始位置 601 到目标位置 603 的无碰撞轨迹尤其是包括为三个机器人臂 405、407、409 中的每一个确定自己的无碰撞子轨迹。
虽然看起来第一机器人臂405在其从起始位置601运动到目标位置603时会与第一对象611发生碰撞,但是规定第一机器人臂405围绕第一对象601运动。
总之,本发明涉及一种用于确定机器人从起始位置到目标位置的轨迹的方法。起始位置和目标位置由用户在机器人的真实环境中手动明确。然后基于机器人的环境确定机器人从起始位置到目标位置的无碰撞轨迹。
本发明还涉及一种设备、一种机器人***、一种计算机程序和一种机器可读存储介质。
尽管已经通过优选的实施例更详细地图解说明和描述了本发明,但本发明不受所公开的示例限制,并且本领域技术人员可以在不脱离本发明的保护范围的情况下从中得出其他变化。

Claims (12)

1.一种用于确定机器人(403)从起始位置(601)到目标位置(603)的轨迹(605;607;609)的方法,包括以下步骤:
接收(101、201)第一用户输入信号(311),所述第一用户输入信号表示在第一时间点的第一用户输入,即应当存储机器人(403)在第一时间点的第一当前位置作为起始位置(601),
响应于对第一用户输入信号(311)的接收,存储(103、203)机器人(403)的第一当前位置作为起始位置(601),
接收(105、205)第二用户输入信号(313),所述第二用户输入信号表示在不同于第一时间点的第二时间点的第二用户输入,即应当存储机器人(403)在第二时间点的第二当前位置作为目标位置(603),
响应于对第二用户输入信号(313)的接收,存储(107、207)机器人(403)的第二当前位置作为目标位置(603),
接收(109、209)表示机器人(403)的环境的环境信号(309),以及
基于机器人(403)的环境,确定(111、211)机器人(403)从存储的起始位置(601)到存储的目标位置(603)的无碰撞轨迹(605;607;609)。
2.根据权利要求1所述的方法,其中接收第三用户输入信号,所述第三用户输入信号表示在第三时间点的第三用户输入,即应当存储机器人(403)在第三时间点的第三当前位置作为中间位置,其中第三时间点不同于第一时间点并且不同于第二时间点,其中响应于对第三用户输入信号的接收,存储机器人(403)在第三时间点的第三当前位置,其中基于存储的中间位置以这样的方式确定轨迹(605;607; 609),即存储的中间位置位于轨迹(605;607; 609)上。
3.根据权利要求1或2所述的方法,其中基于所确定的轨迹(605;607;609)并且基于预先给定的最大速度,以这样的方式产生(213)并输出(215)用于控制机器人(403)的机器人控制信号,使得在基于机器人控制信号控制机器人(403)时,机器人(403)以预先给定的最大速度沿着所确定的轨迹(605;607;609)从起始位置运动到目标位置。
4.根据前述权利要求中任一项所述的方法,其中基于所确定的轨迹(605;607;609)并且基于机器人(403)的环境,以这样的方式产生和输出显示控制信号,使得在基于显示控制信号控制显示装置(415)时,借助于显示装置(415)与机器人(403)的环境一起显示所确定的轨迹(605;607;609)。
5.根据前述权利要求中任一项所述的方法,其中接收边界条件信号,所述边界条件信号表示针对要确定的轨迹(605;607;609)的边界条件,其中所述轨迹(605;607;609)基于边界条件来确定。
6.根据权利要求5所述的方法,其中如果不能确定满足边界条件的轨迹(605;607;609),则以这样的方式适配边界条件,使得可以确定满足适配的边界条件的轨迹(605;607;609),从而基于适配的边界条件确定轨迹(605;607;609)。
7.根据前述权利要求中任一项所述的方法,其中确定多个无碰撞轨迹(605;607;609),这些轨迹分别包括从起始位置(601)到目标位置(603)的最短轨迹(605;607;609)和/或最快轨迹(605;607;609)和/或最均匀轨迹(605;607;609)。
8.根据前述权利要求中任一项所述的方法,其中接收机器人参数信号,所述机器人参数信号表示机器人(403)的环境中的另一机器人(403)的机器人参数,其中基于机器人参数确定轨迹(605;607;609),其中机器人参数是选自以下机器人参数的组中的要素:另一机器人(403)的另一轨迹(605;607;609)的另一起始位置(601)、另一机器人(403)的另一轨迹(605;607;609)的另一目标位置(603)、另一机器人(403)从另一起始位置(601)到另一目标位置(603)的另一轨迹(605;607;609)、另一机器人(403)的尺寸、另一机器人(403)的轮廓。
9.一种设备(301),所述设备被设置为实施根据前述权利要求中任一项所述的方法的所有步骤。
10.一种机器人***(401),包括机器人(403)和根据权利要求9所述的设备。
11.一种计算机程序(503),包括指令,在计算机程序(503)由计算机实施时,所述指令促使所述计算机实施根据权利要求1至8中任一项所述的方法。
12.一种机器可读存储介质(501),在其上存储有根据权利要求11所述的计算机程序(503)。
CN202080029579.8A 2019-04-16 2020-04-02 用于确定机器人的轨迹的方法 Pending CN113710432A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19169506.3 2019-04-16
EP19169506.3A EP3725472A1 (de) 2019-04-16 2019-04-16 Verfahren zum ermitteln einer trajektorie eines roboters
PCT/EP2020/059331 WO2020212147A1 (de) 2019-04-16 2020-04-02 Verfahren zum ermitteln einer trajektorie eines roboters

Publications (1)

Publication Number Publication Date
CN113710432A true CN113710432A (zh) 2021-11-26

Family

ID=66217768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080029579.8A Pending CN113710432A (zh) 2019-04-16 2020-04-02 用于确定机器人的轨迹的方法

Country Status (4)

Country Link
US (1) US20220161431A1 (zh)
EP (2) EP3725472A1 (zh)
CN (1) CN113710432A (zh)
WO (1) WO2020212147A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017214581A1 (en) 2016-06-10 2017-12-14 Duke University Motion planning for autonomous vehicles and reconfigurable motion planning processors
WO2019139815A1 (en) 2018-01-12 2019-07-18 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
US11738457B2 (en) 2018-03-21 2023-08-29 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
WO2020214723A1 (en) 2019-04-17 2020-10-22 Real Time Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
CN114206698B (zh) 2019-06-03 2024-07-02 实时机器人有限公司 在具有动态障碍物的环境中促进运动规划的装置、方法和物品
JP7368025B2 (ja) 2019-08-23 2023-10-24 リアルタイム ロボティクス, インコーポレーテッド 加速度とジャークの制限を維持しながら速度を最適化するロボットの動作計画
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
EP4221945A4 (en) * 2020-12-02 2024-04-03 Realtime Robotics, Inc. SYSTEMS, METHODS, AND USER INTERFACES USING CLEARANCE DETERMINATIONS IN ROBOTE MOVEMENT PLANNING AND CONTROL
US11878418B2 (en) * 2021-03-30 2024-01-23 Honda Research Institute Europe Gmbh Controlling a robot based on constraint-consistent and sequence-optimized pose adaptation

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004032996A1 (de) * 2004-07-08 2006-02-16 Abb Research Ltd. Einfache Roboterprogrammierung
DE102008058298A1 (de) * 2008-04-29 2009-11-05 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Bewegungsplanung eines Roboters
CN102528802A (zh) * 2010-12-31 2012-07-04 中国科学院计算技术研究所 九自由度机器人的运动驱动方法
CN104133472A (zh) * 2013-04-30 2014-11-05 库卡实验仪器有限公司 无人驾驶运输车辆及运行方法,包括该无人驾驶运输车辆的***及规划虚拟轨迹的方法
CN104607835A (zh) * 2014-12-15 2015-05-13 广西科技大学 一种焊接机器人焊接路径规划的方法
JP2015160253A (ja) * 2014-02-26 2015-09-07 キヤノン株式会社 軌道生成方法、ロボット装置、プログラム及び記録媒体
CN106003027A (zh) * 2016-06-03 2016-10-12 广州视源电子科技股份有限公司 机械臂运动路径的设置方法和***
US20170210008A1 (en) * 2016-01-25 2017-07-27 Canon Kabushiki Kaisha Robot trajectory generation method, robot trajectory generation apparatus, product fabrication method, recording medium, program, and robot system
CN108180901A (zh) * 2017-12-08 2018-06-19 深圳先进技术研究院 导盲机器人的室内导航方法、装置、机器人及存储介质
US20190015980A1 (en) * 2017-07-14 2019-01-17 Omron Corporation Motion generation method, motion generation device, system, and computer program
US20190039242A1 (en) * 2017-08-02 2019-02-07 Omron Corporation Interference determination method, interference determination system, and computer program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57113111A (en) * 1980-12-30 1982-07-14 Fanuc Ltd Robot control system
US6216058B1 (en) * 1999-05-28 2001-04-10 Brooks Automation, Inc. System of trajectory planning for robotic manipulators based on pre-defined time-optimum trajectory shapes
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
JP6755724B2 (ja) * 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
US9981383B1 (en) * 2016-08-02 2018-05-29 X Development Llc Real-time trajectory generation for actuators of a robot to reduce chance of collision with obstacle(s)
JP6998660B2 (ja) * 2017-02-21 2022-01-18 株式会社安川電機 ロボットシミュレータ、ロボットシステム及びシミュレーション方法
US10919153B2 (en) * 2017-03-06 2021-02-16 Canon Kabushiki Kaisha Teaching method for teaching operations to a plurality of robots and teaching system used therefor
JP6506348B2 (ja) * 2017-06-14 2019-04-24 ファナック株式会社 ロボットの軌道を修正するロボットの教示装置
US20200139545A1 (en) * 2017-07-05 2020-05-07 Omron Corporation Route Outputting Method, Route Outputting System and Route Outputting Program
JP6824855B2 (ja) * 2017-09-29 2021-02-03 株式会社安川電機 操作ユニットおよびロボット
CN111263685B (zh) * 2017-10-30 2023-09-15 瑞典爱立信有限公司 机器人方法和***
JP6895082B2 (ja) * 2017-11-09 2021-06-30 オムロン株式会社 干渉判定方法、干渉判定システム及びコンピュータプログラム
DE102018202321A1 (de) * 2018-02-15 2019-08-22 Robert Bosch Gmbh Koordinierungsanlage, Handhabungseinrichtung und Verfahren
WO2019190487A1 (en) * 2018-03-27 2019-10-03 Productive Robotics, Inc. Collaborative robot system incorporating enhanced human interface
EP3639983A1 (en) * 2018-10-18 2020-04-22 Technische Universität München Anti-collision safety measures for a reconfigurable modular robot
US11911908B2 (en) * 2018-12-21 2024-02-27 Intrinsic Innovation Llc Dynamic probabilistic motion planning
WO2020188630A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 ロボット制御装置、方法、及びプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004032996A1 (de) * 2004-07-08 2006-02-16 Abb Research Ltd. Einfache Roboterprogrammierung
DE102008058298A1 (de) * 2008-04-29 2009-11-05 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Bewegungsplanung eines Roboters
CN102528802A (zh) * 2010-12-31 2012-07-04 中国科学院计算技术研究所 九自由度机器人的运动驱动方法
CN104133472A (zh) * 2013-04-30 2014-11-05 库卡实验仪器有限公司 无人驾驶运输车辆及运行方法,包括该无人驾驶运输车辆的***及规划虚拟轨迹的方法
JP2015160253A (ja) * 2014-02-26 2015-09-07 キヤノン株式会社 軌道生成方法、ロボット装置、プログラム及び記録媒体
CN104607835A (zh) * 2014-12-15 2015-05-13 广西科技大学 一种焊接机器人焊接路径规划的方法
US20170210008A1 (en) * 2016-01-25 2017-07-27 Canon Kabushiki Kaisha Robot trajectory generation method, robot trajectory generation apparatus, product fabrication method, recording medium, program, and robot system
CN106003027A (zh) * 2016-06-03 2016-10-12 广州视源电子科技股份有限公司 机械臂运动路径的设置方法和***
US20190015980A1 (en) * 2017-07-14 2019-01-17 Omron Corporation Motion generation method, motion generation device, system, and computer program
US20190039242A1 (en) * 2017-08-02 2019-02-07 Omron Corporation Interference determination method, interference determination system, and computer program
CN108180901A (zh) * 2017-12-08 2018-06-19 深圳先进技术研究院 导盲机器人的室内导航方法、装置、机器人及存储介质

Also Published As

Publication number Publication date
WO2020212147A1 (de) 2020-10-22
EP3934859A1 (de) 2022-01-12
EP3725472A1 (de) 2020-10-21
US20220161431A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
CN113710432A (zh) 用于确定机器人的轨迹的方法
US11420330B2 (en) Robot control device, robot, and simulation device
US11220002B2 (en) Robot simulation device
CN107253196B (zh) 一种机械臂碰撞检测方法、装置、设备及存储介质
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
CN114728413B (zh) 用于控制远程机器人的图形用户界面的方法和***
EP2865496A1 (en) Latency smoothing for teleoperations system
CN112105486B (zh) 用于工业机器人的增强现实
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
WO2019064916A1 (ja) ロボットシミュレータ
JP7151713B2 (ja) ロボットシミュレータ
US20160354926A1 (en) Method And System For Operating And/Or Monitoring A Machine, In Particular A Robot
Shu et al. Human-robot collaboration: Task sharing through virtual reality
CN114800535B (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
JP6940204B2 (ja) 拡張現実を利用したコーディング教育方法
EP3900887A1 (en) Robot collision detection using cascading variational autoencoder
Kidiraliev et al. Using optical sensors for industrial robot-human interactions in a Gazebo environment
KR102007495B1 (ko) 가상 로봇을 활용한 교육 콘텐츠 실행 방법
JP7496553B2 (ja) 作業支援装置、データベース作成装置、作業支援システム、及び作業支援方法
WO2022255206A1 (ja) 情報処理装置、情報処理方法、及び、コンピュータプログラム
US20240058963A1 (en) Multi-mode robot programming
JP7067629B2 (ja) 制御装置、制御方法、及びプログラム
CN115482362A (zh) 虚拟场景中多数字目标与用户的相对位置检测方法和***
KR20240107155A (ko) 도시인-기계 상호작용을 위한 테스트 환경
KR20230122690A (ko) 가상 현실에서 로봇 및 코딩 블럭을 이용한 코딩 교육 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination