CN102300679A - 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及机器人手臂控制用集成电路 - Google Patents
机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及机器人手臂控制用集成电路 Download PDFInfo
- Publication number
- CN102300679A CN102300679A CN2010800059217A CN201080005921A CN102300679A CN 102300679 A CN102300679 A CN 102300679A CN 2010800059217 A CN2010800059217 A CN 2010800059217A CN 201080005921 A CN201080005921 A CN 201080005921A CN 102300679 A CN102300679 A CN 102300679A
- Authority
- CN
- China
- Prior art keywords
- action
- robot arm
- control
- mentioned
- environmental information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40424—Online motion planning, in real time, use vision to detect workspace changes
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
获得在动作信息数据库(17)中存储的机器人手臂(5)的动作信息,人(4A)对机器人手臂进行操作,获得其动作矫正时的矫正动作信息,用获得部(19)获得环境信息,在机器人手臂进行动作的过程中,用动作矫正部(20)对动作信息进行矫正,根据矫正后的动作信息和获得的环境信息,由控制规则生成部(23)生成用于机器人手臂自动进行动作的控制规则,根据生成的控制规则,对机器人手臂的动作进行控制。
Description
技术领域
本发明涉及用于生成、示教机器人手臂的动作的机器人手臂的控制装置及控制方法、具有机器人手臂的控制装置的机器人、机器人手臂的控制程序及机器人手臂的控制用集成电路。
背景技术
近年来,看护机器人或家务支援机器人等家庭用机器人在被积极研发。家庭机器人与工业用机器人不同,由于是家庭的外行来操作,所以有必要能够简单地示教动作。进而,机器人作业时的动作环境也根据家庭而多种多样,所以有必要灵活地与家庭环境相对应。
作为机器人装置的示教方法的一例,在机器人的手腕等上安装力传感器,示教者直接把持在力传感器前安装的手柄,将机器人向示教点引导,进行机器人的位置的示教(参考专利文献1)。
【现有技术文献】
专利文献1:日本特开昭59-157715号公报
但是,在专利文献1中,示教者有必要对所有的示教点进行示教,所以示教比较耗费时间,非常麻烦。进而,在工业用领域,在对已示教的运动的一部分进行修正的情况下,通过称之为示教器(teaching pendant)的远程装置,必须由编程来进行修正,或者,从一开始示教所有的动作,效率差。
特别是,就家庭用机器人而言,有必要尽可能缩短示教的时间。进而,关于利用示教器等远程装置的编程的并用,操作步骤增大,需要学会编程语言,这对于家庭中的外行而言比较困难。
另外,如专利文献1所述,在工业机器人中,明确分成对机器人的动作进行示教的示教作业和机器人实际作业的正式作业,但在家庭中,在执行示教后的作业的情况下,与进行了示教的环境不同的环境频繁发生变动,所以即便直接执行示教作业,也会有机器人因环境变动而停止或进行错误作业的情形。在这里,环境变动是指机器人进行动作时的周边的物的位置或状态的变动、和人或机器人直接作用于周边环境所致的物的位置或状态的变动。例如,在家庭环境中,家中物的配置或形状多种多样,例如,在烹调作业的烹调前和烹调后,发生物的形或状态发生变化等环境的变动。进而,在工业用途中,单元生产时的柔性基板等柔软物的形状发生变化或布线时的连接器的位置频繁变动。另外,在再循环工场中,拆卸的家电制品的形式多种多样,进而,由于如图37B(从上看图37A的螺钉73的头部73a得到的图)所示的螺钉的破损部分92、或如图37C所示的污渍部分93、如图37D所示的生锈部分94等随时间变化而形状多种多样。
难以事先估计到这些环境变动的全部而进行示教。
进而,在装配作业等的制造现场,型号(产品)改变频繁发生,所以示教作业也频繁发生。
因此,不会每当环境变动或型号改变时都从一开始示教全部的动作,对于动作中的机器人,人进行状况的辨别,如果有环境变化,人每次都向机器人传达,由此可以使示教无意识地操作。另外,即便在示教时发生预料不到的环境变动的情况下,每次都可以通过人进行示教而使机器人动作。
但是,在这种方法中,每当环境发生变动时,人必须每次都进行操作,所以比较麻烦。
发明内容
本发明就是鉴于这样的课题而完成的,其目的在于提供可以实现即便有无法预料的环境变动而作业者也能在短时间内简单进行机器人手臂的示教这样的机器人控制的、机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及机器人手臂控制用集成电路。
【用于解决课题的技术手段】
为了实现上述目的,本发明如下所示构成。
根据本发明的第一方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备:
动作信息获得部,其从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息,
矫正动作信息获得部,其在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息,
环境信息获得部,其对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息,
位置控制部,其以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动,
动作矫正部,其在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正,和
控制规则生成部,其对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第二方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备:
动作信息获得部,其从作为与上述动作对应的、上述机器人手臂对对象物施加的力的时间序列的动作信息加以存储的动作信息数据库,获得上述动作信息,
矫正动作信息获得部,其在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息相关联且与上述机器人手臂所施加的力有关的矫正动作信息,
环境信息获得部,其对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的上述对象物有关的信息的环境信息,
控制部,其以力控制模式对上述机器人手臂进行控制,以便上述机器人手臂以由上述动作信息获得部获得的在上述动作信息中设定的力对上述对象物进行力控制,
动作矫正部,在正通过上述控制部对上述机器人手臂以上述力控制模式进行控制期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正,和
控制规则生成部,其对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;
边参照由上述环境信息获得部获得的上述环境信息,边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第十二方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制方法,其中,
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;和
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第十三方式,提供一种机器人,其中,具备:
上述机器人手臂、和
对上述机器人手臂进行控制的第一~第十一方式中任一方式记载的上述机器人手臂的控制装置。
根据本发明的第十四方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制程序,其中,用于执行下述步骤:
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息的步骤;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息的步骤;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息的步骤;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动的步骤;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正的步骤;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则的步骤;
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制的步骤。
根据本发明的第十五方式,提供一种对机器人手臂的动作进行控制的机器人手臂控制用集成电路,其中,
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;和
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
【发明效果】
如上所述,本发明在周边环境发生变化时,人操作机器人手臂而对动作进行矫正,在下一次相同环境的情况下,一边参照由环境信息获得部获得的环境信息,一边根据由控制规则生成部生成的控制规则,使机器人手臂自觉地进行动作。
附图说明
本发明的这些和其它目的和特征,由有关附图的优选实施方式的下列记述而明确。其附图如下所示:
图1A是表示本发明的第一实施方式中的、具备机器人手臂及其控制装置的机器人的构成的简图;
图1B是表示本发明的上述第一实施方式中的上述机器人及其周边环境的简图;
图1C是表示本发明的上述第一实施方式中的上述机器人及其周边环境的简图;
图2是表示构成本发明的上述第一实施方式中的机器人的上述控制装置和作为控制对象的上述机器人手臂的详细构成的图;
图3A是本发明的上述第一实施方式中的与坐标系有关的图;
图3B是本发明的上述第一实施方式中的与坐标系有关的图;
图3C是本发明的上述第一实施方式中的与坐标系有关的图;
图4是表示本发明的上述第一实施方式中的上述控制装置的控制部的构成的框图;
图5A是对作为上述控制装置的动作信息数据库的数据的动作信息进行说明的图;
图5B是对作为上述控制装置的上述动作信息数据库的数据的动作信息进行说明的图;
图5C是对作为上述控制装置的上述动作信息数据库的数据的动作信息进行说明的图;
图6是对上述控制装置的上述动作信息数据库的标志的信息进行说明的图;
图7是对上述控制装置的上述动作信息数据库的与矫正参数标志有关的信息进行说明的图;
图8是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图9A是对上述控制装置的环境信息数据库的环境信息的一览表进行说明的图;
图9B是对上述控制装置的上述环境信息数据库的标志的信息进行说明的图;
图10A是对上述控制装置的控制规则数据库的控制规则的一览表进行说明的图;
图10B是对上述控制装置的上述控制规则数据库的控制规则的一览表进行说明的图;
图11A是对上述控制装置的检测部选择规则数据库的检测部选择规则的一览表进行说明的图;
图11B是对上述控制装置的上述检测部选择规则数据库的与检测部选择规则的环境信息的类别有关的信息进行说明的图;
图12是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图13A是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图13B是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图13C是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图13D是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图13E是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图14是表示本发明的上述第一实施方式中的环境信息的图像的例子的图;
图15是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图16是表示本发明的上述第一实施方式中的上述控制部的动作步骤的流程图;
图17A是表示本发明的上述第一实施方式中的动作指令部的动作步骤的流程图;
图17B是表示本发明的上述第一实施方式中的动作矫正部、动作指令部、控制规则生成部、环境信息获得部和控制参数管理部的动作步骤的流程图;
图18A是表示本发明的第二实施方式中的机器人手臂的控制装置的动作及人的操作状态的图;
图18B是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图19A是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作状态的图;
图19B是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图19C是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作状态的侧视图;
图19D是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作状态的俯视图;
图19E是表示本发明的上述第二实施方式中的上述机器人手臂的控制装置的动作状态的俯视图;
图20是表示本发明的上述第二实施方式中的环境信息的图像的例子的图;
图21是表示本发明的第三实施方式中的机器人的简图;
图22A是对上述第三实施方式中的机器人的机器人手臂的控制装置的动作信息数据库的动作信息的一览表进行说明的图;
图22B是对上述第三实施方式中的机器人的机器人手臂的控制装置的上述动作信息数据库的动作信息的一览表进行说明的图;
图23是对上述第三实施方式中的机器人的机器人手臂的控制装置的上述动作信息数据库的标志的信息进行说明的图;
图24A是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作状态的图;
图24B是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作状态的图;
图25是表示本发明的上述第三实施方式中的环境信息的图像的例子的图;
图26A是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图26B是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图26C是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图26D是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图27是表示本发明的上述第三实施方式中的上述机器人手臂的控制装置的环境信息的图像的例子的图;
图28A是表示本发明的上述第三实施方式中的机器人手臂的控制装置的动作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图28B是表示本发明的上述第三实施方式中的机器人手臂的控制装置的动作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图28C是表示本发明的上述第三实施方式中的机器人手臂的控制装置的动作状态的图(其中,为了使图简化,以省略电动驱动器具而用手部直接把持螺钉的状态示出。);
图29是表示本发明的上述第一实施方式中的动作指令部的动作步骤的流程图;
图30A是表示上述第一实施方式中的人施加的力和其时刻的关系的图;
图30B是表示上述第一实施方式中的人施加的力和其时刻的关系的图;
图31是表示本发明的第四实施方式中的机器人手臂的控制装置的构成的简图;
图32A是对上述第四实施方式中的动作信息数据库的动作信息的一览表进行说明的图;
图32B是对上述第四实施方式中的上述动作信息数据库的动作信息的一览表进行说明的图;
图33A是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图33B是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图33C是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图34是表示本发明的上述第四实施方式中的环境信息的图像的例子的图;
图35A是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图35B是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图35C是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图35D是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作及人的操作状态的图;
图35E是表示本发明的上述第四实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36A是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36B是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36C是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36D是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36E是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36F是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图36G是表示本发明的上述第一实施方式中的上述机器人手臂的控制装置的动作状态的图;
图37A是以往的螺钉的斜视图;
图37B是以往的有破损部分的螺钉的头部的俯视图;
图37C是以往的有污渍部分的螺钉的头部的俯视图;
图37D是以往的有生锈部分的螺钉的头部的俯视图。
具体实施方式
以下,根据附图对本发明涉及的实施方式进行详细说明。
以下,在参照附图对本发明中的实施方式进行详细说明之前,对本发明的各种方式进行说明。
根据本发明的第一方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备:
动作信息获得部,其从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息,
矫正动作信息获得部,其在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息,
环境信息获得部,其对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息,
位置控制部,其以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动,
动作矫正部,其在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正,和
控制规则生成部,其对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第二方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备
动作信息获得部,其从作为与上述动作对应的、上述机器人手臂对对象物施加的力的时间序列的动作信息加以存储的动作信息数据库,获得上述动作信息,
矫正动作信息获得部,其在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息相关联且与上述机器人手臂所施加的力有关的矫正动作信息,
环境信息获得部,其对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的上述对象物有关的信息的环境信息,
控制部,其以力控制模式对上述机器人手臂进行控制,以便上述机器人手臂以由上述动作信息获得部获得的在上述动作信息中设定的力对上述对象物进行力控制,
动作矫正部,在正通过上述控制部对上述机器人手臂以上述力控制模式进行控制期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正,和
控制规则生成部,其对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第三方式,在第一或第二方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息获得部具备对施加给上述机器人手臂的上述人的力进行检测的力检测部,
对应于由上述力检测部检测出的上述人的力和其检测时间,检测出上述人对上述机器人手臂进行了操作,由上述矫正动作信息获得部获得与对上述机器人手臂的上述动作进行矫正时上述机器人手臂所施加的力有关的上述矫正动作信息。
根据本发明的第四方式,在第一方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息获得部具备能对上述机器人手臂及上述机器人手臂进行上述动作的周边环境进行摄像的多个图像摄像装置,
上述控制规则生成部,对应于上述人对上述机器人手臂操作时上述机器人手臂的上述位置控制模式,从由上述环境信息获得部的上述多个图像摄像装置获得的多个环境信息中,对生成控制规则时的环境信息的类别进行决定。
根据本发明的第五方式,在第二方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息获得部具备对施加给上述机器人手臂的上述人的力进行检测的力检测部,
上述控制规则生成部,对应于上述人对上述机器人手臂操作时上述机器人手臂的上述力控制模式,在生成控制规则时使用由上述力检测部获得的环境信息。
根据本发明的第六方式,在第一~第五方式中任一方式记载的机器人手臂的控制装置的基础上,其中,
上述控制规则生成部决定对应于上述人向上述机器人手臂的环境变化通知操作而获得的环境信息。
根据本发明的第七方式,在第六方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息具有从多种检测方向进行检测而获得的环境信息,
上述控制规则生成部,决定对应于上述机器人手臂的上述人的操作而获得的上述环境信息的检测方向。
根据本发明的第八方式,在第一~第七方式中任一方式记载的机器人手臂的控制装置的基础上,其中,
还具备动作算出部,其从由上述控制规则生成部生成的控制规则当中的多个动作信息,参照由上述环境信息获得部获得的上述环境信息,算出1个动作信息。
根据本发明的第九方式,在第一~第七方式中任一方式记载的机器人手臂的控制装置的基础上,其中,
上述人操作上述机器人手臂而对上述机器人手臂的上述动作矫正,由上述矫正动作信息获得部获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息,然后,
在由上述环境信息获得部获得的上述环境信息与上述矫正的操作时的上述环境信息相同时,根据由上述控制规则生成部生成的上述控制规则,按照基于由上述矫正动作信息获得部获得的上述矫正动作信息进行矫正的方式,对上述机器人手臂的上述动作进行控制。
根据本发明的第十方式,在第一方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息获得部具备能对上述机器人手臂及上述机器人手臂进行上述动作的周边环境进行摄像的多个图像摄像装置,
在上述机器人手臂的前端,具备能以可装卸的方式把持能旋转螺钉的作业用工具的手部,上述作业用工具是上述对象物,
一边参照由上述多个图像摄像装置获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,在用上述机器人手臂的上述手部所把持的上述作业用工具进行上述螺钉的紧固或拧下作业时,对上述机器人手臂的上述动作进行控制。
根据本发明的第十一方式,在第二方式记载的机器人手臂的控制装置的基础上,其中,
上述环境信息获得部具备能对上述机器人手臂及上述机器人手臂进行上述动作的周边环境进行摄像的多个图像摄像装置,
在上述机器人手臂的前端,具备能以可装卸的方式把持柔性基板的手部,上述柔性基板是上述对象物,
边参照由上述多个图像摄像装置获得的上述环境信息,边根据由上述控制规则生成部生成的上述控制规则,在将上述机器人手臂的上述手部所把持的上述柔性基板安装于设备上的作业时,对上述机器人手臂的上述动作进行控制。
根据本发明的第十二方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制方法,其中,
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;和
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
根据本发明的第十三方式,提供一种机器人,其中,具备:
上述机器人手臂、和
对上述机器人手臂进行控制的第一~第十一方式中任一方式记载的上述机器人手臂的控制装置。
根据本发明的第十四方式,提供一种对机器人手臂的动作进行控制的机器人手臂的控制程序,其中,用于执行下述步骤:
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息的步骤;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息的步骤;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息的步骤;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动的步骤;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正的步骤;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则的步骤;和
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制的步骤。
根据本发明的第十五方式,提供一种对机器人手臂的动作进行控制的机器人手臂控制用集成电路,其中,
用动作信息获得部,从以时间序列存储与上述动作对应的、上述机器人手臂的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库,获得上述动作信息;
用矫正动作信息获得部,在人操作上述机器人手臂而对上述机器人手臂的上述动作进行矫正时,获得与由上述动作信息获得部获得的上述动作信息当中的至少1个以上上述动作信息对应的矫正动作信息;
用环境信息获得部,对应于上述人向上述机器人手臂的环境变化通知操作,获得作为与上述机器人手臂所作用的对象物有关的信息的环境信息;
用位置控制部,以位置控制模式对上述机器人手臂进行控制,以便使上述机器人手臂根据由上述动作信息获得部获得的上述动作信息进行移动;
用动作矫正部,在上述机器人手臂正通过上述位置控制部的控制而以上述位置控制模式进行移动期间,对应于由上述矫正动作信息获得部获得的在各时间的上述矫正动作信息,对上述动作信息进行矫正;
用控制规则生成部,对应于上述机器人手臂的上述人的上述环境变化通知操作,对由上述环境信息获得部获得的上述环境信息进行决定,且使由上述动作矫正部矫正过的上述动作信息和由上述环境信息获得部获得的上述环境信息建立对应,由此生成用于上述机器人手臂自动进行动作的控制规则;和
一边参照由上述环境信息获得部获得的上述环境信息,一边根据由上述控制规则生成部生成的上述控制规则,对上述机器人手臂的上述动作进行控制。
以下,使用附图详细说明本发明的实施方式。
(第一实施方式)
对本发明的第一实施方式中的具备机器人手臂及其控制装置的机器人1的构成进行说明。
图1A示出发明的第一实施方式中的具备机器人手臂5和对其机器人手臂5进行驱动控制的控制装置70的机器人1的概要。图1B是从上方看机器人手臂5进行作业的图1A的作业台7得到的图,图1C是从正面看图1A的作业台7及锅3得到的图。
(装置构成)
如图1A所示,机器人1的机器人手臂5,例如设置在家庭内的厨房或桌子等的作业台7的壁面7a上。机器人手臂5的基端5a,以能相对于在壁面7a固定的导轨8移动的状态被加以支承,机器人手臂5可以通过人4A的手4的力沿着导轨8上横向(例如水平方向)移动。机器人手臂5的基端的固定场所不限于作业台7的壁面7a,也可以是顶棚等。
作为后述的环境信息获得部19的一例的、摄像头等第一及第二图像摄像装置15a及15b,可以对机器人手臂5及机器人手臂5的进行动作的周边环境加以摄像而获得环境信息。在本第一实施方式中,如图1C所示,第一图像摄像装置15a,按照能从顶棚7b对整个作业台7进行摄像的方式从顶棚7b向下安装,如图1B、图1C所示,第二图像摄像装置15b,与作业台7的上面7d平行地安装于作业台7的侧面7c,能从横向对作业台7的上面附近进行摄像。
对机器人1的操作进行指示的操作盘13,作为数据输入IF26的一例发挥功能,配置在IH烹调电炉或煤气炉等烹调装置6的前侧侧面。操作盘13设置有用于输入基于使用者的操作指示的操作按钮13a或声音输入装置等。
在机器人手臂5的前端设置手部30,手部30以可装卸的方式把持作业用工具9(例如勺子等烹调用具或擦拭清洁用抹布等、或电动驱动器具72等)。作为手部30,例如可以使用机械卡盘等公知的能装卸的安装机构。
作为显示单元的一例的显示部95,例如是设置于作业台7的显示装置,将后述的机器人的动作等显示于显示部95。即,显示部95根据需要将所需要的信息显示于显示部95,以便顺利地进行本发明的各种动作。
需要说明的是,导轨8配置在作业台7的壁面7a,但在没有壁面的岛式厨房的情况下,可以设置在顶棚面或岛式厨房的面板6a的侧面等适于作业的场所。
进而,作为数据输入IF26的一例的操作盘13,固定于烹调装置6的侧面,但代替操作盘13,也可以是能进行远程操作的遥控。
机器人1例如在家庭内由机器人手臂5和人4A协作而进行下述作业:使用机器人手臂5搅拌锅3中的食材的作业、或擦去厨房的污渍的作业(图19B等所示的在有污渍的部分91的擦拭清洁作业)等。
以下,作为一例,首先,使用图1A,对通过机器人手臂5进行搅拌作业时的动作进行简单说明。
首先,人4A直接把持机器人1的机器人手臂5,人4A用手4向机器人手臂5施加力。此外,通过从人4A向机器人手臂5施加的力,机器人手臂5沿着导轨8移动,将机器人手臂5引导至例如锅等烹调器具3的附近。
接着,人4A用手4向机器人手臂5的前端的手部30安装用于进行搅拌作业的勺子等烹调用具9作为作业用工具9的一例。
接着,在人4A用手4从操作盘13向机器人手臂5输入动作开始指令时,机器人手臂5进行工作,使预先选择的作业即搅拌作业开始。
机器人手臂5通过勺子9在锅3中进行搅拌时,人4A对搅拌中的食材的状态进行确认,通过人4A直接把持机器人手臂5,在想要矫正的方向上对机器人手臂5施加力,对机器人手臂5的动作进行矫正。
在烹调结束后,人4A使机器人手臂5从作为烹调器具的一例的锅3内向锅3的外部移动,移行至下一个作业。
接着,对本第一实施方式的机器人1的详细内容进行说明。图2是机器人手臂5、和机器人手臂5的控制装置70的详细构成图。机器人手臂5的控制装置70如图2所示,具备控制装置主体部11、生成机器人手臂5的动作的动作生成装置12和周边装置14。
《机器人手臂》
第一实施方式的机器人手臂5,作为一例,为由6自由度的多联杆机械手构成的多关节机器人手臂。机器人手臂5具备:手部30、在前端32a具有安装手部30的手腕部31的前臂联杆32、前端33a以能旋转的方式与前臂联杆32的基端32b连结的上臂联杆33、和以能旋转的方式连结支承上臂联杆33的基端33b的台座部34。台座部34与能移动的导轨8连结,但也可以被固定在恒定位置。手腕部31具有第四关节部38、第五关节部39、第六关节部40三个旋转轴,可以使手部30相对于前臂联杆32的相对姿势(朝向)发生变化。即,在图2中,第四关节部38可以使手部30相对于手腕部31绕横轴(ψ)的相对姿势发生变化。第五关节部39可以使手部30相对于手腕部31绕与第四关节部38的横轴正交的纵轴(Φ)的相对姿势发生变化。第六关节部40可以使手部30相对于手腕部31绕与第四关节部38的横轴(ψ)及第五关节部39的纵轴(Φ)分别正交的横轴(θ)的相对姿势发生变化。前臂联杆32的另一端,可以相对于上臂联杆33的前端绕第三关节部37、即绕与第四关节部38的横轴平行的横轴旋转。上臂联杆33的另一端可以相对于台座部34绕第二关节部36、即绕与第四关节部38的横轴平行的横轴旋转。进而,台座部34的上侧可动部34a,可以相对于台座部34的下侧固定部34b,绕第一关节部35、即绕与第五关节部39的纵轴平行的纵轴旋转。
其结果,机器人手臂5可以绕总计6个轴旋转而构成上述6自由度的多联杆机械手。
在构成各轴的旋转部分的各关节部(具体而言为第一关节部35~第六关节部40),作为一例,具备电机43之类的旋转驱动装置、和检测电机43的旋转轴的旋转相位角(即关节角)的编码器44。
该第一实施方式的电机43配设在机器人手臂5的各关节部的内部。就电机43而言,在构成各关节部的两个联杆构件(例如,转动侧构件和对该转动侧构件进行支承的支承侧构件)中的一个联杆构件上具备,且通过在该一个联杆构件上具备的后述电机驱动器25驱动控制电机43。在各关节部的上述一个联杆构件的关节部的附近部分具备的电机43的旋转轴,与另一个联杆构件的关节部的附近部分连结,使上述旋转轴正反旋转,由此可以使上述另一个联杆构件相对于上述一个联杆构件分别绕第一关节部35~第六关节部40的各轴旋转。另外,编码器44是为了检测电机43的旋转轴的旋转相位角(即关节角)而由一个联杆构件所具备(实际上,配设在机器人手臂5的各关节部的一个联杆构件的内部)。
41是相对于台座部34的下侧固定部34b而相对位置关系被固定的绝对坐标系,42是相对于手部30而相对位置关系被固定的手尖坐标系。将从绝对坐标系41看到的手尖坐标系42的原点位置Oe(x,y,z)定义为机器人手臂5的手尖位置(手部30的位置),将从绝对坐标系41看到的手尖坐标系42的姿势用滚动角(roll)、俯仰角(pitch)和偏航角(yaw)来表现(φ,θ,ψ)而定义为机器人手臂5的手尖姿势,将手尖位置及姿势矢量定义为矢量
图3示出本发明的第一实施方式中的机器人手臂5的坐标系。
在该第一实施方式中,考虑以绝对坐标系35的Z轴为旋转轴、使坐标系旋转角度的坐标系(参照图3A),将此时的坐标轴定义为[X′,Y′,Z]。
接着,使该坐标系以Y′为旋转轴旋转角度θ(参照图3B),将此时的坐标轴定义为[X″,Y′,Z″]。
最后,使该坐标系以X″为旋转轴绕X″轴旋转角度ψ(参照图3C),将此时的坐标轴定义为[X″、Y′″、Z′″]。将此时的坐标系的姿势定义为滚动角俯仰角θ、偏航角ψ,此时的姿势矢量成为(θ,ψ)。在姿势(θ,ψ)的坐标系在使原点位置平行于手尖坐标系42的原点位置Oe(x,y,z)移动得到的坐标系与手尖坐标系42一致的情况下,手尖坐标系的姿势矢量为(θ,ψ)。
在对机器人手臂5的手尖位置及姿势进行控制的情况下,使手尖位置及姿势矢量r随动于由后述的目标轨道生成部55生成的手尖位置及姿势目标矢量rd。
机器人手臂5,通过具备后述的动作生成装置12、控制装置主体部11、周边装置14的机器人手臂的控制装置,被如下所述加以动作控制。
机器人手臂5的各关节部的、通过后述的编码器44输出的各关节角度信息,通过输入输出IF(接口)24的计数卡被控制装置主体部11取入。根据所取入的各关节角度信息,由控制装置主体部11算出各关节部的旋转动作下的控制指令值。由控制装置主体部11算出的各控制指令值,通过输入输出IF24的D/A板,被提供给用于对机器人手臂5的各关节部进行驱动控制的电机驱动器25。按照从电机驱动器25送来的上述各控制指令值,机器人手臂5的各关节部的电机43被独立地正反旋转驱动。
另外,作为通过电机驱动器25进行驱动控制的手部用驱动装置的一例,手部30具备手部开闭驱动用的电机62、和对手部开闭驱动用的电机62的旋转轴的旋转相位角进行检测的编码器61。
由编码器61检测出的电机62的旋转轴的旋转角度信息,通过输入输出IF24的计数卡被控制装置主体部11取入。基于被控制装置主体部11取入的旋转角度信息,通过控制装置主体部11的控制部22的手部控制部54(示于图4)算出手部30开闭动作时的控制指令值。算出的控制指令值,通过输入输出IF24的D/A板被提供给也进行手部30开闭驱动的电机驱动器25。按照从电机驱动器25送来的上述各控制指令值,对电机62的旋转进行驱动控制,手部开闭驱动用的电机62的旋转轴进行正反旋转,使手部30开闭。例如可以构成为:通过使电机62的旋转轴正向旋转,而打开手部30,可以用人4A的手4安装作业用工具9(例如勺子或抹布等),另一方面,通过使电机62的旋转轴反向旋转,而闭合手部30,对安装于手部30的作业用工具9(例如勺子或抹布等)进行固定。
控制装置主体部11、动作生成装置12及周边装置14,作为一例,分别由一般的个人计算机构成。
《周边装置14》
周边装置14具有数据输入IF(接口)26、输入输出IF(接口)24、和电机驱动器25。
输入输出IF24具有与个人计算机的PCI总线等扩展槽相连接的、例如D/A板、A/D板和计数卡等。输入输出IF24获得由机器人手臂5的各关节部的编码器44输出的各关节角度信息、和由手部30的编码器61输出的角度信息,向控制部22输入。另一方面,输入输出IF24从控制部22输入控制信号等控制信息,且向电机驱动器25输出控制指令值等控制信息。电机驱动器25,对机器人手臂5的各关节部的电机43及手部30的电机62输出控制指令值等控制信息。
关于数据输入IF(接口)26,是人4A使用键盘、鼠标或话筒等外部输入装置26a,经由数据输入IF26和数据库输入输出部28,对作业信息(例如作业ID)、或动作矫正操作指令信息、基于机器人手臂5的关节角速度信息的环境变化通知操作的指令、动作矫正操作的指令、或动作信息进行输入或变更的接口。由此,数据输入IF26与外部输入装置26a、数据库输入输出部28、动作指令部27(动作算出部2)、控制部22的力检测部53、控制参数管理部21、显示部95连接。
另外,数据输入IF26,可以使用作为数据输入IF26的一例的图1A所示的操作盘13的按钮13a等输入装置,接受由人4A向动作指令部27的控制动作开始及结束的指令。按钮13a,例如可以作为钮子开关由1个按钮分别输入控制动作开始及控制动作结束,也可以控制动作开始按钮和控制动作结束按钮分开设置。或者代替按钮,是使用键盘、鼠标或话筒等输入装置而向机器人1输入控制动作开始及控制动作结束等的指令的接口。
《动作生成装置12》
动作生成装置12包括动作信息数据库17、环境信息数据库18、控制规则数据库16、检测部选择规则数据库29、动作指令部27(动作算出部2)、动作矫正部20、控制规则生成部23、环境信息获得部19、和数据库输入输出部28。
在动作矫正部20和控制参数管理部21之间,机器人手臂5的手尖位置及姿势、人4A施加的力的信息、动作指令等被输入输出。从控制参数管理部21向动作矫正部20输出机器人手臂5的手尖位置及姿势、人4A所施加的力的信息等。需要说明的是,关于动作生成装置12中的各控制模式[(i)位置控制模式、(ii)阻抗控制模式、(iii)混合阻抗控制模式、(v)力混合阻抗控制模式]的详细内容,在控制装置主体部11的控制参数管理部21部分再加以描述。
-动作信息数据库-
动作信息数据库17中,存储有规定时间的机器人手臂5的手尖位置及姿势等与机器人手臂5的动作有关的信息(以下称为动作信息)。动作信息可以预先设定,也可以经由控制规则生成部23由数据库输入输出部28向动作信息数据库17输入而存储。
图5A(图5B、图5C也一样)示出作为动作信息数据库17的数据的动作信息。
图6示出动作信息数据库17的标志的信息。
图7示出动作信息数据库17的与矫正参数标志有关的信息。作为动作信息的具体例,参照图5A并如以下所示。
(1)在动作信息数据库17中存储的动作信息的“动作ID栏”,示出对用于让机器人手臂5执行作业的机器人手臂5的各运动进行识别的动作ID号。
(2)动作信息的“关键(key)动作ID”栏,示出识别对机器人手臂5进行动作控制的控制程序中的各动作(关键动作)(命令、command)的关键动作ID号。
(3)动作信息的“位置姿势”栏,示出与1个动作中的机器人手臂5的手尖位置及姿势有关的信息。需要说明的是,在本第一实施方式中,作为一例,以米(m)单位***表示手尖位置及姿势的坐标。
(4)动作信息的“力”栏,示出在机器人手臂5进行作业时与对成为作业对象的物体(作业对象物,例如作业用工具9、46、72或柔性基板74)施加的力有关的信息。需要说明的是,在本第一实施方式中,作为一例,以牛顿(N)单位***示出。
(5)动作信息的“标志”栏,示出与表示机器人手臂5的手尖位置、姿势及力的参数当中的任意信息是否有效的标志有关的信息。
(6)动作信息的“手部”栏,示出表示手部30是开还是闭的手部开闭状态的信息。
(7)动作信息的“时间”栏,示出与用于执行机器人手臂5的各关键动作的时间有关的信息。需要说明的是,在本第一实施方式中,作为一例,以秒(sec)单位示出。
(8)动作信息的“矫正参数标志”栏,示出与使用后述的动作矫正部20对动作信息数据库17的动作信息进行矫正时的、应矫正的参数的类别有关的信息。
在这里,“作业”例如是指搅拌作业或擦拭清洁作业等按照一定的顺序由机器人手臂5执行的工作。
另外,“动作”例如是指搅拌作业或擦拭清洁作业等用于让机器人手臂5执行作业的机器人手臂5的运动。通过执行1个以上的“动作”,可以使上述让机器人手臂5执行作业。
另外,“关键动作”,是指在对机器人手臂5进行动作控制的控制程序上,用于使机器人手臂5在某时刻进行某“动作”的命令(指令),由多个关键动作(命令)构成上述动作,按照用上述控制装置以时间序列执行多个关键动作(命令)的方式进行控制,由此可以实现机器人手臂5的上述“动作”。
与力有关的信息,表示在机器人手臂5进行作业时与对成为作业对象的物体(作业对象物)施加的力有关的信息,将力的x、y、z、θ、ψ方向的分量表示为(fx、fy、fz、fθ、fψ)。例如,在fz=5[N]的情况下,表示在z轴方向上施加5[N]的力进行作业。具体而言,在对IH烹调电炉6等的面板6a进行擦拭清洁作业时,是在沿着面板6a的表面的方向上施加力而擦拭等时使用。
图5A的动作信息数据库17的与“标志”有关的信息,是表示基于各“关键动作ID”所示的动作信息的机器人手臂5的手尖位置、姿势及力中的任意信息是否有效的值,具体而言,图6由图5A所示的32位(bit)的数值表示,各位数和位置姿势和力的参数被建立对应。在图6中,就各自的位而言,将手尖位置、姿势及力各自的值有效的情况设为“1”,将手尖位置、姿势及力各自的值无效的情况设为“0”。例如,就第0位而言,将机器人手臂5的手尖位置的x坐标的值有效的情况设为“1”,将无效的情况设为“0”。另外,就第1位而言,将机器人手臂5的手尖位置的y坐标的值有效的情况设为“1”,将无效的情况设为“0”。另外,就第2位而言,将机器人手臂5的手尖位置的z坐标的值有效的情况设为“1”,将无效的情况设为“0”。以后,依次地,就第3、4、5位而言,表示姿势的θ、ψ的有效性(即,将有效的情况设为“1”,将无效的情况设为“0”)。进而,就第6位~第11位而言,表示力的各分量是有效还是无效(即,将有效的情况设为“1”,将无效的情况设为“0”)。另外,与标志有关的信息为了将来可以扩展而准备多位(32位),在该例中,不使用第12位~第31位,所以事先放入“0”,但也可以为仅能储存12位的变量。图6示出图5A的动作信息数据库17的“关键动作ID”的“1”的关键动作的标志。第0位~第1位、第3位~第5位、及第8位成为“1”,所以表示动作信息的手尖位置及姿势信息当中x、y、θ、ψ信息有效,力信息当中仅fz有效。其结果,在动作信息当中,第2位、第6~7位、及第9~11位成为“0”,所以对于z、fx、fy、fθ、fψ的值,无论存储什么样的值都是无效的。
图5A的与“手部”有关的信息,作为表示动作中的手部30有无开闭的标志,在手部30打开的情况下记载为“0”,在手部30闭合的情况下记载为“1”。
图5A的动作信息数据库17的与“时间”有关的信息,是用于执行机器人手臂5的各关键动作的时间,即,表示机器人手臂5花费作为与对应的“时间”有关的信息而存储的时间进行在“关键动作ID”中存储的动作。即,该“时间”不是表示绝对时刻,而是表示自先前的动作起的相对时间。即,表示机器人手臂5的手部30向“关键动作ID”所示的“位置姿势”移动的时间或达到“关键动作ID”所示的“力”的时间。
图5A的动作信息数据库17的与“矫正参数标志”有关的信息,是表示后述的动作矫正部20对哪一参数进行矫正的信息。具体用图7所示的32位的数值表示。在图7中,就各自的位而言,将能对手尖位置、姿势及力的各自的值进行矫正的情况设为“1”,将不能对手尖位置、姿势及力的各自的值进行矫正的情况设为“0”。例如,就第0位而言,将能对手尖位置的x坐标的值进行矫正的情况设为“1”,将不能对手尖位置的x坐标的值进行矫正的情况设为“0”。另外,就第一位而言,将能对手尖位置的y坐标的值进行矫正的情况设为“1”,将不能对手尖位置的y坐标的值进行矫正的情况设为“0”。另外,就第二位而言,将能对手尖位置的z坐标的值进行矫正的情况设为“1”,将不能对手尖位置的z坐标的值进行矫正的情况设为“0”。以后,依次地第3、4、5位表示姿势的θ、ψ的矫正可能性(即,将能矫正的情况设为“1”,将不能矫正的情况设为“0”)。进而,就第6位~第11位而言,表示力的各分量的矫正可能性(即,将能矫正的情况设为“1”,将不能矫正的情况设为“0”)。另外,与标志有关的信息为了将来可以扩展而准备多位(32位),在该例中,由于不使用第12位~第31位,所以事先放入“0”,但也可以为仅能储存12位的变量。
动作信息数据库17的信息,被预先设定而数据库化,但机器人手臂5的手尖的位置姿势、力的输入及更新,也可以进行使用了机器人手臂5的示教,以下进行说明。
图8示出使用了本发明的上述第一实施方式中的机器人手臂5的基于人4A的示教的状态。
机器人手臂5的手尖的位置姿势及时间的信息如下所示而作成。即,例如图8所示,人4A用手4直接把持机器人手臂5,以后述的阻抗控制模式使机器人手臂5移动。此时,在每某恒定时间(例如每0.2msec)借助控制部22及控制参数管理部21由数据库输入输出部28获得机器人手臂5的手尖位置及姿势的信息。所获得的机器人手臂5的手尖位置及姿势的信息与时间一起通过数据库输入输出部28存储在动作信息数据库17中。如此可以在动作信息数据库17作成机器人手臂5的手尖的位置姿势及时间的信息。
进而,动作信息数据库17的力的信息,使用数据输入IF26且经由数据库输入输出部28将想要施加的力的值向动作信息数据库17输入,由此而作成。
需要说明的是,在该例中,连续作成了机器人手臂5的手尖的位置姿势及时间的信息,但也可以由人4A使用键盘、鼠标、或话筒等外部输入装置26a,分开输入各自的位置姿势及时间的信息。
-环境信息数据库-
环境信息数据库18中,存储有机器人手臂5进行动作时与机器人手臂5周边的物体的位置及状态有关的信息、和与人4A及机器人手臂5直接作用于周边环境所致的物体的位置及状态有关的信息(以下将这些信息称为环境信息。)。环境信息由后述的环境信息获得部19获得,从环境信息获得部19经由数据库输入输出部28存储在环境信息数据库18中。
接着,详细说明环境信息数据库18。
图9A表示作为环境信息数据库18的数据的环境信息。
图9B表示环境信息数据库18的标志的信息。
(1)在环境信息数据库18中存储的环境信息的“环境ID”栏,示出对各环境信息进行识别的环境ID号。
(2)环境信息的“图像ID”栏,示出对作为环境信息获得部19的一例发挥功能的第一及第二图像摄像装置15a及15b进行摄像得到的图像加以识别的图像ID号。在这里,使用文件名。
(3)环境信息的“图像摄像装置ID”栏,是对用2个图像摄像装置15a及15b当中的哪一图像摄像装置进行了摄像加以识别的ID号。在该例中,在由第一图像摄像装置15a进行摄像的情况下示为“1”,在由第二图像摄像装置15b进行了摄像的情况下示为“2”。
(4)环境信息的“力”栏,示出与由力检测部53检测出的力有关的信息(力的信息)。
(5)环境信息的“标志”栏,示出与表示环境信息的力及图像的参数当中的任意信息是否有效的标志有关的信息。
图9A的环境信息数据库18的与“标志”有关的信息,是表示各环境ID所示的环境信息的图像及力的信息是否有效的值。具体而言,用图9B所示的32位的数值表示。在图9B中,就各位而言,将图像及力的值分别有效的情况设为“1”,将图像及力的值分别无效的情况设为“0”。在本第一实施方式中,第0位~第5位表示力的信息,第6位表示图像的信息。例如,就第0位而言,将力的x坐标的值有效的情况设为“1”,将无效的情况设为“0”。另外,就第1位而言,将力的y坐标的值有效的情况设为“1”,将无效的情况设为“0”。另外,就第2位而言,将力的z坐标的值有效的情况设为“1”,将无效的情况设为“0”。以后,依次地第3、4、5位表示力的θ、ψ的有效性。即,将有效的情况设为“1”,将无效的情况设为“0”。进而,在第6位,表示由第一或第二图像摄像装置15a或15b进行摄像得到的图像是有效还是无效(即,将有效的情况设为“1”,将无效的情况设为“0”)。
与标志有关的信息为了将来可以扩展而准备多位(32位),在该例中,由于不使用第7位~第31位,所以事先放入“0”,但也可以为仅能储存6位的变量。在图9B中,第0位~第5位成为“0”,第6位成为“1”,所以表示仅仅环境信息的图像信息是有效的。
-控制规则数据库-
控制规则数据库16中,存储有机器人手臂5进行工作时与机器人手臂5的控制规则有关的信息(以下称为控制规则信息)。控制规则信息由后述的控制规则生成部23生成,通过数据库输入输出部28,在控制规则生成部23和控制规则数据库16之间输入输出所生成的信息或生成所需要的信息等。另外,通过数据库输入输出部28,在控制规则生成部23和其他数据库18、17、29之间输入输出生成所需要的信息等。
接着,使用图10A及图10B详细说明控制规则数据库16。
图10A和图10B示出控制规则数据库16的控制规则的一例。
(1)在控制规则数据库16中存储的控制规则的“作业ID”栏,示出对与作业有关的信息进行识别的作业ID号。
(2)控制规则的“环境ID”栏,是表示对各环境信息进行识别的环境ID号,可以参照环境信息数据库18的环境ID的值。在不能参照环境信息数据库18的环境ID的值的情况下,作为“-1”加以存储。
(3)控制规则的“动作ID”栏,示出对作业的中的机器人手臂5的动作进行识别的动作ID号,可以参照动作信息数据库17的动作ID。
(4)控制规则的“进程信息”栏,示出机器人手臂5的规定动作是否在动作中,将在动作中的情况设为“1”,将不在动作中的情况设为“0”,通过数据库输入输出部28存储在控制规则数据库16中。具体而言,在通过动作指令部27开始作业时,关于机器人手臂5的在当前动作(执行)中的动作,通过数据库输入输出部28在控制规则数据库16中存储“1”,关于并非在当前动作(执行)中的动作,通过数据库输入输出部28在控制规则数据库16中存储“0”。
-检测部选择规则数据库-
检测部选择规则数据库29中,存储有在操作机器人手臂5而获得环境信息时、用于通过机器人手臂5的控制模式选择从多个环境信息中优先获得的环境信息的类别的规则(检测部选择规则)。检测部选择规则数据库29在机器人1中被预先准备,通过数据库输入输出部28被输入输出检测部选择规则的信息。
接着,使用图11A、图11B详细说明检测部选择规则数据库29。
图11A示出检测部选择规则数据库29的检测部选择规则。
图11B示出与检测部选择规则数据库29的检测部选择规则的环境信息的类别有关的信息。
(1)在检测部选择规则数据库29中存储的检测部选择规则的“控制模式”栏,示出与机器人手臂5的控制模式有关的信息。具体而言,与控制装置主体部11的控制参数管理部21相关联而如后所述。
(2)检测部选择规则的“环境信息的类别ID”栏,示出对环境信息的类别进行识别的识别ID。环境信息的识别ID是用于对由作为检测部的环境信息获得部19、例如机器人手臂5所搭载的各种传感器(例如力检测部53)或机器人1的各种传感器(例如第一或第二图像摄像装置15a或15b)获得的环境信息的类别进行识别的ID。图11A的“环境信息类别ID”用图11B进行定义。具体而言,作为检测部选择规则,如图11B所示,在“环境信息的类别ID”为“1”的情况下,表示由作为检测部的一例的第一或第二图像摄像装置15a或15b进行摄像得到的图像,在“环境信息的类别ID”为“2”的情况下,表示由作为检测部的其他例子的力检测部53检测出的力。
-数据库输入输出部-
数据库输入输出部28,进行各数据库组(动作信息数据库17、环境信息数据库18、控制规则数据库16、检测部选择规则数据库29)、动作指令部27、控制规则生成部23、环境信息获得部19、及动作矫正部20之间的数据的输入输出。由此,数据库输入输出部28,能作为动作信息获得部及矫正动作信息获得部的一例发挥功能。即,数据库输入输出部28可以作为如下的动作信息获得部发挥功能,即从以时间序列存储与机器人手臂5的动作对应的、机器人手臂5的位置、姿势、及速度的至少1个以上作为动作信息的动作信息数据库17获得上述动作信息的动作信息获得部;或从作为与机器人手臂5的动作对应的、机器人手臂5施加给作业对象物9、46、72、74的力的时间序列的动作信息而加以存储的动作信息数据库17获得上述动作信息的动作信息获得部。另外,数据库输入输出部28,可以在人4A操作机器人手臂5而对机器人手臂5的上述动作进行矫正时,作为获得与由动作信息获得部获得的动作信息当中至少1个以上上述动作信息对应的矫正动作信息的矫正动作信息获得部发挥功能,或者可以在人4A操作机器人手臂5而对机器人手臂5的动作进行矫正时,作为获得与动作信息获得部获得的动作信息相关联且与机器人手臂5施加的力有关的矫正动作信息的矫正动作信息获得部发挥功能。
当然,也可以将数据库输入输出部28分割成进行动作信息的输入输出的动作信息获得部、进行矫正动作信息的输入输出的矫正动作信息获得部、和进行其他信息的输入输出的其他信息获得部。
-环境信息获得部-
环境信息获得部19,获得与机器人手臂5所作用的作业对象物9、46、72、74有关的信息的环境信息、即与机器人手臂5进行动作时的机器人手臂5的周边物体的位置及状态有关的信息、和与人4A及机器人手臂5直接作用于周边环境所致的物体的位置及状态有关的信息。具体而言,获得由第一或第二图像摄像装置15a或15b进行摄像得到的图像和由力检测部53检测出的力的信息,从环境信息获得部19向控制规则生成部23及动作指令部27输出由第一或第二图像摄像装置15a或15b获得的图像及由力检测部53检测出的力的信息。由此,第一及第二图像摄像装置15a和15b及力检测部53,分别作为环境信息获得部19的一例发挥功能。
-动作指令部-
人4A通过数据输入IF26指定的“作业ID”的作业的动作开始的指令,从数据输入IF26向动作指令部27输入。动作指令部27,接受被指定的“作业ID”的作业的动作开始的指令,借助数据库输入输出部28参照控制规则数据库16的被指定的“作业ID”,对控制参数管理部21作出指令,以便使该作业ID的作业开始。
以下,对动作指令部27的功能进行说明。
人4A通过数据输入IF26,使用由显示部95对作业等进行显示后的显示图像,同时从控制规则数据库16的作业中的与“作业ID”有关的作业中选择想使机器人手臂5执行的作业,向动作指令部27输入所选择的作业信息而加以指定。
动作指令部27,借助数据库输入输出部28而参照控制规则数据库16,执行与所指定的“作业ID”对应的“动作ID”的动作。在这里,所谓执行“动作ID”的动作,是指动作指令部27借助数据库输入输出部28而参照动作信息数据库17,向控制参数管理部21作出指令,以便基于对应的关键动作(具体而言,位置信息、姿势信息、时间信息、及力信息)并依照标志(表示是有效还是无效的标志)设定控制模式而使机器人手臂5进行动作。
动作指令部27借助数据库输入输出部28而参照控制规则数据库16时,在由动作指令部27判断为在与1个“作业ID”有关的作业中有多个“环境ID”的环境信息存在的情况下,或在由动作指令部27判断为有多个“动作ID”的动作存在的情况下,按控制规则数据库16从上到下依次执行各自的环境信息或动作。
在这里,在“环境ID”为值“-1”的情况下,是指未参照环境信息数据库18的“环境ID”的值。由此,不论机器人手臂5进行动作的周边环境如何,动作指令部27借助数据库输入输出部28,从动作信息数据库17参照与在“动作ID”中记述的ID相同的“动作ID”的动作。
以下说明的是:人4A通过数据输入IF26选择了“作业ID”的“1”的情况和选择了“作业ID”的“2”的情况。
(选择了“作业ID”的“1”的情况)
具体而言,当选择了图10A的“作业ID”为“1”的作业时,在“作业ID”为“1”的作业的“环境ID”是值“-1”的情况下,此时的“动作ID”是“1”的动作。因此,动作指令部27,为了使机器人手臂5与环境无关地执行动作,借助数据库输入输出部28而参照动作信息数据库17的“动作ID”。在该例中,在控制规则数据库16的“动作ID”中存储为“1”,动作指令部27借助数据库输入输出部28,依次参照图5A的动作信息数据库17的“动作ID”为“1”的动作的“关键动作ID”的“1”、“2”、“3”、“4”、“5”、“6”、“7”、“8”的关键动作(命令)。
在动作信息数据库17的“关键动作ID”为“1”的关键动作(命令)的情况下,就“标志”而言,第0、1、3、4、5、8位为“1”,所以表示机器人手臂5的手尖位置的x、y、θ、ψ的值、及力的z坐标的值有效。由此,从动作指令部27经由数据库输入输出部28对控制参数管理部21作出指令(与力混合阻抗控制的指令等同),以便使x轴、y轴、轴、θ轴、ψ轴以位置控制模式进行动作、使z轴以力控制模式进行动作。同样地,关于“关键动作ID”为“2”~“8”的关键动作(命令),从动作指令部27经由数据库输入输出部28对控制参数管理部21作出指令,以便使其以力混合阻抗控制模式进行动作。
(选择了“作业ID”的“2”的情况)
同样地,在选择了图10A的“作业ID”为“2”的作业的情况下,“作业ID”为“2”的作业的“环境ID”是值“-1”,是此时的“动作ID”为“2”的动作。因此,动作指令部27,为了使机器人手臂5与环境无关地执行动作,借助数据库输入输出部28而参照动作信息数据库17的“动作ID”。在该例中,在控制规则数据库16的“动作ID”中存储为“2”,动作指令部27借助数据库输入输出部28,依次参照图5A的动作信息数据库17的“动作ID”为“2”的动作的“关键动作ID”是“10”、“11”、“12”、“13”、“14”、“15”、“16”、“17”的关键动作(命令)。
此时,在“关键动作ID”为“10”的关键动作(命令)的情况下,就“标志”而言,第0~5位为“1”,对于x轴、y轴、z轴、轴、θ轴、ψ轴的所有轴,从动作指令部27经由数据库输入输出部28对控制参数管理部21作出指令,以便以位置控制模式进行动作。
在由外部输入装置26a输入而执行动作时,动作指令部27借助数据库输入输出部28,对控制规则数据库16的动作中的“动作ID”的“进程信息”设定“1”,将动作中的“动作ID”的“进程信息”为“1”的信息,通过数据库输入输出部28存储在控制规则数据库16中。关于其他“动作ID”的“进程信息”,由动作指令部27设定“0”,将其他“动作ID”的“进程信息”为“0”的信息,通过数据库输入输出部28存储在控制规则数据库16中。
在这里,对具体的作业例进行说明。
在由人4A使用数据输入IF26选择控制规则数据库16的作业中的“作业ID”为“1”的作业的情况下,动作指令部27借助数据库输入输出部28对控制参数管理部21作出指令,以便使z轴方向以力控制模式进行作业,使其他轴方向以位置控制模式进行作业。其结果,控制参数管理部21对控制部22发出指令,以便如后所述使机器人手臂5依照上述控制模式进行动作,在利用控制部22的控制下,如图12所示,机器人手臂5开始对IH烹调电炉等烹调装置6的面板6a的擦拭清洁作业。
在由人4A使用数据输入IF26选择控制规则数据库16的作业中的“作业ID”为“2”的作业的情况下,动作指令部27借助数据库输入输出部28对控制参数管理部21作出指令,以便以位置控制模式进行搅拌动作。其结果,控制参数管理部21对控制部22发出指令,以便如后所述使机器人手臂5依照上述控制模式进行动作,在利用控制部22的控制下,如图13A所示,机器人手臂5开始搅拌动作。
另一方面,在图10A的“作业ID”为“1”的作业的情况下且在“作业ID”为“1”的作业的“环境ID”不是值“-1”的情况下,动作指令部27借助数据库输入输出部28,从环境信息数据库18参照与在“环境ID”中存储的ID相同的“环境ID”的环境信息。仅在由动作指令部27,通过与“环境ID”相同的“环境ID”的环境信息(具体而言,图像的信息和力的信息)当中的标志,判断为有效的环境信息与由后述的环境信息获得部19获得的环境信息吻合的情况下,用动作指令部27执行“动作ID”的动作。关于详细情况,与控制规则生成部23相关联而如后所述。
另外,在所选择的“作业ID”中存在多个“环境ID”和“动作ID”的情况下,通过各自的“环境ID”和各自的“动作ID”的标志(这里的标志,是指动作指令部27以“动作ID”而借助数据库输入输出部28参照动作信息数据库17、由此而存储的标志。),通过动作指令部27的动作算出部2算出应最终执行的动作信息。关于动作算出部2的详细内容,与控制规则生成部23相关联而如后所述。
-动作矫正部-
动作矫正部20,可以在正由控制装置主体部11以力控制模式对机器人手臂5进行控制期间或在通过控制部22的位置控制部59的控制使机器人手臂5以位置控制模式进行移动期间,对应于由作为矫正动作信息获得部的一例的数据库输入输出部28获得的在各时间下的矫正动作信息,对动作信息进行矫正。即,动作矫正部20在机器人手臂5的控制动作过程中,从数据输入IF26借助动作指令部27接受动作矫正操作的开始指令。动作矫正部20借助数据库输入输出部28,根据动作信息数据库18的矫正参数标志,对机器人手臂5的控制参数进行切换,由此以矫正后的动作(矫正动作)使机器人手臂5进行动作,由人4A对机器人手臂5施加力,由此借助数据库输入输出部28对控制规则数据库16的机器人手臂5的控制规则进行修正。
在这里,上述机器人手臂5的控制动作,表示以后述的(i)位置控制模式、(iii)力控制模式、或(v)按方向的不同将它们组合后的力混合阻抗控制模式当中的任意模式进行动作。
另外,上述机器人手臂5的矫正动作,是通过由人4A向机器人手臂5施加的力对机器人手臂5的动作进行矫正的动作,表示以后述的(ii)阻抗控制模式、(vi)高刚性位置控制模式、或(v)按方向的不同将它们组合后的力混合阻抗控制模式当中的任意模式进行动作。
以下,对动作矫正进行说明。
人4A通过数据输入IF26,从控制规则数据库16的与“作业ID”有关的作业中选择想使机器人手臂5执行的作业,通过动作指令部27来执行动作。
此时,在选择了图10A的“作业ID”为“2”的作业的情况下,动作指令部27对控制参数管理部21作出指令,以便以位置控制模式进行搅拌动作。由此,如图13A所示,机器人手臂5开始搅拌动作。在这里,在“作业ID”为“2”的作业的情况下,“环境ID”是值“-1”(参照图10A),因此不论机器人手臂5进行动作的环境信息如何,都以在“动作ID”中存储的动作进行动作(具体而言,以“动作ID”为“2”的动作进行动作)。
接着,在人4A从数据输入IF26经由动作指令部27向接受动作矫正部20作出动作矫正操作开始的指示时,动作矫正部20移入动作矫正的处理。
图13是对本发明的上述第一实施方式中的机器人手臂5的矫正动作进行说明的图。
在本第一实施方式中,对以下的情况进行说明,即,将勺子9保持在手部30的机器人手臂5,中止图13A所示的锅3a的搅拌,如图13E所示,进行在锅的直径比锅3a大的锅3b中搅拌的动作。在这里,在不进行动作矫正的情况下,“作业ID”为“2”的作业,“环境ID”为值“-1”,与锅的大小无关而执行在“动作ID”中记述的动作,因此即便将锅3a更换为直径大的锅3b,也会如图13B所示进行直径小的搅拌。为此,发生锅3b中的食材未很好搅拌的问题。
因此,人4A确认锅3b的大小,为了如图13E所示与锅3b的直径配合地用勺子9大幅度进行搅拌,对机器人手臂5的搅拌动作进行矫正。
为此,人4A进行以下的2个输入操作。
第一输入操作是通知作业环境发生变化的操作(以下,称为环境变化通知操作。)。该操作在本第一实施方式中,是向机器人手臂5通知搅拌动作对象的锅3a变成直径大的锅3b的操作。
第二输入操作是用于对实际的机器人手臂5的动作进行矫正的操作(以下,称为动作矫正操作。)。
在本第一实施方式中,在开始了环境变化通知操作的时点,机器人手臂5的搅拌动作停止,接着,环境变化通知操作结束,重新开始机器人手臂5的搅拌动作,所述环境变化通知操作是用于对动作进行矫正以便如图13E所示大幅度进行搅拌动作的操作。人4A在机器人手臂5正进行搅拌动作期间,进行动作矫正操作。
人4A通过数据输入IF26,向动作指令部27输入环境变化通知操作的开始指令。向动作指令部27输入环境变化通知操作的开始命令时,通过动作指令部27使机器人手臂5的动作停止。此外,在通过人4A的环境变化通知操作结束的时点,接着,人4A通过数据输入IF26向动作指令部27输入动作矫正操作的开始指令。在动作指令部27借助数据输入IF26接收动作矫正操作的开始指令时,动作指令部27判断为环境变化通知操作已结束,为了开始动作矫正操作而重新开始机器人手臂5的动作。此时,人4A对机器人手臂5的动作进行动作矫正操作。
动作指令部27借助数据输入IF26接受环境变化通知操作的指令或动作矫正操作的指令时,向动作矫正部20及后述的控制规则生成部23输出各自的环境变化通知操作的开始信息或动作矫正操作的开始信息输出。
就上述操作的具体指令而言,在机器人手臂5正以位置控制模式执行搅拌动作期间,人4A用手4把持机器人手臂5,对机器人手臂5在想要矫正的方向上施加力。此时,如图30A所示,在人4A对机器人手臂5施加的力(由后述的力检测部53检测出的力)为某阈值(图30A的值t1)以上且该状态持续某恒定时间(图30A的时间time1)以上的情况(后述的、由控制参数管理部21的计时器21a检测出的时间持续上述某恒定时间以上的情况)下,动作指令部27判断为输入了环境变化通知操作的开始指令。换言之,如图30B所示,在人4A对机器人手臂5施加的力低于上述某阈值(图30B的值t2)的情况下,或在即便为上述某阈值(图30B的值t2)以上,该状态为低于上述某恒定时间(图30A的时间time1)的时间(图30B的时间time2)的情况下,动作指令部27也判断为未输入环境变化通知操作的开始指令。在由动作指令部27判断为已输入通过人4A的环境变化通知操作的开始指令时,动作指令部27向动作矫正部20输入环境变化通知操作的开始信息。
在动作指令部27判断为已被输入环境变化通知操作的开始指令时,通过动作指令部27停止搅拌动作。通过该搅拌动作的停止动作,人4A知晓机器人1已判断为环境变化通知操作开始了。需要说明的是,如后所述,构成为由力检测部53检测出的力的信息被输入到控制参数管理部21,上述力的信息和由计时器21a检测出的时间的信息,从控制参数管理部21被输入到动作指令部27,能由动作指令部27执行上述判断。
接着,在人4A进行了上述环境变化通知操作之后,在由动作指令部27判断为人4A对机器人手臂5施加的力小于上述阈值(图30A的值t1)的情况下,通过动作指令部27判断为环境变化通知操作结束了,通过动作指令部27使位置控制模式下的搅拌动作重新开始。通过使搅拌动作重新开始,人4A知晓机器人1已判断为环境变化通知操作结束了。
接着,在如前所述人4A知晓机器人1已判断为环境变化通知操作结束了之后,人4A用手4把持机器人手臂5,在想要对机器人手臂5的动作进行矫正的方向上,对机器人手臂5施加力。如图30A所示,在由动作指令部27判断为对机器人手臂5施加的力为上述某阈值(图30A的值t1)以上且该状态持续了上述某恒定时间(图30A的时间time1)以上的情况下,由动作指令部27判断为基于人4A的动作矫正操作的开始指令已被输入。换言之,如图30B所示,在人4A对机器人手臂5施加的力低于上述某阈值(图30B的值t2)的情况下,或在即便为上述某阈值(图30B的值t2)以上,但该状态也低于上述某恒定时间(图30A的时间time1)的时间(图30B的时间time2)的情况下,动作指令部27判断为动作矫正操作的开始指令未被输入。由动作指令部27判断为基于人4A的动作矫正操作的开始指令已被输入时,动作指令部27向动作矫正部20输入动作矫正操作的开始信息。需要说明的是,在即便经过恒定时间而动作矫正操作也不开始的情况下,使环境变化通知操作为无效,使搅拌动作重新开始。
由动作指令部27判断为动作矫正操作的开始指令已被输入时,通过动作指令部27的指令,机器人手臂5的搅拌动作的速度减慢(例如,动作矫正操作开始前的通常的搅拌动作时的速度的一半速度),人4A知晓机器人1已判断为已输入动作矫正操作的开始指令。进而,搅拌动作的速度减慢,人4A容易对动作中的机器人手臂5的动作进行矫正。在人4A对机器人手臂5的动作进行矫正期间,该矫正动作的信息如后所述被动作矫正部20获得。在人4A对机器人手臂5的动作进行了矫正之后,在动作指令部27判断人4A施加的力小于上述阈值(图30A的值t1)的情况下,通过动作指令部27结束动作矫正操作,通过动作指令部27使机器人手臂5的速度恢复成矫正前的速度,进而,通过动作指令部27及动作矫正部20,执行矫正后的动作。在由动作指令部27判断为动作矫正操作结束了时,通过动作指令部27的指令,机器人手臂5的搅拌动作的速度增快(例如,动作矫正操作时的搅拌动作时的速度的二倍速度),人4A知晓机器人1已判断为动作矫正操作结束了。
需要说明的是,在该例中,通过人4A施加的力,动作指令部27自动判断环境变化通知操作及动作矫正操作的开始及结束并自动进行了切换,但也可以通过人4A对按钮按压等方式使用数据输入IF26,手动切换环境变化通知操作及动作矫正操作的开始及结束。进而,通过各自的操作停止或减慢机器人手臂5的动作,由此向人4A通知在进行何种操作,例如,可以在设置于作业台7的壁面7a等处的作为显示部95的一例的监视器等上,显示在进行环境变化通知操作或动作矫正操作的哪一操作。
另一方面,动作矫正部20在从动作指令部27接受到环境变化通知操作的开始信息时,获得从人4A借助机器人手臂5输入的环境变化通知操作的信息,因此关于想要矫正的“作业ID”的“动作ID”,向控制参数管理部21输出指令,以便按照动作信息数据库17的“动作ID”的标志设定控制模式而进行动作。
具体而言,对与图10A的“作业ID”为“2”的作业的“动作ID”为“2”的动作对应的、动作信息数据库18的“关键动作ID”为“10”~“17”的关键动作(命令)进行说明。在图5A中,就各“关键动作ID”的标志而言,仅第0~5位为“1”,其他为“0”,因此在机器人手臂5的动作当中,仅仅x轴、y轴、z轴、轴、θ轴、ψ轴的数据是有效的。因此,可以使用人4A施加的力,对机器人手臂5的x轴、y轴、z轴、轴、θ轴、ψ轴进行动作矫正操作。此外,关于机器人手臂5的x轴、y轴、z轴、轴、θ轴、ψ轴,动作矫正部20向控制参数管理部21发出指令,以便从位置控制模式以阻抗控制模式(在探测出人4A的力的方向上使机器人手臂5移动的模式)进行动作。由从位置控制模式向阻抗控制模式切换,在未施加人4A的力的状态下,机器人手臂5停止,在人4A施加力时,可以在人4A施加的力的方向上使机器人手臂5移动。
接着,在开始环境变化通知操作之后,如图13C所示,由人4A进行向机器人手臂5通知锅3a变成直径大的锅3b的操作(环境变化通知操作)。具体而言,如图13C所示,人4A用手4直接把持机器人手臂5的手部30或手部30附近的前腕联杆32,与锅3b的锅底面平行(x-y平面)地施加力时,通过阻抗控制模式,用力检测部53探测出人4A的力,在人4A对机器人手臂5施加力的方向(箭头AX方向)上使机器人手臂5移动。在该例中,通过人4A使机器人手臂5在该箭头AX方向上移动的操作,是环境变化通知操作。
接着,在环境变化通知操作之后,由动作矫正部20获得人4A施加力使其移动后的矫正动作的信息,所以由动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖位置,从动作矫正部20向后述的控制规则生成部23输出。
接着,动作矫正部20从数据输入IF26借助动作指令部27接受动作矫正操作的开始指令,从动作矫正部20对控制参数管理部21发出指令,以便按照动作信息数据库17的矫正参数标志,设定控制模式而进行动作。具体而言,对与图10A的“作业ID”为“2”的作业的“动作ID”为“2”的动作对应的、动作信息数据库18的“关键动作ID”为“10”~“17”的关键动作(命令)进行说明。在图5A中,就各“关键动作ID”的矫正参数标志而言,仅仅第0、1、2位为“1”,其他为“0”,所以在机器人手臂5的动作当中,可以只进行x轴、y轴、z轴的矫正。因此,可以使用人4A施加的力对机器人手臂5的x轴、y轴、z轴进行矫正。此外,关于机器人手臂5的x轴、y轴、z轴,动作矫正部20对控制参数管理部21作出指令,以便从位置控制模式以混合阻抗控制模式(边以位置控制模式进行移动、边在已探测出人4A的力的方向上以阻抗控制使其移动的模式)进行动作。
此外,如图13D所示,人4A直接把持机器人手臂5而在沿着锅3b的底面的方向上施加力,以便与锅3b的直径配合地大幅度进行混合时,机器人手臂5如前述所示进行混合阻抗控制模式。其结果,机器人手臂5执行(1)基于位置控制模式的机器人手臂5的移动、和(2)基于阻抗控制模式的、在人4A施加力的方向上机器人手臂5向x轴方向、或y轴方向、或x轴方向及y轴方向的移动。人4A想要在x-y平面上在锅3b内按照与锅3a的情况相比画圆的形式大幅度搅拌的方式进行矫正,人4A如图13D所示与锅底面平行地对机器人手臂5施加力而使机器人手臂5移动。由动作矫正部20获得通过人4A施加力而移动后的机器人手臂5的动作,所以由动作矫正部20在每规定的恒定时间(例如每0.2秒)获得手尖位置及时间作为来自控制参数管理部21的机器人手臂5的动作矫正操作的信息,从动作矫正部20向后述的控制规则生成部23输出所获得的手尖位置及时间。机器人手臂5的手尖位置借助编码器44由控制参数管理部21获得。进而,时间信息由控制参数管理部21所具备的计时器21a获得。另外,也向控制参数管理部21输入由力检测部53检测出的力的信息,所以从控制参数管理部21向动作指令部37输入由该力检测部53检测出的力的信息和基于计时器21a的时间信息,例如可以如前所述进行矫正动作的环境变化通知操作及动作矫正操作的开始及结束的判断。
需要说明的是,与该时间有关的信息,成为将人4A选择作业并借助数据输入IF26向动作指令部27发出了开始指令的时点设为“0”的相对时间。
-控制规则生成部-
控制规则生成部23,通过将由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息建立对应,能够生成用于机器人手臂5自动动作的控制规则。即,控制规则生成部23,在后述的机器人手臂5的控制动作过程中,从数据输入IF26借助动作指令部27,与动作矫正部20一样接受动作矫正操作的开始指令。控制规则生成部23,根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,存储在控制规则数据库16中。在这里,机器人手臂5的控制动作,是(ii)阻抗控制模式、(i)位置控制模式、(iv)力控制模式、或(v)按方向的不同将它们组合后的力混合控制模式当中的任意模式。
在控制规则生成部23,接受环境变化通知操作的开始指令,从动作矫正部20输入通过来自人4A的环境变化通知操作生成的机器人手臂5的手尖位置及时间。另外,通过环境变化通知操作,借助数据库输入输出部28向控制规则生成部23输入由环境信息获得部19获得的环境信息。即,环境信息对应于人向机器人手臂5的环境变化通知操作而由环境信息获得部19获得,借助数据库输入输出部28向控制规则生成部23输入。另外,在控制规则生成部23,从动作信息数据库17借助数据库输入输出部28参照环境变化通知操作开始时的动作中的“动作ID”,从与该“动作ID”的“关键动作ID”的标志有关的信息获得与机器人手臂5的控制模式有关的信息。
作为具体例,关于图10A的“作业ID”为“2”的作业且动作中的“动作ID”为“2”的动作的“关键动作ID”为“10”~“17”的关键动作,控制规则生成部23借助数据库输入输出部28参照动作信息数据库18。关于各关键动作ID的标志,在图5A中,仅第0~5位为“1”,其他为“0”,所以能由动作指令部27判断为机器人手臂5的动作当中x轴、y轴、z轴、轴、θ轴、ψ轴的数据是有效的。因此,成为阻抗控制模式,以便能用人4A施加的力对机器人手臂5的x轴、y轴、z轴、轴、θ轴、ψ轴进行矫正。
控制规则生成部23,根据环境变化通知操作时的(1)机器人手臂5的移动方向的控制模式和(2)检测部选择规则数据库29的信息,从多个环境信息中选择用于生成控制规则的环境信息的类别。具体而言,在图10A的“作业ID”为“2”的作业的环境变化通知操作的开始时间点,如图13C所示,在x轴方向及y轴方向进行环境变化通知操作。x轴及y轴以阻抗控制模式进行矫正,因此根据示出检测部选择规则数据库29的检测部选择规则的一例的图11A,“控制模式”为“阻抗控制模式”时的“环境信息的类别ID”成为“1”,根据图11B,在“环境信息的类别ID”为“1”时,由控制规则生成部23选择“图像”。进而,在图13C中,在x轴方向及y轴方向上进行环境变化通知操作,通过环境变化通知操作的方向由环境信息获得部19获得利用可对x-y平面进行摄像的第一图像摄像装置15a得到的图像,并用控制规则生成部23加以选择,由控制规则生成部23获得来自第一图像摄像装置15a的图像。需要说明的是,在可对x-y平面进行摄像的第一图像摄像装置15a存在多个的情况下,在这些多个第一图像摄像装置15a中,用控制规则生成部23选择对图像在环境变化通知操作前后发生最大变化的图像进行了摄像的第一图像摄像装置15a。
图14示出通过第一图像摄像装置15a从锅3的上方获得的图像。
通过第一图像摄像装置15a由控制规则生成部23获得的图像,借助数据库输入输出部28存储在环境信息数据库18中。
需要说明的是,在该例中,在x-y平面中进行了环境变化通知操作,所以用控制规则生成部23选择了第一图像摄像装置15a的图像,但当在y-z平面及x-z平面中进行了环境变化通知操作时,由控制规则生成部23选择第二图像摄像装置15b的图像。由控制规则生成部23选择的图像,通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。进而,作为变形例,如图36C和图36D所示,在x-y平面的环境变化通知(锅3的开口尺寸的变化通知)之后,在通知了y-z平面及x-z平面的环境变化(锅3的深度尺寸的变化通知)的情况下,控制规则生成部23选择第一图像摄像装置15a和第二图像摄像装置15b双方的图像。
在上述例中,当在x-y平面中进行了环境变化通知操作时,具体而言,如图9A的“环境ID”为“10”所示,通过控制规则生成部23,对新的“环境ID”赋予“10”,对于该“环境ID”的“图像ID”,控制规则生成部23将所选择的图像的文件名(在该例中为“图像3”)存储在环境信息数据库18中。进而,标志仅为图像,所以通过控制规则生成部23,在环境信息数据库18中仅将第6位存储为“1”,将其他位存储为“0”。
需要说明的是,在上述变形例中,如图36C和图36D所示,在x-y平面的环境变化通知之后,在通知了y-z平面及x-z平面的环境变化的情况下,如“环境ID”为“33”的环境信息所示,可以通过控制规则生成部23将多个图像(在该例中为“图像8”和“图像9”)存储在环境信息数据库18中。
接着,接受动作矫正操作的开始指令,通过控制参数管理部21,由控制规则生成部23获得人4A对机器人手臂5施加力以使机器人手臂5移动而进行了矫正后的机器人手臂5的动作信息(机器人手臂5的手尖位置和时间)。控制规则生成部23将所获得的动作信息借助数据库输入输出部28而存储在动作信息数据库17中。
具体而言,如图5B所示,通过控制规则生成部23,对图5B的动作信息数据库17重新赋予“动作ID”(在该例中为“3”),进而,以所获得的手尖位置的数量赋予“20”~“31”作为“关键动作ID”,将由动作矫正部20矫正后的动作信息(手尖信息、时间)存储在动作信息数据库17的各“关键动作ID”中。
关于动作信息的时间,将人4A选择作业而发出开始指令的时点设为“0”的相对时间,通过控制规则生成部23向动作信息数据库17输入。为此,关于动作信息数据库17的时间数据栏,作为追加的最初的关键动作(在该例中为“20”)的时间,将从全部动作各自的时间施以减法运算的值,通过控制规则生成部23存储在动作信息数据库17中。
关于标志的数据栏,通过控制规则生成部23按各分量分别对动作矫正操作前的标志为“1”的动作信息的分量当中矫正前和矫正后中的关键动作的位置姿势和力的值进行比较,仅仅是通过控制规则生成部23判断为有阈值以上的差时的分量存储在动作信息数据库17中,以便将图6所示的标志的各分量设为“1”,将低于阈值时的标志的分量设为“0”。
需要说明的是,在这里比较的动作矫正操作前后的“关键动作”,通过控制规则生成部23仅对动作矫正操作前和动作矫正操作后的各“动作ID”的最前头的关键动作进行比较。
具体而言,就矫正前的“动作ID”为“2”的动作的“关键动作ID”为“10”的关键动作的标志而言,第0~5位为“1”,其他为“0”,所以通过控制规则生成部23仅对矫正前的动作和矫正后的动作的位置姿势、力的值当中的位置姿势分量进行比较。
在这里,通过控制规则生成部23,成为矫正前的“关键动作ID”是“10”的关键动作、矫正后的“关键动作ID”是“20”的关键动作。
在“关键动作ID”为“10”的关键动作和“关键动作ID”为“20”的关键动作中,在位置姿势(x、y、z、θ、ψ)的分量当中,z、θ、ψ相同,x坐标、y坐标的差分别为(0.2、0.2)。在使上述差的阈值为0.1时,由控制规则生成部23判断为仅仅x分量及y分量为阈值以上。因此,就标志而言,第0、1位为“1”,其他为“0”,通过控制规则生成部23存储在动作信息数据库17中。
矫正参数标志存储矫正前的动作(在该例中为“10”~“17”)的值。
需要说明的是,如图36E所示,在作为从锅的侧面朝向锅的底面进行搅拌之类的动作加以矫正后的情况,如图36F所示,可以在时刻t1、时刻t2、时刻t3和随着时间的经过,按照使机器人手臂5的姿势分量发生变化的方式进行矫正。
接着,控制规则生成部23,根据所获得的环境信息和通过动作矫正部20的动作矫正操作矫正后的动作,在控制规则数据库16中生成新的控制规则并存储。
具体而言,为了在以控制规则数据库16的“作业ID”为“2”的作业进行动作过程中对动作进行矫正,通过控制规则生成部23对“作业ID”为“2”的作业追加1行,按照追加通过动作矫正操作而新追加的“动作ID”为“3”的动作的方式,在控制规则数据库16中加以存储。
接着,由控制规则生成部23选择的环境信息的环境ID,通过控制规则生成部23存储在控制规则数据库16中。
以上,人4A进行环境变化通知操作及动作矫正操作而由控制规则生成部23生成新的控制规则,存储在控制规则数据库16中,即便未事先准备考虑了锅的大小的动作,仅通过在当场由人4A进行机器人手臂5的操作而进行环境变化通知,对机器人手臂5的动作进行矫正,就可以将该操作及矫正动作存储在控制规则数据库16,在下一次遇到相同环境的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),机器人手臂5可以自觉地进行动作。
-动作指令部(动作算出部)-
在该例中,如图10B所示,在“作业ID”为“2”的作业中,多个“动作ID”(“2”、“3”)存储在控制规则数据库16中,对此时的动作指令部27的功能进行说明。
图10B的“作业ID”为“2”的作业中,“动作ID”为“2”的动作表示用于进行图13A的动作的动作信息,“动作ID”为“3”的动作表示用于进行图13E的动作的动作信息。
人4A将图13E的锅3b设置于作业台7,人4A借助数据输入IF26对动作指令部27作出“作业ID”为“2”的作业开始指令。动作指令部27接受所指定的“作业ID”的作业的作业开始的指令,借助数据库输入输出部28参照控制规则数据库16的被指定的“作业ID”,按照使该“作业ID”的作业开始的方式对控制参数管理部21作出指令。
在存在多个动作的情况下,对应于“环境ID”,通过动作指令部27选择进行动作的动作信息。具体而言,仅在通过动作指令部27判断为在控制规则数据库中存储的各“动作ID”的“环境ID”中借助数据库输入输出部28参照了环境信息数据库18的环境信息,与机器人手臂5的动作中的“环境ID”吻合的情况下,从动作指令部27对控制参数管理部21作出指令,以便执行该“动作ID”的动作。
具体而言,在图10B的“作业ID”为“2”的作业中,有“动作ID”为“2”和“3”的动作,“动作ID”为“2”的动作是“环境ID”为值“-1”,所以不论机器人手臂5的周边环境如何,机器人手臂5都进行动作,因此作为应执行的动作而通过动作指令部27加以选择。
接着,成为“动作ID”为“3”的动作的“环境ID”为“10”的环境信息,不是“-1”的值,通过动作指令部27,借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“10”的环境信息。就图9A的“环境ID”为“10”的环境信息的标志而言,仅仅第6位为“1”,其以外的为“0”,所以由动作指令部27判断为图像有效。因此,根据图像ID,动作指令部27借助数据库输入输出部28获得在环境信息数据库18中存储的图像信息。
接着,通过环境信息获得部19,由动作指令部27获得当前的图像信息,通过图像匹配,由动作指令部27对上述获得的2个图像进行比较。在由动作指令部27判断为2个图像已吻合的情况下,由动作指令部27选择以“动作ID”为“3”的动作中加以存储的动作作为应执行的动作。
在由动作指令部27选择的动作存在多个的情况(在该例中,是“动作ID”为“2”的动作和为“3”的动作)下,按照所选择的多个动作在控制规则数据库16中存储的顺序,对应于各动作信息的标志,通过动作指令部27的动作算出部2算出最终应执行的动作。
在该例中,由动作指令部27选择“动作ID”为“2”的动作和为“3”的动作,在图10B的控制规则数据库16的“动作ID”中以“2”的动作、“3”的动作的顺序加以存储。因此,就“动作ID”为“2”的动作的动作信息的标志而言,根据图5C,第0~5位为“1”,所以由动作指令部27获得“动作ID”为“2”的动作的动作信息当中的位置姿势信息(x、y、z、θ、ψ)。接着,就“动作ID”为“3”的动作的标志而言,仅仅第0、1位为“1”,所以在“动作ID”为“2”的动作的位置姿势信息(x、y、z、θ、ψ)当中,仅仅(x、y)分量置换为“动作ID”为“3”的动作的值,由动作指令部27算出。例如,“关键动作ID”为“10”的关键动作的位置姿势,是(0.1、0.1、0.4、0、0、0),“动作ID”为“3”的动作的“关键动作ID”为“20”的关键动作的位置姿势,是(0.3、0.3、0.4、0、0、0),因此,对“关键动作ID”为“10”的关键动作的位置姿势为(0.1、0.1、0.4、0、0、0)的仅x分量及y分量,由动作指令部27对“关键动作”为“20”的关键动作的位置姿势(0.3、0.3、0.4、0、0、0)进行置换,最终的位置姿势成为(0.3、0.3、0.4、0、0、0)。同样地,在“关键动作ID”为“21”的关键动作中由动作指令部27对“关键动作ID”为“11”的关键动作的x分量及y分量进行置换,以后,由动作指令部27依次算出直到关键动作ID的结束。
通过动作指令部27,关于标志,在“动作ID”为“2”的动作和为“3”的动作的各位中,在某一位为“1”的情况下,将算出后的标志的位设为“1”,在双方均为“0”的情况下,设为“0”。不过,位置和力各自的分量仅某一个为“1”(仅以位置控制模式或力控制模式的某一个种模式进行工作),所以在位置和力双方成为“1”的情况下,使力优先。由此,就“动作ID”为“2”的动作的标志而言,第0~5位为“1”,就“动作ID”为“3”的动作而言,第0、1位为“1”,所以第0~5位为“1”。“动作ID”为“2”的动作和为“3”的动作的动作参数标志,双方的第0、1、2位均为“1”,所以算出后的动作参数标志,其第0、1、2位也为“1”,其他为“0”。
关于算出后的动作信息,由动作指令部27对应于标志对控制模式进行切换,从动作指令部27向控制参数管理部21输出动作信息,由此可以由控制部22执行已算出的动作。
(控制装置主体部11)
控制装置主体部11具有控制参数管理部21和控制部22。在控制部22和控制参数管理部21之间,进行机器人手臂5的手尖位置或力的信息等的输入输出。该控制装置主体部11,可以作为以力控制模式对机器人手臂5进行控制的力控制部发挥功能,所述力控制部以由作为动作信息获得部的一例的数据库输入输出部28获得的动作信息中设定的力由机器人手臂5对作业对象物进行力控制。
-控制参数管理部-
控制参数管理部21,根据动作矫正部20或动作指令部27的指示,对控制部22发出指令,在基于控制部22的控制下使机器人手臂5进行动作,以便使机器人手臂5按照设定的控制模式进行动作。进而,控制参数管理部21从控制部22获得机器人手臂5的手尖位置或力的信息等,并向动作矫正部20输出。
对控制参数管理部21的详细内容进行说明。
控制参数管理部21,根据动作矫正部20或动作指令部27的指示,输出对机器人手臂5的控制模式进行切换的设定信号。
关于各控制模式,通过动作矫正部20或动作指令部27,根据动作信息数据库的标志加以决定,向控制参数管理部21输出对控制模式进行切换的设定信号。
控制模式是(i)位置控制模式、(ii)阻抗控制模式、(iii)混合阻抗控制模式、(iv)力控制模式、(v)力混合阻抗控制模式、和(vi)高刚性位置控制模式当中的任意控制方法的模式。
另外,控制参数管理部21进行(iii)阻抗控制模式、(iv)混合阻抗控制模式、及(v)力混合阻抗控制模式中的机械阻抗设定值的设定。另外,控制参数管理部21,进行由后述的阻抗计算部51输出的手尖位置、姿势目标矫正输出rdΔ的设定、及向目标轨道生成部55的动作信息的设定。
-控制模式的切替动作-
对各控制模式进行说明。
(i)位置控制模式
位置控制模式,是使机器人手臂5根据后述的目标轨道生成部55的与手尖位置和姿势和时间有关的信息进行工作的模式。
该位置控制模式,是对机器人手臂5的动作进行控制以便即使人4A对机器人手臂5施加力而机器人手臂5也不会移动的模式。例如,是在机器人手臂5进行动作以便进行搅拌作业或擦拭清洁作业等作业的情况下使用的模式。不过,在柔软结构的机器人手臂5的情况下,是机械性柔软的机构,所以即便设定为位置控制模式,也会有机器人手臂5因人4A对机器人手臂5施加的力而有些许移动的情况,对此,后述的高刚性位置控制模式,是机器人手臂5绝对不会因人4A对机器人手臂5施加的力而运动的模式。
(ii)阻抗控制模式
阻抗控制模式,是对应于从人4A等施加给机器人手臂5的力(具体而言是由力检测部53检测出的力),对机器人手臂5的动作进行控制以便机器人手臂5进行工作的模式。例如,如图8所示,是在人4A用手4直接把持机器人手臂5而对机器人手臂5的手尖的位置姿势进行示教的情况下使用的模式。
(iii)混合阻抗控制模式
混合阻抗控制模式,是机器人手臂5在以位置控制模式进行动作时,对应于由力检测部53检测出的力,按照使机器人手臂5进行工作的方式对机器人手臂5的动作进行控制的模式。例如,如图13A所示,是在机器人手臂5以位置控制模式进行搅拌作业时,在想要对机器人手臂5的动作进行矫正以便人4A对锅3a中的底侧的部分进行搅拌的情况下使用的模式。通过进行混合阻抗控制模式,如图13D所示,人4A把持机器人手臂5,在沿着锅3b的底面的方向上施加力,由此可以矫正为在水平方向上大幅度搅拌的动作。
(iv)力控制模式
力控制模式,是如下的模式,即以从动作矫正部20向控制参数管理部21设定的力,使用机器人手臂5,按照边将作业对象物(作业用工具,例如勺子9或擦拭清洁用抹布或海绵46、或电动驱动器具72、或柔性基板74)按向作业对象面(例如锅底、或清洁对象面、或在器具71的螺纹孔71a安装螺钉73时的作业对象面)边进行搅拌动作或擦拭清洁动作或螺钉转动动作等的方式对机器人手臂5的动作进行控制的模式。图12示出进行本第一实施方式中的厨房的擦拭清洁动作的机器人。例如,是在如图12所示对IH烹调电炉6等的面板6a的表面施加力而进行擦拭清洁或在如图15所示通过勺子9对锅3底的部分施加力而进行搅拌作业时等情况下,在边施加力边进行控制的方向上使用的控制模式。
(v)力混合阻抗控制模式
力混合阻抗控制模式,按照机器人手臂5的六个轴方向(x轴、y轴、z轴、轴、θ轴、ψ轴的方向)的不同,对(iii)混合阻抗控制模式、(ii)阻抗控制模式、(i)位置控制模式进行切换且以使所指定的力发挥作用而进行动作的(iii)力控制模式进行控制的模式。需要说明的是,力控制模式和阻抗控制模式是排他的关系,所以无法在设定了力控制模式的方向上设定阻抗控制模式。
该力混合阻抗控制模式,例如是在如下的情况下使用的模式,即如图12所示,使利用机器人手臂5的前端的手部30支承的作业用工具9、例如擦拭清洁用抹布相对于IH烹调电炉6等的面板6a的清洁面平行地以画圆的方式移动,同时对该清洁面施加垂直向下的指定的力而进行擦拭清洁的情况下所使用的模式。具体而言,对于(x、y、z、θ、ψ)6轴的每个,设定以下的控制模式。即,是(x、y)分量以混合阻抗控制模式进行动作、(θ、ψ)分量以阻抗控制模式进行动作、z轴分量以力控制模式进行动作的力混合阻抗控制模式。如此与清洁面水平的方向是混合阻抗控制模式,由此在正以位置控制模式进行动作期间,能对应于从人4A等向机器人手臂5施加的力,使机器人手臂5进行移动。进而,通过将(θ、ψ)分量设为阻抗控制模式,在机器人手臂5停止动作的状态下,对应于从人4A等向机器人手臂5施加的力,可以对机器人手臂5的姿势进行变更。另外,通过将z轴分量设成力控制模式,能边以指定的力将擦拭清洁用抹布按压向清洁面边使机器人手臂5进行动作。或者,力混合阻抗控制模式,也可以是(x、y、z、θ、ψ)的6轴当中z轴分量以力控制模式进行动作、其他轴以位置控制模式进行动作的控制模式。在该情况下,即便碰撞等不经意的力施加给机器人手臂5,也不会使位置控制分量错误移动。
(vi)高刚性位置控制模式
高刚性位置控制模式是使机器人手臂5的动作中的位置控制模式进而为高刚性的控制模式。具体而言,通过增大后述的位置误差补偿部56的增益而得以实现,即便人4A对机器人手臂5施加力,高刚性位置控制模式无法使机器人手臂5容易地移动,机器人手臂5不受到来自接触面的抗力的影响,可以准确检测出人4A对机器人手臂5施加的力。
这些控制模式(i)~(vi),可以在机器人手臂5动作时,按照机器人手臂5的方向及姿势的不同分别设定合适的控制模式使其动作。
进而,在机器人手臂5以(iii)混合阻抗控制模式或(v)力混合阻抗模式进行动作过程中,对应于要矫正的参数,通过控制参数管理部21对机械阻抗设定值或由阻抗计算部51输出的手尖位置及姿势目标矫正输出rdΔ的设定进行变更。
作为机械阻抗设定值的设定参数,有惯性M、粘滞性D和刚性K。机械阻抗设定值的各参数的设定使用矫正值,根据以下的评价式进行。
M=KM×(矫正值)····式(3)
D=KD×(矫正值)····式(4)
K=KK×(矫正值)····式(5)
上述式(3)~式(5)中的KM、KD、KK分别是增益,分别为某常数值。
控制参数管理部21向控制部22输出根据上述式(3)~式(5)计算出的机械阻抗参数的惯性M、粘滞性D和刚性K。
通过上述式(3)~式(5),在机器人手臂5的x轴及y轴以外的位置分量及姿势分量简单运动时,机器人手臂5的动作的矫正作业变得难以进行。因此,控制参数管理部21,仅对机器人手臂5的x轴及y轴以外的位置分量及姿势分量,将上述的矫正值设定得较高(具体而言,上述矫正值的约10倍),由此设成机器人手臂5的粘滞性D及刚性K增大,其结果,机器人手臂5的运动产生抵抗感或生硬感,关于x轴和y轴以外的位置分量及姿势分量,机器人手臂5变得难以运动。例如图13D所示,在使用人4A用机器人手臂5的手部30把持的勺子9,对动作进行矫正以便与锅3b的尺寸配合地大幅度搅拌的情况下,可以使用这样的设定。
或者,作为其他方法,有通过控制参数管理部21使从阻抗计算部51输出的手尖位置及姿势目标矫正输出rdΔ的各分量中x轴和y轴以外的值全部为0的方法。由此,x轴和y轴以外,机器人手臂5无法通过人4A的力进行移动,所以可以防止错误操作。
控制参数管理部21有必要向动作矫正部20,输出机器人手臂5的手尖位置及姿势、和人4A对机器人手臂5施加的力的信息(与作用于机器人手臂5的人4A的力有关的信息),此外,在控制参数管理部21从控制部22接受机器人手臂5的手尖位置及力的信息时,控制参数管理部21向动作矫正部20输出。另外,从动作矫正部20及动作指令部27向控制参数管理部21输入的、位置及姿势和时间等的动作信息,从控制参数管理部21向控制部22输出。
-控制部-
接着,关于控制部22的详细内容,使用图4进行说明。图4示出本第一实施方式的机器人手臂的控制装置70的控制部22的详细内容。控制部22具有:目标轨道生成部55、手部控制部54、作为力检测单元的一例的力检测部53、阻抗计算部51、位置控制部59、和位置误差计算部80。位置控制部59具有:位置误差补偿部56、近似逆运动学计算部57、和正运动学计算部58,能以位置控制模式对机器人手臂5进行控制,以便使机器人手臂5根据由作为动作信息获得部的一例的数据库输入输出部28获得的动作信息进行移动。力检测部53在图4中作为控制部22的一部分而图示出,但也可以为控制部22之外的构成。
控制部22以由控制参数管理部21设定的控制模式进行动作,进而对应于控制模式,将机器人手臂5的机械阻抗的值控制成根据惯性M、粘滞性D和刚性K的设定值所设定的机器人手臂5的机械阻抗设定值。
控制部22借助输入输出IF2进行与机器人手臂5的控制信号等信号互换,在图4中,是作为控制部22和机器人手臂5的数据信号的互换而简化后的图。
输出由在机器人手臂5的各关节部设置的各关节轴的编码器44所测量的关节角的当前值(关节角度矢量)矢量q=[q1、q2、q3、q4、q5、q6]T,通过输入输出IF24被取入到控制部22。在这里,q1、q2、q3、q4、q5、q6,分别是第一关节部35、第二关节部36、第三关节部37、第四关节部38、第五关节部39、第六关节部40的关节角度。
目标轨道生成部55,根据从控制参数管理部21输入的动作信息(具体而言,机器人手臂5的手尖位置、姿势、时间),生成机器人手臂5的成为目标的手尖位置及姿势目标矢量rd。目标轨道生成部55向位置误差计算部80输出所生成的手尖位置及姿势目标矢量rd。
具体而言,目标轨道生成部55,根据来自控制参数管理部21的控制模式设定信号及动作信息,生成成为动作目标的手尖的位置及姿势目标矢量rd和力目标矢量fd,以便以各控制模式使机器人手臂5进行动作。
具体而言,成为目标的机器人手臂5的动作,对应于目的作业,从动作指令部27提供以各自的时间(t=0、t=t1、t=t2、…)计的各点的位置及姿势(rd0、rd1、rd2、…)的信息、和力(fd0、fd1、fd2、…)的信息。
目标轨道生成部55使用多项式插值,对上述各点间的轨道进行插值,生成手尖位置及姿势目标矢量rd、和力矢量fd。
目标轨道生成部55,按照以(i)位置控制模式、(iii)阻抗控制模式、(iv)混合阻抗控制模式、(v)力混合阻抗控制模式、或(vi)高刚性位置控制模式使机器人手臂5进行动作的方式,生成动作目标的手尖的位置及姿势目标矢量rd。
目标轨道生成部55,将生成的成为目标的用于实现机器人手臂5的动作的手尖位置及姿势目标矢量rd和力目标矢量fd和按各自的不同方向表示哪一参数为有效的标志,从目标轨道生成部55向位置误差计算部80输出。
目标轨道生成部55,根据动作信息所含的“手部”的开闭标志,对后述的手部控制部54发出手部30的开闭指令。
手部控制部54,根据从目标轨道生成部55输入的开闭标志,按照对手部开闭驱动用的电机62进行驱动而使手部30开闭的方式,借助输入输出IF24向机器人手臂5的手部开闭驱动用的电机62发出指令。
力检测部53作为力检测单元的一例发挥功能,检测出通过人4A等和机器人手臂5的接触而对机器人手臂5施加的外力Fext,将所检测出的力的信息向阻抗计算部51、环境信息获得部19和控制参数管理部21(借助控制参数管理部21向动作指令部27)输出。不过,在机器人手臂5的手尖(手部30)把持或安装质量m的物体(例如,作业用工具9)而进行作业的情况下,用力检测部53预先从力检测部53所检测的Fext减去mg。在这里,g是重力加速度。把持物体(例如作业用工具9)的重量m的值,可以在对物体进行把持(例如作业用工具9)之前,由人4A借助数据输入IF26从外部输入装置26a输入到力检测部53(参照图4)。另外,也可以将作为把持物体(例如作业用工具9、46、72或柔性基板74等)的作业对象物的识别号、质量、形状、尺寸、及颜色等物品信息存储在物品数据库(未图示)中,物品辨别装置(未图示),读取作业对象物所具备的标签等识别信息,基于读取的识别信息,参照在物品数据库中存储的信息,获得对应的作业对象物的质量。
力检测部53借助输入输出IF24而获得由电机驱动器25的电流传感器测量的在对机器人手臂5的各关节部进行驱动的电机43流过的电流值i=[i1、i2、i3、i4、i5、i6]T。另外,力检测部53借助输入输出IF24取入由各编码器44测量的关节角的当前值q,且取入来自后述的近似逆运动学计算部57的关节角度误差补偿输出uqe。力检测部53作为观测器发挥功能,根据上述电流值i、关节角的当前值q和关节角度误差补偿输出uqe,算出因施加给机器人手臂5的外力而在各关节部发生的转矩τexT。
此外,力检测部53通过式:Fext=Jv(q)-Tτext-[0,0,mg]T换算成机器人手臂5的手尖中的等效手尖外力Fext,将该等效手尖外力Fext向阻抗计算部51输出。在这里,Jv(q)是满足下式的雅可比矩阵。
其中,v=[vx、vy、vz、ωx、ωy、ωz]T,(vx、vy、vz)是手尖坐标系42的机器人手臂5的手尖的平移速度,(ωx、ωy、ωz)是手尖坐标系42的机器人手臂5的手尖的角速度。另外,m是用手部30把持的把持物体(或在手部30安装的作业用工具9)的重量,g是重力加速度。另外,也可以通过机器人手臂5的手部30实际进行物体的把持或安装,根据此时的力检测部53的等效手尖外力Fext的推断结果,算出把持物体(或在手部30安装的作业用工具9)的质量m的值。在未把持物体的情况下,算出为m=0。
阻抗计算部51,从控制参数管理部21接收控制模式的设定信号及机械阻抗设定值,将机器人手臂5的机械阻抗值控制成上述机械阻抗设定值。在阻抗计算部51从控制参数管理部21接收到(i)位置控制模式的设定信号的情况下,作为机械阻抗值,从阻抗计算部51向位置误差计算部80输出“0”。在阻抗计算部51从控制参数管理部21接收到(iii)阻抗控制模式及(iv)混合阻抗控制模式的设定信号的情况下,根据由控制参数管理部21设定的作为机械阻抗设定值的惯性M和粘滞性D和刚性K、由编码器44测量得到的关节角的当前值q、和由力检测部53检测出的外力Fext,阻抗计算部51通过以下的式(6)计算机器人手臂5用于实现机械阻抗设定值的控制的手尖位置及姿势目标矫正输出rdΔ。阻抗计算部51,将计算求得的手尖位置及姿势目标矫正输出rdΔ向位置误差计算部80输出。
在阻抗计算部51从控制参数管理部21接收到(v)力混合阻抗控制模式或(ii)力控制模式的设定信号的情况下,在有以动作控制的“标志”指定的力分量存在的情况下,根据由控制参数管理部21设定的作为机械阻抗设定值的惯性M和粘滞性D和刚性K、由编码器44测量得到的关节角的当前值q、力检测部53的外力Fext、和从目标轨道生成部55输出的力fd,阻抗计算部51通过以下的式(10)计算机器人手臂5用于实现机械阻抗设定值的控制的手尖位置及姿势目标矫正输出rdΔ。阻抗计算部51,将计算求得的手尖位置及姿势目标矫正输出rdΔ向位置误差计算部80输出。
位置误差计算部80,对从阻抗计算部51输出的手尖位置及姿势目标矫正输出rdΔ、和从目标轨道生成部55输出的手尖的位置姿势目标矢量rd施以加法运算,生成手尖位置及姿势矫正目标矢量rdm。其中,在混合阻抗控制模式时,在对应于矫正参数而对机器人手臂5的动作进行约束的情况下,例如,为了使机器人手臂5仅在z轴上运动,由阻抗计算部51将手尖位置及姿势目标矫正输出rdΔ的z分量以外的分量设成0,向位置误差计算部80输出。
其中,
S是拉普拉斯算子。
位置误差计算部80,进而求出手尖位置及姿势矫正目标矢量rdm、和由后述的正运动学计算部58计算出的手尖位置及姿势矢量r的误差re,将求得的误差re向位置误差补偿部56输出。
从机器人手臂5的各关节部的各关节轴的编码器44,借助输入输出IF24向正运动学计算部58输入由编码器44测量得到的作为关节角的当前值q的关节角度矢量q。正运动学计算部58,进行从机器人手臂5的关节角度矢量q向手尖位置及姿势矢量r的变换的几何学计算。由正运动学计算部58计算得到的手尖位置及姿势矢量r,向位置误差计算部80及阻抗计算部51及目标轨道生成部55输出。
位置误差补偿部56,根据由位置误差计算部80求出的误差re,将位置误差补偿输出ure向近似逆运动学计算部57输出。
进而,在位置误差补偿部56中,在设定高刚性位置控制模式时,将比例增益矩阵KP、积分增益矩阵KI、微分增益矩阵KD较大设成预先设定的值。在这里,高刚性是指刚性比通常的位置控制高,具体而言,设定比通常的位置控制模式大的值。例如,设成通常的位置控制模式时的2倍左右的值时,可以使刚性增高至约2倍。
如此,可以实现高刚性的位置控制。需要说明的是,按各分量改变上述增益的值,由此例如可以控制成仅在z轴方向上以高刚性、在其他方向上以通常的位置控制进行动作。
近似逆运动学计算部57,根据从位置误差补偿部56输入的位置误差补偿输出ure和在机器人手臂5处测量的关节角度矢量q,通过近似式uout=Jr(q)-1uin,进行逆运动学的近似计算。不过,Jr(q)是满足下述式的关系的雅可比矩阵,
uin是向近似逆运动学计算部57的输入,uout是从近似逆运动学计算部57的输出,如果将输入uin作为关节角度误差qe,按照qe=Jr(q)-1re的方式成为从手尖位置及姿势误差re向关节角度误差qe的变换式。
因此,从位置误差补偿部56向近似逆运动学计算部57输入位置误差补偿输出ure时,作为来自近似逆运动学计算部57的输出,借助输入输出IF24从近似逆运动学计算部57向机器人手臂5的电机驱动器25输出用于对关节角度误差qe进行补偿的关节角度误差补偿输出uqe。
关节角度误差补偿输出uqe,借助输入输出IF24的D/A板,作为电压指令值被提供给机器人手臂5的电机驱动器25,通过各电机43对各关节部进行正反旋转驱动,使机器人手臂5进行动作。
(机器人手臂5的阻抗控制动作的原理)
关于如上所示构成的控制部22,对机器人手臂5的阻抗控制动作的原理进行说明。
阻抗控制动作(混合阻抗控制也一样)的基本是利用位置误差补偿部56的手尖位置及姿势误差re的反馈控制(位置控制),用图4的虚线包围的部分成为位置控制部59。作为位置误差补偿部56,例如,如果使用PID补偿器,则利用位置控制部59进行控制使手尖位置及姿势误差re收敛成0,可以实现成为目标的机器人手臂5的阻抗控制动作。
在(iii)阻抗控制模式、(iv)混合阻抗控制模式、和(v)力混合阻抗控制模式的情况下,位置误差计算部80对来自阻抗计算部51的手尖位置及姿势目标矫正输出rdΔ施以加法运算,对位置控制部59进行手尖位置及姿势的目标值的矫正。为此,关于位置控制部59,手尖位置及姿势的目标值与原本的值稍有偏差,其结果,能将机器人手臂5的机械阻抗的值控制成上述经适当设定的设定值,对位置控制部59的位置控制动作进行矫正。
手尖位置及姿势目标矫正输出rdΔ在(ii)阻抗控制模式、(iii)混合阻抗控制模式的情况下通过式(6)算出,在(v)力混合阻抗控制模式的情况下通过式(10)算出,所以将机器人手臂5的惯性M和粘滞性D和刚性K的机械阻抗的值控制成经设定的设定值。
(控制部22的动作步骤)
对本第一实施方式的控制部22的动作步骤进行说明。图16是本第一实施方式的控制部22的动作流程图。
由机器人手臂5的各关节部的编码器44测量的关节角度矢量q,借助输入输出IF24被取入到控制装置主体部11的控制部22(步骤S1)。
接着,根据取入到控制部22的关节角度矢量q,近似运动学计算部57,进行机器人手臂5的运动学计算所需的雅可比矩阵Jr等的计算(步骤S2)。在这里,由于是在控制动作起动时,因此从位置误差补偿部56输入的位置误差补偿输出ure作为“0”值而由近似运动学计算部57计算出。
接着,正运动学计算部58,根据由机器人手臂5的各编码器44测量的关节角度矢量q,计算机器人手臂5的当前的手尖位置及姿势矢量r,将计算得到的当前的手尖位置及姿势矢量r,从正运动学计算部58向位置误差计算部80、目标轨道生成部55和阻抗计算部51输出(步骤S3)。
接着,根据从动作指令部27及动作矫正部20经由控制参数管理部21输入的动作信息,目标轨道计算部55,计算机器人手臂5的手尖位置及姿势目标矢量rd及力目标矢量fd,在阻抗控制模式时,将机器人手臂5的手尖位置作为目标的手尖位置及姿势目标矢量rd及力目标矢量fd,向位置误差计算部80输出(步骤S4)。
接着,力检测部53,根据电机43的驱动电流值i、关节角度矢量q、和关节角度误差补偿输出uqe,计算机器人手臂5的手尖的等效手尖外力Fext,将计算得到的等效手尖外力Fext向阻抗计算部51、环境信息获得部19和控制参数管理部21输出(步骤S5)。
接着,控制参数管理部21按各分量执行控制模式的切换(步骤S6)。
在该步骤S6中,就控制模式的各分量而言,在(vi)高刚性位置控制模式的情况下移入步骤S7,在(i)位置控制模式的情况下移入步骤S8,在(iv)力控制模式的情况下移入步骤S9。
另外,在步骤S6中,在(v)力混合阻抗控制模式或混合阻抗控制模式的情况下,由于将机器人手臂5的旋转轴当中想要变更的位置分量变更为(ii)阻抗控制模式,所以移入步骤S9。
具体而言,就控制参数管理部21而言,在通过动作矫正部20指示为“有矫正”且以矫正参数对6轴当中的力分量进行矫正的情况下,就设定了力分量的分量而言,将控制模式切换成高刚性位置控制模式(步骤S6)。随后,移入步骤S7。
另外,在步骤S6中,就控制参数管理部21而言,在设定着力混合阻抗控制模式或混合阻抗控制模式的情况下,在对6轴当中的位置分量进行矫正的情况下,将想要变更的位置分量变更为阻抗控制模式。随后,移入步骤S9。
另外,在步骤S6中,就控制参数管理部21而言,在设定着位置控制模式的情况下,移入步骤S8。在步骤S8中,设定位置控制模式。或者,在步骤S6中,就控制参数管理部21而言,在设定着力控制模式的情况下,移入步骤S9,在步骤S9中设定力控制模式。
在通过控制参数管理部21设定了高刚性位置控制模式的情况下,阻抗计算部51将手尖位置及姿势目标矫正输出rdΔ设为0矢量的(步骤S7)。随后,移入步骤S10。
通过调节位置误差补偿部56的作为常数的对角矩阵的比例、微分、積分的3个增益,按照位置误差re收敛为0的方式使位置误差补偿部56的控制进行工作。通过将该增益增大到某值,实现高刚性的位置控制(步骤S10)。随后,移入步骤S12。
在通过控制参数管理部21设定了位置控制模式的情况下,阻抗计算部51,将手尖位置及姿势目标矫正输出rdΔ设为0矢量(步骤S8)。随后,移入步骤S11。
在通过控制参数管理部21设定了阻抗控制模式或力控制模式的情况下,阻抗计算部51,从在控制参数管理部21中设定的机械阻抗设定值的惯性M和粘滞性D和刚性K、关节角度矢量q、和由力检测部53计算得到的向机器人手臂5施加的等效手尖外力Fext,由阻抗计算部80对手尖位置及姿势目标矫正输出rdΔ进行计算。进而,根据矫正参数,将手尖位置及姿势目标矫正输出rdΔ的任意分量的值设定为0(步骤S9)。随后,移入步骤S11。
位置误差补偿部56,计算手尖位置及姿势矫正目标矢量rdm与当前的手尖位置及姿势矢量r之差即手尖位置及姿势的误差re,所述手尖位置及姿势矫正目标矢量rdm是手尖位置及姿势目标矢量rd和手尖位置及姿势目标矫正输出rdΔ之和。作为位置误差补偿部56的具体例,考虑PID补偿器。通过调节作为常数的对角矩阵的比例、微分、积分的3个增益,位置误差补偿部56的控制进行工作以使位置误差收敛成0。随后,移入步骤S12。
近似逆运动学计算部57,将由步骤S2计算出的雅可比矩阵Jr的逆矩阵与位置误差补偿输出ure相乘,由此按照从与手尖位置及姿势的误差有关的值得到作为与关节角度的误差有关的值的关节角度误差补偿输出uqe的方式,计算位置误差补偿输出ure(步骤S12)。
接着,关节角度误差补偿输出uqe,从近似逆运动学计算部57通过输入输出IF24被提供给电机驱动器25,电机驱动器25根据关节角度误差补偿输出uqe,使在机器人手臂5的关节部各自的电机43流过的电流量发生变化。通过该电流量的变化,进行机器人手臂5各自的关节部的电机驱动控制(步骤S13),进行机器人手臂5的动作。
以上的步骤S1~步骤S13作为控制的计算循环被反复执行,由此可以实现机器人手臂5的动作的控制,即实现将机器人手臂5的机械阻抗的值控制成规定的设定值的动作。
(用于作成考虑了环境信息的控制规则的动作和考虑了环境信息实际上的动作流程)
对机器人手臂5的控制装置中的、用于作成考虑了环境信息的控制规则的动作和考虑了环境信息的实际上的动作流程进行说明。
图17A示出本第一实施方式中的机器人手臂5的控制装置中的、机器人手臂5的动作流程图。
人4A通过外部输入装置26a从控制规则数据库16的作业中选择想使机器人手臂5执行的作业,借助数据输入IF26向动作指令部27输入与上述选择的作业对应的“作业ID”的选择指令(步骤S50)。
接着,根据向动作指令部27输入的上述选择指令,动作指令部27借助数据库输入输出部28而参照控制规则数据库16,确定与上述所选择的“作业ID”有关的动作ID。此外,动作指令部27,根据上述所确定的“动作ID”的信息,借助数据库输入输出部28而参照动作信息数据库17,按照在动作信息数据库17中存储的动作ID,设定机器人手臂5的动作顺序(步骤S51)。
接着,人4A使用数据输入IF26,向动作指令部27输入有关上述所选择的作业的动作开始的指令时,动作指令部27接受该动作开始指令时,借助数据库输入输出部28向控制参数管理部21发出指令,以便以所设定的控制模式进行动作。控制参数管理部21对控制部22发出指令,以便机器人手臂5以所设定的控制模式进行动作,在控制部22的控制下使机器人手臂5进行动作(步骤S52)。
以上是通常的机器人手臂5的控制动作流程。
(考虑了环境信息的变化的情况下的、机器人手臂5的控制动作流程)
接着,对考虑了环境信息的变化的情况下的、机器人手臂5的控制动作流程进行说明。
图17B示出本第一实施方式中的机器人手臂5的控制装置中的、用于作成考虑了环境信息的控制规则的动作流程图。
在上述机器人手臂5的动作中,人4A操作机器人手臂5,借助数据输入IF26向动作指令部27进行环境变化通知操作的开始指令的输入(步骤S53)。向动作指令部27输入环境变化通知操作的开始命令时,通过动作指令部27使机器人手臂5的动作停止。
接着,人4A把持机器人手臂5,向上述控制装置通知环境变化,所以人4A将力施加给机器人手臂5,动作矫正部20从数据输入IF26借助动作指令部27获得环境变化通知操作的动作信息。具体而言,在动作矫正部20从数据输入IF26借助动作指令部27,获得从人4A开始矫正的时点至结束的时点为止的机器人手臂5的手尖位置及姿势的信息,向控制规则生成部23作为环境变化通知操作的动作信息而输出(步骤S54)。
接着,通过环境信息获得部19,获得与机器人手臂5所作用的环境有关的信息或与机器人手臂5进行工作的周边环境有关的信息(环境信息)(步骤S55)。
接着,在人4A的环境变化通知操作结束时,人4A借助数据输入IF26向动作指令部27输出环境变化通知操作的结束信息(步骤S56)。在环境变化通知操作的结束信息被输向动作指令部27时,从动作指令部27向控制规则生成部23的环境变化通知操作的动作信息的输出停止。
接着,在机器人手臂5的动作过程中,人4A操作机器人手臂5,借助数据输入IF26对动作指令部27进行动作矫正操作的开始指令的输入(步骤S57)。作为一例,也可以在步骤S56和步骤S57中,即便未接收环境变化通知操作的结束信息,在动作指令部27借助数据输入IF26从人4A接收动作矫正操作的开始指令时,动作指令部27也判断为环境变化通知操作已结束,为了开始动作矫正操作而使机器人手臂5的动作重新开始,开始动作矫正操作。
接着,在机器人手臂5的动作过程中,人4A把持机器人手臂5,通过人4A在想要矫正的方向上施加力给机器人手臂5,动作矫正部20从数据输入IF26借助动作指令部27,获得矫正信息,动作矫正部20对动作信息进行矫正。具体而言,从人4A开始矫正的时点至结束的时点为止的机器人手臂5的手尖位置及姿势的信息,在每某恒定时间(例如每0.2秒)从数据输入IF26借助动作指令部27由动作矫正部20作为矫正后信息而获得,从动作矫正部20向控制规则生成部23输出矫正信息,对动作信息进行矫正(步骤S58)。
接着,在人4A的动作矫正操作结束时,借助数据输入IF26,由动作指令部27判断动作矫正操作的结束信息,停止从动作指令部27借助动作矫正部20向控制规则生成部23的矫正信息的输出(步骤S59)。
接着,控制规则生成部23,根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,经由数据库输入输出部28存储在控制规则数据库16中(步骤S60)。
(机器人手臂5的控制装置考虑了环境信息的实际上的动作流程)
图29示出本第一实施方式中的机器人手臂5的控制装置考虑了环境信息的实际上的动作流程图。
人4A通过外部输入装置26a从控制规则数据库16的作业中选择想使机器人手臂5执行的作业,借助数据输入IF26,向动作指令部27输入与上述选择的作业对应的“作业ID”的选择指令(步骤S100)。
接着,根据向动作指令部27输入的上述选择指令,动作指令部27,借助数据库输入输出部28而参照控制规则数据库16,由动作指令部27判断在控制规则数据库16中是否与上述选择的“作业ID”对应而存在多个“动作ID”(步骤S101)。在由动作指令部27判断为与上述选择的“作业ID”对应而有多个“动作ID”存在的情况下,移入步骤S102。在由动作指令部27判断为与上述选择的“作业ID”对应的“动作ID”为1个的情况下,移入步骤S107。
在步骤S102中,通过环境信息获得部19,获得当前动作中的机器人手臂5的周边环境信息。随后,移入步骤S103。
接着,由动作指令部27对在步骤S102中获得的环境信息、和与上述各“动作ID”对应的“环境ID”中所参照的环境信息进行比较(步骤S103)。
通过利用动作指令部27的比较,在由动作指令部27判断为环境信息吻合的“动作ID”的个数为1个的情况下,移入步骤S107。在由动作指令部27判断为环境信息吻合的动作的个数为0个的情况下,移入步骤S112。在由动作指令部27判断为环境信息吻合的动作的个数为2个以上的情况下,移入步骤S105。
在步骤S105中,通过动作指令部27的动作算出部2,由吻合的2个以上的动作算出1个动作信息。随后,移入步骤S106。
在步骤S106中,通过动作算出部2算出的动作信息,向控制参数管理部21输出,结束该流程。
另一方面,在由动作指令部27判断为步骤S104中吻合的动作为0个的情况下,使应动作的动作为无,结束该流程,且机器人手臂5停止动作(步骤S112)。
另外,在由动作指令部27判断为步骤S104中吻合的动作为1个的情况下和在由动作指令部27判断为步骤S101中“动作ID”为1个的情况下,由动作指令部27判断该“动作ID”的“环境ID”是否为值“-1”(步骤S7)。在由动作指令部27判断为“动作ID”的“环境ID”是值“-1”的情况下,移入步骤S111。在由动作指令部27判断为“动作ID”的“环境ID”不是值“-1”的情况下,移入步骤S108。
在步骤S108中,通过环境信息获得部19,获得当前动作中的机器人手臂5的周边环境信息。之后,移入步骤S109。
在步骤S109中,由比较动作指令部27对在步骤S108中获得的环境信息、和与上述1的“动作ID”对应的“环境ID”中所参照的环境信息进行比较。
接着,在步骤S110中,在由动作指令部27判断为步骤S109中环境信息吻合的情况下,动作指令部27参照控制规则数据库16,获得与上述吻合的“环境ID”对应的“动作ID”中所存储的动作信息,将所获得的动作信息向控制参数管理部21输出,结束该流程(步骤S111)。
在步骤S110中,在由动作指令部27判断为环境信息不相吻合的情况下,使应动作的动作为无,结束该流程,且机器人手臂5停止动作(步骤S112)。
以上,通过图16的动作步骤S1~步骤S13及图17A~图17B的步骤S50~步骤S60,在机器人手臂5根据控制规则进行动作过程中,人4A直接把持机器人手臂5,将力施加给机器人手臂5,由此通知机器人手臂5的周边环境的变化,进而能对应于该环境而对动作信息进行矫正。
进而,通过新生成控制规则,利用图29的步骤S100~S112的动作指令部27的动作,在下一次成为相同环境时,再次在人4A不进行动作矫正的操作的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),可以使机器人手臂5自觉地进行动作。
(第二实施方式)
本发明的第二实施方式中的、机器人手臂5和其控制装置的基本构成,与第一实施方式的情况一样,所以省略共用部分的说明,以下仅对不同的部分进行详细说明。
如图19A所示,以使用具备机器人手臂5和机器人手臂5控制装置的机器人1而对IH烹调电炉6等的面板6a实施擦拭清洁作业的情况为例进行说明。在机器人手臂5的手部30,安装作为作业对象物的一例的擦拭清洁作业用工具的一例即海绵46。
首先,作为比较例,与本发明不同,在产生了污渍的情况(在看到了有污渍的部分的情况)下,对每次人4A都必须进行矫正操作的情况进行说明。
人4A在机器人手臂5正在例如图10A的“作业ID”的“1”的作业中如图19A(图18A是从上方看IH烹调电炉6的面板6a得到的图)所示,用海绵46对IH烹调电炉6等的面板6a实施擦拭清洁动作期间,人4A发现与IH烹调电炉6等的面板6a上的擦拭清洁动作中的场所不同的场所(有污渍的部分)91有污渍。此时,如图19B(图18B是从上方看IH烹调电炉6得到的图)所示,为了用海绵46对污渍附近进行清洁,人4A用手4把持机器人手臂5,使位于机器人手臂5的手尖位置的海绵46向有污渍的部分91移动。
接着,对于有污渍的部分91,为了加快面板6a的平面方向的海绵46(手部30)的移动速度的同时,用海绵46强力擦拭面板6a的污渍面,人4A把持动作中的机器人手臂5,边使其在面板6a的平面方向上加速移动,边进而由人4A从IH烹调电炉6的上方向下朝向有污渍的部分91将力施加给机器人手臂5。
其结果,边使机器人手臂5在IH烹调电炉6的平面方向上加速移动,边由机器人手臂5进而增强对IH烹调电炉6的擦拭力,进行擦拭清洁作业。
以上所示的矫正,在下一次产生了相同的污渍的情况(看到了有污渍的部分的情况)下,人4A必须再次进行矫正操作,比较麻烦。
因此,在该第二实施方式中,通过控制规则生成部23,由来自人4A的操作和此时的环境信息生成控制规则,由此在下一次产生了相同的污渍的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),可以使机器人手臂5自觉地进行擦拭清洁作业。
以下对该功能进行说明。
-动作指令部-
以下对动作指令部27的功能进行说明。
人4A通过数据输入IF26,从控制规则数据库16的作业中的与“作业ID”有关的作业中选择想使机器人手臂5执行的作业选择,通过动作指令部27来执行动作。即,在人4A通过数据输入IF26选择了图10A的“作业ID”为“1”的作业的情况下,动作指令部27以与该“1”的作业对应的“动作ID”借助数据库输入输出部28参照动作信息数据库17,基于动作信息(具体而言,位置、姿势、时间、力),按照标志设定控制模式,对控制参数管理部21作出指令,以便使机器人手臂5进行动作。
具体而言,在选择了图10A的“作业ID”为“1”的作业的情况下,“环境ID”是值“-1”,因此从动作指令部27对控制参数管理部21作出指令,以便不论机器人手臂5进行动作的环境信息如何都以在“动作ID”中存储的动作进行动作。在“作业ID”为“1”的作业的“动作ID”为“1”的动作的情况下,根据图5A的动作信息数据库17,“标志”在第0、1、3、4、5位为“1”,所以表示机器人手臂5的手尖的x、y、θ、ψ是有效的,因此关于x、y、θ、ψ,以位置控制模式进行动作,关于z轴,“标志”的第8位为“1”,因此从动作指令部27对控制参数管理部21作出指令,以便以力控制模式进行动作。综上,如图19A所示,机器人手臂5开始对IH烹调电炉6等的面板6a进行擦拭清洁作业。
-动作矫正部-
以下对动作矫正部20的功能进行说明。
在正对IH烹调电炉6等的面板6a实施擦拭清洁动作期间,人4A确认到与IH烹调电炉6等的面板6a上的擦拭清洁动作中的场所不同的场所有污渍,通过数据输入IF26向动作指令部27发出将污渍的状态通知给机器人手臂5的操作(环境变化通知操作)的开始指令。
首先,动作矫正部20,从数据输入IF26借助动作指令部27接受环境变化通知操作的指令,借助数据库输入输出部28对控制参数管理部21作出指令,以便依照动作信息数据库17的标志设定控制模式而进行动作。具体而言,借助数据库输入输出部28从动作信息数据库17参照以图10A的“作业ID”为“1”的作业进行动作过程中的“动作ID”为“1”的动作时,关于各“关键动作ID”的标志,在图5A中,仅第0、1、3~5位、第8位为“1”,其他为“0”,因此在机器人手臂5的动作当中,关于位置姿势,由动作矫正部20可知x轴、y轴、轴、θ轴、ψ轴的数据是有效的,关于力,由动作矫正部20可知z轴的数据是有效的。
因此,动作矫正部20对控制参数管理部21作出指令,以便x轴、y轴、轴、θ轴、ψ轴能以人4A施加的力加以矫正,关于x轴、y轴、轴、θ轴、ψ轴,从位置控制模式以阻抗控制模式(使其在探测出人4A的力的方向上移动的模式)进行动作。关于z轴,动作矫正部20对控制参数管理部21作出指令,以便在IH烹调电炉6等的面板6a的位置通过高刚性位置控制模式进行动作。在阻抗控制模式中,在未从人4A施加力的情况下停止,在从人4A施加力的情况下,可以在该方向上移动。在高刚性位置控制模式中,以即便人4A施加力,机器人手臂5也不容易移动的模式,可以由力检测部53检测出人4A施加的力。
接着,如图19B(图18B)所示,由人4A进行将IH烹调电炉6等的面板6a的污渍场所通知给机器人手臂5的操作(环境变化通知操作)。具体而言,人4A用手4直接把持机器人手臂5,朝向有污渍的部分91将力施加给机器人手臂5,使其在x-y平面移动。接着,在有污渍的部分91上边使海绵46在x轴方向及y轴方向上移动,边由人4A在z轴方向上向下将力施加给机器人手臂5。
人4A为了获得通过环境变化通知操作向机器人手臂5施加力而使机器人手臂5移动的动作,通过动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖位置及力,从动作矫正部20向后述的控制规则生成部23输出所获得的信息。
接着,动作矫正部20,从数据输入IF26借助动作指令部27接受动作矫正操作的开始指令,对控制参数管理部21作出指令,以便依照动作信息数据库17的矫正参数标志,设定控制模式进行动作。具体而言,动作矫正部20借助数据库输入输出部28而从动作信息数据库18参照以图10A的“作业ID”为“1”的作业进行动作过程中的“动作ID”为“1”的动作时,关于各“关键动作ID”的矫正参数标志,在图5A中,仅第0、1、8位为“1”,其他为“0”,所以在机器人手臂5的动作当中,由动作矫正部20知晓可以仅对x轴及y轴的位置分量及z轴的力分量进行矫正。在对x轴及y轴的位置分量和z轴的力分量进行矫正的情况下,按照能用人4A施加的力对x轴及y轴的位置分量和z轴的力分量进行矫正的方式,按照x轴及y轴以混合阻抗控制模式进行动作、z轴以高刚性位置控制模式进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
如图19C所示,人4A为了对有污渍的部分91及其附近施加较强的力并加快移动而用海绵46进行清洁,如图19D(从上看图19C得到的图)所示,用人4A直接把持机器人手臂5,在想要加速的情况下,在与擦拭清洁的行进方向相同的方向上由人4A向机器人手臂5施加力,在想要减速的情况下,在与清洁的行进方向相反的方向上用人4A的手4向机器人手臂5施加力。进而,关于朝向有污渍的部分91的方向,人4A把持机器人手臂5,朝向污渍的部分对机器人手臂5施加力。
x轴及y轴,边通过混合阻抗控制模式以位置控制模式使机器人手臂5移动,边通过阻抗控制模式由力检测部53检测出用人4A的手4向机器人手臂5施加的力,在用人4A的手4向机器人手臂5施加力的方向上,使机器人手臂5在x轴方向及y轴方向上移动。将从以图10A的“作业ID”为“1”的作业进行动作过程中的“动作ID”为“1”的动作所示的机器人手臂5的位置(x1、y1)移动至下一个“动作ID”的机器人手臂5的位置(x2、y2)所需的时间设为t1时,在用人4A的力变更机器人手臂5的速度的情况下(参照图19D),即,在从位置(x1、y1)移动至位置(x2、y2)所需的时间从t1变更为t2的情况下,时间t2的值从动作矫正部20向控制参数管理部21输出。由此,矫正为图19E所示的动作。
进而,在z轴方向上施加的力由力检测部53检测出,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的力及时间,将所获得的信息从动作矫正部20向后述的控制规则生成部23输出。需要说明的是,与该时间有关的信息,为将人4A选择作业而发出开始指令的时点设为0算起的相对时间。
-控制规则生成部-
控制规则生成部23,与第一实施方式的情况一样,借助数据库输入输出部28,用控制规则数据库16的“动作ID”所参照的动作信息数据库17的位置及姿势及力及时间的信息,在以后述的阻抗控制模式、或位置控制模式、或力控制模式、或按方向的不同将它们组合后的控制模式当中的任意模式的机器人手臂5的动作过程中,由控制规则生成部23从数据输入IF26借助动作指令部27接收动作矫正操作的开始指令。于是,具有如下功能:在控制规则生成部23,根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,借助数据库输入输出部28存储在控制规则数据库16中。
以下,对控制规则生成部23的功能进行说明。
对于动作中的“作业ID”,在控制规则生成部23,从数据输入IF26借助动作指令部27接收环境变化通知操作的开始指令,通过动作矫正部20输入用来自人4A的环境变化通知操作生成的机器人手臂5的手尖位置及时间。除此之外,根据环境变化通知操作开始的时间点,从环境信息获得部19向控制规则生成部23输入环境信息。进而,由控制规则生成部23从动作信息数据库18借助数据库输入输出部28参照环境变化通知操作开始时的动作中的“动作ID”,由控制规则生成部23从与该“动作ID”的“关键动作ID”的标志有关的信息,获得与当前的机器人手臂5的控制模式有关的信息。具体而言,在由控制规则生成部23借助数据库输入输出部28而从动作信息数据库18参照以图10A的“作业ID”为“1”的作业进行动作过程中的“动作ID”为“1”的动作的“关键动作ID”为1~8的关键动作时,关于各“关键动作ID”的标志,在图5A中,仅第0、1、3~5、8位为“1”,其他为“0”,在机器人手臂5的动作当中,关于位置姿势,通过控制规则生成部23知晓x轴、y轴、轴、θ轴、ψ轴的数据是有效的,关于力,通过控制规则生成部23知晓z轴的数据是有效的。因此,按照x轴、y轴、轴、θ轴、ψ轴能由人4A施加的力进行矫正的方式,成为阻抗控制模式。
根据当前动作中的环境变化通知操作时的机器人手臂5的移动方向的控制模式和检测部选择规则数据库29,用控制规则生成部23从多个环境信息中选择用于生成控制规则的环境信息的类别。具体而言,在图10A的“作业ID”为“1”的作业的环境变化通知操作开始的时间点,如图18B所示,在x轴方向及y轴方向上进行环境变化通知操作。x轴及y轴以阻抗控制模式进行矫正,因此根据图11A,环境信息的类别ID成为“1”,根据图11B,成为“图像”。进而,在图18B中,在x轴方向及y轴方向上进行环境变化通知操作,所以由控制规则生成部23选择可对x-y平面进行摄像的第一图像摄像装置15a得到的图像(例如对图20的污渍进行摄像得到的图像)。进而,在图18B的操作中,进行以高刚性位置控制模式在z轴上施加力的操作。根据图11A,环境信息的类别ID在高刚性位置控制模式的情况下成为“2”,根据图11B,成为“力”,由控制规则生成部23选择由力检测部53检测出的力。
由控制规则生成部23获得的图像和力的信息,通过控制规则生成部23,借助数据库输入输出部28存储在环境信息数据库18中。具体而言,如图9A的“环境ID”为“11”的环境信息所示,用控制规则生成部23对新的“环境ID”赋予“11”,对于该“环境ID”的“图像ID”,将所选择的图像的文件名通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中(在该例中,为图像4,是图20的有污渍的部分91被摄像得到的图像。)。进而,将检测出的力的值通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。需要说明的是,关于力,将所有的轴通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。关于力,因为污渍而摩擦系数(关于摩擦系数,通过用擦拭清洁动作时的力检测部53的输出当中在清洁面上的行进方向的力除以清洁面的垂直抗力而算出)不同。例如,在具有粘滞性的物质牢牢粘住的情况下,摩擦系数增大。因此,将与力有关的信息通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中,由此可以对应于摩擦系数改变擦拭清洁的力施加状况。
关于标志,由于图像及力的全部值有效,所以将第0~6位设为“1”,通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。
接受动作矫正操作的开始指令,将由动作矫正部20矫正后的动作信息借助数据库输入输出部28存储在动作信息数据库17中。
具体而言,如图5C所示,对于动作信息数据库17,由动作矫正部20新赋予“动作ID”(在该例中为“4”),进而作为“关键动作ID”,由动作矫正部20赋予“32”~“38”,将由动作矫正部20矫正后的动作信息存储在各“关键动作ID”中。关于时间,从动作矫正部20输入将人4A选择作业发出了开始指令的时点设为0的相对时间,将从全部动作各自的时间减去最开始的关键动作(在该例中为“20”)的时间得到的值存储在动作信息数据库17中。关于标志,用动作矫正部20按各分量对矫正前的标志成为“1”的动作信息的分量当中、矫正前和矫正后的“动作ID”各自的关键动作的位置姿势和力的值进行比较,仅对于其差为某阈值以上的分量,通过动作矫正部20将图6的标志各自的分量设为“1”,在低于阈值的情况下,设为“0”。
具体而言,关于矫正前的“动作ID”为“1”的动作的标志,第0、1、3~5、8位为“1”,其他为“0”,所以用动作矫正部20仅对矫正前的动作和矫正后的动作的位置姿势、力的值当中、位置姿势(x、y、θ、ψ)、力z分量进行比较。在“关键动作ID”为“1”的关键动作和为“4”的关键动作中,在位置姿势(x、y、θ、ψ)的分量当中,x分量的差为0.1(m),y分量的差为0.2(m),其他分量相同,力的z分量的差成为3(N)。将位置的差的阈值设为0.05(m)、力的差的阈值设为0.5(N)时,位置x分量及y分量、力的z轴分量成为阈值以上。因此,“动作ID”为“4”的动作各“关键动作ID”的标志,第0、1、8位为“1”,其他为“0”。
关于矫正参数标志,将矫正前的动作(在该例中为“1”~“8”)的值通过动作矫正部20存储在动作信息数据库17中。
综上,人4A进行环境变化通知操作及动作矫正操作,从而通过控制规则生成部23,生成新的控制规则,由此随着环境变化,如果人4A进行操作而对动作进行矫正,则在下一次遇到相同环境的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),机器人手臂5可以自觉地进行动作。
如上所示,通过新生成控制规则,在接着成为相同环境的情况下(在该例中,当污渍严重时,强力快速进行擦拭清洁的情况),基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),能以追加的控制规则进行作业。
在该例中,如图10B所示,对于“作业ID”为“1”的作业,将多个“动作ID”(“1”、“4”)存储在动作信息数据库17中,对此时的动作指令部27的功能(动作算出部2)进行说明。
图10B的“作业ID”为“1”的作业的“动作ID”为“1”的动作,表示图19A的用于进行动作的动作信息,另一方面,“作业ID”为“1”的作业的“动作ID”为“4”的动作,表示用于对如图19B所示对污渍严重的场所进行擦拭清洁动作的动作信息。
人4A通过数据输入IF26,对动作指令部27发出“作业ID”为“1”的作业开始的指令。
动作指令部27接受所指定的“作业ID”的作业的作业开始指令,借助数据库输入输出部28使控制规则数据库16的被指定的“作业ID”的作业开始。此时,在由动作指令部27判断为“作业ID”中存在多个“动作ID”的情况下,通过各“环境ID”和各“动作ID”的标志(关于“动作ID”,动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),利用信息动作指令部27的动作算出部2算出最终执行的动作。
具体而言,在图10B中,在“作业ID”为“1”的作业中,有“动作ID”为“1”的动作和为“4”的动作。“动作ID”为“1”的动作的“环境ID”是值“-1”,所以与机器人手臂5的周边环境无关地进行动作,因此作为应该执行的动作而通过由动作指令部27加以选择。
接着,成为“动作ID”为“4”的动作的“环境ID”是“11”的环境信息,而不是“-1”的值,因此通过动作指令部27,借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“11”的环境信息。关于图9A的“环境ID”为“11”的环境信息的标志,第1~6位为“1”,因此可以由动作指令部27判断为图像及力是有效的。因此,在动作指令部27借助数据库输入输出部28通过环境信息数据库18获得图像ID(具体而言为图像文件名)及力。
接着,从环境信息获得部19,动作指令部27获得当前的图像信息及力信息,通过图像匹配,由动作指令部27对基于上述所获得的图像ID的图像信息和当前的图像信息的2个图像进行比较。在由动作指令部27判断为2个图像吻合的情况下,将“动作ID”存储为“3”的动作作为应该执行的动作而由动作指令部27加以选择。
在所选择的动作存在多个的情况(在该例中,“动作ID”为“1”的动作和为“4”的动作)下,按照将选择的多个动作存储在控制规则数据库16中的顺序,对应于各动作信息的标志,用动作指令部27将应该执行的动作加以汇总。
在该例中,由动作指令部27选择“动作ID”为“1”的动作和为“4”的动作,在图10B的控制规则数据库16的“动作ID”中依次存储有“1”的动作、“4”的动作。因此,关于“动作ID”为“1”的动作的动作信息的标志,在图5C中,第0、1、3~5位及第位为“1”,因此在“动作ID”为“1”的动作的动作信息当中,由动作指令部27获得位置姿势信息(x、y、θ、ψ)和力z轴分量的动作信息。
接着,关于“动作ID”为“4”的动作的标志,仅第0、1、8位为“1”,将“动作ID”为“1”的动作的位置的x分量及y分量和力的z轴分量置换成“动作ID”为“4”的动作的每个并由动作指令部27算出。例如,“关键动作ID”为“1”的关键动作的位置姿势,是(0.1、0.1、0、0、0、0)、力(0、0、5、0、0、0),“动作ID”为“4”的动作的关键动作为“32”的动作的位置姿势,是(0.2、0.3、0、0、0、0)、力(0、0、8、0、0、0),所以在“关键动作”为“1”的关键动作的位置姿势、力信息当中,由动作指令部27仅对“关键动作ID”为“32”的关键动作的位置的x分量及y分量(0.2、0.3)和力z轴分量8(N)进行置换,由此,最终的位置姿势成为(0.2、0.3、0、0、0、0)、力信息(0、0、8、0、0、0)。同样地,由动作指令部27将“关键动作ID”为“2”的关键动作的位置的x分量及y分量和力的z分量,置换成“关键动作ID”为“33”的关键动作的x分量及y分量和力的z分量,以后,由动作指令部27依次算出直至“关键动作ID”最后。
关于动作信息的标志及动作信息标志,就“动作ID”为“1”的动作和为“4”的动作的每个位而言,在某一位为“1”的情况下,将算出后的标志的位设为“1”,在双方均为“0”的情况下,设为“0”。不过,位置和力各自的分量仅某一个为“1”(仅以位置控制模式或力控制模式的某一个进行工作),所以在位置和力双方均为“1”情况下,使力优先。
关于“动作ID”的“1”的动作的标志,第0、1、3~5、8位为“1”,在“4”的情况下,第8位为“1”,因此关于算出的动作的标志,第0、1、3~5、8位为“1”。
关于“动作ID”的“1”的动作和“4”的动作的动作参数标志,均是第0、1、8位为“1”,所以关于算出的动作的动作参数标志,第0、1、8位为“1”。
对于算出后的动作信息,由动作指令部27对应于标志对控制模式进行切换,将动作信息从动作指令部27向控制参数管理部21输出,由此可以用动作指令部27执行算出的动作。
综上,在擦拭清洁过程中,对于有污渍的场所,人4A直接把持机器人手臂5,将力施加给机器人手臂5,由此通知机器人手臂5的周边环境的变化(污渍的场所),能对应于污渍的颜色或污渍面的摩擦系数,对动作信息进行矫正。进而,与第一实施方式一样,通过新生成控制规则,利用图29的步骤S100~S112的动作指令部27的动作,在下一次成为相同环境时,再次在人4A不进行动作矫正的操作的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),能使机器人手臂5自觉地进行动作。
(第三实施方式)
本发明的第三实施方式中的、机器人手臂5和其控制装置的基本构成,与第一实施方式的情况一样,所以省略共用部分的说明,以下仅对不同的部分进行详细说明。
在第三实施方式中,使用具备机器人手臂5和机器人手臂5的控制装置的机器人1,如图21所示,以在单元生产的工场对电视或DVD录像机等设备71安装螺钉73的情况为例进行说明。在机器人手臂5的手部30,作为作业用工具的一例而可以安装用于安装螺钉73的工具。
如图21所示,机器人1的机器人手臂5设置在例如工场内的作业台桌子等作业台7的壁面7a,机器人手臂5的基端被固定于壁面7a的导轨8以可以移动的方式加以支承,机器人手臂5可以在导轨8上在沿着导轨8的横向方向例如水平方向上通过人4A的力进行移动。15a是摄像头等第一图像摄像装置,例如安装成可以从顶棚7b对作业台7进行摄像。
机器人1,例如在工场内,使用机器人手臂5进行电视或DVD录像机的螺钉73的安装作业等机器人手臂5和人4A协作进行的作业。
与第一实施方式一样,首先,人4A用手4直接把持机器人1的机器人手臂5而向机器人手臂5施加力。此外,通过从人4A向机器人手臂5施加的力,使机器人1的机器人手臂5沿着导轨8移动,由此将机器人手臂5引导至器具71(在该例中,表示安装螺钉73的电视或DVD录像机的设备。)的附近。
接着,人4A向机器人1的机器人手臂5的手尖即前端的手部30,安装作为作业对象物的一例的作业用工具9的其他例即用于安装螺钉73的工具、例如电动驱动器具72。电动驱动器具72,例如可以在其下端支承螺钉73且朝向下方将电动驱动器具72按压向设备71,由此开关为接通,驱动器(driver)自动旋转,可以使螺钉73相对于螺纹孔71a进行螺旋旋转动作(可以进行紧固动作或拧下动作)。只要解除按压,就推知为断开,电动驱动器具72的驱动器的旋转停止。
接着,人4A对在单元生产的作业台7等的前侧侧面7e等配置的、作为数据输入IF26的一例的机器人1的操作盘13的按钮13a进行按压等方式使用数据输入IF26,由此机器人手臂5进行工作,使预先选择的作业、即在器具71的螺纹孔71a安装由手部30所把持的电动驱动器具72的前端支承的螺钉73的(紧固的)作业。
接着,在通过设备71的规格变更而设备71的形状或螺钉73或螺纹孔71a的规格发生了变更的情况下,在机器人手臂5通过手部30所把持的电动驱动器72进行螺钉73的安装作业时,人4A确认螺钉73的安装状态,人4A对机器人手臂5施加力,进行螺钉73的紧固方法或螺钉73的位置的调节等动作矫正,由此对机器人1的机器人手臂5的动作进行矫正。
导轨8配置在作业台7的壁面7a,但在没有壁面的作业台的情况下,可以设置在顶棚面或作业台的面板6a的侧面等适于作业的场所。
进而,操作盘13固定于作业台7的侧面,不过也可以代替操作盘13,是能进行远程操作的遥控。
-动作信息数据库-
动作信息数据库17中,与第一实施方式一样,存储有机器人手臂5的、在某时间的机器人手臂5的手尖位置及姿势等与机器人手臂5的动作有关的信息(动作信息)。动作信息,借助控制规则生成部23通过数据库输入输出部28对动作信息数据库17输入输出。
图22A、图22B示出本第三实施方式的动作信息数据库17。标志以外的动作信息与第一实施方式一样,所以省略说明。标志是与表示机器人手臂5的手尖位置及姿势及力的参数当中的哪一信息有效的标志有关的信息(参照图22A的“标志”栏)。具体而言用图23所示的32位的数值表示。第0~11位与第一实施方式一样。就第2~17位而言,在手尖位置及姿势各自的值有效的情况下(在第0~5位的任意为“1”的情况下),作为该手尖位置及姿势的动作信息,在对执行该动作信息时之前不久的手尖位置及姿势的值进行拷贝而使用的情况下,设为“1”,在不使用的情况下,设为“0”。例如,关于图22A的“关键动作ID”为“50”的关键动作的“标志”,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。这表示由于第0、1、3~5、8位为“1”,所以手尖位置及姿势当中(x、y、θ、ψ)和力的z分量是有效的。进而,第12、13、15~17为“1”,所以对手尖位置及姿势当中稍前使(x、y、θ、ψ)分量进行动作的手尖位置及姿势的(x、y、θ、ψ)分量进行拷贝。例如在即将开始“关键动作ID”为“50”的关键动作之前而“关键动作ID”为“48”的关键动作进行了动作的情况下,将“关键动作ID”为“48”的关键动作的位置姿势当中(x、y、θ、ψ)的值(在该例中为(0.2、0.1、0、0、0))拷贝成“关键动作ID”为“50”的关键动作的位置姿势(x、y、θ、ψ)。由于对稍前动作的手尖位置及姿势进行拷贝,因此稍前动作的手尖位置及姿势与下一个手尖位置及姿势的值相同,所以机器人手臂5以该手尖位置及姿势停止。
-动作指令部(动作算出部)-
以下对动作指令部27的功能进行说明。
人4A通过数据输入IF26,从控制规则数据库16的作业中的与“作业ID”有关的作业中,借助数据库输入输出部28选择想使机器人手臂5执行的作业,通过动作指令部27对控制参数管理部21作出指令,以便执行其所选择的“作业ID”涉及的动作。
在动作指令部27借助数据库输入输出部28参照控制规则数据库16时,在选择了1个“作业ID”的作业的情况下且在动作指令部27判断为上述1个“作业ID”的作业中存储有多个“动作ID”的情况下,通过动作算出部2算出动作信息,将所算出的动作信息(具体而言,位置、姿势、时间、力)借助数据库输入输出部28对控制参数管理部21作出指令,以便依照标志设定控制模式进行动作。
具体而言,关于图10A的“作业ID”为“3”的作业,如图24A(从上方看图21得到的图)所示,表示在边使机器人手臂5的手尖位置的手部30在螺纹孔71a间移动,边用机器人1检测出螺纹孔71a时,进行将机器人手臂5的手尖位置的手部30的电动驱动器具72所支承的螺钉73紧固在螺纹孔71a中的动作这样的控制规则下的作业。在“作业ID”为“3”的作业中存储有多个“动作ID”(“11”、“12”)。
在动作算出部2中,从多个动作算出1个动作信息。具体而言,由动作算出部2从“动作ID”为“11”的动作和为“12”的动作中计算1个动作信息。“动作ID”为“11”的动作,表示机器人手臂5的手尖位置的手部30(准确地说,用手部30把持的电动驱动器具72)如图24A所示在螺纹孔71a间移动的动作。“动作ID”为“11”的动作的“环境ID”是值“-1”,所以不论机器人手臂5的周边环境如何机器人手臂5都进行动作,由此作为应该执行的动作而由动作指令部27加以选择。关于“动作ID”为“12”的动作,如下述所示,在由动作指令部27判断为螺纹孔71a的情况下,表示将螺钉73紧固的动作。关于“动作ID”为“12”的动作的“环境ID”是“20”的环境信息,由于不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“20”的环境信息。关于图9A的“环境ID”为“20”的环境信息的标志,仅第6位为“1”,其以外的为“0”,因此可以由动作指令部27判断为图像有效。因此,根据图像ID,动作指令部27获得在环境信息数据库18中存储的图像的信息。该图像表示图25的螺纹孔71a的图像的信息。接着,通过环境信息获得部19,由动作指令部27获得当前的图像信息,通过图像匹配,由动作指令部27对2个图像进行比较,由动作指令部27判断是否是螺纹孔71a。在由动作指令部27判断为2个图像吻合的情况下,由动作指令部27判断为是螺纹孔71a,将“动作ID”存储为“12”的动作作为应该执行的动作而由动作指令部27加以选择。在由动作指令部27判断为不相吻合的情况下,不由动作指令部27选择“动作ID”存储为“12”的动作,动作指令部27仅选择“11”的动作。
在由动作指令部27选择的“动作ID”仅有1个的情况下,与第一实施方式一样,由动作指令部27从动作信息数据库17借助数据库输入输出部28参照与“动作ID”相同的“动作ID”的动作。关于与“动作ID”相同的ID的动作信息,对于多个由“关键动作ID”管理的动作信息(具体而言,位置的信息、姿势的信息、时间的信息、力的信息),从动作指令部27对控制参数管理部21作出指令,以便依照动作信息的标志设定控制模式而进行动作,按照依次执行各自的关键动作的方式,从动作指令部27向控制参数管理部21输出动作信息。在该例中,在由动作指令部27判断为机器人手臂5的周边环境与“动作ID”为“12”的动作的“环境ID”为“20”的环境信息不吻合的的情况下,由动作指令部27判断为无法检测出螺纹孔71a,按照执行“动作ID”示为“11”的动作的方式,从动作指令部27对控制参数管理部21作出指令。
综上,如图24A(从上方看图21得到的图)所示,开始机器人手臂5在螺纹孔71a间移动的动作。
在机器人手臂5以“动作ID”为“11”的动作在螺纹孔71a间移动过程中,在由动作指令部27判断为机器人手臂5已到达螺纹孔71a的上方部分的情况下,由动作指令部27判断为“动作ID”为“12”的动作的“环境ID”为“20”的环境信息的图像和由环境信息获得部19获得的当前的图像信息的图像吻合,因此由动作指令部27选择“动作ID”为“11”的动作和为“12”的动作2个动作。在动作指令部27的动作算出部2中,通过各“动作ID”的标志(关于“动作ID”,动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),算出最终应执行的动作信息。
在该例中,动作指令部27选择“动作ID”为“11”的动作和为“12”的动作,在图10A的控制规则数据库16中“动作ID”中依次存储有为“11”的动作、“12”的动作。因此,关于“动作ID”为“11”的动作的动作信息的标志,根据图22A,第0~5位及第位为“1”,因此由动作指令部27获得“动作ID”为“11”的动作的动作信息当中位置姿势信息(x、y、z、θ、ψ)的动作信息。
接着,关于“动作ID”为“12”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。在标志当中,第12、13、15~17位为“1”,因此,此时在“动作ID”为“12”的动作各自的关键动作的标志当中,第12、13、15~17位为“1”,所以对当前执行中的机器人手臂5的手尖位置信息进行拷贝,由动作指令部27对“动作ID”为“11”的动作的动作信息进行置换。在该例中,由于在螺纹孔71a的上方配置机器人手臂5,因此用动作指令部27将其位置及姿势信息拷贝成“动作ID”为“11”的动作。关于其他关键动作的位置,也同样用动作指令部27进行置换。
接着,用动作指令部27将“动作ID”为“11”的动作的动作信息当中(x、y、φ、θ、ψ)和力z分量的值置换成“动作ID”为“12”的动作各自的动作信息,并用动作算出部2计算出。
以后,依次由动作算出部2算出直至“关键动作ID”的最后。
关于由动作算出部2算出的动作信息的标志及动作信息标志,通过动作算出部2,就“动作ID”为“11”的动作和为“12”的动作的各位而言,在某一位为“1”的情况下,将算出后的标志的位设为“1”,在双方均为“0”的情况下,设为“0”。不过,位置和力各自的分量仅某一个为“1”(仅以位置控制模式或力控制模式的某一个进行工作),所以在位置和力双方均成为“1”的情况下,使力优先。
关于“动作ID”为“11”的动作的标志,第0~5位为“1”,“12”是第0、1、3~5、8、12、13、15~17位为“1”,所以第0~5、8、12、13、15~17位成为“1”。位置z分量和力z分量双方均成为“1”,使力优先,所以最终第0、1、3~5、8、12、13、15~17位成为“1”。
关于“动作ID”为“11”的动作的动作参数标志,第1、2、3位为“1”,关于“动作ID”为“12”的动作的动作参数标志,第8位为“1”。因此,由动作算出部2算出的动作的动作参数标志,第1、2、3、8位为“1”。
关于由动作算出部2算出的动作的“标志”,第0、1、3~5位为“1”,表示机器人手臂5的手尖的x、y、θ、ψ是有效的,所以关于x、y、θ、ψ,以位置控制模式进行动作。进而,第8位为“1”,所以按照z轴以力控制模式进行动作的方式,从动作指令部27对控制参数管理部21作出指令。
综上,如图24B(从上方看图21得到的图)所示,机器人手臂5开始将螺钉73紧固于螺纹孔71a中的动作。
-动作矫正部-
以下对动作矫正部20的功能进行说明。
人4A通过数据输入IF26指定“作业ID”为“3”的作业,对动作指令部27作出作业开始的指示时,如图26A所示,使机器人手臂5开始将螺钉73从螺纹孔71a拧下的作业。
接着,随着TV或DVD录像机等设备71的规格变更,如图26B所示,设置规格变更后的设备,以便追加在规格变更场所竖立设置的突出构件(例如,新安装的部件或螺钉等)71b。预先生成的“作业ID”为“3”的作业,在突出构件71b的规格变更前生成,因此使其直接进行动作时,碰到突出构件71b,机器人手臂5的动作停止。
因此,人4A借助数据输入IF26在动作指令部27输入图26C所示的环境变化通知操作的开始指令。动作矫正部20从数据输入IF26借助动作指令部27接受环境变化通知操作的指令,对控制参数管理部21作出指令,以便依照动作信息数据库17的标志,设定控制模式进行动作。
具体而言,如图26B所示,在与规格变更场所的突出构件71b有碰撞的场所,没有螺纹孔71a,所以由动作矫正部20判断为与“动作ID”为“12”的动作的“环境ID”为“20”的环境信息不吻合,因此仅以“动作ID”为“11”的动作进行动作。在用动作矫正部20从动作信息数据库18借助数据库输入输出部28参照动作中的“动作ID”为“11”的动作时,关于各“关键动作ID”的标志,在图22A中,第0~5位为“1”,其他为“0”,因此在机器人手臂5的动作当中,关于位置姿势,由动作矫正部20知晓x轴、y轴、z轴、轴、θ轴、ψ轴是有效的。因此,按照x轴、y轴、z轴、轴、θ轴、ψ轴能用人4A施加的力进行矫正的方式,关于x轴、y轴、轴、θ轴、ψ轴,按照从位置控制模式以阻抗控制模式(使其在探测出人4A的力的方向上移动的模式)进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
接着,如图26C所示,由于通知了设备71上的规格变更场所的突出构件71b,可以使其在规格变更场所的突出构件71b的上方场所与71平行地在x-y平面移动。由动作矫正部20获得人4A通过环境变化通知操作施加力而使其移动的动作,所以由动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖位置及力,从动作矫正部20向后述的控制规则生成部23输出。
接着,动作矫正部20,从数据输入IF26借助动作指令部27接受动作矫正操作的开始指令,从动作矫正部20向控制参数管理部21发出指令,以便按照动作信息数据库17的矫正参数标志,设定控制模式进行动作。具体而言,由动作矫正部20从动作信息数据库18参照以图10A的“作业ID”为“3”的作业进行动作过程中的“动作ID”为“11”的动作时,关于各“关键动作ID”的矫正参数标志,在图22A中,仅第0~2位为“1”,其他为“0”,所以由动作矫正部20知晓机器人手臂5的动作的位置姿势当中能仅对x轴分量、y轴分量、及z轴分量进行矫正。关于x轴、y轴、及z轴,按照从位置控制模式以混合阻抗控制模式(边以位置控制模式进行移动边在探测出人4A的力的方向上以阻抗控制使其移动的模式)进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
接着,如图26D所示,人4A直接把持机器人手臂5,按照成为不会碰撞规格变更场所的突出构件71b的方式施加力时,通过混合阻抗控制模式,边以位置控制模式使机器人手臂5移动,边通过阻抗控制模式,探测出人4A的力并在施加了力的方向上使机器人手臂5在x轴方向、y轴方向、及z轴方向上移动。为了获得人4A施加力使其移动后的动作,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖位置及时间,从动作矫正部20向后述的控制规则生成部23输出。需要说明的是,与该时间有关的信息,成为将人4A选择作业发出开始指令的时点设为0算起的相对时间。
-控制规则生成部-
控制规则生成部23,与第一实施方式的情况一样,用控制规则数据库16的动作ID所参照的动作信息数据库17的位置及姿势及力及时间的信息,在机器人手臂5以后述的阻抗控制模式、或位置控制模式、或力控制模式、或按方向的不同将它们组合后的控制模式当中的任意模式进行动作的过程中,从数据输入IF26借助动作指令部27,由控制规则生成部23接受环境变化通知操作及动作矫正开始的指令。于是在控制规则生成部23具有如下功能:根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,存储在控制规则数据库16中。
以下对控制规则生成部23的功能进行说明。
如图26B所示,在与规格变更场所的突出构件71b碰撞的场所,没有螺纹孔71a,因此与“动作ID”为“12”的动作的“环境ID”为“20”的环境信息不吻合,所以仅以“动作ID”为“11”的动作进行动作。
控制规则生成部23,从数据输入IF26借助动作指令部27,相对于动作中的作业ID,接受环境变化通知操作的开始指令,从动作矫正部20输入由来自人4A的环境变化通知操作生成的机器人手臂5的手尖位置及时间。除此之外,根据环境变化通知操作开始的时间点,通过环境信息获得部19输入环境信息。进而,由控制规则生成部23从动作信息数据库18参照环境变化通知操作开始时的动作中的“动作ID”,由控制规则生成部23从与该“动作ID”的“关键动作ID”的标志有关的信息,获得与当前的机器人手臂5的控制模式有关的信息。具体而言,从动作信息数据库18参照以图10A的“作业ID”为“3”的作业进行动作过程中的“动作ID”为“11”的动作的“关键动作ID”为“41”~“48”的关键动作时,关于各“关键动作ID”的标志,在图22A中,仅第0~5位为“1”,其他为“0”,所以通过控制规则生成部23知晓机器人手臂5的动作当中仅x轴、y轴、z轴、轴、θ轴、ψ轴的数据是有效的。因此,按照x轴、y轴、z轴、轴、θ轴、ψ轴能以人4A施加的力进行矫正的方式,成为阻抗控制模式。
根据当前动作中的环境变化通知操作时的机器人手臂5的移动方向的控制模式和检测部选择规则数据库29,用控制规则生成部23从多个环境信息中选择用于生成控制规则的环境信息的类别。具体而言,在图10A的“作业ID”为“3”的作业的环境变化通知操作的开始的时间点,如图26C所示在x轴方向及y轴方向上进行环境变化通知操作。x轴及y轴在以阻抗控制模式进行矫正,因此根据图11A,环境信息的类别ID成为“1”,根据图11B,用控制规则生成部23选择“图像”。进而,在图26C中,在x轴方向及y轴方向上进行环境变化通知操作,用控制规则生成部23选择由可对x-y平面进行摄像的图像摄像装置15a得到的图像。具体而言,如图27所示,成为从上向下对规格变更场所的突出构件71b进行摄像得到的图像。所选择的图像,通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。在该例中,如图9A的“环境ID”为“21”的环境信息所示,作为新的“环境ID”而由控制规则生成部23赋予“21”,在该“环境ID”的“图像ID”中,将所选择的图像的文件名通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。进而,标志仅为图像,所以通过控制规则生成部23借助数据库输入输出部28,仅将第6位以“1”存储在环境信息数据库18中,将其他位以“0”存储在环境信息数据库18中。
接着,将接受动作矫正操作的开始指令而由动作矫正部20矫正后的动作信息,借助数据库输入输出部28存储在动作信息数据库17中。
具体而言,用动作矫正部20对图22B的动作信息数据库17新赋予“动作ID”(在该例中为“13”),进而作为“关键动作ID”,由动作矫正部20赋予“60”~“67”,将由动作矫正部20矫正后的动作信息,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17的各“关键动作ID”中。关于时间,从动作矫正部20输入将人4A选择作业发出开始指令的时点设为0后的相对时间,将从全部动作各自的时间减去最开始的关键动作(在该例中为“60”)的时间得到的值,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17中。关于标志,用动作矫正部20按各分量对矫正前的标志中成为“1”的动作信息的分量当中矫正前和矫正后的“动作ID”各自的关键动作的位置姿势和力的值进行比较,仅仅对于该差为某阈值以上的分量,用动作矫正部20将图6的标志的各分量设为“1”,在低于阈值的情况下,由动作矫正部20设为“0”。
具体而言,关于矫正前的“动作ID”为“11”的动作的标志,第0~5位为“1”,其他为“0”,所以用动作矫正部20仅对矫正前的动作和矫正后的动作的位置姿势和力的值当中的位置姿势分量进行比较。通过“关键动作ID”为“41”的关键动作和“关键动作ID”为“60”的关键动作,在位置姿势(x、y、z、θ、ψ)的分量当中,θ、ψ相同,x坐标、y坐标、及z坐标的差分别成为(0.2、0.2、0.4),将差的阈值设为0.1时,仅仅x分量、y分量、及z分量成为阈值以上。因此,通过动作矫正部20,就标志而言,第0、1、2位为“1”,其他为“0”。
关于矫正参数标志,通过动作矫正部20借助数据库输入输出部28将矫正前的动作(在该例中为“41”~“48”)的值存储在动作信息数据库17中。
接着,通过控制规则生成部23从所获得的环境信息和由动作矫正部20的动作矫正操作矫正后的动作在控制规则数据库19中生成新的控制规则并加以存储。
具体而言,为了在以控制规则数据库16的“作业ID”为“3”的作业进行动作的过程中对动作进行矫正,通过控制规则生成部23,如图10B所示,对“作业ID”为“3”的作业追加1行,并追加通过动作矫正新追加的“动作ID”为“13”的动作。
接着,将由控制规则生成部23选择的环境信息的环境ID,借助数据库输入输出部28存储在控制规则数据库16中(在该例中为环境ID“21”)。
综上,人4A进行环境变化通知操作及动作矫正操作,通过控制规则生成部23生成新的控制规则,由此即便未事先准备考虑了设备71的规格变更的动作,但只要人4A在当场进行操作而对环境通知及动作进行矫正,在下一次遇到相同环境的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),机器人手臂5可以自觉地进行动作。
-动作指令部(动作算出部)-
在该例中,如图10B所示,在“作业ID”为“3”的作业中存储有多个“动作ID”(“11”、“12”、“13”),所以对此时的动作指令部27的功能进行说明。
图10B的“作业ID”为“3”的作业的“动作ID”为“11”的动作,表示用于进行图28A的动作(在螺纹孔71a间移动的动作)的动作信息,“动作ID”为“12”的动作表示用于进行图28B的动作(将螺钉73紧固的动作)的动作信息,“动作ID”为“13”的动作表示用于进行图28C的动作(避开规格变更场所的突出构件71b的动作)的动作信息。
通过动作算出部2,从多个动作算出1个动作信息。具体而言,“动作ID”为“11”的动作的“环境ID”是值“-1”,所以机器人手臂5不论机器人手臂5的周边环境如何都进行动作,作为应该执行的动作而由动作指令部27加以选择。关于“动作ID”为“12”的动作,在由动作指令部27判断为螺纹孔71a的情况下,表示将螺钉73紧固于螺纹孔71a的动作。关于“动作ID”为“12”的动作的“环境ID”是“20”的环境信息,由于不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“20”的环境信息。由动作指令部27获得根据环境ID为“20”的环境信息由动作指令部27参照的图像信息和通过环境信息获得部19的当前的图像信息,通过图像匹配,由动作指令部27对2个图像进行比较,由动作指令部27调查是否是螺纹孔71a。在由动作指令部27判断为2个图像吻合的情况下,由动作指令部27判断为螺纹孔71a,将以“动作ID”为“12”的动作存储的动作作为应该执行的动作而由动作指令部27加以选择。
进而,关于“动作ID”为“13”的动作的“环境ID”是“21”的环境信息,由于不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“21”的环境信息。由动作指令部27获得根据环境ID为“21”的环境信息由动作指令部27参照的图像信息和通过环境信息获得部19的当前的图像信息,通过图像匹配,由动作指令部27对2个图像进行比较,由动作指令部27判断是否有规格变更场所的突出构件71b。在由动作指令部27判断为2个图像吻合的情况下,由动作指令部27判断为是规格变更场所的突出构件71b,将以“动作ID”为“13”的动作存储的动作作为应该执行的动作而由动作指令部27加以选择。
在仅为由动作指令部27选择的“动作ID”为“11”的动作的情况下,将以“动作ID”为“11”的动作被参照的动作信息从动作指令部27向控制参数管理部21输出,执行图28A的动作。
如图28B所示,在手部30在螺纹孔71a的上方附近的部分进行动作的情况下,由动作指令部27选择“动作ID”为“11”的动作和为“12”的动作,不由动作指令部27选择“动作ID”为“13”的动作。因此,如前所述,通过动作算出部2从为“11”的动作和为“12”的动作算出1个动作,将由动作算出部2算出的动作信息,从动作指令部27向控制参数管理部21输出,执行图28B的动作。
如图28C所示,在手部30在规格变更场所的突出构件71b的上方附近的部分进行动作的情况下,由动作指令部27选择“动作ID”为“11”的动作和为“13”的动作,不由动作指令部27选择“动作ID”为“12”的动作。因此,通过动作算出部2从“11”、“13”的动作算出1个动作,将由动作算出部2算出的动作信息从动作指令部27向控制参数管理部21输出,执行图28C的动作。
需要说明的是,在第三实施方式中,对规格变更场所的突出构件71b的迂回动作进行了矫正,例如,对于螺钉紧固时的力施加状况,同样也可以适用。
进而,当在再循环工场将在电视或空调设备等再循环对象物安装的螺钉73拧下时,对于图37B(从上方看图37A的螺钉73的带十字槽的头部73a得到的图)中参照符号92所示的螺钉73的破损部分、或图37C(从上方看图37A的螺钉73的带十字槽的头部73a得到的图)中参照符号93所示的污渍部分、图37D(从上方看图37A的螺钉73的带十字槽的头部73a得到的图)中参照符号94所示的生锈部分,同样也可以适用。需要说明的是,不限于螺钉,即便是对于应从再循环对象物拧下的可拆卸物体(例如,部件、基板、铆接构件等),在用手部30把持可拆卸物体拧下用工具的情况下也可以应用本发明。
(第四实施方式)
本发明的第四实施方式中的、机器人手臂5和其控制装置的基本构成,与第一实施方式的情况一样,所以省略共用部分的说明,以下仅对不同的部分进行详细说明。
在第四实施方式中,如图31所示,使用具备机器人手臂5和机器人手臂5的控制装置的机器人1,以在单元生产的工场在电视或DVD录像机等设备71的***口75安装作为作业对象物的一例的柔性基板74的情况为例进行说明。
如图31所示,机器人1的机器人手臂5,设置在例如工场内的作业台桌子等作业台7的壁面7a,机器人手臂5的基端被固定于壁面7a的导轨8以可以移动的方式加以支承,机器人手臂5可以在导轨8上在沿着导轨8的横向方向例如水平方向上通过人4A的力进行移动。15a是摄像头等第一图像摄像装置,例如安装成可以从顶棚7b对作业台7进行摄像。
机器人1,例如在工场内,使用机器人手臂5进行电视或DVD录像机的柔性基板74的安装作业等机器人手臂5和人4A协作进行的作业。
与第一实施方式一样,首先,人4A用手4直接把持机器人1的机器人手臂5而向机器人手臂5施加力。此外,通过从人4A向机器人手臂5施加的力,使机器人1的机器人手臂5沿着导轨8移动,将机器人手臂5引导至器具71(在该例中,示出***柔性基板74的电视或DVD录像机的设备)的附近。
接着,人4A对在单元生产的作业台7等的前侧侧面7e等配置的、作为数据输入IF26的一例的机器人1的操作盘13的按钮13a进行按压等方式使用数据输入IF26,由此机器人手臂5进行工作,使预先选择的作业、即在器具71的***口75中***由手部30把持了连接部分74a的柔性基板74的作业开始。
接着,在通过设备71的规格变更而设备71的形状或柔性基板74的规格发生了变更的情况下,在机器人手臂5进行柔性基板74的安装作业时,人4A对柔性基板74的安装状态进行确认,人4A对机器人手臂5施加力,进行安装的力状况、或柔性基板74的位置调节等动作矫正,由此对机器人1的机器人手臂5的动作进行矫正。
导轨8配置在作业台7的壁面7a,但在没有壁面的作业台的情况下,可以设置在顶棚面或作业台的面板6a的侧面等适于作业的场所。
进而,操作盘13固定于作业台7的侧面,但也可以代替操作盘13,是能进行远程操作的遥控。
-动作信息数据库-
动作信息数据库17中,与第三实施方式一样,存储有机器人手臂5的、在某时间的机器人手臂5的手尖位置及姿势等与机器人手臂5的动作有关的信息(动作信息)。动作信息,借助控制规则生成部23通过数据库输入输出部28对动作信息数据库17输入输出。
图32A、图32B示出本第四实施方式的动作信息数据库17。动作信息与第一实施方式一样,所以省略说明。
-动作指令部(动作算出部)-
以下对动作指令部27的功能进行说明。
人4A通过数据输入IF26,借助数据库输入输出部28从控制规则数据库16的作业中的与“作业ID”有关的作业中,选择想使机器人手臂5执行的作业,通过动作指令部27对控制参数管理部21作出指令,以便执行该所选择的“作业ID”涉及的动作。
在动作指令部27借助数据库输入输出部28参照控制规则数据库16时,在选择了1个“作业ID”的作业的情况下且在动作指令部27判断为上述1个“作业ID”的作业中存储有多个“动作ID”的情况下,通过动作算出部2算出动作信息,将所算出的动作信息(具体而言,位置、姿势、时间、力)借助数据库输入输出部28对控制参数管理部21作出指令,以便依照标志设定控制模式进行动作。
具体而言,关于图10A的“作业ID”为“4”的作业,如图33A(从上方看图31得到的图)所示,表示在边使机器人手臂5移动边由机器人1检测出***口75时,进行将机器人手臂5的手尖位置的手部30把持了连接部分74a的柔性基板74的连接部分74a***到***口75的动作这样的控制规则下的作业。在“作业ID”为“4”的作业中存储有多个“动作ID”(“21”、“22”、“23”的动作)。
在动作算出部2中,从多个动作算出1个动作信息。具体而言,由动作算出部2从“动作ID”为“21”的动作、为“22”的动作和为“23”的动作中算出1个动作信息。关于“动作ID”为“21”的动作,表示机器人手臂5的手尖位置的手部30(准确地说,用手部30把持的柔性基板74)如图33A所示在设备71的***口75的附近的上方部分移动的动作。“动作ID”为“21”的动作的“环境ID”是值“-1”,所以机器人手臂5不论机器人手臂5的周边环境如何都进行动作,由此作为应该执行的动作而由动作指令部27加以选择。关于“动作ID”为“22”的动作,如下述所示在由动作指令部27判断为是***口75的情况下,表示使柔性基板74移动直至柔性基板74的连接部74a接触***口75的入口的动作。关于“动作ID”为“22”的动作的“环境ID”是“30”的环境信息,由于不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“30”的环境信息。关于图9A的“环境ID”为“30”的环境信息的标志,仅第6位为“1”,其以外的为“0”,因此可以由动作指令部27判断为图像有效。为此,根据图像ID,动作指令部27获得在环境信息数据库18中存储的图像的信息。该图像表示图34的***口75的图像的信息。接着,通过环境信息获得部19,由动作指令部27获得当前的图像信息,通过图像匹配,由动作指令部27对2个图像进行比较,由动作指令部27判断是否为***口75。在由动作指令部27判断为2个图像吻合的情况下,由动作指令部27判断为***口,将“动作ID”存储为“22”的动作作为应该执行的动作而由动作指令部27加以选择。在由动作指令部27判断为不相吻合的情况下,不由动作指令部27选择“动作ID”为“22”的动作,由动作指令部27仅选择为“21”的动作。
“动作ID”为“23”的动作,表示为了将柔性基板74的连接部74a***到***口75而使柔性基板74移动的动作。关于“动作ID”为“23”的动作的“环境ID”是“31”的环境信息,不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“31”的环境信息。关于图9A的“环境ID”为“31”的环境信息的标志,仅第0~5位为“1”,其以外的为“0”,可以由动作指令部27判断为力是有效的。根据环境信息获得部19,由动作指令部27获得当前的力检测部的值,用动作指令部27将其与环境信息数据库18中存储的力加以比较。在由动作指令部27判断为该2个力吻合的情况下,由动作指令部27判断为柔性基板74从***口75受到的力与在环境信息数据库18中存储的力相吻合,将以“动作ID”为“23”的动作存储的动作作为应该执行的动作而由动作指令部27加以选择。在由动作指令部27判断为不相吻合的情况下,不由动作指令部27选择“动作ID”为“23”的动作,由动作指令部27选择为“21”的动作或为“22”的动作的任一个。
在所选择的“动作ID”仅为1个的情况下,与第一实施方式一样,由动作指令部27从动作信息数据库17借助数据库输入输出部28参照与“动作ID”相同的“动作ID”的动作。关于与“动作ID”相同ID的动作信息,对于多个由“关键动作ID”管理的动作信息(具体而言,位置的信息、姿势的信息、时间的信息、力的信息),从动作指令部27对控制参数管理部21作出指令,以便依照动作信息的标志设定控制模式而进行动作,按照依次执行各自的关键动作的方式,从动作指令部27向控制参数管理部21输出动作信息。在该例中,在由动作指令部27判断为机器人手臂5的周边环境与“动作ID”为“22”的动作的“环境ID”为“30”的环境信息不吻合的情况下,由动作指令部27判断为无法检测出***口75,按照执行以“动作ID”为“21”的动作表示的动作的方式,从动作指令部27对控制参数管理部21作出指令。
综上,如图33A(从上方看图31得到的图)所示,机器人手臂5开始在设备71上移动的动作。
在机器人手臂5以“动作ID”为“21”的动作在设备71上移动的过程中,在由动作指令部27判断为机器人手臂5已到达***口75的上方的部分的情况下,由动作指令部27判断为“动作ID”为“22”的动作的“环境ID”为“30”的环境信息的图像和由环境信息获得部19获得的当前的图像信息的图像相吻合,所以由动作指令部27选择“动作ID”为“21”的动作和为“22”的动作2个动作。在动作指令部27的动作算出部2中,通过各“动作ID”的标志(以“动作ID”由动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),算出最终应执行的动作信息。
在该例中,由动作指令部27选择“动作ID”为“21”的动作和为“22”的动作,在图10A的控制规则数据库16的“动作ID”中依次存储有为“21”的动作、为“22”的动作。因此,关于“动作ID”为“21”的动作的动作信息的标志,根据图32A,第0~5位及第位为“1”,所以获得“动作ID”为“21”的动作的动作信息当中位置姿势信息(x、y、z、θ、ψ)的动作信息。
接着,关于“动作ID”为“22”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。在标志当中,第12、13、15~17位为“1”,所以,此时“动作ID”为“22”的动作各自的关键动作的标志当中,第12、13、15~17位为“1”,所以对当前执行中的机器人手臂5的手尖位置信息进行拷贝,由动作指令部27对“动作ID”为“21”的动作的动作信息进行置换。在该例中,在***口75的上方配置有机器人手臂5,用动作指令部27将其位置及姿势信息拷贝成“动作ID”为“21”的动作。关于其他关键动作的位置,也同样用动作指令部27进行置换。
接着,用动作指令部27将“动作ID”为“21”的动作的动作信息当中(x、y、φ、θ、ψ)的值置换成“动作ID”为“22”的动作各自的动作信息,并用动作算出部2计算出。
以后,依次由动作算出部2算出直至“关键动作ID”的最后。
关于由动作算出部2算出的动作信息的标志及动作信息标志,通过动作算出部2,就“动作ID”为“21”的动作和为“22”的动作的各位而言,在某一位为“1”的情况下,将算出后的标志的位设为“1”,在双方均为“0”的情况下,设为“0”。不过,位置和力各自的分量仅某一个为“1”(仅以位置控制模式或力控制模式的某一个进行工作),所以在位置和力双方均成为“1”的情况下,使力优先。
关于“动作ID”为“21”的动作的标志,第0~5位为“1”,“22”是第0、1、3~5、8、12、13、15~17位为“1”,所以第0~5、8、12、13、15~17位成为“1”。位置z分量和力z分量双方均成为“1”,使力优先,所以最终第0、1、3~5、8、12、13、15~17位为“1”。
关于“动作ID”为“21”的动作的动作参数标志,第1、2、3位为“1”,关于“动作ID”为“22”的动作的动作参数标志,第8位为“1”。因此,由动作算出部2算出的动作的动作参数标志,第1、2、3、8位为“1”。
关于由动作算出部2算出的动作的标志,第0、1、3~5位为“1”,所以表示机器人手臂5的手尖的x、y、θ、ψ是有效的,关于x、y、θ、ψ,使其以位置控制模式进行动作。进而,第8位为“1”,按照使z轴以力控制模式进行动作的方式,从动作指令部27对控制参数管理部21作出指令。
以上,如图33B所示,开始使机器人手臂5移动直至柔性基板74的连接部24a接触***口75的动作。
在以“动作ID”为“22”的动作使其移动直至柔性基板74的连接部24a与***口75相接触的移动的动作完了的时点,由动作指令部27选择下一个使其动作的动作。在由动作指令部27判断为“动作ID”为“23”的动作的“环境ID”为“31”的环境信息的力和由环境信息获得部19获得的力吻合的情况下,由动作指令部27选择“动作ID”为“21”的动作和为“23”的动作2个动作。进而,在由动作指令部27判断为“动作ID”为“22”的动作的“环境ID”为“30”的环境信息的力和由环境信息获得部19获得的图像吻合的情况下,由动作指令部27选择“动作ID”为“21”的动作、为“22”的动作和为“23”的动作3个动作。
在动作算出部2中,通过各“动作ID”的标志(以“动作ID”由动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),算出最终应执行的动作信息。
在该例中,选择“动作ID”为“21”的动作、为“22”的动作和为“23”的动作,在图10A的控制规则数据库16的“动作ID”中依次存储有为“21”的动作、为“22”的动作、和为“23”的动作。在该情况下,使编号最大的动作ID优先而由动作指令部27加以选择。关于“动作ID”为“22”的动作的动作信息的标志,根据图32A,第0、1、3~5、8、12、13、15~17位为“1”,所以获得“动作ID”为“22”的动作的动作信息当中位置姿势信息(x、y、θ、ψ)和z分量的力信息的动作信息。接着,关于“动作ID”为“23”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。在标志当中,第12、13、15~17位为“1”,所以,此时在“动作ID”为“22”的动作各自的关键动作的标志当中,第12、13、15~17位为“1”,所以对当前执行中的机器人手臂5的手尖位置信息进行拷贝,用动作指令部27对“动作ID”为“11”的动作的动作信息进行置换。在该例中,在***口的上方配置有机器人手臂5,所以用动作指令部27将该位置及姿势信息拷贝成“动作ID”为“21”的动作。关于其他关键动作的位置,同样地用动作指令部27进行置换。接着,将“动作ID”为“22”的动作的动作信息当中(x、y、φ、θ、ψ)分量的值置换成“动作ID”为“23”的动作各自的动作信息,并用动作算出部2算出。
以后,依次由动作算出部2算出直至“关键动作ID”的最后。
-动作矫正部-
以下对动作矫正部20的功能进行说明。
人4A通过数据输入IF26,指定“作业ID”为“4”的作业,对动作指令部27作出作业开始的指示时,如图35A所示,使机器人手臂5开始将柔性基板74的连接部74a***到***口74的作业。
接着,随着TV或DVD录像机等设备71的规格变更,如图35B所示,发生柔性基板74A的尺寸或厚度、柔性基板自身的刚性的变更、***口75A的尺寸变更。预先生成的“作业ID”为“4”的作业在规格变更前生成,所以若使其直接动作,则由于柔性基板74A或***口75A的变更,例如从作业ID”为“4”的作业的动作而***时的力施加状况不足,会发生无法充分***到***口75A的情况。
因此,人4A借助数据输入IF26向动作指令部27输入环境变化通知操作的开始指令。动作矫正部20从数据输入IF26借助动作指令部27接受环境变化通知操作的指令,对控制参数管理部21作出指令,以便依照动作信息数据库17的标志,设定控制模式进行动作。
具体而言,如图35B所示,在柔性基板74A***时,以“动作ID”为“23”的动作进行动作。由动作矫正部20从动作信息数据库18借助数据库输入输出部28参照动作中的“动作ID”为“23”的动作时,关于各“关键动作ID”的标志,在图32A中,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,因此在机器人手臂5的动作当中,关于位置姿势,表示x轴、y轴、轴、θ轴、ψ轴是有效的,关于力,表示z轴是有效的。因此,按照x轴、y轴、轴、θ轴、ψ轴能以人4A施加的力进行矫正的方式,对于x轴、y轴、轴、θ轴、ψ轴,按照从位置控制模式以阻抗控制模式(探测出人4A的力的方向移动的模式)进行动作的方式,对于z轴,按照以高刚性位置控制模式进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
接着,如图35C所示,为了通知与设备71上的规格变更场所相伴随的力的状态变更,人4A在z轴上施加力。为了由动作矫正部20获得人4A通过环境变化通知操作施加了力的动作,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的力,从动作矫正部20向后述的控制规则生成部23输出。
接着,动作矫正部20,从数据输入IF26借助动作指令部27接受动作矫正操作的开始指令,从动作矫正部20向控制参数管理部21发出指令,以便依照动作信息数据库17的矫正参数标志,设定控制模式进行动作。具体而言,由动作矫正部20从动作信息数据库18参照以图10A的“作业ID”为“4”的作业进行动作过程中的“动作ID”为“23”的动作,关于各“关键动作ID”的矫正参数标志,在图22A中,仅第8位为“1”,其他为“0”,所以由动作矫正部20知晓能仅对机器人手臂5的动作的力当中的z轴分量进行矫正。关于z轴,按照以高刚性位置控制模式进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
接着,如图35D所示,人4A直接把持机器人手臂5,对于规格变更场所的突出构件71b,按照稍微用力强***的方式使其进行动作。为了获得人4A施加的力,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖的力,从动作矫正部20向后述的控制规则生成部23输出。
需要说明的是,在这里,分成环境变化通知操作和动作矫正操作而分别输入,但在环境变化通知操作和动作矫正操作的操作方向相同的情况下,可以省略动作矫正操作或环境变化通知操作的任意一方操作。具体而言,在从数据输入IF26省略动作矫正操作的开始指令而发出了环境变化通知操作的开始指令的情况下,可以省略动作矫正(参照第五实施方式)。此时的动作矫正部20,在人4进行了动作矫正操作时,获得了环境信息所获得之后,进行动作矫正。
-控制规则生成部-
关于控制规则生成部23,与第三实施方式的情况一样,用控制规则数据库16的“动作ID”所参照的动作信息数据库17的位置及姿势及力及时间的信息,在机器人手臂5以后述的阻抗控制模式、或位置控制模式、或力控制模式、或按方向的不同将它们组合后的控制模式当中的任意模式进行动作的过程中,从数据输入IF26借助动作指令部27,用控制规则生成部23接受环境变化通知操作及动作矫正开始的指令。于是,在控制规则生成部23具有如下功能:根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,存储在控制规则数据库16中。
以下对控制规则生成部23的功能进行说明。
如图35B所示,在柔性基板***时,以“动作ID”为“23”的动作进行动作。
关于控制规则生成部23,对于动作中的作业ID,从数据输入IF26借助动作指令部27接受环境变化通知操作的开始指令,通过动作矫正部20输入由来自人4A的环境变化通知操作生成的机器人手臂5的手尖位置及时间。除此之外,根据环境变化通知操作开始的时间点,从环境信息获得部19输入环境信息。进而,由控制规则生成部23从动作信息数据库18参照环境变化通知操作开始时的动作中的“动作ID”,由控制规则生成部23从与该“动作ID”的“关键动作ID”的标志有关的信息获得与当前的机器人手臂5的控制模式有关的信息。具体而言,由控制规则生成部23从动作信息数据库18参照以图10A的“作业ID”为“4”的作业进行动作过程中的“动作ID”为“23”的动作的“关键动作ID”为“78”~“86”的关键动作时,关于各“关键动作ID”的标志,在图32A中,仅第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,所以在机器人手臂5的动作当中,关于位置姿势,通过控制规则生成部23知晓x轴、y轴、轴、θ轴、ψ轴的数据是有效的,关于力,通过控制规则生成部23知晓z轴分量的数据是有效的。因此,按照x轴、y轴、θ轴、ψ轴能以人4A施加的力进行矫正的方式,成为阻抗控制模式,关于z轴,成为高刚性位置控制模式。
根据当前动作中的环境变化通知操作时的机器人手臂5的移动方向的控制模式和检测部选择规则数据库29,用控制规则生成部23从多个环境信息中选择用于生成控制规则的环境信息的类别。具体而言,在图10A的“作业ID”为“4”的作业的环境变化通知操作开始的时间点,如图35C所示在z轴方向进行环境变化通知操作。z轴以高刚性位置控制模式进行矫正,所以根据图11A,环境信息的类别ID成为“2”,根据图11B,由控制规则生成部23选择“力”。因此,由控制规则生成部23选择用力检测部53检测出的力。所获得的力通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。在该例中,如图9A所示,作为新的“环境ID”而由控制规则生成部23赋予“32”,在该“环境ID”的“力”中,将所获得的力的信息通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。进而,标志仅为力,因此通过控制规则生成部23借助数据库输入输出部28在环境信息数据库18中仅将第0~5位存储为“1”,将其他位存储为“0”。
接着,将接受动作矫正操作的开始指令而由动作矫正部20矫正后的动作信息,借助数据库输入输出部28存储在动作信息数据库17中。
具体而言,在图32B的动作信息数据库17中,用动作矫正部20新赋予“动作ID”(在该例中为“24”),进而作为“关键动作ID”,用动作矫正部20赋予“90”~“98”,将由动作矫正部20矫正后的动作信息,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17的各“关键动作ID”中。关于时间,从动作矫正部20输入将人4A选择作业发出了开始指令的时点设为0的相对时间,将从全部动作各自的时间减去最开始的关键动作(在该例中为“90”)的时间得到的值,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17中。关于标志,用动作矫正部20按各分量对矫正前的标志中成为“1”的动作信息的分量当中矫正前和矫正后的“动作ID”各自的关键动作的位置姿势、和力的值进行比较,仅仅对于该差为某阈值以上的分量,用动作矫正部20将图6的标志的各分量设为“1”,在低于阈值的情况下,由动作矫正部20设为“0”。
具体而言,关于矫正前的“动作ID”为“23”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,所以用动作矫正部20对矫正前的动作和矫正后的动作的位置姿势和力的值当中位置姿势的分量x、y、θ、ψ和力的z轴分量进行比较。在“关键动作ID”为“77”的关键动作和“关键动作ID”为“86”的关键动作中,位置姿势(x、y、θ、ψ)的分量相同,仅仅力的z轴分量不同,将差的阈值设为0.1(N)时,仅仅力的z分量为阈值以上。因此,通过动作矫正部20,标志在第8位为“1”,其他为“0”。
关于矫正参数标志,将矫正前的动作(在该例中为“78”~“86”)的值通过动作矫正部20,借助数据库输入输出部28存储在动作信息数据库17中。
接着,从所获得的环境信息和通过动作矫正部20的动作矫正操作矫正后的动作,在控制规则数据库19中通过控制规则生成部23生成新的控制规则并加以存储。
具体而言,为了在以控制规则数据库16的“作业ID”为“4”的作业进行动作的过程中对动作进行矫正,通过控制规则生成部23,如图10B所示,对“作业ID”为“4”的作业追加1行,追加通过动作矫正而新追加的“动作ID”为“24”的动作。
接着,将由控制规则生成部23选择的环境信息的环境ID,借助数据库输入输出部28存储在控制规则数据库16中(在该例中,是“环境ID”为“32”的环境信息)。
通过动作指令部(动作算出部2)27,具体而言通过上述的矫正,在如图35E所示规格变更后,能够自动进行机器人手臂5的动作。关于该规格变更后自动进行的动作,与第三实施方式或先前的实施方式一样,所以省略说明。
综上,人4A进行环境变化通知操作及动作矫正操作,通过控制规则生成部23生成新的控制规则,由此即便未事先准备考虑了设备71的规格变更的动作,但只要人4A在当场进行操作而对环境通知及动作进行矫正,在下一次遇到相同环境的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),机器人手臂5可以自觉地进行动作。
(第五实施方式)
本发明的第五实施方式中的、机器人手臂5和其控制装置的基本构成,与第一实施方式或第四实施方式的情况一样,所以省略共用部分的说明,以下仅对不同的部分进行详细说明。需要说明的是,该第五实施方式,在环境变化通知操作和动作矫正操作相同的情况下,对能代替进行2个操作而省略动作矫正操作从而仅进行1个操作(在这里,称为环境变化及动作通知操作)的例子进行说明。
在第五实施方式中,与第四实施方式一样,如图31所示,使用具备机器人手臂5和机器人手臂5的控制装置的机器人1,以在单元生产的工场在电视或DVD录像机等设备71的***口75安装作为作业对象物的一例的柔性基板74的情况为例进行说明。
如图31所示,机器人1的机器人手臂5,设置在例如工场内的作业台桌子等作业台7的壁面7a,机器人手臂5的基端被固定于壁面7a的导轨8以可以移动的方式加以支承,机器人手臂5可以在导轨8上在沿着导轨8的横向方向例如水平方向上通过人4A的力进行移动。15a是摄像头等第一图像摄像装置,例如安装成可以从顶棚7b对作业台7进行摄像。
机器人1,例如在工场内,使用机器人手臂5进行电视或DVD录像机的柔性基板74的安装作业等机器人手臂5和人4A协作进行的作业。
与第四实施方式一样,首先,人4A用手4直接把持机器人1的机器人手臂5而向机器人手臂5施加力。此外,通过从人4A向机器人手臂5施加的力,使机器人1的机器人手臂5沿着导轨8移动,将机器人手臂5引导至器具71(在该例中,示出***柔性基板74的电视或DVD录像机的设备)的附近。
接着,人4A对在单元生产的作业台7等的前侧侧面7e等配置的、作为数据输入IF26的一例的机器人1的操作盘13的按钮13a进行按压等方式使用数据输入IF26,由此机器人手臂5进行工作,开始预先选择的作业、即在器具71的***口75中***由手部30把持了连接部分74a的柔性基板74的作业。
接着,在通过设备71的规格变更而设备71的形状或柔性基板74的规格发生了变更的情况下,在机器人手臂5进行柔性基板74的安装作业时,人4A对柔性基板74的安装状态进行确认,人4A对机器人手臂5施加力,进行安装的力状况、或柔性基板74的位置调节等动作矫正,由此对机器人1的机器人手臂5的动作进行矫正。
导轨8配置在作业台7的壁面7a,但在没有壁面的作业台的情况下,可以设置在顶棚面或作业台的面板6a的侧面等适于作业的场所。
进而,操作盘13固定于作业台7的侧面,但也可以代替操作盘13,是能进行远程操作的遥控。
-动作信息数据库-
动作信息数据库17中,与第四实施方式一样,存储有机器人手臂5的、在某时间的机器人手臂5的手尖位置及姿势等与机器人手臂5的动作有关的信息(动作信息)。动作信息,借助控制规则生成部23通过数据库输入输出部28对动作信息数据库17输入输出。
图32A、图32B,与第四实施方式一样示出本第五实施方式的动作信息数据库17。动作信息与第一实施方式一样,所以省略说明。
-动作指令部(动作算出部)-
以下对动作指令部27的功能进行说明。
人4A通过数据输入IF26,借助数据库输入输出部28从控制规则数据库16的作业中的与“作业ID”有关的作业中,选择想使机器人手臂5执行的作业,通过动作指令部27对控制参数管理部21作出指令,以便执行该所选择的“作业ID”涉及的动作。
在动作指令部27借助数据库输入输出部28参照控制规则数据库16时,在选择了1个“作业ID”的作业的情况下且在动作指令部27判断为上述1个“作业ID”的作业中存储有多个“动作ID”的情况下,通过动作算出部2算出动作信息,将所算出的动作信息(具体而言,位置、姿势、时间、力)借助数据库输入输出部28对控制参数管理部21作出指令,以便依照标志设定控制模式进行动作。
具体而言,关于图10A的“作业ID”为“4”的作业,如图33A(从上方看图31得到的图)所示,表示在边使机器人手臂5移动边由机器人1检测出***口75时,进行将机器人手臂5的手尖位置的手部30把持了连接部分74a的柔性基板74的连接部分74a***到***口75的动作这样的控制规则下的作业。在“作业ID”为“4”的作业中存储有多个“动作ID”(“21”、“22”、“23”的动作)。
在动作算出部2中,从多个动作算出1个动作信息。具体而言,由动作算出部2从“动作ID”为“21”的动作、为“22”的动作和为“23”的动作中算出1个动作信息。关于“动作ID”为“21”的动作,表示机器人手臂5的手尖位置的手部30(准确地说,用手部30把持的柔性基板74)如图33A所示在设备71的***口75的附近的上方部分移动的动作。“动作ID”为“21”的动作的“环境ID”是值“-1”,所以机器人手臂5不论机器人手臂5的周边环境如何都进行动作,由此作为应该执行的动作而由动作指令部27加以选择。关于“动作ID”为“22”的动作,如下述所示在由动作指令部27判断为是***口75的情况下,表示使柔性基板74移动直至柔性基板74的连接部74a接触***口75的入口的动作。关于“动作ID”为“22”的动作的“环境ID”是“30”的环境信息,由于不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“30”的环境信息。关于图9A的“环境ID”为“30”的环境信息的标志,仅第6位为“1”,其以外的为“0”,因此可以由动作指令部27判断为图像有效。因此,根据图像ID,动作指令部27获得在环境信息数据库18中存储的图像的信息。该图像表示图34的***口75的图像的信息。接着,通过环境信息获得部19,由动作指令部27获得当前的图像信息,通过图像匹配,由动作指令部27对2个图像进行比较,由动作指令部27判断是否为***口75。在由动作指令部27判断为2个图像吻合的情况下,由动作指令部27判断为***口,将“动作ID”存储为“22”的动作作为应该执行的动作而由动作指令部27加以选择。在由动作指令部27判断为不相吻合的情况下,不由动作指令部27选择“动作ID”为“22”的动作,由动作指令部27仅选择为“21”的动作。
“动作ID”为“23”的动作,表示为了将柔性基板74的连接部74a***到***口75而使柔性基板74移动的动作。关于“动作ID”为“23”的动作的“环境ID”是“31”的环境信息,不是“-1”的值,所以由动作指令部27借助数据库输入输出部28参照环境信息数据库18的“环境ID”为“31”的环境信息。关于图9A的“环境ID”为“31”的环境信息的标志,仅第0~5位为“1”,其以外的为“0”,所以可以由动作指令部27判断为力是有效的。根据环境信息获得部19,由动作指令部27获得当前的力检测部的值,用动作指令部27将其与环境信息数据库18中存储的力加以比较。在由动作指令部27判断为该2个力吻合的情况下,由动作指令部27判断为柔性基板74从***口75受到的力与在环境信息数据库18中存储的力相吻合,将以“动作ID”为“23”的动作存储的动作作为应该执行的动作而由动作指令部27加以选择。在由动作指令部27判断为不相吻合的情况下,不由动作指令部27选择“动作ID”为“23”的动作,由动作指令部27选择为“21”的动作或为“22”的动作的任一个。
在所选择的“动作ID”仅为1个的情况下,与第一实施方式一样,由动作指令部27从动作信息数据库17借助数据库输入输出部28参照与“动作ID”相同的“动作ID”的动作。关于与“动作ID”相同ID的动作信息,对于多个由“关键动作ID”管理的动作信息(具体而言,位置的信息、姿势的信息、时间的信息、力的信息),从动作指令部27对控制参数管理部21作出指令,以便依照动作信息的标志设定控制模式而进行动作,按照依次执行各自的关键动作的方式,从动作指令部27向控制参数管理部21输出动作信息。在该例中,在由动作指令部27判断为机器人手臂5的周边环境与“动作ID”为“22”的动作的“环境ID”为“30”的环境信息不吻合的情况下,由动作指令部27判断为无法检测出***口75,按照执行以“动作ID”为“21”的动作表示的动作的方式,从动作指令部27对控制参数管理部21作出指令。
综上,如图33A(从上方看图31得到的图)所示,机器人手臂5开始在设备71上移动的动作。
在机器人手臂5以“动作ID”为“21”的动作在设备71上移动的过程中,在由动作指令部27判断为机器人手臂5已到达***口75的上方的部分的情况下,由动作指令部27判断为“动作ID”为“22”的动作的“环境ID”为“30”的环境信息的图像和由环境信息获得部19获得的当前的图像信息的图像相吻合,所以由动作指令部27选择“动作ID”为“21”的动作和为“22”的动作2个动作。在动作指令部27的动作算出部2中,通过各“动作ID”的标志(以“动作ID”由动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),算出最终应执行的动作信息。
在该例中,由动作指令部27选择“动作ID”为“21”的动作和为“22”的动作,在图10A的控制规则数据库16的“动作ID”中依次存储有为“21”的动作、为“22”的动作。因此,关于“动作ID”为“21”的动作的动作信息的标志,根据图32A,第0~5位及第位为“1”,所以获得“动作ID”为“21”的动作的动作信息当中位置姿势信息(x、y、z、θ、ψ)的动作信息。
接着,关于“动作ID”为“22”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。在标志当中,第12、13、15~17位为“1”,所以,此时“动作ID”为“22”的动作各自的关键动作的标志当中,第12、13、15~17位为“1”,所以对当前执行中的机器人手臂5的手尖位置信息进行拷贝,由动作指令部27对“动作ID”为“21”的动作的动作信息进行置换。在该例中,在***口75的上方配置有机器人手臂5,用动作指令部27将该位置及姿势信息拷贝成“动作ID”为“21”的动作。关于其他关键动作的位置,也同样用动作指令部27进行置换。
接着,用动作指令部27将“动作ID”为“21”的动作的动作信息当中(x、y、φ、θ、ψ)的值置换成“动作ID”为“22”的动作各自的动作信息,并用动作算出部2计算出。
以后,依次由动作算出部2算出直至“关键动作ID”的最后。
关于由动作算出部2算出的动作信息的标志及动作信息标志,通过动作算出部2,就“动作ID”为“21”的动作和为“22”的动作的各位而言,在某一位为“1”的情况下,将算出后的标志的位设为“1”,在双方均为“0”的情况下,设为“0”。不过,位置和力各自的分量仅某一个为“1”(仅以位置控制模式或力控制模式的某一个进行工作),所以在位置和力双方均成为“1”的情况下,使力优先。
关于“动作ID”为“21”的动作的标志,第0~5位为“1”,“22”是第0、1、3~5、8、12、13、15~17位为“1”,所以第0~5、8、12、13、15~17位成为“1”。位置z分量和力z分量双方均成为“1”,使力优先,所以最终第0、1、3~5、8、12、13、15~17位为“1”。
关于“动作ID”为“21”的动作的动作参数标志,第1、2、3位为“1”,关于“动作ID”为“22”的动作的动作参数标志,第8位为“1”。因此,由动作算出部2算出的动作的动作参数标志,第1、2、3、8位为“1”。
关于由动作算出部2算出的动作的标志,第0、1、3~5位为“1”,所以表示机器人手臂5的手尖的x、y、θ、ψ是有效的,关于x、y、θ、ψ,使其以位置控制模式进行动作。进而,第8位为“1”,按照使z轴以力控制模式进行动作的方式,从动作指令部27对控制参数管理部21作出指令。
以上,如图33B所示,开始使机器人手臂5移动直至柔性基板74的连接部24a接触***口75的动作。
在以“动作ID”为“22”的动作使其移动直至柔性基板74的连接部24a与***口75相接触的移动的动作完了的时点,由动作指令部27选择下一个使其动作的动作。在由动作指令部27判断为“动作ID”为“23”的动作的“环境ID”为“31”的环境信息的力和由环境信息获得部19获得的力吻合的情况下,由动作指令部27选择“动作ID”为“21”的动作和为“23”的动作2个动作。进而,在由动作指令部27判断为“动作ID”为“22”的动作的“环境ID”为“30”的环境信息的力和由环境信息获得部19获得的图像吻合的情况下,由动作指令部27选择“动作ID”为“21”的动作、为“22”的动作和为“23”的动作3个动作。
在动作算出部2中,通过各“动作ID”的标志(以“动作ID”由动作指令部27借助数据库输入输出部28参照动作信息数据库17而在其中存储的标志),算出最终应执行的动作信息。
在该例中,选择“动作ID”为“21”的动作、为“22”的动作和为“23”的动作,在图10A的控制规则数据库16的“动作ID”中依次存储有为“21”的动作、为“22”的动作、和为“23”的动作。在该情况下,使编号最大的动作ID优先而由动作指令部27加以选择。关于“动作ID”为“22”的动作的动作信息的标志,根据图32A,第0、1、3~5、8、12、13、15~17位为“1”,所以获得“动作ID”为“22”的动作的动作信息当中位置姿势信息(x、y、θ、ψ)和z分量的力信息的动作信息。接着,关于“动作ID”为“23”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”。在标志当中,第12、13、15~17位为“1”,所以,此时在“动作ID”为“22”的动作各自的关键动作的标志当中,第12、13、15~17位为“1”,所以对当前执行中的机器人手臂5的手尖位置信息进行拷贝,用动作指令部27对“动作ID”为“11”的动作的动作信息进行置换。在该例中,在***口的上方配置有机器人手臂5,所以用动作指令部27将该位置及姿势信息拷贝成“动作ID”为“21”的动作。关于其他关键动作的位置,也同样地用动作指令部27进行置换。接着,将“动作ID”为“22”的动作的动作信息当中(x、y、φ、θ、ψ)分量的值置换成“动作ID”为“23”的动作各自的动作信息,并用动作算出部2算出。
以后,依次由动作算出部2算出直至“关键动作ID”的最后。
-动作矫正部-
以下对动作矫正部20的功能进行说明。
人4A通过数据输入IF26,指定“作业ID”为“4”的作业,对动作指令部27作出作业开始的指示时,如图35A所示,使机器人手臂5开始将柔性基板74的连接部74a***到***口74的作业。
接着,随着TV或DVD录像机等设备71的规格变更,如图35B所示,发生柔性基板74A的尺寸或厚度、柔性基板自身的刚性的变更、***口75A的尺寸变更。预先生成的“作业ID”为“4”的作业在规格变更前生成,所以若使其直接动作,则由于柔性基板74A或***口75A的变更,例如从作业ID”为“4”的作业的动作***时的力施加状况不足,会发生无法充分***到***口75A的情况。
在与第四实施方式一样进行矫正的情况下,对图35C所示的环境变化通知操作和图35D所示的动作矫正操作相同时的实施方式进行说明。
人4A以1个操作对环境变化通知操作和动作矫正操作进行操作,所以借助数据输入IF26向动作指令部27输入1个环境变化及动作通知操作的开始指令。环境变化及动作通知操作,是能将第四实施方式的环境变化通知操作和动作矫正操作作为1个操作加以输入的操作(例如是指,在操作方向相同的情况下,代替输入环境变化通知操作的操作方向和动作矫正操作的操作方向的2个操作方向,而是作为环境变化及动作通知操作,输入同1个操作方向。)。动作矫正部20,从数据输入IF26借助动作指令部27接受环境变化及动作通知操作的指令,对控制参数管理部21作出指令,以便依照动作信息数据库17的标志,设定控制模式进行动作。
具体而言,如图35B所示,在***柔性基板74A时,以“动作ID”为“23”的动作进行动作。由动作矫正部20从动作信息数据库18借助数据库输入输出部28参照动作中的“动作ID”为“23”的动作,关于各“关键动作ID”的标志,在图32A中,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,所以在机器人手臂5的动作当中,关于位置姿势,表示x轴、y轴、轴、θ轴、ψ轴是有效的,关于力,表示z轴是有效的。因此,按照x轴、y轴、轴、θ轴、ψ轴能以人4A施加的力进行矫正的方式,关于x轴、y轴、轴、θ轴、ψ轴,按照从位置控制模式以阻抗控制模式(探测出人4A的力的方向移动的模式)进行动作的方式,关于z轴,按照通过高刚性位置控制模式进行动作的方式,动作矫正部20对控制参数管理部21作出指令。
接着,如图35C所示,为了通知与设备71上的规格变更场所相伴随的力的状态变更及应矫正的动作双方,人4A在z轴上施加力。为了由动作矫正部20获得人4A通过环境变化及动作通知操作施加了力的动作,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的力,从动作矫正部20向后述的控制规则生成部23输出。
接着,动作矫正部20,通过环境变化及动作通知操作,按照稍微用力强***的方式使其进行动作。为了获得人4A施加的力,由动作矫正部20获得来自控制参数管理部21的机器人手臂5的手尖的力,从动作矫正部20向后述的控制规则生成部23输出。
-控制规则生成部-
关于控制规则生成部23,用控制规则数据库16的“动作ID”所参照的动作信息数据库17的位置及姿势及力及时间的信息,在机器人手臂5以后述的阻抗控制模式、或位置控制模式、或力控制模式、或按方向的不同将它们组合后的控制模式当中的任意模式进行动作的过程中,由控制规则生成部23从数据输入IF26借助动作指令部27接受环境变化及动作矫正开始的指令。于是,在控制规则生成部23具有如下功能:根据由动作矫正部20矫正后的动作信息和由环境信息获得部19获得的环境信息,生成控制规则,在控制规则数据库16中存储。
以下,对控制规则生成部23的功能进行说明。
如图35B所示,在***柔性基板时,以“动作ID”为“23”的动作进行动作。
控制规则生成部23,对于动作中的作业ID,从数据输入IF26借助动作指令部27接受环境变化及动作通知操作的开始指令,根据动作矫正部20输入由来自人4A的环境变化及动作通知操作生成的机器人手臂5的手尖位置及时间。除此之外,根据环境变化及动作通知操作开始的时间点,根据环境信息获得部19输入环境信息。进而,由控制规则生成部23从动作信息数据库18参照环境变化及动作通知操作开始时的动作中的“动作ID”,由控制规则生成部23从与该“动作ID”的“关键动作ID”的标志有关的信息获得与当前的机器人手臂5的控制模式有关的信息。具体而言,由控制规则生成部23从动作信息数据库18参照以图10A的“作业ID”为“4”的作业进行动作过程中的“动作ID”为“23”的动作的“关键动作ID”为“78”~“86”的关键动作时,关于各“关键动作ID”的标志,在图32A中,仅第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,所以在机器人手臂5的动作当中,关于位置姿势,通过控制规则生成部23知晓x轴、y轴、轴、θ轴、ψ轴的数据是有效的,关于力,通过控制规则生成部23知晓z轴分量的数据是有效的。因此,按照x轴、y轴、θ轴、ψ轴能以人4A施加的力进行矫正的方式,成为阻抗控制模式,关于z轴,成为高刚性位置控制模式。
根据当前动作中的环境变化及动作通知操作时的机器人手臂5的移动方向的控制模式和检测部选择规则数据库29,用控制规则生成部23从多个环境信息中选择用于生成控制规则的环境信息的类别而加以决定。具体而言,在图10A的“作业ID”为“4”的作业的环境变化及动作通知操作开始的时间点,如图35C所示在z轴方向进行环境变化及动作通知操作。z轴以高刚性位置控制模式进行矫正,所以根据图11A,环境信息的类别ID成为“2”,根据图11B,由控制规则生成部23选择“力”。因此,由控制规则生成部23选择用力检测部53检测出的力。所获得的力通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18及动作信息数据库17中。在该例中,如图9A所示,作为新的“环境ID”而由控制规则生成部23赋予“32”,在该“环境ID”的“力”中,将所获得的力的信息通过控制规则生成部23借助数据库输入输出部28存储在环境信息数据库18中。进而,标志仅为力,因此通过控制规则生成部23借助数据库输入输出部28在环境信息数据库18中仅将第0~5位存储为“1”,将其他位存储为“0”。
另外,在图32B的动作信息数据库17中,用动作矫正部20新赋予“动作ID”(在该例中为“24”),进而作为“关键动作ID”,用动作矫正部20赋予“90”~“98”,将由动作矫正部20矫正后的动作信息,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17的各“关键动作ID”中。关于时间,从动作矫正部20输入将人4A选择作业发出开始指令的时点设为0的相对时间,将从全部动作各自的时间减去最开始的关键动作(在该例中为“90”)的时间得到的值,通过动作矫正部20借助数据库输入输出部28存储在动作信息数据库17中。关于标志,用动作矫正部20按各分量对矫正前的标志中成为“1”的动作信息的分量当中矫正前和矫正后的“动作ID”各自的关键动作的位置姿势、和力的值进行比较,仅仅对于该差为某阈值以上的分量,用动作矫正部20将图6的标志的各分量设为“1”,在低于阈值的情况下,由动作矫正部20设为“0”。
具体而言,关于矫正前的“动作ID”为“23”的动作的标志,第0、1、3~5、8、12、13、15~17为“1”,其他为“0”,所以用动作矫正部20对矫正前的动作和矫正后的动作的位置姿势和力的值当中位置姿势的分量x、y、θ、ψ和力的z轴分量进行比较。在“关键动作ID”为“77”的关键动作和“关键动作ID”为“86”的关键动作中,位置姿势(x、y、θ、ψ)的分量相同,仅仅力的z轴分量的不同,将差的阈值设为0.1(N)时,仅仅力的z分量为阈值以上。因此,通过动作矫正部20,标志在第8位为“1”,其他为“0”。
关于矫正参数标志,将矫正前的动作(在该例中为“78”~“86”)的值通过动作矫正部20,借助数据库输入输出部28存储在动作信息数据库17中。
接着,从所获得的环境信息和通过动作矫正部20的动作矫正操作矫正后的动作,在控制规则数据库19中通过控制规则生成部23生成新的控制规则并加以存储。
具体而言,为了在以控制规则数据库16的“作业ID”为“4”的作业进行动作的过程中对动作进行矫正,通过控制规则生成部23,如图10B所示,对“作业ID”为“4”的作业追加1行,追加通过动作矫正而新追加的“动作ID”为“24”的动作。
接着,将由控制规则生成部23选择的环境信息的环境ID,借助数据库输入输出部28存储在控制规则数据库16中(在该例中,是“环境ID”为“32”的环境信息)。
通过动作指令部(动作算出部2)27,具体而言通过上述的矫正,在如图35E所示规格变更后,能够自动进行机器人手臂5的动作。关于该规格变更后自动进行的动作,与第三实施方式或先前的实施方式一样,所以省略说明。
综上,人4A在环境变化通知操作和动作矫正操作相同的情况下,通过仅1个环境变化及动作矫正的操作,可以削减操作的负荷,进而,通过控制规则生成部23生成新的控制规则,由此即便未事先准备考虑了设备71的规格变更的动作,但只要人4A在当场进行操作而对环境通知及动作进行矫正,在下一次遇到相同环境的情况下,基于控制规则数据库16的信息(换言之,边参照由环境信息获得部19获得的环境信息,边根据由控制规则生成部23生成的控制规则),机器人手臂5可以自觉地进行动作。
(变形例)
需要说明的是,在上述第一~第五实施方式中,直接把持进行作业的机器人手臂5进行操作,但也可以适用于以下的方法:像主从方式那样,不是实际上进行作业的机器人手臂5,人4A对有可能容易运动的其他操作设备(主动)进行操作,由此使与其连接的实际上的机器人手臂(从动)运动,对动作进行矫正的方法。
进而,在上述第一~第五实施方式中,以机器人手臂5为例进行了说明,本发明不限于手臂,还可以用于通过轮子运动的移动机器人、或2足步行机器人、或多足步行机器人等,关于移动机器人等和人的接触可发挥相同的效果。
需要说明的是,通过适当组合上述各实施方式当中的任意方式,可以发挥各自具有的效果。
【工业上的利用可能性】
本发明,有效用作对家庭用机器人等人和机器人协调作业时的机器人手臂的动作进行控制的机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序、及机器人手臂控制用集成电路。另外,不限于家庭用机器人,还可以用于工业用机器人、或生产设备等中的可动机构的机器人手臂的控制装置及控制方法、具有机器人手臂的控制装置的机器人、机器人手臂的控制程序及机器人手臂控制用集成电路。
本发明参照附图对优选的实施方式进行了充分记述,但对于熟悉该技术的人来说,自然会进行各种变形或修正。这样的变形或修正只要未超出基于技术方案的本发明的范围就应被理解为被本发明所包含。
Claims (15)
1.一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备:
动作信息获得部,其从将与所述动作对应的、所述机器人手臂的位置、姿势及速度中的至少1个以上作为动作信息以时间序列加以存储的动作信息数据库,获得所述动作信息;
矫正动作信息获得部,其在人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正时,获得与由所述动作信息获得部获得的所述动作信息当中的至少1个以上所述动作信息对应的矫正动作信息;
环境信息获得部,其对应于所述人向所述机器人手臂的环境变化通知操作,获得作为与所述机器人手臂所作用的对象物有关的信息的环境信息;
位置控制部,其以位置控制模式对所述机器人手臂进行控制,以便使所述机器人手臂根据由所述动作信息获得部获得的所述动作信息进行移动;
动作矫正部,其在所述机器人手臂正通过所述位置控制部的控制而以所述位置控制模式进行移动的期间,对应于由所述矫正动作信息获得部获得的在各时间的所述矫正动作信息,对所述动作信息进行矫正;和
控制规则生成部,其对应于所述人向所述机器人手臂的所述环境变化通知操作,决定由所述环境信息获得部获得的所述环境信息,且使由所述动作矫正部矫正过的所述动作信息和由所述环境信息获得部获得的所述环境信息建立对应,由此生成用于所述机器人手臂自动进行动作的控制规则,
一边参照由所述环境信息获得部获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作进行控制。
2.一种对机器人手臂的动作进行控制的机器人手臂的控制装置,其中,具备:
动作信息获得部,其从将作为与所述动作对应的、所述机器人手臂对对象物施加的力的时间序列的动作信息加以存储的动作信息数据库,获得所述动作信息;
矫正动作信息获得部,其在人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正时,获得与由所述动作信息获得部获得的所述动作信息相关联且与所述机器人手臂所施加的力有关的矫正动作信息;
环境信息获得部,其对应于所述人向所述机器人手臂的环境变化通知操作,获得作为与所述机器人手臂所作用的所述对象物有关的信息的环境信息;
控制部,其以力控制模式对所述机器人手臂进行控制,以便所述机器人手臂以由所述动作信息获得部获得的在所述动作信息中设定的力对所述对象物进行力控制;
动作矫正部,在正通过所述控制部对所述机器人手臂以所述力控制模式进行控制的期间,对应于由所述矫正动作信息获得部获得的在各时间的所述矫正动作信息,对所述动作信息进行矫正;和
控制规则生成部,其对应于所述人向所述机器人手臂的所述环境变化通知操作,决定由所述环境信息获得部获得的所述环境信息,且使由所述动作矫正部矫正过的所述动作信息和由所述环境信息获得部获得的所述环境信息建立对应,由此生成用于所述机器人手臂自动进行动作的控制规则,
一边参照由所述环境信息获得部获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作进行控制。
3.如权利要求1或者2所述的机器人手臂的控制装置,其中,
所述环境信息获得部具备对施加给所述机器人手臂的所述人的力进行检测的力检测部,
对应于由所述力检测部检测出的所述人的力和其检测时间,检测出所述人对所述机器人手臂进行了操作,由所述矫正动作信息获得部获得与对所述机器人手臂的所述动作进行矫正时所述机器人手臂所施加的力有关的所述矫正动作信息。
4.如权利要求1所述的机器人手臂的控制装置,其中,
所述环境信息获得部具备能对所述机器人手臂及所述机器人手臂进行所述动作的周边环境进行摄像的多个图像摄像装置,
所述控制规则生成部,对应于所述人对所述机器人手臂操作时所述机器人手臂的所述位置控制模式,从由所述环境信息获得部的所述多个图像摄像装置获得的多个环境信息中,决定生成控制规则时的环境信息的类别。
5.如权利要求2所述的机器人手臂的控制装置,其中,
所述环境信息获得部具备对施加给所述机器人手臂的所述人的力进行检测的力检测部,
所述控制规则生成部,对应于所述人对所述机器人手臂操作时所述机器人手臂的所述力控制模式,在生成控制规则时使用由所述力检测部获得的环境信息。
6.如权利要求1或者2所述的机器人手臂的控制装置,其中,
在所述环境变化通知操作、和所述人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正的动作矫正操作为相同操作的情况下,代替所述动作矫正操作而使用所述环境变化通知操作。
7.如权利要求6所述的机器人手臂的控制装置,其中,
所述环境信息具有从多种检测方向进行检测而获得的环境信息,
所述控制规则生成部,决定对应于所述人对所述机器人手臂的操作而获得的所述环境信息的检测方向。
8.如权利要求1或者2所述的机器人手臂的控制装置,其中,
还具备动作算出部,其从由所述控制规则生成部生成的控制规则当中的多个动作信息,参照由所述环境信息获得部获得的所述环境信息,算出1个动作信息。
9.如权利要求1或者2所述的机器人手臂的控制装置,其中,
所述人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正,由所述矫正动作信息获得部获得与由所述动作信息获得部获得的所述动作信息当中的至少1个以上所述动作信息对应的矫正动作信息,然后,
在由所述环境信息获得部获得的所述环境信息与所述矫正的操作时的所述环境信息相同时,根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作按照基于由所述矫正动作信息获得部获得的所述矫正动作信息进行矫正的方式进行控制。
10.如权利要求1所述的机器人手臂的控制装置,其中,
所述环境信息获得部具备能对所述机器人手臂及所述机器人手臂进行所述动作的周边环境进行摄像的多个图像摄像装置,
在所述机器人手臂的前端,具备能以可装卸的方式把持作业用工具的手部,所述作业用工具能旋转螺钉,所述作业用工具是所述对象物,
一边参照由所述多个图像摄像装置获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,在用所述机器人手臂的所述手部所把持的所述作业用工具进行所述螺钉的紧固或拧下作业时,对所述机器人手臂的所述动作进行控制。
11.如权利要求2所述的机器人手臂的控制装置,其中,
所述环境信息获得部具备能对所述机器人手臂及所述机器人手臂进行所述动作的周边环境进行摄像的多个图像摄像装置,
在所述机器人手臂的前端,具备能以可装卸的方式把持柔性基板的手部,所述柔性基板是所述对象物,
一边参照由所述多个图像摄像装置获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,在将所述机器人手臂的所述手部所把持的所述柔性基板安装于设备上的作业时,对所述机器人手臂的所述动作进行控制。
12.一种对机器人手臂的动作进行控制的机器人手臂的控制方法,其中,
由动作信息获得部,从将与所述动作对应的、所述机器人手臂的位置、姿势及速度中的至少1个以上作为动作信息以时间序列加以存储的动作信息数据库,获得所述动作信息,
由矫正动作信息获得部,在人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正时,获得与由所述动作信息获得部获得的所述动作信息当中的至少1个以上所述动作信息对应的矫正动作信息,
由环境信息获得部,对应于所述人向所述机器人手臂的环境变化通知操作,获得作为与所述机器人手臂所作用的对象物有关的信息的环境信息,
由位置控制部,以位置控制模式对所述机器人手臂进行控制,以便使所述机器人手臂根据由所述动作信息获得部获得的所述动作信息进行移动,
由动作矫正部,在所述机器人手臂正通过所述位置控制部的控制而以所述位置控制模式进行移动的期间,对应于由所述矫正动作信息获得部获得的在各时间的所述矫正动作信息,对所述动作信息进行矫正,
由控制规则生成部,对应于所述人向所述机器人手臂的所述环境变化通知操作,决定由所述环境信息获得部获得的所述环境信息,且使由所述动作矫正部矫正过的所述动作信息和由所述环境信息获得部获得的所述环境信息建立对应,由此生成用于所述机器人手臂自动进行动作的控制规则,
一边参照由所述环境信息获得部获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作进行控制。
13.一种机器人,其中,具备:
所述机器人手臂、和
对所述机器人手臂进行控制的权利要求1或2所述的所述机器人手臂的控制装置。
14.一种对机器人手臂的动作进行控制的机器人手臂的控制程序,其中,用于执行下述步骤:
由动作信息获得部,从将与所述动作对应的、所述机器人手臂的位置、姿势及速度中的至少1个以上作为动作信息以时间序列加以存储的动作信息数据库,获得所述动作信息的步骤;
由矫正动作信息获得部,在人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正时,获得与由所述动作信息获得部获得的所述动作信息当中的至少1个以上所述动作信息对应的矫正动作信息的步骤;
由环境信息获得部,对应于所述人向所述机器人手臂的环境变化通知操作,获得作为与所述机器人手臂所作用的对象物有关的信息的环境信息的步骤;
由位置控制部,以位置控制模式对所述机器人手臂进行控制,以便使所述机器人手臂根据由所述动作信息获得部获得的所述动作信息进行移动的步骤;
由动作矫正部,在所述机器人手臂正通过所述位置控制部的控制而以所述位置控制模式进行移动的期间,对应于由所述矫正动作信息获得部获得的在各时间的所述矫正动作信息,对所述动作信息进行矫正的步骤;
由控制规则生成部,对应于所述人向所述机器人手臂的所述环境变化通知操作,决定由所述环境信息获得部获得的所述环境信息,且使由所述动作矫正部矫正过的所述动作信息和由所述环境信息获得部获得的所述环境信息建立对应,由此生成用于所述机器人手臂自动进行动作的控制规则的步骤;和
一边参照由所述环境信息获得部获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作进行控制的步骤。
15.一种对机器人手臂的动作进行控制的机器人手臂控制用集成电路,其中,
由动作信息获得部,从将与所述动作对应的、所述机器人手臂的位置、姿势及速度中的至少1个以上作为动作信息以时间序列加以存储的动作信息数据库,获得所述动作信息;
由矫正动作信息获得部,在人操作所述机器人手臂而对所述机器人手臂的所述动作进行矫正时,获得与由所述动作信息获得部获得的所述动作信息当中的至少1个以上所述动作信息对应的矫正动作信息;
由环境信息获得部,对应于所述人向所述机器人手臂的环境变化通知操作,获得作为与所述机器人手臂所作用的对象物有关的信息的环境信息;
由位置控制部,以位置控制模式对所述机器人手臂进行控制,以便使所述机器人手臂根据由所述动作信息获得部获得的所述动作信息进行移动;
由动作矫正部,在所述机器人手臂正通过所述位置控制部的控制而以所述位置控制模式进行移动的期间,对应于由所述矫正动作信息获得部获得的在各时间的所述矫正动作信息,对所述动作信息进行矫正;
由控制规则生成部,对应于所述人向所述机器人手臂的所述环境变化通知操作,决定由所述环境信息获得部获得的所述环境信息,且使由所述动作矫正部矫正过的所述动作信息和由所述环境信息获得部获得的所述环境信息建立对应,由此生成用于所述机器人手臂自动进行动作的控制规则;
一边参照由所述环境信息获得部获得的所述环境信息,一边根据由所述控制规则生成部生成的所述控制规则,对所述机器人手臂的所述动作进行控制。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009222378 | 2009-09-28 | ||
JP2009-222378 | 2009-09-28 | ||
PCT/JP2010/005705 WO2011036865A1 (ja) | 2009-09-28 | 2010-09-21 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102300679A true CN102300679A (zh) | 2011-12-28 |
CN102300679B CN102300679B (zh) | 2014-12-10 |
Family
ID=43795633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080005921.7A Active CN102300679B (zh) | 2009-09-28 | 2010-09-21 | 机器人手臂的控制装置及控制方法、机器人及机器人手臂控制用集成电路 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8175750B2 (zh) |
EP (1) | EP2481531A2 (zh) |
JP (2) | JP4699572B2 (zh) |
CN (1) | CN102300679B (zh) |
WO (1) | WO2011036865A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103203756A (zh) * | 2012-01-17 | 2013-07-17 | 精工爱普生株式会社 | 机器人控制装置、机器人***以及机器人控制方法 |
CN104793615A (zh) * | 2014-01-17 | 2015-07-22 | 蛇目缝纫机工业株式会社 | 机器人及机器人的控制方法 |
CN105700465A (zh) * | 2014-11-26 | 2016-06-22 | 中国科学院沈阳自动化研究所 | 基于EtherCAT总线的机器人柔顺控制***和方法 |
CN107438502A (zh) * | 2015-03-31 | 2017-12-05 | Abb瑞士股份有限公司 | 通过触摸来控制工业机器人的方法 |
CN108349091A (zh) * | 2015-11-16 | 2018-07-31 | 川崎重工业株式会社 | 机器人***及机器人***的控制方法 |
CN108472810A (zh) * | 2016-01-29 | 2018-08-31 | 三菱电机株式会社 | 机器人示教装置和机器人控制程序生成方法 |
CN109219856A (zh) * | 2016-03-24 | 2019-01-15 | 宝利根 T·R 有限公司 | 用于人类及机器人协作的***及方法 |
TWI673150B (zh) * | 2015-10-14 | 2019-10-01 | 日商川崎重工業股份有限公司 | 機器人教示方法及機器臂控制裝置 |
WO2021056591A1 (zh) * | 2019-09-29 | 2021-04-01 | 西门子股份公司 | 用于控制多轴运动机器的方法、装置和存储介质 |
US11065070B2 (en) | 2015-08-25 | 2021-07-20 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method of operating the same |
CN114170561A (zh) * | 2022-02-14 | 2022-03-11 | 盈嘉互联(北京)科技有限公司 | 一种应用于智能建筑的机器视觉行为意图预测方法 |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4962551B2 (ja) * | 2009-10-20 | 2012-06-27 | 株式会社安川電機 | ロボットシステムおよびロボットシステムの制御方法 |
DE102010010718A1 (de) * | 2010-03-09 | 2011-09-15 | Kuka Laboratories Gmbh | Verfahren zur Montage von Bauteilen mittels eines Industrieroboters |
US8896162B1 (en) * | 2010-05-21 | 2014-11-25 | Finley Lee Ledbetter | Device for installing and/or removing components from electrical equipment |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US9921712B2 (en) | 2010-12-29 | 2018-03-20 | Mako Surgical Corp. | System and method for providing substantially stable control of a surgical tool |
US9119655B2 (en) * | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US20130171304A1 (en) * | 2011-07-14 | 2013-07-04 | Robert E. Huntley | System and method for culinary interaction |
JP5583282B2 (ja) * | 2011-08-24 | 2014-09-03 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 |
US9120220B2 (en) * | 2012-02-29 | 2015-09-01 | GM Global Technology Operations LLC | Control of a glove-based grasp assist device |
JP5977544B2 (ja) * | 2012-03-09 | 2016-08-24 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US8843236B2 (en) * | 2012-03-15 | 2014-09-23 | GM Global Technology Operations LLC | Method and system for training a robot using human-assisted task demonstration |
US9226796B2 (en) | 2012-08-03 | 2016-01-05 | Stryker Corporation | Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path |
CN112932672A (zh) | 2012-08-03 | 2021-06-11 | 史赛克公司 | 用于机器人外科手术的***和方法 |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
EP2749974A2 (en) * | 2012-12-28 | 2014-07-02 | Kabushiki Kaisha Yaskawa Denki | Robot teaching system, robot teaching assistant device, and robot teaching method |
US9031691B2 (en) * | 2013-03-04 | 2015-05-12 | Disney Enterprises, Inc. | Systemic derivation of simplified dynamics for humanoid robots |
US9199376B2 (en) * | 2013-03-14 | 2015-12-01 | GM Global Technology Operations LLC | Intuitive grasp control of a multi-axis robotic gripper |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US8996177B2 (en) * | 2013-03-15 | 2015-03-31 | Brain Corporation | Robotic training apparatus and methods |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
US9314924B1 (en) | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9694495B1 (en) * | 2013-06-24 | 2017-07-04 | Redwood Robotics Inc. | Virtual tools for programming a robot arm |
JP5850003B2 (ja) * | 2013-07-26 | 2016-02-03 | 株式会社安川電機 | ロボットシステム、ロボットシステムのロボット管理コンピュータ及びロボットシステムの管理方法 |
JP6410023B2 (ja) * | 2013-09-06 | 2018-10-24 | パナソニックIpマネジメント株式会社 | マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路 |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
KR20160124770A (ko) * | 2014-02-20 | 2016-10-28 | 엠비엘 리미티드 | 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템 |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9364950B2 (en) | 2014-03-13 | 2016-06-14 | Brain Corporation | Trainable modular robotic methods |
US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
JP6364836B2 (ja) * | 2014-03-14 | 2018-08-01 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及び制御装置 |
JP6586079B2 (ja) * | 2014-03-28 | 2019-10-02 | ソニー株式会社 | アーム装置、及びプログラム |
JP6106122B2 (ja) * | 2014-04-02 | 2017-03-29 | ファナック株式会社 | 溶接検査ロボットシステム |
US9613308B2 (en) * | 2014-04-03 | 2017-04-04 | Brain Corporation | Spoofing remote control apparatus and methods |
US9630317B2 (en) | 2014-04-03 | 2017-04-25 | Brain Corporation | Learning apparatus and methods for control of robotic devices via spoofing |
JP5893664B2 (ja) * | 2014-04-14 | 2016-03-23 | ファナック株式会社 | 作用された力に応じて移動されるロボットを制御するロボット制御装置 |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US9403273B2 (en) * | 2014-05-23 | 2016-08-02 | GM Global Technology Operations LLC | Rapid robotic imitation learning of force-torque tasks |
CN105313127A (zh) * | 2014-06-02 | 2016-02-10 | 精工爱普生株式会社 | 机器人、机器人的控制方法以及机器人的控制装置 |
DE102015204641B4 (de) * | 2014-06-03 | 2021-03-25 | ArtiMinds Robotics GmbH | Verfahren und System zur Programmierung eines Roboters |
JP6660102B2 (ja) * | 2014-08-27 | 2020-03-04 | キヤノン株式会社 | ロボット教示装置およびその制御方法、ロボットシステム、プログラム |
US9821470B2 (en) | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
US9579790B2 (en) | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9860077B2 (en) | 2014-09-17 | 2018-01-02 | Brain Corporation | Home animation apparatus and methods |
US9849588B2 (en) | 2014-09-17 | 2017-12-26 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9815206B2 (en) * | 2014-09-25 | 2017-11-14 | The Johns Hopkins University | Surgical system user interface using cooperatively-controlled robot |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US10499999B2 (en) | 2014-10-09 | 2019-12-10 | Auris Health, Inc. | Systems and methods for aligning an elongate member with an access site |
US9592603B2 (en) * | 2014-12-01 | 2017-03-14 | Spin Master Ltd. | Reconfigurable robotic system |
US9426946B2 (en) | 2014-12-02 | 2016-08-30 | Brain Corporation | Computerized learning landscaping apparatus and methods |
US9804593B1 (en) * | 2014-12-12 | 2017-10-31 | X Development Llc | Methods and systems for teaching positions to components of devices |
US9592608B1 (en) * | 2014-12-15 | 2017-03-14 | X Development Llc | Methods and systems for providing feedback during teach mode |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
DE102015205176B3 (de) * | 2015-03-23 | 2016-05-12 | Kuka Roboter Gmbh | Robustes intuitives Bedienverfahren durch Berührung eines Manipulators |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
US9418421B1 (en) * | 2015-09-26 | 2016-08-16 | Nastaran Neishaboori | Automation of biopsy specimen handling |
JP6489991B2 (ja) * | 2015-10-02 | 2019-03-27 | ファナック株式会社 | ロボットを操作するハンドルを備えたロボット用操作装置 |
JP6577326B2 (ja) * | 2015-10-16 | 2019-09-18 | ファナック株式会社 | 人と協働して物体を運搬するロボットを制御するロボット制御装置、ロボットシステム、およびその方法 |
US9919422B1 (en) | 2016-01-06 | 2018-03-20 | X Development Llc | Methods and systems to provide mechanical feedback during movement of a robotic system |
CN105739497A (zh) * | 2016-02-19 | 2016-07-06 | 上海钧工智能技术有限公司 | 一种智能机器人空气净化*** |
GB2549072B (en) | 2016-03-24 | 2020-07-29 | Cmr Surgical Ltd | Robot control |
US10295972B2 (en) | 2016-04-29 | 2019-05-21 | Brain Corporation | Systems and methods to operate controllable devices with gestures and/or noises |
US11045955B2 (en) * | 2016-05-26 | 2021-06-29 | Mitsubishi Electric Corporation | Robot control device |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
GB2557179B (en) * | 2016-11-29 | 2020-01-01 | Rolls Royce Plc | Methods, apparatus, computer programs and non-transitory computer readable storage mediums for controlling a hyper redundant manipulator |
JP6469069B2 (ja) | 2016-12-13 | 2019-02-13 | ファナック株式会社 | 学習を容易化する機能を備えたロボット制御装置、及びロボット制御方法 |
US11202682B2 (en) | 2016-12-16 | 2021-12-21 | Mako Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
CN106393145B (zh) * | 2016-12-20 | 2018-10-02 | 自兴人工智能(深圳)有限公司 | 一种基于机械臂控制的虚拟现实体验方法及装置 |
KR102578978B1 (ko) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | 전자파 왜곡 검출 |
CN116725667A (zh) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | 提供定位信息的***和在解剖结构内***械的方法 |
US10464209B2 (en) | 2017-10-05 | 2019-11-05 | Auris Health, Inc. | Robotic system with indication of boundary for robotic arm |
US10016900B1 (en) * | 2017-10-10 | 2018-07-10 | Auris Health, Inc. | Surgical robotic arm admittance control |
US20190201139A1 (en) * | 2017-12-28 | 2019-07-04 | Ethicon Llc | Communication arrangements for robot-assisted surgical platforms |
JP6965785B2 (ja) * | 2018-02-15 | 2021-11-10 | オムロン株式会社 | 制御システム、スレーブ装置制御部、制御方法およびプログラム |
JP7135408B2 (ja) * | 2018-04-26 | 2022-09-13 | セイコーエプソン株式会社 | ロボット制御装置およびロボットシステム |
EP3788447B1 (en) * | 2018-04-30 | 2023-10-04 | Vanderbilt University | A control method for a robotic system |
EP3876860A1 (en) | 2018-11-06 | 2021-09-15 | Bono, Peter L. | Robotic surgical system and method |
JP7172485B2 (ja) * | 2018-11-15 | 2022-11-16 | 株式会社Ihi | ロボット制御装置 |
US11669067B2 (en) * | 2018-12-14 | 2023-06-06 | Fujikin Incorporated | Work management apparatus, work management method, and work management system |
CN109945411B (zh) * | 2019-03-25 | 2020-05-26 | 珠海格力电器股份有限公司 | 一种控制器的控制方法、装置、存储介质及控制器 |
WO2021044297A1 (en) | 2019-09-03 | 2021-03-11 | Auris Health, Inc. | Electromagnetic distortion detection and compensation |
JP7362107B2 (ja) * | 2019-09-30 | 2023-10-17 | Johnan株式会社 | 制御装置、制御方法およびプログラム |
JP7113200B2 (ja) * | 2019-11-21 | 2022-08-05 | パナソニックIpマネジメント株式会社 | ロボット制御方法及びロボット制御装置 |
JP6981709B1 (ja) * | 2020-02-17 | 2021-12-17 | コネクテッドロボティクス株式会社 | 制御プログラム及び調理システム |
JP6954683B2 (ja) * | 2020-02-17 | 2021-10-27 | コネクテッドロボティクス株式会社 | 食器洗浄システム、食器洗浄システム用制御装置及びプログラム |
JP2022060712A (ja) * | 2020-10-05 | 2022-04-15 | キオクシア株式会社 | 半導体製造装置 |
WO2022074448A1 (en) * | 2020-10-06 | 2022-04-14 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential environments with artificial intelligence and machine learning |
US20220134557A1 (en) * | 2020-10-30 | 2022-05-05 | Sintokogio, Ltd. | Control device, robot control system, program, and control method |
EP4008493A1 (en) * | 2020-12-07 | 2022-06-08 | Electrolux Appliances Aktiebolag | Kitchen assistance robot, robotic system, robot-assisted kitchen environment and method for operating the kitchen assistance robot |
US11945117B2 (en) | 2021-03-10 | 2024-04-02 | Samsung Electronics Co., Ltd. | Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance |
US20220288777A1 (en) * | 2021-03-10 | 2022-09-15 | Samsung Electronics Company, Ltd. | Parameterized Waypoint Generation on Dynamically Parented Non-Static Objects for Robotic Autonomous Tasks |
US11833691B2 (en) | 2021-03-30 | 2023-12-05 | Samsung Electronics Co., Ltd. | Hybrid robotic motion planning system using machine learning and parametric trajectories |
DE112022001174T5 (de) * | 2021-04-27 | 2024-01-18 | Nvidia Corporation | Strategieebenen für die maschinensteuerung |
WO2024062632A1 (ja) * | 2022-09-22 | 2024-03-28 | 日本電気株式会社 | 制御装置、制約条件選択装置、データ生成装置、制御方法、制約条件選択方法、データ生成方法及び記憶媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59157715A (ja) * | 1983-02-25 | 1984-09-07 | Hitachi Ltd | ロボツトの直接教示方法 |
JP2004148466A (ja) * | 2002-10-31 | 2004-05-27 | Yaskawa Electric Corp | ロボット制御装置 |
CN1876332A (zh) * | 2005-06-10 | 2006-12-13 | 发那科株式会社 | 机器人控制装置 |
CN100460161C (zh) * | 2005-06-07 | 2009-02-11 | 发那科株式会社 | 机械手控制装置及机械手控制方法 |
WO2009107358A1 (ja) * | 2008-02-28 | 2009-09-03 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3240251A1 (de) * | 1982-10-30 | 1984-05-03 | Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln | Verfahren zum programmieren von bewegungen und erforderlichenfalls von bearbeitungskraeften bzw. -momenten eines roboters oder manipulators und einrichtung zu dessen durchfuehrung |
JPH01146645A (ja) * | 1987-12-03 | 1989-06-08 | Fujitsu Ltd | ならい制御方式 |
JPH02250782A (ja) | 1989-03-20 | 1990-10-08 | Fanuc Ltd | 産業用ロボットの手動介入方式 |
JPH06190753A (ja) * | 1992-12-25 | 1994-07-12 | Fujitsu Ltd | ロボット制御装置 |
US5495410A (en) * | 1994-08-12 | 1996-02-27 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
JPH09325806A (ja) * | 1996-06-06 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | ロボット教示再生方法及び装置 |
JPH10254527A (ja) * | 1997-03-10 | 1998-09-25 | Kawasaki Heavy Ind Ltd | ロボットの教示装置 |
JP3602687B2 (ja) | 1997-05-09 | 2004-12-15 | 三菱電機株式会社 | 自動機の作業支援装置 |
JP3820422B2 (ja) | 1998-12-08 | 2006-09-13 | 株式会社東芝 | マニピュレータの教示・再生装置及びその教示・再生方法 |
US6285920B1 (en) * | 2000-02-18 | 2001-09-04 | Fanuc Robotics North America | Method of robot teaching with motion constraints |
JP4670136B2 (ja) * | 2000-10-11 | 2011-04-13 | ソニー株式会社 | オーサリング・システム及びオーサリング方法、並びに記憶媒体 |
US6385508B1 (en) * | 2000-10-31 | 2002-05-07 | Fanuc Robotics North America, Inc. | Lead-through teach handle assembly and method of teaching a robot assembly |
JP2003305678A (ja) | 2002-04-11 | 2003-10-28 | Ricoh Co Ltd | ロボット及びロボットの制御方法 |
JP2004049731A (ja) * | 2002-07-23 | 2004-02-19 | Yaskawa Electric Corp | 肢体駆動装置の教示方法 |
JP2005148789A (ja) | 2003-11-11 | 2005-06-09 | Fanuc Ltd | 音声入力によるロボット教示プログラム編集装置 |
JP2006082185A (ja) | 2004-09-16 | 2006-03-30 | Yaskawa Electric Corp | ロボット誘導方法 |
JP2007190662A (ja) | 2006-01-23 | 2007-08-02 | Yaskawa Electric Corp | 産業用ロボットおよびたわみ補正方法 |
JP2009181526A (ja) | 2008-02-01 | 2009-08-13 | Panasonic Corp | ロボットシステム |
-
2010
- 2010-09-21 JP JP2010547779A patent/JP4699572B2/ja active Active
- 2010-09-21 EP EP11184960A patent/EP2481531A2/en not_active Withdrawn
- 2010-09-21 CN CN201080005921.7A patent/CN102300679B/zh active Active
- 2010-09-21 WO PCT/JP2010/005705 patent/WO2011036865A1/ja active Application Filing
- 2010-12-24 JP JP2010288106A patent/JP5740554B2/ja active Active
-
2011
- 2011-04-28 US US13/096,376 patent/US8175750B2/en active Active
-
2012
- 2012-03-09 US US13/416,660 patent/US8290621B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59157715A (ja) * | 1983-02-25 | 1984-09-07 | Hitachi Ltd | ロボツトの直接教示方法 |
JP2004148466A (ja) * | 2002-10-31 | 2004-05-27 | Yaskawa Electric Corp | ロボット制御装置 |
CN100460161C (zh) * | 2005-06-07 | 2009-02-11 | 发那科株式会社 | 机械手控制装置及机械手控制方法 |
CN1876332A (zh) * | 2005-06-10 | 2006-12-13 | 发那科株式会社 | 机器人控制装置 |
WO2009107358A1 (ja) * | 2008-02-28 | 2009-09-03 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103203756B (zh) * | 2012-01-17 | 2016-12-28 | 精工爱普生株式会社 | 机器人控制装置、机器人***以及机器人控制方法 |
CN103203756A (zh) * | 2012-01-17 | 2013-07-17 | 精工爱普生株式会社 | 机器人控制装置、机器人***以及机器人控制方法 |
CN104793615A (zh) * | 2014-01-17 | 2015-07-22 | 蛇目缝纫机工业株式会社 | 机器人及机器人的控制方法 |
CN105700465A (zh) * | 2014-11-26 | 2016-06-22 | 中国科学院沈阳自动化研究所 | 基于EtherCAT总线的机器人柔顺控制***和方法 |
CN107438502A (zh) * | 2015-03-31 | 2017-12-05 | Abb瑞士股份有限公司 | 通过触摸来控制工业机器人的方法 |
US10150214B2 (en) | 2015-03-31 | 2018-12-11 | Abb Schweiz Ag | Method for controlling an industrial robot by touch |
CN107438502B (zh) * | 2015-03-31 | 2019-05-31 | Abb瑞士股份有限公司 | 通过触摸来控制工业机器人的方法 |
US11065070B2 (en) | 2015-08-25 | 2021-07-20 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method of operating the same |
TWI673150B (zh) * | 2015-10-14 | 2019-10-01 | 日商川崎重工業股份有限公司 | 機器人教示方法及機器臂控制裝置 |
US10751874B2 (en) | 2015-10-14 | 2020-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | Method of teaching robot and robotic arm control device |
CN108349091B (zh) * | 2015-11-16 | 2021-03-26 | 川崎重工业株式会社 | 机器人***及机器人***的控制方法 |
CN108349091A (zh) * | 2015-11-16 | 2018-07-31 | 川崎重工业株式会社 | 机器人***及机器人***的控制方法 |
CN108472810A (zh) * | 2016-01-29 | 2018-08-31 | 三菱电机株式会社 | 机器人示教装置和机器人控制程序生成方法 |
CN109219856A (zh) * | 2016-03-24 | 2019-01-15 | 宝利根 T·R 有限公司 | 用于人类及机器人协作的***及方法 |
WO2021056591A1 (zh) * | 2019-09-29 | 2021-04-01 | 西门子股份公司 | 用于控制多轴运动机器的方法、装置和存储介质 |
CN114341823A (zh) * | 2019-09-29 | 2022-04-12 | 西门子股份公司 | 用于控制多轴运动机器的方法、装置和存储介质 |
CN114170561A (zh) * | 2022-02-14 | 2022-03-11 | 盈嘉互联(北京)科技有限公司 | 一种应用于智能建筑的机器视觉行为意图预测方法 |
CN114170561B (zh) * | 2022-02-14 | 2022-05-06 | 盈嘉互联(北京)科技有限公司 | 一种应用于智能建筑的机器视觉行为意图预测方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5740554B2 (ja) | 2015-06-24 |
US20120173021A1 (en) | 2012-07-05 |
US8290621B2 (en) | 2012-10-16 |
JP4699572B2 (ja) | 2011-06-15 |
CN102300679B (zh) | 2014-12-10 |
US20110208355A1 (en) | 2011-08-25 |
US8175750B2 (en) | 2012-05-08 |
EP2481531A2 (en) | 2012-08-01 |
JP2011088273A (ja) | 2011-05-06 |
JPWO2011036865A1 (ja) | 2013-02-14 |
WO2011036865A1 (ja) | 2011-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102300679B (zh) | 机器人手臂的控制装置及控制方法、机器人及机器人手臂控制用集成电路 | |
CN102152313B (zh) | 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序、及机器人手臂控制用集成电子电路 | |
CN102056715B (zh) | 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及集成电子电路 | |
CN102292194B (zh) | 机器人手臂的控制装置及控制方法、装配机器人、机器人手臂的控制程序及机器人手臂的控制用集成电路 | |
US20100114371A1 (en) | Robot arm control device and control method, robot, and control program | |
CN101870108B (zh) | 机械手臂的控制装置 | |
CN101646534B (zh) | 机器手控制装置及控制方法、机器人 | |
CN103909516A (zh) | 机器人示教***、机器人示教辅助装置和机器人示教方法 | |
Keisala | Development and documentation of calibration tools for an offline programming software | |
CN114905486A (zh) | 示教装置、示教方法及记录介质 | |
EP1879160A1 (en) | Virtual education system for mounter, and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |