WO2018147359A1 - ロボット制御方法およびロボット - Google Patents

ロボット制御方法およびロボット Download PDF

Info

Publication number
WO2018147359A1
WO2018147359A1 PCT/JP2018/004357 JP2018004357W WO2018147359A1 WO 2018147359 A1 WO2018147359 A1 WO 2018147359A1 JP 2018004357 W JP2018004357 W JP 2018004357W WO 2018147359 A1 WO2018147359 A1 WO 2018147359A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
monitoring
model
coordinate system
monitoring area
Prior art date
Application number
PCT/JP2018/004357
Other languages
English (en)
French (fr)
Inventor
靖啓 衣笠
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=63108374&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2018147359(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2018567485A priority Critical patent/JP6917551B2/ja
Priority to EP18752067.1A priority patent/EP3581348A4/en
Priority to CN201880010428.0A priority patent/CN110267778B/zh
Publication of WO2018147359A1 publication Critical patent/WO2018147359A1/ja
Priority to US16/517,741 priority patent/US11230009B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40311Real time simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40317For collision avoidance and detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40492Model manipulator by spheres for collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49137Store working envelop, limit, allowed zone
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49142Shut off power, stop if outside working zone

Definitions

  • the present invention relates to an area setting method for monitoring the operation of a robot and a robot using the method.
  • one welding robot welds two welding objects alternately, and a person replaces the other welding object while the welding robot welds one welding object.
  • robot monitoring model 200 a spherical or capsule-shaped three-dimensional model 200 (hereinafter referred to as “robot monitoring model 200”) that covers the robot 100 and the auxiliary devices is set, and further, a safety region in which the robot can operate. 300 and a non-safe area 400 where the robot cannot operate are set. Then, the position of the robot monitoring model 200 in the space is monitored, and when the robot monitoring model 200 tries to enter the non-safe area, the operation of the robot is stopped.
  • Patent Literature 1 discloses a technology that can easily set a safe area.
  • the safe area is set not by direct numerical input but by a drag operation, and the safe area is moved, enlarged, or reduced by the drag operation.
  • the movable range of the robot is assumed on the assumption that the X-axis, Y-axis, and Z-axis of the robot coordinate system are parallel to the X-axis, Y-axis, and Z-axis of the user equipment, respectively.
  • the safety area is set to include the whole. Therefore, even when the X, Y, and Z axes of the robot coordinate system are not parallel to the X, Y, and Z axes of the user equipment, the safety area is set to include the entire movable range of the robot. End up. In this case, the safety area must be increased, and an extra non-safe area that is not necessary in the safety area is created, and the ratio of the area in which the robot can operate is reduced.
  • the present invention provides a robot control method capable of setting a suitable monitoring area according to user equipment.
  • the robot control method of the present invention sets a robot monitoring model that covers at least a part of the robot, and sets a monitoring area for monitoring the operable range of the robot in parallel to the coordinate system of the robot.
  • Set convert the position of the constituent point, which is an arbitrary point included in the robot monitoring model, to a position in a coordinate system different from the coordinate system of the robot, and use the converted position of the constituent point to It is determined whether or not the boundary surface of the monitoring area is touched, and when it touches, the operation of the robot is stopped.
  • the robot control method of the present invention can set a suitable monitoring area according to the user equipment.
  • FIG. 1 is a diagram showing a schematic configuration of a robot according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of the robot control method according to the embodiment of the present invention.
  • FIG. 3A is a diagram for explaining a sphere model according to the embodiment of the present invention.
  • FIG. 3B is a diagram for explaining a capsule model according to the embodiment of the present invention.
  • FIG. 4 is a diagram for explaining the robot monitoring model according to the embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a monitoring area in the embodiment of the present invention.
  • FIG. 6A is a diagram for explaining the contact between the robot monitoring model and the monitoring area in the embodiment of the present invention.
  • FIG. 6B is a diagram for explaining the contact between the robot monitoring model and the monitoring area in the embodiment of the present invention.
  • FIG. 6C is a diagram for explaining the contact between the robot monitoring model and the monitoring area in the embodiment of the present invention.
  • FIG. 7 is a diagram for explaining the robot coordinate system and the user coordinate system in the embodiment of the present invention.
  • FIG. 8A is a diagram for explaining the relationship between the robot monitoring model and the monitoring area.
  • FIG. 8B is a diagram for explaining the relationship between the robot monitoring model and the monitoring area.
  • FIG. 9 is a diagram for explaining setting of the robot coordinate system and the user coordinate system.
  • FIG. 10 is a diagram for explaining a case where the monitoring area is rotationally converted based on the user coordinate system.
  • FIG. 11 is a diagram for explaining the relationship between the robot monitoring model and the monitoring area.
  • FIG. 1 is a diagram showing a schematic configuration of a robot in the present embodiment.
  • the robot includes a robot main body 1 including a robot arm 6 having a six-axis joint, a control device 2 that controls the operation of the robot arm 6, and a connection cable 9 that connects the robot main body 1 and the control device 2.
  • the operation device 3 with a display communicates with the control device 2 to perform operation setting, operation control, and the like of the robot arm 6.
  • the robot body 1 includes a plurality of motors 4 for operating the robot arm 6 and a plurality of encoders 5 for detecting the amount of rotation of each motor 4.
  • the robot body 1 feeds back position information of each motor 4 to the control device 2.
  • the control device 2 has a CPU 7 for controlling the control device 2 and a RAM 8 capable of reading and writing.
  • the RAM 8 stores a robot teaching program, a robot function setting, and the like created by the robot operator using the operation device 3.
  • the RAM 8 can store a position command to the robot body 1 and the like.
  • the control device 2 includes a servo driver 10 and a safety unit 11.
  • the CPU 7 controls the motor 4 by giving an operation command to the servo driver 10.
  • the safety unit 11 receives information on the encoder 5 and an operation command from the CPU 7 and determines whether the encoder 5 has failed.
  • the robot control method according to the present embodiment is a method for ensuring the safety of the robot, which is performed using a robot monitoring model and a monitoring area. Specifically, in the present embodiment, the robot body 1 is controlled so as to operate inside the monitoring area. That is, when the robot body 1 goes outside the monitoring area, the operation of the robot body 1 is stopped.
  • FIG. 2 is a flowchart of the robot control method.
  • the control device 2 activates the robot body 1. Thereafter, the safety unit 11 determines the contact between the robot monitoring model and the monitoring area, and stops the robot body 1.
  • step ST1 the control device 2 activates the robot main body 1, and then in step ST2, the control device 2 operates (moves, stops, etc.) the robot main body 1 and proceeds to step ST3.
  • Subsequent steps ST3 to ST9 are processes periodically performed by the safety unit 11.
  • step ST3 the safety unit 11 acquires encoder data from the encoder 5.
  • step ST4 the safety unit 11 calculates the angle of the motor 4 from the acquired encoder data, the reduction ratio of each axis of the motor 4 and the motor origin information, and further calculates the position of the motor 4 from the angle of the motor 4.
  • step ST5 the safety unit 11 calculates the position of the robot monitoring model and the monitoring area in the robot coordinate system (hereinafter referred to as “robot coordinate system”) based on the motor position calculated in step ST4.
  • robot coordinate system the robot coordinate system
  • the robot monitoring model is configured by combining a plurality of spherical three-dimensional models (hereinafter referred to as “spherical models”) and capsule-shaped three-dimensional models (hereinafter referred to as “capsule models”) so as to cover the robot body 1. ing.
  • the robot monitoring model is a three-dimensional outer shell configured by combining a plurality of spherical models and capsule models.
  • the sphere model 35 includes a center position P0 and a radius R of the sphere.
  • the capsule model 36 includes two constituent points P1 and P2 and a capsule radius R1.
  • FIG. 4 shows a robot monitoring model composed of a plurality of three-dimensional models.
  • the robot body 1 has a six-axis joint, and each motor 4 has a first axis position 37, a second axis position 38, a third axis position 39, a fourth axis position 40, a fifth axis position 41, and a sixth axis position.
  • the robot monitoring model includes a capsule model 43, a capsule model 44, a capsule model 45, an accessory device model 46, and a tool model 47 so as to cover the robot body 1.
  • the capsule model 43 covers the first axis position 37 and the second axis position 38, and the radius is r1.
  • the capsule model 44 covers the fourth axis position 40 and the fifth axis position 41, and has a radius r2.
  • the capsule model 45 covers the fifth axis position 41 and the sixth axis position 42, and has a radius r3.
  • the accessory device model 46 is a sphere model that covers the accessory device, and its center position has a shift amount s1 from the third axis position, and its radius is r4.
  • the tool model 47 is configured by combining a plurality of capsule models and a sphere model.
  • step ST5 of FIG. 2 the three-dimensional position of each motor in the robot coordinate system is calculated from the length of the robot arm 6 and the angle of each axis calculated in step ST4.
  • the second axis position 38 and the third axis position 39 are set as the constituent points of the capsule model 43, and the radius r1 is set.
  • the fourth axis position 40 and the fifth axis position 41 are set as the constituent points of the capsule model 44, and the radius r2 is set.
  • the fifth axis position 41 and the sixth axis position 42 are set as the constituent points of the capsule model 45, and the radius r3 is set.
  • the center position is set to the shift amount s1 from the third axis position 39, and the radius r4 is set.
  • the tool model 47 sets the constituent points and the radius of the sphere model and the capsule model with the sixth axis position 42 as a reference.
  • FIG. 5 is a diagram for explaining the monitoring area.
  • the monitoring area is configured as a rectangular parallelepiped having the configuration points Q1 and Q2 as diagonals. These two points are set by the user inputting the XYZ coordinates of the two points Q1 and Q2 on the robot coordinate system using the operating device 3 before the start of this control flow.
  • step ST5 the position of the monitoring area is calculated using the set value.
  • step ST5 the process proceeds to step ST9, after converting the robot monitoring model into the user coordinate system, the process proceeds to step ST6.
  • step ST6 the description after step ST6 will be given prior to the description of step ST9.
  • step ST6 contact between the robot monitoring model and the monitoring area set in parallel with the robot coordinate system is determined.
  • the robot coordinate system and the monitoring area are parallel because the X, Y, and Z axes of the robot coordinate system are parallel to the X, Y, and Z axes of the user equipment, respectively. is there. Therefore, the “monitoring area set parallel to the robot coordinate system” means that the X axis of the monitoring area is parallel to the X axis of the robot coordinate system and the Y axis of the monitoring area is parallel to the Y axis of the robot coordinate system. And the monitoring area in a state where the Z-axis of the monitoring area is parallel to the Z-axis of the robot coordinate system.
  • 6A is a view of the robot coordinate system 50 as viewed from the Z axis + side.
  • a sphere model 49 that is a robot monitoring model shows a pattern in which the monitoring area 48 exists.
  • the radius of the sphere model 49 is R, and the center coordinates are P0 (x, y, z).
  • this monitoring area 48 is composed of configuration points Q1 (x1, y1, z1) and Q2 (x2, y2, z2) as in FIG. 5, and the inside of the monitoring area 48 is set as a safety area. Yes. That is, the robot main body 1 can freely move within the monitoring area 48.
  • FIG. 6B shows a pattern in which the sphere model 49 is outside the monitoring area 48. In this case, it can be seen that the right side x ⁇ x2-R in (Equation 1) is not established.
  • the determination is made based on the configuration points and radii of each robot monitoring model set in step ST5 and the configuration points of the monitoring area.
  • the basic concept of the capsule model is the same as that of the sphere model, and the safety unit 11 determines safety or non-safety based on the distance between the capsule model and the monitoring area.
  • step ST7 if it is determined in step ST7 that the relationship between the robot monitoring model and the monitoring area is safe as a result of the determination of the contact between the robot monitoring model and the monitoring area, the process returns to step ST3. If it is determined that the relationship between the robot monitoring model and the monitoring area is unsafe, the process proceeds to step ST8 where an emergency stop is performed on the robot body 1 to stop the operation of the robot body 1.
  • step ST9 is further added between step ST5 and step ST6.
  • step ST9 the robot monitoring model is calculated based on the coordinate system specified by the user.
  • the conversion in step ST9 will be described in detail.
  • FIG. 7 shows a robot coordinate system 24 and a user coordinate system 23 that is freely designated by the user. Since the configuration point P of the robot monitoring model indicates the same position when viewed from the user coordinate system 23 and when viewed from the robot coordinate system 24, the relationship of (Equation 4) is established.
  • step ST9 the position of the robot monitoring model calculated in step ST5 is converted to the position of the robot monitoring model as viewed from the user coordinate system by performing the conversion calculation of (Equation 5). Then, the contact determination between the converted robot monitoring model and the monitoring area is performed in step ST6.
  • an optimum monitoring area can be set.
  • an optimal setting can be made without unnecessarily restricting the operation range of the robot.
  • the robot monitoring model is converted into the user coordinate system.
  • the monitoring area may be converted into the user coordinate system.
  • the influence on the existing process is increased.
  • FIG. 8A shows a view of the monitoring area 26 and the robot monitoring model 27 as viewed from the Z axis + side of the robot coordinate system 25.
  • the monitoring area 26 is rotated by ⁇ around the Z axis of the robot coordinate system 25.
  • the user coordinate system 28 (Xu, Yu, Zu) for rotating the monitoring area 26 is shown in FIG.
  • Zu is set in the same direction as the Z direction of the robot coordinate system 25.
  • Xu and Yu are set to rotate + ⁇ from the X and Y axes of the robot coordinate system 25.
  • U0, U1 and U2 shown in FIG. 9 are constituent points of the user coordinate system 28, respectively.
  • the user coordinate system 28 is created when the user uses the operation device 3 and inputs three XYZ positions in the robot coordinate system or designates three points registered in the control device 2.
  • FIG. 10 shows the monitoring area 33 after conversion when the monitoring area 26 displayed by a broken line is rotated with reference to the user coordinate system 28.
  • the process of step ST6 in the flowchart of FIG. 2 cannot be used. This is because the calculation in step ST6 is based on the premise that the monitoring area is arranged in parallel with the robot coordinate system.
  • FIG. 6C shows the relationship between the converted monitoring area 52 and the spherical model 49 when the monitoring area 48 of FIG. 6A is rotated about the Z axis by ⁇ .
  • the distance from the center of the sphere model 49 to the boundary surface of the monitoring region 48 that separates safety and non-safety is larger than the radius R of the sphere. Therefore, (Expression 1) and (Expression 2), which are determination formulas when the sphere model 49 exists in the monitoring region 48, are satisfied. Nevertheless, a part of the sphere model 49 is out of the monitoring area 48. If a part of the sphere model 49 is outside the monitoring area 48, it should be determined as unsafe.
  • FIG. 8B shows the positional relationship between the robot monitoring model and the monitoring area at this time.
  • FIG. 8B shows the robot monitoring model 34 after conversion when the monitoring area 26 is not changed and conversion processing is performed only on the robot monitoring model.
  • the positional relationship between the robot monitoring model 27 and the monitoring area 26 in FIG. 8B matches the positional relationship when the monitoring area is converted in FIG. However, since the monitoring area 26 is arranged in parallel with the robot coordinate system 25, it can be seen that the contact determination can be performed with the converted robot monitoring model while using the conventional calculation processing as it is.
  • the coordinates of the robot monitoring model can be not converted by using the homogeneous conversion matrix of (Equation 5) as a unit matrix. Therefore, the conversion calculation in step ST9 can always be performed.
  • the conventional determination process can be used to realize coordinate transformation of the monitoring area, so that the quality as a product can be maintained and the evaluation man-hours required for the operation check are reduced. There is an advantage that you can.
  • step ST6 If the determination process (step ST6) is changed, it is necessary to confirm that the determination process operates correctly as before even after the change. It is also necessary to confirm that the newly added conversion calculation can be performed correctly.
  • the robot control method of the present embodiment can use the conventional determination process, the determination process does not require confirmation, and the same quality as the conventional one can be maintained. In the robot control method of this embodiment, it is only necessary to confirm the newly added conversion calculation, so that product quality can be maintained while reducing the number of confirmation steps.
  • the safety unit 11 in the control device 2 repeatedly executes the processes from ST3 to ST9. To do.
  • the safety unit 11 ensures the safety of the robot system by performing contact determination between the robot monitoring model and the monitoring area and performing a process of stopping the robot body 1.
  • the reference coordinate system is set regardless of the robot coordinate system, and the monitoring area can be moved in parallel or rotationally according to the reference coordinate system. Therefore, the monitoring area can be freely arranged (rotated or translated) while maintaining the quality as a product. Therefore, it is possible to set an optimum monitoring area according to the user equipment, and as a result, it is possible to ensure safety without unnecessarily restricting the freedom of movement and the movement range of the robot.
  • a coordinate system in which a monitoring area is desired to be set is set, and the position of the robot monitoring model viewed from the coordinate system is converted into the robot coordinate system.
  • the monitoring area can be freely set without changing the determination process between the robot monitoring model and the monitoring area on the existing robot coordinate system.
  • the robot monitoring model can be converted into an arbitrary coordinate system. Therefore, the robot can be operated even at a position where the robot was originally stopped.
  • the embodiment of the present invention it is possible to set an optimal monitoring area according to the user equipment, and the robot can operate with the minimum necessary limit, thereby improving the use efficiency of the equipment while ensuring safety. Can be raised.
  • the safety unit 11 performs the processes of steps ST3 to ST9, but the CPU 7 of the control device 2 may perform the processes.
  • the robot monitoring model may be set to cover at least a part of the robot body 1 as long as it can cover a range necessary as a safety measure for the surroundings of the robot.
  • the robot monitoring area can be set freely, so that the optimum area can be set according to the equipment, and can be applied to welding robots, cutting robots, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

ロボットの少なくとも一部を覆うロボット監視モデルを設定し、ロボットの動作可能範囲を監視するための監視領域を、ロボットの座標系に平行に設定し、ロボット監視モデルに含まれる任意の点である構成点の位置を、ロボットの座標系とは異なる座標系における位置に変換し(ST9)、変換後の構成点の位置を用いて、ロボット監視モデルが監視領域の境界面に接触するか否かを判定し(ST6)、接触する場合はロボットの動作を停止させる(ST8)ロボット制御方法。

Description

ロボット制御方法およびロボット
 本発明はロボットの動作を監視するための領域の設定方法およびその方法を利用するロボットに関する。
 ロボットを使用した生産システムでは、ロボットと人とが共同で作業することがよく行われる。例えば、1台の溶接ロボットが2つの溶接対象物を交互に溶接しており、溶接ロボットが一方の溶接対象物を溶接している間に人が他方の溶接対象物を入れ替える作業がそれにあたる。
 このような作業では、ロボットが誤って人が動作している領域に入り込まないような安全対策が行われる。その安全対策では、図11のように、ロボット100および付帯機器を覆う球状またはカプセル状の3次元モデル200(以降、「ロボット監視モデル200」という)を設定し、さらに、ロボットが動作できる安全領域300と、ロボットが動作できない非安全領域400とを設定する。そして、ロボット監視モデル200の空間上の位置を監視して、非安全領域にロボット監視モデル200が入り込もうとした場合にはロボットの動作を停止させる。
 これらの領域はロボットを操作するためのコントローラで設定される。例えば特許文献1には、安全領域の設定を容易に行える技術が開示されている。この技術では、安全領域の設定を直接的な数値入力ではなくドラッグ操作により行い、さらにはドラッグ操作で安全領域の移動、拡大、縮小も行う。
特開2016-59980号公報
 しかしながら、特許文献1の技術では、ロボットの座標系のX軸、Y軸、Z軸がユーザー設備のX軸、Y軸、Z軸に対してそれぞれ平行であることを前提として、ロボットの可動範囲全体を含むように安全領域が設定される。そのため、ロボットの座標系のX軸、Y軸、Z軸がユーザー設備のX軸、Y軸、Z軸に対して平行でない場合も、ロボットの可動範囲全体が含まれるように安全領域が設定されてしまう。そうすると、安全領域が大きくならざるを得ず、その安全領域内には本来は必要でない余計な非安全領域ができてしまい、ロボットの動作可能な領域の比率が低下する。
 そこで、本発明は、ユーザー設備に応じた好適な監視領域を設定することができるロボット制御方法を提供する。
 上記課題を解決するため、本発明のロボット制御方法は、ロボットの少なくとも一部を覆うロボット監視モデルを設定し、ロボットの動作可能範囲を監視するための監視領域を、ロボットの座標系に平行に設定し、ロボット監視モデルに含まれる任意の点である構成点の位置を、ロボットの座標系とは異なる座標系における位置に変換し、変換後の構成点の位置を用いて、ロボット監視モデルが監視領域の境界面に接触するか否かを判定し、接触する場合はロボットの動作を停止させることを特徴とする。
 上記構成により、本発明のロボット制御方法は、ユーザー設備に応じた好適な監視領域を設定することができる。
図1は、本発明の実施の形態におけるロボットの概略構成を示す図である。 図2は、本発明の実施の形態におけるロボット制御方法のフローチャートである。 図3Aは、本発明の実施の形態における球モデルを説明するための図である。 図3Bは、本発明の実施の形態におけるカプセルモデルを説明するための図である。 図4は、本発明の実施の形態におけるロボット監視モデルについて説明するための図である。 図5は、本発明の実施の形態における監視領域を説明するための図である。 図6Aは、本発明の実施の形態におけるロボット監視モデルと監視領域との接触について説明するための図である。 図6Bは、本発明の実施の形態におけるロボット監視モデルと監視領域との接触について説明するための図である。 図6Cは、本発明の実施の形態におけるロボット監視モデルと監視領域との接触について説明するための図である。 図7は、本発明の実施の形態におけるロボット座標系とユーザー座標系とを説明するための図である。 図8Aは、ロボット監視モデルと監視領域との関係を説明するための図である。 図8Bは、ロボット監視モデルと監視領域との関係を説明するための図である。 図9は、ロボット座標系とユーザー座標系との設定について説明するための図である。 図10は、監視領域をユーザー座標系をベースに回転変換した場合を説明するための図である。 図11は、ロボット監視モデルと監視領域との関係を説明するための図である。
 以下、本発明の実施形態について、図面を参照しながら説明する。
 図1は本実施形態におけるロボットの概略構成を示す図である。ロボットは、6軸の関節を有するロボットアーム6を備えたロボット本体1と、ロボットアーム6の動作を制御する制御装置2と、ロボット本体1および制御装置2をつなぐ接続ケーブル9とを有する。また、ディスプレイ付きの操作装置3は、制御装置2との間で通信を行い、ロボットアーム6の動作設定や動作制御等を行う。
 ロボット本体1は、ロボットアーム6を動作させるための複数のモータ4と、各モータ4の回転量を検出するための複数のエンコーダ5とを備える。ロボット本体1は、制御装置2に各モータ4の位置情報をフィードバックしている。
 制御装置2は、制御装置2を制御するためのCPU7と、読み取りおよび書き込みが可能なRAM8とを有している。RAM8は、ロボットの操作者が操作装置3によって作成したロボットの教示プログラムやロボットの機能設定等を格納している。また、RAM8には、ロボット本体1への位置指令などを保存することもできる。また、制御装置2は、サーボドライバ10とセーフティユニット11とを備える。CPU7はサーボドライバ10に動作指令を行うことで、サーボドライバ10がモータ4を制御する。また、セーフティユニット11はエンコーダ5の情報とCPU7からの動作指令とを受けてエンコーダ5が故障していないかを判断している。
 次に、制御装置2によるロボット制御方法について説明する。本実施形態におけるロボット制御方法は、ロボット監視モデルと監視領域とを用いて行う、ロボットの安全を確保するための方法である。具体的に、本実施の形態では、ロボット本体1は監視領域の内部で動作するように制御される。すなわち、ロボット本体1が監視領域の外部に出た場合には、ロボット本体1の動作が停止される。
 図2は、ロボット制御方法のフローチャートである。本実施形態では制御装置2がロボット本体1を起動する。その後、セーフティユニット11がロボット監視モデルと監視領域との接触を判定して、ロボット本体1を停止させる。
 まず、ステップST1で制御装置2がロボット本体1を起動し、ついでステップST2で制御装置2はロボット本体1を動作(移動や停止など)させ、ステップST3に進む。
 以降のステップST3~ST9はセーフティユニット11が周期的に実施する処理である。
 ステップST3において、セーフティユニット11はエンコーダ5からエンコーダデータを取得する。ステップST4で、セーフティユニット11は取得したエンコーダデータとモータ4の各軸の減速比とモータ原点情報とからモータ4の角度を計算し、モータ4の角度から更にモータ4の位置を計算する。
 ステップST5において、セーフティユニット11はステップST4で計算したモータ位置に基づいてロボットの座標系(以下、「ロボット座標系」という)におけるロボット監視モデルおよび監視領域の位置を計算する。
 ここで、そのロボット監視モデルおよび監視領域の位置の計算について具体的に説明する。
 ロボット監視モデルは、ロボット本体1を覆うように、球状の3次元モデル(以下、「球モデル」という)とカプセル状の3次元モデル(以下、「カプセルモデル」という)とを複数組み合わせて構成されている。ここで、ロボット監視モデルは、球モデルおよびカプセルモデルが複数組み合わされて構成された立体形状の外殻である。図3Aに示すように、球モデル35は中心位置P0と球の半径Rとで構成される。図3Bに示すように、カプセルモデル36は2つの構成点P1およびP2とカプセルの半径R1とで構成される。
 図4は複数の3次元モデルから構成したロボット監視モデルを示している。ロボット本体1は6軸の関節を有し、各モータ4は第1軸位置37、第2軸位置38、第3軸位置39、第4軸位置40、第5軸位置41、第6軸位置42に配置されている。そして、ロボット監視モデルは、ロボット本体1を覆うように、カプセルモデル43、カプセルモデル44、カプセルモデル45、付帯機器モデル46およびツールモデル47から構成される。
 カプセルモデル43は、第1軸位置37と第2軸位置38とを覆い、半径はr1である。カプセルモデル44は、第4軸位置40と第5軸位置41とを覆い、半径はr2である。カプセルモデル45は、第5軸位置41と第6軸位置42とを覆い、半径はr3である。付帯機器モデル46は、付帯機器を覆う球モデルであって、その中心位置は第3軸位置からのシフト量がs1であり、その半径はr4である。ツールモデル47は、複数のカプセルモデルと球モデルとを組み合わせて構成されている。
 図2のステップST5のロボット監視モデル計算では、まずロボットアーム6の長さと、ステップST4において算出した各軸の角度とから、各モータのロボット座標系における3次元上の位置を計算する。
 次に、カプセルモデル43の構成点として第2軸位置38と第3軸位置39とを設定し、半径r1を設定する。同様に、カプセルモデル44の構成点として第4軸位置40と第5軸位置41とを設定し、半径r2を設定する。同様に、カプセルモデル45の構成点として第5軸位置41と第6軸位置42とを設定し、半径r3を設定する。付帯機器モデル46は、中心位置を第3軸位置39からのシフト量s1に設定し、半径r4に設定する。ツールモデル47は第6軸位置42を基準として、球モデルおよびカプセルモデルの構成点と半径とを設定する。
 各モデル43~47の値r1~r4、s1等については、本制御フローの開始前に予め標準値が設定されているが、ユーザーが操作装置3を用いて値を変更することも可能となっている。
 図5は、監視領域を説明するための図である。監視領域は構成点Q1、Q2を対角とする直方体として構成される。この2点は本制御フローの開始前にユーザーが操作装置3を使用してロボット座標系上の2点Q1、Q2のXYZ座標を入力して設定している。ここでは、(Q2のZ軸の座標値)>(Q1のZ軸の座標値)としている。ステップST5ではその設定値を用いて監視領域の位置を計算している。
 図2のフローチャートでは、ステップST5後、ステップST9に進み、ロボット監視モデルをユーザー座標系に変換した後、ステップST6に進む。しかし、ここでは便宜上、ステップST9の説明よりも先にステップST6以降の説明を行う。
 ステップST6において、ロボット監視モデルと、ロボット座標系に平行に設定した監視領域との接触を判定する。ここで、ロボット座標系と監視領域とが平行であるとは、ロボット座標系のX軸、Y軸、Z軸がユーザー設備のX軸、Y軸、Z軸に対してそれぞれ平行であることである。したがって、「ロボット座標系に平行に設定した監視領域」とは、監視領域のX軸がロボット座標系のX軸に平行であり、且つ、監視領域のY軸がロボット座標系のY軸と平行であり、且つ、監視領域のZ軸がロボット座標系のZ軸と平行である状態の監視領域のことである。
 ここで、球モデルを例に接触判定について説明する。図6Aは、ロボット座標系50のZ軸+側から見た図である。この例では、ロボット監視モデルである球モデル49が監視領域48の内部に存在するパターンを示している。球モデル49の半径はRであり、中心座標はP0(x,y,z)である。
 なお、この監視領域48は図5と同様に構成点Q1(x1,y1,z1)とQ2(x2,y2,z2)とによって構成されており、監視領域48の内部を安全領域として設定している。すなわち、監視領域48の内部では、ロボット本体1は自由に動作することが可能である。
 球モデル49が監視領域48内にある場合、図6Aから分かるように、球モデル49の中心座標P0に関して下記の式が成り立つ。
  x1+R<x<x2-R   (式1)
  y1+R<y<y2-R   (式2)
  z1+R<z<z2-R   (式3)
 これらの3条件が成立する場合に球モデル49は監視領域48の内部に存在する。なお、球モデル49が監視領域48の外に出ているパターンを図6Bに示しているが、この場合は(式1)の右辺x<x2-Rが成立していないことが分かる。
 このように、ステップST6の接触判定では、ステップST5で設定した各ロボット監視モデルの構成点および半径と監視領域の構成点とに基づいて判定を行う。そして、上記の3条件が成立しない場合、すなわち、球モデル49が監視領域48の境界面に接触している場合、および、球モデル49の少なくとも一部が監視領域48の外部に出ている場合に、非安全と判定している。
 なお、カプセルモデルについても基本的な考えは球モデルと同様であり、セーフティユニット11は、カプセルモデルと監視領域との距離に基づき安全または非安全を判定している。
 次に、ステップST7において、ロボット監視モデルと監視領域との接触の判定の結果、ロボット監視モデルと監視領域の関係が安全と判定すれば、ステップST3に戻る。ロボット監視モデルと監視領域との関係が非安全と判定すれば、ステップST8に進み、ロボット本体1に非常停止をかけて、ロボット本体1の動作を停止させる。
 以上の制御フローは、ロボット座標系のみを用いて安全または非安全を判定し、その結果に基づいてロボットを制御している。これは、一般的に行われている制御方法である。本実施形態では、ステップST5とステップST6の間にさらにステップST9を追加している。
 このステップST9ではロボット監視モデルをユーザーが指定した座標系に基づいて変換する計算をおこなっている。このステップST9での変換について詳細に説明する。
 図7ではロボット座標系24とユーザーが自由に指定するユーザー座標系23とを示している。ロボット監視モデルの構成点Pは、ユーザー座標系23から見た場合とロボット座標系24から見た場合とで同じ位置を示すことから、(式4)の関係性がなりたつ。
Figure JPOXMLDOC01-appb-M000001
 この式を変形することで(式5)が導出される。ユーザー座標系23でのロボット監視モデルの位置関係は(式5)で表現できる。
Figure JPOXMLDOC01-appb-M000002
 ステップST9においてはステップST5で計算したロボット監視モデルの位置に対して、(式5)の変換計算を行うことで、ユーザー座標系上からみたロボット監視モデルの位置へと変換している。そして変換したロボット監視モデルと監視領域との接触判定をステップST6でおこなうことになる。
 このように、ロボット座標系24とは関係ないユーザー座標系23を設定し、そのユーザー座標系23に応じて監視領域が平行あるいは回転移動できるようにすることで、最適な監視領域を設定できるようにし、ロボットの動作範囲を無駄に制限せずに最適な設定とすることができる。
 なお、上記ではロボット監視モデルをユーザー座標系に変換する例を説明したが、例えば監視領域をユーザー座標系に変換することも考えられる。しかし、この場合は従来からおこなっていたステップST6での計算処理を変更する必要があるため、既存処理への影響が大きくなってしまう。
 この監視領域をユーザー座標系に変換する場合について説明する。図8Aは、監視領域26とロボット監視モデル27とをロボット座標系25のZ軸+側から見た図を示している。説明を簡単にするために、監視領域26をロボット座標系25のZ軸まわりにθだけ回転させる場合を考える。
 監視領域26を回転させるためのユーザー座標系28(Xu,Yu,Zu)を図9に示す。ユーザー座標系28では、Zuをロボット座標系25のZ方向と同じ向きに設定する。Xu,Yuは、ロボット座標系25のX軸,Y軸から+θ回転するように設定する。また、図9に記載のU0、U1およびU2は、それぞれユーザー座標系28の構成点である。
 このユーザー座標系28はユーザーが操作装置3を使用し、ロボット座標系の3点のXYZ位置を入力する、または制御装置2で登録している3点を指定することにより作成される。
 図10は破線で表示した監視領域26をユーザー座標系28を基準に回転させた場合の変換後の監視領域33を示している。しかしながら前述したように、図10のように監視領域26を監視領域33に変換する操作を行う場合、図2のフローチャートにおけるステップST6の処理が使えなくなる。なぜなら、ステップST6の計算は、監視領域がロボット座標系と平行に配置された場合を前提にしているからである。
 具体例として、図6Aの監視領域48をZ軸まわりにθ回転した場合の変換後の監視領域52と球モデル49との関係を図6Cに示している。この図から分かるように、X方向またはY方向において、球モデル49の中心から安全と非安全とを分ける監視領域48の境界面までの距離は、球の半径Rよりも大きい。そのため、球モデル49が監視領域48内に存在する場合の判定式である(式1)および(式2)を満たしている。それにも関わらず、球モデル49の一部は監視領域48外に出ている。球モデル49の一部が監視領域48の外部に出ていれば、それは非安全と判定されるべきである。
 そこで、本実施形態では、(式5)の変換計算をロボット監視モデルに対してのみ行い、監視領域は変更しない。そのため、ロボット監視モデルの位置のみが変わるので、ステップST6の判定処理は変更しないで済むようになる。
 この時のロボット監視モデルと監視領域との位置関係を示したものが図8Bである。図8Bは、監視領域26は変更せず、変換処理をロボット監視モデルに対してのみ行った場合の変換後のロボット監視モデル34を示している。
 図8Bのロボット監視モデル27と監視領域26との位置関係は図10で監視領域を変換した場合の位置関係と一致している。しかし、監視領域26はロボット座標系25と平行に配置されているため、従来の計算処理をそのまま使用しながら、変換したロボット監視モデルで接触判定をすることができることが分かる。
 さらにロボット監視モデルの座標を変換したくない場合は(式5)の同次変換行列を単位行列とすることによって、ロボット監視モデルの座標を変換しないことができる。そのため、ステップST9の変換計算は常時行うことが可能である。
 以上のように、本実施形態では、監視領域の座標変換を実現するため従来の判定処理を使用することができることにより、製品としての品質を維持することができ、動作確認にかかる評価工数を削減できるといったメリットがある。
 仮に判定処理(ステップST6)を変更した場合は変更後も判定処理が従来と同様に正しく動作することを確認する必要がある。また、新たに追加した変換計算が正しく行えることも確認する必要がある。しかし、本実施形態のロボット制御方法は、従来の判定処理を流用できるので、判定処理については確認が不要であり、従来と同じ品質を維持できる。本実施形態のロボット制御方法は、新たに追加した変換計算の確認のみ行えばよいので、確認工数を削減しつつ、製品品質の維持が可能となる。
 さらに変換計算をする、しないといった処理上の分岐もしなくてよくなるため、さらに確認工数が少なくてすむ。
 以上説明したように、本実施形態のロボット制御方法は、制御装置2がロボット本体1を起動させ、動作させたあとに、制御装置2内のセーフティユニット11がST3~ST9までの処理を繰り返し実行する。セーフティユニット11は、ロボット監視モデルと監視領域との接触判定を行い、ロボット本体1を停止させる処理を行うことでロボットシステムの安全を確保している。
 このようにして、本発明の実施の形態のロボット制御方法は、ロボット座標系とは関係なく基準座標系を設定し、その基準座標系に応じて監視領域が平行あるいは回転移動できる。したがって、製品としての品質を維持しながら、監視領域を自由に配置(回転や併進移動)させることができる。そのため、ユーザー設備に応じた最適な監視領域を設定することができ、その結果、ロボットの動作自由度や動作範囲を無駄に制限することなく、安全を確保することができる。
 また、本発明の実施の形態のロボット制御方法は、監視領域を設定したい座標系を設定し、その座標系上から見たロボット監視モデルの位置をロボット座標系へと変換する。これにより、既存のロボット座標系上でのロボット監視モデルと監視領域との判定処理を変更することなく、監視領域を自由に設置できる。
 例えば、監視領域の外部にはユーザーが作業を行うためのユーザー設備が設置されている。ユーザーは、ユーザー設備の安全を確保できれば、ロボット監視モデルを任意の座標系に変換することができる。そのため、本来であればロボットが停止していた位置でもロボットを動作させることが可能となる。
 すなわち、本発明の実施の形態によると、ユーザー設備に応じた最適な監視領域が設定できることになり、ロボットは必要最低限の制限で動作が可能となり、安全を確保しながら、設備の使用効率を上げることができる。
 なお、上記説明においてセーフティユニット11がステップST3~ST9の処理を実施したが、制御装置2のCPU7が実施してもよい。
 また、上記説明において、ロボット監視モデルは、ロボットの周囲に対する安全対策として必要な範囲を覆うことができれば、ロボット本体1の少なくとも一部を覆うように設定されてもよい。
 本発明のロボット制御方法を用いることで、ロボットの監視領域を自由に設定できることにより、設備に応じた最適な領域が設定できることになり、溶接ロボットや切断ロボットなどに適用可能である。
 1 ロボット本体
 2 制御装置
 3 操作装置
 4 モータ
 5 エンコーダ
 6 ロボットアーム
 7 CPU
 8 RAM
 9 接続ケーブル
 10 サーボドライバ
 11 セーフティユニット
 23 ユーザー座標系
 24,25 ロボット座標系
 26 監視領域
 27 ロボット監視モデル
 28 ユーザー座標系
 33 変換後の監視領域
 34 変換後のロボット監視モデル
 35 球モデル
 36 カプセルモデル
 37 第1軸位置
 38 第2軸位置
 39 第3軸位置
 40 第4軸位置
 41 第5軸位置
 42 第6軸位置
 43,44,45 カプセルモデル
 46 付帯機器モデル
 47 ツールモデル
 48 監視領域
 49 球モデル
 50 ロボット座標系
 52 変換後の監視領域
 100 ロボット
 200 3次元モデル
 300 安全領域
 400 非安全領域

Claims (2)

  1.  ロボットの少なくとも一部を覆う領域であるロボット監視モデルを設定し、
     前記ロボットの動作可能範囲を監視するための監視領域を、前記ロボットの座標系に平行に設定し、
     前記ロボット監視モデルに含まれる任意の点である構成点の位置を、前記ロボットの座標系とは異なる座標系における位置に変換し、
     変換後の前記構成点の位置を用いて、前記ロボット監視モデルが前記監視領域の境界面に接触するか否かを判定し、
     接触する場合は前記ロボットの動作を停止させる
     ロボット制御方法。
  2.  ロボット本体と、
     前記ロボット本体を制御する制御装置とを備えるロボットであって、
     前記制御装置は、
     前記ロボット本体の少なくとも一部を覆う領域であるロボット監視モデルを設定し、
     前記ロボット本体の動作可能範囲を監視するための監視領域を、前記ロボット本体の座標系に平行に設定し、
     前記ロボット監視モデルに含まれる任意の点である構成点の位置を、前記ロボットの座標系とは異なる座標系における位置に変換し、
     変換後の前記構成点の位置を用いて、前記ロボット監視モデルが前記監視領域の境界面に接触するか否かを判定し、
     接触する場合は前記ロボット本体の動作を停止させる
     ロボット。
PCT/JP2018/004357 2017-02-13 2018-02-08 ロボット制御方法およびロボット WO2018147359A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018567485A JP6917551B2 (ja) 2017-02-13 2018-02-08 ロボット制御方法およびロボット
EP18752067.1A EP3581348A4 (en) 2017-02-13 2018-02-08 ROBOT CONTROL METHOD AND ROBOT
CN201880010428.0A CN110267778B (zh) 2017-02-13 2018-02-08 机器人控制方法以及机器人
US16/517,741 US11230009B2 (en) 2017-02-13 2019-07-22 Robot control method and robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-023748 2017-02-13
JP2017023748 2017-02-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/517,741 Continuation US11230009B2 (en) 2017-02-13 2019-07-22 Robot control method and robot

Publications (1)

Publication Number Publication Date
WO2018147359A1 true WO2018147359A1 (ja) 2018-08-16

Family

ID=63108374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004357 WO2018147359A1 (ja) 2017-02-13 2018-02-08 ロボット制御方法およびロボット

Country Status (5)

Country Link
US (1) US11230009B2 (ja)
EP (1) EP3581348A4 (ja)
JP (1) JP6917551B2 (ja)
CN (1) CN110267778B (ja)
WO (1) WO2018147359A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516051A (ja) * 2018-12-21 2022-02-24 フランカ エーミカ ゲーエムベーハー ロボットマニピュレータの動作監視

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118302275A (zh) * 2021-09-29 2024-07-05 盖奥托自动化股份公司 用于机器人化***的在直接教学期间的安全控制的方法和相关的机器人化***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002292582A (ja) * 2001-03-30 2002-10-08 Hitachi Zosen Corp 作業用ロボット装置
JP2010188515A (ja) * 2009-01-26 2010-09-02 Fanuc Ltd 人間とロボットとの協調動作領域を有する生産システム
JP2011212831A (ja) * 2010-03-15 2011-10-27 Yaskawa Electric Corp ロボットシステム
JP2012020388A (ja) * 2010-07-16 2012-02-02 Fuji Electric Co Ltd ロボットシステムおよびロボット制御方法
JP2016059980A (ja) 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59189415A (ja) * 1983-04-13 1984-10-27 Hitachi Ltd 工業用ロボツトの動作教示方法および装置
JPH0337701A (ja) 1989-07-05 1991-02-19 Toshiba Corp ロボットの制御方法及び装置
JP3402645B2 (ja) 1993-02-24 2003-05-06 株式会社東芝 ロボットの干渉判定方法
US6898484B2 (en) * 2002-05-01 2005-05-24 Dorothy Lemelson Robotic manufacturing and assembly with relative radio positioning using radio based location determination
US7266425B2 (en) * 2004-09-30 2007-09-04 Rockwell Automation Technologies, Inc. Systems and methods that facilitate motion control through coordinate system transformations
JP4645601B2 (ja) * 2007-02-13 2011-03-09 トヨタ自動車株式会社 環境地図の生成方法及び移動ロボット
CN101888920B (zh) * 2007-12-07 2012-10-03 株式会社安川电机 机器人动作限制方法、机器人***和机器人动作限制装置
JP4938118B2 (ja) * 2010-08-17 2012-05-23 ファナック株式会社 人間協調ロボットシステム
KR20140015802A (ko) * 2012-07-25 2014-02-07 현대중공업 주식회사 로봇 시스템의 충돌 방지 방법
JP5785284B2 (ja) * 2014-02-17 2015-09-24 ファナック株式会社 搬送対象物の落下事故を防止するロボットシステム
JP6457208B2 (ja) 2014-07-03 2019-01-23 川崎重工業株式会社 ロボットへの動作指示システム及び動作指示方法
JP6126067B2 (ja) * 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002292582A (ja) * 2001-03-30 2002-10-08 Hitachi Zosen Corp 作業用ロボット装置
JP2010188515A (ja) * 2009-01-26 2010-09-02 Fanuc Ltd 人間とロボットとの協調動作領域を有する生産システム
JP2011212831A (ja) * 2010-03-15 2011-10-27 Yaskawa Electric Corp ロボットシステム
JP2012020388A (ja) * 2010-07-16 2012-02-02 Fuji Electric Co Ltd ロボットシステムおよびロボット制御方法
JP2016059980A (ja) 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3581348A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516051A (ja) * 2018-12-21 2022-02-24 フランカ エーミカ ゲーエムベーハー ロボットマニピュレータの動作監視

Also Published As

Publication number Publication date
CN110267778A (zh) 2019-09-20
EP3581348A1 (en) 2019-12-18
US11230009B2 (en) 2022-01-25
EP3581348A4 (en) 2020-05-13
US20190337156A1 (en) 2019-11-07
CN110267778B (zh) 2022-04-22
JPWO2018147359A1 (ja) 2019-12-12
JP6917551B2 (ja) 2021-08-11

Similar Documents

Publication Publication Date Title
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP6309990B2 (ja) 複数の機構ユニットにより構成されたロボットを制御するロボットシステム、該機構ユニット、およびロボット制御装置
EP3342542A1 (en) Industrial remote control robot system
US9919421B2 (en) Method and apparatus for robot path teaching
US10427298B2 (en) Robot system displaying information for teaching robot
US8977392B2 (en) Robot control device, robot control method, robot control program, and robot system
EP2660014B1 (en) Control device and teaching method for seven-shaft multi-joint robot
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
JP5872894B2 (ja) ロボット動作教示支援装置及び方法
US20150298318A1 (en) Teleoperation Of Machines Having At Least One Actuated Mechanism
US10421193B2 (en) Robot system
JP2004351570A (ja) ロボットシステム
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2009274148A (ja) シミュレーション装置
WO2015137162A1 (ja) 制御装置、ロボットシステム、および制御用データ生成方法
WO2018147359A1 (ja) ロボット制御方法およびロボット
JP5878750B2 (ja) ロボットの動作規制方法及び装置
JPS6044293A (ja) 産業用ロボットの制御装置
JP2021146435A (ja) ロボットシステム、ロボットシステムで実行される方法および教示データを生成する方法
CN214025708U (zh) 一种直观的工业机器人示教***
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
JP2012228736A (ja) オフライン教示データ作成方法、及びオフライン教示データ作成システム
JP2016175174A (ja) ロボット操作装置、及びロボット操作プログラム
JP2005335000A (ja) 人間介入型ロボットの制御装置
WO2021210514A1 (ja) ロボットの制御装置及び制御方法、ロボットシステム、ロボットの動作プログラムを生成する装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18752067

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018567485

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018752067

Country of ref document: EP