WO2014129110A1 - ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム - Google Patents

ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム Download PDF

Info

Publication number
WO2014129110A1
WO2014129110A1 PCT/JP2014/000353 JP2014000353W WO2014129110A1 WO 2014129110 A1 WO2014129110 A1 WO 2014129110A1 JP 2014000353 W JP2014000353 W JP 2014000353W WO 2014129110 A1 WO2014129110 A1 WO 2014129110A1
Authority
WO
WIPO (PCT)
Prior art keywords
holding
unit
robot arm
robot
contact
Prior art date
Application number
PCT/JP2014/000353
Other languages
English (en)
French (fr)
Inventor
真弓 小松
岡▲崎▼ 安直
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2015501306A priority Critical patent/JP5942311B2/ja
Publication of WO2014129110A1 publication Critical patent/WO2014129110A1/ja
Priority to US14/551,519 priority patent/US9242380B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36429Power assisted positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Definitions

  • the present invention relates to a power assist type robot that assists in conveying an object, a control device and control method for a robot that controls the operation of the robot, and a control program for the robot.
  • the robot In order to switch from a state where an object is not conveyed to a state where an object is conveyed, the robot needs to contact the object for holding. However, when the robot is brought into contact with an object in the power assist robot, a force in a direction not intended by the person is detected by the force detection unit. As described above, when a force in a direction not intended by a person is detected, the robot may move in an unintended direction or it may be difficult to press the robot against an object. There was a problem.
  • Patent Document 1 In such a power assist robot that holds an object, the prior art limits the direction of the assist device according to the direction of the operating force, and controls a control method that makes the held object (work) easily move along the target.
  • Patent Document 1 does not define an operation for making a safe contact when holding a holding object, and has a problem in safety when holding an object.
  • a predetermined target trajectory direction is required when holding a holding object. Therefore, there is a problem that it is difficult to apply the technique of Patent Document 1 in holding an object with a power assist robot in which a person changes the operation according to the situation of the person while operating the person. .
  • An object of the present invention is to provide a robot, a robot control device and control method, and a robot control program that can hold the object while safely operating the robot when the object is held, solving the above-described conventional problems There is to do.
  • the present invention is configured as follows.
  • a robot having a robot arm and transporting an object in cooperation with a person, A holding unit that is provided in the robot arm and holds the object; A contact detection unit that detects contact between the holding unit and the object; A contact state detection unit that detects a distance between the object and the holding unit as a contact state at the time of contact; A holding operation selection unit that switches the operation of the robot arm during holding depending on the contact state detected by the contact state detection unit; An operation control unit for operating the robot arm according to the force applied to the robot arm by the person, When the contact is detected by the contact detection unit, the robot arm is temporarily stopped, and thereafter, the holding operation selection unit is a distance from the object in contact with the robot arm or the person is on the robot arm. Select one of stop continuation operation, operation with direction restriction, and operation without direction restriction based on force or both information, and hold by realizing the selected operation by the operation control unit Provide a robot that performs motion.
  • the object in a robot that conveys an object in cooperation with a person, the object can be safely held even if the holding object and the robot arm contact when holding the object.
  • FIG. 1 is a diagram showing an outline of a robot system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing a configuration of the robot system according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a part of the robot control apparatus and the control target robot according to the first embodiment of the present invention,
  • FIG. 4 is a flowchart showing the operation steps of the holding operation selection unit in the first embodiment of the present invention.
  • FIG. 5A is a plan view showing an example of the positional relationship between the robot and the holding object in the first embodiment of the present invention;
  • FIG. 1 is a diagram showing an outline of a robot system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing a configuration of the robot system according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a part of the robot control apparatus and the control target robot according to the first embodiment of the present invention
  • FIG. 4 is a flowchart showing the operation
  • FIG. 5B is a perspective view showing the above example of the positional relationship between the robot and the holding object in the first embodiment of the present invention
  • FIG. 6A is a plan view showing another example of the positional relationship between the robot and the holding object in the first embodiment of the present invention
  • FIG. 6B is a perspective view showing another example of the positional relationship between the robot and the holding object in the first embodiment of the present invention
  • FIG. 7 is a flowchart showing the operation steps of the control device according to the first embodiment of the present invention.
  • FIG. 8 is a diagram showing an outline of a robot system using the pneumatic artificial muscle according to the first embodiment of the present invention as an actuator
  • FIG. 9 is a diagram showing the structure and operation of the elastic expansion / contraction structure according to the first embodiment of the present invention.
  • FIG. 10A is a diagram illustrating an example of a direction in which the robot arm according to the first embodiment of the present invention holds a holding object
  • FIG. 10B is a diagram illustrating an example of a direction in which the robot arm according to the first embodiment of the present invention holds a holding object
  • FIG. 11A is a diagram illustrating an example of a direction in which the robot arm of the hand structure according to the first embodiment of the present invention holds a holding object
  • FIG. 11B is a diagram illustrating an example of a direction in which the robot arm of the hand structure according to the first embodiment of the present invention holds a holding object
  • FIG. 12A is a diagram illustrating an example of a final approach movement direction when the robot arm holds a holding object in the first embodiment of the present invention
  • FIG. 12B is a diagram illustrating an example of a final approach movement direction when the robot arm holds a holding object in the first embodiment of the present invention.
  • a robot having a robot arm and transporting an object in cooperation with a person, A holding unit that is provided in the robot arm and holds the object; A contact detection unit that detects contact between the holding unit and the object; A contact state detection unit that detects a distance between the object and the holding unit as a contact state at the time of contact; A holding operation selection unit that switches the operation of the robot arm during holding depending on the contact state detected by the contact state detection unit; An operation control unit for operating the robot arm according to the force applied to the robot arm by the person, When the contact is detected by the contact detection unit, the robot arm is temporarily stopped, and thereafter, the holding operation selection unit is a distance from the object in contact with the robot arm or the person is on the robot arm. Select one of stop continuation operation, operation with direction restriction, and operation without direction restriction based on force or both information, and hold by realizing the selected operation by the operation control unit Provide a robot that performs motion.
  • the robot arm in a robot that conveys an object in cooperation with a person, even when contact between the holding object and the robot arm occurs when holding the object, the robot arm is operated safely.
  • the object can be held safely.
  • the contact detection unit detects a direction in which the robot arm and the object are in contact with each other, Only when the direction detected by the contact detection unit is a direction in which the robot arm holds the object, the holding operation selection unit determines whether the distance from the object that has contacted the robot arm or the person is the robot arm.
  • a robot which selects a human cooperative operation with the direction restricted or a human cooperative operation without the restriction based on information on the force applied to the power or both.
  • the robot arm when the robot arm contacts the object and a person contacts for the purpose of holding, the robot arm is not obstructed by the selection operation by the holding operation selection unit. Can move the robot arm in the direction to hold the object to correct the positional deviation of the holding part with respect to the object. The object can be safely held by smoothly operating the robot arm without being disturbed by the selection operation by the operation selection unit.
  • the contact detection unit detects the direction of the force applied by the person to the robot arm, When the direction detected by the contact detection unit is a direction approaching in the final approach operation when the holding unit holds the object, the holding operation selection unit selects an operation that restricts the direction, and the contact When the direction detected by the detecting unit is not the approaching direction in the final approaching operation when the holding unit holds the object, the holding operation selecting unit selects the operation without restriction in the direction.
  • a robot according to an aspect of the present invention is provided.
  • the operation direction is limited to the direction approaching the object. Therefore, a stable approaching operation can be realized, and the object to be held can be securely held by the holding unit, and at the same time, a person applies force to the robot arm not only in the direction of holding the object but also in other directions.
  • the robot arm can be operated smoothly without being disturbed by the selection operation by the holding operation selection unit. It can be held safely.
  • the holding operation selecting unit selects an operation in which the direction is limited, Any one of the first to third aspects in which the holding operation selection unit selects an operation with no restriction in the direction when the distance between the object detected by the contact state detection unit and the holding unit is equal to or greater than the threshold value.
  • the robot arm is in the vicinity of the object to be held, and if the object to be held can be reliably held by the holding unit by performing the final approach operation (between the object and the holding unit)
  • the distance is smaller than the above threshold value
  • the object to be held can be securely held by the holding unit
  • the robot arm is not in the vicinity of the object to be held (the object and the holding unit). Since the position of the robot arm can be corrected in any direction, the object to be held can be reliably held by the holding unit.
  • the robot according to any one of the first to fourth aspects, wherein the holding unit is a hand having a suction pad.
  • the suction pad when the suction pad is brought into contact with the object to be held for the purpose of holding the object, it is not in a state of being merely in contact but in order to generate a necessary suction pressure. Is often required.
  • the contact detection unit detects contact between the object and the holding unit of the robot arm
  • the robot arm temporarily stops its operation, and then the holding operation selection unit detects the object that has contacted the robot arm. Based on the distance between the robot and the force the person is applying to the robot arm, or both, one of the continuous stop motion, the motion with limited direction, and the motion without direction limitation is appropriately selected and selected.
  • the robot arm provides the robot according to any one of the first to fifth aspects having a flexible structure.
  • the robot arm when a person is applying force to the robot arm, the robot arm is moved to a position slightly ahead of the original position of the robot arm. The arm is actually positioned, and when the hand is released, the robot arm tends to return to its original position. Even in such a case, when the contact between the object and the robot arm is detected by the contact detection unit, the robot arm temporarily stops the operation, and then the holding operation selection unit determines the distance from the object in contact with the robot arm. Or, depending on the information that the person is applying to the robot arm or both, select one of the continuous stop motion, the motion with limited direction, and the motion without direction limitation, and operate the selected motion. By realizing by the control unit, the holding target object can be reliably held by the holding unit.
  • the robot according to any one of the first to fifth aspects, wherein the robot is an actuator using pneumatic artificial muscle.
  • the robot when the robot is an actuator using a pneumatic artificial muscle, the robot has a flexible structure, and therefore, the same effect as in the fifth aspect can be obtained.
  • the holding operation selection unit selects an operation in which the direction is limited
  • the holding unit operates only in the approaching direction in the final approach operation when holding the object.
  • the robot arm moves in the direction in which the movement direction approaches the object even if a force in a direction not intended by the person is detected by the contact detection unit due to contact with the object for holding the object. Therefore, a stable approaching operation can be realized, and the object to be held can be reliably held by the holding unit.
  • the contact detection unit includes a direction perpendicular to a surface of the holding unit of the robot arm facing the object and a direction detected by the contact detection unit.
  • a robot according to a second aspect is provided that detects that the robot arm is in a direction of holding the object when the angle is smaller than a threshold value.
  • the direction of the force applied by the person to the robot arm is opposed to the holding unit among the objects on the surface of the holding unit facing the object.
  • the angle formed by the direction in which the distance between the point closest to the surface and the surface of the object facing the holding portion is the shortest distance and the perpendicular of the surface of the holding portion facing the object is the threshold value.
  • the holding direction is possible even if the person moves the robot arm in a direction slightly deviating from the approaching direction. Then, by detecting that the direction can be held, a stable approaching operation can be realized, and the holding target object can be reliably held by the holding unit.
  • the holding operation selecting unit selects an operation without restriction in the direction, any one of the first to tenth that operates in all directions in which the robot arm can operate.
  • the robot arm is not limited in direction when the object to be held and the holding part of the robot arm are not in a positional relationship that can be held even if the holding part moves in a direction approaching the object. Since the position of the robot arm can be corrected in an arbitrary direction by selecting the operation, the holding target object can be reliably held by the holding unit.
  • a control device for a robot having a robot arm and transporting an object in cooperation with a person,
  • a contact detection unit that detects contact between the holding unit and the object when the object is held by the holding unit provided in the robot arm;
  • a contact state detection unit that detects a distance between the object and the holding unit as a contact state at the time of contact;
  • a holding operation selection unit that switches the operation of the robot arm during holding depending on the contact state detected by the contact state detection unit;
  • the selected operation is realized by the operation control unit.
  • a robot control device that performs control to perform a holding operation.
  • the robot arm in a robot that conveys an object in cooperation with a person, even when contact between the holding object and the robot arm occurs when holding the object, the robot arm is operated safely.
  • the object can be held safely.
  • a control method for a robot having a robot arm and transporting an object in cooperation with a person
  • the contact detection unit detects contact between the holding unit and the object
  • the contact state detection unit detects the distance between the object and the holding unit as the contact state at the time of contact
  • the operation of the robot arm at the time of holding is switched by the holding operation selecting unit according to the contact state detected by the contact state detecting unit
  • the robot arm is operated by the motion control unit according to the force applied to the robot arm by the person,
  • the holding operation selection unit is a distance from the object in contact with the robot arm or the person is on the robot arm.
  • a person cooperative operation with restricted directions, and an unrestricted human cooperative operation based on the information of force or both By selecting one of a stop continuation operation, a person cooperative operation with restricted directions, and an unrestricted human cooperative operation based on the information of force or both, and realizing the selected operation by the operation control unit.
  • the robot arm in a robot that conveys an object in cooperation with a person, even when contact between the holding object and the robot arm occurs when holding the object, the robot arm is operated safely.
  • the object can be held safely.
  • a control program for a robot having a robot arm and transporting an object in cooperation with a person Computer
  • a contact detection unit that detects contact between the holding unit and the object when the object is held by the holding unit provided in the robot arm;
  • a contact state detection unit that detects a distance between the object and the holding unit as a contact state at the time of contact;
  • a holding operation selection unit that switches the operation of the robot arm during holding depending on the contact state detected by the contact state detection unit; Function as an operation control unit for operating the robot arm according to the force applied to the robot arm by the person, When the contact is detected by the contact detection unit, the robot arm is temporarily stopped, and thereafter, the holding operation selection unit is a distance from the object in contact with the robot arm or the person is on the robot arm.
  • a robot control program is provided for causing the robot to function so as to perform the holding operation.
  • the robot arm in a robot that conveys an object in cooperation with a person, even when contact between the holding object and the robot arm occurs when holding the object, the robot arm is operated safely.
  • the object can be held safely.
  • FIG. 1 is a diagram showing an outline of the robot system 100 according to the first embodiment of the present invention.
  • the robot 20 of the robot system 100 includes a robot arm 21 and an L-shaped handle 36.
  • the robot arm 21 When the person 91 holds the handle 36 and operates the robot arm 21, the robot arm 21 operates, and the object 30 can be conveyed in cooperation with the person 91.
  • the robot arm 21 has a hand 22 that functions as an example of a holding unit at the tip, and has a function of transporting the object 30 while holding the object 30 with the hand 22.
  • the robot 20 functions as an assist arm for object transportation by the person 91 carrying the object 30 with the robot arm 21 while operating the robot arm 21.
  • FIG. 2 is a diagram showing a configuration of the robot system 100 according to the first embodiment of the present invention.
  • the robot system 100 includes a control device 50 and a robot 20 that is a control target.
  • control device 50 is configured by a general personal computer as an example, and the control device 50 is configured by a control program 40 and an input / output IF 41.
  • the input / output IF (interface) 41 is configured to include, for example, a D / A board, an A / D board, a counter board, and the like connected to an expansion slot such as a PCI bus of a personal computer.
  • the control device 50 is connected to a motor driver 24 that drives each link manipulator of the robot mechanism unit 6 via an input / output IF 41 as an example of an input unit, and sends a control signal to the motor driver 24.
  • the robot 20 includes the robot arm 21 as described above.
  • the structure of the robot arm 21 will be described later.
  • each joint angle information output from an encoder 7 described later of each joint portion of the robot arm 21 is detected and controlled through the counter board of the input / output IF 41.
  • the control command value is calculated by the control device 50 based on each joint angle information fetched by the device 50 and based on the fetched joint angle information.
  • the calculated control command values are given to the motor driver 24 for controlling the joints of the robot arm 21 through the D / A board of the input / output IF 41, and the control command values sent from the motor driver 24 are sent. Accordingly, the motor 23 of each joint portion of the robot arm 21 is driven.
  • the motor driver 24 and the motor 23 function as an example of a drive unit.
  • the encoder 7 functions as an example of an angle detection unit that outputs angle information.
  • the robot arm 21 is a multi-link manipulator having three degrees of freedom as an example, and a hand 22 can be attached to the tip.
  • the robot arm 21 has a third link 31 to which the hand 22 is attached, a second link 32 having the third link 31 at the tip, and a first end rotatably connected to the base end of the second link 32.
  • bed 90 are provided.
  • a handle 36 that the person 91 holds and operates is attached to the tip of the third link 31 via a force sensor 25 that is a kind of force detection unit.
  • the robot arm 21 includes a first joint axis 35-1 that rotates forward and backward in an xy plane including orthogonal x-axis and y-axis, a second joint axis 35-2 that also rotates forward and backward in the xy plane, Similarly, a third joint shaft 35-3 that rotates forward and backward in the xy plane is provided.
  • the first joint axis 35-1, the second joint axis 35-2, and the third joint axis 35-3 are rotation axes of the first joint, the second joint, and the third joint of the robot arm 21, respectively.
  • the robot arm 21 can rotate independently about a total of three axes, ie, the first joint axis 35-1 to the third joint axis 35-3, thereby constituting the multi-link manipulator having three degrees of freedom. ing.
  • Each joint part constituting the rotating part of each shaft has one member of a pair of members (for example, a rotation side member and a support side member supporting the rotation side member) constituting each joint part.
  • a motor 23 (actually disposed inside each joint portion of the robot arm 21) as an example of a rotation driving device that is driven and controlled by a motor driver 24 described later, It includes an encoder 7 (actually disposed inside each joint portion of the robot arm 21) that detects a rotation phase angle (that is, a joint angle) of the rotation shaft. Therefore, the rotation shaft of the motor 23 provided in one member constituting each joint portion is connected to the other member of each joint portion to rotate the rotation shaft forward and backward, thereby causing the other member to move to the other member. It is possible to rotate around each axis with respect to the member.
  • FIG. 3 is a block diagram showing a part of the control device 50 of the robot 20 and the robot 20 to be controlled according to the first embodiment of the present invention.
  • the control device 50 of the robot 20 includes at least a contact detection unit 11, a contact state detection unit 13, a holding operation selection unit 14, and a force control unit 12.
  • the contact detection unit 11 detects contact between the hand 22 and the object 30.
  • the contact state detection unit 13 detects the distance between the object 30 and the robot 20 (hand 22) as an example of the contact state at the time of contact.
  • the holding operation selection unit 14 switches the operation of the robot arm during holding depending on the contact status detected by the contact status detection unit 13.
  • the force control unit 12 operates the robot arm 21 according to the force applied by the person 91 to the robot arm 21.
  • the robot arm 21 is temporarily stopped, and then the holding operation selection unit 14 determines that the distance from the object 30 in contact with the robot arm 21 or the person 91 is the robot arm 21. Selecting one of a stop continuation operation, a direction-restricted operation, and a direction-unrestricted operation according to information on the force applied to the force or both, and realizing the selected operation by the force control unit 12 Hold operation with.
  • the control device 50 includes a target trajectory generation unit 1, a target position addition unit 8, a direction limiting unit 5, an inverse kinematics calculation unit 4, a target angular acceleration calculation unit 2, and a target joint torque calculation unit. 3, an output error calculation unit 9, a corrected target angular acceleration calculation unit 10, a force control unit 12, a contact detection unit 11, a contact state detection unit 13, and a holding operation selection unit 14.
  • the robot 20 includes a robot mechanism unit 6 including a robot arm 21, an encoder 7, a force sensor 25, and a hand 22.
  • the joint angle measurement information from the robot 20 measured by the encoder 7, and the force information (force force) measured by the force sensor 25 which is an example of the force detection unit and applied to the handle 22 by the person.
  • Vector F information on whether or not the hand 22 is held are input.
  • Target track generation unit 1 outputs the target position vector r d for realizing the operation of the robot 20 as a target to the target position adder unit 8.
  • dt [r dt1 , r dt2 ] T (r d0 , r d1 , r d2 ,...) is recorded in the storage unit in the target trajectory generation unit 1.
  • the force control unit 12 functions as an example of an operation control unit, calculates a corrected target position vector ⁇ r d based on the direction limiting force information (direction limiting force vector F rs ) that is the output of the direction limiting unit 5, and calculates the target It outputs to the position addition part 8.
  • Force control unit 12 by the force control method, such as impedance control method or compliance control method, calculates a corrected target position vector [Delta] r d.
  • a force human 91 was subjected to the handle 36 attached to the robot arm 21, is detected by the force sensor 25 is a type of force detecting section, the force control section 12 on the basis of the detected force calculates the correction target position vector [Delta] r d And output.
  • the direction restriction unit 5 receives the restriction direction information output from the holding operation selection unit 14 and the force information (force vector F) output from the force sensor 25, and uses the direction restriction force vector F rs as the force control unit 12. Output to. Based on the restriction direction information output from the holding operation selection part 14 to be described later, the direction restriction unit 5 outputs information that replaces the direction restriction force component F rs with 0 in the direction restriction force vector F rs . The direction restriction unit 5 outputs the value input from the force sensor 25 as it is for the component in the direction in which no restriction is applied.
  • the limiting unit 5 limits all the directions based on the omnidirectional limiting signal from the holding operation selecting unit 14, and therefore replaces the components in all directions with 0. Output information. On the other hand, when the robot mechanism unit 6 is freely operated, the limiting unit 5 does not limit all directions based on the signal from the holding operation selecting unit 14, and therefore the force sensor for components in all directions.
  • the value input from 25 is output as it is.
  • the force vector F s1 in the x direction to be restricted is replaced with 0 out of the force vector F s .
  • the force vector F s ⁇ b> 2 is used as it is because the y direction is not limited.
  • the direction limiting unit 5 uses the force vector.
  • the inverse kinematics calculation unit 4 receives the corrected target position vector r dm output from the target position addition unit 8, calculates the target angle vector q dm by calculation, and calculates the target angular acceleration calculation unit 2 and the output error calculation unit 9. And output.
  • the target angle vector q dm is calculated from the geometric information of the robot 20.
  • the angle error vector q e is output to the corrected target angular acceleration calculation unit 10.
  • the target angular acceleration calculation unit 2 receives the target angular vector q dm output from the inverse kinematics calculation unit 4 and receives the target angular acceleration. Is output to the corrected target angular acceleration calculation unit 10.
  • the corrected target angular acceleration calculation unit 10 is a target angular acceleration that is an output of the target angular acceleration calculation unit 2. And the angle error vector q e which is the output of the output error calculation unit 9 are input, and the corrected target angular acceleration is taken as an example of the control command value. Is output to the target joint torque calculator 3.
  • the target joint torque calculator 3 is a corrected target angular acceleration that is an output of the corrected target angular acceleration calculator 10. And a dynamics parameters to be stored in storage of the target joint torque calculation unit 3 calculates the target joint torque tau d, and outputs the target joint torque tau d to the motor driver 24 of the robot mechanism section 6. As an example of a method of calculating target joint torque tau d, calculates the target joint torque tau d by the following equation.
  • the target joint torque ⁇ d is input as a torque target value to the motor driver 24 via the input / output IF 41 such as a D / A board, and the motors 23 provided to the joint shafts 35 are independently driven to rotate forward and backward.
  • the robot arm 21 of the robot mechanism unit 6 operates.
  • the contact detection unit 11 detects that the robot arm 21 has contacted the object 30 in the outside world and the direction of the contact, and outputs a contact detection signal to the contact state detection unit 13 and the holding operation selection unit 14.
  • the contact detection signal includes information on the direction of contact.
  • a contact detection sensor 26 or a proximity sensor attached to the robot arm 21 may be used.
  • several contact detection sensors 26 are attached to a suction pad 22a described later attached to the robot arm 21, and the contact direction can be easily detected depending on which contact detection sensor 26 detects (see FIG. 2). .
  • the contact state detection unit 13 receives a contact detection signal from the contact detection unit 11 and outputs contact state information to the holding operation selection unit 14 based on the input contact detection signal.
  • the contact status information includes the distance between the contacted object 30 and the hand 22 of the stopped robot 20, the direction of the force applied by the person 91 to the robot arm 21 of the robot 20, and / or the contact with the robot arm 21 (hand 22). There are directions in which the object 30 is in contact.
  • the distance between the object 30 and the hand 22 of the robot 20 is the distance between the object 30 and the robot when the operation of the robot 20 stops after the hand 22 of the robot 20 collides with the object 30 (contacts for holding the object). This refers to the distance from 20 hands 22.
  • This distance may be directly measured using a distance sensor or the like attached to the hand 22 and may be obtained by the contact state detection unit 13 by being input from the distance sensor to the contact state detection unit 13. Instead, based on the joint angle q input from the encoder 7 to the contact state detection unit 13, the contact state detection unit 13 compares the position of the hand 22 at the time of collision with the position of the hand 22 at the time of stop, and the distance You may ask for.
  • the direction of the force applied by the person 91 to the robot arm 21 of the robot 20 can be obtained by the contact state detection unit 13 based on information on the force applied by the person 91 to the robot arm 21 detected by the force sensor 25.
  • the holding operation selection unit 14 Based on the contact status information input from the contact status detection unit 13, the holding operation selection unit 14 performs “holding continuation operation”, “personal cooperative operation with limited directions”, and “no direction limitation” as the holding operations. One operation is selected from the three operations “human cooperative operation”.
  • the holding operation selecting unit 14 selects “stop continuation operation”
  • information in all directions is output to the direction limiting unit 5 as a limiting signal.
  • the holding operation selection unit 14 selects “personal cooperative operation with restricted directions”
  • information on the direction to be restricted is output to the direction restriction unit 5 as a restriction signal (restriction direction information).
  • the holding operation is selected after the robot 20 temporarily stops its operation.
  • the holding operation selection unit 14 when the contact detection signal is input from the contact detection unit 11, the holding operation selection unit 14 always performs a limit signal in all directions for a stop operation of the robot 20 for a predetermined time (for example, 1 second). Is output to the direction limiting unit 5. Thereafter, the holding operation selection unit 14 sends a restriction signal (restriction direction information) for performing the holding operation selected from the three holding operations based on the contact state information input from the contact state detection unit 13 to the direction restriction unit. 5 is output. Further, when the hand information of the robot arm 21 is input and the hand 22 is closed, that is, when the information indicating that the hand 22 holds the object 30 is received by the holding operation selection unit 14, the restriction signal is output from the holding operation selection unit 14. Exit.
  • the holding operation means an adsorption operation as an example. Specifically, a suction pad 22a that can suck the object 30 is attached to the hand 22, and a pressure sensor 22b is provided on the suction pad 22a. Then, the pressure sensor 22b detects whether the object 30 is held by the suction pad 22a, that is, whether the object 30 is sucked by the suction pad 22a. The detection result is output from the pressure sensor 22b to the control device 50 as information on whether or not the hand 22 is held.
  • the holding operation selection unit 14 After the hand 22 of the robot arm 21 comes into contact with the holding object 30, when the hand 22 and the holding object 30 are in contact with each other, the operation of pressing the hand 22 of the robot arm 21 against the object 30 is stopped. If this is performed, an excessive pressing force is generated between the hand 22 and the object 30, which is dangerous. For this reason, in order not to perform such an operation, it is desirable that the holding operation selecting unit 14 does not select the human cooperative operation and continues the stop operation. Therefore, when the holding operation selecting unit 14 determines that the information on the distance between the contacted object 30 and the hand 22 of the stopped robot 20 is less than a predetermined threshold in the contact status information, the holding operation selecting unit 14 14 selects the stop continuation operation. For the threshold value, the relative distance between the suction pad 22a and the object 30 at which the suction pad 22a can reliably hold the object is obtained in advance by experiments or the like, and stored in the storage unit of the holding operation selection unit 14.
  • the holding action selecting unit 14 determines that the positional relationship between the robot arm 21 and the object 30 is not in an appropriate position for holding, and holding action. It is desirable that the selection unit 14 does not select the human cooperative operation but performs the stop continuous operation. Therefore, when the holding operation selection unit 14 determines that the contact direction is different from the direction held by the hand 22 in the contact status information, the holding operation selection unit 14 selects the stop continuation operation.
  • the holding operation selection unit 14 determines whether or not the contacted direction is the direction in which the hand 22 is held.
  • the direction in which the suction pad 22a contacts the object when holding the object is the negative y-axis direction, and the lower surface of the suction pad 22a is the suction surface. Therefore, the contact detection sensor 26 is attached in several directions including the suction surface of the suction pad 22a.
  • the contact state detection unit 13 inputs that the direction in contact with the object is the negative y-axis direction as a contact detection signal.
  • the holding operation selection unit 14 can determine that the direction matches the direction held by the hand 22.
  • the contact state detection unit 13 determines that the direction in contact with the object is the positive x-axis direction. Since it is input as a contact detection signal, the holding operation selection unit 14 can determine that the contacted direction is different from the direction held by the hand 22.
  • the contact direction (solid line c) is the positive y-axis direction, and is input from the contact state detection unit 13 to the holding operation selection unit 14 as a contact detection signal.
  • the direction (dashed line b) orthogonal to the suction surface (dashed line a) of the suction pad 22a does not coincide with the y-axis direction, and the contacted direction coincides with the direction held by the hand 22. Absent.
  • the angle theta 1 is within the threshold value (holding direction determination threshold), are capable of holding the object 30 by the suction pads 22a, contacted directions, holding operation and the hand 22 is coincident with the direction of holding
  • the selection unit 14 makes the determination.
  • the holding operation selection unit 14 determines that the contacting direction does not coincide with the direction held by the hand 22.
  • the hand 22 is not limited to the suction pad 22a, and the same applies to the hand 22 that performs a general holding operation. 11A and 11B will be described using the hand 22 as an example.
  • FIG. 11A is an example in which the holding operation selection unit 14 determines that the contacting direction matches the direction held by the hand 22, as in FIG. 10A.
  • the hand 22 has the structure of the chuck 22b, there is no clear bonding surface between the hand 22 and the object 30 such as the suction surface of the suction pad 22a, but the surface of the chuck 22b is a surface corresponding to the surface facing the object 30.
  • FIG. 11B to define a broken line b which is perpendicular to the plane containing the broken line a, since the broken line b and the broken line d angle theta 4 of is equal to or greater than the threshold, the direction of contact, the hand 22 holds The holding operation selection unit 14 determines that the direction does not match.
  • the holding operation selection unit 14 determines that the distance between the object 30 and the hand 22 of the stopped robot 20 is equal to or greater than the threshold value.
  • FIGS. 5A and 5B show the positions of the person 91, the robot arm 21 and the object 30 who want to hold the object 30 with the hand 22 in a state where the robot 20 is stopped after the object 30 and the hand 22 come into contact with each other. It is the top view and perspective view which show an example.
  • the person 91 presses the holding surface of the hand 22 against the object 30. Since it is only necessary to move in the (holding direction) (negative direction in the y direction in FIG. 5B), the person 91 applies a force mainly in the negative direction in the y direction.
  • the operation direction of the robot arm immediately before holding is the direction in which the holding surface (suction surface) is pressed against the object, that is, y in the example of FIG. Should be in the negative direction. Therefore, after the contact is stopped, when the person 91 applies a force only in the negative direction of the y direction, that is, the direction in which the holding surface of the hand 22 is pressed against the object 30 (holding direction), the hand 22 is The holding action selecting unit 14 selects a person cooperative action that is restricted to operate only in the direction approaching to be held, that is, the y direction in FIG. 5B. That is, information on the restriction direction x is output as restriction direction information.
  • the holding operation selection unit 14 selects the “person-operated operation”. For this reason, the object 30 can be safely held by smoothly operating the robot arm 21 of the robot 20 by an appropriate selection operation by the holding operation selection unit 14. Further, an example of determination by the holding operation selection unit 14 as to whether or not the direction of the force applied by the person 91 to the robot arm 21 of the robot 20 is the direction of the final approach operation will be described with reference to FIGS. 12A and 12B.
  • the surface of the suction pad 22a that faces the object 30 is the suction surface (dashed line a) of the suction pad 22a. Further, the surface of the object 30 that faces the suction surface of the suction pad 22a is the upper surface (gray-painted surface) 30b of the object 30.
  • the direction in which the distance between one point (point d) closest to the upper surface 30b of the object 30 in the suction surface and the upper surface 30b of the object 30 is the shortest distance is a perpendicular line (solid line e) drawn from the point d to the upper surface 30b of the object 30.
  • An angle ⁇ 5 formed by a broken line f parallel to the solid line e and a perpendicular (broken line c) of the surface of the suction pad 22a facing the object 30 is smaller than a threshold (holding direction determination threshold).
  • a threshold holding direction determination threshold.
  • the direction in which the suction surface and the upper surface 30b of the object 30 move while keeping the state moves in the final approach operation.
  • the angle ⁇ 5 is the one point closest to the surface facing the holding unit among the objects 30 of the holding unit facing the object 30 and the surface facing the holding unit among the objects 30. Is the angle formed by the direction in which the distance to the shortest distance and the perpendicular of the surface of the holding portion that faces the object 30.
  • the holding operation selection unit 14 determines that the direction is the approaching direction in the final approaching operation. If the direction of the force applied by the person 91 is parallel to the broken line c and the Y component of the force vector is positive, the distance between the object 30 and the surface facing the suction surface of the suction pad 22a is the shortest distance. The angle ⁇ 5 formed by the direction and the perpendicular of the surface of the suction pad 22 a facing the object 30 remains smaller than a threshold (holding direction determination threshold).
  • the holding operation selection unit 14 determines that the direction is not close.
  • the direction in which the distance between the object 30 and the surface facing the suction surface of the suction pad 22a is the shortest distance, and the suction pad Since the angle formed by the perpendicular of the surface facing the object 30 out of the attracting surface 22a is larger than the threshold value (holding direction determination threshold value), the holding operation is not performed in the approaching direction in the final approaching operation.
  • the selection unit 14 makes the determination.
  • 6A and 6B show the positions of the person 91, the robot arm 21, and the object 30 who want to hold the object 30 with the hand 22 in a state where the robot 20 is stopped after the object 30 and the hand 22 come into contact with each other. It is the top view and perspective view which show an example.
  • the entire holding surface of the hand 22 does not face the object 30, so the person 91 moves the hand 22 so that the holding surface of the hand 22 is located above the upper surface of the object 30. It is necessary to let Therefore, the person 91 needs to apply force also in the negative direction of the x direction in the example of FIGS. 6A and 6B.
  • the person 91 applies a force not only in the direction in which the holding surface of the hand 22 is pressed against the object 30 (holding direction) but also in other directions.
  • the holding operation selection unit 14 determines that the person 91 is going to correct the holding position of the hand 22, and performs the human cooperative operation ("personal cooperative operation without direction restriction") operating in all directions. The selection is made by the holding operation selection unit 14. In this example, there is no limit, so nothing is output.
  • the person 91 moves the robot arm 21 of the robot 20 not only in the direction in which the robot arm 21 of the robot 20 holds the object 30 but also in other directions to move the robot arm 21 of the robot 20. Even when correcting the positional deviation, the object 30 can be safely held by smoothly operating the robot arm 21 of the robot 20 without being disturbed by the selection operation by the holding operation selection unit 14.
  • step S10 the holding operation selection unit 14 checks whether or not a contact detection signal is input from the contact detection unit 11. If there is no input, repeat S10.
  • step S12 the holding operation selection unit 14 confirms whether a predetermined time has elapsed using a built-in timer. If the holding operation selection unit 14 determines that the predetermined time has not elapsed, the process returns to S11 and an omnidirectional restriction signal is sent from the holding operation selection unit 14 to the direction restriction unit 5 in order to continue the stop operation of the robot 20. Output.
  • step S12 it is determined in step S12 that the holding operation selection unit 14 has passed a predetermined time (for example, several seconds).
  • step S13 the holding operation selection unit 14 determines whether or not the direction in which the robot arm 21 of the robot 20 and the contact object 30 are in contact is a predetermined holding direction from the contact state information.
  • step S13 it is determined in step S13 that the direction in which the holding operation selecting unit 14 is in contact is a predetermined holding direction.
  • step S14 the holding operation selection unit 14 determines from the contact state information whether the distance between the robot 20 and the contact object 30 is equal to or greater than a predetermined threshold.
  • step S14 a case where the holding operation selecting unit 14 determines that the distance between the robot 20 and the contact object 30 is equal to or greater than the threshold in step S14 will be described.
  • step S15 the holding operation selection unit 14 confirms from the contact state information whether or not the force applied by the person 91 is only in the direction in which the hand 22 is pressed against the object 30 (holding direction). If the holding operation selection unit 14 determines that the force applied by the person 91 is only in the direction in which the hand 22 is pressed against the object 30 (holding direction), the process proceeds to step S16. Otherwise, the process proceeds to step S21.
  • step S15 the holding operation selection unit 14 determines in step S15 that the force applied by the person 91 is only the direction in which the hand 22 is pressed against the object 30 (holding direction).
  • step S16 the holding operation selecting unit 14 selects a human cooperative operation in which the operation direction of the robot 20 is limited only to the holding direction ("personal cooperative operation in which the direction is limited").
  • a restriction signal (restriction direction information), which is information on the direction in which the restriction is applied, is sent from the holding action selection unit 14 to the direction restriction unit 5 based on the “personal cooperative operation with restricted direction” selected in step S16. Output.
  • step S18 the holding operation selection unit 14 confirms (determines) whether the hand 22 holds the object 30 based on information from the pressure sensor 22b of the suction pad 22a. If the holding operation selecting unit 14 determines that the holding operation is not held, the process returns to step S17, and the holding operation selecting unit 14 continues to output the limit signal.
  • step S18 the holding operation selection unit 14 determines that the hand 22 has held the object 30 in step S18 will be described.
  • step S19 the output of the limit signal by the holding operation selection unit 14 is terminated.
  • the holding operation selection unit 14 outputs a limit signal after the hand 22 and the object 30 contact each other until the output of the limit signal by the holding operation selection unit 14 ends. Operation is possible.
  • step S15 a case will be described in which it is determined by the holding operation selection unit 14 that the force applied by the person 91 is not only in the direction in which the hand 22 is pressed against the object 30 (holding direction) in step S15.
  • step S21 the operation direction is selected in all directions, that is, a person cooperative operation without direction restriction is selected by the holding operation selection unit 14.
  • step S19 since the holding operation selection unit 14 has selected the person cooperation operation without direction restriction in step S15, the holding operation selection unit 14 ends the output of the restriction signal.
  • the holding operation selection unit 14 temporarily stops the direction restriction after the hand 22 and the object 30 contact each other, and then performs the human cooperative operation without the direction restriction.
  • the operation until the end of the output of the restriction signal by the holding operation selecting unit 14 is enabled by selecting (“personal cooperative operation without direction restriction”) by the holding operation selecting unit 14.
  • step S14 the case where it is less than the threshold value in step S14 will be described.
  • step S20 the holding operation selection unit 14 selects the stop continuation operation.
  • the limiting direction is all directions.
  • step S17 based on the “cooperation with limited direction” selected in step S16, a signal indicating a restriction direction is output from the holding action selection unit 14 to the direction restriction unit 5.
  • step S18 the holding operation selection unit 14 confirms (determines) whether the hand 22 holds the object 30 based on information from the pressure sensor 22b of the suction pad 22a. If the holding operation selecting unit 14 determines that the holding operation is not held, the process returns to step S17, and the holding operation selecting unit 14 continues to output the limit signal.
  • step S18 the holding operation selection unit 14 determines that the hand 22 has held the object 30 in step S18 will be described.
  • step S19 the output of the limit signal by the holding operation selection unit 14 is terminated.
  • the holding operation selecting unit 14 outputs a limit signal after the hand 22 and the object 30 contact each other, and the robot 20 stops and holds. Operation until the output of the limit signal by the selection unit 14 is completed is possible.
  • step S13 it is determined in step S13 that the direction in which the holding operation selecting unit 14 is in contact is not a predetermined holding direction.
  • step S20 the holding operation selection unit 14 selects the stop continuation operation.
  • the limiting direction is all directions.
  • steps S17 to S19 are the same as described above.
  • the holding operation selecting unit 14 outputs a limit signal after the hand 22 and the object 30 are in contact with each other, and the robot 20 is stopped and the holding operation is performed. Operation until the output of the limit signal by the selection unit 14 is completed is possible.
  • step S31 the joint angle q which is the output of the encoder 7 is taken into the control program 40 (the output error calculation unit 9 and the contact state detection unit 13 thereof).
  • step S32 the force vector F which is the output of the force sensor 25 is taken into the control program 40 (the direction limiter 5).
  • step S33 information on the hand 22 (for example, detection information on the pressure sensor 22b) is taken into the control program 40 (the holding operation selection unit 14).
  • step S34 and generates and outputs a target position vector r d to the target position the adding unit 8 in the target trajectory generation section 1.
  • step S35 the contact detection unit 11 confirms (detects) whether or not the robot 20 is in contact with the external environment.
  • step S36 the contact detection unit 11 outputs a contact detection signal to the contact state detection unit 13 and the holding operation selection unit 14.
  • step S ⁇ b> 37 the contact state detection unit 13 outputs the contact state information to the holding operation selection unit 14 based on the contact detection signal from the contact detection unit 11.
  • step S38 the holding operation selection unit 14 selects the holding operation of the robot 20 based on the contact detection signal from the contact detection unit 11 and the contact state information from the contact state detection unit 13, and the restriction direction information Is output to the direction limiting unit 5.
  • step S39 the direction restriction unit 5 calculates the direction restriction force vector F rs based on the restriction direction information input from the holding operation selection unit 14 and the force vector F from the force sensor 25, and the force Output to the control unit 12.
  • step S ⁇ b > 40 the force control unit 12 calculates a corrected target position vector ⁇ rd based on the direction limiting force vector F rs input from the direction limiting unit 5, and outputs it to the target position adding unit 8.
  • step S41 the target position addition section 8 adds the corrected target position vector [Delta] r d from the target position vector r d and the target position adding unit 8 from the target trajectory generation unit 1, the corrected target position vector r dm is calculated and output to the inverse kinematics calculation unit 4.
  • step S42 the inverse kinematics calculation unit 4 calculates the target angle vector q dm based on the corrected target position vector r dm from the target position addition unit 8, and the target angular acceleration calculation unit 2 and the output error calculation unit 9 and output.
  • step S43 the output error computing unit 9 based on the output q of the target angle vector q dm and the encoder 7 from the inverse kinematics calculation unit 4, the angle error vector q e calculated and correct target angular acceleration calculation To the unit 10.
  • step S44 the target angular acceleration calculation unit 2 is based on the target angular vector q dm from the inverse kinematics calculation unit 4, and the target angular acceleration. Is output to the corrected target angular acceleration calculation unit 10.
  • step S45 the corrected desired angular acceleration calculation unit 10, the angle error vector q e and the target angular acceleration from the target angular acceleration calculating unit 2 from the output error calculator 9 And based on Corrected target angular acceleration Is output to the target joint torque calculator 3.
  • step S ⁇ b> 46 the target joint torque calculation unit 3 reads the corrected target angular acceleration from the corrected target angular acceleration calculation unit 10. And the target joint torque ⁇ d based on the dynamics parameters stored in advance in the storage unit of the target joint torque calculation unit 3 and output to the motor driver 24 of the robot mechanism unit 6.
  • step S47 the target joint torque tau d from the target joint torque calculation section 3, through the input and output IF 41, is input to the motor driver 24 drives the motor 23, respectively, the robot 20 is operated.
  • the operation control of the robot 20 is realized by repeatedly executing the above steps S31 to S47 as a control calculation loop.
  • step S35 a case where the contact detection unit 11 has not confirmed contact in step S35 will be described.
  • step S39 the direction restriction unit 5 calculates the direction restriction force vector F rs based on the restriction direction information input from the holding operation selection unit 14 and the force vector F from the force sensor 25, and the force Output to the control unit 12.
  • the holding operation selection unit 14 outputs nothing, so the direction limiting unit 5 does not limit in any direction, and the direction limiting force vector is It becomes the same value as the force vector F input from the force sensor 25.
  • Steps S40 to S47 are the same as described above.
  • step S31 to step S35 and step S39 to step S47 are repeatedly executed as a control calculation loop, whereby the operation control of the robot 20 is realized.
  • the control device 50 of the first embodiment includes the target trajectory generating unit 1, the target position adding unit 8, the direction limiting unit 5, the inverse kinematics calculating unit 4, and the target angular acceleration calculating unit. 2, target joint torque calculation unit 3, output error calculation unit 9, corrected target angular acceleration calculation unit 10, force control unit 12, contact detection unit 11, contact state detection unit 13, holding operation selection unit 14 and configures a robot 20 that performs torque control of the motor 23.
  • the holding operation selection unit 14 and the direction restriction unit 5 select whether the person 91 holds the object 30 on the robot arm 21 and restricts the direction of the human cooperative operation or stops the robot arm 21. This makes it possible to control the robot 20 safely even when the robot arm 21 is brought into contact with the object 30 for the purpose of holding the object 30.
  • the hand 22 of the robot 20 stops at a position shifted from the contact position with the object 30 (that is, It is described that there is a distance between the object 30 and the hand 22 of the robot 20 when the operation of the robot 20 once stops after the robot 20 collides with the object 30).
  • the robot arm 21 itself is deformed by the force of the person 91, the occurrence of such a shift becomes more remarkable.
  • a robot 20B that uses a flexible structure, for example, the pneumatic artificial muscle 101, instead of a rigid structure that does not have flexibility as the motor 23 as an actuator.
  • the actuator itself has flexibility, and when the robot arm 21 is pushed by the force of the person 91, the position of the hand 22 of the robot arm 21 is moved to some extent. That is, when the person 91 applies a force to the robot 20B to operate the robot 20B, the position of the robot 20B slightly changes when the person 91 removes the force. Therefore, in many cases, the position of the hand 22 of the robot 20B when the robot 20B collides with the object 30 and the position of the hand 22 when the robot 20B stops are changed. For this reason, it is effective to apply the first embodiment.
  • it demonstrates concretely as a modification of 1st Embodiment.
  • FIG. 8 is an example of a robot 20B using the pneumatic artificial muscle 101 as an actuator in the modification of the first embodiment.
  • the robot 20B is a three-degree-of-freedom robot arm that rotates forward and backward in the xy plane and also in the first joint axis 35-1 that rotates forward and backward in the xy plane including the orthogonal x-axis and y-axis.
  • a second joint shaft 35-2 and a second joint shaft 35-3 that rotates in the normal and reverse directions in the xy plane are also provided.
  • 101-1a, 101-1b, 101-2a, 101-2b, 101-3a, 101-3b (these are reference numerals for the individual elastic expansion / contraction structures, typically elastic expansion / contraction structures.
  • the reference numeral 101 indicates the body, that is, the pneumatic artificial muscle.) Is an elastic expansion / contraction structure.
  • each elastic expansion / contraction structure 101 is made of a resin or metal fiber cord which is made of a rubber material and functions as a driving unit, and is not easily stretched on the outer surface of a tubular hollow elastic body 102.
  • a deformation direction restricting member 103 knitted in a mesh shape is disposed. In the deformation direction restricting member 103, the deformation in the radial direction due to the expansion of the tubular elastic body 102 is converted into the contraction of the axial length perpendicular to the radial direction, while the deformation in the radial direction due to the contraction of the tubular elastic body 102 is performed. , Configured to be translated into an axial length expansion.
  • Both end portions of the tubular elastic body 102 are hermetically sealed with a sealing member 104.
  • the tubular fluid passage member 5 provided in one sealing member 104 has a fluid flow path through which a compressive fluid passes, and the fluid passes through the fluid passage member 105 to the hollow interior of the hollow elastic body 2. Can be injected or dispensed. A compressive fluid such as air is supplied to the hollow tubular elastic body 102 through the fluid passage member 105.
  • the tubular elastic body 102 When the internal pressure is applied to the internal space of the tubular elastic body 102 by the supplied compressive fluid, the tubular elastic body 102 tends to expand mainly in the radial direction. However, the action of the deformation direction restricting member 103 is converted into a movement in the central axis direction of the tubular elastic body 102 and the entire length contracts, so that it can be used as a pneumatic artificial muscle that is driven directly.
  • the robot 20 arranges the pair of elastic expansion / contraction structures 1 so that the joint shafts 35-1, 35-2, or 35-3 are opposed to the fulcrum.
  • One elastic expansion / contraction structure 101 of one set of elastic expansion / contraction structures 101 contracts, and the other elastic expansion / contraction structure 101 expands.
  • an antagonistic drive structure in which a force acts via a fulcrum joint shaft 35-1, 35-2, or 35-3 and the joint shaft 35-1, 35-2, or 35-3 rotates. By doing so, it is possible to realize forward / reverse rotational motion on the joint shaft 35-1, 35-2, or 35-3.
  • first joint shaft 35-1 is driven to rotate forward and backward by antagonistic driving of the elastic expansion / contraction structure 101-1a and the elastic expansion / contraction structure 101-1b.
  • the second joint shaft 35-2 is driven to rotate forward and backward by antagonistic driving of the elastic expansion / contraction structure 101-2a and the elastic expansion / contraction structure 101-2b.
  • the third joint shaft 35-3 is driven to rotate forward and backward by antagonistic driving of the elastic expansion / contraction structure 101-3a and the elastic expansion / contraction structure 101-3b.
  • a support body 119 that can rotate concentrically with the first joint shaft 35-1 is rotatably supported on the upper end of a rod-like support member 116 whose lower end is fixed to the floor 90.
  • a rod-like support body 118 extending perpendicular to the longitudinal direction of the support member 116 is fixed to the fixed surface side of the lower end portion of the support member 116.
  • the ends of the elastic expansion / contraction structures 101-1a and 101-1b are rotatably connected between the support 119 and the support 118. Therefore, the support body 119 rotates in the forward and reverse directions in the xy plane around the first joint axis 35-1 by the antagonistic driving of the elastic expansion / contraction structures 101-1a and 101-1b.
  • the first link support member (not shown) of the first link 33 connected to the support body 119 can rotate forward and backward.
  • the first link support member is fixed to the first link 33 as a rod-like member extending perpendicularly to the longitudinal direction of the first link 33 in the same manner as the method of fixing the support 118 to the support member 116. .
  • the base end of the first link 33 is fixed to the support body 119 together with the first link support member, so that the support body 119, the first link 33, and the first link support member can rotate together. Yes.
  • the first link support member of the first link 33 is hidden behind the support body 119 in FIG.
  • a second link support member 131 fixed to the base end of the second link 32 perpendicular to the longitudinal direction of the second link 32 is rotatably connected to the tip of the first link 33.
  • respective end portions of the elastic expansion / contraction structures 101-2a and 101-2b are rotatably connected.
  • a third link support member 132 fixed to the base end of the third link 31 perpendicular to the longitudinal direction of the third link 31 is rotatably connected to the tip of the second link 32.
  • the respective ends of the elastic expansion / contraction structures 101-3a and 101-3b are rotatably connected. Therefore, by the antagonistic drive of the elastic expansion / contraction structures 101-3a and 101-3b, the third link 31, the third link support member 132, and the hand 22 are arranged in the xy plane around the third joint shaft 35-3. Rotates forward and backward.
  • the pressure sensors 109-1a and 109-1b measure the internal pressures of the elastic expansion and contraction structures 101-1a and 101-1b, respectively.
  • the pressure sensors 109-1a and 109-1b are disposed in the respective fluid passage members 5 (fluid inlets) of the elastic expansion and contraction structures 101-1a and 101-1b, and are respectively elastically expanded and contracted. The pressure in the structures 101-1a and 101-1b is measured.
  • pressure sensors 109-2a, 109-2b, 109-3a, and 109-3b which are examples of internal state measuring units, are also provided in the elastic expansion / contraction structures 101-2a, 101-2b, 101-3a, and 101-3b. Arranged and functions in the same way (partly omitted).
  • the elastic expansion / contraction structures 101-1a and 101-1b, the elastic expansion / contraction structures 101-2a and 101-2b, and the elastic expansion / contraction structures 101-3a and 101-3b are proportional to the three-port flow rate, respectively.
  • An air pressure source 125 is connected via the solenoid valves 127A and 127B and the air pressure adjusting unit 126 (partially omitted).
  • the basic function can be realized as the robot 20B using the elastic expansion / contraction structure 101 as an actuator.
  • the holding object 30 and the robot arm 21 of the robot 20 and 20B are not in contact with each other. Even if it occurs, the robots 20 and 20B that can hold the object 30 safely are possible.
  • the actuator of the robot arm of the robot has flexibility, if a person grabs it by hand and applies force to the robot arm of the robot, it will be slightly ahead of the original position of the robot arm of the soft robot, The robot arm of the robot is actually positioned, and when the hand is released, the robot arm of the robot returns to its original position. Then, even if the suction pad at the tip of the robot arm of the robot is brought into contact with the holding target object and stopped, when the hand is released from the robot arm of the robot, the robot arm moves backward and the suction pad and the holding target object There has been a problem in the past that there is a gap between them and the object to be held cannot be sucked by the suction pad.
  • the robot arm 21 of the robot 20, 20B when the contact detection unit 11 detects the contact between the object 30 and the robot arm 21 of the robot 20, 20B, the robot arm 21 of the robot 20, 20B. Temporarily stops the operation, and then the holding operation selection unit 14 determines the stop continuation operation and the direction based on the information on the distance from the object 30 in contact with the robot arm 21 and / or the force applied by the person 91 to the robot arm 21 or both.
  • the holding target object 30 is moved by the suction pad 22a of the hand 22. It can be reliably adsorbed and held.
  • the three-axis robot arm 21 has been described as an example.
  • the present invention is not limited to this, and the number of axes is not limited to this, and the same applies to all axes.
  • the present invention is not limited to the above, but can be applied only to a limited axis.
  • the contact status information the distance between the object 30 that has contacted the robot arm 21 of the robot 20 and the hand 22 of the robot 20 that has stopped, and the person 91 is on the robot arm 21 of the robot 20.
  • the holding operation selection unit 14 is described using both of the force directions. However, the present invention is not limited to this, and either one or other information can be used.
  • the robot 20B using the pneumatic artificial muscle 101 is described as the robot 20B whose target position is shifted by the force of the person 91.
  • the present invention is not limited to this.
  • the present invention can also be applied to a flexible arm having a long beam that can be bent by the force of the person 91 or a robot having a spring attached to a hand to have compliance.
  • control device 50 is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit. Each unit achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • achieves a part or all of the element which comprises the control apparatus in the said embodiment or modification is the following programs.
  • this program is a control program for a robot that has a robot arm and transports an object in cooperation with a person.
  • a contact detection unit that detects contact between the holding unit and the object when the object is held by the holding unit provided in the robot arm;
  • a contact state detection unit that detects a distance between the object and the holding unit as a contact state at the time of contact;
  • a holding operation selection unit that switches the operation of the robot arm during holding depending on the contact state detected by the contact state detection unit; Function as an operation control unit for operating the robot arm according to the force applied to the robot arm by the person, When the contact is detected by the contact detection unit, the robot arm is temporarily stopped, and thereafter, the holding operation selection unit is a distance from the object in contact with the robot arm or the person is on the robot arm.
  • the program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory) is read out. May be executed.
  • a predetermined recording medium for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory
  • the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • a robot, a robot control device and a control method, and a robot control program according to the present invention include a robot, a robot control device and a control method for performing position control such as trajectory control of the hand position of a robot arm holding an object, It is also useful as a robot control program. Further, the present invention is not limited to a robot arm, and can also be applied as a device having a mechanism for holding an object in a production facility or the like, a control device and control method for the device, and a control program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

 接触検知部(11)によって接触が検知された際に、ロボットアーム(21)が一旦停止し、その後、保持動作選択部(14)は、ロボットアームと接触した物体(30)との距離もしくは人(91)がロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを選択し、選択された動作を動作制御部(12)によって実現することで保持動作を行う。

Description

ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
 本発明は、物体の搬送をアシストする、パワーアシスト型のロボット、ロボットの動作を制御するロボットの制御装置及び制御方法、並びに、ロボット用制御プログラムに関する。
 近年、介護ロボット又は家事支援ロボットなどの家庭用ロボットが盛んに開発されるようになってきた。また、産業用ロボットでも、セル生産工場の広がりなどから、人と協働するロボットの開発が盛んに行われている。このような人と協働するアシストロボットは、従来のように人間の居るエリアとロボット用の作業エリアとを区切って動作するロボットとは異なり、人間と共生する必要がある。このため、従来の産業用ロボットなどとは異なる安全性が求められる。さらに、物体搬送において人と協働して作業を行うパワーアシストロボットは、物体を搬送しているときと、物体を搬送していないときとが存在し、これらの2状態を安全に切り替える必要がある。物体を搬送していない状態から物体を搬送する状態に切り替えるためには、ロボットが保持のために物体に接触する必要がある。しかしながら、パワーアシストロボットにおいてロボットを物体に接触させると、接触により、人の意図しない方向の力が力検出部に検出される。このように、人の意図しない方向の力が検出されると、ロボットが意図しない方向に動作したり、又は、ロボットを物体に押し当てる動作が難しかったりと、従来のアシストロボットでは、安全の面から問題があった。
 このような物体を保持するパワーアシストロボットにおいて、従来技術は、操作力の向きによってアシスト装置の動作に方向制限をかけて、保持物体(ワーク)を目標に沿いやすく動作するよう制御する制御方法を開示している(特許文献1)。
特許第4443614号公報
 しかしながら、特許文献1の技術では、保持物体を保持する際に、安全に接触するための動作が規定されておらず、物体を保持する際の安全性に課題があった。また、特許文献1の技術では、保持物体を保持するとき、予め定められた目標軌道の方向が必要である。よって、人が操作しつつ、さらに、その場の状況に応じて人が操作を変更する、パワーアシストロボットでの物体の保持において、特許文献1の技術を適用するのは難しいという課題があった。
 本発明の目的は、上記従来の課題を解決し、物体を保持する際にロボットを安全に操作しつつ物体を保持出来る、ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラムを提供することにある。
 上記目的を達成するために、本発明は以下のように構成する。
 本発明の1つの態様によれば、ロボットアームを有し、人と協働して物体を搬送するロボットであって、
 上記ロボットアームに備えられて上記物体を保持する保持部と、
 上記保持部と上記物体との接触を検知する接触検知部と、
 上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部とを備え、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うロボットを提供する。
 これらの概括的かつ特定の態様は、システム、方法、コンピュータプログラム並びにシステム、方法及びコンピュータプログラムの任意の組み合わせにより実現してもよい。
 本発明の上記態様によれば、人と協働して物体を搬送するロボットにおいて、物体を保持する際に保持物体とロボットアームとの接触が発生しても、物体を安全に保持することができるロボットが可能となる。
 本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。この図面においては、
図1は、本発明の第1実施形態におけるロボットシステムの概要を示す図であり、 図2は、本発明の第1実施形態におけるロボットシステムの構成を示す図であり、 図3は、本発明の第1実施形態におけるロボットの制御装置及び制御対象であるロボットの一部を示すブロック図であり、 図4は、本発明の第1実施形態における保持動作選択部の動作ステップを示すフローチャートであり、 図5Aは、本発明の第1実施形態におけるロボットと保持物体の位置関係の一例を示す平面図であり、 図5Bは、本発明の第1実施形態におけるロボットと保持物体の位置関係の上記一例を示す斜視図であり、 図6Aは、本発明の第1実施形態におけるロボットと保持物体の位置関係の別の例を示す平面図であり、 図6Bは、本発明の第1実施形態におけるロボットと保持物体の位置関係の上記別の例を示す斜視図であり、 図7は、本発明の第1実施形態における制御装置の動作ステップを示すフローチャートであり、 図8は、本発明の第1実施形態における空気圧人工筋をアクチュエータとしたロボットシステムの概要を示す図であり、 図9は、本発明の第1実施形態における弾性膨張収縮構造体の構造及び動作を示す図であり、 図10Aは、本発明の第1実施形態におけるロボットアームが保持物体を保持する方向の一例を示す図であり、 図10Bは、本発明の第1実施形態におけるロボットアームが保持物体を保持する方向の一例を示す図であり、 図11Aは、本発明の第1実施形態におけるハンド構造のロボットアームが保持物体を保持する方向の一例を示す図であり、 図11Bは、本発明の第1実施形態におけるハンド構造のロボットアームが保持物体を保持する方向の一例を示す図であり、 図12Aは、本発明の第1実施形態におけるロボットアームが保持物体を保持する際の最終接近動作方向の一例を示す図であり、 図12Bは、本発明の第1実施形態におけるロボットアームが保持物体を保持する際の最終接近動作方向の一例を示す図である。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
 本発明の第1態様によれば、ロボットアームを有し、人と協働して物体を搬送するロボットであって、
 上記ロボットアームに備えられて上記物体を保持する保持部と、
 上記保持部と上記物体との接触を検知する接触検知部と、
 上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部とを備え、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うロボットを提供する。
 本発明の上記態様によれば、人と協働して物体を搬送するロボットにおいて、物体を保持する際に保持物体とロボットアームとの接触が発生しても、ロボットアームを安全に動作させて物体を安全に保持することができる。
 本発明の第2態様によれば、上記接触検知部は、上記ロボットアームと上記物体とが接触した方向を検知し、
 上記接触検知部が検知した方向が、上記ロボットアームが上記物体を保持する方向である場合のみ、上記保持動作選択部が、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、上記方向を制限した人協調動作又は上記制限の無い人協調動作を選択する第1の態様に記載のロボットを提供する。
 本発明の上記態様によれば、上記ロボットアームが上記物体と接触したときでかつ人が保持を目的として接触したときには、上記保持動作選択部による選択動作で邪魔されることがなく、上記ロボットアームを円滑に動作させて物体を安全に保持することができ、上記人が上記ロボットアームを上記物体を保持する方向に移動させて上記物体に対する上記保持部の位置ずれを修正させるときでも、上記保持動作選択部による選択動作で邪魔されることがなく、上記ロボットアームを円滑に動作させて物体を安全に保持することができる。
 本発明の第3態様によれば、上記接触検知部は、上記人が上記ロボットアームにかけている力の方向を検知し、
 上記接触検知部が検知した方向が、上記保持部が上記物体を保持する際の最終接近動作において接近する方向であるときには、上記保持動作選択部が上記方向を制限した動作を選択し、上記接触検知部が検知した方向が、上記保持部が上記物体を保持する際の最終接近動作において接近する方向ではないときには、上記保持動作選択部が上記方向の制限の無い動作を選択する第1又は2の態様に記載のロボットを提供する。
 本発明の上記態様によれば、物体の保持のために物体と接触したことにより人の意図しない方向の力が接触検知部に検出されても、動作方向が物体に接近する方向に制限されているため、安定的な接近動作を実現でき、保持対象物体を保持部で確実に保持することができると同時に、人がロボットアームを物体を保持する方向だけではなく、他の方向に力をかけてロボットアームを移動させることにより、物体に対するハンドなどの保持部の位置ずれを修正するときでも、保持動作選択部による選択動作で邪魔されることがなく、ロボットアームを円滑に動作させて物体を安全に保持することができる。
 本発明の第4態様によれば、上記接触状況検知部で検知した上記物体と上記保持部との距離が閾値よりも小さいときには、上記保持動作選択部が上記方向を制限した動作を選択し、上記接触状況検知部で検知した上記物体と上記保持部との距離が上記閾値以上のときには、上記保持動作選択部が上記方向の制限の無い動作を選択する第1~3のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、ロボットアームは保持対象物体の近傍にあり、最終接近動作を行えば保持対象物体を保持部で確実に保持することができる場合(上記物体と上記保持部との距離が上記閾値よりも小さいとき)には、物体の保持のために物体と接触したことにより人の意図しない方向の力が接触検知部に検出されても、動作方向が物体に接近する方向に制限されているため、安定的な接近動作を実現でき、保持対象物体を保持部で確実に保持することができ、ロボットアームが保持対象物体の近傍にはない場合(上記物体と上記保持部との距離が上記閾値以上のとき)には、任意の方向にロボットアームの位置が修正可能であるため、保持対象物体を保持部で確実に保持することができる。
 本発明の第5態様によれば、上記保持部は、吸着パッドを有するハンドである第1~4のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、物体を保持する目的で吸着パッドを保持対象である物体に接触させたとき、必要な吸着圧を出すためにはただ接触させている状態ではなく、多少押しつける動作が必要となる場合が多い。このような場合でも、接触検知部によって物体とロボットアームの保持部との接触が検知された際に、ロボットアームが動作を一旦停止し、その後、保持動作選択部が、ロボットアームと接触した物体との距離もしくは人がロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを適切に選択し、選択された動作を動作制御部によって実現することで、保持対象物体を保持部で確実に保持することができる。
 本発明の第6態様によれば、上記ロボットアームは、柔軟性のある構造を持つ第1~5のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、特に、ロボットアームが柔軟性のある構造を持つ場合、人がロボットアームに力をかけていると、ロボットアームの本来の位置よりも少し先の位置に、ロボットアームが実際に位置しており、手を離すと、ロボットアームが本来の位置に戻る傾向がある。このような場合でも、接触検知部によって物体とロボットアームとの接触が検知された際に、ロボットアームが動作を一旦停止し、その後、保持動作選択部が、ロボットアームと接触した物体との距離もしくは人がロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを適切に選択し、選択された動作を動作制御部によって実現することで、保持対象物体を保持部で確実に保持することができる。
 本発明の第7態様によれば、上記ロボットは、空気圧人工筋を用いるアクチュエータである第1~5のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、ロボットは、空気圧人工筋を用いるアクチュエータである場合、柔軟性持つ構造であるため、上記第5の態様と同様な効果を奏することができる。
 本発明の第8態様によれば、上記保持動作選択部が上記方向を制限した動作を選択したときは、上記保持部が上記物体を保持する際の最終接近動作において接近する方向のみに動作する第1~7のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、ロボットアームは、物体の保持のために物体と接触したことにより人の意図しない方向の力が接触検知部に検知されても、動作方向が物体に接近する方向に制限されているため、安定的な接近動作を実現でき、保持対象物体を保持部で確実に保持することができる。
 本発明の第9態様によれば、上記接触検知部は、上記ロボットアームの上記保持部のうち上記物体に相対する面に対し垂直をなす方向と、上記接触検知部が検知した方向とがなす角度が閾値よりも小さいときに、上記ロボットアームが上記物体を保持する方向であると検知する第2の態様に記載のロボットを提供する。
 本発明の上記態様によれば、人が物体の保持のためにロボットアームを物体と接触させた場合に、物体と保持部との相対関係が保持可能な範囲であれば、完全に相対する面が接触出来ていなくても保持する方向であると検知することにより、ロボットアームと物体が接触する際の人の動作が不完全であっても安定的な接近動作を実現でき、保持対象物体を保持部で確実に保持することができる。
 本発明の第10態様によれば、上記接触検知部は、上記人が上記ロボットアームにかけている力の方向が、上記保持部のうち上記物体に相対する面の上記物体のうち保持部に相対する面に最も近い1点と、上記物体のうち上記保持部に相対する面との距離が最短距離となる方向と、上記保持部のうち上記物体に相対する面の垂線とがなす角度が、閾値よりも小さい状態を維持しながら、上記物体のうち上記保持部に相対する面と上記保持部のうち上記物体に相対する面とが近づく方向であるとき、最終接近動作において接近する方向であると検知する第3の態様に記載のロボットを提供する。
 本発明の上記態様によれば、人が物体の保持のためにロボットアームを物体に接近させる場合に、人が接近方向と多少ずれた方向にロボットアームを動作させても、保持が可能な方向であれば保持可能な方向と検知することで、安定的な接近動作を実現でき、保持対象物体を保持部で確実に保持することができる。
 本発明の第11態様によれば、上記保持動作選択部が上記方向の制限の無い動作を選択したときは、上記ロボットアームが動作可能な全方向に動作する第1~10のいずれか1つの態様に記載のロボットを提供する。
 本発明の上記態様によれば、ロボットアームは、保持対象物体とロボットアームの保持部が物体に接近する方向に保持部が移動しても保持できる位置関係にない場合には方向の制限のない動作が選択されることにより、任意の方向にロボットアームの位置が修正可能であるため、保持対象物体を保持部で確実に保持することができる。
 本発明の第12態様によれば、ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御装置であって、
 上記ロボットアームに備えられた保持部で上記物体を保持するとき、上記保持部と上記物体との接触を検知する接触検知部と、
 上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部とを備え、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限の無い人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するロボットの制御装置を提供する。
 本発明の上記態様によれば、人と協働して物体を搬送するロボットにおいて、物体を保持する際に保持物体とロボットアームとの接触が発生しても、ロボットアームを安全に動作させて物体を安全に保持することができる。
 本発明の第13態様によれば、ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御方法であって、
 上記ロボットアームに備えられた保持部で、上記物体を保持するとき、上記保持部と上記物体との接触を接触検知部で検知し、
 上記物体と上記保持部との距離を接触時の接触状況として接触状況検知部で検知し、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を保持動作選択部で切替え、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作制御部で動作させ、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限のない人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するロボットの制御方法を提供する。
 本発明の上記態様によれば、人と協働して物体を搬送するロボットにおいて、物体を保持する際に保持物体とロボットアームとの接触が発生しても、ロボットアームを安全に動作させて物体を安全に保持することができる。
 本発明の第14態様によれば、ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御プログラムであって、
 コンピュータを、
 上記ロボットアームに備えられた保持部で、上記物体を保持するとき、上記保持部と上記物体との接触を検知する接触検知部と、
 上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部として機能させ、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限のない人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するように機能させるためのロボット用制御プログラムを提供する。
 本発明の上記態様によれば、人と協働して物体を搬送するロボットにおいて、物体を保持する際に保持物体とロボットアームとの接触が発生しても、ロボットアームを安全に動作させて物体を安全に保持することができる。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 (第1実施形態)
 図1は、本発明の第1実施形態にかかるロボットシステム100の概要を示す図である。
 ロボットシステム100のロボット20は、ロボットアーム21を備えるとともに、L字状のハンドル36を備えている。人91がハンドル36を持ってロボットアーム21を操作することで、ロボットアーム21が動作し、人91と協働して物体30を搬送することができる。さらに、ロボットアーム21は、保持部の一例として機能するハンド22を先端に備えていて、ハンド22で物体30を保持しつつ搬送する機能を持つ。人91がロボットアーム21を操作しつつ物体30をロボットアーム21で搬送することで、ロボット20は、物体搬送のアシストアームとして機能する。
 図2は、本発明の第1実施形態にかかるロボットシステム100の構成を示す図である。
 ロボットシステム100は、制御装置50と、制御対象であるロボット20とにより構成されている。
 制御装置50は、この第1実施形態では、一例として、一般的なパーソナルコンピュータにより構成されており、制御装置50は、制御プログラム40と、入出力IF41とで構成されている。入出力IF(インターフェース)41は、パーソナルコンピュータのPCIバスなどの拡張スロットに接続された、例えば、D/Aボードと、A/Dボードと、カウンタボードとなどを備えるように構成されている。
 制御装置50は、入力部の一例としての入出力IF41を介して、ロボット機構部6の各リンクマニピュレータを駆動するモータドライバ24と接続され、そのモータドライバ24に制御信号を送る。
 ロボット20は、上記したように、ロボットアーム21を備えている。ロボットアーム21の構造については後述する。
 ロボットアーム21の動作を制御する制御装置50が実行されることにより、ロボットアーム21の各関節部の後述するエンコーダ7より出力される各関節角度情報を検出し、入出力IF41のカウンタボードを通じて制御装置50に取り込まれ、取り込まれた各関節角度情報に基づき制御装置50によって各関節部の回転動作での制御指令値が算出される。算出された各制御指令値は、入出力IF41のD/Aボードを通じて、ロボットアーム21の各関節部を駆動制御するためのモータドライバ24に与えられ、モータドライバ24から送られた各制御指令値に従って、ロボットアーム21の各関節部のモータ23が駆動される。このモータドライバ24とモータ23とで駆動部の一例として機能する。また、エンコーダ7は、角度情報を出力する角度検出部の一例として機能する。
 ロボットアーム21は、一例として、3自由度の多リンクマニピュレータであり、先端には、ハンド22の取り付けが可能である。ロボットアーム21は、ハンド22が取り付けられている第3リンク31と、第3リンク31を先端に有する第2リンク32と、第2リンク32の基端に先端が回転可能に連結される第1リンク33と、第1リンク33の基端が回転可能に連結支持され床90に固定される台部34とを備えている。さらに、人91が持って操作を行うハンドル36が、第3リンク31の先端に、力検出部の一種である力センサ25を介して取り付けられている。
 ロボットアーム21は、直交するx軸とy軸とを含むxy平面内で正逆回転する第1関節軸35-1と、同じくxy平面内で正逆回転する第2関節軸35-2と、同じくxy平面内で正逆回転する第3関節軸35-3とを備えて構成されている。第1関節軸35-1と第2関節軸35-2と第3関節軸35-3とは、それぞれ、ロボットアーム21の第1関節と第2関節と第3関節との回転軸である。この結果、ロボットアーム21は、第1関節軸35-1から第3関節軸35-3の合計3個の軸周りにそれぞれ独立して回転可能として、上記3自由度の多リンクマニピュレータを構成している。
 各軸の回転部分を構成する各関節部には、各関節部を構成する一対の部材(例えば、回動側部材と、該回動側部材を支持する支持側部材)のうちの一方の部材に備えられ、かつ後述するモータドライバ24により駆動制御される回転駆動装置の一例としてのモータ23(実際には、ロボットアーム21の各関節部の内部に配設されている)と、モータ23の回転軸の回転位相角(すなわち、関節角)を検出するエンコーダ7(実際には、ロボットアーム21の各関節部の内部に配設されている)とを備える。よって、各関節部を構成する一方の部材に備えられたモータ23の回転軸が、各関節部の他方の部材に連結されて上記回転軸を正逆回転させることにより、他方の部材を一方の部材に対して各軸周りに回転可能とする。
 図3は、本発明の第1実施形態にかかるロボット20の制御装置50及び制御対象であるロボット20の一部を示すブロック図である。
 ロボット20の制御装置50は、少なくとも、接触検知部11と、接触状況検知部13と、保持動作選択部14と、力制御部12とを備えて構成している。接触検知部11は、ハンド22と物体30との接触を検知する。接触状況検知部13は、物体30とロボット20(ハンド22)との距離を接触時の接触状況の一例として検知する。保持動作選択部14は、接触状況検知部13により検知された接触状況によって保持時のロボットアームの動作を切替える。力制御部12は、人91がロボットアーム21にかけた力に応じてロボットアーム21を動作させる。よって、接触検知部11によって接触が検知された際に、ロボットアーム21が一旦停止し、その後、保持動作選択部14は、ロボットアーム21と接触した物体30との距離もしくは人91がロボットアーム21にかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを選択し、選択された動作を力制御部12によって実現することで保持動作を行う。
 より詳しくは、制御装置50は、目標軌道生成部1と、目標位置加算部8と、方向制限部5と、逆運動学計算部4と、目標角加速度計算部2と、目標関節トルク計算部3と、出力誤差計算部9と、修正目標角加速度計算部10と、力制御部12と、接触検知部11と、接触状況検知部13と、保持動作選択部14とを備えて構成している。また、ロボット20は、ロボットアーム21で構成されるロボット機構部6と、エンコーダ7と、力センサ25と、ハンド22とを備え構成している。また、制御装置50に対しては、エンコーダ7で計測されたロボット20からの関節角度計測情報と、力検出部の一例である力センサ25で計測されかつ人がハンドル22にかけた力情報(力ベクトルF)と、ハンド22の保持の有無の情報とが入力される。
 目標軌道生成部1は、目標とするロボット20の動作を実現するための目標位置ベクトルrを目標位置加算部8に出力する。目標とするロボット20の動作は、目的とする作業に応じて、事前に、それぞれの時間(t=0、t=t、t=t、・・・)でのポイントごとの目標位置rdt=[rdt1,rdt2(rd0、rd1、rd2、・・・)が目標軌道生成部1内の記憶部に記録されている。そして、目標位置生成部1は、それぞれの時間(t=0、t=t、t=t、・・・)でのポイントごとの位置(rd0、rd1、rd2、・・・)の情報を基に多項式補間を使用し、各ポイント間の軌道を補完し、目標位置ベクトルr=[rd1,rd2を生成する。
 目標位置加算部8は、目標軌道生成部1から出力された目標位置角度ベクトルrと力制御部12から出力された補正目標位置ベクトルΔrとが入力され、修正目標位置ベクトルrdm=r+Δrを計算し、計算で求められた値を逆運動学計算部4に出力する。
 力制御部12は、動作制御部の一例として機能し、方向制限部5の出力である方向制限力情報(方向制限力ベクトルFrs)を基に、補正目標位置ベクトルΔrを算出して目標位置加算部8に出力する。力制御部12は、インピーダンス制御法又はコンプライアンス制御法等の力制御手法により、補正目標位置ベクトルΔrを算出する。人91がロボットアーム21に取り付けられたハンドル36にかけた力を、力検出部の一種である力センサ25で検出し、検出した力を基に力制御部12が補正目標位置ベクトルΔrを算出して出力する。このような方法で、人91がかけた力の方向にロボットアーム21が動作する、人協調動作を実現することができる。
 方向制限部5は、保持動作選択部14から出力された制限方向情報と、力センサ25から出力された力情報(力ベクトルF)とが入力され、方向制限力ベクトルFrsを力制御部12に出力する。方向制限部5は、後述する保持動作選択部14から出力される制限方向情報に基づき、方向制限力ベクトルFrsのうち、制限をかける方向の成分については0で置き換える情報を出力する。方向制限部5は、制限をかけない方向の成分については、力センサ25から入力された値をそのまま出力する。ロボット機構部6の動作を停止させる場合には、保持動作選択部14からの全方向制限信号に基づき、制限部5は、全ての方向に制限をかけるため、全ての方向の成分について0で置き換える情報を出力する。逆に、ロボット機構部6を自由に動作させる場合には、保持動作選択部14からの信号に基づき、制限部5は、全ての方向に制限をかけないため、全ての方向の成分について力センサ25から入力された値をそのまま出力する。
 一例として、保持動作選択部14から出力された情報がx方向の場合、すなわちx方向には制限をかけて、y方向には動作する場合を説明する。力センサ25の出力である力情報Fは、x方向の情報とy方向の情報とを持つ力ベクトルF=[Fs1,Fs2である。方向制限部5においては、力ベクトルFの内、制限をかけるx方向の力ベクトルFs1は0で置き換える。方向制限部5においては、y方向については、制限をかけないので力ベクトルFs2をそのまま利用する。これで、方向制限力ベクトルFrs=[0,Fs2が算出され、算出した値を方向制限部5から力制御部12に出力する。また、保持動作選択部14から出力された情報がx方向とy方向との場合、すなわちx方向とy方向との両方に制限をかけて停止動作させる場合、方向制限部5においては、力ベクトルFの内、制限をかけるx方向とyの方向の力ベクトルFs1及びFs2をそれぞれ0で置き換える。よって、方向制限力ベクトルFrs=[0,0]が算出され、算出した値を方向制限部5から力制御部12に出力する。
 逆運動学計算部4は、目標位置加算部8から出力された修正目標位置ベクトルrdmが入力され、目標角度ベクトルqdmを計算で求めて、目標角加速度計算部2と出力誤差計算部9とに出力する。目標角度ベクトルqdmは、ロボット20の幾何学情報から計算される。
 出力誤差計算部9は、逆運動学計算部41から出力された目標角度ベクトルqdmとエンコーダ7の出力qとが入力され、角度誤差ベクトルq=qdm-qを計算し、出力誤差の一例として角度誤差ベクトルqを修正目標角加速度計算部10に出力する。
 目標角加速度計算部2は、逆運動学計算部4が出力した目標角度ベクトルqdmが入力され、目標角加速度
Figure JPOXMLDOC01-appb-M000001
を修正目標角加速度計算部10に出力する。
 修正目標角加速度計算部10は、目標角加速度計算部2の出力である目標角加速度
Figure JPOXMLDOC01-appb-M000002
と出力誤差計算部9の出力である角度誤差ベクトルqとが入力され、制御指令値の一例として修正目標角加速度
Figure JPOXMLDOC01-appb-M000003
を目標関節トルク計算部3に出力する。
 目標関節トルク計算部3は、修正目標角加速度計算部10の出力である修正目標角加速度
Figure JPOXMLDOC01-appb-M000004
と目標関節トルク計算部3の記憶部に予め記憶しているダイナミクスパラメータとから、目標関節トルクτを演算し、目標関節トルクτをロボット機構部6のモータドライバ24に出力する。目標関節トルクτの演算方法の一例として、以下の式で目標関節トルクτを算出する。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
は、それぞれ、物体30及びロボット20のダイナミクスパラメータからなる係数行列であり、
Figure JPOXMLDOC01-appb-M000007
は物体30及びロボット20の質量にかかる重力項である。
 目標関節トルクτは、D/Aボードなどの入出力IF41を介してモータドライバ24にトルク目標値として入力され、各関節軸35に備え付けられたモータ23がそれぞれ独立して正逆回転駆動されて、ロボット機構部6のロボットアーム21が動作する。
 ロボット機構部6のロボットアーム21が動作した結果、ロボット20の関節角度は変化し、その関節角度qを検出するエンコーダ7から検出した結果が、入出力IF41を介して出力誤差計算部9と接触状況検知部13とに入力される。
 接触検知部11は、ロボットアーム21が外界の物体30に接触したこと及び、接触の方向を検知し、接触検知信号を接触状況検知部13と保持動作選択部14とに出力する。接触検知信号には接触した方向の情報が含まれる。接触の検知方法は、一例として、ロボットアーム21に付けられた接触検知センサ26又は近接センサ等が挙げられる。また、モータ23の電流値などから接触を検知する方法もある。例えばロボットアーム21に取り付けてある後述の吸着パッド22aに、いくつかの接触検知センサ26を取り付け、どの接触検知センサ26が検知したかによって、接触方向は容易に検出可能である(図2参照)。
 接触状況検知部13は、接触検知部11から接触検知信号が入力され、入力された接触検知信号に基づき、接触状況情報を保持動作選択部14に出力する。接触状況情報には、接触した物体30と停止したロボット20のハンド22との距離、人91がロボット20のロボットアーム21にかけている力の方向、及び/又は、ロボットアーム21(ハンド22)と接触物体30とが接触した方向などがある。
 物体30とロボット20のハンド22との距離とは、ロボット20のハンド22が物体30に衝突(物体保持のために接触)した後にロボット20の動作が一旦停止した時点での、物体30とロボット20のハンド22との距離を指す。この距離は、ハンド22に取り付けた距離センサなどを用いて直接計測して、距離センサから接触状況検知部13に入力されることにより、接触状況検知部13で求めてもよい。代わりに、エンコーダ7から接触状況検知部13に入力される関節角度qに基づき、衝突時のハンド22の位置と停止時のハンド22の位置とを接触状況検知部13で比較して、上記距離を求めてもよい。人91がロボット20のロボットアーム21にかけている力の方向は、力センサ25で検知した人91がロボットアーム21にかけている力の情報を基に、接触状況検知部13で求めることができる。力の方向は、力センサ25の情報である力ベクトルF=[Fs1,Fs2において
Figure JPOXMLDOC01-appb-M000008
とすれば算出可能である。
 保持動作選択部14は、接触状況検知部13から入力された接触状況情報を基に、保持動作として、「停止継続動作」と、「方向を制限した人協調動作」と、「方向制限の無い人協調動作」との3つの動作から1つの動作を選択する。保持動作選択部14が「停止継続動作」を選択した場合は、全方向の情報を制限信号として方向制限部5に出力する。また、保持動作選択部14が「方向を制限した人協調動作」を選択した場合は、制限する方向の情報を、制限信号(制限方向情報)として、方向制限部5に出力する。ただし、ロボット20が物体30に衝突した後、ロボット20がその動作を一旦停止してから保持動作を選択することになる。このため、保持動作選択部14は、接触検知部11から接触検知信号が入力されたら、予め決められた時間(例えば1秒)は、必ずロボット20の停止動作のために、全方向の制限信号を方向制限部5に出力する。その後、保持動作選択部14は、接触状況検知部13から入力された接触状況情報を基に、3つの保持動作から選択した保持動作を行うための制限信号(制限方向情報)を、方向制限部5に出力する。さらに、ロボットアーム21のハンド情報が入力され、ハンド22が閉、すなわち、ハンド22が物体30を保持したという情報を保持動作選択部14で受け取ると、保持動作選択部14からの制限信号の出力を終了する。
 ここで、保持動作とは、一例として、吸着動作を意味する。具体的には、物体30を吸着可能な吸着パッド22aをハンド22に装着するとともに、吸着パッド22aに圧力センサ22bを設けている。そして、圧力センサ22bにより、物体30の保持、すなわち、吸着パッド22aに物体30が吸着されることによる吸引力の変化を検出して、吸着パッド22aに物体30が吸着されたか否かを検出し、検出結果を、ハンド22の保持の有無の情報として、圧力センサ22bから制御装置50に出力する。
 保持動作選択部14の具体的動作を以下に述べる。ロボットアーム21のハンド22が保持物体30と接触した後、ハンド22と保持物体30とがほぼ接触した状態で停止動作している場合、これ以上、ロボットアーム21のハンド22を物体30に押しつける動作を行うと、ハンド22と物体30との間に押しつけ力が過大に発生して危険である。このため、このような動作を行わないために、保持動作選択部14は人協調動作を選択せず、停止継続動作するのが望ましい。そこで、接触状況情報の内、接触した物体30と停止したロボット20のハンド22との距離の情報が予め決められた閾値未満であると保持動作選択部14で判断した場合は、保持動作選択部14は停止継続動作を選択する。閾値は、吸着パッド22aが物体を確実に保持できる吸着パッド22aと物体30の相対距離を予め実験等により求めておき、保持動作選択部14の記憶部に記憶しておく。
 また、接触した方向が、ハンド22が保持する方向とは異なる場合は、保持のために接触したのではなく、ロボットアーム21が、保持を目的とした物体30とは異なる周辺環境にぶつかったと判断するか、もしくは、衝突した対象は、保持を目的とした物体30ではあるが、ロボットアーム21と物体30の位置関係が保持に適切な位置にないと保持動作選択部14で判断し、保持動作選択部14は人協調動作を選択せず、停止継続動作をするのが望ましい。そこで、接触状況情報の内、接触した方向が、ハンド22の保持する方向とは異なると保持動作選択部14で判断した場合は、保持動作選択部14は停止継続動作を選択する。
 接触した方向が、ハンド22が保持する方向かどうかの保持動作選択部14での判断の一例として、図2の接触検知センサ26により接触した方向を検知した例を元に説明する。吸着パッド22aが物体を保持をするときに物体と接触する方向はy軸負の方向であり、吸着パッド22aの下面が吸着面である。そこで、接触検知センサ26を、吸着パッド22aの吸着面を含むいくつかの方向に向けて取り付けておく。吸着面に取り付けた接触検知センサ26が接触を検知した場合、接触状況検知部13から、物体と接触した方向がy軸負の方向であることが接触検知信号として入力されるので、接触した方向が、ハンド22が保持する方向と一致することが保持動作選択部14で判断できる。また、例えば、吸着パッド22aの側面であるx軸正の方向に取り付けられた接触検知センサ26が接触を検知した場合、接触状況検知部13から、物体と接触した方向がx軸正の方向であることが接触検知信号として入力されるので、接触した方向が、ハンド22が保持する方向と異なることが保持動作選択部14で判断できる。
 さらに、接触した方向が、ハンド22が保持する方向かどうかの保持動作選択部14での判断の一例として、図10A及び図10Bの例を基に説明する。
 図10Aの例では、接触した方向(実線c)はy軸正の方向であることが、接触検知信号として接触状況検知部13から保持動作選択部14に入力される。一方、吸着パッド22aの吸着面(破線a)と直交する方向(破線b)はy軸方向と一致しておらず、接触した方向が、ハンド22が保持する方向と一致しているとはいえない。しかし、多少角度がずれた状態で吸着パッド22aを物体30に押しつけても、吸着パッド22aにより物体30の保持が可能である。そこで、吸着パッド22aの吸着面と直交する方向(破線b)と接触した方向(実線c)とのなす角度(保持部のうち物体30に相対する面に対し垂直をなす方向と、接触検知部11が検知した方向とがなす角度)、すなわち、破線bと破線dとのなす角度θの閾値(保持方向判断用閾値)を実験等で予め決めておき、保持動作選択部14の記憶部に記憶しておく。図10Aの場合、角度θが閾値(保持方向判断用閾値)以内であるので、吸着パッド22aにより物体30を保持可能であり、接触した方向が、ハンド22が保持する方向と一致すると保持動作選択部14で判断する。
 一方、図10Bの例では、吸着パッド22aの吸着面と直交する方向(破線b)と接触した方向(実線c)のなす角度、すなわち、破線bと破線dのなす角度θが閾値を超えているので、接触した方向が、ハンド22が保持する方向と一致しないと保持動作選択部14で判断する。
 ハンド22としては、吸着パッド22aに限定されるものではなく、一般的な保持動作を行うハンド22でも同様である。図11Aと図11Bとは、それぞれハンド22を例に説明する。
 図11Aは、図10Aと同じく、接触した方向が、ハンド22が保持する方向と一致すると保持動作選択部14で判断する例である。ハンド22がチャック22bの構造の場合、吸着パッド22aの吸着面のようなハンド22と物体30との明確な接着面はないが、物体30に相対する面に相当する面として、チャック22bのL字状の屈曲部22cの回転支点同士を結ぶ破線aを含む面がある。これは、物体30をまっすぐに保持した場合に、物体30のうちハンド22の根本に最も近くハンド22に相対する面と略平行となる面である。この面に対して垂直となる破線bと接触した方向(実線c)のなす角度、すなわち破線bと破線dとのなす角度θが閾値以内である場合は保持可能であるため、接触した方向が、ハンド22が保持する方向と一致すると保持動作選択部14で判断する。
 図11Bも同様に、破線aを含む面に対して垂直となる破線bを定義し、破線bと破線dのなす角θが閾値以上であるため、接触した方向が、ハンド22が保持する方向と一致しないと保持動作選択部14で判断する。
 次に、物体30と停止したロボット20のハンド22との距離が上記閾値以上であると保持動作選択部14が判断した場合について述べる。
 図5A及び図5Bは、物体30とハンド22とが接触した後、ロボット20が停止動作している状態でハンド22で物体30を保持しようとする人91とロボットアーム21と物体30との位置の一例を示す平面図及び斜視図である。図5A及び図5Bに示す様に、ハンド22の保持面(一例として吸着面)全体が物体30に対して正対する位置にある場合、人91はハンド22の保持面を物体30に押し当てる方向(保持方向)(図5Bのy方向の負の方向)のみに動かすだけでよいため、人91は主にy方向の負の方向に力をかける。吸着パッド22aで物体を保持する際に、保持する直前のロボットアームの動作方向、すなわち、最終接近動作の方向は保持面(吸着面)を物体に押し当てる方向、すなわち、図5の例ではy方向の負の方向になるはずである。そこで、接触停止後、人91がy方向の負の方向すなわちハンド22の保持面を物体30に押し当てる方向(保持方向)のみに力をかけている場合は、ハンド22が物体30に対して保持しようと近づく方向、すなわち図5Bのy方向にのみに動作するよう制限した人協調動作(「方向を制限した人協調動作」)を保持動作選択部14により選択する。すなわち、制限方向xの情報を制限方向情報として出力する。
 このように、人91がロボット20のロボットアーム21に物体30を保持する方向に力をかけてロボット20のロボットアーム21を移動させて、物体30をハンド22で保持するとき、「方向を制限した人協調動作」を保持動作選択部14により選択するようにしている。このため、保持動作選択部14による適切な選択動作により、ロボット20のロボットアーム21を円滑に動作させて物体30を安全に保持することができる。
 さらに、人91がロボット20のロボットアーム21にかけている力の方向が、最終接近動作の方向であるかどうかの保持動作選択部14による判断の例を、図12A及び図12Bにより説明する。
 図12Aでは、吸着パッド22aのうち物体30に相対する面は、吸着パッド22aの吸着面(破線a)である。また、物体30のうち吸着パッド22aの吸着面に相対する面は、物体30の上面(灰色塗りつぶし面)30bである。吸着面のうち物体30の上面30bに最も近い一点(点d)と物体30の上面30bとの距離が最短距離となる方向は、点dから物体30の上面30bにおろした垂線(実線e)の方向である。この実線eと平行である破線fと吸着パッド22aの吸着面のうち物体30に相対する面の垂線(破線c)とのなす角度θが閾値(保持方向判断用閾値)よりも小さく、この状態を維持したまま、吸着面と物体30の上面30bとが接近する方向に移動する方向が、最終接近動作において接近する方向である。言い換えれば、図12Aにおいて、角度θは、保持部のうち物体30に相対する面の物体30のうち保持部に相対する面に最も近い1点と、物体30のうち保持部に相対する面との距離が最短距離となる方向と、保持部のうち物体30に相対する面の垂線とがなす角度である。人91がロボット20のロボットアーム21にかけている力の方向にロボットアーム21は移動するため、例えば人91がかけている力の方向が破線fと平行でかつ力のベクトルのY成分が負であれば、最終接近動作において接近する方向であると保持動作選択部14で判断する。また、人91がかけている力の方向が破線cと平行でも力のベクトルのY成分が正の場合、物体30のうち吸着パッド22aの吸着面に相対する面との距離が最短距離となる方向と、吸着パッド22aの吸着面のうち物体30に相対する面の垂線とがなす角度θが、閾値(保持方向判断用閾値)よりも小さい状態を維持するが、物体30のうち吸着パッド22aの吸着面に相対する面と吸着パッド22aの吸着面のうち物体30に相対する面が遠ざかる方向なので、接近する方向ではないと保持動作選択部14で判断する。また、図12Aの状態から図12BのFの方向に人91が力をかけた場合、物体30のうち吸着パッド22aの吸着面に相対する面との距離が最短距離となる方向と、吸着パッド22aの吸着面のうち物体30に相対する面の垂線とがなす角度が、閾値(保持方向判断用閾値)よりも大きくなってしまうので、やはり、最終接近動作において接近する方向ではないと保持動作選択部14で判断する。
 また、別の例を示す。図6A及び図6Bは、物体30とハンド22とが接触した後、ロボット20が停止動作している状態でハンド22で物体30を保持しようとする人91とロボットアーム21と物体30との位置の一例を示す平面図及び斜視図である。図6A及び図6Bの場合、ハンド22の保持面全体が物体30と正対していないため、人91は、ハンド22の保持面が物体30の上面の上方に位置する様に、ハンド22を移動させる必要がある。そのため、人91は、図6A及び図6Bの例では、x方向の負の方向にも力をかける必要がある。そこで、物体30とハンド22とが接触してロボット20が停止動作した後、人91が、ハンド22の保持面を物体30に押し当てる方向(保持方向)のみではなく、他の方向に力をかけている場合は、人91がハンド22の保持位置を修正しようとしていると保持動作選択部14で判断して、全方向に動作する人協調動作(「方向制限の無い人協調動作」)を保持動作選択部14により選択する。この例では、制限はかけないため、何も出力しない。
 このように、人91がロボット20のロボットアーム21を物体30を保持する方向だけではなく、他の方向に力をかけてロボット20のロボットアーム21を移動させることにより、物体30に対するハンド22の位置ずれを修正するときでも、保持動作選択部14による選択動作で邪魔されることがなく、ロボット20のロボットアーム21を円滑に動作させて物体30を安全に保持することができる。
 保持動作選択部14の実際の動作ステップについて、図4のフローチャートに基づいて説明する。
 まず、ステップS10では、保持動作選択部14は、接触検知部11から接触検知信号が入力されているかどうかの確認を行う。入力が無い場合はS10を繰り返す。
 以下、ステップS10において、接触検知部11から保持動作選択部14に接触検知信号が入力されている場合について説明する。
 次いで、ステップS11では、保持動作選択部14は、ロボット20の停止動作のために、全方向制限信号(停止信号)を方向制限部5に出力する。これにより、方向制限部5から方向制限力ベクトルFrs=[0,0]が力制御部12に出力される。その後、目標位置加算部8から目標関節トルク計算部3まで、それぞれ、情報が入出力され、適宜、演算等を行うなどして、停止動作用の目標関節トルクτを算出する。算出した停止動作用の目標関節トルクτを停止信号として、目標関節トルク計算部3からモータドライバ24に出力して、ロボット20がその動作を一旦停止する。
 次いで、ステップS12では、保持動作選択部14で、内蔵するタイマーを用いて、所定時間を経過したかどうかを確認する。保持動作選択部14が所定時間経過していないと判断した場合は、S11に戻って、ロボット20の停止動作を継続する為に、全方向制限信号を保持動作選択部14から方向制限部5に出力する。
 以下、ステップS12において、保持動作選択部14が所定時間(例えば、数秒)を経過したと判断した場合について説明する。
 次いで、ステップS13では、保持動作選択部14が、接触状況情報からロボット20のロボットアーム21と接触物体30と接触した方向が予め定められた保持方向かどうかを判断する。
 以下、ステップS13において、保持動作選択部14が接触した方向が予め定められた保持方向であると判断した場合について説明する。
 次いで、ステップS14では、保持動作選択部14が、接触状況情報から、ロボット20と接触物体30との距離が予め決められた閾値以上かどうかを判断する。
 以下、ステップS14において、ロボット20と接触物体30との距離が閾値以上であると保持動作選択部14で判断した場合について説明する。
 次いで、ステップS15では、接触状況情報から、人91がかけている力が、ハンド22を物体30に押し当てる方向(保持方向)のみかどうかを、保持動作選択部14により確認する。人91がかけている力がハンド22を物体30に押し当てる方向(保持方向)のみであると保持動作選択部14で判断した場合には、ステップS16に進む。そうでない場合には、ステップS21に進む。
 以下、ステップS15において、人91がかけている力がハンド22を物体30に押し当てる方向(保持方向)のみであると保持動作選択部14で判断した場合について説明する。
 次いで、ステップS16では、ロボット20の動作方向を保持方向のみに制限した人協調動作(「方向を制限した人協調動作」)を保持動作選択部14により選択する。
 次いで、ステップS17では、ステップS16で選択した「方向を制限した人協調動作」に基づき、制限をかける方向の情報である制限信号(制限方向情報)を保持動作選択部14から方向制限部5に出力する。
 次いで、ステップS18では、吸着パッド22aの圧力センサ22bからの情報などを基に、ハンド22が物体30を保持したかどうかの確認(判断)を保持動作選択部14により行う。保持動作選択部14により保持していないと判断した場合は、ステップS17に戻り、保持動作選択部14により制限信号の出力を続ける。
 以下、ステップS18において、ハンド22が物体30を保持したと保持動作選択部14により判断したときについて説明する。
 次いで、ステップS19では、保持動作選択部14による制限信号の出力を終了する。
 以上のステップS10~ステップS19の動作により、保持動作選択部14は、ハンド22と物体30とが接触した後、制限信号を出力し、保持動作選択部14による制限信号の出力が終了するまでの動作が可能となる。
 また、ステップS15において、人91がかけている力が、ハンド22を物体30に押し当てる方向(保持方向)のみではないと保持動作選択部14により判断された場合について説明する。
 次いで、ステップS21では、動作方向を全方向、すなわち、方向制限無しの人協調動作を保持動作選択部14により選択する。
 次いで、ステップS19では、ステップS15において方向制限無しの人協調動作を保持動作選択部14により選択したので、保持動作選択部14により制限信号の出力を終了する。
 以上のステップS10~ステップS15、ステップS21、ステップS19の動作により、保持動作選択部14は、ハンド22と物体30とが接触した後、方向制限を一旦停止した後、方向制限無しの人協調動作(「方向制限の無い人協調動作」)を保持動作選択部14により選択し、保持動作選択部14による制限信号の出力が終了するまでの動作が可能となる。
 以下、ステップS14において、閾値未満の場合について説明する。
 次いで、ステップS20では、保持動作選択部14により停止継続動作を選択する。この場合、制限方向は全方向となる。
 次いで、ステップS17では、ステップS16で選択した「方向を制限した人協調動作」に基づき、制限方向の信号を保持動作選択部14から方向制限部5に出力する。
 次いで、ステップS18では、吸着パッド22aの圧力センサ22bからの情報などを基に、ハンド22が物体30を保持したかどうかの確認(判断)を保持動作選択部14により行う。保持動作選択部14により保持していないと判断した場合は、ステップS17に戻り、保持動作選択部14により制限信号の出力を続ける。
 以下、ステップS18において、ハンド22が物体30を保持したと保持動作選択部14により判断したときについて説明する。
 次いで、ステップS19では、保持動作選択部14による制限信号の出力を終了する。
 以上のステップS10~ステップS14、ステップS17~ステップS20の動作により、保持動作選択部14は、ハンド22と物体30とが接触した後、制限信号を出力してロボット20が停止動作し、保持動作選択部14による制限信号の出力が終了するまでの動作が可能となる。
 以下、ステップS13において、保持動作選択部14が接触した方向が予め定められた保持方向ではないと判断した場合について説明する。
 次いで、ステップS20では、保持動作選択部14により停止継続動作を選択する。この場合、制限方向は全方向となる。
 以下、ステップS17~S19は上記と同様である。
 以上のステップS10~ステップS13、ステップS17~ステップS20の動作により、保持動作選択部14は、ハンド22と物体30とが接触した後、制限信号を出力してロボット20が停止動作し、保持動作選択部14による制限信号の出力が終了するまでの動作が可能となる。
 以上の原理に基づく制御装置50の制御プログラム40の実際の動作ステップについて、図7のフローチャートに基づいて説明する。
 まず、ステップS31では、エンコーダ7の出力である関節角度qが、制御プログラム40(の出力誤差計算部9と接触状況検知部13と)に取り込まれる。
 次いで、ステップS32では、力センサ25の出力である力ベクトルFが、制御プログラム40(の方向制限部5)に取り込まれる。
 次いで、ステップS33では、ハンド22の情報(例えば、圧力センサ22bの検出情報)が制御プログラム40(の保持動作選択部14)に取り込まれる。
 次いで、ステップS34では、目標軌道生成部1において目標位置ベクトルrを生成して目標位置加算部8に出力する。
 次いで、ステップS35では、接触検知部11が、ロボット20が外界環境に接触しているかどうか確認(検知)する。
 以下、ステップS35において、接触検知部11が接触を確認(検知)している場合について説明する。
 次いで、ステップS36において、接触検知部11は、接触検知信号を接触状況検知部13と保持動作選択部14とに出力する。
 次いで、ステップS37において、接触状況検知部13は、接触検知部11からの接触検知信号に基づき、接触状況情報を保持動作選択部14に出力する。
 次いで、ステップS38において、保持動作選択部14は、接触検知部11からの接触検知信号と、接触状況検知部13からの接触状況情報とに基づき、ロボット20の保持動作を選択し、制限方向情報を方向制限部5に出力する。
 次いで、ステップS39において、方向制限部5は、保持動作選択部14から入力された制限方向情報と、力センサ25からの力ベクトルFとに基づき、方向制限力ベクトルFrsを算出して、力制御部12に出力する。
 次いで、ステップS40において、力制御部12は、方向制限部5から入力された方向制限力ベクトルFrsに基づき、補正目標位置ベクトルΔrを算出して目標位置加算部8に出力する。
 次いで、ステップS41において、目標位置加算部8は、目標軌道生成部1からの目標位置ベクトルrと目標位置加算部8からの補正目標位置ベクトルΔrとを加算して、修正目標位置ベクトルrdmを計算して、逆運動学計算部4に出力する。
 次いで、ステップS42において、逆運動学計算部4は、目標位置加算部8からの修正目標位置ベクトルrdmに基づき目標角度ベクトルqdmを計算して、目標角加速度計算部2と出力誤差計算部9とに出力する。
 次いで、ステップS43において、出力誤差計算部9は、逆運動学計算部4からの目標角度ベクトルqdmとエンコーダ7の出力qとに基づき、角度誤差ベクトルqを計算して修正目標角加速度計算部10に出力する。
 次いで、ステップS44において、目標角加速度計算部2は、逆運動学計算部4からの目標角度ベクトルqdmに基づき、目標角加速度
Figure JPOXMLDOC01-appb-M000009
を計算して修正目標角加速度計算部10に出力する。
 次いで、ステップS45において、修正目標角加速度計算部10は、出力誤差計算部9からの角度誤差ベクトルqと目標角加速度計算部2からの目標角加速度
Figure JPOXMLDOC01-appb-M000010
とに基づき、
修正目標角加速度
Figure JPOXMLDOC01-appb-M000011
を計算して目標関節トルク計算部3に出力する。
 次いで、ステップS46において、目標関節トルク計算部3は、修正目標角加速度計算部10からの修正目標角加速度
Figure JPOXMLDOC01-appb-M000012
と目標関節トルク計算部3の記憶部に予め記憶しているダイナミクスパラメータとに基づき、目標関節トルクτを演算してロボット機構部6のモータドライバ24に出力する。
 次いで、ステップS47において、目標関節トルク計算部3からの目標関節トルクτが、入出力IF41を通じて、モータドライバ24に入力され、モータ23をそれぞれ駆動して、ロボット20が動作する。
 以上のステップS31~ステップS47が、制御の計算ループとして繰り返し実行されることにより、ロボット20の動作制御が実現する。
 以下、ステップS35において、接触検知部11が接触を確認していない場合について説明する。
 次いで、ステップS39において、方向制限部5は、保持動作選択部14から入力された制限方向情報と、力センサ25からの力ベクトルFとに基づき、方向制限力ベクトルFrsを算出して、力制御部12に出力する。ただし、接触検知部11が接触を確認(検知)していない場合、保持動作選択部14は何も出力していないため、方向制限部5はどの方向にも制限せず、方向制限力ベクトルは、力センサ25から入力された力ベクトルFと同値となる。
 以下、ステップS40~ステップS47は、上記説明と同様である。
 以上のステップS31~ステップS35、ステップS39~ステップS47が制御の計算ループとして繰り返し実行されることにより、ロボット20の動作制御が実現する。
 以上のように、上記第1実施形態の上記制御装置50は、目標軌道生成部1と、目標位置加算部8と、方向制限部5と、逆運動学計算部4と、目標角加速度計算部2と、目標関節トルク計算部3と、出力誤差計算部9と、修正目標角加速度計算部10と、力制御部12と、接触検知部11と、接触状況検知部13と、保持動作選択部14とを備え、モータ23のトルク制御を行うロボット20を構成する。保持動作選択部14と方向制限部5とにより、人91がロボットアーム21に物体30を保持させる際に人協調動作の方向を制限したり、ロボットアーム21を停止動作したりの選択を行う。これにより、物体30の保持を目的としてロボットアーム21を物体30に接触させる際にも安全なロボット20の制御が可能となる。
 なお、第1実施形態では、ロボット20が物体30に接触した後にロボット20が停止動作する際に、ロボット20のハンド22が、物体30との接触位置からずれた位置に停止すること(すなわち、ロボット20が物体30に衝突した後にロボット20の動作が一旦停止した時点で、物体30とロボット20のハンド22との間に距離があること)を記載している。しかしながら、これは、人91の力によってロボットアーム21自体が変形する場合に、そのようなずれの発生が、より顕著となる。一例として、アクチュエータとしてモータ23のような柔軟性を持たない剛体の構造ではなく、柔軟性を持つ構造、例えば、空気圧人工筋101を用いたロボット20Bを考える。このようなロボット20Bでは、アクチュエータ自体が柔軟性を持ち、人91の力によってロボットアーム21が押されたときにロボットアーム21のハンド22の位置がある程度動かされることになる。すなわち、人91がロボット20Bに力をかけてロボット20Bを動作させた場合、人91が力を抜くと、ロボット20Bの位置が多少変化する。よって、ロボット20Bが物体30に衝突したときのロボット20Bのハンド22の位置と、その後、ロボット20Bが停止動作した際のハンド22の位置とが変わるケースが多い。このため、第1実施形態を適用することが有効となる。以下、第1実施形態の変形例として、具体的に説明する。
 図8は、第1実施形態の変形例において、空気圧人工筋101をアクチュエータとして用いたロボット20Bの一例である。ロボット20Bは、3自由度のロボットアームであって、直交するx軸とy軸とを含むxy平面内で正逆回転する第1関節軸35-1と、同じくxy平面内で正逆回転する第2関節軸35-2と、同じくxy平面内で正逆回転する第2関節軸35-3とを備えて構成されている。図8において、101-1a、101-1b、101-2a、101-2b、101-3a、101-3b(これらは個別の弾性膨張収縮構造体に対する参照符号であり、代表的に弾性膨張収縮構造体すなわち空気圧人工筋を指し示すときには参照符号101で示す。)は弾性膨張収縮構造体である。
 各弾性膨張収縮構造体101は、図9に示すように、ゴム材料で構成され駆動部として機能する、管状の中空弾性体102の外表面に、材料的には伸びにくい樹脂又は金属の繊維コードで網目状に編んだ変形方向規制部材103が配設される。変形方向規制部材103は、管状弾性体102の膨張による半径方向の変形が、半径方向と直交する軸方向の長さの収縮に変換される一方、管状弾性体102の収縮による半径方向の変形が、軸方向の長さの膨張に変換されるように構成される。管状弾性体102の両端部は、封止部材104でそれぞれ気密封止する。一方の封止部材104に備えられた管状の流体通過部材5は、内部に圧縮性流体が通過する流体の流路を有し、流体通過部材105を通して中空弾性体2の中空内部に対して流体の注入あるいは注出が可能となる。流体通過部材105を通じて空気等の圧縮性流体が、中空の管状弾性体102に供給される。
 供給された圧縮性流体により内圧を管状弾性体102の内部空間に与えると、管状弾性体102が主に半径方向に膨張しようとする。しかしながら、変形方向規制部材103の作用により、管状弾性体102の中心軸方向の運動に変換され、全長が収縮するため、直動駆動の空気圧人工筋として利用可能である。
 図8に戻り、ロボット20は、1組の弾性膨張収縮構造体1を関節軸35-1又は35-2又は35-3を支点に対向するように配設する。1組の弾性膨張収縮構造体101のうちのどちらか一方の弾性膨張収縮構造体101が収縮し、他方の弾性膨張収縮構造体101が伸張する。そして、支点(関節軸35-1又は35-2又は35-3)を介して力が作用して、関節軸35-1又は35-2又は35-3の軸が回転する拮抗型駆動構造とすることにより、関節軸35-1又は35-2又は35-3での正逆回転運動を実現することができる。具体的には、弾性膨張収縮構造体101-1aと弾性膨張収縮構造体101-1bとの拮抗駆動により第1関節軸35-1は、正逆回転駆動する。弾性膨張収縮構造体101-2aと弾性膨張収縮構造体101-2bとの拮抗駆動により第2関節軸35-2は、正逆回転駆動する。弾性膨張収縮構造体101-3aと弾性膨張収縮構造体101-3bとの拮抗駆動により第3関節軸35-3は、正逆回転駆動する。
 下端が床90に固定された棒状の支持部材116の上端には、第1関節軸35-1と同心に回転できる支持体119が回転自在に支持されている。支持部材116の下端部の固定面側には、支持部材116の長手方向と直交して延びる棒状の支持体118が固定されている。支持体119と支持体118との間には、弾性膨張収縮構造体101-1a及び101-1bのそれぞれの端部が回転自在に連結されている。よって、弾性膨張収縮構造体101-1a及び101-1bの拮抗駆動により、第1関節軸35-1の軸回りにxy面内で支持体119が正逆回転する。この結果、支持体119に連結された第1リンク33の第1リンク用支持部材(図示せず)を正逆回転できる。第1リンク用支持部材は、第1リンク33に対して、支持体118の支持部材116に対する固定方法と同様に、第1リンク33の長手方向と直交して延びる棒状の部材として固定されている。第1リンク33の基端は、第1リンク用支持部材と共に、支持体119に固定されて、支持体119と第1リンク33と第1リンク用支持部材とが一体的に回転可能となっている。第1リンク33の第1リンク用支持部材は、図8においては支持体119の背後にあって隠れているため、図示を省略する。
 第2リンク32の長手方向に直交して第2リンク32の基端に固定された第2リンク用支持部材131が、第1リンク33の先端に回転可能に連結されている。第2リンク用支持部材131と第1リンク用支持部材との間には、弾性膨張収縮構造体101-2a及び101-2bのそれぞれの端部が回転自在に連結されている。
 第3リンク31の長手方向に直交して第3リンク31の基端に固定された第3リンク用支持部材132が、第2リンク32の先端に回転可能に連結されている。第3リンク用支持部材132と第2リンク用支持部材131との間には、弾性膨張収縮構造体101-3a及び101-3bのそれぞれの端部が回転自在に連結されている。よって、弾性膨張収縮構造体101-3a及び101-3bの拮抗駆動により、第3関節軸35-3の軸回りにxy面内で第3リンク31と第3リンク用支持部材132とハンド22とが正逆回転する。
 圧力センサ109-1a,109-1bは、弾性膨張収縮構造体101-1a、101-1bのそれぞれの内部圧力を計測する。具体的には、圧力センサ109-1a,109-1bは、弾性膨張収縮構造体101-1a、101-1bのそれぞれの流体通過部材5(流体注入出口)に配設され、それぞれの弾性膨張収縮構造体101-1a、101-1b内の圧力を計測する。同じく、弾性膨張収縮構造体101-2a、101-2b、101-3a、101-3bにも内部状態計測部の一例である圧力センサ109-2a,109-2b、109-3a,109-3bが配設されて、同様に機能する(一部、図示省略)。
 弾性膨張収縮構造体101-1a及び101-1bと、弾性膨張収縮構造体101-2a及び101-2bと、弾性膨張収縮構造体101-3a及び101-3bとには、それぞれ、3ポート流量比例電磁弁127A,127Bと空気圧調整ユニット126とを介して、空気圧源125が接続されている(一部、図示省略)。
 以上のような構造とすれば、弾性膨張収縮構造体101をアクチュエータとして用いたロボット20Bとして基本的な機能を実現することができる。
 上記第1実施形態によれば、人91と協働して物体30を搬送するロボット20,20Bにおいて、物体30を保持する際に保持物体30とロボット20,20Bのロボットアーム21との接触が発生しても、物体30を安全に保持することができるロボット20,20Bが可能となる。
 特に、ロボットのロボットアームのアクチュエータが柔軟性を有する場合、人が手でつかんでロボットのロボットアームに力をかけていると、柔らかいロボットのロボットアームの本来の位置よりも少し先の位置に、ロボットのロボットアームが実際に位置しており、手を離すと、ロボットのロボットアームが本来の位置に戻る。すると、たとえ、ロボットのロボットアームの先端の吸着パッドを保持対象物体に接触させて停止させても、ロボットのロボットアームから手を離すと、ロボットアームが後退して吸着パッドと保持対象物体との間に隙間ができて、保持対象物体を吸着パッドで吸着できないという課題が従来はあった。
 これに対して、本発明の第1実施形態によれば、接触検知部11によって物体30とロボット20,20Bのロボットアーム21との接触が検知された際に、ロボット20,20Bのロボットアーム21が動作を一旦停止し、その後、保持動作選択部14は、ロボットアーム21と接触した物体30との距離もしくは人91がロボットアーム21にかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを適切に選択し、選択された動作を力制御部12によって実現することで、保持対象物体30をハンド22の吸着パッド22aで確実に吸着して保持することができる。
 上記第1実施形態では、一例として3軸のロボットアーム21を例に説明を行ったが、これに限られるわけではなく、軸数はこれに限られるわけではなく、また、全ての軸に同様に適用することに限られるわけでもなく、限定した軸にのみ適用することも可能である。
 また、上記第1実施形態では、接触状況情報として、ロボット20のロボットアーム21に接触した物体30と停止したロボット20のハンド22との距離、及び、人91がロボット20のロボットアーム21にかけている力の方向との両方を用いて、保持動作選択部14が選択する説明を行っている。しかしながら、これに限られるわけではなく、どちらか一方又は別の情報を用いることも可能である。
 また、上記第1実施形態では、人91の力によって目標位置がずれるロボット20Bとして、空気圧人工筋101を用いたロボット20Bの説明を行っている。しかしながら、これに限られるわけではなく、例えば、人91の力によってたわむ程度の長い梁を持ったフレキシブルアーム、又は、手先にバネを取り付けてコンプライアンスを持たせたロボット等にも適用可能である。
 なお、本発明を第1実施形態及び変形例に基づいて説明してきたが、本発明は、上記の第1実施形態及び変形例に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 上記制御装置50の一部又は全部は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。上記RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。上記マイクロプロセッサが、上記コンピュータプログラムにしたがって動作することにより、各部は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 例えば、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、上記実施形態又は変形例における制御装置を構成する要素の一部又は全部を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御プログラムであって、コンピュータに、
 上記ロボットアームに備えられた保持部で、上記物体を保持するとき、上記保持部と上記物体との接触を検知する接触検知部と、
 上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
 上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
 上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部として機能させ、
 上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限のない人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するように機能させるためのロボット用の制御プログラムである。
 また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスク、磁気ディスク、又は、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
 また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 なお、上記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
 本発明のロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラムは、物体を保持するロボットアームの手先位置の軌道制御等の位置制御を行う、ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラムとして有用である。また、ロボットアームに限らず、生産設備等における物体を保持する機構を持った装置、その装置の制御装置及び制御方法、並びに、制御プログラムとしても適用が可能である。
 本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形又は修正は明白である。そのような変形又は修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。

Claims (14)

  1.  ロボットアームを有し、人と協働して物体を搬送するロボットであって、
     上記ロボットアームに備えられて上記物体を保持する保持部と、
     上記保持部と上記物体との接触を検知する接触検知部と、
     上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
     上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
     上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部とを備え、
     上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した動作と、方向の制限の無い動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うロボット。
  2.  上記接触検知部は、上記ロボットアームと上記物体とが接触した方向を検知し、
     上記接触検知部が検知した方向が、上記ロボットアームが上記物体を保持する方向である場合のみ、上記保持動作選択部が、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、上記方向を制限した人協調動作又は上記制限の無い人協調動作を選択する請求項1に記載のロボット。
  3.  上記接触検知部は、上記人が上記ロボットアームにかけている力の方向を検知し、
     上記接触検知部が検知した方向が、上記保持部が上記物体を保持する際の最終接近動作において接近する方向であるときには、上記保持動作選択部が上記方向を制限した動作を選択し、上記接触検知部が検知した方向が、上記保持部が上記物体を保持する際の最終接近動作において接近する方向ではないときには、上記保持動作選択部が上記方向の制限の無い動作を選択する請求項1又は2に記載のロボット。
  4.  上記接触状況検知部で検知した上記物体と上記保持部との距離が閾値よりも小さいときには、上記保持動作選択部が上記方向を制限した動作を選択し、上記接触状況検知部で検知した上記物体と上記保持部との距離が上記閾値以上のときには、上記保持動作選択部が上記方向の制限の無い動作を選択する請求項1又は2に記載のロボット。
  5.  上記保持部は、吸着パッドを有するハンドである請求項1又は2に記載のロボット。
  6.  上記ロボットアームは、柔軟性のある構造を持つ請求項1又は2に記載のロボット。
  7.  上記ロボットアームは、空気圧人工筋を用いるアクチュエータである請求項1又は2に記載のロボット。
  8.  上記保持動作選択部が上記方向を制限した動作を選択したときは、上記保持部が上記物体を保持する際の最終接近動作において接近する方向のみに動作する請求項1又は2に記載のロボット。
  9.  上記保持動作選択部は、上記接触状況検知部により検知された接触状況と上記接触検知部が検知した方向とを基に、上記ロボットアームの上記保持部のうち上記物体に相対する面に対し垂直をなす方向と、上記接触検知部が検知した方向とがなす角度が閾値よりも小さいときに、上記ロボットアームが上記物体を保持する方向であると判断する、請求項2に記載のロボット。
  10.  上記保持動作選択部は、上記接触状況検知部により検知された接触状況と上記接触検知部が検知した方向とを基に、上記人が上記ロボットアームにかけている力の方向が、上記保持部のうち上記物体に相対する面の上記物体のうち保持部に相対する面に最も近い1点と、上記物体のうち上記保持部に相対する面との距離が最短距離となる方向と、上記保持部のうち上記物体に相対する面の垂線とがなす角度が、閾値よりも小さい状態を維持しながら、上記物体のうち上記保持部に相対する面と上記保持部のうち上記物体に相対する面とが近づく方向であるとき、最終接近動作において接近する方向であると判断する、請求項3に記載のロボット。
  11.  上記保持動作選択部が上記方向の制限の無い動作を選択したときは、上記ロボットアームが動作可能な全方向に動作する請求項1又は2に記載のロボット。
  12.  ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御装置であって、
     上記ロボットアームに備えられた保持部で上記物体を保持するとき、上記保持部と上記物体との接触を検知する接触検知部と、
     上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
     上記接触状況検知部により検知された接触状況によって保持時のロボットアームの動作を切替える保持動作選択部と、
     上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部とを備え、
     上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限の無い人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するロボットの制御装置。
  13.  ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御方法であって、
     上記ロボットアームに備えられた保持部で、上記物体を保持するとき、上記保持部と上記物体との接触を接触検知部で検知し、
     上記物体と上記保持部との距離を接触時の接触状況として接触状況検知部で検知し、
     上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を保持動作選択部で切替え、
     上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作制御部で動作させ、
     上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限のない人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するロボットの制御方法。
  14.  ロボットアームを有しかつ人と協働して物体を搬送するロボットの制御プログラムであって、
     コンピュータを、
     上記ロボットアームに備えられた保持部で、上記物体を保持するとき、上記保持部と上記物体との接触を検知する接触検知部と、
     上記物体と上記保持部との距離を接触時の接触状況として検知する接触状況検知部と、
     上記接触状況検知部により検知された接触状況によって保持時の上記ロボットアームの動作を切替える保持動作選択部と、
     上記人が上記ロボットアームにかけた力に応じて上記ロボットアームを動作させる動作制御部として機能させ、
     上記接触検知部によって接触が検知された際に、上記ロボットアームが一旦停止し、その後、上記保持動作選択部は、上記ロボットアームと接触した上記物体との距離もしくは上記人が上記ロボットアームにかけている力もしくはその両方の情報によって、停止継続動作と、方向を制限した人協調動作と、制限のない人協調動作とのうち1つを選択し、選択された動作を上記動作制御部によって実現することで保持動作を行うよう制御するように機能させるためのロボット用制御プログラム。
PCT/JP2014/000353 2013-02-25 2014-01-24 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム WO2014129110A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015501306A JP5942311B2 (ja) 2013-02-25 2014-01-24 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US14/551,519 US9242380B2 (en) 2013-02-25 2014-11-24 Robot, robot control apparatus, robot control method, and robot control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013034873 2013-02-25
JP2013-034873 2013-02-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/551,519 Continuation US9242380B2 (en) 2013-02-25 2014-11-24 Robot, robot control apparatus, robot control method, and robot control program

Publications (1)

Publication Number Publication Date
WO2014129110A1 true WO2014129110A1 (ja) 2014-08-28

Family

ID=51390918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000353 WO2014129110A1 (ja) 2013-02-25 2014-01-24 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム

Country Status (3)

Country Link
US (1) US9242380B2 (ja)
JP (1) JP5942311B2 (ja)
WO (1) WO2014129110A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017030081A (ja) * 2015-07-30 2017-02-09 ファナック株式会社 産業用ロボットシステムおよびその制御方法
CN106826874A (zh) * 2015-10-02 2017-06-13 发那科株式会社 机器人用操作装置
JP2018111174A (ja) * 2017-01-13 2018-07-19 ファナック株式会社 ロボットの安全確保動作機能を備えた人間協働ロボットシステム
WO2022102403A1 (ja) 2020-11-10 2022-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2022259706A1 (ja) * 2021-06-09 2022-12-15 東京計器株式会社 接触検知装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
DE102015217396B4 (de) 2014-09-11 2018-07-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System, insbesondere System zur Eingabesteuerung für eine Arbeitshilfe
JP6522930B2 (ja) * 2014-11-28 2019-05-29 ファナック株式会社 可動部を直接手動で操作可能な数値制御工作機械
JP6055014B2 (ja) * 2015-03-23 2016-12-27 ファナック株式会社 物または人との接触を検知する機能を有するロボット制御装置
ITUB20153443A1 (it) * 2015-09-07 2017-03-07 Whitech S R L Gruppo manipolatore ad azionamento elettrico
JP6423815B2 (ja) 2016-03-30 2018-11-14 ファナック株式会社 人協働型のロボットシステム
US11110612B2 (en) * 2016-07-11 2021-09-07 Sony Corporation Processing device, system, and control method
JP6517762B2 (ja) 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
US10583557B2 (en) * 2017-02-10 2020-03-10 GM Global Technology Operations LLC Redundant underactuated robot with multi-mode control framework
JP2019018280A (ja) * 2017-07-14 2019-02-07 Thk株式会社 把持システム
JP6659629B2 (ja) * 2017-07-31 2020-03-04 ファナック株式会社 多関節ロボットの制御装置
JP6633580B2 (ja) * 2017-08-02 2020-01-22 ファナック株式会社 ロボットシステム及びロボット制御装置
JP7062406B2 (ja) * 2017-10-30 2022-05-16 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP6737827B2 (ja) 2018-03-29 2020-08-12 ファナック株式会社 協働ロボットの制御装置及び制御方法
JP7091777B2 (ja) * 2018-03-30 2022-06-28 株式会社安川電機 ロボットシステム及び制御方法
DE102018216692B3 (de) 2018-09-28 2019-12-12 Kuka Deutschland Gmbh Roboter-Handführgerät
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
CA3214609A1 (en) * 2021-03-26 2022-09-29 Boston Dynamics, Inc. Dynamic mass estimation methods for an integrated mobile manipulator robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07314365A (ja) * 1994-05-27 1995-12-05 Hitachi Ltd チャック装置
JPH10230489A (ja) * 1996-12-16 1998-09-02 Sankyo Seiki Mfg Co Ltd 力補助装置の制御方法及びこの方法を利用した制御装置
JP2005194061A (ja) * 2004-01-08 2005-07-21 Honda Motor Co Ltd アシスト搬送方法及びその装置
JP2009066696A (ja) * 2007-09-12 2009-04-02 Toyota Motor Corp パワーアシスト装置およびその制御方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0849053B1 (en) * 1996-12-16 2002-10-02 Kabushiki Kaisha Sankyo Seiki Seisakusho Method of controlling force assisting device and control apparatus using the same
JP3504507B2 (ja) * 1998-09-17 2004-03-08 トヨタ自動車株式会社 適切反力付与型作業補助装置
US6522952B1 (en) * 1999-06-01 2003-02-18 Japan As Represented By Secretary Of Agency Of Industrial Science And Technology Method and system for controlling cooperative object-transporting robot
US6204619B1 (en) * 1999-10-04 2001-03-20 Daimlerchrysler Corporation Dynamic control algorithm and program for power-assisted lift device
JP2001191278A (ja) 2000-01-06 2001-07-17 Komatsu Ltd 搬送ロボットの位置制御方法
JP3577028B2 (ja) * 2001-11-07 2004-10-13 川崎重工業株式会社 ロボットの協調制御システム
JP3833567B2 (ja) * 2002-05-01 2006-10-11 本田技研工業株式会社 移動ロボットの姿勢制御装置
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
JP3805317B2 (ja) * 2003-03-17 2006-08-02 ファナック株式会社 教示位置修正方法及び教示位置修正装置
KR20060015557A (ko) * 2003-04-28 2006-02-17 스티븐 제임스 크램톤 외골격을 구비한 cmm 암
JP4578808B2 (ja) 2004-01-08 2010-11-10 本田技研工業株式会社 アシスト搬送装置
EP1642693A1 (en) * 2003-06-25 2006-04-05 HONDA MOTOR CO., Ltd. Assist transportation method and device
JP2005118959A (ja) 2003-10-17 2005-05-12 Toyoda Mach Works Ltd 作業支援装置、作業支援方法、位置決め作業支援装置およびパワーアシスト作業支援装置
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
JP4056080B2 (ja) * 2006-01-13 2008-03-05 松下電器産業株式会社 ロボットアームの制御装置
CN102229148B (zh) * 2007-06-27 2013-10-16 松下电器产业株式会社 机器手控制装置及控制方法、机器人
CN101687321B (zh) * 2007-07-05 2012-08-08 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人及控制程序
US20100216865A1 (en) * 2007-09-12 2010-08-26 Elias Jack A MicroRNA COMPOSITIONS IN THE TREATMENT OF VEGF-MEDIATED DISORDERS
DE102007052012A1 (de) * 2007-10-31 2009-05-07 Grenzebach Maschinenbau Gmbh Verfahren und Vorrichtung zum Erfassen und Umladen von Gepäckstücken
JP4445038B2 (ja) * 2008-02-06 2010-04-07 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP4443614B2 (ja) * 2008-02-27 2010-03-31 トヨタ自動車株式会社 パワーアシスト装置及びその制御方法
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
US8364314B2 (en) * 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
CN102470531B (zh) * 2010-01-04 2016-01-20 松下知识产权经营株式会社 机器人、机器人的控制装置及控制方法
JP5445196B2 (ja) * 2010-02-10 2014-03-19 セイコーエプソン株式会社 応力検出素子、触覚センサー、および把持装置
KR101308373B1 (ko) * 2010-11-17 2013-09-16 삼성전자주식회사 로봇 제어방법
JP5165160B2 (ja) * 2011-01-27 2013-03-21 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路
WO2012101956A1 (ja) * 2011-01-27 2012-08-02 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路
JP2013111737A (ja) * 2011-12-01 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
JP5588089B1 (ja) * 2012-11-22 2014-09-10 パナソニック株式会社 アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
JP5588090B1 (ja) * 2012-11-22 2014-09-10 パナソニック株式会社 アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07314365A (ja) * 1994-05-27 1995-12-05 Hitachi Ltd チャック装置
JPH10230489A (ja) * 1996-12-16 1998-09-02 Sankyo Seiki Mfg Co Ltd 力補助装置の制御方法及びこの方法を利用した制御装置
JP2005194061A (ja) * 2004-01-08 2005-07-21 Honda Motor Co Ltd アシスト搬送方法及びその装置
JP2009066696A (ja) * 2007-09-12 2009-04-02 Toyota Motor Corp パワーアシスト装置およびその制御方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017030081A (ja) * 2015-07-30 2017-02-09 ファナック株式会社 産業用ロボットシステムおよびその制御方法
US10011017B2 (en) 2015-07-30 2018-07-03 Fanuc Corporation Industrial robot system and control method thereof
CN106826874A (zh) * 2015-10-02 2017-06-13 发那科株式会社 机器人用操作装置
CN106826874B (zh) * 2015-10-02 2021-06-29 发那科株式会社 机器人用操作装置
JP2018111174A (ja) * 2017-01-13 2018-07-19 ファナック株式会社 ロボットの安全確保動作機能を備えた人間協働ロボットシステム
US10252415B2 (en) 2017-01-13 2019-04-09 Fanuc Corporation Human collaborative robot system having safety assurance operation function for robot
WO2022102403A1 (ja) 2020-11-10 2022-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2022259706A1 (ja) * 2021-06-09 2022-12-15 東京計器株式会社 接触検知装置

Also Published As

Publication number Publication date
US20150081099A1 (en) 2015-03-19
US9242380B2 (en) 2016-01-26
JPWO2014129110A1 (ja) 2017-02-02
JP5942311B2 (ja) 2016-06-29

Similar Documents

Publication Publication Date Title
JP5942311B2 (ja) ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
JP4768086B2 (ja) ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム
JP7427358B2 (ja) ロボットシステム、物品の製造方法、制御方法、制御プログラム、および記録媒体
JP2015157352A (ja) ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
Moore et al. Cobot implementation of virtual paths and 3D virtual surfaces
US8781628B2 (en) Walking robot and control method thereof
JP6498597B2 (ja) 移動ロボットの制御装置
Skorina et al. A soft robotic wearable wrist device for kinesthetic haptic feedback
JP7147419B2 (ja) エンドエフェクタ装置
JP4899165B2 (ja) 脚式移動ロボットの制御装置
JP2024015086A (ja) ロボットシステム、制御方法、物品の製造方法、制御プログラム、記録媒体
del Carmen Rodríguez-Liñán et al. Saturating stiffness control of robot manipulators with bounded inputs
JPH06143171A (ja) ロボット
Sanford et al. Physical human-robot interaction with a mobile manipulator through pressure sensitive robot skin
JP7504398B2 (ja) 軌道生成装置、軌道生成方法、及び軌道生成プログラム
JP6444092B2 (ja) 人の動作支援装置
JP7178994B2 (ja) 把持システム
WO2023200012A1 (ja) 遠隔制御システム、遠隔制御方法及び遠隔制御プログラム
Skorina et al. Soft Pneumatic Actuators: Modeling, Control, and Application
Mori et al. High-precision 6dof object manipulation using redundant parallel drive soft fingers and visual feedback
Olofsson et al. Optimal tracking and identification of paths for industrial robots
JPH03196983A (ja) 人間形ロボット指機構の制御方法
Shirafuji et al. Development of a robotic finger with a branching tendon mechanism and sensing based on the moment-equivalent point
Udai et al. Overlaid orthogonal force oscillations for robot assisted localization and assembly
JPH058187A (ja) ロボツト

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14754551

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015501306

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14754551

Country of ref document: EP

Kind code of ref document: A1