WO2023095927A1 - 制御装置、ロボット制御システム、及びロボット制御方法 - Google Patents

制御装置、ロボット制御システム、及びロボット制御方法 Download PDF

Info

Publication number
WO2023095927A1
WO2023095927A1 PCT/JP2022/044047 JP2022044047W WO2023095927A1 WO 2023095927 A1 WO2023095927 A1 WO 2023095927A1 JP 2022044047 W JP2022044047 W JP 2022044047W WO 2023095927 A1 WO2023095927 A1 WO 2023095927A1
Authority
WO
WIPO (PCT)
Prior art keywords
gripping
hand
state
unit
control unit
Prior art date
Application number
PCT/JP2022/044047
Other languages
English (en)
French (fr)
Inventor
一樹 大野
友樹 山岸
尚宏 阿南
敬之 石田
博昭 宮村
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to CN202280078892.XA priority Critical patent/CN118354879A/zh
Publication of WO2023095927A1 publication Critical patent/WO2023095927A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members

Definitions

  • the present disclosure relates to a control device, a robot control system, and a robot control method.
  • a control device includes a hand control section that controls a hand section.
  • the hand section is capable of gripping an object to be gripped, and has a plurality of sensors.
  • the hand control unit can acquire gripping force information acting on the gripping object from the hand unit or moment information acting on the gripping object in the hand unit based on the outputs of the plurality of sensors. Configured.
  • the hand control section estimates a gripping state of the gripping object by the hand section based on the gripping force information or the moment information.
  • a robot control system includes the control device and a robot having a hand unit.
  • a robot control method includes acquiring gripping force information acting on a gripped object from a hand or moment information acting on the gripped object in the hand.
  • the robot control method includes estimating a gripping state of the gripping object by the hand based on the gripping force information or the moment information.
  • FIG. 1 is a block diagram showing a configuration example of a robot control system according to an embodiment
  • FIG. 3 is a block diagram showing a configuration example of a hand control section and a hand section
  • FIG. FIG. 4 is a schematic diagram showing an example of a mode in which a hand section grips a gripping target
  • 4 is a side view of FIG. 3
  • FIG. 11 is a flow chart showing an example of a procedure corresponding to a gripping correction state
  • FIG. FIG. 11 is a flow chart showing an example of a procedure for dealing with an abnormal gripping state
  • FIG. FIG. 11 is a flow chart showing an example of a procedure for dealing with a grip-impossible state
  • gripping When gripping is controlled based on the coefficient of friction, gripping may become unstable due to a decrease in the coefficient of friction between the hand and the workpiece due to deterioration of the hand over time. In addition, when gripping is controlled based on the magnitude of the force acting on the gripped object, gripping may become unstable due to a rotational moment acting on the gripped object. It is required to improve the stability of gripping by the robot.
  • a robot control system 1 includes a robot 2 and a control device 70.
  • the robot 2 has an arm 3 and a hand section 4 .
  • Arm 3 may comprise joints and links.
  • the hand part 4 is configured to be able to grip a gripping object 8 (see FIG. 3).
  • a control device 70 of this embodiment includes a robot control section 10 and a hand control section 20 .
  • the control device 70 may include at least the hand control section 20 .
  • the robot control unit 10 operates the arm 3 of the robot 2 based on the information for controlling the operation of the robot 2 to move the hand unit 4 to the position of the object 8 to be grasped.
  • the action of the hand unit 4 approaching the position of the grasped object 8 is also referred to as an approach action.
  • the robot control unit 10 controls the approach operation of the hand unit 4 to the grasped object 8 .
  • the hand control unit 20 controls the hand unit 4 and causes the hand unit 4 to grip the gripping object 8 .
  • the robot control unit 10 and the hand control unit 20 may perform the operations described below, for example.
  • the robot control unit 10 controls the arm 3 to move the hand unit 4 to a position where the object 8 to be grasped can be grasped.
  • the hand control unit 20 determines a target position for gripping the gripping target object 8 and controls the hand unit 4 so that the gripping target object 8 is gripped after the hand unit 4 has moved to the gripping target object 8 .
  • the robot control unit 10 controls the arm 3 so as to lift the hand unit 4 while the hand unit 4 is gripping the gripping object 8 , thereby lifting the gripping object 8 and moving the gripping object 8 . move to a point.
  • the hand control unit 20 lowers the gripping force of the gripped object 8 in a state in which the lifted gripped object 8 has moved to the target point, separates the gripped object 8 from the hand unit 4, and places the gripped object 8 at the target point.
  • the robot control unit 10 may generate and acquire information for controlling the motion of the robot 2 by itself.
  • the robot control unit 10 may acquire information for controlling the motion of the robot 2 from an external device such as the information processing device 50 connected via the network 60 or not via the network 60 .
  • the hand control unit 20 may generate and acquire information for controlling the operation of the hand unit 4 by itself.
  • the hand control section 20 may acquire information for controlling the operation of the hand section 4 from the robot control section 10 .
  • the robot control section 10 and the hand control section 20 may be configured integrally.
  • the robot controller 10 may include at least one processor to provide control and processing power to perform various functions.
  • the processor can execute programs that implement various functions of the robot controller 10 .
  • a processor may be implemented as a single integrated circuit.
  • An integrated circuit is also called an IC (Integrated Circuit).
  • a processor may be implemented as a plurality of communicatively coupled integrated and discrete circuits. Processors may be implemented based on various other known technologies.
  • the robot control unit 10 may include a storage unit.
  • the storage unit may include an electromagnetic storage medium such as a magnetic disk, or may include a memory such as a semiconductor memory or a magnetic memory.
  • the storage unit stores various information, programs executed by the robot control unit 10, and the like.
  • the storage section may function as a work memory for the robot control section 10 . At least part of the storage unit may be configured separately from the robot control unit 10 .
  • the hand control unit 20 includes a state estimation unit 21, a conversion unit 22, a position control unit 24, and adders 25, 26 and 27.
  • the hand control unit 20 may be configured including at least one processor.
  • the hand control section 20 may be configured including a storage section.
  • the robot control unit 10 acquires image information from a camera or the like connected to the robot control unit 10, and executes image processing or the like for controlling the arm 3 of the robot 2 or recognizing the grasped object 8.
  • the hand control unit 20 controls the hand unit 4 to grip the recognized gripping object 8, for example.
  • the calculation load of the robot control section 10 and the calculation load of the hand control section 20 are different from each other.
  • the robot control section 10 and the hand control section 20 may be configured separately.
  • the robot control unit 10 may be configured as a computer installed on the main body of the robot 2 or at the foot of the arm 3 .
  • the hand control unit 20 may be configured as a processor such as a CPU incorporated inside the hand unit 4 .
  • the hand controller 20 may be configured identically or similarly to the robot controller 10 .
  • the hand unit 4 includes a motor 41, an encoder 42, a contact force sensor 43, and a force sensor 44.
  • the motor 41 is configured as a servo motor such as a stepping motor, for example, and controls the rotation angle based on a control signal.
  • the encoder 42 detects the rotation angle of the motor 41 and outputs it to the hand control section 20 .
  • the encoder 42 detects the position or orientation of the arm 3 or hand section 4 of the robot 2, or the velocity or acceleration.
  • the hand section 4 may further include a motion sensor.
  • a motion sensor may be installed at the joint of the arm 3 of the robot 2 .
  • the encoder 42, contact force sensor 43 and force sensor 44 are also simply referred to as sensors.
  • the hand section 4 has a plurality of sensors.
  • the contact force sensor 43 and force sensor 44 will be described later.
  • the hand section 4 has a plurality of fingers.
  • the hand section 4 includes, for example, two fingers 45A and 45B.
  • the hand unit 4 controls the distance between the two fingers 45A and 45B by driving the motor 41, and grips the gripping object 8 with the two fingers 45A and 45B.
  • the hand unit 4 lifts the gripping object 8 in the Z-axis direction by moving in the positive direction of the Z-axis while gripping the gripping object 8 .
  • the negative direction of the Z-axis corresponds to the direction in which the gravitational force acts on the object 8 to be grasped.
  • the direction in which the gravitational force acts on the grasped object 8 is also referred to as the vertical direction.
  • the finger 45A has a contact force sensor 43A at a portion that contacts the grasped object 8.
  • the finger 45B has a contact force sensor 43B at a portion that contacts the grasped object 8 . That is, the contact force sensor 43 includes contact force sensors 43A and 43B.
  • the contact force sensors 43A and 43B detect forces received from the grasped object 8 when the fingers 45A and 45B grasp the grasped object 8 .
  • the force that the fingers 45A and 45B receive from the grasped object 8 is also called contact force.
  • the contact force sensor 43 may be configured as a piezoelectric sensor, strain gauge, or the like.
  • the contact force sensor 43 may be configured to detect forces in directions along multiple axes.
  • the contact force sensor 43 may include a plurality of sensors corresponding to forces in a plurality of directions.
  • the contact force information may be acquired based on not only the detection result of the contact force sensor 43 but also the detection result of a current sensor that detects the current flowing through the motor that drives the robot 2 .
  • the hand part 4 has a force sensor 44 between the body part supporting the two fingers 45A and 45B and the arm 3 of the robot 2.
  • the force sensor 44 can detect force or torque acting on the body portion via the two fingers 45A and 45B.
  • the force sensor 44 can detect gripping forces applied to the hand portion 4 in the X-axis direction, the Y-axis direction, and the Z-axis direction as shown in FIG. Further, the force sensor 44 can detect moment forces acting on the hand portion 4 around the X axis, the Y axis, and the Z axis.
  • FIG. 4 it is assumed that the two fingers 45A and 45B grip the gripped object 8 at a position shifted from the center of gravity 8G of the gripped object 8 in the positive direction of the X axis.
  • a torque 8T around the Y-axis acts from the gripping object 8 to the fingers 45A and 45B.
  • the torque 8T corresponds to the moment generated in the grasped object 8 due to the grasped object 8 being displaced from the center of gravity 8G.
  • the torque 8T acts on the body portion via the two fingers 45A and 45B gripping the gripping object 8.
  • the force sensor 44 detects torque acting on the body portion via the two fingers 45A and 45B.
  • the force sensor 44 also detects the force in the negative direction of the Z axis, that is, the gravity acting on the grasped object 8 and the hand portion 4 .
  • the force sensor 44 may be configured as a piezoelectric sensor, strain gauge, or the like.
  • the force sensor 44 may include a plurality of sensors corresponding to forces or torques in a plurality of directions.
  • the force sensor 44 may be installed not only on the hand unit 4 but also on the arm 3 of the robot 2 or the like.
  • the hand control section 20 may acquire information representing the position of the hand section 4 based on information from at least one of a plurality of sensors including the encoder 42, the contact force sensor 43, the force sensor 44, and the like.
  • Information representing the position of the hand unit 4 is also referred to as position information of the hand unit 4 .
  • the position information of the hand unit 4 may include information on the position at which the gripping object 8 is gripped.
  • the hand control unit 20 may control the hand unit 4 as described below.
  • the hand control section 20 outputs a control signal for controlling the rotation angle of the motor 41 of the hand section 4 from the position control section 24 to the motor 41 of the hand section 4 .
  • the hand control unit 20 outputs a control signal to the hand unit 4 via a driver 28 that amplifies the signal.
  • the motor 41 controls the rotation angle based on the control signal.
  • the encoder 42 detects the rotation angle of the motor 41 and outputs it to the position control section 24 and the state estimation section 21 of the hand control section 20 .
  • the contact force sensor 43 detects the contact force when the fingers 45A and 45B contact the grasped object 8 and outputs it to the state estimator 21 and the adder 25 of the hand control unit 20.
  • the contact force detected by the contact force sensor 43 while the hand unit 4 is gripping the gripping object 8 corresponds to the gripping force acting on the gripping object 8 from the hand unit 4 .
  • Information representing the gripping force acting on the gripped object 8 from the hand unit 4 is also referred to as gripping force information.
  • the hand control unit 20 acquires grip force information from the contact force sensor 43 .
  • the force sensor 44 detects the torque acting on the fingers 45A and 45B and outputs it to the state estimation section 21 of the hand control section 20.
  • the torque detected by the force sensor 44 while the hand portion 4 is gripping the gripping object 8 corresponds to the gripping force or moment acting on the gripping object 8 in the hand portion 4 .
  • Information representing the gripping force acting on the gripped object 8 in the hand unit 4 is also referred to as gripping force information.
  • the gripping force information includes gripping force information based on the output of the contact force sensor 43 and gripping force information based on the output of the force sensor 44 .
  • the gripping force information of the contact force sensor 43 is the stress that the fingers of the hand portion 4 receive from the gripped object 8 .
  • the gripping force information of the force sensor 44 is the stress that the main body of the hand unit 4 receives from the gripped object 8 .
  • Information representing the moment acting on the grasped object 8 in the hand portion 4 is also referred to as moment information.
  • the hand control unit 20 acquires grip force information or moment information from the force sensor 44 .
  • the hand control unit 20 uses the state estimation unit 21 to estimate the state in which the hand unit 4 is gripping the gripping object 8 .
  • a state in which the hand unit 4 is gripping the gripping target 8 is also referred to as a gripping state.
  • the state estimation unit 21 estimates the gripping state based on the detection results of the rotation angle, contact force, and torque of the motor 41 .
  • a normal gripping state corresponds to a state in which the hand unit 4 can normally grip the gripping object 8 .
  • the gripping correction state corresponds to a state in which the gripping state needs to be corrected in order for the hand unit 4 to grip the gripping object 8 normally.
  • the abnormal gripping state corresponds to a state in which the gripping state of the gripping object 8 by the hand unit 4 is abnormal.
  • the gripping impossible state corresponds to a state in which the hand unit 4 is trying to grip the gripping target object 8 in a state in which the gripping target object 8 cannot be gripped.
  • the state estimation unit 21 may estimate the gripping state based on the position information of the hand unit 4. For example, the state estimating unit 21 may acquire the gripping force information or the moment information even though the position of the hand unit 4 is within a predetermined range or the gripping position is within the tolerance range of the target gripping position. In this case, it can be estimated that the gripping correction state or the gripping abnormal state.
  • the state estimation unit 21 may estimate that the grip state is the grip correction state. Specifically, when the contact force sensor 43 can detect the contact force to some extent, but the gripping force is smaller than the first gripping force threshold, it may be estimated that the gripping correction state is in effect.
  • the grip correction state includes, for example, a state in which the gripped object 8 slips while the hand unit 4 is gripping the gripped object 8 . In other words, the gripping correction state corresponds to a state in which the gripping force, the gripping position, or the like can be corrected so that the gripped object 8 does not slip.
  • the first gripping force threshold value may be set, for example, as a value that exceeds the negative tolerance range of the reference gripping force refT that serves as a reference.
  • the contact force may drop below the first grip force threshold if the gripped object 8 slips off the fingers 45A or 45B or if the gripped object 8 is angled with respect to the fingers 45A or 45B.
  • the reference gripping force refT may be determined for each gripped object 8 .
  • the reference gripping force refT may be set by the user for each gripped object 8, for example.
  • the reference gripping force refT may be set for each gripped object 8 and stored in the storage unit, or may be read from the storage unit according to the gripped object 8 .
  • the robot control system 1 may have an input unit such as a keyboard, pointer, or touch panel that receives user input.
  • the state estimation unit 21 may estimate that the gripping state is the gripping correction state when the rotational moment detected by the force sensor 44 is greater than or equal to the moment threshold while the gripping object 8 is being gripped. For example, when the moment about the Y axis or the moment about the X axis increases to a moment threshold or more, the state estimation unit 21 may estimate that the grip state is the grip correction state.
  • the moment threshold may be set, for example, based on the shape or mass of the gripped object 8, or may be set based on the magnitude of torque assumed to occur when the gripped object 8 slips from the hand unit 4. you can Also, the moment threshold may be set by the user.
  • the moment threshold value may be a set value held in advance in the storage unit.
  • the robot control system 1 may have an input unit such as a keyboard, pointer, or touch panel that receives user input.
  • the storage unit is not limited to the storage unit of the robot control unit 10 or the hand control unit 20, and may be a storage unit connected to the robot control unit 10 or the hand control unit 20 over a network.
  • the state estimating section 21 may estimate the gripping state based on the force sensor 44 acting horizontally with the surface of the finger 45A or the finger 45B of the hand section 4 as the gripping force information. Specifically, in this embodiment, when the force in the X-axis direction shown in FIGS. 3 and 4 is detected, it may be estimated that the grip state is the grip correction state.
  • the force in the X-axis direction corresponds to the force in the direction in which the grasped object 8 slides on the finger 45A or the finger 45B.
  • the state estimating unit 21 divides the force (Fx) in the X-axis direction detected by the force sensor 44 by the mass (m) of the grasped object 8 (Fx/m), and obtains the X-axis force of the grasped object 8 . Calculated as axial force.
  • the state estimating unit 21 determines whether the gripping object 8 is slipping on the finger 45A or the finger 45B. It may be determined that the gripping state is the gripping correction state.
  • the predetermined threshold may be set to 0.1-100 m/s 2 , for example.
  • the state estimation unit 21 may estimate whether the grip state is the grip correction state based on at least one condition.
  • the state estimation unit 21 may estimate that the gripping state is the gripping correction state when at least one of two or more conditions is satisfied.
  • the state estimation unit 21 may estimate that the gripping state is the gripping correction state when two or more conditions are satisfied at the same time.
  • various states of the gripped object 8 can be flexibly dealt with. For example, based on the gripping force information and the moment information, it is possible to detect the drop of the gripped object 8 based on the moment information and control the gripping force so as to prevent the drop based on the gripping force information.
  • the contact force sensor 43 and the force sensor 44 it is possible to flexibly deal with various states of the grasped object 8. For example, while the force sensor 44 detects the drop of the gripped object 8, the contact force sensor 43 can control the gripping force so as to prevent the drop.
  • the state estimation unit 21 may acquire information representing the weight of the grasped object 8 based on information from at least one of a plurality of sensors including the encoder 42, the contact force sensor 43, the force sensor 44, and the like. Information representing the weight of the gripping object 8 is also referred to as weight information of the gripping object 8 . The state estimation unit 21 may estimate the gripping state based on the weight information.
  • the state estimator 21 may estimate that the gripping state is an abnormal gripping state when the weight of the gripped object 8 (the force in the negative direction of the Z-axis) is equal to or less than a predetermined weight.
  • the gripping abnormal state corresponds to, for example, a state in which the hand unit 4 cannot grip the gripping object 8 and drops it.
  • the state estimating unit 21 estimates that the grasped object 8 has fallen from the hand unit 4 when the detection value of the sensor such as the contact force sensor 43 or the force sensor 44 is 0, and determines that the grasping state is an abnormal grasping state. It can be assumed that there is
  • the state estimation unit 21 may estimate that the gripping state is the abnormal gripping state when the gripping force information is equal to or less than the second gripping force threshold.
  • the second gripping force threshold may be set to a value smaller than the first gripping force threshold.
  • the state estimation unit 21 continuously estimates that the gripping state is the abnormal gripping state a plurality of times, it estimates that the gripping state is the gripping impossible state.
  • the state estimation unit 21 estimates that the gripping state is neither the gripping corrected state nor the gripping abnormal state, it estimates that the gripping state is the normal gripping state.
  • the gripping state is the normal gripping state, the gripping operation of the hand unit 4 may be continued.
  • the state estimating unit 21 determines whether the gripping state is the normal gripping state, the abnormal gripping state, or the gripping corrected state based on the information output by at least one of the plurality of sensors. It is estimated whether the state of The state estimation unit 21 outputs the estimation result of the gripping state to the robot control unit 10 .
  • the robot control unit 10 or the hand control unit 20 stops the gripping operation by the hand unit 4 .
  • the robot control unit 10 may correct the approach motion of the hand unit 4 toward the gripped object 8 and restart the gripping motion.
  • the hand control unit 20 may correct the gripping mode and restart the gripping operation.
  • the state estimating unit 21 When the state estimating unit 21 estimates that the gripping state is the corrected gripping state, the state estimating unit 21 adds the correction value Tx of the gripping force by the hand unit 4 to the adder so that the contact force is corrected according to the estimation result of the gripping state. 26.
  • the state estimation unit 21 estimates that the grip state is the grip correction state, the grip force is corrected so as to increase the contact force acting on the grip object 8 from the finger 45A or the finger 45B of the hand unit 4.
  • a value Tx may be set and output to adder 26 . That is, when the grip state is the grip correction state, the hand control unit 20 can correct the grip state of the hand unit 4 by the state estimation unit 21 .
  • the adder 26 adds the gripping force correction value Tx and refT and outputs the result to the adder 25 .
  • the adder 25 subtracts the detection result (Tm) of the contact force sensor 43 from the addition result of the grip force correction value Tx and refT, and outputs the result as ⁇ T to the conversion unit 22 .
  • ⁇ T is the calculation result of Tx+refT ⁇ Tm, and represents the upper limit setting range of the reference gripping force refT.
  • the gripping force correction value Tx is set so that the conversion unit 22 outputs the upper limit setting range ⁇ T of the reference gripping force refT or ⁇ Tx smaller than ⁇ T. to decide. Note that the conversion unit 22 can convert the grip force information into position information.
  • the state estimation unit 21 may increase the reference gripping force refT by ⁇ Ta so that the gripping target 8 can be gripped at the next gripping opportunity. That is, the hand control unit 20 may cause the state estimation unit 21 to increase the value of the reference gripping force refT to be used at the next gripping opportunity.
  • ⁇ Ta may be set to a value that satisfies the relationship ⁇ Tx ⁇ Ta ⁇ T.
  • the conversion unit 22 converts ⁇ T into ⁇ X and outputs it to the adder 27 .
  • ⁇ X represents a value by which the gripping position deviates from the control target.
  • the conversion unit 22 may pass ⁇ X through a filter and output it to the adder 27 .
  • the filter may include, for example, a low pass filter that cuts high frequency components for stability of the control system.
  • the adder 27 adds ⁇ X and ref ⁇ and outputs the result to the position control section 24 .
  • the addition result of ⁇ X and ref ⁇ represents the control target value of the rotation angle of the motor 41 .
  • the position control unit 24 controls the motor 41 based on the detection result of the rotation angle of the motor 41 acquired from the encoder 42 and the control target value so that the rotation angle of the motor 41 approaches the control target value.
  • ref ⁇ may be, for example, a value obtained by converting refT into a rotation angle.
  • the hand control unit 20 controls the movement of the gripped object 8 from the hand unit 4 based on the outputs of a plurality of sensors including the encoder 42, the contact force sensor 43, the force sensor 44, and the like. and moment information acting on the gripping object 8 in the hand unit 4 can be obtained.
  • the hand control unit 20 estimates the gripping state of the gripping object 8 by the hand unit 4 based on the gripping force information or the moment information.
  • the hand control unit 20 can feed back outputs of sensors such as the contact force sensor 43 and the force sensor 44 to control the motor 41 .
  • the robot control unit 10 according to the present embodiment can improve the stability of gripping by correcting the gripping force or correcting the gripping approach according to the gripping state.
  • the hand control unit 20 subtracts the detection result (Tm) of the contact force sensor 43 from the addition result of the gripping force correction value Tx and refT, and then converts the result into ⁇ X. After converting the addition result of the correction value Tx of the gripping force and refT into ⁇ X, the hand control unit 20 converts the value indicating the current position of the hand unit 4 from the addition result of ⁇ X and ref ⁇ to the detection result of the encoder 42 ( ⁇ m) may be subtracted for position control.
  • the hand unit uses, for example, a force Fz that the object receives in the direction of gravity (negative direction of the Z-axis), a force Fh in the gripping direction (the normal direction of the surface of the gripped object),
  • the object may be gripped by controlling the hand so that the relationship ⁇ Fh>Fz is established between the coefficient of friction ⁇ between the fingers of the hand and the object to be gripped, which is obtained in advance.
  • the hand unit is controlled so as to correct the value of Fh to a larger value to maintain the grip of the object.
  • such a hand control unit controls the hand unit without changing the value of ⁇ obtained in advance, even if the coefficient of friction ⁇ decreases due to deterioration over time, the change in ⁇ is not considered.
  • the control makes the grip unstable.
  • such a hand control unit detects the value of Fz but controls the hand unit without considering the moment of rotation. A rotational moment acts on the object, and gripping becomes unstable due to control that does not consider the rotational moment.
  • the robot control unit 10 can control the motor 41 in consideration of the torque, thereby improving the stability of gripping.
  • the robot control unit 10 or the hand control unit 20 may execute a robot control method including procedures of flowcharts illustrated in FIGS.
  • the robot control method may be implemented as a robot control program that is executed by a processor that constitutes the robot control unit 10 or the hand control unit 20 .
  • the robot control program may be stored on a non-transitory computer-readable medium.
  • the robot control unit 10 or the hand control unit 20 may cope with the case where the grip state of the robot 2 is the grip correction state by executing the procedure of the flowchart illustrated in FIG.
  • the robot control unit 10 starts lifting the grasped object 8 (step S1).
  • the robot control unit 10 and the hand control unit 20 control the robot 2 so that the robot 2 grips and lifts the gripping object 8 (step S2).
  • the robot control unit 10 moves the hand unit 4 to the gripping target object 8 by controlling the arm 3 so that the hand unit 4 can grip the gripping target object 8 .
  • the hand control unit 20 controls the hand unit 4 to grip the gripping target object 8 while the hand unit 4 has moved to the gripping target object 8 .
  • the robot control unit 10 lifts the grasped object 8 by controlling the arm 3 so as to raise the hand unit 4 while the hand unit 4 grasps the grasped object 8 .
  • the hand control unit 20 reduces the gripping force of the gripped object 8 in a state in which the lifted gripped object 8 has moved to the movement target, separates the gripped object 8 from the hand unit 4, and places the gripped object 8 on the movement target.
  • the hand control section 20 acquires the detection result of the sensor such as the contact force sensor 43 or the force sensor 44 while the hand section 4 is lifting the grasped object 8 (step S3).
  • the hand control unit 20 determines whether or not the condition of the gripping correction state is satisfied based on the detection result of the sensor (step S4). For example, when the moment about the X-axis or the moment about the Y-axis detected by the force sensor 44 is greater than or equal to the moment threshold value, the hand control unit 20 determines that the conditions for the gripping correction state are satisfied, and the gripping state changes to the gripping correction state. state. If both the moment about the X-axis and the moment about the Y-axis detected by the force sensor 44 are less than the moment threshold value, the hand control unit 20 determines whether the condition of the gripping correction state regarding the contact force or the like is satisfied. good.
  • step S4 When the hand control unit 20 does not satisfy the conditions for the gripping correction state (step S4: NO), the process proceeds to step S6.
  • step S4 When the condition of the gripping correction state is satisfied (step S4: YES), the hand control unit 20 determines the gripping force correction value Tx (step S5).
  • the robot control unit 10 determines whether the lifting of the grasped object 8 has been completed (step S6). Specifically, the robot control unit 10 determines that the lifting of the gripped object 8 is completed when the gripped object 8 is placed at the target point after being lifted. When the lifting of the grasped object 8 is completed (step S6: YES), the robot control unit 10 ends execution of the procedure of the flowchart of FIG. When the lifting of the grasped object 8 is not completed (step S6: NO), the robot control unit 10 returns to the control procedure of the robot 2 in step S2.
  • the robot control unit 10 or the hand control unit 20 may respond to the case where the gripping state of the robot 2 is in an abnormal gripping state by executing the procedure of the flowchart illustrated in FIG.
  • the robot control unit 10 starts lifting the grasped object 8 (step S11).
  • the robot control unit 10 and the hand control unit 20 control the robot 2 so that the robot 2 grips and lifts the gripping object 8 (step S12).
  • the robot control section 10 and the hand control section 20 may control the robot 2 in the same or similar manner as the procedure of step S2 in FIG.
  • the hand control unit 20 acquires the detection result of the sensor such as the contact force sensor 43 or the force sensor 44 while the hand unit 4 is lifting the grasped object 8 (step S13).
  • the hand control unit 20 determines whether the detected value of the sensor is the value in the state in which the grasped object 8 is not lifted (step S14). In this embodiment, it is assumed that the value is 0 when the object to be grasped 8 is not lifted.
  • step S14 When the detected value of the sensor is 0 (step S14: YES), the robot control unit 10 presumes that the grasped object 8 has fallen from the hand unit 4, and stops lifting the grasped object 8 (step S15). .
  • the robot control unit 10 selects another object as the gripping object 8 (step S16).
  • the robot control unit 10 changes the grasping force for lifting the selected grasped object 8 (step S17).
  • the robot control unit 10 returns to the procedure of lifting the grasped object 8 in step S11 so that the grasped object 8 selected in the procedures of steps S16 and S17 is lifted with the changed grasping force.
  • step S14 When the detected value of the sensor is not 0 (step S14: NO), the robot control unit 10 presumes that the grasped object 8 has been grasped, continues to lift the grasped object 8, and determines whether the lifting is completed. (step S18). When the lifting of the grasped object 8 is completed (step S18: YES), the robot control unit 10 ends execution of the procedure of the flowchart of FIG. When the lifting of the grasped object 8 is not completed (step S18: NO), the robot control unit 10 returns to the control procedure of the robot 2 in step S12.
  • the robot control unit 10 or the hand control unit 20 may cope with the case where the gripping state of the robot 2 is the non-grippable state by executing the procedure of the flowchart illustrated in FIG.
  • the robot control unit 10 starts lifting the grasped object 8 (step S21).
  • the robot control unit 10 and the hand control unit 20 control the robot 2 so that the robot 2 grips and lifts the gripping object 8 (step S22).
  • the robot control section 10 and the hand control section 20 may control the robot 2 in the same or similar manner as the procedure of step S2 in FIG.
  • the robot control unit 10 determines whether the lifting of the grasped object 8 has been interrupted in the procedure of steps S13 to S15 in FIG. 6 (step S23). When the lifting of the grasped object 8 is not interrupted (step S23: NO), the robot control unit 10 continues lifting the grasped object 8 and determines whether the lifting is completed (step S24). When the lifting of the grasped object 8 is completed (step S24: YES), the robot control unit 10 ends execution of the procedure of the flowchart of FIG. When the lifting of the grasped object 8 is not completed (step S24: NO), the robot control unit 10 returns to the control procedure of the robot 2 in step S22.
  • step S23 When the lifting of the gripped object 8 is interrupted (step S23: YES), the robot control unit 10 determines whether the number of interruptions is equal to or greater than a predetermined number (step S25). The robot control unit 10 selects another object as the gripping object 8 when the number of interruptions is not equal to or greater than the predetermined number of times (step S25: NO), that is, when the number of interruptions is less than the predetermined number of times. (Step S26) The robot control unit 10 changes the gripping force for lifting the selected gripped object 8 (Step S27). The robot control unit 10 returns to the procedure of lifting the grasped object 8 in step S21 so that the grasped object 8 selected in the procedures of steps S26 and S27 is lifted with the changed grasping force.
  • step S25 When the number of interruptions is equal to or greater than the predetermined number (step S25: YES), the robot control unit 10 corrects the gripping position of the gripping object 8 (step S28). The robot control unit 10 returns to the procedure of lifting the gripped object 8 in step S21 so as to lift the gripped object 8 at the corrected gripping position.
  • a robot control system 1 according to another embodiment will be described below.
  • the hand control unit 20 may acquire the moment change amount as the moment information.
  • the state estimating unit 21 of the hand control unit 20 may estimate that the grip state of the hand unit 4 is the grip correction state when the amount of change in moment is equal to or greater than the first moment threshold.
  • the hand control unit 20 may correct the gripping force with which the hand unit 4 grips the gripping object 8 using the state estimation unit 21 .
  • the hand control unit 20 may estimate that the gripping state is an abnormal gripping state by the state estimating unit 21 when the amount of change in the moment is equal to or greater than the second moment threshold.
  • the second moment threshold may be set to a value greater than the first moment threshold.
  • the hand control unit 20 may cause the state estimation unit 21 to increase the reference gripping force refT to be used at the next gripping opportunity.
  • the hand control unit 20 may acquire the amount of increase in gripping force based on information from at least one of a plurality of sensors.
  • the hand control unit 20 may estimate that the gripping state is the gripping correction state by the state estimating unit 21 when the amount of increase in the gripping force is larger than the predetermined amount of increase.
  • the hand control unit 20 may correct the gripping force by the state estimating unit 21 so that the amount of increase in the gripping force is equal to or less than a predetermined amount of increase. By doing so, when the grasped object 8 is a flexible body, it is less likely to be destroyed by the hand unit 4 .
  • the hand control section 20 may control the hand section 4 by setting the upper limit of the gripping force. By doing so, the grasped object 8 is less likely to be destroyed.
  • the upper limit of the gripping force may be set as the sum of the minimum gripping force and an offset set according to the gripped object 8 .
  • the offset may be set by user input, or may be set to a value obtained from an external environment such as a cloud computing environment.
  • the offset may be set to the minimum gripping force multiplied by a predetermined factor.
  • the predetermined coefficient may be set to 10%, for example.
  • the hand control unit 20 permits the state estimation unit 21 to correct the gripping force when the amount of increase in the gripping force exceeds a predetermined amount of increase. good too. That is, when the gripping object 8 is a rigid body, the gripping force may be corrected beyond the upper limit.
  • the hand control unit 20 can improve the operability or gripping stability of the hand unit 4 by permitting correction of the gripping force exceeding the upper limit when the gripping object 8 is a rigid body.
  • the hand control unit 20 may recognize that the grasped object 8 is a rigid body based on the user's input.
  • the hand control unit 20 determines whether the grasped object 8 is a rigid body based on the relationship between the grasping force when the grasped object 8 is grasped and the position of the finger 45A or 45B of the hand unit 4 by the state estimation unit 21. can be estimated.
  • the hand control unit 20 may acquire a result of recognizing the grasped object 8 as a rigid body in recognition of the grasped object 8 by the robot control unit 10 .
  • a model such as a machine learning model or an algorithm such as a rule-based recognition algorithm used by the robot control unit 10 to recognize the gripped object 8 is designed to output a result of recognizing whether the gripped object 8 is a rigid body. may be configured to
  • the case where the gripping state is the gripping correction state corresponds to the case where the hand unit 4 slips when gripping the gripped object 8 .
  • the object to be grasped 8 becomes slippery from the hand portion 4 due to the decrease in the frictional force of the fingers 45A or 45B of the hand portion 4 .
  • deterioration such as a decrease in the frictional force of the finger 45A or 45B may occur.
  • maintenance of the hand portion 4 is required.
  • the robot control unit 10 may determine the maintenance timing of the hand unit 4 based on the estimation result of the gripping state of the hand unit 4 . For example, the robot control unit 10 determines that the gripping state of the hand unit 4 becomes the normal gripping state less than a predetermined ratio with respect to the number of times the hand unit 4 attempts to grip the gripping object 8 . It may be determined that maintenance of the unit 4 is required.
  • a storage medium on which the program is recorded for example, an optical disc, Magneto-optical disk, CD-ROM, CD-R, CD-RW, magnetic tape, hard disk, memory card, etc.
  • the program may be stored on a non-transitory computer-readable medium.
  • the implementation form of the program is not limited to an application program such as an object code compiled by a compiler or a program code executed by an interpreter. good.
  • the program may or may not be configured so that all processing is performed only in the CPU on the control board.
  • the program may be configured to be partially or wholly executed by another processing unit mounted on an expansion board or expansion unit added to the board as required.
  • X-axis, Y-axis, and Z-axis are provided for convenience of explanation and may be interchanged with each other.
  • Configurations according to the present disclosure have been described using a Cartesian coordinate system formed by X, Y, and Z axes.
  • the positional relationship of each configuration according to the present disclosure is not limited to an orthogonal relationship.
  • robot control system 2 robot (3: arm) 4 hand unit (41: motor, 42: encoder, 43 (43A, 43B): contact force sensor, 44: force sensor, 45A, 45B: finger) 8 Gripping object (8G: center of gravity) 10 robot control unit 20 hand control unit (21: state estimation unit, 22: conversion unit, 24: position control unit, 25 to 27: adder) 28 drivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

制御装置は、把持対象物を把持可能であり、複数のセンサを有するハンド部を制御するハンド制御部を備える。ハンド制御部は、複数のセンサの出力に基づいた、ハンド部から把持対象物に作用する把持力情報又はハンド部の中で把持対象物に作用するモーメント情報を取得可能に構成され、把持力情報又はモーメント情報に基づいて、ハンド部による把持対象物の把持状態を推定する。

Description

制御装置、ロボット制御システム、及びロボット制御方法 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2021-193652号(2021年11月29日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、制御装置、ロボット制御システム、及びロボット制御方法に関する。
 ワークからの反力を受けながら組立又は分解作業をする際に、ハンドとワークとの間の滑りを小さくしてワークの詰まりを防ぎ、高精度の組立又は分解を行えるロボットの制御方法が知られている(例えば、特許文献1参照)。
特開2003-305678号公報
 本開示の一実施形態に係る制御装置は、ハンド部を制御するハンド制御部を備える。前記ハンド部は、把持対象物を把持可能であり、複数のセンサを有する。前記ハンド制御部は、前記複数のセンサの出力に基づいた、前記ハンド部から前記把持対象物に作用する把持力情報又は前記ハンド部の中で前記把持対象物に作用するモーメント情報を取得可能に構成される。前記ハンド制御部は、前記把持力情報又は前記モーメント情報に基づいて、前記ハンド部による前記把持対象物の把持状態を推定する。
 本開示の一実施形態に係るロボット制御システムは、前記制御装置と、ハンド部を有するロボットとを備える。
 本開示の一実施形態に係るロボット制御方法は、ハンド部から把持対象物に作用する把持力情報又は前記ハンド部の中で前記把持対象物に作用するモーメント情報を取得することを含む。前記ロボット制御方法は、前記把持力情報又は前記モーメント情報に基づいて、前記ハンド部による前記把持対象物の把持状態を推定することを含む。
一実施形態に係るロボット制御システムの構成例を示すブロック図である。 ハンド制御部及びハンド部の構成例を表すブロック図である。 ハンド部が把持対象物を把持する態様の一例を示す模式図である。 図3の側面図である。 把持補正状態の場合に対応する手順例を示すフローチャートである。 把持異常状態の場合に対応する手順例を示すフローチャートである。 把持不可状態の場合に対応する手順例を示すフローチャートである。
 摩擦係数に基づいて把持を制御する場合、ハンドの経年劣化等に起因したハンドとワークとの間の摩擦係数の低下によって、把持が不安定となることがある。また、把持対象物に作用する力の大きさに基づいて把持を制御する場合、把持対象物に回転モーメントが作用することによって、把持が不安定となることがある。ロボットによる把持の安定性の向上が求められる。
 図1に示されるように、一実施形態に係るロボット制御システム1は、ロボット2と、制御装置70とを備える。ロボット2は、アーム3とハンド部4とを備える。アーム3は、関節とリンクとを備えてよい。ハンド部4は、把持対象物8(図3参照)を把持可能に構成される。本実施形態の制御装置70は、ロボット制御部10とハンド制御部20とを備える。なお、制御装置70は、少なくともハンド制御部20を備えていればよい。ロボット制御部10は、ロボット2の動作を制御する情報に基づいてロボット2のアーム3を動作させてハンド部4を把持対象物8の位置まで移動させる。ハンド部4が把持対象物8の位置に近づく動作は、アプローチ動作とも称される。ロボット制御部10は、ハンド部4の把持対象物8へのアプローチ動作を制御する。ハンド制御部20は、ハンド部4を制御してハンド部4に把持対象物8を把持させる。
 ロボット制御部10及びハンド制御部20は、例えば以下に説明する動作を実行してよい。ロボット制御部10は、把持対象物8を把持できる位置にハンド部4を移動させるようにアーム3を制御する。ハンド制御部20は、ハンド部4が把持対象物8まで移動した状態で把持対象物8を把持するように把持対象物8を把持する目標位置を決定してハンド部4を制御する。ロボット制御部10は、ハンド部4が把持対象物8を把持した状態でハンド部4を上昇させるようにアーム3を制御することによって、把持対象物8を持ち上げて把持対象物8を移動させる目標地点まで移動させる。ハンド制御部20は、持ち上げた把持対象物8が目標地点まで移動した状態で把持対象物8の把持力を低下させて把持対象物8をハンド部4から離して目標地点に置く。
 ロボット制御部10は、ロボット2の動作を制御する情報を自身で生成して取得してよい。ロボット制御部10は、ネットワーク60を介して、又は、ネットワーク60を介さずに接続される情報処理装置50等の外部装置から、ロボット2の動作を制御する情報を取得してもよい。ハンド制御部20は、ハンド部4の動作を制御する情報を自身で生成して取得してよい。ハンド制御部20は、ロボット制御部10から、ハンド部4の動作を制御する情報を取得してもよい。ロボット制御部10とハンド制御部20とは一体に構成されてもよい。
 ロボット制御部10は、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含んで構成されてよい。プロセッサは、ロボット制御部10の種々の機能を実現するプログラムを実行しうる。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。
 ロボット制御部10は、記憶部を備えてよい。記憶部は、磁気ディスク等の電磁記憶媒体を含んでよいし、半導体メモリ又は磁気メモリ等のメモリを含んでもよい。記憶部は、各種情報及びロボット制御部10で実行されるプログラム等を格納する。記憶部は、ロボット制御部10のワークメモリとして機能してよい。記憶部の少なくとも一部は、ロボット制御部10とは別体として構成されてもよい。
 図2に示されるように、ハンド制御部20は、状態推定部21と、変換部22と、位置制御部24と、加算器25、26及び27とを備える。ハンド制御部20は、少なくとも1つのプロセッサを含んで構成されてよい。ハンド制御部20は、記憶部を含んで構成されてよい。
 ロボット制御部10は、ロボット制御部10に接続されたカメラなどから画像情報を取得し、ロボット2のアーム3の制御又は把持対象物8を認識するための画像処理等を実行する。ハンド制御部20は、例えば認識した把持対象物8を把持するように、ハンド部4を制御する。ロボット制御部10の演算負荷とハンド制御部20の演算負荷とは、互いに異なる。ロボット制御部10とハンド制御部20とは、別体で構成されてよい。ロボット制御部10は、ロボット2の本体又はアーム3の足元に設置されたコンピュータとして構成されてよい。ハンド制御部20は、ハンド部4の内部に組み込まれたCPU等のプロセッサとして構成されてよい。ハンド制御部20は、ロボット制御部10と同一又は類似に構成されてもよい。
 ハンド部4は、モータ41と、エンコーダ42と、接触力センサ43と、力覚センサ44とを備える。モータ41は、例えばステッピングモータ等のサーボモータとして構成され、制御信号に基づいて回転角度を制御する。エンコーダ42は、モータ41の回転角度を検出してハンド制御部20に出力する。エンコーダ42は、ロボット2のアーム3又はハンド部4の位置若しくは姿勢、又は、速度若しくは加速度等を検出する。ハンド部4は、モーションセンサを更に備えてもよい。モーションセンサは、ロボット2のアーム3の関節に設置されてよい。
 エンコーダ42、接触力センサ43及び力覚センサ44は、単にセンサとも称される。ハンド部4は、複数のセンサを有する。接触力センサ43及び力覚センサ44の説明は、後述される。
 図3及び図4に示されるように、ハンド部4は、複数の指を備える。本実施形態では、ハンド部4は、例えば2本の指45A及び45Bを備える。ハンド部4は、モータ41を駆動することによって2本の指45A及び45Bの間隔を制御し、2本の指45A及び45Bによって把持対象物8を把持する。ハンド部4は、把持対象物8を把持した状態で、Z軸の正の方向に移動することによって、把持対象物8をZ軸方向に持ち上げる。図3及び図4において、Z軸の負の方向は把持対象物8に重力が作用する方向に対応する。把持対象物8に重力が作用する方向は鉛直方向とも称される。
 指45Aは、把持対象物8に接触する部分に接触力センサ43Aを備える。指45Bは、把持対象物8に接触する部分に接触力センサ43Bを備える。つまり、接触力センサ43は、接触力センサ43A及び43Bを含む。接触力センサ43A及び43Bは、指45A及び45Bが把持対象物8を把持する場合に把持対象物8から受ける力を検出する。指45A及び45Bが把持対象物8から受ける力は、接触力とも称される。接触力センサ43は、圧電センサ又は歪みゲージ等として構成されてよい。接触力センサ43は、複数の軸に沿った方向の力を検出できるように構成されてよい。接触力センサ43は、複数の方向それぞれの力に対応する複数のセンサを含んで構成されてよい。接触力の情報は、接触力センサ43の検出結果だけでなく、ロボット2を駆動するモータに流れる電流を検出する電流センサの検出結果に基づいて取得されてもよい。
 ハンド部4は、2本の指45A及び45Bを支持する本体部分とロボット2のアーム3との間に力覚センサ44を備える。力覚センサ44は、2本の指45A及び45Bを介して本体部分に作用する力又はトルクを検出することができる。具体的には、力覚センサ44は、ハンド部4に対して、図3に示すようなX軸方向、Y軸方向、Z軸方向のそれぞれに加わる把持力を検出することができる。また、力覚センサ44は、ハンド部4に対して、X軸回り、Y軸回り、Z軸回りのそれぞれに働くモーメント力を検出することができる。
 本実施形態では、例えば図4において、2本の指45A及び45Bは、把持対象物8を、把持対象物8の重心8GよりもX軸の正の方向にずれた位置で把持したとする。この場合、把持対象物8から指45A及び指45Bに対してY軸回りのトルク8Tが作用する。トルク8Tは、把持対象物8が重心8Gからずれて把持されていることに起因して把持対象物8に生じるモーメントに対応する。トルク8Tは、把持対象物8を把持している2本の指45A及び45Bを介して本体部分に作用する。力覚センサ44は、2本の指45A及び45Bを介して本体部分に作用するトルクを検出する。また、力覚センサ44は、Z軸の負の方向の力、つまり把持対象物8及びハンド部4に作用する重力を検出する。力覚センサ44は、圧電センサ又は歪みゲージ等として構成されてよい。力覚センサ44は、複数の方向それぞれの力又はトルクに対応する複数のセンサを含んで構成されてよい。力覚センサ44は、ハンド部4だけでなく、ロボット2のアーム3等に設置されてもよい。
 ハンド制御部20は、エンコーダ42、接触力センサ43又は力覚センサ44等を含む複数のセンサの少なくとも1つの情報に基づいてハンド部4の位置を表す情報を取得してよい。ハンド部4の位置を表す情報は、ハンド部4の位置情報とも称される。ハンド部4の位置情報は、把持対象物8を把持する位置の情報を含んでもよい。
 ロボット制御部10がロボット2のハンド部4に把持対象物8を把持させる場合、ハンド制御部20は、以下に説明されるようにハンド部4を制御してよい。
 ハンド制御部20は、位置制御部24からハンド部4のモータ41に対してモータ41の回転角度を制御する制御信号を出力する。ハンド制御部20は、ハンド部4に対して信号を増幅するドライバ28を介して制御信号を出力する。モータ41は、制御信号に基づいて回転角度を制御する。エンコーダ42は、モータ41の回転角度を検出してハンド制御部20の位置制御部24と状態推定部21とに出力する。
 接触力センサ43は、指45A及び45Bが把持対象物8に接触した場合の接触力を検出してハンド制御部20の状態推定部21と加算器25とに出力する。ハンド部4が把持対象物8を把持しているときに接触力センサ43が検出する接触力は、ハンド部4から把持対象物8に作用する把持力に対応する。ハンド部4から把持対象物8に作用する把持力を表す情報は、把持力情報とも称される。ハンド制御部20は、接触力センサ43から把持力情報を取得する。
 力覚センサ44は、指45A及び45Bに作用するトルクを検出してハンド制御部20の状態推定部21に出力する。ハンド部4が把持対象物8を把持しているときに力覚センサ44が検出するトルクは、ハンド部4の中で把持対象物8に作用する把持力又はモーメントに対応する。ハンド部4の中で把持対象物8に作用する把持力を表す情報は、把持力情報とも称される。言い換えれば、把持力情報には、接触力センサ43に出力に基づく把持力情報と力覚センサ44の出力に基づく把持力情報が含まれている。なお、接触力センサ43の把持力情報は把持対象物8からハンド部4の指がうける応力である。力覚センサ44の把持力情報は把持対象物8からハンド部4の本体部が受ける応力である。また、ハンド部4の中で把持対象物8に作用するモーメントを表す情報は、モーメント情報とも称される。ハンド制御部20は、力覚センサ44から把持力情報又はモーメント情報を取得する。
 ハンド制御部20は、状態推定部21でハンド部4が把持対象物8を把持している状態を推定する。ハンド部4が把持対象物8を把持している状態は、把持状態とも称される。具体的に、状態推定部21は、モータ41の回転角度、接触力及びトルクの検出結果に基づいて把持状態を推定する。
 なお、本実施形態では、具体的に、把持状態として、把持正常状態、把持補正状態、把持異常状態又は把持不可状態を推定することができる。把持正常状態は、正常にハンド部4が把持対象物8を正常に把持できている状態に対応する。把持補正状態は、ハンド部4が把持対象物8を正常に把持するために把持態様の補正が必要な状態に対応する。把持異常状態は、ハンド部4による把持対象物8の把持態様が異常である状態に対応する。把持不可状態は、ハンド部4が把持対象物8を把持できない態様で把持対象物8を把持しようとしている状態に対応する。
 状態推定部21は、ハンド部4の位置情報に基づいて把持状態を推定してよい。例えば、状態推定部21は、ハンド部4の位置が所定範囲内又は把持位置が目標把持位置の公差範囲内にあるにもかかわらず、把持力情報又はモーメント情報を取得できない場合又は所定よりも小さい場合には、把持補正状態又は把持異常状態と推定することができる。
 状態推定部21は、接触力センサ43に作用する接触力が第1把持力閾値未満である場合、把持状態が把持補正状態であると推定してよい。具体的には、接触力センサ43によって接触力をある程度検知できているが、その把持力が第1把持力閾値よりも小さい場合に、把持補正状態であると推定してよい。把持補正状態は、例えばハンド部4が把持対象物8を把持しているときに把持対象物8が滑る状態を含む。言い換えれば、把持補正状態は、把持力又は把持位置等を補正することによって把持対象物8が滑らないように補正できる状態に対応する。第1把持力閾値は、例えば基準となる基準把持力refTのマイナス公差範囲を超える値として設定されてよい。接触力は、把持対象物8が指45A又は指45Bから滑る場合、又は、把持対象物8が指45A又は指45Bに対して斜めになった場合に、第1把持力閾値未満に低下し得る。なお、基準把持力refTは、把持対象物8ごとに定められてもよい。基準把持力refTは、例えば、把持対象物8毎にユーザによって設定されてもよい。基準把持力refTは、例えば、把持対象物8毎に設定されて記憶部に保持されていてもよく、把持対象物8に応じて記憶部から読み込まれてもよい。なお、この場合、ロボット制御システム1は、ユーザ入力を受け付けるキーボード、ポインタ又はタッチパネル等の入力部を有していてもよい。
 状態推定部21は、把持対象物8が把持されている状態で力覚センサ44が検出した回転モーメントがモーメント閾値以上である場合に、把持状態が把持補正状態であると推定してよい。状態推定部21は、例えば、Y軸回りのモーメント又はX軸回りのモーメントがモーメント閾値以上に増加した場合に、把持状態が把持補正状態であると推定してよい。モーメント閾値は、例えば、把持対象物8の形状又は質量に基づいて設定されてよいし、把持対象物8がハンド部4から滑った場合に生じると想定されるトルクの大きさに基づいて設定されてよい。また、モーメント閾値は、ユーザによって設定されてもよい。モーメント閾値は、あらかじめ記憶部に保持されている設定値であってもよい。なお、この場合、ロボット制御システム1は、ユーザ入力を受け付けるキーボード、ポインタ又はタッチパネル等の入力部を有していてもよい。また、記憶部は、ロボット制御部10又はハンド制御部20の記憶部に限らず、ロボット制御部10又はハンド制御部20にネットワーク上で接続される記憶部であってもよい。
 状態推定部21は、把持力情報として、力覚センサ44がハンド部4の指45A又は指45Bの表面と水平方向の力に基づいて、把持状態を推定してもよい。具体的には、本実施形態では、図3、4に示すX軸方向の力を検知した場合に、把持状態が把持補正状態であると推定してよい。X軸方向の力は、把持対象物8が指45A又は指45Bに対して滑る方向の力に対応する。また、状態推定部21は、力覚センサ44が検知するX軸方向の力(Fx)を把持対象物8の質量(m)で割った値(Fx/m)を、把持対象物8のX軸方向の力として算出する。状態推定部21は、把持対象物8のX軸方向の力の絶対値(|Fx/m|)が所定の閾値より大きい場合に、把持対象物8が指45A又は指45Bに対して滑っていると判定し、把持状態が把持補正状態であると推定してよい。所定の閾値は、例えば、0.1~100m/sに設定されてよい。なお、推定方向の力に基づいて把持状態を推定する場合、必ずしも把持対象物8の質量との商の値が使用される必要はない。一方で、把持対象物8の質量との商の値を使用すれば、把持対象物8の質量の影響を加味して、把持状態が推定され得る。
 状態推定部21は、少なくとも1つの条件に基づいて把持状態が把持補正状態であるか推定してよい。状態推定部21は、2つ以上の条件のうち少なくとも1つの条件が満たされた場合に把持状態が把持補正状態であると推定してよい。状態推定部21は、2つ以上の条件を同時に満たす場合に把持状態が把持補正状態であると推定してもよい。
 具体的に、把持力情報及びモーメント情報を活用することによって、さまざまな把持対象物8の状態に対して柔軟に対応することができる。例えば、把持力情報及びモーメント情報によって、モーメント情報に基づいて把持対象物8の落下を検知しつつ、把持力情報に基づいてその落下を防ぐように把持力を制御することが可能になる。
 また、本実施形態では、接触力センサ43及び力覚センサ44を有していることによって、さまざまな把持対象物8の状態に対して柔軟に対応することができる。例えば、力覚センサ44によって、把持対象物8の落下を検知しつつ、接触力センサ43によってその落下を防ぐように把持力を制御することが可能になる。
 状態推定部21は、接触力センサ43の出力が把持できない所定トルク以下になった場合、又は、把持対象物8が把持されている状態で力覚センサ44が所定モーメント以上の回転モーメントを検知した場合、把持状態が把持異常状態であると推定してよい。状態推定部21は、エンコーダ42、接触力センサ43又は力覚センサ44等を含む複数のセンサの少なくとも1つの情報に基づいて把持対象物8の重量を表す情報を取得してよい。把持対象物8の重量を表す情報は、把持対象物8の重量情報とも称される。状態推定部21は、重量情報に基づいて把持状態を推定してよい。状態推定部21は、把持対象物8の重量(Z軸の負の方向の力)が所定の重量以下になった場合、把持状態が把持異常状態であると推定してよい。把持異常状態は、例えば、ハンド部4が把持対象物8を把持できず落下させる状態に対応する。状態推定部21は、接触力センサ43又は力覚センサ44等のセンサの検出値が0である場合に、ハンド部4から把持対象物8が落下したと推定して把持状態が把持異常状態であると推定してよい。
 状態推定部21は、前記把持力情報が第2把持力閾値以下である場合に、前記把持状態が前記把持異常状態であると推定してよい。第2把持力閾値は、第1把持力閾値よりも小さい値に設定されてよい。
 状態推定部21は、把持状態が把持異常状態であると複数回にわたって継続して推定した場合、把持状態が把持不可状態であると推定する。
 状態推定部21は、把持状態が把持補正状態及び把持異常状態のいずれの状態でもないと推定した場合、把持状態が把持正常状態であると推定する。把持状態が把持正常状態である場合、ハンド部4の把持動作がそのまま継続されてよい。
 以上述べてきたように、ハンド制御部20は、状態推定部21によって、複数のセンサの少なくとも1つが出力する情報に基づいて、把持状態が把持正常状態、把持異常状態、又は把持補正状態のいずれの状態であるかを推定する。状態推定部21は、把持状態の推定結果をロボット制御部10に出力する。状態推定部21によって把持状態が把持不可状態であると推定された場合、ロボット制御部10又はハンド制御部20は、ハンド部4による把持動作を停止する。ロボット制御部10は、ハンド部4の把持対象物8へのアプローチ動作を修正して把持動作を再開してよい。ハンド制御部20は、把持態様を修正して把持動作を再開してよい。
 状態推定部21は、把持状態が把持補正状態であると推定した場合、把持状態の推定結果に応じて接触力の補正を実行するように、ハンド部4による把持力の補正値Txを加算器26に出力する。状態推定部21は、把持状態が把持補正状態であると推定した場合、ハンド部4の指45A又は指45Bから把持対象物8に対して作用する接触力を増加させるように、把持力の補正値Txを設定して加算器26に出力してよい。つまり、ハンド制御部20は、把持状態が把持補正状態である場合、状態推定部21によって、ハンド部4の把持態様を補正できる。
 加算器26は、把持力の補正値TxとrefTとを加算して加算器25に出力する。加算器25は、把持力の補正値TxとrefTとの加算結果から接触力センサ43の検出結果(Tm)を減算して、ΔTとして変換部22に出力する。ΔTは、Tx+refT-Tmの計算結果であり、基準把持力refTの上限設定範囲を表す。
 状態推定部21は、把持状態が把持補正状態であると推定した場合、変換部22に対して基準把持力refTの上限設定範囲ΔT又はΔTより小さいΔTxを出力するように把持力の補正値Txを決定する。なお、変換部22は、把持力情報を位置情報へ変換することができる。
 把持状態が把持異常状態であると推定された場合、把持対象物8は、異常状態で把持されている、又は、把持されずに落下している。この場合、状態推定部21は、次回の把持の機会において把持対象物8を把持できるように基準把持力refTをΔTaだけ大きくしてよい。つまり、ハンド制御部20は、状態推定部21によって次回の把持の機会において用いる基準把持力refTの値を増加させてよい。ΔTaは、ΔTx≦ΔTa≦ΔTの関係を満たす値に設定されてよい。把持状態が把持不可状態であると推定された場合、ロボット制御部10がロボット2の動作経路を変更して把持アプローチを修正してよい。
 変換部22は、ΔTをΔXに変換して加算器27に出力する。ΔXは、把持位置が制御目標からずれている値を表す。変換部22は、ΔXをフィルタに通して加算器27に出力してもよい。フィルタは、例えば制御系の安定性のために高周波成分をカットするローパスフィルタを含んでよい。加算器27は、ΔXとrefθとを加算して位置制御部24に出力する。ΔXとrefθとの加算結果は、モータ41の回転角度の制御目標値を表す。位置制御部24は、エンコーダ42から取得したモータ41の回転角度の検出結果と制御目標値とに基づいて、モータ41の回転角度が制御目標値に近づくようにモータ41を制御する。なお、refθは、例えば、refTを回転角度へ変換した値であってもよい。
 以上述べてきたように、本実施形態に係るハンド制御部20は、エンコーダ42、接触力センサ43又は力覚センサ44等を含む複数のセンサの出力に基づいた、ハンド部4から把持対象物8に作用する把持力情報及びハンド部4の中で把持対象物8に作用するモーメント情報を取得可能に構成される。ハンド制御部20は、把持力情報又はモーメント情報に基づいて、ハンド部4による把持対象物8の把持状態を推定する。ハンド制御部20は、以上述べてきたように動作することによって、接触力センサ43及び力覚センサ44等のセンサの出力をモータ41の制御にフィードバックできる。本実施形態に係るロボット制御部10は、把持状態に応じて把持力の補正又は把持アプローチの修正を行うことによって把持の安定性を高めることができる。なお、上記の例において、ハンド制御部20は、把持力の補正値TxとrefTとの加算結果から接触力センサ43の検出結果(Tm)を減算した後、ΔXへ変換している。ハンド制御部20は、把持力の補正値TxとrefTとの加算結果をΔXへ変換した後、ΔXとrefθとの加算結果から現在のハンド部4の位置を示す値をエンコーダ42の検出結果(θm)を減算して、位置制御してもよい。
 ハンド部は対象物を把持するために、例えば、対象物が重力方向(Z軸の負の方向)に受ける力Fzと、把持方向(把持対象物の表面の法線方向)の力Fhと、あらかじめ取得したハンド部の指と把持対象物との間の摩擦係数μとの間に、μFh>Fzの関係が成立するようにハンド部を制御して対象物を把持することがある。この場合、Fzの値が想定より大きい場合でもFhの値を大きい値に補正するようにハンド部を制御して対象物の把持を維持する。また、このようなハンド制御部は、あらかじめ取得したμの値を変更せずにハンド部を制御するため摩擦係数μが経年劣化等に起因して低下した場合、μの変化を考慮していない制御によって把持が不安定になる。また、このようなハンド制御部は、Fzの値を検出するものの回転のモーメントを考慮せずにハンド部を制御するため、把持位置が対象物の重心からずれている場合に把持位置を軸として対象物に回転のモーメントが作用することになり、回転のモーメントを考慮していない制御によって把持が不安定になる。これに対して、本実施形態に係るロボット制御部10は、トルクを考慮してモータ41を制御できることによって、把持の安定性を高めることができる。
<フローチャートの例>
 ロボット制御部10又はハンド制御部20は、図5、図6又は図7に例示されるフローチャートの手順を含むロボット制御方法を実行してもよい。ロボット制御方法は、ロボット制御部10又はハンド制御部20を構成するプロセッサに実行させるロボット制御プログラムとして実現されてもよい。ロボット制御プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
 ロボット制御部10又はハンド制御部20は、図5に例示されるフローチャートの手順を実行することによって、ロボット2の把持状態が把持補正状態である場合に対応してよい。
 ロボット制御部10は、把持対象物8の持ち上げを開始する(ステップS1)。ロボット制御部10及びハンド制御部20は、ロボット2が把持対象物8を把持して持ち上げるようにロボット2を制御する(ステップS2)。具体的に、ロボット制御部10は、ハンド部4が把持対象物8を把持できるように、アーム3を制御することによって、ハンド部4を把持対象物8まで移動させる。ハンド制御部20は、ハンド部4が把持対象物8まで移動した状態で把持対象物8を把持するように、ハンド部4を制御する。ロボット制御部10は、ハンド部4が把持対象物8を把持した状態でハンド部4を上昇させるようにアーム3を制御することによって、把持対象物8を持ち上げる。ハンド制御部20は、持ち上げた把持対象物8が移動目標まで移動した状態で把持対象物8の把持力を低下させて把持対象物8をハンド部4から離して移動目標に置く。
 ハンド制御部20は、ハンド部4が把持対象物8を持ち上げている状態で、接触力センサ43又は力覚センサ44等のセンサの検出結果を取得する(ステップS3)。ハンド制御部20は、センサの検出結果に基づいて把持補正状態の条件を満たすか判定する(ステップS4)。ハンド制御部20は、例えば、力覚センサ44で検出したX軸回りのモーメント又はY軸回りのモーメントがモーメント閾値以上である場合に把持補正状態の条件を満たすと判定して把持状態が把持補正状態であると推定してよい。ハンド制御部20は、力覚センサ44で検出したX軸回りのモーメント及びY軸回りのモーメントが両方ともモーメント閾値未満である場合、接触力等に関する把持補正状態の条件を満たすか判定してもよい。
 ハンド制御部20は、把持補正状態の条件を満たさない場合(ステップS4:NO)、ステップS6の手順に進む。ハンド制御部20は、把持補正状態の条件を満たす場合(ステップS4:YES)、把持力の補正値Txを決定する(ステップS5)。
 ロボット制御部10は、把持対象物8の持ち上げを完了したか判定する(ステップS6)。具体的に、ロボット制御部10は、把持対象物8を持ち上げた後に目標地点に置いた場合に把持対象物8の持ち上げが完了したと判定する。ロボット制御部10は、把持対象物8の持ち上げを完了した場合(ステップS6:YES)、図5のフローチャートの手順の実行を終了する。ロボット制御部10は、把持対象物8の持ち上げを完了していない場合(ステップS6:NO)、ステップS2のロボット2の制御手順に戻る。
 ロボット制御部10又はハンド制御部20は、図6に例示されるフローチャートの手順を実行することによって、ロボット2の把持状態が把持異常状態である場合に対応してよい。
 ロボット制御部10は、把持対象物8の持ち上げを開始する(ステップS11)。ロボット制御部10及びハンド制御部20は、ロボット2が把持対象物8を把持して持ち上げるようにロボット2を制御する(ステップS12)。ロボット制御部10及びハンド制御部20は、図5のステップS2の手順と同一又は類似にロボット2を制御してよい。
 ハンド制御部20は、ハンド部4が把持対象物8を持ち上げている状態で、接触力センサ43又は力覚センサ44等のセンサの検出結果を取得する(ステップS13)。ハンド制御部20は、センサの検出値が、把持対象物8を持ち上げていない状態の値であるか判定する(ステップS14)。なお、本実施形態では、把持対象物8を持ち上げていない状態の値は、例えば0であるとする。
 ロボット制御部10は、センサの検出値が0である場合(ステップS14:YES)、把持対象物8がハンド部4から落下したと推定して把持対象物8の持ち上げを中断する(ステップS15)。ロボット制御部10は、他の対象物を把持対象物8として選定する(ステップS16)。ロボット制御部10は、選定した把持対象物8を持ち上げるための把持力を変更する(ステップS17)。ロボット制御部10は、ステップS16及びS17の手順で選定した把持対象物8を、変更した把持力で持ち上げるように、ステップS11の把持対象物8を持ち上げる手順に戻る。
 ロボット制御部10は、センサの検出値が0でない場合(ステップS14:NO)、把持対象物8を把持できていると推定して把持対象物8の持ち上げを継続し、持ち上げが完了したか判定する(ステップS18)。ロボット制御部10は、把持対象物8の持ち上げを完了した場合(ステップS18:YES)、図6のフローチャートの手順の実行を終了する。ロボット制御部10は、把持対象物8の持ち上げを完了していない場合(ステップS18:NO)、ステップS12のロボット2の制御手順に戻る。
 ロボット制御部10又はハンド制御部20は、図7に例示されるフローチャートの手順を実行することによって、ロボット2の把持状態が把持不可状態である場合に対応してよい。
 ロボット制御部10は、把持対象物8の持ち上げを開始する(ステップS21)。ロボット制御部10及びハンド制御部20は、ロボット2が把持対象物8を把持して持ち上げるようにロボット2を制御する(ステップS22)。ロボット制御部10及びハンド制御部20は、図5のステップS2の手順と同一又は類似にロボット2を制御してよい。
 ロボット制御部10は、図6のステップS13~S15の手順で把持対象物8の持ち上げを中断したか判定する(ステップS23)。ロボット制御部10は、把持対象物8の持ち上げを中断していない場合(ステップS23:NO)、把持対象物8の持ち上げを継続し、持ち上げが完了したか判定する(ステップS24)。ロボット制御部10は、把持対象物8の持ち上げを完了した場合(ステップS24:YES)、図7のフローチャートの手順の実行を終了する。ロボット制御部10は、把持対象物8の持ち上げを完了していない場合(ステップS24:NO)、ステップS22のロボット2の制御手順に戻る。
 ロボット制御部10は、把持対象物8の持ち上げを中断した場合(ステップS23:YES)、中断回数が所定回数以上であるか判定する(ステップS25)。ロボット制御部10は、中断回数が所定回数以上でない場合(ステップS25:NO)、つまり中断回数が所定回数未満である場合、他の対象物を把持対象物8として選定する。(ステップS26)ロボット制御部10は、選定した把持対象物8を持ち上げるための把持力を変更する(ステップS27)。ロボット制御部10は、ステップS26及びS27の手順で選定した把持対象物8を、変更した把持力で持ち上げるように、ステップS21の把持対象物8を持ち上げる手順に戻る。
 ロボット制御部10は、中断回数が所定回数以上である場合(ステップS25:YES)、把持対象物8を把持する位置を修正する(ステップS28)。ロボット制御部10は、修正した把持位置で把持対象物8を持ち上げるように、ステップS21の把持対象物8を持ち上げる手順に戻る。
(他の実施形態)
 以下、他の実施形態に係るロボット制御システム1が説明される。
<モーメント又は把持力の変化量に基づく把持状態推定>
 ハンド制御部20は、モーメント情報としてモーメントの変化量を取得してよい。ハンド制御部20は、状態推定部21によって、モーメントの変化量が第1モーメント閾値以上である場合に、ハンド部4の把持状態が把持補正状態であると推定してよい。ハンド制御部20は、状態推定部21によって、ハンド部4が把持対象物8を把持する把持力を補正してよい。
 ハンド制御部20は、状態推定部21によって、モーメントの変化量が第2モーメント閾値以上である場合に、把持状態が把持異常状態であると推定してよい。第2モーメント閾値は、第1モーメント閾値よりも大きい値に設定されてよい。ハンド制御部20は、状態推定部21によって、次回の把持の機会において用いる基準把持力refTを増加させてよい。
 ハンド制御部20は、複数のセンサの少なくとも1つの情報に基づいて把持力の増加量を取得してよい。ハンド制御部20は、状態推定部21によって、把持力の増加量が所定増加量より大きい場合に、把持状態が把持補正状態であると推定してよい。ハンド制御部20は、状態推定部21によって、把持力の増加量が所定増加量以下となるように把持力を補正してよい。このようにすることで、把持対象物8が柔軟体である場合にハンド部4によって破壊されにくくなる。
 ハンド制御部20は、把持力の上限を設定してハンド部4を制御してよい。このようにすることで、把持対象物8が破壊されにくくなる。把持力の上限は、最低把持力と、把持対象物8に応じて設定されるオフセットとの和として設定されてよい。オフセットは、ユーザ入力によって設定されてよいし、クラウドコンピューティング環境等の外部環境から取得された値に設定されてもよい。オフセットは、最低把持力に所定係数を乗じた値に設定されてよい。所定係数は、例えば10%等に設定されてよい。
 把持対象物8が剛体である場合、把持力が大きくなった場合であっても、把持対象物8が破壊されにくい。そこで、ハンド制御部20は、把持対象物8が剛体であると推定した場合、状態推定部21によって、把持力の増加量が所定の増加量を超えて把持力を補正することを許容してもよい。つまり、把持対象物8が剛体である場合、把持力が上限を超えて補正されてもよい。ハンド制御部20は、把持対象物8が剛体である場合に把持力の上限を超えた補正を許容することによって、ハンド部4の操作性、又は、把持安定性を向上できる。
 ハンド制御部20は、把持対象物8が剛体であることをユーザの入力に基づいて把握してよい。ハンド制御部20は、状態推定部21によって、把持対象物8を把持したときの把持力とハンド部4の指45A又は45Bの位置との関係に基づいて、把持対象物8が剛体であるか推定してもよい。ハンド制御部20は、ロボット制御部10による把持対象物8の認識において把持対象物8が剛体であると認識された結果を取得してもよい。ロボット制御部10が把持対象物8を認識するために用いる機械学習モデル等のモデル、又は、ルールベースの認識アルゴリズム等のアルゴリズムは、把持対象物8が剛体であるか認識した結果を出力するように構成されてもよい。
<ハンド部4のメンテナンスのタイミングの決定>
 上述したように、把持状態が把持補正状態になる場合は、ハンド部4で把持対象物8を把持するときに滑る場合に対応する。把持対象物8は、ハンド部4の指45A又は45Bの摩擦力の低下に起因してハンド部4から滑りやすくなる。ハンド部4において、指45A又は45Bの摩擦力の低下等の劣化が生じ得る。ハンド部4において劣化が生じた場合、ハンド部4のメンテナンスが必要とされる。
 ロボット制御部10は、ハンド部4の把持状態の推定結果に基づいて、ハンド部4のメンテナンスのタイミングを決定してもよい。例えば、ロボット制御部10は、ハンド部4で把持対象物8を把持しようとした回数に対して、ハンド部4の把持状態が把持正常状態になる割合が所定の割合未満になった場合、ハンド部4のメンテナンスが必要であると判定してよい。
 以上、ロボット制御システム1の実施形態を説明してきたが、本開示の実施形態としては、システム又は装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク、又はメモリカード等)としての実施態様をとることも可能である。プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
 また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であってもよい。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてもよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットに
よってその一部又は全部が実施されるように構成されてもよい。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 本開示において、X軸、Y軸、及びZ軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、X軸、Y軸、及びZ軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
 1 ロボット制御システム
 2 ロボット(3:アーム)
 4 ハンド部(41:モータ、42:エンコーダ、43(43A、43B):接触力センサ、44:力覚センサ、45A、45B:指)
 8 把持対象物(8G:重心)
 10 ロボット制御部
 20 ハンド制御部(21:状態推定部、22:変換部、24:位置制御部、25~27:加算器)
 28 ドライバ

Claims (17)

  1.  把持対象物を把持可能であり、複数のセンサを有するハンド部を制御するハンド制御部を備え、
     前記ハンド制御部は、
     前記複数のセンサの出力に基づいた、前記ハンド部から前記把持対象物に作用する把持力情報又は前記ハンド部の中で前記把持対象物に作用するモーメント情報を取得可能に構成され、
     前記把持力情報又は前記モーメント情報に基づいて、前記ハンド部による前記把持対象物の把持状態を推定する、制御装置。
  2.  前記ハンド制御部は、
     前記複数のセンサの少なくとも1つの情報に基づいて、前記把持状態が把持正常状態、把持異常状態、又は把持態様の補正が必要な把持補正状態のいずれの状態であるかを推定し、
     前記把持状態が前記把持補正状態である場合、前記ハンド部の把持態様を補正する、請求項1に記載の制御装置。
  3.  前記ハンド制御部は、
     前記複数のセンサの少なくとも1つの情報に基づいて前記把持対象物の重量情報を取得し、
     前記重量情報に基づいて前記把持状態を推定する、請求項1又は2に記載の制御装置。
  4.  前記ハンド制御部は、
     前記重量情報が所定の重量以下になった場合に、前記把持状態が把持異常状態であると推定し、
     次回の把持の機会において用いる基準把持力の値を増加させる、請求項3に記載の制御装置。
  5.  前記ハンド制御部は、
     前記複数のセンサの少なくとも1つの情報に基づいて前記ハンド部の位置情報を取得し、
     前記ハンド部の位置情報に基づいて前記把持状態を推定する、請求項1から4までのいずれか一項に記載の制御装置。
  6.  前記ハンド制御部は、
     前記ハンド部の位置情報で表される前記ハンド部の位置が所定範囲であり、かつ、前記把持力情報が第1把持力閾値以下である場合、前記ハンド部の把持状態が把持補正状態であると推定し、
     前記ハンド部が前記把持対象物を把持する把持力を補正する、請求項5に記載の制御装置。
  7.  前記ハンド制御部は、
     前記モーメント情報がモーメントの変化量であり、かつ、前記変化量が第1モーメント閾値以上である場合に、前記ハンド部の把持状態が把持補正状態であると推定し、
     前記ハンド部が前記把持対象物を把持する把持力を補正する、請求項1から6までのいずれか一項に記載の制御装置。
  8.  前記ハンド制御部は、
     前記モーメント情報がモーメントの変化量であり、かつ、前記変化量が前記第1モーメント閾値よりも大きい第2モーメント閾値以上である場合に、前記把持状態が把持異常状態であると推定し、
     次回の把持の機会において用いる基準把持力を増加させる、請求項7に記載の制御装置。
  9.  前記ハンド制御部は、
     前記把持力情報が第1把持力閾値よりも小さい第2把持力閾値以下である場合に、前記把持状態が把持異常状態であると推定し、
     次回の把持の機会において用いる基準把持力を増加させる、請求項1から8までのいずれか一項に記載の制御装置。
  10.  前記ハンド制御部は、前記複数のセンサの少なくとも1つの情報に基づいて、把持力の増加量が所定増加量以下となるように把持力を補正する、請求項1から9までのいずれか一項に記載の制御装置。
  11.  前記ハンド制御部は、前記複数のセンサの少なくとも1つの情報に基づいて、把持力の増加量が前記所定増加量を超えて把持力を補正することを許容する、請求項10に記載の制御装置。
  12.  前記ハンド制御部は、
     前記ハンド部の把持状態が把持異常状態であると複数回にわたって継続して推定された場合、前記ハンド部の把持状態が把持不可状態であると推定し、
     前記ハンド部による把持動作を停止する、請求項1から11までのいずれか一項に記載の制御装置。
  13.  前記ハンド制御部は、
     前記把持力情報として、ハンド部が有する指の表面と水平方向に働く力を取得し、
    前記力に基づいて、把持状態を推定する、請求項1から12までのいずれか一項に記載の制御装置。
  14.  前記ハンド部の前記把持対象物へのアプローチ動作を制御するロボット制御部を更に備え、
     前記ロボット制御部は、前記ハンド部の把持状態が把持不可状態であると推定された場合、前記ハンド部のアプローチ動作を修正する、請求項1から13までのいずれか一項に記載の制御装置。
  15.  前記ロボット制御部は、前記ハンド部の把持状態の推定結果に基づいて、前記ハンド部のメンテナンスのタイミングを決定する、請求項14に記載の制御装置。
  16.  請求項1から15までのいずれか一項に記載の制御装置と、ハンド部を有するロボットとを備える、ロボット制御システム。
  17.  ハンド部から把持対象物に作用する把持力情報又は前記ハンド部の中で前記把持対象物に作用するモーメント情報を取得することと、
     前記把持力情報又は前記モーメント情報に基づいて、前記ハンド部による前記把持対象物の把持状態を推定することと
    を含むロボット制御方法。
PCT/JP2022/044047 2021-11-29 2022-11-29 制御装置、ロボット制御システム、及びロボット制御方法 WO2023095927A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280078892.XA CN118354879A (zh) 2021-11-29 2022-11-29 控制装置、机器人控制***和用于控制机器人的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-193652 2021-11-29
JP2021193652 2021-11-29

Publications (1)

Publication Number Publication Date
WO2023095927A1 true WO2023095927A1 (ja) 2023-06-01

Family

ID=86539773

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/044047 WO2023095927A1 (ja) 2021-11-29 2022-11-29 制御装置、ロボット制御システム、及びロボット制御方法

Country Status (2)

Country Link
CN (1) CN118354879A (ja)
WO (1) WO2023095927A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310388A (ja) * 1991-04-05 1992-11-02 Mitsubishi Electric Corp 物体把持装置および物体把持装置の制御方法
JP2003305678A (ja) 2002-04-11 2003-10-28 Ricoh Co Ltd ロボット及びロボットの制御方法
JP2019181622A (ja) * 2018-04-10 2019-10-24 ファナック株式会社 ハンド制御装置およびハンド制御システム
JP2019188561A (ja) * 2018-04-27 2019-10-31 株式会社東芝 物品把持装置及び物品把持装置の制御装置
JP2020040159A (ja) * 2018-09-10 2020-03-19 株式会社東芝 情報処理装置、ピッキングロボットシステム、情報処理方法及び情報処理プログラム
WO2021141039A1 (ja) * 2020-01-09 2021-07-15 ファナック株式会社 ワーク搬送システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310388A (ja) * 1991-04-05 1992-11-02 Mitsubishi Electric Corp 物体把持装置および物体把持装置の制御方法
JP2003305678A (ja) 2002-04-11 2003-10-28 Ricoh Co Ltd ロボット及びロボットの制御方法
JP2019181622A (ja) * 2018-04-10 2019-10-24 ファナック株式会社 ハンド制御装置およびハンド制御システム
JP2019188561A (ja) * 2018-04-27 2019-10-31 株式会社東芝 物品把持装置及び物品把持装置の制御装置
JP2020040159A (ja) * 2018-09-10 2020-03-19 株式会社東芝 情報処理装置、ピッキングロボットシステム、情報処理方法及び情報処理プログラム
WO2021141039A1 (ja) * 2020-01-09 2021-07-15 ファナック株式会社 ワーク搬送システム

Also Published As

Publication number Publication date
CN118354879A (zh) 2024-07-16

Similar Documents

Publication Publication Date Title
US8260463B2 (en) Robot system
CN106393097B (zh) 工业用机器人***及其控制方法
US10564635B2 (en) Human-cooperative robot system
US9492925B2 (en) Robot controller, robot system, robot, robot control method, and program
JP6238021B2 (ja) ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9682478B2 (en) Safety monitoring device for robot gripping and carrying workpiece
JP6582483B2 (ja) ロボット制御装置およびロボットシステム
WO2008001713A1 (fr) Robot articulé et son programme de commande
WO2017073052A1 (ja) ロボットシステムの監視装置
US20140107843A1 (en) Robot, robot control apparatus, robot control method, and robot control program
JP6827381B2 (ja) 滑り検出システム
JP7225563B2 (ja) ロボット、制御装置およびロボットの制御方法
US11040449B2 (en) Robot control system and method of controlling a robot
CN110919627B (zh) 机器人的控制方法及控制装置
WO2020194393A1 (ja) ロボットハンド、ロボットハンド制御方法及びプログラム
JP3286842B2 (ja) ロボットの柔軟制御装置
JP2013169609A (ja) ロボットの衝突検出方法
US11999051B2 (en) Control device, control method, and program
WO2023095927A1 (ja) 制御装置、ロボット制御システム、及びロボット制御方法
JP2006321015A (ja) ロボットハンド装置
WO2023095928A1 (ja) 制御装置、ロボット制御システム、及びロボット制御方法
JP4618433B2 (ja) マニピュレータの柔軟制御装置および柔軟制御方法
CN117597219A (zh) 机器人控制装置和机器人控制方法
JPH09185416A (ja) マニピュレータの力制御装置
WO2020250789A1 (ja) 直接教示装置及び直接教示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22898709

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023563785

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2022898709

Country of ref document: EP

Effective date: 20240701