WO2021261055A1 - ロボット制御システム - Google Patents

ロボット制御システム Download PDF

Info

Publication number
WO2021261055A1
WO2021261055A1 PCT/JP2021/015160 JP2021015160W WO2021261055A1 WO 2021261055 A1 WO2021261055 A1 WO 2021261055A1 JP 2021015160 W JP2021015160 W JP 2021015160W WO 2021261055 A1 WO2021261055 A1 WO 2021261055A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
robot
force
force sense
control system
Prior art date
Application number
PCT/JP2021/015160
Other languages
English (en)
French (fr)
Inventor
昇吾 南波
裕二 アンドレ 保富
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US18/010,406 priority Critical patent/US20230286170A1/en
Publication of WO2021261055A1 publication Critical patent/WO2021261055A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector

Definitions

  • the present invention relates to a robot control system that estimates force sensory information and weight information from motor current information using a physical information estimation model.
  • the robot control system that controls the robot is a system for controlling the drive of the robot arm or the motor attached to the robot hand when, for example, the hand position of the robot arm is changed or the robot hand is made to hold a load.
  • the robot arm acquires force information (forces and moments) applied to the robot from the force sensor attached to the robot and performs feedback control based on the force sense information.
  • the reference cell 1 provided with the robot having the force sensor 16 on the hand portion is the force sensor.
  • the force sensor control that calculates the motor current value by feeding back the force measurement value according to 16 is executed.
  • the reference cell 1 determines the correspondence relationship between the working position and the motor current value during the actual force sensor control.
  • the reference data 3 is set in the copy cell 2 provided with the robot having no force sensor at the hand portion.
  • the copy cell 2 sets the working position when the force sense control is instructed. The calculation is performed, and the motor current value is acquired based on the calculated working position and the reference data 3. ”.
  • claim 1 of the same document comprises "a first robot cell device including a first robot having a force sensor disposed on a hand portion, and a second robot not provided with a force sensor.
  • a robot cell system including a second robot cell device for performing an operation equivalent to that of the first robot cell device on a work, wherein the first robot cell device is a force sensor.
  • the force sense control unit that feeds back the force measurement value by the robot to calculate the current value and supplies the current of the calculated current value to the first robot, and the force sense control unit.
  • the second robot cell device includes a reference data generation unit that generates reference data in which the current value is recorded for each work position during execution of force sense control, and the second robot cell device includes reference data generated by the reference data generation unit.
  • the reference data storage unit that stores the above in advance, and when the force sense control is instructed, the work position is calculated, the current value is acquired using the calculated work position and the reference data, and the acquired current value is obtained.
  • a robot cell system comprising a pseudo-force sense control unit that supplies the current of the robot to the second robot.
  • Patent Document 1 by using the reference data generated in the reference cell (first robot) provided with the force sensor, the copy cell (second robot) does not use the force sensor. Since the same work as the reference cell can be reproduced, the number of expensive force sensors used can be significantly reduced in an environment with a large number of copy cells.
  • the copy cell (second robot) of Patent Document 1 only imitates the work performed in the reference cell (first robot), and cannot independently perform a new work in which the reference data does not exist. No. Therefore, when it is desired to have the second robot perform a new work, the first robot newly generates reference data corresponding to the new work, and then provides the control system to control the second robot. I needed it. In addition, since feedback control cannot be realized by the second robot that does not have a force sensor, the second robot takes a safety avoidance action even if an accident such as a person colliding with the operating second robot occurs. There was also the problem of not being able to take it.
  • the present invention uses a physical information estimation model to control a robot that has a failed force sensor or a robot that does not have a force sensor. It is an object of the present invention to provide a robot control system capable of estimating information and weight information and realizing feedback control based on the estimated information.
  • An example of the present invention for solving the above problems is a robot control system that controls a robot equipped with a force sensor, and includes a force sense information acquisition unit that acquires force sense information detected by the force sense sensor.
  • a current information acquisition unit that acquires current information from each axis motor of the robot, and a force information learning unit that learns a force sense information estimation model based on the force sense information and the current information when the robot is operating.
  • the force sense information estimation unit that estimates the force sense information corresponding to the movement based on the force sense information estimation model at the time of the operation of the robot, the force sense information acquired by the force sense information acquisition unit, or the above.
  • It is a robot control system including a motor control unit that controls each axis motor based on the force sense information estimated by the force sense information estimation unit.
  • another example of the present invention is a robot control system that controls a robot provided with a force sensor, and is a force sense information acquisition unit that acquires force sense information detected by the force sense sensor, and each of the robots.
  • a current information acquisition unit that acquires current information from the shaft motor, a weight information learning unit that learns a weight information estimation model based on the force sense information and the current information when the robot grips a load, and the robot.
  • the weight information estimation unit that estimates the weight information corresponding to the luggage based on the weight information estimation model, the force sense information acquired by the force sense information acquisition unit, or the weight information.
  • It is a robot control system including a motor control unit that controls each axis motor based on the weight information estimated by the estimation unit.
  • the current of the motor can be obtained by using the physical information estimation model.
  • Force sensor information and weight information can be estimated from the information, and feedback control based on the estimated information can be realized.
  • FIG. It is a figure which shows the robot system of Example 1.
  • FIG. It is a functional block diagram of the robot control system of Example 1.
  • FIG. It is a flowchart of the force sense information learning of Example 1. It is an explanatory view of the haptic information estimation model M F of Example 1.
  • FIG. It is a figure which shows the robot system of Example 4.
  • FIG. 1 is a schematic diagram of a robot control system 1 of the first embodiment and a robot system including the robot 2 to be controlled thereof.
  • Robot 2 exemplified here is a robotic arm having six degrees of freedom, to achieve rotation and twisting motion by an electric motor mounted to each joint J 1 -J 6, it can have any orientation.
  • the electric motor of the robot 2 is specifically a servomotor (hereinafter, simply referred to as a "motor”), and is suitable for work requiring high response and high load.
  • a rotation angle sensor that outputs rotation angle information is installed in the motor, and in the robot control system 1 in which the rotation angle information is sequentially input, the rotation angle of each joint J is measured and forward kinematics. Can calculate the posture and hand position of the robot 2. On the contrary, when the robot control system 1 commands the robot 2 to target the hand position, the rotation angle of each joint J of the robot 2 is determined by inverse kinematics.
  • a force sensor 21 and a picking device 22 are attached to the hands of the robot 2.
  • the luggage 4 can be distributed to the containers according to the weight.
  • a robot arm having 6 degrees of freedom is illustrated as an example of the robot 2, but the number of degrees of freedom is not limited to 6, and may be 7 or 8, for example.
  • the robot 2 may be a robot other than the robot arm (for example, a robot hand), and the work performed by the robot 2 may be work other than picking the luggage 4 from the belt conveyor 3.
  • FIG. 2 is a functional block diagram of the robot control system 1 of this embodiment.
  • the robot control system 1 includes a force sense information acquisition unit 11, a current information acquisition unit 12, a force sense information learning unit 13, a memory 14, a force sense information estimation unit 15, and a motor control unit 16. .
  • the robot control system 1 is a computer equipped with hardware such as an arithmetic unit such as a CPU, a main storage device such as a semiconductor memory, an auxiliary storage device such as a hard disk, and a communication device. Then, each of the above functions is realized by the arithmetic unit executing the program loaded in the main storage device while referring to the data recorded in the auxiliary storage device. The details of each part will be described with appropriate omission.
  • the force sense information acquisition unit 11 acquires force sense information from the force sense sensor 21.
  • the force sense information acquired here is, for example, six information of reaction force (Fx, Fy, Fz) of three axes of X, Y, and Z, and moment (Mx, My, Mz).
  • the current information acquisition unit 12 acquires current information I indicating the current value flowing through the motor from the current sensor attached to the motor of each joint J.
  • the force sense information learning unit 13 learns to estimate the force sense information obtained by the force sense information acquisition unit 11 based on the current information I obtained by the current information acquisition unit 12.
  • the memory 14 stores the acquired force information, current information I, and stores the haptic information estimation model M F learned by force information learning unit 13.
  • Force information estimating unit 15 utilizes a haptic information estimation model M F, the current information acquiring unit 12 estimates the force information from the current information I obtained.
  • the motor control unit 16 performs force feedback control to the robot 2 by using the force sense information estimated by the force sense information estimation unit 15 or the force sense information acquired by the force sense information acquisition unit 11.
  • step S1 the robot control system 1 stores the force sensation information obtained by the force sensation information acquisition unit 11 and the current information I obtained by the current information acquisition unit 12 in the memory 14.
  • step S2 the robot control system 1 reads the memory 14, checks whether learned haptic information estimation model M F exists. If it exists, it is determined that the learning of the force sensory information has been performed in the past, and the process proceeds to steps S3-S5. On the other hand, if it does not exist, it is determined that the learning of the force sensory information has never been performed in the past, and the process proceeds to steps S6 to S8.
  • step S3 the force sense information learning unit 13 reads the haptic information estimation model M F learned from the memory 14.
  • step S4 the force sense information learning unit 13, the learned force information estimation model M F, applied as an input current information I accumulated in S1, to estimate the force sense information.
  • the haptic information estimation model M F of the present embodiment when given the current information I 1 -I 6 of the joint J 1 -J 6 of the robot 2, the reaction force of the three axes (Fx, It outputs six types of estimated force sensory information consisting of Fy, Fz) and three-axis moments (Mx, My, Mz).
  • step S5 the force sense information learning unit 13, re-learning was performed using the force information and the current information I acquired in S1, further enhances the accuracy of the haptic information estimation model M F.
  • Re-learning is performed as follows. That is, the estimated force information by the current information I and haptic information estimation model M F, so as to minimize the error actually obtained haptic information S1, repeating the learning by the neural network is a type of machine learning it is, it will increase the parameter accuracy of the haptic information estimation model M F.
  • a phenomenon called overfitting in which the learning rate decreases when learning is repeated, is assumed.
  • a function dropout may be provided in which the learning rate is sequentially monitored and the learning is forcibly terminated when the learning rate decreases due to repeated learning.
  • step S9 the force sense information learning unit 13 stores the haptic information estimation model M F re learned in step S5 in the memory 14.
  • step S6 the force sense information learning unit 13, the current information I of the joint J, new force information in the method of FIG. 4 to create the estimated model M F.
  • step S7 the force sense information learning unit 13, to the force information estimation model M F created in step S6, given as input the current information I accumulated in S1, to estimate the force sense information.
  • step S8 the force sense information learning unit 13 performs learning using the force sense information and the current information I acquired in S1. Learning is performed as follows. That is, the estimated force information by the current information I and haptic information estimation model M F, so as to minimize the error actually obtained haptic information S1, repeating the learning by the neural network is a type of machine learning it is, it will increase the parameter accuracy of the haptic information estimation model M F. The learning is terminated when the learning is repeated a certain number of times or when the learning rate does not improve.
  • step S9 the force sense information learning unit 13 stores the haptic information estimation model M F learned in step S8 in the memory 14.
  • Force information estimating section 15 the force information learning unit 13 by using the force information estimation model M F stored in the memory 14, to estimate the force information from the current information I current information obtaining unit 12 to obtain ..
  • the motor control unit 16 feedback-controls the robot 2 based on the force sense information acquired by the force sense information acquisition unit 11, and the force sense information acquisition unit 11
  • the robot 2 is feedback-controlled based on the force sense information estimated by the force sense information estimation unit 15.
  • the feedback control of the robot 2 can be continued by using the estimated force sense information by the force sense information estimation unit 15.
  • the haptic information estimation model M F to estimate the force information from the current information, for example, even when the force sensor after learning has failed, the input of the current information Since the force sensor information can be estimated accurately, the fail-safe function enables danger avoidance action in the event of a failure.
  • the robot 2 of this embodiment estimates the weight of the lifted luggage 4 and performs a pick-and-place operation of sorting by weight.
  • FIG. 5 is a functional block diagram of the robot control system 1 of this embodiment.
  • the robot control system 1 includes a force sense information acquisition unit 11, a current information acquisition unit 12, a weight information learning unit 13a, a memory 14, a weight information estimation unit 15a, and a motor control unit 16.
  • the weight information learning unit 13a performs learning for estimating weight information based on the current information I obtained by the current information acquisition unit 12.
  • the acquired force sense information, current information I, and weight information estimation model MN learned by the weight information learning unit 13a are stored in the memory 14.
  • the weight information estimation unit 15a uses the weight information estimation model MN to estimate the weight information from the current information I obtained by the current information acquisition unit 12.
  • the motor control unit 16 causes the robot 2 to perform a pick-and-place operation using the weight information estimated by the weight information estimation unit 15a or the force sense information acquired by the force sense information acquisition unit 11.
  • Weight learning process Here, the details of learning in the weight information learning unit 13a will be described using the flowchart of FIG.
  • the learning process here may be carried out at regular time intervals, or may be carried out in response to a command from the operator.
  • step S11 the robot control system 1 causes the robot 2 to lift the luggage 4, then move the luggage 4 to a predetermined hand position P, and perform an operation of stopping for a minute time.
  • the current information I of the motor of each joint J converges to a steady value, so that it becomes easy to estimate the weight information after that.
  • the posture of each axis and each node of the robot 2 at the time of weight estimation is the same, so that the weight is applied to each motor in a unified manner. This is to accurately estimate the weight of the luggage 4.
  • K i is a motor proportionality constant
  • a i is a current amplitude [A]
  • f is a frequency [Hz]
  • ⁇ i is a phase angle.
  • the motor load T of each motor of the robot 2 is the load required for the rotation and posture maintenance of the motor, the load required for driving the deceleration mechanism, and the load required for supporting the own weight of each node of the robot 2. It is a sum. Therefore, the motor load due to the weight of the luggage 4 at the predetermined hand position P cannot be obtained by the simple calculation of (Equation 1).
  • the luggage 4 (hand load) is derived from the motor load Ti, m when the luggage 4 (hand load) is lifted.
  • the fluctuation amount ⁇ T of the motor torque is extracted, and the weight of the luggage 4 is estimated based on the fluctuation amount ⁇ T.
  • ⁇ T i and P are motor load fluctuations at a predetermined hand position P
  • I i and m are motor currents [A] when there is a hand load
  • I i and 0 are motor currents [A] when there is no hand load.
  • a i, m are the motor current amplitudes when there is a hand load [A]
  • a i, 0 are the motor current amplitudes when there is no hand load [A]
  • ⁇ i, m are the phase angles when there is a hand load.
  • ⁇ i, 0 are phase angles when there is no manual load.
  • Equation 2 the fluctuation amount ⁇ T of the motor torque depending on the presence or absence of the luggage 4 is calculated, but the fluctuation amount ⁇ T of the motor torque when two types of luggage 4 having different weights are lifted may be calculated.
  • the weight information estimation model MN learned from the former the absolute weight of the luggage 4 can be estimated, and when using the weight information estimation model MN learned from the latter, the relative weight of the luggage 4 is estimated. can do.
  • step S12 the robot control system 1 stores the force sensation information acquired by the force sensation information acquisition unit 11 and the current information acquired by the current information acquisition unit 12 in the memory 14.
  • step S13 the robot control system 1 reads the memory 14 and confirms whether or not the trained weight information estimation model MN exists. If it exists, it is determined that the weight information has been learned in the past, and the process proceeds to step S14-16. On the other hand, if it does not exist, it is determined that the learning of the force sensory information has never been performed in the past, and the process proceeds to step S17-19.
  • step S14 the weight information learning unit 13a reads the trained weight information estimation model MN.
  • step S15 the weight information learning unit 13a gives the trained weight information estimation model MN the current information I accumulated in S12 as an input, and estimates the weight information.
  • the weight information estimation model MN of this embodiment is a difference N in the reaction force in the Z-axis direction when the current information I 1- I 6 of the joints J 1 to J 6 of the robot 2 is given. Is output as gravity information. The difference in the current information I of the robot 2 measured at the hand position P at the same point becomes apparent as the difference N in the reaction force in the Z-axis direction due to the difference in the hand load.
  • the weight information learning unit 13a performs re-learning using the force sense information and the current information I acquired in S11 to further improve the accuracy of the weight information estimation model MN.
  • Re-learning is performed as follows. That is, learning by a neural network, which is a kind of machine learning, is performed so as to minimize the error of the difference N between the current information I and the estimated weight information by the weight information estimation model MN and the force sense information actually obtained in S11. By repeating this, the parameter accuracy of the weight information estimation model MN will be improved.
  • step S20 the weight information learning unit 13a stores the weight information estimation model MN relearned in step S16 in the memory 14.
  • step S17 the weight information learning unit 13a newly obtains the weight information estimation model M from the current information I of each joint J by the method of FIG. Create N.
  • step S18 the weight information learning unit 13a gives the current information I accumulated in S12 as an input to the weight information estimation model MN created in step S17, and estimates the weight information.
  • the weight information learning unit 13a performs learning using the force sense information and the current information I acquired in S12. Learning is performed as follows. That is, it is a kind of machine learning so as to minimize the error of the difference N between the estimated weight information by the current information I and the weight information estimation model MN and the force sense information depending on the presence or absence of the hand load actually obtained in S12. By repeating the learning by the neural network, the parameter accuracy of the weight information estimation model MN is improved. The learning is terminated when the learning is repeated a certain number of times or when the learning rate does not improve.
  • step S20 the weight information learning unit 13a stores the weight information estimation model MN learned in step S19 in the memory 14.
  • the weight information estimation unit 15a estimates the weight information of the luggage 4 from the current information I obtained by the current information acquisition unit 12 by using the weight information estimation model MN stored in the memory 14 by the weight information learning unit 13a.
  • the motor control unit 16 detects the weight of the luggage 4 based on the force sense information acquired by the force sense information acquisition unit 11, and the force sense information acquisition unit 11 If the output of is abnormal, the weight of the luggage 4 is estimated by using the weight information estimation unit 15a. As a result, even if the force sensor 21 fails, the pick-and-place work of sorting the luggage 4 by weight can be continued by using the estimated weight information by the weight information estimation unit 15a.
  • the weight information estimation model MN which estimates the weight information from the current information, allows the weight to be input by inputting the current information even when the force sensor fails after learning, for example. Since the information can be estimated accurately, it is possible to take action to avoid danger in the event of a failure as a fail-safe function.
  • the robot 2 provided with the force sensor 21 is the control target, but in this embodiment, the robot 2A not equipped with the force sensor 21 is the control target.
  • the robot 2A has the same specifications as the robot 2 of the first embodiment except that the robot 2A is not provided with the force sensor 21.
  • the memory 14 of the robot control system 1 of the present embodiment the haptic information estimation model M F learned in Example 1 is registered.
  • the robot control system 1 of the present embodiment by using the haptic information estimation model M F, can estimate the force information based on the current information I acquired from the robot 2A without the force sensor 21 , Feedback control in the robot 2A can be realized by using the estimated force sensor information.
  • the robot 2 provided with the force sensor 21 is the control target, but in this embodiment, the robot 2A not equipped with the force sensor 21 is the control target.
  • the robot 2A has the same specifications as the robot 2 of the second embodiment except that the robot 2A is not provided with the force sensor 21.
  • the weight information estimation model MN learned in the second embodiment is registered in the memory 14 of the robot control system 1 of the present embodiment. Therefore, the robot control system 1 of the present embodiment can estimate the weight information based on the current information I acquired from the robot 2A not provided with the force sensor 21 by using the weight information estimation model MN, and estimate the weight information. Using the weight information, the robot 2A can be made to perform a pick-and-place operation of sorting the luggage 4 by weight.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

力覚センサーが故障した場合でも、力覚制御フィードバックを実施することができるロボット制御システムを提供する。そのため、力覚センサーを備えたロボットを制御するロボット制御システム(1)であって、前記力覚センサーが検出した力覚情報を取得する力覚情報取得部(11)と、前記ロボットの各軸モータから電流情報を取得する電流情報取得部(12)と、前記ロボットの動作時の前記力覚情報と前記電流情報に基づいて、力覚情報推定モデル(M)を学習する力覚情報学習部(13)と、前記ロボットの動作時に、前記力覚情報推定モデルに基づいて、動作に対応する力覚情報を推定する力覚情報推定部(15)と、前記力覚情報取得部が取得した力覚情報、または、前記力覚情報推定部が推定した力覚情報に基づいて、前記各軸モータをフィードバック制御するモータ制御部(16)と、を具備するロボット制御システムとした。

Description

ロボット制御システム
 本発明は、物理情報推定モデルを利用して、モータの電流情報から力覚情報や重量情報を推定するロボット制御システムに関する。
 ロボットを制御するロボット制御システムは、例えば、ロボットアームの手先位置を変更したり、ロボットハンドに荷物を把持させたりする際に、ロボットアームやロボットハンドに取り付けたモータの駆動を制御するためのシステムである。ロボット制御システムの中には、ロボットに取り付けた力覚センサーから、ロボットにかかる力覚情報(力やモーメント)を取得し、その力覚情報に基づいてフィードバック制御を実施することで、ロボットアームが人や構造物に衝突した際の危険回避制御や、荷物の重量等に応じたロボットハンドの把持動作制御を実現したりするものがある。
 ロボットのフィードバック制御を継続的かつ正確に実施するには、故障しにくく、かつ、検出精度の高い力覚センサーの利用が求められる。この要求を満たす力覚センサーとしては、比較的故障しにくく検出精度の高い静電容量方式の力覚センサーが知られているが、ひずみゲージ方式の力覚センサーに比べて高価であるため、大量のロボットを使用する環境下では、力覚センサーの使用数の削減方法が検討されている。
 例えば、特許文献1の要約書には、「力覚センサーの使用数を低減する」ための解決手段として、「手先部に力覚センサー16を備えるロボットを具備する基準セル1は、力覚センサー16による力測定値をフィードバックしてモータ電流値を演算する力覚制御を実行する。そして、基準セル1は、力覚制御を実況中に、作業位置とモータ電流値との対応関係を基準データ3に記録する。基準データ3は、手先部に力覚センサーを備えないロボットを具備するコピーセル2に設定される。コピーセル2は、力覚制御を指令された際には、作業位置を演算し、演算した作業位置と基準データ3とに基づいてモータ電流値を取得する。」と記載されている。
 また、同文献の請求項1には、「手先部に力覚センサーが配設された第1のロボットを備える第1のロボットセル装置と、力覚センサーを具備しない第2のロボットを備える、ワークに対して前記第1のロボットセル装置と同等の動作を実行するための第2のロボットセル装置と、を備えるロボットセルシステムであって、前記第1のロボットセル装置は、前記力覚センサーによる力測定値をフィードバックして電流値を演算する力覚制御を実行して、前記演算された電流値の電流を前記第1のロボットに供給する力覚制御部と、前記力覚制御部が力覚制御を実行中に前記電流値を作業位置毎に記録した基準データを生成する基準データ生成部と、を備え、前記第2のロボットセル装置は、前記基準データ生成部が生成した基準データを予め記憶する基準データ記憶部と、力覚制御を指令された際に、作業位置を演算し、前記演算した作業位置と前記基準データとを用いて電流値を取得し、前記取得した電流値の電流を前記第2のロボットに供給する擬似力覚制御部と、を備える、ことを特徴とするロボットセルシステム。」と記載されている。
 すなわち、特許文献1によれば、力覚センサーを具備する基準セル(第1のロボット)で生成した基準データを利用することで、コピーセル(第2のロボット)では力覚センサーを用いることなく基準セルと同等の作業を再現できるので、コピーセル数が多い環境では高価な力覚センサーの使用数を大幅に低減することができる。
特開2014-226752号公報
 しかしながら、特許文献1のコピーセル(第2のロボット)は、基準セル(第1のロボット)で実施した作業を模倣するものでしかなく、基準データの存在しない新規作業を独自に実施できるものではない。このため、第2のロボットに新規作業を実施させたい場合には、第1のロボットで新規作業に対応する基準データを新たに生成してから、第2のロボットを制御する制御システムに提供する必要があった。また、力覚センサーを具備しない第2のロボットでは、フィードバック制御を実現できないため、例えば動作中の第2ロボットに人が衝突するような事故が発生しても、第2ロボットが安全回避行動をとれないといった問題もあった。
 そこで、本発明は、力覚センサーが故障したロボットや、力覚センサーを備えないロボットを制御対象とする場合であっても、物理情報推定モデルを利用することで、モータの電流情報から力覚情報や重量情報を推定でき、推定情報に基づくフィードバック制御を実現することができるロボット制御システムを提供することを目的とする。
 上記課題を解決するための本発明の一例は、力覚センサーを備えたロボットを制御するロボット制御システムであって、前記力覚センサーが検出した力覚情報を取得する力覚情報取得部と、前記ロボットの各軸モータから電流情報を取得する電流情報取得部と、前記ロボットの動作時の前記力覚情報と前記電流情報に基づいて、力覚情報推定モデルを学習する力覚情報学習部と、前記ロボットの動作時に、前記力覚情報推定モデルに基づいて、動作に対応する力覚情報を推定する力覚情報推定部と、前記力覚情報取得部が取得した力覚情報、または、前記力覚情報推定部が推定した力覚情報に基づいて、前記各軸モータを制御するモータ制御部と、を具備するロボット制御システムである。
 また、本発明の他例は、力覚センサーを備えたロボットを制御するロボット制御システムであって、前記力覚センサーが検出した力覚情報を取得する力覚情報取得部と、前記ロボットの各軸モータから電流情報を取得する電流情報取得部と、前記ロボットが荷物を把持したときの前記力覚情報と前記電流情報に基づいて、重量情報推定モデルを学習する重量情報学習部と、前記ロボットが荷物を把持した場合に、前記重量情報推定モデルに基づいて、荷物に対応する重量情報を推定する重量情報推定部と、前記力覚情報取得部が取得した力覚情報、または、前記重量情報推定部が推定した重量情報に基づいて、前記各軸モータを制御するモータ制御部と、を具備するロボット制御システムである。
 本発明のロボット制御システムによれば、力覚センサーが故障したロボットや、力覚センサーを備えないロボットを制御対象とする場合であっても、物理情報推定モデルを利用することで、モータの電流情報から力覚情報や重量情報を推定でき、推定情報に基づくフィードバック制御を実現することができる。
実施例1のロボットシステムを示す図である。 実施例1のロボット制御システムの機能ブロック図である。 実施例1の力覚情報学習のフローチャートである。 実施例1の力覚情報推定モデルMの説明図である。 実施例2のロボット制御システムの機能ブロック図である。 実施例2の重量情報学習のフローチャートである。 実施例2の重量情報推定モデルMを示す図である。 実施例3のロボットシステムを示す図である。 実施例4のロボットシステムを示す図である。
 以下、本発明の実施例に係るロボット制御システム1について、図面を参照して詳細に説明する。なお、本発明は、以下に説明する実施例に限定されるものではない。また、以下の説明において使用する各図面において、共通する各装置、各機器には同一の符号を付しており、すでに説明した各装置、機器および動作の説明を省略する場合がある。
 図1~図4を用いて、本発明の実施例1に係るロボット制御システムを説明する。
 [ロボットシステム]
 図1は、実施例1のロボット制御システム1と、その制御対象であるロボット2を含むロボットシステムの概略図である。ここに例示するロボット2は、6自由度を持つロボットアームであり、ジョイントJ-Jの夫々に取り付けた電動機により回転動作やねじり動作を実現し、任意の姿勢をとることができる。ロボット2の電動機は、具体的にはサーボモータ(以下、単に「モータ」と称する)であり、高応答・高負荷が求められる作業に対応している。また、モータ内には、回転角情報を出力する回転角センサーが取り付けられており、回転角情報が逐次入力されるロボット制御システム1では、各ジョイントJの回転角度を測定して、順運動学によりロボット2の姿勢や手先位置を計算することができる。反対に、ロボット制御システム1からロボット2に、手先位置の目標を指令する場合は、逆運動学によりロボット2の各ジョイントJの回転角を決定する。
 また、ロボット2の手先には力覚センサー21とピッキング装置22が取り付けられている。これらにより、例えば、ベルトコンベア3で流れてきた荷物4をピッキング装置22で吸着することで、重量別のコンテナに荷物4を振り分けることができる。
 なお、図1では、ロボット2の一例として、6自由度を持つロボットアームを例示したが、自由度数は6に限定されず、例えば、7や8であっても良い。また、ロボット2は、ロボットアーム以外のロボット(例えば、ロボットハンド)であっても良く、ロボット2が実施する作業も、ベルトコンベア3からの荷物4のピッキング以外の作業であっても良い。
 [ロボット制御システム1]
 図2は、本実施例のロボット制御システム1の機能ブロック図である。ここに示すように、ロボット制御システム1は、力覚情報取得部11、電流情報取得部12、力覚情報学習部13、メモリ14、力覚情報推定部15、モータ制御部16を備えている。なお、ロボット制御システム1は、具体的には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたコンピュータである。そして、補助記憶装置に記録されたデータを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、上記の各機能を実現するが、以下では、このような周知技術を適宜省略しながら、各部の詳細を説明する。
 力覚情報取得部11は、力覚センサー21から力覚情報を取得する。ここで取得される力覚情報は、例えば、X、Y、Zの3軸の反力(Fx、Fy、Fz)、モーメント(Mx、My、Mz)の6情報である。電流情報取得部12は、各ジョイントJのモータに取り付けた電流センサーから、そのモータに流れる電流値を示す電流情報Iを取得する。力覚情報学習部13では、電流情報取得部12が得た電流情報Iに基づいて、力覚情報取得部11で得られる力覚情報を推定するための学習を行う。メモリ14には、取得した力覚情報、電流情報I、および、力覚情報学習部13で学習した力覚情報推定モデルMを保存する。力覚情報推定部15は、力覚情報推定モデルMを利用し、電流情報取得部12が得た電流情報Iから力覚情報を推定する。モータ制御部16は、力覚情報推定部15で推定した力覚情報か、力覚情報取得部11で取得した力覚情報を用いて、ロボット2への力覚フィードバック制御を実施する。
 [力覚学習処理]
 ここで、図3のフローチャートを用いて、力覚情報学習部13での学習処理の詳細を説明する。なお、この学習処理は、一定時間経過毎に実施してもよいし、操作者からの指令に応じて実施してもよい。
 まず、ステップS1では、ロボット制御システム1は、力覚情報取得部11が得た力覚情報と、電流情報取得部12が得た電流情報Iをメモリ14に蓄積する。
 次に、ステップS2では、ロボット制御システム1は、メモリ14を読み込んで、学習済みの力覚情報推定モデルMが存在するか確認する。存在する場合には、過去に力覚情報の学習が行われたと判定し、ステップS3-S5へ進む。一方、存在しない場合には、過去に一度も力覚情報の学習が行われていないと判定し、ステップS6-S8へ進む。
 学習済みの力覚情報推定モデルMが存在する場合、まず、ステップS3では、力覚情報学習部13は、メモリ14から学習済みの力覚情報推定モデルMを読み込む。
 次に、ステップS4では、力覚情報学習部13は、学習済みの力覚情報推定モデルMに、S1で蓄積した電流情報Iを入力として与え、力覚情報を推定する。
 ここで、図4を用いて、力覚情報推定モデルMの入出力の一例を説明する。ここに示すように、本実施例の力覚情報推定モデルMは、ロボット2のジョイントJ-Jの電流情報I-Iを与えたときに、3軸の反力(Fx、Fy、Fz)と3軸のモーメント(Mx、My、Mz)からなる6種類の推定力覚情報を出力するものである。
 ステップS5では、力覚情報学習部13は、S1で取得した力覚情報と電流情報Iを用いて再学習を実施し、力覚情報推定モデルMの精度を更に高める。再学習は、次のように行う。すなわち、電流情報Iと力覚情報推定モデルMによる推定力覚情報と、S1で実際に得た力覚情報の誤差を最小化するように、機械学習の一種であるニューラルネットワークによる学習を繰り返すことで、力覚情報推定モデルMのパラメータ精度を高めていく。なお、再学習の過程で、学習を繰り返すと過学習と呼ばれる学習率が低下する現象が想定される。これを避けるため、学習率を逐次監視しておき、学習率が繰り返し学習により低下した場合に、学習を強制終了する機能(ドロップアウト)を設けてもよい。
 ステップS5を終えると、ステップS9では、力覚情報学習部13は、ステップS5で再学習した力覚情報推定モデルMをメモリ14に保存する。
 一方、学習済みの力覚情報推定モデルMが存在しない場合、まず、ステップS6では、力覚情報学習部13は、各ジョイントJの電流情報Iから、図4の方法で新規に力覚情報推定モデルMを作成する。
 次に、ステップS7では、力覚情報学習部13は、ステップS6で作成した力覚情報推定モデルMに、S1で蓄積した電流情報Iを入力として与え、力覚情報を推定する。
 ステップS8では、力覚情報学習部13は、S1で取得した力覚情報と電流情報Iを用いて学習を実施する。学習は、次のように行う。すなわち、電流情報Iと力覚情報推定モデルMによる推定力覚情報と、S1で実際に得た力覚情報の誤差を最小化するように、機械学習の一種であるニューラルネットワークによる学習を繰り返すことで、力覚情報推定モデルMのパラメータ精度を高めていく。学習を一定回数繰り返した段階、または、学習率の向上が見られなくなった段階で、学習を終了する。
 ステップS8を終えると、ステップS9では、力覚情報学習部13は、ステップS8で学習した力覚情報推定モデルMをメモリ14に保存する。
 [実作業中の挙動]
 力覚情報推定部15は、力覚情報学習部13がメモリ14に保存した力覚情報推定モデルMを利用して、電流情報取得部12が得た電流情報Iから力覚情報を推定する。
 モータ制御部16は、力覚情報取得部11の出力が正常である場合は、力覚情報取得部11が取得した力覚情報に基づいてロボット2をフィードバック制御し、力覚情報取得部11の出力が異常である場合は、力覚情報推定部15が推定した力覚情報に基づいてロボット2をフィードバック制御する。これにより、力覚センサー21が故障した場合であっても、力覚情報推定部15による推定力覚情報を利用して、ロボット2のフィードバック制御を継続することができる。
 以上詳細に説明したように、本実施例によれば、電流情報から力覚情報を推定する力覚情報推定モデルMにより、例えば学習後に力覚センサーが故障した場合においても、電流情報の入力で力覚情報を精度よく推定可能となるため、フェールセーフの機能として、故障時の危険回避行動が可能となる。
 次に、本発明の実施例2のロボット制御システムについて、図5-図7を用いて説明する。なお、実施例1との共通点は重複説明を省略する。
 本実施例のロボット2は、持ち上げた荷物4の重量を推定し、重量ごとに仕分ける、ピックアンドプレース作業を実施するものとする。
 [ロボット制御システム1]
 図5は、本実施例のロボット制御システム1の機能ブロック図である。ここに示すように、ロボット制御システム1は、力覚情報取得部11、電流情報取得部12、重量情報学習部13a、メモリ14、重量情報推定部15a、モータ制御部16を備えている。
 重量情報学習部13aでは、電流情報取得部12が得た電流情報Iに基づいて、重量情報を推定するための学習を行う。メモリ14には、取得した力覚情報、電流情報I、および、重量情報学習部13aで学習した重量情報推定モデルMを保存する。重量情報推定部15aは、重量情報推定モデルMを利用し、電流情報取得部12が得た電流情報Iから重量情報を推定する。モータ制御部16は、重量情報推定部15aで推定した重量情報か、力覚情報取得部11で取得した力覚情報を用いて、ロボット2にピックアンドプレース作業を実施させる。
 [重量学習処理]
 ここで、図6のフローチャートを用いて、重量情報学習部13aでの学習の詳細を説明する。なお、ここでの学習処理は、一定時間経過毎に実施してもよいし、操作者からの指令に応じて実施してもよい。
 まず、ステップS11では、ロボット制御システム1は、ロボット2に荷物4を持ち上げさせた後、その荷物4を所定の手先位置Pまで移動させ、微小時間停止する動作を実施させる。これにより、各ジョイントJのモータの電流情報Iが定常値に収束するため、この後の重量情報を推定しやすくなる。なお、ロボット2の手先を特定の手先位置Pまで移動させるのは、重量推定時のロボット2の各軸及び各節の姿勢を同一とすることで、各モータへの自重のかかり方を統一し、荷物4の重量を正確に推定するためである。
 ここで、各ジョイントJ(i=1~6)のモータの電流情報I[A]と、モータ負荷T[N・m]の関係式を(式1)に示す。
Figure JPOXMLDOC01-appb-M000001
 Kはモータ比例定数、Aは電流振幅[A]、fは周波数[Hz]、θは位相角である。
 一般的に、ロボット2の各モータのモータ負荷Tは、モータの回転や姿勢維持に必要な負荷と、減速機構の駆動に必要な負荷と、ロボット2の節毎の自重支持に必要な負荷の和である。このため、所定の手先位置Pでの荷物4の重量によるモータ負荷は、(式1)の単純計算によっては求まらない。
 そこで、本実施例では、荷物の重量を推定するために、(式2)に示すように、荷物4(手先負荷)を持ち上げたときのモータ負荷Ti,mから、荷物4(手先負荷)を持たないときのモータ負荷Ti,0を減算することで、モータトルクの変動量ΔTを抽出し、その変動量ΔTに基づいて荷物4の重量を推定する。
Figure JPOXMLDOC01-appb-M000002
 ΔTi、Pは所定の手先位置Pでのモータ負荷変動量、Ii、mは手先負荷がある場合のモータ電流[A]、Ii、0は手先負荷がない場合のモータ電流[A]、Ai、mは手先負荷がある場合のモータ電流振幅[A]、Ai、0は手先負荷がない場合のモータ電流振幅[A]、θi、mは手先負荷がある場合の位相角、θi、0は手先負荷がない場合の位相角である。なお、式2では、荷物4の有無によるモータトルクの変動量ΔTを算出したが、重量の異なる二種類の荷物4を持ち上げた場合のモータトルクの変動量ΔTを算出しても良い。前者から学習した重量情報推定モデルMを利用する場合は荷物4の絶対重量を推定することができ、後者からから学習した重量情報推定モデルMを利用する場合は荷物4の相対重量を推定することができる。
 次に、ステップS12では、ロボット制御システム1は、力覚情報取得部11が得た力覚情報と、電流情報取得部12が得た電流情報をメモリ14に蓄積する。
 ステップS13では、ロボット制御システム1は、メモリ14を読み込んで、学習済みの重量情報推定モデルMが存在するか確認する。存在する場合には、過去に重量情報の学習が行われたと判定し、ステップS14-16へ進む。一方、存在しない場合には、過去に一度も力覚情報の学習が行われていないと判定し、ステップS17-19へ進む。
 学習済みの重量情報推定モデルMが存在する場合、まず、ステップS14では、重量情報学習部13aは、学習済みの重量情報推定モデルMを読み込む。
 次に、ステップS15では、重量情報学習部13aは、学習済みの重量情報推定モデルMに、S12で蓄積した電流情報Iを入力として与え、重量情報を推定する。
 ここで、図7を用いて、重量情報推定モデルMの入出力の一例を説明する。ここに示すように、本実施例の重量情報推定モデルMは、ロボット2のジョイントJ-Jの電流情報I-Iを与えたときに、Z軸方向の反力における差分Nを重力情報として出力するものである。同一地点である手先位置Pで計測された、ロボット2の電流情報Iの差分は、手先負荷の違いによるZ軸方向の反力の差分Nとして顕在化する。
 S16では、重量情報学習部13aは、S11で取得した力覚情報と電流情報Iを用いて、再学習を実施し、重量情報推定モデルMの精度を更に高める。再学習は、次のように行う。すなわち、電流情報Iと重量情報推定モデルMによる推定重量情報と、S11で実際に得た力覚情報の差分Nの誤差を最小化するように、機械学習の一種であるニューラルネットワークによる学習を繰り返すことで、重量情報推定モデルMのパラメータ精度を高めていく。
 ステップS16を終えると、ステップS20では、重量情報学習部13aは、ステップS16で再学習した重量情報推定モデルMをメモリ14に保存する。
 一方、学習済みの重量情報推定モデルMが存在しない場合、まず、ステップS17では、重量情報学習部13aは、各ジョイントJの電流情報Iから、図7の方法で新規に重量情報推定モデルMを作成する。
 次に、ステップS18では、重量情報学習部13aは、ステップS17で作成した重量情報推定モデルMに、S12で蓄積した電流情報Iを入力として与え、重量情報を推定する。
 ステップS19では、重量情報学習部13aは、S12で取得した力覚情報と電流情報Iを用いて学習を実施する。学習は、次のように行う。すなわち、電流情報Iと重量情報推定モデルMによる推定重量情報と、S12で実際に得た手先負荷の有無による力覚情報の差分Nの誤差を最小化するように、機械学習の一種であるニューラルネットワークによる学習を繰り返すことで、重量情報推定モデルMのパラメータ精度を高めていく。学習を一定回数繰り返した段階、または、学習率の向上が見られなくなった段階で、学習を終了する。
 ステップS19を終えると、ステップS20では、重量情報学習部13aは、ステップS19で学習した重量情報推定モデルMをメモリ14に保存する。
 [実作業中の挙動]
 重量情報推定部15aは、重量情報学習部13aがメモリ14に保存した重量情報推定モデルMを利用して、電流情報取得部12が得た電流情報Iから荷物4の重量情報を推定する。
 モータ制御部16は、力覚情報取得部11の出力が正常である場合は、力覚情報取得部11が取得した力覚情報に基づいて荷物4の重量を検出し、力覚情報取得部11の出力が異常である場合は、重量情報推定部15aを利用して荷物4の重量を推定する。これにより、力覚センサー21が故障した場合であっても、重量情報推定部15aによる推定重量情報を利用して、荷物4を重量ごとに仕分けるピックアンドプレース作業を継続することができる。
 以上詳細に説明したように、本実施例によれば、電流情報から重量情報を推定する重量情報推定モデルMにより、例えば学習後に力覚センサーが故障した場合においても、電流情報の入力で重量情報を精度よく推定可能となるため、フェールセーフの機能として、故障時の危険回避行動が可能となる。
 次に、本発明の実施例3に係るロボット制御システムについて、図8を用いて説明する。なお、上記した実施例との共通点は重複説明を省略する。
 実施例1では、力覚センサー21を備えたロボット2を制御対象としたが、本実施例では、力覚センサー21を備えないロボット2Aを制御対象としている。なお、ロボット2Aは、力覚センサー21を備えないこと以外は実施例1のロボット2と同仕様である。
 本実施例のロボット制御システム1のメモリ14には、実施例1で学習した力覚情報推定モデルMが登録されている。このため、本実施例のロボット制御システム1は、力覚情報推定モデルMを利用することで、力覚センサー21を備えないロボット2Aから取得した電流情報Iに基づいて力覚情報を推定でき、推定力覚情報を用いて、ロボット2Aでのフィードバック制御を実現することができる。
 従って、力覚センサー21を備えないロボット2Aを大量に使用する環境下では、高価な力覚センサーの使用数を大幅に削減でき、大幅なコスト低減を実現できる。
 次に、本発明の実施例4に係るロボット制御システムについて、図9を用いて説明する。なお、上記した実施例との共通点は重複説明を省略する。
 実施例2では、力覚センサー21を備えたロボット2を制御対象としたが、本実施例では、力覚センサー21を備えないロボット2Aを制御対象としている。なお、ロボット2Aは、力覚センサー21を備えないこと以外は実施例2のロボット2と同仕様である。
 本実施例のロボット制御システム1のメモリ14には、実施例2で学習した重量情報推定モデルMが登録されている。このため、本実施例のロボット制御システム1は、重量情報推定モデルMを利用することで、力覚センサー21を備えないロボット2Aから取得した電流情報Iに基づいて重量情報を推定でき、推定重量情報を用いて、ロボット2Aに荷物4を重量ごとに仕分ける、ピックアンドプレース作業を実施させることができる。
 従って、力覚センサー21を備えないロボット2Aを大量に使用する環境下では、高価な力覚センサーの使用数を大幅に削減でき、大幅なコスト低減を実現できる。
1…ロボット制御システム、11…力覚情報取得部、12…電流情報取得部、13…力覚情報学習部、13a…重量情報学習部、14…メモリ、15…力覚情報推定部、15a…重量情報推定部、16…モータ制御部、2…ロボット(力覚センサーあり)、21…力覚センサー、22…ピッキング装置、2A…ロボット(力覚センサーなし)、3…ベルトコンベア、4…荷物、M…力覚情報推定モデル、M…重量情報推定モデル

Claims (8)

  1.  力覚センサーを備えたロボットを制御するロボット制御システムであって、
     前記力覚センサーが検出した力覚情報を取得する力覚情報取得部と、
     前記ロボットの各軸モータから電流情報を取得する電流情報取得部と、
     前記ロボットの動作時の前記力覚情報と前記電流情報に基づいて、力覚情報推定モデルを学習する力覚情報学習部と、
     前記ロボットの動作時に、前記力覚情報推定モデルに基づいて、動作に対応する力覚情報を推定する力覚情報推定部と、
     前記力覚情報取得部が取得した力覚情報、または、前記力覚情報推定部が推定した力覚情報に基づいて、前記各軸モータを制御するモータ制御部と、
     を具備することを特徴とするロボット制御システム。
  2.  請求項1に記載のロボット制御システムにおいて、
     前記力覚情報推定部は、前記電流情報を前記力覚情報推定モデルに入力することで、力覚情報を推定することを特徴とするロボット制御システム。
  3.  請求項1または請求項2に記載のロボット制御システムにおいて、
     前記力覚情報取得部の出力が正常である場合は、前記力覚情報取得部が取得した力覚情報に基づいて、前記ロボットをフィードバック制御し、
     前記力覚情報取得部の出力が異常である場合は、前記力覚情報推定部が推定した力覚情報に基づいて、前記ロボットをフィードバック制御することを特徴とするロボット制御システム。
  4.  力覚センサーを備えたロボットを制御するロボット制御システムであって、
     前記力覚センサーが検出した力覚情報を取得する力覚情報取得部と、
     前記ロボットの各軸モータから電流情報を取得する電流情報取得部と、
     前記ロボットが荷物を把持したときの前記力覚情報と前記電流情報に基づいて、重量情報推定モデルを学習する重量情報学習部と、
     前記ロボットが荷物を把持した場合に、前記重量情報推定モデルに基づいて、荷物に対応する重量情報を推定する重量情報推定部と、
     前記力覚情報取得部が取得した力覚情報、または、前記重量情報推定部が推定した重量情報に基づいて、前記各軸モータを制御するモータ制御部と、
     を具備することを特徴とするロボット制御システム。
  5.  請求項4に記載のロボット制御システムにおいて、
     前記重量情報推定部は、前記電流情報を前記重量情報推定モデルに入力することで、重量情報を推定することを特徴とするロボット制御システム。
  6.  請求項4または請求項5に記載のロボット制御システムにおいて、
     前記力覚情報取得部の出力が正常である場合は、前記力覚情報取得部が取得した力覚情報に基づいて、前記ロボットを制御し、
     前記力覚情報取得部の出力が異常である場合は、前記重量情報推定部が推定した重量情報に基づいて、前記ロボットを制御することを特徴とするロボット制御システム。
  7.  力覚センサーを備えないロボットを制御するロボット制御システムであって、
     前記ロボットの動作時に各軸モータから得られる電流情報を取得する電流情報取得部と、
     請求項1のロボット制御システムが学習した力覚情報推定モデルを登録したメモリと、 前記ロボットの動作時の前記電流情報を前記力覚情報推定モデルに入力することで、力覚情報を推定する力覚情報推定部と、
     を具備することを特徴とするロボット制御システム。
  8.  力覚センサーを備えないロボットを制御するロボット制御システムであって、
     前記ロボットの動作時に各軸モータから得られる電流情報を取得する電流情報取得部と、
     請求項4のロボット制御システムが学習した重量情報推定モデルを登録したメモリと、 前記ロボットの動作時の前記電流情報を前記重量情報推定モデルに入力することで、重量情報を推定する重量情報推定部と、
     を具備することを特徴とするロボット制御システム。
PCT/JP2021/015160 2020-06-25 2021-04-12 ロボット制御システム WO2021261055A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/010,406 US20230286170A1 (en) 2020-06-25 2021-04-12 Robot control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020109352A JP2022006841A (ja) 2020-06-25 2020-06-25 ロボット制御システム
JP2020-109352 2020-06-25

Publications (1)

Publication Number Publication Date
WO2021261055A1 true WO2021261055A1 (ja) 2021-12-30

Family

ID=79282363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015160 WO2021261055A1 (ja) 2020-06-25 2021-04-12 ロボット制御システム

Country Status (3)

Country Link
US (1) US20230286170A1 (ja)
JP (1) JP2022006841A (ja)
WO (1) WO2021261055A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028532A (ja) * 2003-07-08 2005-02-03 Fanuc Ltd 嵌合装置
JP2013220496A (ja) * 2012-04-13 2013-10-28 Honda Motor Co Ltd 動力伝達装置
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2019000942A (ja) * 2017-06-15 2019-01-10 ファナック株式会社 学習装置、制御装置及び制御システム
JP2020069640A (ja) * 2018-10-30 2020-05-07 株式会社Mujin 制御装置、移送装置、プログラム、及び、制御方法
JP2020082313A (ja) * 2018-11-29 2020-06-04 京セラドキュメントソリューションズ株式会社 ロボット制御装置、学習装置、及びロボット制御システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005028532A (ja) * 2003-07-08 2005-02-03 Fanuc Ltd 嵌合装置
JP2013220496A (ja) * 2012-04-13 2013-10-28 Honda Motor Co Ltd 動力伝達装置
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2019000942A (ja) * 2017-06-15 2019-01-10 ファナック株式会社 学習装置、制御装置及び制御システム
JP2020069640A (ja) * 2018-10-30 2020-05-07 株式会社Mujin 制御装置、移送装置、プログラム、及び、制御方法
JP2020082313A (ja) * 2018-11-29 2020-06-04 京セラドキュメントソリューションズ株式会社 ロボット制御装置、学習装置、及びロボット制御システム

Also Published As

Publication number Publication date
US20230286170A1 (en) 2023-09-14
JP2022006841A (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
US11247332B2 (en) Redundant underactuated robot with multi-mode control framework
EP2895305B1 (en) Constraining robotic manipulators with redundant degrees of freedom
US9102054B2 (en) Robot, robot control apparatus, robot control method, and robot control program
CN110662635B (zh) 机器人的碰撞处理
US8942846B2 (en) System and method for controlling a teleoperated robotic agile lift system
JP5327722B2 (ja) ロボットの負荷推定装置及び負荷推定方法
EP2406041B1 (en) Robot apparatus and control method therefor
WO2011080856A1 (ja) ロボット、ロボットの制御装置、及び制御方法
WO2008001713A1 (fr) Robot articulé et son programme de commande
CN103302667A (zh) 机器人控制方法、机器人控制装置和机器人控制***
Patarinski et al. Robot force control: a review
JP2009285824A (ja) ロボットマニピュレーターの制御装置及びその制御方法
WO2022039058A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Yamawaki et al. Iterative learning of variable impedance control for human-robot cooperation
JP2018192600A (ja) ロボットシステム及びロボットシステムの制御方法
Zhu et al. Control of two industrial manipulators rigidly holding an egg
Khan et al. Adaptive multi-dimensional compliance control of a humanoid robotic arm with anti-windup compensation
Borghesan et al. Constraint-based specification of hybrid position-impedance-force tasks
WO2021261055A1 (ja) ロボット制御システム
Khatib et al. Torque-position transformer for task control of position controlled robots
Lee et al. Real-time model predictive control for industrial manipulators with singularity-tolerant hierarchical task control
GB2592404A (en) Robotic device
JP7270580B2 (ja) ロボットの制御装置、制御方法、及びプログラム
Jung et al. Variable stiffness control via external torque estimation using lstm
Leite et al. Adaptive passivity-based hybrid pose/force control for uncertain robots

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21828633

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21828633

Country of ref document: EP

Kind code of ref document: A1