WO2021024586A1 - 制御装置、制御システム、ロボットシステム及び制御方法 - Google Patents

制御装置、制御システム、ロボットシステム及び制御方法 Download PDF

Info

Publication number
WO2021024586A1
WO2021024586A1 PCT/JP2020/021234 JP2020021234W WO2021024586A1 WO 2021024586 A1 WO2021024586 A1 WO 2021024586A1 JP 2020021234 W JP2020021234 W JP 2020021234W WO 2021024586 A1 WO2021024586 A1 WO 2021024586A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
information
operation information
motion
storage
Prior art date
Application number
PCT/JP2020/021234
Other languages
English (en)
French (fr)
Inventor
省吾 長谷川
吉田 哲也
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to EP20850795.4A priority Critical patent/EP4011568A4/en
Priority to CN202080055822.3A priority patent/CN114174015B/zh
Priority to US17/632,810 priority patent/US20220266449A1/en
Publication of WO2021024586A1 publication Critical patent/WO2021024586A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Definitions

  • the present disclosure relates to control devices, control systems, robot systems and control methods.
  • Patent Document 1 discloses an example of teaching work in which a robot arm stores a work trajectory by direct teaching.
  • the control device is a robot control device, which includes a storage unit in which information for causing the robot to perform a predetermined operation is stored as storage operation information.
  • the processing unit includes a processing unit that controls the operation of the robot by using the storage operation information as the automatic operation information for causing the robot to perform an operation for automatic work, and the processing unit automatically uses the automatic operation information.
  • the operation information for correcting the operation of the robot performing the operation for working in the robot is received from the operation device for operating the robot, and the operation corrected from the operation related to the automatic operation information is performed.
  • the robot is controlled, and the modified operation information for the robot to perform the modified operation is stored in the storage unit as the saved operation information, and the operation device is the first operation information indicating the operation of the operation device.
  • the operation information based on the above is output to the processing unit.
  • control system includes a control device according to one aspect of the present disclosure and the operation device for operating the robot.
  • the robot system includes a control device according to one aspect of the present disclosure, the robot, and the operation device for operating the robot.
  • control method is a robot control method, in which the robot automatically stores stored operation information that is stored in a storage unit and is information for causing the robot to perform a predetermined operation. Operation information for operating the robot by using it as automatic operation information for performing an operation for work and correcting the operation of the robot performing an operation for automatically performing work using the automatic operation information. , The robot is operated so as to perform an operation modified from the operation related to the automatic operation information based on the operation information received from the operation device for operating the robot, and the robot operates the modified operation.
  • the modified operation information for performing the above is stored in the storage unit as the storage operation information, and the operation device outputs the operation information based on the first operation information indicating the operation of the operation device.
  • FIG. 1 is a diagram showing an example of a configuration of a robot system according to an embodiment.
  • FIG. 2 is a diagram showing the appearance of an example of the operating device according to the embodiment.
  • FIG. 3 is a block diagram showing an example of the configuration of the operating device according to the embodiment.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the robot system according to the embodiment.
  • FIG. 5A is a flowchart showing an example of an operation of executing the operation mode of the robot system according to the embodiment.
  • FIG. 5B is a flowchart showing an example of an operation of executing the operation mode of the robot system according to the embodiment.
  • FIG. 5C is a flowchart showing an example of an operation of executing the operation mode of the robot system according to the embodiment.
  • FIG. 5A is a flowchart showing an example of an operation of executing the operation mode of the robot system according to the embodiment.
  • FIG. 5B is a flowchart showing an example of an operation of executing the operation
  • FIG. 6 is a block diagram showing an example of the functional configuration of the operation control unit of the information processing apparatus according to the embodiment.
  • FIG. 7A is a diagram showing a specific example of modifying the operation of the robot by the robot system according to the embodiment.
  • FIG. 7B is a diagram showing a specific example of modifying the operation of the robot by the robot system according to the embodiment.
  • FIG. 7C is a diagram showing a specific example of modifying the operation of the robot by the robot system according to the embodiment.
  • FIG. 1 is a diagram showing an example of the configuration of the robot system 100 according to the embodiment.
  • the robot system 100 includes a robot 1, an operation device 2, a control device 3, an input device 7, an operation information detection device 8, an image pickup device 61, and an output device 62.
  • the control device 3 includes an information processing device 4 and a storage device 5.
  • the information processing device 4 is an example of a processing unit
  • the storage device 5 is an example of a storage unit. Not all of the above components are essential.
  • the operating device 2 may also serve as the input device 7.
  • the robot 1 includes an action unit 1b that applies an action to an object to be processed, and an action unit 1a that moves the action unit 1b so as to execute the action.
  • the operation device 2 and the control device 3 constitute a control system 200 for controlling the robot 1.
  • the operation device 2 is a device for operating the robot 1, and outputs operation information, which is information input to the operation device 2, to the control device 3.
  • the control device 3 controls the overall operation of the robot system 100.
  • the motion information detection device 8 detects motion information indicating the motions of the motion unit 1a and the action unit 1b of the robot 1 and outputs the motion information to the control device 3.
  • the motion information detection device 8 provides motion information such as the position and orientation of the action unit 1b, the force applied by the action unit 1b to the object, an image of the object, vibration, impact, light, sound, and temperature at the action unit 1b. , Humidity, barometric pressure, and other information may be provided.
  • the control device 3 outputs operation information to the operation device 2 and the output device 62 for feedback and presentation of the operation state of the robot 1.
  • the output device 62 converts the operation information into information such as visual and auditory information and presents it to the operator of the operation device 2.
  • the image of the robot 1 captured by the image pickup device 61 may be output to the output device 62.
  • Such an output device 62 can present the state of the robot 1 to the operator.
  • Examples of the output device 62 are, but are not limited to, a liquid crystal display (Liquid Crystal Display) and an organic or inorganic EL display (Electro-Luminescence Display).
  • the output device 62 may include a speaker that emits sound.
  • Robot 1 is a mechanical device that operates by power.
  • the robot 1 include robots for various purposes such as construction machine robots, tunnel excavator robots, crane robots, cargo handling and transporting vehicle robots, industrial robots, service robots, and humanoid robots.
  • Service robots are robots used in various service industries such as nursing care, medical care, cleaning, security, guidance, rescue, cooking, and product provision.
  • the robot 1 is an industrial robot such as a vertical articulated robot, a horizontal articulated robot, a polar coordinate robot, a cylindrical coordinate robot, and a right angle coordinate robot.
  • the robot system 100 is a system using a master-slave type robot.
  • the operating device 2 constitutes a master machine
  • the robot 1 constitutes a slave machine.
  • an operator at a position (outside the work area) away from the work area of the robot 1 operates the operation device 2 to input a command to the operation device 2, and the robot 1 operates in response to the command.
  • the robot 1 can automatically perform a predetermined work without an operation by an operator using the operation device 2.
  • the robot system 100 can cause the robot 1 to perform operations in the "manual mode", the "automatic mode”, and the "correction automatic mode”.
  • the "manual mode”, “automatic mode”, and “correction automatic mode” do not include a teaching (also referred to as “teaching") operation that teaches the robot 1 an operation such as work.
  • the manual mode is an operation mode in which the robot 1 is operated according to a command input via the operating device 2.
  • the robot 1 executes an operation according to an operation input to the operation device 2 by the operator, that is, an operation that traces the operation.
  • the robot 1 is manually operated by the operator.
  • the manual mode also includes a case where a part of the operation of the robot 1 in operation is automatically corrected based on a command input by the operator by operating the operation device 2.
  • the automatic mode is an operation mode in which the robot 1 is operated according to a preset task program.
  • the robot 1 automatically performs an automatic operation that automatically executes a predetermined operation according to the task program.
  • the predetermined operation may be an individual operation such as horizontal movement, vertical movement, and rotation, or may be a composite operation in which a series of a plurality of individual operations are combined according to an execution order.
  • the individual operation may include one operation or may include two or more operations. Examples of complex operations are operations such as holding and moving an object, cutting an object, joining two or more objects, and excavating. Therefore, in the automatic mode, the robot 1 can be made to work automatically, in other words, the operation for automatically working can be made.
  • the correction automatic mode is an operation mode in which the operation of the operating device 2 is reflected in the automatic operation of the robot 1 while the robot 1 is automatically operating, and the operation that was supposed to be performed automatically is corrected. .. That is, the robot 1 automatically operates according to a preset task program in a state where the command input via the operation device 2 can be reflected. Therefore, in the correction automatic mode, it is possible to correct the operation of the robot 1 that is automatically working, in other words, to correct the operation of the robot 1 that is performing the operation for automatically working.
  • the automatic mode is distinguished from the modified automatic mode in that the operation of the operating device 2 is not reflected in the operation of the robot 1 during the automatic operation of the robot 1.
  • the robot 1 includes a robot arm as an operation unit 1a and an end effector as an action unit 1b attached to the tip of the robot arm 1a.
  • reference numerals “1a” and “1b” will also be referred to as “robot arm 1a” and “end effector 1b”.
  • the operations of the robot arm 1a and the end effector 1b are controlled by the control device 3.
  • the robot arm 1a includes a base 15, an arm 13 supported by the support surface of the base 15, and a wrist portion 14 supported by the tip of the arm 13 and to which the end effector 1b is mounted.
  • the robot arm 1a is a drive device D1 that rotationally drives a plurality of links 11a to 11f arranged in order from the base to the tip, joints JT1 to JT6 that sequentially connect the links 11a to 11f, and joints JT1 to JT6, respectively. It is equipped with ⁇ D6.
  • the base 15 and the base end portion of the link 11a are rotatably connected around an axis extending in the vertical direction perpendicular to the support surface of the base 15.
  • the tip end of the link 11a and the base end of the link 11b are rotatably connected around an axis extending in the horizontal direction parallel to the support surface.
  • the tip end of the link 11b and the base end of the link 11c are rotatably connected around an axis extending in the horizontal direction.
  • the tip end of the link 11c and the base end of the link 11d are rotatably connected around an axis extending in the longitudinal direction of the link 11c.
  • the tip end of the link 11d and the base end of the link 11e are rotatably connected around an axis orthogonal to the longitudinal direction of the link 11d.
  • the tip end of the link 11e and the base end of the link 11f are rotatably connected to each other.
  • a mechanical interface is provided at the tip of the link 11f.
  • An end effector 1b corresponding to the work content is detachably attached to the mechanical interface via the force sensor SF.
  • An example of the force sensor SF is a force sensor or the like, and the configuration of the force sensor is not particularly limited, but may be composed of, for example, a 3-axis acceleration sensor.
  • the force sensor SF detects the force exerted by the end effector 1b on the object as a reaction force received from the object.
  • the force detected by the force sensor SF is converted into force data by an appropriate signal processing means (not shown).
  • This signal processing means is provided in, for example, the force sensor SF or the control device 3. In the present specification, for convenience, it is expressed that the force sensor SF detects force data.
  • the arm portion 13 of the robot arm 1a is formed by the connecting body composed of the joints JT1 to JT3 and the links 11a to 11c.
  • the wrist portion 14 of the robot arm 1a is formed by the connecting body composed of the joints JT4 to JT6 and the links 11d to 11f.
  • the drive devices D1 to D6 are examples of actuators that relatively rotate two members to which the joints JT1 to JT6 are connected, respectively.
  • the drive devices D1 to D6 each include electric motors such as servomotors servo-controlled by the control device 3 as drive motors M1 to M6 (see FIG. 6).
  • the drive devices D1 to D6 respectively generate rotation sensors E1 to E6 (see FIG. 6) such as an encoder for detecting the rotation position of the drive motors M1 to M6 and a current for controlling the drive of the drive motors M1 to M6. Includes current sensors C1 to C6 (see FIG. 6) for detection.
  • the rotation sensors E1 to E6 and the force sensor SF constitute an operation information detection device 8.
  • the subscripts "1" to “6" of the drive devices D1 to D6, the drive motors M1 to M6, the rotation sensors E1 to E6, and the current sensors C1 to C6 are the same subscripts "1" to “6", respectively. It means that it is arranged in the joints JT1 to JT6. Further, in the following, when any joint is indicated without distinguishing the joints JT1 to JT6, the subscript is omitted and referred to as "JT”, and the drive device D, the drive motor M, the rotation sensor E and the current sensor C are also referred to. The same shall apply.
  • the operation device 2 is, for example, a device that is arranged outside the work area of the robot 1 and receives an operation instruction from the operator. Operation information is generated by operating the operation device 2, and the generated operation information is sent to the control device 3. For example, the operation device 2 converts the operation information input by the operator into a signal corresponding to the operation information and outputs it to the control device 3.
  • the operation information is sent to the control device 3 during the operation in the manual mode, the robot 1 is controlled by the control device 3 so as to follow the operation of the operation device 2. Correction
  • operation information is sent to the control device 3 during operation in the automatic mode, the operation of the robot 1 in the middle of automatic operation is corrected by the operation information.
  • the operating device 2 is configured to be movable in any direction.
  • the operating device 2 is not fixed to another object such as the robot 1, and is configured to be movable in an arbitrary direction in the three-dimensional space.
  • the operating device 2 may be configured to be movable in any direction on a two-dimensional plane or a one-dimensional straight line.
  • the operating device 2 is configured so that it can be gripped by the operator's hand. That is, the operation device 2 is a hand-held operation device that can be held by hand. Therefore, the operator can move the gripping operating device 2 in an arbitrary direction and orient it in an arbitrary posture.
  • the operation device 2 is configured to communicate with the control device 3 via wired communication or wireless communication. Any type of communication may be used regardless of the type of wired communication or wireless communication.
  • the operating device 2 may be, for example, a device having the same configuration as a general-purpose device such as a game controller, a remote controller, or a smartphone of a home-use game machine, or a dedicated device. ..
  • the dedicated device may be a device corresponding to the function of the end effector 1b.
  • the operating device 2 may be a gun-like device.
  • FIG. 2 is a diagram showing the appearance of an example of the operating device 2 according to the embodiment.
  • FIG. 3 is a block diagram showing an example of the configuration of the operation device 2 according to the embodiment.
  • the operating device 2 includes a housing 2a that can be grasped by a human hand.
  • the operation device 2 includes an operation input device 2b in the housing 2a.
  • the operation input device 2b is a button switch, but the present invention is not limited to this.
  • the operation device 2 includes an inertial measurement unit (IMU: Inertial Measurement Unit) 2c, a haptics device 2d, an operation control device 2e, and a communication device 2f inside the housing 2a.
  • IMU Inertial Measurement Unit
  • the control device 3 performs bilateral control on the robot 1 by using the operation device 2.
  • the operation input device 2b receives input of commands and information by the operator, and transmits the input commands and information to the control device 3 via the communication device 2f.
  • Such an operation input device 2b may accept physical input, voice input, image input, and the like.
  • the operation input device 2b may include devices such as a slide switch, a button switch, a dial, a key, a lever, a touch panel, a microphone, and a camera.
  • the commands and information input to the operation input device 2b may indicate the operation mode selection and execution command of the robot 1, the operation selection and execution command of the end effector 1b, and the like.
  • the inertial measurement unit 2c includes a 3-axis acceleration sensor and a 3-axis angular velocity sensor, and detects acceleration and angular velocity in the 3-axis direction of the operating device 2.
  • the operation device 2 transmits the operation information based on the measurement data of the acceleration and the angular velocity in the three axial directions measured by the inertial measurement unit 2c to the control device 3 via the communication device 2f. From the measurement data of acceleration and angular velocity in the three axial directions, it is possible to detect various information indicating the operation and acting force of the operating device 2 such as position, posture, movement, moving speed, acceleration and force.
  • the operation control device 2e converts the measurement data of the acceleration and the angular velocity in the three axial directions into various information indicating the operation and acting force of the operation device 2 such as position, posture, movement, movement speed, acceleration and force.
  • the converted information may be transmitted to the control device 3 as operation information.
  • the operation control device 2e may output the measurement data itself to the control device 3, and the control device 3 may perform an operation to convert the data.
  • the information converted from the measurement data of the inertial measurement unit 2c may indicate the position, posture, movement, moving speed, acceleration, acting force, etc. of the end effector 1b.
  • the inertial measurement unit 2c may include a geomagnetic sensor, a temperature sensor, and the like.
  • the measurement data of the acceleration and the angular velocity in the three-axis direction may be corrected by using the measurement data of the geomagnetic sensor, the temperature sensor, and the like.
  • the information transmitted by the operation control device 2e to the control device 3 as described above is an example of the first operation information which is the information indicating the operation of the operation device 2, and the operation device 2 is the operation information based on the first operation information. Is output to the control device 3.
  • the haptics device 2d gives feedback on the operating state of the robot 1 to the operator as a tactile sensation.
  • the haptics device 2d receives the motion information of the robot 1 from the motion information detection device 8 via the control device 3, and gives feedback of the motion state of the robot 1 based on the motion information to the operator as a tactile sense.
  • the haptics device 2d is an example of a sensory device.
  • the operation information includes the operation data.
  • the motion data includes at least one of force data representing the force applied to the object by the action unit 1b of the robot 1, that is, the force acting on the work environment, and position data representing the position of the action unit 1b during operation.
  • the operation data includes both.
  • the force data may be time series data including the magnitude of the force and the time when the force is generated in association with each other.
  • the position data may be time series data including the position information and the time of the position in association with each other.
  • the motion data including the force data and the position data may be time series data including the magnitude of the force, the time when the force is generated, the position information, and the time at the position.
  • the position of the acting unit 1b may include not only the position of the acting unit 1b in the three-dimensional space but also the posture of the acting unit 1b in the three-dimensional space.
  • position means including a position in three-dimensional space and a position in at least three-dimensional space among postures in three-dimensional space.
  • the reason why the operation information includes the operation data as essential information is that the control device 3 controls at least one of the "force" that the action unit 1b acts on the work environment and the "position" of the action unit 1b during the operation. This is because the operation of the robot 1 is controlled by.
  • the command value of the position is the target value or the correction value (correction value) of the designated "position”
  • the command value of the force is the target value or the correction value of the designated "force”. It is a value (correction value).
  • the operation information includes image data of the object to which the action unit 1b acts, vibration data, impact data, optical data, sound data, temperature data, and humidity data generated in the action unit 1b as information other than the operation data.
  • Pressure data such as pressure may be included. At least the operation data of the operation information is sent to the operation device 2.
  • the haptics device 2d includes an actuator, a controller, a driver, and the like.
  • the actuator is exemplified by an eccentric motor, a linear resonance actuator, a piezo, or the like, and gives the operator a sense of tactile force.
  • the controller controls the actuator via a driver, and may have the same configuration as the configuration of the information processing device 4 illustrated later.
  • the driver constitutes the interface between the actuator and the controller. Examples of detailed configurations of the haptics device 2d are disclosed in Japanese Patent No. 411278, Japanese Patent Application Laid-Open No. 2019-60835, etc., and are known, and therefore detailed description thereof will be omitted.
  • the haptics device 2d can give a tactile sensation to the operator while the operator is holding the operating device 2 in the air.
  • the operator himself / herself.
  • the operation control device 2e controls the overall operation of the operation device 2.
  • the operation control device 2e may have a configuration similar to the configuration exemplified for the information processing device 4 described later.
  • the operation control device 2e receives a signal from the operation input device 2b, converts the signal into information indicating the corresponding operation, and transmits the signal to the control device 3.
  • the operation control device 2e converts the measurement data of the inertial measurement unit 2c and transmits the converted data to the control device 3.
  • the operation control device 2e transmits the measurement data of the inertial measurement unit 2c to the control device 3.
  • the operation control device 2e receives the operation information of the robot 1 from the control device 3, converts the operation data and the like included in the operation information into data suitable for input to the haptics device 2d, and outputs the data to the haptics device 2d. ..
  • the image pickup device 61 is an image pickup device that captures a working situation of the robot 1, and is, for example, a digital camera or a digital video camera.
  • the output device 62 is a device for the operator to visually and / or audibly confirm the work status of the robot 1.
  • the image pickup device 61 is arranged in the space where the robot 1 is arranged, and the output device 62 is arranged in the space where the operation device 2 is arranged.
  • the image pickup device 61 and the output device 62 are connected to each other via the control device 3, and the captured image information captured by the image pickup device 61 is sent to the output device 62 via the control device 3.
  • the image captured by the image pickup device 61 is displayed on the output device 62.
  • the operator operates the operating device 2 while observing the working status of the robot 1 presented on the output device 62.
  • the image pickup device 61 and the output device 62 may be connected to each other directly or via another device without going through the control device 3.
  • the image pickup device 61 and the output device 62 may be connected to each other by wire or wirelessly.
  • the input device 7 is an input device installed outside the work space together with the operation device 2, receives an operation instruction from the operator, and inputs the received operation instruction to the control device 3.
  • the input device 7 is configured to be operable, and may include, for example, devices such as a slide switch, a button switch, a dial, a key, a lever, a touch panel, a microphone, and a camera.
  • the input device 7 may be a device dedicated to the robot system 100, or may be a device using a general-purpose device.
  • the input device 7 may be a terminal device such as a dedicated terminal or a smart device such as a tablet.
  • the input device 7 includes a mode determination unit 71 as a functional component.
  • the mode determination unit 71 determines the operation mode selected by the operator from the automatic mode, the correction automatic mode, and the manual mode as the operation mode for operating the robot 1.
  • FIG. 4 is a block diagram showing an example of the functional configuration of the robot system 100 according to the embodiment.
  • the storage device 5 can store various information, that is, can store the stored information, and can read the stored information.
  • the storage device 5 is realized by a storage device such as a semiconductor memory such as a volatile memory and a non-volatile memory, a hard disk (HDD: Hard Disc Drive), and an SSD (Solid State Drive).
  • the storage device 5 stores storage operation information 51, which is information related to the operation of the robot 1.
  • the storage device 5 stores at least one storage operation information 51.
  • the storage operation information 51 may be information for causing the robot 1 to automatically perform a predetermined operation.
  • the storage operation information 51 does not have to include all the information necessary for the robot 1 to automatically perform a predetermined operation, and may include a part of the information.
  • Such storage operation information 51 may be automatic operation information that is information for causing the robot 1 to perform a predetermined operation such as an operation for automatically working.
  • the automatic operation information is information used during the automatic operation of the robot 1.
  • the storage operation information 51 may be the teaching information 51a stored in the storage device 5 by operating the robot 1 so as to perform a predetermined work by the teaching work.
  • the teaching information 51a is information in which the operation of the robot 1 is instructed and stored by operating the operating device 2, but the information is not limited to this and is stored by any teaching method such as direct teaching. It may be a new one.
  • the saved operation information 51 may be any information as long as it is information related to the operation of the robot 1.
  • the storage operation information 51 may be orbit information including time-series data, or may be path information representing a pose at a jump point on the orbit.
  • the storage operation information 51 may include, for example, the speed along the trajectory of the robot 1.
  • the storage device 5 is provided in the control device 3 integrally with the information processing device 4, but may be provided separately from the information processing device 4, for example, in another device.
  • the information processing device 4 controls the entire robot system 100.
  • the information processing device 4 is composed of an arithmetic unit having a processor, a memory, and the like.
  • the memory is composed of a semiconductor memory such as a volatile memory and a non-volatile memory, a hard disk, and a storage device such as an SSD.
  • the storage device 5 may also function as a memory.
  • the function of the arithmetic unit is a computer system consisting of a processor such as a CPU (Central Processing Unit), a volatile memory such as RAM (Random Access Memory), and a non-volatile memory such as ROM (Read-Only Memory) (shown in the figure). It may be realized by.
  • Some or all of the functions of the arithmetic unit may be realized by the CPU using the RAM as a work area to execute a program recorded in the ROM.
  • a part or all of the functions of the arithmetic unit may be realized by the above computer system, or may be realized by a dedicated hardware circuit such as an electronic circuit or an integrated circuit, and may be realized by the above computer system and the hardware circuit. It may be realized by a combination.
  • the information processing apparatus 4 may execute each process by centralized control by a single arithmetic unit, or may execute each process by distributed control by cooperation of a plurality of arithmetic units.
  • the information processing device 4 may be composed of a computer device such as a computer and a personal computer, for example.
  • the information processing device 4 may be composed of, for example, a microcontroller, an MPU (Micro Processing Unit), an LSI (Large Scale Integration: large-scale integrated circuit), a system LSI, a PLC (Programmable Logic Controller), a logic circuit, or the like. Good.
  • the plurality of functions of the information processing apparatus 4 may be realized by being individually integrated into one chip, or may be realized by being integrated into one chip so as to include a part or all of them. Further, each circuit may be a general-purpose circuit or a dedicated circuit.
  • an FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and / or setting of circuit cells inside the LSI, or multiple functions for a specific application.
  • An ASIC Application Specific Integrated Circuit
  • ASIC Application Specific Integrated Circuit
  • the information processing device 4 includes an operation control unit 41, an operation information determination unit 42, an operation information generation unit 43, and an operation information processing unit 44 as functional components.
  • the operation information determination unit 42 operates the robot 1 in the automatic mode or the correction automatic mode from among the plurality of stored operation information 51 for operating the robot 1 stored in the storage device 5
  • the operation control unit 41 Determine the operation information to be used.
  • the motion control unit 41 controls the motion of the robot 1.
  • the operation information generation unit 43 generates new storage operation information by using a plurality of storage operation information 51 stored in the storage device 5. Further, the operation information generation unit 43 generates new storage operation information by modifying the storage operation information based on the operation information of the robot 1 modified based on the operation information of the operation device 2.
  • the motion information processing unit 44 receives the motion information of the robot 1 from the motion information detection device 8, and outputs the motion information to the motion control unit 41, the motion information generation unit 43, and the operation device 2.
  • the motion information processing unit 44 outputs the motion information to the motion control unit 41 in the automatic mode, and outputs the motion information to the motion control unit 41, the motion information generation unit 43, and the operation device 2 in the manual mode and the correction automatic mode. It may be output.
  • the motion information processing unit 44 may output motion information to the output device 62.
  • the functions of the functional components included in the information processing device 4 can be realized, for example, by the arithmetic unit of the information processing device 4 reading and executing a program stored in the memory.
  • FIGS. 4 and 5A to 5C are flowcharts showing an example of the operation of executing the operation mode of the robot system 100 according to the embodiment. As shown in FIGS. 4 and 5A to 5C, first, the operator inputs the operation mode to be executed by the robot 1 to the input device 7 (step S101).
  • step S102 determines whether or not the input operation mode is the manual mode (step S102), and if it is the manual mode (Yes in step S102), proceeds to step S103. If it is not in the manual mode (No in step S102), the process proceeds to step S104.
  • step S104 the mode determination unit 71 determines whether or not the input operation mode is the automatic mode, and if it is the automatic mode (Yes in step S104), proceeds to step S105 and if it is not the automatic mode (step S104). No) in S104, the process proceeds to step S106.
  • step S103 the mode determination unit 71 determines the operation mode executed by the robot 1 to the manual mode, and transmits the determination result to the control device 3.
  • step S107 the operation control unit 41 of the information processing device 4 executes the control of the robot 1 in the manual mode.
  • the operation control unit 41 receives the operation information generated by the operator operating the operation device 2, and controls the operation of the robot 1 according to the operation information (step S108). At this time, the operation control unit 41 does not use the storage operation information 51 of the storage device 5. Further, the motion information processing unit 44 acquires the motion information of the robot 1 from the motion information detection device 8 and outputs the motion information to the motion control unit 41 and the operation device 2 (step S109). The motion control unit 41 controls the robot 1 by using the motion information as feedback information. The haptics device 2d of the operation device 2 gives feedback of the operation state of the robot 1 based on the operation information to the operator as a stimulus such as a tactile sense (step S110).
  • step S111 the motion control unit 41 determines whether or not the operation of the robot 1 in the manual mode is completed (step S111), and if it is completed (Yes in step S111), the series of processes is completed and is not completed. (No in step S111), the process returns to step S108.
  • step S105 the mode determination unit 71 determines the operation mode executed by the robot 1 to the automatic mode, and transmits the determination result to the control device 3.
  • the operation information determination unit 42 of the information processing device 4 accesses and searches the storage device 5 to read and acquire the storage operation information 51, which is the automatic operation information corresponding to the work or operation to be executed in the automatic mode. Step S112).
  • the motion control unit 41 controls the robot 1 using the acquired stored motion information 51 (step S113).
  • the operation control unit 41 controls the operation of the robot 1 according to a preset task program without using the operation information generated by the operation device 2.
  • the motion information processing unit 44 acquires the motion information of the robot 1 from the motion information detection device 8 and outputs the motion information to the motion control unit 41.
  • the motion control unit 41 controls the robot 1 by using the motion information as feedback information (step S114).
  • step S115 the motion control unit 41 determines whether or not the operation of the robot 1 in the automatic mode is completed (step S115), and if it is completed (Yes in step S115), the series of processes is completed and is not completed. (No in step S115), the process returns to step S113.
  • step S106 the mode determination unit 71 determines the operation mode executed by the robot 1 to the modified automatic mode, and transmits the determination result to the control device 3.
  • the operation information determination unit 42 of the information processing device 4 accesses and searches the storage device 5 to read and acquire the storage operation information 51, which is the automatic operation information corresponding to the work or operation to be executed in the modified automatic mode. (Step S116).
  • the motion control unit 41 controls the robot 1 using the acquired stored motion information 51 (step S117). At this time, the operation control unit 41 controls the operation of the robot 1 according to a preset task program, but when the operation information is sent from the operation device 2, the operation information is used.
  • step S118 determines whether or not the operation information has been sent from the operation device 2 (step S118), and if it has been sent (Yes in step S118), proceeds to step S119 and if it has not been sent (step S118). No) in step S118, the process proceeds to step S120.
  • step S119 the motion control unit 41 corrects the motion of the robot 1 that is automatically operating according to the sent operation information, and proceeds to step S120. As a result, the robot 1 performs an operation related to the automatic operation information, that is, an operation modified from the operation that was supposed to be performed automatically.
  • step S120 the motion information processing unit 44 acquires the motion information of the robot 1 from the motion information detection device 8 and outputs it to the motion control unit 41 and the operation device 2.
  • the motion control unit 41 controls the robot 1 by using the motion information as feedback information.
  • the haptics device 2d of the operation device 2 gives feedback of the operation state of the robot 1 based on the operation information to the operator as a stimulus such as a tactile sense (step S121).
  • the operation information generation unit 43 of the control device 3 determines whether or not the operation information acquired in step S120 is the operation information in the control using the operation information (step S122), and uses the operation information. If it is operation information (Yes in step S122), the process proceeds to step S123, and if it is not operation information using operation information (No in step S122), the process proceeds to step S124.
  • step S123 the operation information generation unit 43 generates new storage operation information 51 by modifying the storage operation information 51 used by the operation control unit 41 by using the operation information acquired in step S120. .. Specifically, the operation information generation unit 43 may replace the operation information corresponding to the operation information in the storage operation information 51 with the operation information.
  • step S124 the motion control unit 41 determines whether or not the operation of the robot 1 in the modified automatic mode is completed, and if it is completed (Yes in step S124), proceeds to step S125 and if it is not completed (Yes). No) in step S124, and the process returns to step S117.
  • step S125 the operation information generation unit 43 stores the corrected new storage operation information 51 in the storage device 5.
  • the storage operation information 51 may be modified once or more.
  • the corrected new storage operation information 51 is information that reflects such one or more corrections.
  • the operation information generation unit 43 may replace the uncorrected storage operation information of the new storage operation information 51 stored in the storage device 5 with the new storage operation information 51, that is, update it. If the storage operation information 51 is not modified, the operation information generation unit 43 does not store the storage operation information 51 in the storage device 5.
  • the information processing apparatus 4 ends a series of processes.
  • FIG. 6 is a block diagram showing an example of the functional configuration of the operation control unit 41 of the information processing device 4 according to the embodiment.
  • both the automatic operation information and the operation information which are the storage operation information 51, are orbit information including, for example, time series data.
  • the motion control unit 41 includes an adder 31a, subtractors 31b, 31e and 31g, a position controller 31c, a differentiator 31d, and a speed controller 31f as functional components. Including.
  • the motion control unit 41 controls the rotation position of the drive motor M of the drive device D of the robot 1 according to the command value based on the automatic motion information and the command value based on the operation information.
  • the adder 31a generates a corrected position command value by adding a correction command value based on the operation information to the position command value based on the automatic operation information.
  • the adder 31a sends the modified position command value to the subtractor 31b.
  • the position command value based on the automatic operation information is the drive motors M1 to M6 for adjusting the three-dimensional position and attitude of the end effector 1b to the position of the three-dimensional position and attitude command value in the automatic operation information, respectively. It may be the command value of the rotation position of, that is, the command value of the detection value of each of the rotation sensors E1 to E6.
  • the correction command value based on the operation information is the amount of change in the three-dimensional position and posture corresponding to the operation information, and is the command value of the rotation amount of each of the drive motors M1 to M6 for moving the end effector 1b, that is, the rotation sensor. It may be a command value of the amount of change in the detected values of each of E1 to E6.
  • the adder 31a may generate a position command value based on the automatic operation information and a correction command value based on the operation information from the automatic operation information and the operation information, respectively.
  • the motion control unit 41 may further include functional components for performing the above generation.
  • the subtractor 31b subtracts the current position value detected by the rotation sensor E from the corrected position command value to generate an angle deviation.
  • the subtractor 31b sends the generated angular deviation to the position controller 31c.
  • the current position value may be a detection value of each of the rotation sensors E1 to E6.
  • the detected values of the rotation sensors E1 to E6 indicate the three-dimensional position and orientation of the end effector 1b.
  • the position controller 31c generates a speed command value from the angle deviation sent from the subtractor 31b by arithmetic processing based on a predetermined transfer function, proportional coefficient, or the like.
  • the position controller 31c sends the generated speed command value to the subtractor 31e.
  • the speed command value may be a command value of the rotation speed of each of the drive motors M1 to M6.
  • the differentiator 31d differentiates the data of the current position value detected by the rotation sensor E to generate the amount of change in the rotation angle of the drive motor M per unit time, that is, the current velocity value.
  • the differentiator 31d sends the generated current velocity value to the subtractor 31e.
  • the current speed value may be the current value of the rotation speed of each of the drive motors M1 to M6.
  • the subtractor 31e subtracts the current velocity value sent from the differentiator 31d from the velocity command value sent from the position controller 31c to generate a velocity deviation.
  • the subtractor 31e sends the generated velocity deviation to the velocity controller 31f.
  • the speed deviation may be the speed deviation of the rotation speeds of the drive motors M1 to M6, respectively.
  • the speed controller 31f generates a torque command value (current command value) from the speed deviation sent from the subtractor 31e by arithmetic processing based on a predetermined transfer function, proportional coefficient, or the like.
  • the speed controller 31f sends the generated torque command value to the subtractor 31g.
  • the torque command value may be a torque command value for each of the drive motors M1 to M6.
  • the subtractor 31g subtracts the current current value detected by the current sensor C from the torque command value sent from the speed controller 31f to generate a current deviation.
  • the subtractor 31g sends the generated current deviation to the drive motor M, and drives the drive motor M with the current value of the current deviation.
  • the current deviation may be the current deviation for each of the drive motors M1 to M6.
  • the motion control unit 41 controls each of the drive motors M1 to M6 of the drive devices D1 to D6 to control the robot 1 so as to perform a motion corrected from the motion related to the automatic motion information.
  • the adder 31a sends a position command value based on the automatic operation information to the subtractor 31b as a corrected position command value.
  • the adder 31a sends the position command value based on the operation information to the subtractor 31b as the corrected position command value.
  • the motion information generation unit 43 shown in FIG. 4 corrects the information corresponding to the motion in the automatic motion information by using the result of the motion of the robot 1.
  • the operation information generation unit 43 generates the modified operation information, which is the corrected automatic operation information, as new storage operation information 51 and stores it in the storage device 5.
  • the modified motion information is motion information for the robot 1 to perform a modified motion.
  • the detected values of the rotation sensors E1 to E6 may be used.
  • the motion information generation unit 43 may be configured to select whether or not to store the modified motion information in the storage device 5 as the storage motion information 51 when the robot 1 performs the modified motion. In this case, for example, the motion information generation unit 43 may be configured to inquire the input device 7 or the like whether or not to memorize the modified motion after the modified motion of the robot 1 is completed.
  • the motion control unit 41 can use the modified motion information stored as the stored motion information 51 in the storage device 5 as the automatic motion information in the next and subsequent operations.
  • the motion control unit 41 is configured to control the motion of the robot 1 by using the latest stored motion information 51 stored in the storage device 5 as automatic motion information.
  • 7A to 7C are diagrams showing a specific example of modifying the operation of the robot 1 by the robot system 100 according to the embodiment.
  • 7A to 7C show an example in which the trajectory of the robot 1 (that is, the trajectory of the end effector 1b) is corrected to the target trajectory L0 by the operating device 2 each time the robot 1 operates in the correction automatic mode.
  • the target orbit L0 is an orbit having a right-angled angle and is shown by a broken line.
  • the robot 1 operates using the teaching information 51a as the automatic operation information without operating the operating device 2.
  • the end effector 1b moves on the orbit L1 indicated by the thick solid line. It can be seen that the actual orbit L1 deviates partially (especially at the angle of the orbit L0) from the target orbit L0.
  • the robot 1 operates by using the teaching information 51a as the automatic operation information while receiving the operation of the operation device 2.
  • the operator operates the operating device 2 so that the deviation amount with respect to the target trajectory L0 is smaller than that of the trajectory (trajectory of FIG. 7A) L1 at the time of the previous operation.
  • the end effector 1b moves on the orbit L2 indicated by the thick solid line.
  • the trajectory L1 in the previous operation is shown by a thin solid line.
  • the information processing apparatus 4 operates the robot 1 in the modified automatic mode by using the teaching information 51a as the automatic operation information.
  • the operator operates the operating device 2 so as to approach the target trajectory L0 from the previous trajectory L1 while the robot 1 is operating using the automatic motion information.
  • the trajectory drawn by the end effector 1b is corrected from the orbit L1 to the orbit L2.
  • the information processing device 4 stores the correction operation information for the end effector 1b to follow the trajectory L2 in the storage device 5 as the storage operation information 51.
  • the information processing device 4 is configured to control the operation of the robot 1 by using the latest stored operation information 51 stored in the storage device 5 as automatic operation information. Therefore, when the operating device 2 is not operated in the next operation, the robot 1 operates so that the end effector 1b follows the trajectory L2.
  • the robot 1 operates by using the storage operation information 51 that follows the trajectory L2 as the automatic operation information while receiving the operation of the operation device 2.
  • the operator operates the operating device 2 so that the deviation amount with respect to the target trajectory L0 is smaller than that of the trajectory (trajectory of FIG. 7B) L2 at the time of the previous operation.
  • the end effector 1b moves on the orbit L3 indicated by the thick solid line.
  • the trajectory L2 in the previous operation is shown by a thin solid line.
  • the information processing apparatus 4 operates the robot 1 in the modified automatic mode by using the stored operation information 51 that follows the trajectory L2 as the automatic operation information.
  • the operator operates the operating device 2 so as to approach the target trajectory L0 from the previous trajectory L2 while the robot 1 is operating using the automatic motion information.
  • the trajectory drawn by the end effector 1b is corrected from the orbit L2 to the orbit L3.
  • the information processing device 4 stores the correction operation information for the end effector 1b to follow the trajectory L3 in the storage device 5 as the storage operation information 51.
  • the trajectory of the robot 1 is modified so as to approach the target trajectory L0 each time the robot 1 is operated.
  • the operator selects the automatic mode as the operation mode for operating the robot 1 in the mode determination unit 71. , The robot 1 is operated fully automatically.
  • the control device 3 of the robot 1 is a storage device 5 as a storage unit in which information for causing the robot 1 to perform a predetermined operation is stored as storage operation information 51.
  • an information processing device 4 as a processing unit that controls the operation of the robot 1 by using the stored operation information 51 as the automatic operation information for causing the robot 1 to perform an operation for automatic work.
  • the information processing device 4 receives operation information for correcting the operation of the robot 1 that is performing an operation for automatically working by using the automatic operation information from the operation device 2 for operating the robot, and automatically operates.
  • the robot 1 is controlled so as to perform the modified motion from the motion related to the information, and the modified motion information for the robot 1 to perform the modified motion is stored in the storage device 5 as the storage motion information 51.
  • the operation device 2 outputs operation information based on the first operation information indicating the operation of the operation device 2 to the information processing device 4.
  • the control device 3 can correct the operation of the robot 1 that is performing the operation for automatic work in real time by using the operation information based on the first operation information of the operation device 2.
  • Such a control device 3 can easily partially modify the operation of the robot 1.
  • the control device 3 stores the modified operation information for performing the modified operation in the storage device 5 as the storage operation information 51. Therefore, the control device 3 can make the robot 1 automatically perform the corrected operation without requiring the correction of the operation performed each time by the operation device 2 using the operation device 2.
  • the first operation information is generated when the operator operates the operation device 2. Therefore, it is easy for the operator to generate operation information. Therefore, it becomes easy to modify the preset movements of the robot 1 such as the movements taught to the robot 1.
  • the information processing device 4 controls the robot 1 in any of the manual mode, the automatic mode, and the modified automatic mode according to the determination result in the mode determination unit 71 of the input device 7.
  • the information processing device 4 can operate the robot 1 without using the storage operation information 51 stored in the storage device 5.
  • the information processing device 4 operates the robot 1 according to the storage operation information 51, and can prevent the operation of the robot 1 from being modified even if the operation device 2 is inadvertently operated, for example. ..
  • the operation device 2 may include the inertial measurement unit 2c and output operation information based on the measurement data of the inertial measurement unit 2c as the first operation information. According to the above configuration, the operation device 2 outputs operation information based on the first operation information indicating the operation of the operation device 2. Since the operation information is information based on the measurement data of the inertial measurement unit 2c, it is possible to accurately indicate the operation of the operation device 2. Therefore, the accuracy of the operation information is improved, and the correction via the operation device 2 is reflected in the correction of the operation of the robot 1 with high accuracy.
  • the operating device 2 may be configured to be movable in any direction. According to the above configuration, the operating device 2 can make various modifications to the operation of the robot 1.
  • the operating device 2 may include a perceptual device that gives a perceptual stimulus to the operator holding the operating device 2.
  • the information processing device 4 outputs the second motion information indicating the motion of the robot 1 to the sensory device, and the sensory device provides the operator with a perceptual stimulus corresponding to the motion state of the robot 1 based on the second motion information. May be given.
  • the sensory device may be a haptics device 2d that gives a tactile stimulus to the operator.
  • the control device 3 gives a perceptual stimulus to the operator in order to feed back the operation state of the robot 1 to the operator.
  • the operator can recognize the state of operation of the robot 1 such as the force acting on the end effector 1b through the experience. Therefore, the operator can easily and surely recognize the state of the robot 1 with respect to his / her operation. Further, the stimulus using the haptics device 2d can make the operator recognize various states.
  • the information processing device 4 may control the operation of the robot 1 by using the latest stored operation information 51 stored in the storage device 5 as automatic operation information. According to the above configuration, as the operator repeats the correction work of the robot 1 using the operating device 2, it becomes easy for the operator to bring the operation of the robot 1 in the automatic operation closer to the desired operation.
  • the information processing device 4 does not necessarily have to use the latest saved operation information 51 stored in the storage device 5 as automatic operation information.
  • the operation information determination unit 42 of the information processing device 4 may determine the storage operation information 51 to be used as the automatic operation information by the information processing device 4 from the plurality of storage operation information 51 stored in the storage device 5. .. In this case, the information processing apparatus 4 may use the same storage operation information 51 as the automatic operation information each time until the operation information determination unit 42 determines the storage operation information 51 to be used as the automatic operation information. According to this configuration, even if the latest stored operation information 51 stored in the storage device 5 is not optimal as the information to be operated by the robot 1, the operation information determination unit 42 has appropriately corrected it. The storage operation information 51 at the time is determined as the automatic operation information, and the information processing apparatus 4 can use the storage operation information 51.
  • the operation information generation unit 43 of the information processing device 4 generates new storage operation information 51 by using the plurality of storage operation information 51 stored in the storage device 5. You may.
  • the method of generating the new stored operation information 51 by the operation information generation unit 43 is not particularly limited, and an algorithm suitable for approaching the desired operation is adopted.
  • the operation information generation unit 43 may be configured to generate storage operation information 51 for performing an operation that is an average of operations related to a plurality of stored storage operation information.
  • the operation information generation unit 43 may delete the past storage operation information 51 used to generate the new storage operation information 51.
  • the robot system 100 may be provided with a status information acquisition device (not shown) that acquires status information indicating the status in the work space of the robot 1.
  • the information processing device 4 may select and use the storage operation information 51 suitable for operating the robot 1 as the automatic operation information based on the situation information acquired by the situation information acquisition device.
  • the situation information may include, for example, information such as the position and posture of the robot 1 in the work space, and information used for recognizing the surrounding situation surrounding the robot 1.
  • the information used for recognizing the surrounding situation surrounding the robot 1 is, for example, the time zone and time when the robot 1 is operated, the temperature and humidity of the work space, and the like.
  • the information processing apparatus 4 more easily corrects the operation of the robot 1 by selecting and determining the storage operation information 51 suitable for the viscous resistance of the sealant as the automatic operation information based on the situation information. It can be carried out.
  • control system 200 includes a control device 3 according to the embodiment and an operation device 2 for operating the robot 1.
  • the robot system 100 includes a control device 3 according to the embodiment, a robot 1, and an operation device 2 for operating the robot 1. According to each of the control system 200 and the robot system 100, the same effect as that of the control device 3 according to the embodiment can be obtained.
  • the operating device 2 includes, but is not limited to, the haptics device 2d for giving the operator a perceptual stimulus.
  • the operating device 2 may include any device that stimulates the operator to perceive.
  • the operating device 2 may be configured to provide the operator with at least one of tactile, warm, visual and auditory stimuli.
  • the operating device 2 is a device that gives a tactile stimulus by deformation such as expansion / contraction or expansion / contraction of the operating device 2 and vibration, and expands / contracts by air pressure or hydraulic pressure, and a device that generates vibration such as a piezoelectric element. May be provided.
  • the operating device 2 may be provided with a heater or the like, for example, by giving a warm sensation stimulus by heat generation or the like.
  • the operating device 2 may be provided with a light source such as an LED (Light Emitting Diode), for example, by giving a visual stimulus by emitting light or blinking light.
  • the operation device 2 is configured to display an image corresponding to the perceptual stimulus.
  • the operation device 2 may be displayed on the output device 62 or the like by generating image data of the image and transmitting the image data to the control device 3.
  • the operating device 2 may provide an auditory stimulus by pronunciation or the like, and may include, for example, a speaker or the like.
  • the operating device 2 includes an inertial measurement unit 2c for detecting the operation of the operating device 2, but the present invention is not limited to this.
  • the operating device 2 may be provided with an imaging device that images the operating device 2 from the outside.
  • the image pickup device may be configured to image the operation device 2 and an object around the operation device 2 such as the operator.
  • image processing the image captured by such an imaging device it is possible to detect the three-dimensional position and posture of the operating device 2, for example, the position, posture, movement, moving speed, acceleration, and the like of the operating device 2. It is possible. It is possible to detect the acting force of the operating device 2 by the acceleration. Then, as the operation information of the operation device 2, the information detected by the image processing may be used.
  • the image processing may be executed by the control device 3 or may be executed by another processing device such as a processing device provided in the imaging device.
  • the inertial measurement unit 2c and the image pickup device may be used in combination to detect the operation information of the operation device 2.
  • the initial state such as the three-dimensional position and posture of the operation device 2 is detected as the initial information of the operation information by using the image captured by the image pickup device 2, and the measurement value of the inertial measurement unit 2c is used.
  • the amount of change of the operating device 2 with respect to the initial state may be detected as operating information.
  • the control device 3 corrects the operation such as the trajectory and the operation speed of the robot 1 based on the operation information in the operation device 2, but the operation is not limited to this, and the operations other than the above are corrected. You may.
  • the control device 3 may modify one or more parameters related to the operation other than the trajectory and the operation speed of the robot 1 based on the operation information in the operation device 2.
  • the control device 3 may be configured to adjust the operating sensitivity of the robot 1 with respect to the operation of the operating device 2, and may be configured to adjust the feedback ratio of the force received by the robot 1 to the operating device 2. May be good.
  • a plurality of operation devices 2 may be provided.
  • the plurality of operating devices 2 may include a first operating device for correcting the trajectory of the robot 1 and a second operating device for adjusting the speed along the trajectory of the robot 1.
  • the trajectory of the robot 1 may be corrected by using the first operating device while reducing the speed by using the second operating device.
  • the accuracy of correcting the trajectory of the robot 1 is improved.
  • the priority is set for the two or more operation devices 2, and the control device 3 follows the priority.
  • the operation information to be adopted for the correction may be determined from the operation information output from the two or more operation devices 2.
  • the control device 3 executes processing such as addition, subtraction, averaging, or other statistical processing on the operation information output from the two or more operation devices 2, and the operation information after the processing. May be adopted for correction.
  • the technique of the present disclosure may be a control method.
  • the control method according to the present disclosure is a robot control method for automatically working on the robot with storage operation information that is stored in a storage unit and is information for causing the robot to perform a predetermined operation.
  • the robot is used as the automatic operation information to operate the robot, and the operation information for correcting the operation of the robot that is performing the operation for automatically working by using the automatic operation information is used as the operation information of the robot.
  • the modified operation information of the above is stored in the storage unit as the storage operation information, and the operation device outputs the operation information based on the first operation information indicating the operation of the operation device.
  • a control method may be realized by a circuit such as a CPU and an LSI, an IC card, a single module, or the like.
  • the technique of the present disclosure may be a program for executing the above control method, or may be a non-temporary computer-readable recording medium in which the above program is recorded. Needless to say, the above program can be distributed via a transmission medium such as the Internet.
  • the numbers such as the ordinal number and the quantity used above are all examples for concretely explaining the technology of the present disclosure, and the present disclosure is not limited to the illustrated numbers.
  • the connection relationship between the components is illustrated for the purpose of specifically explaining the technique of the present disclosure, and the connection relationship for realizing the function of the present disclosure is not limited thereto.
  • the division of blocks in the functional block diagram is an example, and even if a plurality of blocks are realized as one block, one block is divided into a plurality of blocks, and / or some functions are transferred to another block. Good.
  • a single piece of hardware or software may process the functions of a plurality of blocks having similar functions in parallel or in a time division manner.
  • Robot 2 Operating device 2c Inertial measurement unit 2d Haptics device (perceptual device) 3 Control device 4 Information processing device (processing unit) 5 Storage device (storage unit) 100 robot system 200 control system

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

ロボット(1)の制御装置(3)は、前記ロボットに所定の動作をさせるための情報が保存動作情報として記憶された記憶部(5)と、前記ロボットに自動で作業するための動作をさせる自動動作情報として前記保存動作情報を用いて、前記ロボットの動作を制御する処理部(4)とを含み、前記処理部は、前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置(2)から受け付け、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを制御し、前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を前記処理部に出力する。

Description

制御装置、制御システム、ロボットシステム及び制御方法
 本開示は、制御装置、制御システム、ロボットシステム及び制御方法に関する。
 従来から、製造現場では溶接、塗装、部品の組付け、及びシール剤の塗布等の繰り返し作業が産業用ロボット等により自動で行われている。例えば、ロボットに作業を行わせるためには、作業に必要な情報をロボットに指示し、記憶させる教示が必要になる。ロボットの教示方式としては、例えば、教示者がロボットを直接触って動かすことによるダイレクト教示、ティーチングペンダントを用いた遠隔操縦による教示、プログラミングによる教示、マスタースレーブによる教示等がある。例えば特許文献1は、ダイレクト教示によりロボットアームに作業の軌道を記憶させる教示作業の一例を開示している。
特開2013-71231号公報
 種々の理由からロボットに教示した動作を部分的に変更する必要が生じる場合がある。例えば、ロボットの作業対象又は作業環境等が教示時から部分的に変化した場合、ロボットが目的の作業を遂行できなくなる、又は、作業の精度が悪化する等の問題が生じ得る。また、当初作成された教示情報に従った作業において、不具合が発見される場合もある。このような場合、ロボットの自動運転に使用される教示情報を修正することが必要なる。
 本開示は、予め設定されたロボットの動作の修正を容易にする制御装置、制御システム、ロボットシステム及び制御方法を提供することを目的とする。
 上記目的を達成するために、本開示の一態様に係る制御装置は、ロボットの制御装置であって、前記ロボットに所定の動作をさせるための情報が保存動作情報として記憶された記憶部と、前記ロボットに自動で作業するための動作をさせる自動動作情報として前記保存動作情報を用いて、前記ロボットの動作を制御する処理部とを含み、前記処理部は、前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置から受け付け、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを制御し、前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を前記処理部に出力する。
 また、本開示の一態様に係る制御システムは、本開示の一態様に係る制御装置と、前記ロボットを操作するための前記操作装置とを備える。
 また、本開示の一態様に係るロボットシステムは、本開示の一態様に係る制御装置と、前記ロボットと、前記ロボットを操作するための前記操作装置とを備える。
 また、本開示の一態様に係る制御方法は、ロボットの制御方法であって、記憶部に記憶され且つ前記ロボットに所定の動作をさせるための情報である保存動作情報を、前記ロボットに自動で作業するための動作をさせる自動動作情報として用いて、前記ロボットを動作させ、前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置から受け付け、受け付けた前記操作情報に基づき、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを動作させ、前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を出力する。
 本開示の技術によれば、予め設定されたロボットの動作の修正を容易にすることが可能になる。
図1は、実施の形態に係るロボットシステムの構成の一例を示す図である。 図2は、実施の形態に係る操作装置の一例の外観を示す図である。 図3は、実施の形態に係る操作装置の構成の一例を示すブロック図である。 図4は、実施の形態に係るロボットシステムの機能的な構成の一例を示すブロック図である。 図5Aは、実施の形態に係るロボットシステムの動作モードを実行する動作の一例を示すフローチャートである。 図5Bは、実施の形態に係るロボットシステムの動作モードを実行する動作の一例を示すフローチャートである。 図5Cは、実施の形態に係るロボットシステムの動作モードを実行する動作の一例を示すフローチャートである。 図6は、実施の形態に係る情報処理装置の動作制御部の機能的な構成の一例を示すブロック図である。 図7Aは、実施の形態に係るロボットシステムによるロボットの動作の修正の具体的な一例を示す図である。 図7Bは、実施の形態に係るロボットシステムによるロボットの動作の修正の具体的な一例を示す図である。 図7Cは、実施の形態に係るロボットシステムによるロボットの動作の修正の具体的な一例を示す図である。
 以下において、本開示の実施の形態を、図面を参照しつつ説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。また、本明細書及び請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 (ロボットシステム100の構成)
 実施の形態に係るロボットシステム100の構成を説明する。図1は、実施の形態に係るロボットシステム100の構成の一例を示す図である。図1に示すように、ロボットシステム100は、ロボット1と、操作装置2と、制御装置3と、入力装置7と、動作情報検出装置8と、撮像装置61と、出力装置62とを構成要素として備える。制御装置3は、情報処理装置4と記憶装置5とを含む。情報処理装置4は処理部の一例であり、記憶装置5は記憶部の一例である。なお、上記構成要素の全てが必須ではない。また、操作装置2が入力装置7を兼ねてもよい。ロボット1は、処理の対象物に対して作用を加える作用部1bと、当該作用を実行するように作用部1bを動かす動作部1aとを備える。操作装置2及び制御装置3は、ロボット1を制御するための制御システム200を構成する。
 操作装置2は、ロボット1を操作するための装置であり、操作装置2に入力される情報である操作情報を制御装置3に出力する。制御装置3は、ロボットシステム100の全体の動作を制御する。動作情報検出装置8は、ロボット1の動作部1a及び作用部1bの動作を示す動作情報を検出し、制御装置3に出力する。例えば、動作情報検出装置8は、動作情報として、作用部1bの位置及び姿勢、作用部1bが対象物に加える力、対象物の画像、作用部1bでの振動、衝撃、光、音、温度、湿度及び気圧等の情報を検出する種々のセンサを備えてもよい。制御装置3は、ロボット1の動作の状態のフィードバック及び提示のために、動作情報を操作装置2及び出力装置62に出力する。出力装置62は、動作情報を視覚的及び聴覚的等の情報に変換し、操作装置2の操作者に提示する。例えば、撮像装置61によって撮像されたロボット1の画像が出力装置62に出力されてもよい。このような出力装置62は、ロボット1の状態を操作者に提示することができる。出力装置62の例は、液晶ディスプレイ(Liquid Crystal Display)及び有機又は無機ELディスプレイ(Electro-Luminescence Display)であるが、これらに限定されない。出力装置62は、音声を発するスピーカを備えてもよい。
 ロボット1は、動力によって動作する機械装置である。ロボット1として、例えば、建設機械ロボット、トンネル掘削機ロボット、クレーンロボット、荷役搬送車ロボット、産業用ロボット、サービス用ロボット及びヒューマノイド等の種々の用途のロボットが例示される。サービス用ロボットは、介護、医療、清掃、警備、案内、救助、調理、商品提供等の様々なサービス業で使用されるロボットである。本実施の形態では、ロボット1は、垂直多関節型ロボット、水平多関節型ロボット、極座標型ロボット、円筒座標型ロボット及び直角座標型ロボット等の産業用ロボットである。
 本実施の形態では、ロボットシステム100は、マスタースレーブ方式のロボットを利用したシステムである。操作装置2はマスター機を構成し、ロボット1はスレーブ機を構成する。ロボットシステム100では、ロボット1の作業領域から離れた位置(作業領域外)にいる操作者が操作装置2を動作させることで操作装置2に指令を入力し、ロボット1は当該指令に対応した動作を行い、特定の作業を行うことができる。また、ロボットシステム100では、ロボット1は、操作者による操作装置2を用いた操作なしに、所定の作業を自動的に行うこともできる。
 本実施の形態では、ロボットシステム100は、ロボット1に「手動モード」、「自動モード」及び「修正自動モード」での動作を実行させることができる。「手動モード」、「自動モード」及び「修正自動モード」は、ロボット1に作業等の動作を教える教示(「ティーチング」とも呼ばれる)動作を含まないものとする。
 手動モードは、操作装置2を介して入力された指令に従って、ロボット1を動作させる運転モードである。例えば、ロボット1は、操作者によって操作装置2に入力される操作に従った動作、つまり、当該操作をトレースした動作を実行する。ロボット1は、操作者によって手動運転される。なお、手動モードには、操作者が操作装置2を操作することによって入力された指令に基づいて動作中のロボット1の動作の一部が自動で動作補正される場合も含む。
 自動モードは、予め設定されたタスクプログラムに従ってロボット1を動作させる運転モードである。ロボット1は、そのタスクプログラムに従って自動で所定の動作を実行する自動運転をする。所定の動作は、水平移動、鉛直移動及び回転等の個別の動作であってもよく、一連の複数の個別の動作が実行順序に従って組み合わされた複合的な動作であってもよい。なお、個別の動作は、1つの動作を含んでもよく、2つ以上の動作を含んでもよい。複合的な動作の例は、対象物を保持して移動させる、対象物を切断する、2つ以上の対象物を接合する、掘削する等の作業である。よって、自動モードでは、ロボット1に自動で作業をさせる、言い換えれば、自動で作業するための動作をさせることができる。
 修正自動モードは、ロボット1が自動で動作している途中に、操作装置2の操作をロボット1の自動の動作に反映させて、自動で行うことになっていた動作を修正する運転モードである。つまり、ロボット1は、操作装置2を介して入力された指令を反映可能な状態で、予め設定されたタスクプログラムに従って自動運転する。よって、修正自動モードでは、自動で作業をしているロボット1の動作を修正する、言い換えれば、自動で作業するための動作をしているロボット1の動作を修正することができる。なお、自動モードは、ロボット1の自動運転中、操作装置2の操作がロボット1の動作に反映されないという点で、修正自動モードと区別される。
 (ロボット1)
 図1に示すように、ロボット1は、動作部1aとしてのロボットアームと、ロボットアーム1aの先端に装着される作用部1bとしてのエンドエフェクタとを備える。以下において、参照符号「1a」及び「1b」について、「ロボットアーム1a」及び「エンドエフェクタ1b」とも表記する。ロボットアーム1a及びエンドエフェクタ1bの動作は、制御装置3によって制御される。
 ロボットアーム1aは、基台15と、基台15の支持面に支持された腕部13と、腕部13の先端に支持され且つエンドエフェクタ1bが装着される手首部14とを備えている。ロボットアーム1aは、その基部から先端に向かって順に配置された複数のリンク11a~11fと、リンク11a~11fを順次接続する関節JT1~JT6と、関節JT1~JT6それぞれを回転駆動する駆動装置D1~D6とを備えている。
 関節JT1では、基台15とリンク11aの基端部とが、基台15の支持面に垂直である鉛直方向に延びる軸回りに回転可能に連結されている。関節JT2では、リンク11aの先端部とリンク11bの基端部とが、支持面に平行である水平方向に延びる軸回りに回転可能に連結されている。関節JT3では、リンク11bの先端部とリンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。関節JT4では、リンク11cの先端部とリンク11dの基端部とが、リンク11cの長手方向に延びる軸回りに回転可能に連結されている。関節JT5では、リンク11dの先端部とリンク11eの基端部とが、リンク11dの長手方向と直交する軸回りに回転可能に連結されている。関節JT6では、リンク11eの先端部とリンク11fの基端部とが、捻れ回転可能に連結されている。
 リンク11fの先端部にはメカニカルインターフェースが設けられている。メカニカルインターフェースには、作業内容に対応したエンドエフェクタ1bが力センサSFを介して着脱可能に装着される。力センサSFの例は、力覚センサ等であり、力覚センサの構成は特に限定されないが、例えば、3軸加速度センサで構成されてもよい。力センサSFは、エンドエフェクタ1bが対象物に作用させる力を、当該対象物から受ける反力として検出する。力センサSFによって検出される力は、適宜な信号処理手段(図示せず)によって力データに変換される。この信号処理手段は、例えば、力センサSF又は制御装置3に設けられる。本明細書では、便宜上、力センサSFが力データを検出すると表現する。
 関節JT1~JT3及びリンク11a~11cで構成される連結体によって、ロボットアーム1aの腕部13が形成される。関節JT4~JT6及びリンク11d~11fで構成される連結体によって、ロボットアーム1aの手首部14が形成される。
 駆動装置D1~D6はそれぞれ、関節JT1~JT6が連結する2つの部材を相対的に回転させるアクチュエータの一例である。駆動装置D1~D6はそれぞれ、制御装置3によってサーボ制御されるサーボモータ等の電気モータを、駆動モータM1~M6(図6参照)として含む。さらに、駆動装置D1~D6はそれぞれ、駆動モータM1~M6の回転位置を検出するためのエンコーダ等の回転センサE1~E6(図6参照)と、駆動モータM1~M6の駆動を制御する電流を検出するための電流センサC1~C6(図6参照)とを含む。回転センサE1~E6及び力センサSFは、動作情報検出装置8を構成する。
 なお、駆動装置D1~D6、駆動モータM1~M6、回転センサE1~E6、及び電流センサC1~C6の添え字「1」~「6」はそれぞれ、同じ添え字「1」~「6」の関節JT1~JT6に配置されることを意味する。また、以下において、関節JT1~JT6を区別せずに任意の関節を示す場合には添え字を省いて「JT」と称し、駆動装置D、駆動モータM、回転センサE及び電流センサCについても同様とする。
 (操作装置2)
 図1に示すように、操作装置2は、例えばロボット1の作業領域外に配置され、操作者からの操作指示を受け付ける装置である。操作装置2を動作させることにより操作情報が生成され、生成された操作情報は制御装置3に送られる。例えば、操作装置2は、操作者により入力された操作情報を、当該操作情報に対応する信号に変換し制御装置3に出力する。手動モードでの運転中に操作情報が制御装置3に送られると、ロボット1が制御装置3により操作装置2の動作に追随して動くように制御される。修正自動モードでの運転中に操作情報が制御装置3に送られると、自動で動作している途中のロボット1の動作が操作情報により修正される。
 操作装置2は、任意の方向に移動自在であるように構成されている。本実施の形態では、操作装置2は、ロボット1等の他の物体に固定されておらず、3次元空間内で任意の方向に移動自在であるように構成されている。なお、操作装置2は、2次元平面上又は1次元直線上で任意の方向に移動自在であるように構成されてもよい。操作装置2は操作者の手によって把持され得るように構成されている。つまり、操作装置2は、手持ち可能である手持ち操作装置である。このため、操作者は、把持している操作装置2を任意の方向に移動させ、任意の姿勢に方向付けることができる。操作装置2は、有線通信又は無線通信を介して制御装置3と通信するように構成されている。有線通信及び無線通信の種類は問わず、いかなる通信であってもよい。
 これに限定されないが、操作装置2は、例えば、家庭用ゲーム機のゲームコントローラ、リモコン又はスマートフォン等の汎用的な装置と同様の構成の装置であってもよく、専用の装置であってもよい。例えば、専用の装置は、ロボット1が産業用ロボットである場合、エンドエフェクタ1bの機能に対応した装置であってもよい。エンドエフェクタ1bが塗装用のスプレーガンである場合、操作装置2はガン(銃)状の装置であってもよい。
 図2は、実施の形態に係る操作装置2の一例の外観を示す図である。図3は、実施の形態に係る操作装置2の構成の一例を示すブロック図である。図2に示すように、操作装置2は、人の手が把持することが可能である筐体2aを備える。さらに、操作装置2は、筐体2aに操作入力装置2bを備える。図2では、操作入力装置2bはボタンスイッチであるが、これに限定されない。また、図3に示すように、操作装置2は、筐体2aの内部に、慣性計測装置(IMU:Inertial Measurement Unit)2c、ハプティクスデバイス2d、操作制御装置2e及び通信装置2fを備える。ロボットシステム100では、制御装置3は、操作装置2を用いてロボット1に対してバイラテラル制御を行う。
 操作入力装置2bは、操作者による指令及び情報等の入力を受け付け、入力された指令及び情報等を、通信装置2fを介して制御装置3に送信する。このような操作入力装置2bは、物理的な入力、音声による入力及び画像による入力等を受け付けてもよい。例えば、操作入力装置2bは、スライドスイッチ、ボタンスイッチ、ダイヤル、キー、レバー、タッチパネル、マイク及びカメラ等の装置を備えてもよい。例えば、操作入力装置2bに入力される指令及び情報は、ロボット1の運転モードの選択及び実行指令、エンドエフェクタ1bの動作の選択及び実行指令等を示してもよい。
 慣性計測装置2cは、3軸加速度センサ及び3軸角速度センサを含み、操作装置2の3軸方向の加速度及び角速度を検出する。操作装置2は、慣性計測装置2cによって計測される3軸方向の加速度及び角速度の計測データに基づく操作情報を、通信装置2fを介して制御装置3に送信する。3軸方向の加速度及び角速度の計測データによって、位置、姿勢、移動、移動速度、加速度及び力等の操作装置2の動作及び作用力を示す様々な情報の検出が可能である。例えば、操作制御装置2eが、3軸方向の加速度及び角速度の計測データを、位置、姿勢、移動、移動速度、加速度及び力等の操作装置2の動作及び作用力を示す様々な情報に変換し、変換後の情報を操作情報として制御装置3に送信してもよい。又は、操作制御装置2eは、計測データ自体を制御装置3に出力し、制御装置3が当該データを変換する演算を行ってもよい。慣性計測装置2cの計測データから変換される情報は、エンドエフェクタ1bの位置、姿勢、移動、移動速度、加速度及び作用力等を示してもよい。慣性計測装置2cは地磁気センサ及び温度センサ等を含んでもよい。例えば、3軸方向の加速度及び角速度の計測データは、地磁気センサ及び温度センサ等の計測データを用いて補正されてもよい。上述のような操作制御装置2eが制御装置3に送信する情報は、操作装置2の動作を示す情報である第一動作情報の一例であり、操作装置2は、第一動作情報に基づく操作情報を制御装置3に出力する。
 ハプティクスデバイス2dは、ロボット1の動作状態のフィードバックを、触覚として操作者に与える。ハプティクスデバイス2dは、動作情報検出装置8から制御装置3を介してロボット1の動作情報を受け取り、当該動作情報に基づくロボット1の動作状態のフィードバックを、触覚として操作者に与える。ハプティクスデバイス2dは知覚装置の一例である。
 ここで、動作情報は、動作データを含む。動作データは、ロボット1の作用部1bが対象物に加える力、つまり作業環境に作用させる力を表す力データと、動作時における作用部1bの位置を表す位置データとのうちの少なくとも1つを含む。本実施の形態では動作データは両方を含む。力データは、力の大きさと当該力を発生する時刻とを関連付けて含む時系列データであってもよい。位置データは、位置の情報と当該位置の時刻とを関連付けて含む時系列データであってもよい。力データ及び位置データを含む動作データは、力の大きさと、当該力を発生する時刻と、位置の情報と、当該位置の時刻とを関連付けて含む時系列データであってもよい。作用部1bの位置は、3次元空間内の作用部1bの位置だけでなく、3次元空間内の作用部1bの姿勢を含んでもよい。本明細書及び請求の範囲において、「位置」とは、3次元空間内の位置及び3次元空間内の姿勢のうちの少なくとも3次元空間内の位置を含むことを意味する。
 動作情報が動作データを必須の情報として含む理由は、制御装置3は、作用部1bが作業環境に作用させる「力」及び動作時における作用部1bの「位置」の少なくとも1つを制御することによって、ロボット1の動作を制御するからである。本実施の形態において、例えば、位置の指令値は、指示される「位置」の目標値又は修正値(補正値)であり、力の指令値は、指示される「力」の目標値又は修正値(補正値)である。
 また、動作情報は、動作データ以外の情報として、作用部1bが作用を加える対象物の撮像画像データ、作用部1bで発生する振動データ、衝撃データ、光データ、音データ、温度データ、湿度データ、気圧などの圧力データ等を含んでもよい。操作装置2には、動作情報のうちの少なくとも動作データが送られる。
 例えば、ハプティクスデバイス2dは、アクチュエータ、コントローラ及びドライバ等を含む。アクチュエータは、偏心モータ、リニア共振アクチュエータ及びピエゾ等により例示され、操作者に触力覚を与える。コントローラは、ドライバを介してアクチュエータを制御し、後述で例示する情報処理装置4の構成と同様の構成を有してもよい。ドライバは、アクチュエータとコントローラとの間のインタフェースを構成する。ハプティクスデバイス2dの詳細な構成の例は、特許第4111278号公報及び特開2019-60835号公報等に開示され、公知であるため、その詳細な説明を省略する。例えば、ハプティクスデバイス2dは、操作者が空中で操作装置2を把持している状態で触力覚を操作者に与えることができ、このような触力覚の例は、操作者が自分で押す感覚、自分で引っ張る感覚、外部から引っ張られる感覚、外部から押される感覚、膨張感、圧迫感、対象物の表面の粗度を示す質感、及び、対象物の硬軟を示す圧覚等である。
 操作制御装置2eは、操作装置2の全体の動作を制御する。操作制御装置2eは、後述する情報処理装置4について例示する構成と同様の構成を有してもよい。例えば、操作制御装置2eは、操作入力装置2bから信号を受け取り、当該信号を対応する操作を示す情報に変換し、制御装置3に送信する。また、操作制御装置2eは、慣性計測装置2cの計測データを変換し、変換データを制御装置3に送信する。又は、操作制御装置2eは、慣性計測装置2cの計測データを制御装置3に送信する。操作制御装置2eは、制御装置3からロボット1の動作情報を受信し、動作情報に含まれる動作データ等をハプティクスデバイス2dへの入力に適合するデータに変換し、ハプティクスデバイス2dに出力する。
 (撮像装置61及び出力装置62)
 図1に示すように、撮像装置61は、ロボット1の作業状況を撮影する撮像装置であり、例えば、デジタルカメラ又はデジタルビデオカメラである。出力装置62は、操作者がロボット1による作業状況を視覚的及び/又は聴覚的に確認するため装置である。撮像装置61は、ロボット1が配置されている空間に配置されており、出力装置62は、操作装置2が配置されている空間に配置されている。撮像装置61と出力装置62とは、制御装置3を介して接続されており、撮像装置61により撮像された撮像画像情報は、制御装置3を介して出力装置62に送られる。つまり、撮像装置61によって撮像された画像が出力装置62に表示される。操作者は、出力装置62に提示されたロボット1の作業状況を見ながら操作装置2を操作する。なお、撮像装置61と出力装置62とは、制御装置3を介さずに、互いに直接又は別の装置を介して接続されてもよい。撮像装置61と出力装置62とは、互いに有線により接続されてもよく、無線により接続されてもよい。
 (入力装置7)
 図1に示すように、入力装置7は、操作装置2とともに作業空間外に設置され、操作者からの操作指示を受け付け、受け付けた操作指示を制御装置3に入力する入力装置である。入力装置7は、操作可能に構成されており、例えば、スライドスイッチ、ボタンスイッチ、ダイヤル、キー、レバー、タッチパネル、マイク及びカメラ等の装置を備えてもよい。入力装置7は、ロボットシステム100に専用の装置であってもよく、汎用の装置を利用したものであってもよい。入力装置7は、専用端末、タブレットなどのスマートデバイス等の端末装置であってもよい。図4に示すように、入力装置7は、モード決定部71を機能的な構成要素として備えている。モード決定部71は、自動モード、修正自動モード及び手動モードの中から操作者によって選択された運転モードを、ロボット1を動作させる運転モードに決定する。なお、図4は、実施の形態に係るロボットシステム100の機能的な構成の一例を示すブロック図である。
 (記憶装置5)
 図1及び図4に示すように、記憶装置5は、種々の情報の格納つまり記憶することができ、且つ、格納した情報の読み出しを可能にする。記憶装置5は、揮発性メモリ及び不揮発性メモリなどの半導体メモリ、ハードディスク(HDD:Hard Disc Drive)及びSSD(Solid State Drive)等の記憶装置によって実現される。例えば、記憶装置5は、ロボット1の動作に関する情報である保存動作情報51を記憶する。記憶装置5は、少なくとも1つの保存動作情報51を記憶する。例えば、保存動作情報51は、ロボット1に自動で所定の動作をさせるための情報であってもよい。保存動作情報51は、ロボット1に自動で所定の動作をさせるのに必要な全ての情報を含む必要はなく、一部の情報を含んでもよい。
 このような保存動作情報51は、自動で作業するための動作等の所定の動作をロボット1にさせるための情報である自動動作情報であってもよい。自動動作情報は、ロボット1の自動運転時に用いられる情報である。保存動作情報51は、教示作業により所定の作業を行うようにロボット1を動作させることで記憶装置5に記憶された教示情報51aであってもよい。本実施の形態では、教示情報51aは、操作装置2を操作することによりロボット1の動作を指示し記憶させた情報であるが、これに限定されず、ダイレクト教示等のいかなる教示方式で記憶されたものであってもよい。
 なお、保存動作情報51は、ロボット1の動作に関する情報であればいかなる情報であってもよい。例えば、保存動作情報51は、時系列データを含む軌道情報であってもよく、軌道上における飛び飛びの点でのポーズを表した経路情報であってもよい。保存動作情報51は、例えば、ロボット1の軌道に沿った速度を含んでもよい。なお、本実施の形態では、記憶装置5は、情報処理装置4と一体に制御装置3に設けられているが、情報処理装置4と別体、例えば別の装置に設けられてもよい。
 (情報処理装置4)
 図1に示すように、情報処理装置4は、ロボットシステム100の全体を制御する。情報処理装置4は、プロセッサ及びメモリ等を有する演算器で構成される。メモリは、揮発性メモリ及び不揮発性メモリなどの半導体メモリ、ハードディスク及びSSD等の記憶装置で構成される。記憶装置5がメモリの機能を兼ねてもよい。例えば、演算器の機能は、CPU(Central Processing Unit)などのプロセッサ、RAM(Random Access Memory)などの揮発性メモリ及びROM(Read-Only Memory)などの不揮発性メモリ等からなるコンピュータシステム(図示せず)により実現されてもよい。演算器の機能の一部又は全部は、CPUがRAMをワークエリアとして用いてROMに記録されたプログラムを実行することによって実現されてもよい。なお、演算器の機能の一部又は全部は、上記コンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。情報処理装置4は、単一の演算器による集中制御により各処理を実行してもよく、複数の演算器の協働による分散制御により各処理を実行してもよい。
 情報処理装置4は、例えば、コンピュータ及びパーソナルコンピュータ等のコンピュータ装置で構成されてもよい。又は、情報処理装置4は、例えば、マイクロコントローラ、MPU(Micro Processing Unit)、LSI(Large Scale Integration:大規模集積回路)、システムLSI、PLC(Programmable Logic Controller)、論理回路等で構成されてもよい。情報処理装置4の複数の機能は、個別に1チップ化されることで実現されてもよく、一部又は全てを含むように1チップ化されることで実現されてもよい。また、回路はそれぞれ、汎用的な回路でもよく、専用の回路でもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブルプロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。
 図4に示すように、情報処理装置4は、機能的な構成要素として、動作制御部41と、動作情報決定部42と、動作情報生成部43と、動作情報処理部44とを備える。動作情報決定部42は、記憶装置5に記憶されるロボット1に動作させるための複数の保存動作情報51の中から、自動モード又は修正自動モードでロボット1を動作させるときに動作制御部41が用いる動作情報を決定する。動作制御部41は、ロボット1の動作を制御する。
 動作情報生成部43は、記憶装置5に記憶される複数の保存動作情報51を用いて、新たな保存動作情報を生成する。また、動作情報生成部43は、操作装置2の操作情報に基づき修正されたロボット1の動作情報に基づき、保存動作情報を修正することで、新たな保存動作情報を生成する。動作情報処理部44は、動作情報検出装置8からロボット1の動作情報を受け取り、当該動作情報を動作制御部41、動作情報生成部43及び操作装置2に出力する。なお、動作情報処理部44は、自動モードでは、動作情報を動作制御部41に出力し、手動モード及び修正自動モードでは、動作情報を動作制御部41、動作情報生成部43及び操作装置2に出力してもよい。動作情報処理部44は、動作情報を出力装置62に出力してもよい。情報処理装置4が備える各機能的な構成要素の機能は、例えば、情報処理装置4の演算部がメモリに格納されているプログラムを読み出し実行することにより実現できる。
 (ロボットシステム100の動作)
 実施の形態に係るロボットシステム100の動作を説明する。具体的には、情報処理装置4の動作を説明する。図5A~図5Cは、実施の形態に係るロボットシステム100の動作モードを実行する動作の一例を示すフローチャートである。図4及び図5A~図5Cに示すように、まず、操作者は、入力装置7に、ロボット1に実行させる運転モードを入力する(ステップS101)。
 次いで、入力装置7のモード決定部71は、入力された運転モードが手動モードであるか否かを判定し(ステップS102)、手動モードである場合(ステップS102でYes)、ステップS103に進み、手動モードでない場合(ステップS102でNo)、ステップS104に進む。ステップS104において、モード決定部71は、入力された運転モードが自動モードであるか否かを判定し、自動モードである場合(ステップS104でYes)、ステップS105に進み、自動モードでない場合(ステップS104でNo)、ステップS106に進む。
 ステップS103において、モード決定部71は、ロボット1が実行する運転モードを手動モードに決定し、決定結果を制御装置3に送信する。次いで、情報処理装置4の動作制御部41は、手動モードでのロボット1の制御を実行する(ステップS107)。
 次いで、動作制御部41は、操作者が操作装置2を操作することにより生成された操作情報を受信し、当該操作情報に従ってロボット1の動作を制御する(ステップS108)。このとき、動作制御部41は、記憶装置5の保存動作情報51を用いない。さらに、動作情報処理部44は、動作情報検出装置8から、ロボット1の動作情報を取得し、動作制御部41及び操作装置2に出力する(ステップS109)。動作制御部41は動作情報をフィードバック情報として用いてロボット1を制御する。操作装置2のハプティクスデバイス2dは、当該動作情報に基づくロボット1の動作状態のフィードバックを、触覚等の刺激として操作者に与える(ステップS110)。
 次いで、動作制御部41は、手動モードでのロボット1の操作が完了したか否かを判定し(ステップS111)、完了済みの場合(ステップS111でYes)、一連の処理を終了し、未完了の場合(ステップS111でNo)、ステップS108に戻る。
 また、ステップS105において、モード決定部71は、ロボット1が実行する運転モードを自動モードに決定し、決定結果を制御装置3に送信する。次いで、情報処理装置4の動作情報決定部42は、記憶装置5にアクセスし探索することにより、自動モードで実行する作業又は動作に対応する自動動作情報である保存動作情報51を読み出し取得する(ステップS112)。
 次いで、動作制御部41は、取得された保存動作情報51を用いて、ロボット1を制御する(ステップS113)。このとき、動作制御部41は、操作装置2で生成される操作情報を用いず、予め設定されたタスクプログラムに従ってロボット1の動作を制御する。さらに、動作情報処理部44は、動作情報検出装置8から、ロボット1の動作情報を取得し、動作制御部41に出力する。動作制御部41は動作情報をフィードバック情報として用いてロボット1を制御する(ステップS114)。
 次いで、動作制御部41は、自動モードでのロボット1の操作が完了したか否かを判定し(ステップS115)、完了済みの場合(ステップS115でYes)、一連の処理を終了し、未完了の場合(ステップS115でNo)、ステップS113に戻る。
 また、ステップS106において、モード決定部71は、ロボット1が実行する運転モードを修正自動モードに決定し、決定結果を制御装置3に送信する。次いで、情報処理装置4の動作情報決定部42は、記憶装置5にアクセスし探索することにより、修正自動モードで実行する作業又は動作に対応する自動動作情報である保存動作情報51を読み出し取得する(ステップS116)。
 次いで、動作制御部41は、取得された保存動作情報51を用いて、ロボット1を制御する(ステップS117)。このとき、動作制御部41は、予め設定されたタスクプログラムに従ってロボット1の動作を制御するが、操作装置2から操作情報が送られる場合、当該操作情報を用いる。
 次いで、動作制御部41は、操作装置2から操作情報が送られたか否かを判定し(ステップS118)、送られた場合(ステップS118でYes)、ステップS119に進み、送られていない場合(ステップS118でNo)、ステップS120に進む。ステップS119において、動作制御部41は、送られた操作情報に従って、自動で動作をしているロボット1の動作を修正し、ステップS120に進む。これにより、ロボット1は、自動動作情報に関する動作、つまり自動で行うことになっていた動作から修正された動作を行う。
 ステップS120において、動作情報処理部44は、動作情報検出装置8から、ロボット1の動作情報を取得し、動作制御部41及び操作装置2に出力する。動作制御部41は動作情報をフィードバック情報として用いてロボット1を制御する。操作装置2のハプティクスデバイス2dは、当該動作情報に基づくロボット1の動作状態のフィードバックを、触覚等の刺激として操作者に与える(ステップS121)。
 次いで、制御装置3の動作情報生成部43は、ステップS120で取得された動作情報が操作情報を用いた制御での動作情報であるか否かを判定し(ステップS122)、操作情報を用いた動作情報である場合(ステップS122でYes)、ステップS123に進み、操作情報を用いた動作情報でない場合(ステップS122でNo)、ステップS124に進む。
 ステップS123において、動作情報生成部43は、ステップS120で取得された動作情報を用いて、動作制御部41が用いている保存動作情報51を修正することで、新たな保存動作情報51を生成する。具体的には、動作情報生成部43は、保存動作情報51における上記動作情報に対応する動作情報を、上記動作情報で置き換えてもよい。
 ステップS124において、動作制御部41は、修正自動モードでのロボット1の操作が完了したか否かを判定し、完了済みの場合(ステップS124でYes)、ステップS125に進み、未完了の場合(ステップS124でNo)、ステップS117に戻る。
 ステップS125において、動作情報生成部43は、修正済みの新たな保存動作情報51を記憶装置5に記憶させる。ステップS117~S124の処理が繰り返されることによって、保存動作情報51の修正が1回以上行われる場合がある。修正済みの新たな保存動作情報51は、このような1回以上の修正を反映した情報である。そして、動作情報生成部43は、記憶装置5に記憶される新たな保存動作情報51の修正前の保存動作情報を、新たな保存動作情報51で置き換える、つまり更新してもよい。なお、保存動作情報51の修正が行われなかった場合、動作情報生成部43は、記憶装置5への記憶を実行しない。ステップS125の完了後、情報処理装置4は一連の処理を終了する。
 次いで、修正自動モードで運転中のロボット1の動作を修正する情報処理装置4の処理の例を説明する。図6は、実施の形態に係る情報処理装置4の動作制御部41の機能的な構成の一例を示すブロック図である。この例では、保存動作情報51である自動動作情報と操作情報とはいずれも、例えば時系列データを含む軌道情報であるとする。
 図6に示すように、動作制御部41は、加算器31aと、減算器31b、31e及び31gと、位置制御器31cと、微分器31dと、速度制御器31fとを機能的な構成要素として含む。動作制御部41は、自動動作情報に基づく指令値及び操作情報に基づく指令値に従って、ロボット1の駆動装置Dの駆動モータMの回転位置を制御する。
 加算器31aは、自動動作情報に基づく位置指令値に、操作情報に基づく修正指令値を加算することによって、修正された位置指令値を生成する。加算器31aは、修正された位置指令値を減算器31bに送る。例えば、自動動作情報に基づく位置指令値は、自動動作情報における3次元の位置及び姿勢の指令値の位置に、エンドエフェクタ1bの3次元の位置及び姿勢を適合させるための駆動モータM1~M6それぞれの回転位置の指令値、つまり、回転センサE1~E6それぞれの検出値の指令値であってもよい。操作情報に基づく修正指令値は、操作情報に対応する3次元の位置及び姿勢の変化量で、エンドエフェクタ1bを移動させるための駆動モータM1~M6それぞれの回転量の指令値、つまり、回転センサE1~E6それぞれの検出値の変化量の指令値であってもよい。例えば、加算器31aが、自動動作情報及び操作情報それぞれから、自動動作情報に基づく位置指令値及び操作情報に基づく修正指令値を生成してもよい。又は、動作制御部41は、上記生成を実行するための機能的な構成要素をさらに含んでもよい。
 減算器31bは、修正された位置指令値から、回転センサEで検出された位置現在値を減算して、角度偏差を生成する。減算器31bは、生成した角度偏差を位置制御器31cに送る。例えば、位置現在値は回転センサE1~E6それぞれの検出値であってもよい。回転センサE1~E6の検出値はエンドエフェクタ1bの3次元の位置及び姿勢を示す。
 位置制御器31cは、予め定められた伝達関数及び比例係数等に基づいた演算処理により、減算器31bから送られた角度偏差から速度指令値を生成する。位置制御器31cは、生成した速度指令値を減算器31eに送る。例えば、速度指令値は、駆動モータM1~M6それぞれの回転速度の指令値であってもよい。
 微分器31dは、回転センサEで検出された位置現在値のデータを微分して、駆動モータMの回転角度の単位時間あたりの変化量、すなわち速度現在値を生成する。微分器31dは、生成した速度現在値を減算器31eに送る。例えば、速度現在値は、駆動モータM1~M6それぞれの回転速度の現在値であってもよい。
 減算器31eは、位置制御器31cから送られた速度指令値から、微分器31dから送られた速度現在値を減算して、速度偏差を生成する。減算器31eは、生成した速度偏差を速度制御器31fに送る。例えば、速度偏差は、駆動モータM1~M6それぞれの回転速度の速度偏差であってもよい。
 速度制御器31fは、予め定められた伝達関数及び比例係数等に基づいた演算処理により、減算器31eから送られた速度偏差からトルク指令値(電流指令値)を生成する。速度制御器31fは、生成したトルク指令値を減算器31gに送る。例えば、トルク指令値は、駆動モータM1~M6それぞれに対するトルク指令値であってもよい。
 減算器31gは、速度制御器31fから送られたトルク指令値から、電流センサCで検出された電流現在値を減算して、電流偏差を生成する。減算器31gは、生成した電流偏差を駆動モータMに送り、当該電流偏差の電流値で駆動モータMを駆動させる。例えば、電流偏差は、駆動モータM1~M6それぞれについての電流偏差であってもよい。
 このように動作制御部41は駆動装置D1~D6の駆動モータM1~M6それぞれを制御することで、自動動作情報に関する動作から修正された動作を行うようにロボット1を制御する。なお、ロボット1の運転モードが自動モードであるとき、加算器31aは、自動動作情報に基づく位置指令値を、修正された位置指令値として減算器31bに送る。ロボット1の運転モードが手動モードであるときは、加算器31aは、操作情報に基づく位置指令値を、修正された位置指令値として減算器31bに送る。
 また、図4に示す動作情報生成部43は、修正された動作をロボット1が行ったとき、ロボット1の当該動作の結果を用いて、自動動作情報における当該動作に対応する情報を修正する。動作情報生成部43は、修正後の自動動作情報である修正動作情報を、新たな保存動作情報51として生成し記憶装置5に記憶させる。修正動作情報は、ロボット1が修正された動作を行うための動作情報である。ロボット1の動作の結果として、回転センサE1~E6の検出値が用いられてもよい。なお、動作情報生成部43は、修正された動作をロボット1が行ったとき、修正動作情報を保存動作情報51として記憶装置5に記憶させるか否かを選択するように構成されてもよい。この場合、例えば、動作情報生成部43は、ロボット1の修正された動作が終了した後、修正された動作を記憶するか否かを入力装置7等に問い合わせるように構成されてもよい。
 動作制御部41は、次回以降の動作において、記憶装置5に保存動作情報51として記憶された修正動作情報を、自動動作情報として用いることが可能である。本実施の形態では、動作制御部41は、記憶装置5に記憶された最新の保存動作情報51を自動動作情報として用いてロボット1の動作を制御するよう構成されている。
 さらに、ロボットシステム100によるロボット1の動作修正の具体例を説明する。図7A~図7Cは、実施の形態に係るロボットシステム100によるロボット1の動作の修正の具体的な一例を示す図である。図7A~図7Cは、ロボット1が修正自動モードで運転するたびに、ロボット1の軌道(すなわち、エンドエフェクタ1bの軌道)が、操作装置2によって目的の軌道L0に修正される例を示す。図7A~図7Cにおいて、目的の軌道L0は、直角の角を有する軌道であり、破線で示されている。
 図7Aの例では、ロボット1は、操作装置2の操作なしに、教示情報51aを自動動作情報として用いて動作する。このとき、エンドエフェクタ1bは、太い実線で示される軌道L1上を移動する。実際の軌道L1は、目的の軌道L0から部分的に(特に軌道L0の角で)逸脱していることが分かる。
 図7Bの例では、ロボット1は、操作装置2の操作を受けつつ、教示情報51aを自動動作情報として用いて動作する。このとき、操作者は、前回の動作時の軌道(図7Aの軌道)L1よりも目的の軌道L0に対する逸脱量が小さくなるように操作装置2を操作する。そして、エンドエフェクタ1bは、太い実線で示される軌道L2上を移動する。なお、参考のため、前回の動作での軌道L1が細い実線で示されている。
 具体的には、情報処理装置4は、修正自動モードにおいて、教示情報51aを自動動作情報として用いてロボット1を動作させる。操作者は、ロボット1が自動動作情報を用いて動作している途中に、前回の軌道L1から目的の軌道L0に近づくように操作装置2を操作する。これにより、エンドエフェクタ1bの描く軌跡は、軌道L1から軌道L2に修正される。そして、情報処理装置4は、エンドエフェクタ1bが軌道L2をたどるよう動作するための修正動作情報を、保存動作情報51として記憶装置5に記憶させる。
 本実施の形態では、情報処理装置4が、記憶装置5に記憶された最新の保存動作情報51を自動動作情報として用いてロボット1の動作を制御するよう構成されている。このため、次回の動作で操作装置2を操作しなかった場合、ロボット1はエンドエフェクタ1bが軌道L2をたどるよう動作する。
 図7Cの例では、ロボット1は、操作装置2の操作を受けつつ、軌道L2をたどる保存動作情報51を自動動作情報として用いて動作する。このとき、操作者は、前回の動作時の軌道(図7Bの軌道)L2よりも目的の軌道L0に対する逸脱量が小さくなるように操作装置2を操作する。そして、エンドエフェクタ1bは、太い実線で示される軌道L3上を移動する。なお、参考のため、前回の動作での軌道L2が細い実線で示されている。
 具体的には、情報処理装置4は、修正自動モードにおいて、軌道L2をたどる保存動作情報51を自動動作情報として用いてロボット1を動作させる。操作者は、ロボット1が自動動作情報を用いて動作している途中に、前回の軌道L2から目的の軌道L0に近づくように操作装置2を操作する。これにより、エンドエフェクタ1bの描く軌跡は、軌道L2から軌道L3に修正される。そして、情報処理装置4は、エンドエフェクタ1bが軌道L3をたどるよう動作するための修正動作情報を、保存動作情報51として記憶装置5に記憶させる。
 このように、ロボット1の軌道は、ロボット1を動作させるたびに目的の軌道L0に近づくよう修正される。ロボット1の軌道が目的の軌道L0にまで修正され、これ以上の修正が不要になった場合には、操作者は、モード決定部71でロボット1を動作させる運転モードとして自動モードを選択して、完全自動でロボット1を動作させる。
 <効果等>
 上述したように、実施の形態に係るロボットシステム100において、ロボット1の制御装置3は、ロボット1に所定の動作をさせるための情報が保存動作情報51として記憶された記憶部としての記憶装置5と、ロボット1に自動で作業するための動作をさせる自動動作情報として保存動作情報51を用いて、ロボット1の動作を制御する処理部としての情報処理装置4とを含む。情報処理装置4は、自動動作情報を用いて自動で作業するための動作をしているロボット1の動作を修正するための操作情報を、ロボットを操作するための操作装置2から受け付け、自動動作情報に関する動作から修正された動作を行うようにロボット1を制御し、ロボット1が修正された動作を行うための修正動作情報を保存動作情報51として記憶装置5に記憶させる。操作装置2は、操作装置2の動作を示す第一動作情報に基づく操作情報を情報処理装置4に出力する。
 上記構成によると、制御装置3は、自動で作業するための動作をしているロボット1の動作を、操作装置2の第一動作情報に基づく操作情報を用いてリアルタイムで修正することができる。このような制御装置3は、ロボット1の動作の部分的な修正を容易に行うことができる。また、制御装置3は、修正された動作を行うための修正動作情報を記憶装置5に保存動作情報51として記憶させる。このため、制御装置3は、操作装置2を使用して同じ操作で毎回行われる動作の修正を必要とせずに、修正された動作をロボット1に自動で行わせることができる。また、第一動作情報は、操作者が操作装置2を動作させることによって生成される。よって、操作者による操作情報の生成が容易である。従って、ロボット1に教示された動作等の予め設定されたロボット1の動作の修正が容易になる。
 また、本実施形態では、入力装置7のモード決定部71での決定結果に応じて、情報処理装置4は、手動モード、自動モード及び修正自動モードのいずれかでロボット1を制御する。情報処理装置4は、手動モードでは、記憶装置5に記憶された保存動作情報51を用いずに、ロボット1を動作させることができる。情報処理装置4は、自動モードでは、保存動作情報51に従ってロボット1を動作させ、例えば、不用意に操作装置2が操作された場合でも、ロボット1の動作が修正されることを防ぐことができる。
 また、実施の形態に係るロボットシステム100において、操作装置2は、慣性計測装置2cを含み、第一動作情報としての慣性計測装置2cの計測データに基づく操作情報を出力してもよい。上記構成によると、操作装置2は、操作装置2の動作を示す第一動作情報に基づく操作情報を出力する。操作情報は、慣性計測装置2cの計測データに基づく情報であるため、操作装置2の動作を的確に示すことができる。よって、操作情報の精度が向上し、それにより、操作装置2を介した修正が、ロボット1の動作の修正に高い精度で反映される。
 また、実施の形態に係るロボットシステム100において、操作装置2は、任意の方向に移動自在であるように構成されてもよい。上記構成によると、操作装置2は、ロボット1の動作に対して多様な修正を加えることができる。
 また、実施の形態に係るロボットシステム100において、操作装置2は、操作装置2を保持する操作者に知覚の刺激を与える知覚装置を備えてもよい。さらに、情報処理装置4は、ロボット1の動作を示す第二動作情報を知覚装置に出力し、知覚装置は、第二動作情報に基づくロボット1の動作状態に対応する知覚の刺激を操作者に与えてもよい。なお、知覚装置は、触覚の刺激を操作者に与えるハプティクスデバイス2dであってもよい。上記構成によると、制御装置3は、ロボット1の動作の状態を操作者にフィードバックするために、知覚の刺激を操作者に与える。操作者は、エンドエフェクタ1bに作用している力等のロボット1の動作の状態を、体感を通じて認識することができる。よって、操作者は、自身の操作に対するロボット1の状態を容易に且つ確実に認識することができる。さらに、ハプティクスデバイス2dを用いた刺激は、多様な状態を操作者に認識させることができる。
 また、実施の形態に係るロボットシステム100において、情報処理装置4は、記憶装置5に記憶された最新の保存動作情報51を自動動作情報として用いてロボット1の動作を制御してもよい。上記構成によると、操作者は、操作装置2を用いたロボット1の修正作業を繰り返していくに従い、ロボット1の自動運転での動作を目的の動作に近づけることが容易になる。
 なお、情報処理装置4は、必ずしも記憶装置5に記憶された最新の保存動作情報51を自動動作情報として用いる必要はない。例えば、情報処理装置4の動作情報決定部42は、記憶装置5に記憶された複数の保存動作情報51の中から情報処理装置4が自動動作情報として用いる保存動作情報51を決定してもよい。なお、この場合、動作情報決定部42が自動動作情報として用いる保存動作情報51を決定するまでは、情報処理装置4は、毎回同じ保存動作情報51を自動動作情報として用いてもよい。この構成によれば、記憶装置5に記憶された最新の保存動作情報51が、ロボット1に動作させる情報として最適でない場合であっても、動作情報決定部42が、適切に修正が行われたときの保存動作情報51を自動動作情報として決定し、情報処理装置4が当該保存動作情報51を用いることができる。
 また、実施の形態に係るロボットシステム100において、情報処理装置4の動作情報生成部43は、記憶装置5に記憶された複数の保存動作情報51を用いて、新たな保存動作情報51を生成してもよい。動作情報生成部43による新たな保存動作情報51の生成方法は、特に限定されず、目的の動作に近づけるのに適したアルゴリズムが採用される。例えば、動作情報生成部43は、記憶された複数の保存動作情報に関する動作の平均となる動作を行うための保存動作情報51を生成するように構成されてもよい。動作情報生成部43は、新たな保存動作情報51を生成するときに、新たな保存動作情報51を生成するために使用した過去の保存動作情報51を削除してもよい。
 また、実施の形態100に係るロボットシステム100は、ロボット1の作業空間内における状況を示す状況情報を取得する状況情報取得装置(図示略)を備えてもよい。情報処理装置4は、状況情報取得装置により取得された状況情報に基づいて、ロボット1を動作させるのに適切な保存動作情報51を自動動作情報として選択して用いてもよい。状況情報は、例えば、作業空間内におけるロボット1の位置及び姿勢等の情報、並びに、ロボット1を取り巻く周囲の状況を認識するために利用する情報等を含んでもよい。ロボット1を取り巻く周囲の状況を認識するために利用する情報とは、例えば、ロボット1を動作させる時間帯及び時期、作業空間の温度及び湿度等である。例えば、ロボット1が粘性を有したシール剤を塗布するシーリングロボットである場合、シール剤の粘性抵抗が作業時間によって変化することがある。このような場合、情報処理装置4は、状況情報に基づいて、シール剤の粘性抵抗に適した保存動作情報51を自動動作情報として選択し決定することにより、ロボット1の動作修正をより容易に行うことができる。
 また、実施の形態に係る制御システム200は、実施の形態に係る制御装置3と、ロボット1を操作するための操作装置2とを備える。また、実施の形態に係るロボットシステム100は、実施の形態に係る制御装置3と、ロボット1と、ロボット1を操作するための操作装置2とを備える。上記制御システム200及びロボットシステム100それぞれによれば、実施の形態に係る制御装置3と同様の効果が得られる。
 <その他の実施の形態>
 以上、本開示の実施の形態の例について説明したが、本開示は、上記実施の形態に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 例えば、実施の形態において、操作装置2は、操作者に知覚の刺激を与えるためにハプティクスデバイス2dを備えていたが、これに限定されない。操作装置2は、操作者に知覚の刺激を与えるいかなる装置を備えてもよい。例えば、操作装置2は、触覚、温覚、視覚及び聴覚の刺激の少なくとも1つを操作者に与えるように構成されてもよい。操作装置2は、操作装置2の膨張収縮又は伸縮などの変形、及び振動等により触覚の刺激を与え、例えば、空気圧又は液圧により膨張収縮する装置、及び圧電素子などの振動を発生する装置等を備えてもよい。操作装置2は、発熱等により温覚の刺激を与え、例えば、ヒータ等を備えてもよい。操作装置2は、発光及び光の点滅等により視覚の刺激を与え、例えば、LED(Light Emitting Diode)などの光源等を備えてもよい。操作装置2は、知覚の刺激に対応する画像を表示するように構成され、例えば、当該画像の画像データを生成し制御装置3に送信することで、出力装置62等に表示させてもよい。操作装置2は、発音等により聴覚の刺激を与え、例えば、スピーカ等を備えてもよい。
 また、実施の形態において、操作装置2は、操作装置2の動作を検出するために慣性計測装置2cを備えていたが、これに限定されない。例えば、操作装置2に対して、操作装置2を外部から撮像する撮像装置が設けられてもよい。当該撮像装置は、操作装置2と、その操作者等の操作装置2の周囲の物体とを撮像するように構成されてもよい。このような撮像装置によって撮像された画像を画像処理することで、操作装置2の3次元の位置及び姿勢、例えば、操作装置2の位置、姿勢、移動、移動速度及び加速度等を検出することが可能である。加速度により、操作装置2の作用力の検出が可能である。そして、操作装置2の操作情報として、画像処理により検出された情報が用いられてもよい。画像処理は、制御装置3によって実行されてもよく、撮像装置に備えられた処理装置等の他の処理装置によって実行されてもよい。また、操作装置2の操作情報を検出するために、慣性計測装置2cと撮像装置とが併用されてもよい。例えば、撮像装置が操作装置2を撮像した画像を用いて、操作装置2の3次元の位置及び姿勢等の初期状態が操作情報の初期情報として検出され、慣性計測装置2cの計測値を用いて操作装置2の初期状態に対する変化量が操作情報として検出されてもよい。
 また、実施の形態において、制御装置3は、操作装置2での操作情報に基づき、ロボット1の軌道及び動作速度等の動作を修正したが、これに限定されず、上記以外の動作を修正してもよい。例えば、制御装置3は、操作装置2での操作情報に基づき、ロボット1の軌道及び動作速度以外の動作に関する1つ又は複数のパラメータを修正してもよい。例えば、制御装置3は、操作装置2の操作に対するロボット1の動作感度を調整するように構成されてもよく、ロボット1の受ける力の操作装置2へのフィードバック割合を調整するように構成されてもよい。
 また、実施の形態に係るロボットシステム100において、複数の操作装置2が設けられてもよい。例えば、複数の操作装置2は、ロボット1の軌道を修正するための第1の操作装置と、ロボット1の軌道に沿った速度を調整するための第2の操作装置とを含んでもよい。例えば、軌道修正が必要な箇所では、第2の操作装置を用いて速度を下げながら、第1の操作装置を用いてロボット1の軌道が修正されてもよい。これにより、ロボット1の軌道の修正の精度が向上する。また、2つ以上の操作装置2から出力される操作情報に従って、ロボット1の動作を修正する場合、例えば、2つ以上の操作装置2に優先順位が設定され、制御装置3は、優先順位に従って、2つ以上の操作装置2から出力される操作情報のうちから修正に採用する操作情報を決定してもよい。又は、制御装置3は、2つ以上の操作装置2から出力される操作情報に対して、加算、減算、平均化、又は、他の統計的処理等の処理を実行し、処理後の操作情報を修正に採用してもよい。
 また、本開示の技術は、制御方法であってもよい。例えば、本開示に係る制御方法は、ロボットの制御方法であって、記憶部に記憶され且つ前記ロボットに所定の動作をさせるための情報である保存動作情報を、前記ロボットに自動で作業するための動作をさせる自動動作情報として用いて、前記ロボットを動作させ、前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置から受け付け、受け付けた前記操作情報に基づき、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを動作させ、前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を出力する。この制御方法によれば、上記制御装置3等と同様の効果が得られる。このような制御方法は、CPU、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。
 また、本開示の技術は、上記制御方法を実行するためのプログラムであってもよく、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
 また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
1 ロボット
2 操作装置
2c 慣性計測装置
2d ハプティクスデバイス(知覚装置)
3 制御装置
4 情報処理装置(処理部)
5 記憶装置(記憶部)
100 ロボットシステム
200 制御システム

Claims (11)

  1.  ロボットの制御装置であって、
     前記ロボットに所定の動作をさせるための情報が保存動作情報として記憶された記憶部と、
     前記ロボットに自動で作業するための動作をさせる自動動作情報として前記保存動作情報を用いて、前記ロボットの動作を制御する処理部とを含み、
     前記処理部は、
     前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置から受け付け、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを制御し、
     前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、
     前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を前記処理部に出力する
     制御装置。
  2.  前記操作装置は、慣性計測装置を含み、前記第一動作情報としての前記慣性計測装置の計測データに基づく前記操作情報を出力する
     請求項1に記載の制御装置。
  3.  前記操作装置は、任意の方向に移動自在であるように構成される
     請求項1または2に記載の制御装置。
  4.  前記操作装置は、前記操作装置を保持する操作者に知覚の刺激を与える知覚装置を備え、
     前記処理部は、前記ロボットの動作を示す第二動作情報を前記知覚装置に出力し、
     前記知覚装置は、前記第二動作情報に基づく前記ロボットの動作状態に対応する知覚の刺激を前記操作者に与える
     請求項1~3のいずれか一項に記載の制御装置。
  5.  前記知覚装置は、触覚の刺激を前記操作者に与えるハプティクスデバイスである
     請求項4に記載の制御装置。
  6.  前記処理部は、前記記憶部に記憶された最新の前記保存動作情報を前記自動動作情報として用いて前記ロボットの動作を制御する
     請求項1~5のいずれか一項に記載の制御装置。
  7.  前記記憶部には複数の前記保存動作情報が記憶されており、
     前記処理部は、前記記憶部に記憶された前記複数の保存動作情報の中から、前記自動動作情報として用いる前記保存動作情報を決定する
     請求項1~6のいずれか一項に記載の制御装置。
  8.  前記記憶部には複数の前記保存動作情報が記憶されており、
     前記処理部は、前記記憶部に記憶された前記複数の保存動作情報を用いて、新たな保存動作情報を生成する
     請求項1~7のいずれか一項に記載の制御装置。
  9.  請求項1~8のいずれか一項に記載の制御装置と、
     前記ロボットを操作するための前記操作装置とを備える
     制御システム。
  10.  請求項1~8のいずれか一項に記載の制御装置と、
     前記ロボットと、
     前記ロボットを操作するための前記操作装置とを備える
     ロボットシステム。
  11.  ロボットの制御方法であって、
     記憶部に記憶され且つ前記ロボットに所定の動作をさせるための情報である保存動作情報を、前記ロボットに自動で作業するための動作をさせる自動動作情報として用いて、前記ロボットを動作させ、
     前記自動動作情報を用いて自動で作業するための動作をしている前記ロボットの動作を修正するための操作情報を、前記ロボットを操作するための操作装置から受け付け、
     受け付けた前記操作情報に基づき、前記自動動作情報に関する動作から修正された動作を行うように前記ロボットを動作させ、
     前記ロボットが前記修正された動作を行うための修正動作情報を前記保存動作情報として前記記憶部に記憶させ、
     前記操作装置は、前記操作装置の動作を示す第一動作情報に基づく前記操作情報を出力する
     制御方法。
PCT/JP2020/021234 2019-08-05 2020-05-28 制御装置、制御システム、ロボットシステム及び制御方法 WO2021024586A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20850795.4A EP4011568A4 (en) 2019-08-05 2020-05-28 CONTROL DEVICE, CONTROL SYSTEM, ROBOT SYSTEM AND CONTROL METHOD
CN202080055822.3A CN114174015B (zh) 2019-08-05 2020-05-28 控制装置、控制***、机器人***以及控制方法
US17/632,810 US20220266449A1 (en) 2019-08-05 2020-05-28 Control device, control system, robot system and controlling method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019143716A JP7339806B2 (ja) 2019-08-05 2019-08-05 制御システム、ロボットシステム及び制御方法
JP2019-143716 2019-08-05

Publications (1)

Publication Number Publication Date
WO2021024586A1 true WO2021024586A1 (ja) 2021-02-11

Family

ID=74503391

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021234 WO2021024586A1 (ja) 2019-08-05 2020-05-28 制御装置、制御システム、ロボットシステム及び制御方法

Country Status (5)

Country Link
US (1) US20220266449A1 (ja)
EP (1) EP4011568A4 (ja)
JP (1) JP7339806B2 (ja)
CN (1) CN114174015B (ja)
WO (1) WO2021024586A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106353A1 (ja) * 2021-12-07 2023-06-15 川崎重工業株式会社 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11945123B2 (en) 2020-04-28 2024-04-02 Altec Industries, Inc. Head mounted display for remote operation of machinery
JP2023004126A (ja) 2021-06-25 2023-01-17 川崎重工業株式会社 電気液圧式ロボット
USD1011398S1 (en) * 2021-08-13 2024-01-16 Festool Gmbh Wearable robotic exoskeleton
JP2023068343A (ja) * 2021-11-02 2023-05-17 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム
US11660750B1 (en) * 2022-07-28 2023-05-30 Altec Industries, Inc. Autonomous and semi-autonomous control of aerial robotic systems

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5639884A (en) * 1979-08-29 1981-04-15 Kobe Steel Ltd Method and device for correcting partial operation of cp control type industrial robot
JP4111278B2 (ja) 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP2011224696A (ja) * 2010-04-19 2011-11-10 Yaskawa Electric Corp ロボットの教示再生装置および教示再生方法
JP2013071231A (ja) 2011-09-29 2013-04-22 Panasonic Corp ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路
JP2014050950A (ja) * 2012-09-06 2014-03-20 Fanuc Robotics America Inc 触覚教示ペンダント
WO2017033356A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
WO2019044766A1 (ja) * 2017-08-31 2019-03-07 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019060835A (ja) 2017-09-25 2019-04-18 株式会社ミライセンス 錯触力覚デバイス
US20190210228A1 (en) * 2016-06-23 2019-07-11 Kuka Deutschland Gmbh Hand-Held Robot Operating Device Combination Comprising a Basic-Control Position Sensor
US20190224854A1 (en) * 2016-09-14 2019-07-25 Keba Ag Control device and control method for industrial machines having controlled movement drives

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2055446A1 (en) 2007-10-31 2009-05-06 Abb As A portable robot control apparatus and a method for controlling a movement of a robot
JP5202935B2 (ja) 2007-12-11 2013-06-05 アズビル株式会社 教示装置
US9092698B2 (en) * 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP2015134384A (ja) 2014-01-16 2015-07-27 日本電気株式会社 遠隔操縦装置、及び遠隔操縦システム
US9358685B2 (en) * 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
JP2015157323A (ja) 2014-02-21 2015-09-03 日本電気株式会社 遠隔操縦装置、遠隔操縦システム、遠隔操縦方法、及びプログラム
US11072077B2 (en) * 2015-12-07 2021-07-27 Kawasaki Jukogyo Kabushiki Kaisha Robot system and operation method thereof
JP6821374B2 (ja) * 2016-10-06 2021-01-27 川崎重工業株式会社 ロボットシステム及びその運転方法
JP6811635B2 (ja) * 2017-02-10 2021-01-13 川崎重工業株式会社 ロボットシステム及びその制御方法
EP3718707A4 (en) * 2017-11-28 2021-08-25 Kawasaki Jukogyo Kabushiki Kaisha SKILLS TRANSFER MACHINE
US10751877B2 (en) * 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
JP7161334B2 (ja) * 2018-07-31 2022-10-26 川崎重工業株式会社 ロボットシステム
JP7065721B2 (ja) * 2018-07-31 2022-05-12 川崎重工業株式会社 ロボットシステム
JP7339776B2 (ja) * 2019-05-28 2023-09-06 川崎重工業株式会社 制御システム、機械装置システム及び制御方法
US11213953B2 (en) * 2019-07-26 2022-01-04 Google Llc Efficient robot control based on inputs from remote client devices

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5639884A (en) * 1979-08-29 1981-04-15 Kobe Steel Ltd Method and device for correcting partial operation of cp control type industrial robot
JP4111278B2 (ja) 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP2011224696A (ja) * 2010-04-19 2011-11-10 Yaskawa Electric Corp ロボットの教示再生装置および教示再生方法
JP2013071231A (ja) 2011-09-29 2013-04-22 Panasonic Corp ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路
JP2014050950A (ja) * 2012-09-06 2014-03-20 Fanuc Robotics America Inc 触覚教示ペンダント
WO2017033356A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 ロボットシステム
US20190210228A1 (en) * 2016-06-23 2019-07-11 Kuka Deutschland Gmbh Hand-Held Robot Operating Device Combination Comprising a Basic-Control Position Sensor
US20190224854A1 (en) * 2016-09-14 2019-07-25 Keba Ag Control device and control method for industrial machines having controlled movement drives
WO2019044766A1 (ja) * 2017-08-31 2019-03-07 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019060835A (ja) 2017-09-25 2019-04-18 株式会社ミライセンス 錯触力覚デバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4011568A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106353A1 (ja) * 2021-12-07 2023-06-15 川崎重工業株式会社 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム

Also Published As

Publication number Publication date
EP4011568A4 (en) 2023-09-20
CN114174015B (zh) 2024-04-19
JP2021024025A (ja) 2021-02-22
CN114174015A (zh) 2022-03-11
JP7339806B2 (ja) 2023-09-06
US20220266449A1 (en) 2022-08-25
EP4011568A1 (en) 2022-06-15

Similar Documents

Publication Publication Date Title
WO2021024586A1 (ja) 制御装置、制御システム、ロボットシステム及び制御方法
JP6826532B2 (ja) 遠隔操作ロボットシステム
WO2020241796A1 (ja) 制御装置、制御システム、機械装置システム及び制御方法
JP6924145B2 (ja) ロボット教示方法及びロボットアーム制御装置
JP5612971B2 (ja) マスタスレーブマニピュレータ
CN111432990B (zh) 技能传承机械装置
CN110997249B (zh) 作业机器人和作业机器人的控制方法
US20170249561A1 (en) Robot learning via human-demonstration of tasks with force and position objectives
CN110709211B (zh) 机器人***和机器人***的控制方法
US20220388160A1 (en) Control device, control system, robot system, and control method
CN110650824B (zh) 远程操作机器人***
JP7230128B2 (ja) ロボット作業の学習方法及びロボットシステム
US20180117764A1 (en) Force control coordinate axis setting device, robot, and force control coordinate axis setting method
WO2020241797A1 (ja) 制御装置、制御システム、機械装置システム及び制御方法
JP7401184B2 (ja) ロボットシステム
CN112423946A (zh) 机器人***
WO2021117701A1 (ja) マスタスレーブシステム及び制御方法
WO2021095833A1 (ja) マスタスレーブシステム及び制御方法
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
US20240165822A1 (en) Control device for calculating parameters for controlling position and posture of robot
WO2023200012A1 (ja) 遠隔制御システム、遠隔制御方法及び遠隔制御プログラム
Uthayakumar et al. Teleoperation of a Robotic Arm through Tactile Sensing, Visual and Haptic Feedback
CN116887953A (zh) 弹簧常数校正装置及弹簧常数校正方法以及记录介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20850795

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020850795

Country of ref document: EP

Effective date: 20220307