WO2021070439A1 - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法 Download PDF

Info

Publication number
WO2021070439A1
WO2021070439A1 PCT/JP2020/027055 JP2020027055W WO2021070439A1 WO 2021070439 A1 WO2021070439 A1 WO 2021070439A1 JP 2020027055 W JP2020027055 W JP 2020027055W WO 2021070439 A1 WO2021070439 A1 WO 2021070439A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot device
luggage
unit
loading
receiving surface
Prior art date
Application number
PCT/JP2020/027055
Other languages
English (en)
French (fr)
Inventor
康久 神川
寿光 甲斐
将也 木下
ウィリアム アレクサンドル コヌス
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN202080069523.5A priority Critical patent/CN114502484A/zh
Priority to US17/766,475 priority patent/US20240066691A1/en
Priority to EP20874502.6A priority patent/EP4043157A4/en
Publication of WO2021070439A1 publication Critical patent/WO2021070439A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0492Storage devices mechanical with cars adapted to travel in storage aisles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0014Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1371Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed with data records
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0266Control or detection relating to the load carrier(s)
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/042Sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G65/00Loading or unloading
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39505Control of gripping, grasping, contacting force, force distribution
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40244Walking manipulator with integrated stewart, parallel arm

Definitions

  • the technology disclosed in the present specification (hereinafter referred to as "the present disclosure”) relates to, for example, a robot device applied to the transportation of luggage and a control method thereof.
  • the road surface condition is not always constant unlike factories and warehouses.
  • the posture of the luggage is indefinite, so it is very difficult to grasp the luggage without using a multi-degree-of-freedom arm or the like.
  • a robot has been proposed in which a force is detected by an end effector at the tip of an arm and a robot that realizes a copy operation of the end effector by force control (see Patent Document 3).
  • Patent Document 3 a robot having 6 degrees of freedom capable of controlling the posture is required, and the weight of the arm becomes large, which makes it difficult to mount it on a small robot.
  • An object of the technology according to the present disclosure is to provide a robot device and a control method thereof that realize unloading or unloading of a load on a loading platform with a smaller degree of freedom.
  • the technology according to the present disclosure has been made in consideration of the above-mentioned problems, and the first aspect thereof is A loading section for loading luggage and The posture changing part that changes the posture of the loading part, and the posture changing part.
  • a moving part that moves the loading part and
  • a control unit that controls the operation of the posture changing unit and the moving unit, Equipped with The control unit force-controls the posture changing unit so that the loading unit imitates the load receiving surface. It is a robot device.
  • the robot device further includes a take-out unit that takes out the luggage placed on the luggage receiving surface and moves it to the loading portion. Further, the control unit force-controls the posture changing unit to make the loading unit imitate the luggage receiving surface, and then takes out the luggage loaded on the luggage receiving surface and moves the loading unit to the loading unit. The take-out unit is controlled.
  • the second aspect of the technology according to the present disclosure is It is a control method of a robot device including a loading unit for loading a load, a posture changing unit for changing the posture of the loading unit, and a moving unit for moving the loading unit.
  • a step of force-controlling the posture changing portion so that the loading portion imitates the luggage receiving surface The step of taking out the luggage placed on the luggage receiving surface and It is a control method of a robot device having.
  • FIG. 1 is a diagram showing an example of a degree of freedom configuration of the robot device 100.
  • FIG. 2 is a diagram showing a configuration example of an electric system of the robot device 100.
  • FIG. 3 is a diagram showing an external configuration (right side surface) of the robot device 100.
  • FIG. 4 is a view showing the external configuration (front) of the robot device 100.
  • FIG. 5 is a diagram showing an operation in which the robot device 100 loads a load.
  • FIG. 6 is a diagram showing an operation in which the robot device 100 loads a load.
  • FIG. 7 is a diagram showing an operation in which the robot device 100 loads a load.
  • FIG. 8 is a diagram showing an operation in which the robot device 100 loads a load.
  • FIG. 1 is a diagram showing an example of a degree of freedom configuration of the robot device 100.
  • FIG. 2 is a diagram showing a configuration example of an electric system of the robot device 100.
  • FIG. 3 is a diagram showing an external configuration (right side surface) of the
  • FIG. 9 is a flowchart showing an operation procedure when the robot device 100 loads the load onto the loading unit 101.
  • FIG. 10 is a diagram showing a dolly 1000 on which a plurality of luggages are placed.
  • FIG. 11 is a diagram showing a state in which the robot device 100 carries out the luggage stored in the trolley 1000.
  • FIG. 12 is a diagram showing a state in which the robot device 100 grips a load with a gripper 310.
  • FIG. 13 is a diagram showing a state in which the robot device 100 grips the gripper 310 and the load, and then scoops up the load and transfers it to the loading unit 101.
  • FIG. 10 is a diagram showing a dolly 1000 on which a plurality of luggages are placed.
  • FIG. 11 is a diagram showing a state in which the robot device 100 carries out the luggage stored in the trolley 1000.
  • FIG. 12 is a diagram showing a state in which the robot device 100 grips a load with a gripper 310.
  • FIG. 14 is a diagram showing a state in which the robot device 100 grips the gripper 310 and the load, and then scoops up the load and transfers it to the loading unit 101.
  • FIG. 15 is a diagram showing a state in which the robot device 100 grips the gripper 310 and the load, and then scoops up the load and transfers it to the loading unit 101.
  • FIG. 16 is a diagram showing an example of an external configuration of a robot device 100 provided with an elevating lift 1600.
  • FIG. 17 is a diagram showing an operation example of the robot device 100 provided with the elevating lift 1600.
  • FIG. 18 is a diagram showing an operation example of the robot device 100 provided with the elevating lift 1600.
  • FIG. 19 is a diagram showing an operation example of the robot device 100 provided with the elevating lift 1600.
  • FIG. 16 is a diagram showing an example of an external configuration of a robot device 100 provided with an elevating lift 1600.
  • FIG. 17 is a diagram showing an operation example of the robot device 100 provided with the elevating lift 1600.
  • FIG. 20 is a diagram showing an example of an external configuration of a robot device 100 provided with a protrusion 2000.
  • FIG. 21 is a diagram showing a state in which luggage is placed on the fork-shaped tray 2100.
  • FIG. 22 is a diagram showing an operation example of the robot device 100 provided with the protrusion 2000.
  • FIG. 23 is a diagram showing an example of an external configuration of the robot device 100 provided with the suction unit 2300.
  • FIG. 24 is a diagram showing an example of an external configuration of a robot device 100 to which a gripper 2401 is attached via a lift 2400 capable of raising and lowering.
  • FIG. 25 is a diagram showing an operation example of the robot device 100 shown in FIG. 24.
  • FIG. 26 is a diagram showing an operation example of the robot device 100 shown in FIG. 24.
  • FIG. 27 is a diagram showing an operation example of the robot device 100 shown in FIG. 24.
  • FIG. 28 is a diagram showing an example of an external configuration of a robot device 2800 using a wheel and a parallel link mechanism.
  • FIG. 29 is a diagram showing a modified example of the gait of the robot device 100 shown in FIG.
  • FIG. 30 is a diagram showing a configuration example of a robot device 3000 having a gripper 3001 on its front legs.
  • FIG. 31 is a diagram showing a modified example in which a plurality of robot devices cooperate to carry out one luggage 3100.
  • FIG. 32 is a diagram showing how the robot device 100 pulls out one load 3200 from a plurality of packages stacked separately.
  • FIG. 1 schematically shows an example of a degree of freedom configuration of a robot device 100 to which the technique according to the present disclosure is applied.
  • the illustrated robot device 100 is configured as a quadruped walking robot having four movable legs. That is, the robot device 100 includes a loading portion 101 corresponding to the body of the walking robot, and four movable legs 110, 120, 130, and 140 connected to the four corners of the loading portion 101, respectively.
  • the leg 110 is the left front leg (LF)
  • the leg 120 is the right front leg (RF)
  • the leg 130 is the left hind leg (LR)
  • the leg 140 is the right hind leg (RR).
  • the robot device 100 can walk by operating the legs 110, 120, 130, and 140 synchronously (while alternately switching between the stance and the swing leg). Then, the robot device 100 is supposed to carry the load loaded on the loading unit 101.
  • the robot device 100 is applied to the field of physical distribution, for example, transports a package from a final base to the time of delivery.
  • the leg 110 includes two links 111 and 112, and a joint portion 113 connecting between the link 111 and the link 112.
  • the other end (lower end) of the link 111 corresponds to the sole of the foot and is installed on the floor. Further, the upper end of the link 112 is attached to the loading portion 101 via the joint portion 114.
  • the joint portion 113 has a degree of freedom of rotation around the pitch axis, and the link 111 can be driven around the pitch axis with respect to the link 112 by an actuator (not shown) such as a pitch axis rotation motor.
  • the joint portion 114 has at least a degree of freedom of rotation around the pitch axis and the roll axis, and the link 112 is provided around the pitch axis and the roll axis with respect to the loading portion 101 by an actuator (not shown) such as a pitch axis rotation motor. Can be driven to.
  • the link 112 is also referred to as a first link
  • the link 111 is also referred to as a second link in the order of proximity to the loading portion 101.
  • the joint portion 114 corresponding to the hip or hip joint is referred to as the first joint
  • the joint portion 113 corresponding to the knee is also referred to as the second joint in the order of proximity to the loading portion 101.
  • the leg 120 includes two links 121 and 122 and a joint portion 123 connecting the link 121 and the link 122.
  • the other end (lower end) of the link 121 corresponds to the sole of the foot and is installed on the floor surface.
  • the upper end of the link 122 is attached to the loading portion 101 via the joint portion 124.
  • the joint portion 123 has a degree of freedom of rotation around the pitch axis, and the link 121 can be driven around the pitch axis with respect to the link 122 by an actuator (not shown) such as a pitch axis rotation motor.
  • the joint portion 124 has at least a degree of freedom of rotation around the pitch axis and the roll axis, and the link 122 is provided around the pitch axis and the roll axis with respect to the loading portion 101 by an actuator (not shown) such as a pitch axis rotation motor. Can be driven to.
  • the link 122 is also referred to as a first link
  • the link 121 is also referred to as a second link in the order of proximity to the loading portion 101.
  • the joint portion 124 corresponding to the hip or hip joint is referred to as the first joint
  • the joint portion 123 corresponding to the knee is referred to as the second joint in the order closer to the loading portion 101.
  • the leg 130 includes two links 131 and 132, and a joint portion 133 that connects the link 131 and the link 132.
  • the other end (lower end) of the link 131 corresponds to the sole of the foot and is installed on the floor.
  • the upper end of the link 132 is attached to the loading portion 101 via the joint portion 134.
  • the joint portion 133 has a degree of freedom of rotation around the pitch axis, and the link 131 can be driven around the pitch axis with respect to the link 132 by an actuator (not shown) such as a pitch axis rotation motor.
  • the joint portion 134 has at least a degree of freedom of rotation around the pitch axis and the roll axis, and the link 132 is provided around the pitch axis and the roll axis with respect to the loading portion 101 by an actuator (not shown) such as a pitch axis rotation motor. Can be driven to.
  • the link 132 is also referred to as a first link
  • the link 131 is also referred to as a second link in the order of proximity to the loading portion 101.
  • the joint portion 134 corresponding to the hip or hip joint is also referred to as the first joint
  • the joint portion 133 on the knee is also referred to as the second joint in the order of proximity to the loading portion 101.
  • the leg 140 includes two links 141 and 142 and a joint portion 143 connecting the link 141 and the link 142.
  • the other end (lower end) of the link 141 corresponds to the sole of the foot and is installed on the floor.
  • the upper end of the link 142 is attached to the loading portion 101 via the joint portion 144.
  • the joint portion 143 has a degree of freedom of rotation around the pitch axis, and the link 141 can be driven around the pitch axis with respect to the link 142 by an actuator (not shown) such as a pitch axis rotation motor.
  • the joint portion 144 has at least a degree of freedom of rotation around the pitch axis and the roll axis, and the link 142 is provided around the pitch axis and the roll axis with respect to the loading portion 101 by an actuator (not shown) such as a pitch axis rotation motor. Can be driven to.
  • the link 142 is also referred to as a first link
  • the link 141 is also referred to as a second link in the order of proximity to the loading portion 101.
  • the joint portion 144 corresponding to the hip or hip joint is also referred to as a first joint
  • the joint portion 143 on the knee is also referred to as a second joint in the order of proximity to the loading portion 101.
  • the movable legs 110, 120, 130, and 140 each have three degrees of freedom of rotation around the pitch axis of the first joint and three degrees of freedom of rotation around the roll and pitch axis of the second joint. Has a configuration with 12 degrees of freedom.
  • the robot device 100 shown in FIG. 1 is composed of four legs, it should be understood that the technique disclosed in the present specification can be applied even if the robot device 100 is equipped with two legs, three legs, or five or more legs. ..
  • the loading section 101 is equipped with a take-out section for scooping up the load placed on the shelf or the trolley and moving it to the loading section 101, a stopper for preventing the load from slipping off the loading section 101, and the like.
  • the illustration is omitted for the sake of simplicity.
  • the loading unit 101 may be equipped with a head equipped with a camera, a speaker, or the like, a work arm, or the like.
  • FIG. 2 shows a configuration example of the electrical system of the robot device 100.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the external sensor unit 210 may further include other sensors.
  • the external sensor unit 210 includes a torque sensor that detects rotational torque acting on the first and second joints of the legs 110, 120, 130, and 140, an encoder that detects the joint angle, and legs 110, 120, and 130.
  • 140 includes a sole sensor that measures the floor reaction force acting on the sole.
  • Each sole sensor is composed of, for example, a 6DOF (Degree Of Freedom) force sensor or the like.
  • the external sensor unit 210 may include a sensor capable of measuring or estimating the direction and distance of a predetermined target such as a LIDAR (Laser Imaging Detection and Ringing), a TOF (Time OF Light) sensor, and a laser range sensor. Further, the external sensor unit 210 may include a GPS (Global Positioning System) sensor, an infrared sensor, a temperature sensor, a humidity sensor, an illuminance sensor, and the like.
  • GPS Global Positioning System
  • a speaker 221 and a display unit 222 are arranged at predetermined positions as output units.
  • the speaker 221 functions to output voice and provide voice guidance, for example.
  • the display unit 222 displays the state of the robot device 100 and the response to the user.
  • an internal sensor unit 233 including a main control unit 231, a battery 232, a battery sensor 233A, an acceleration sensor 233B, and the like, an external memory 234, and a communication unit 235 are arranged.
  • the cameras 211L and 211R of the external sensor unit 210 image the surrounding situation and send the obtained image signal S1A to the main control unit 231.
  • the microphone 212 collects voice input from the user and sends the obtained voice signal S1B to the main control unit 231.
  • the input voice given to the robot device 100 by the user includes a start word and various command voices (voice commands) such as "walk”, “turn right", “hurry”, and "stop".
  • voice commands voice commands
  • two or more microphones may be provided like the left and right ears to estimate the sound source direction.
  • the touch sensor 213 of 210 of the external sensor unit is laid, for example, on the mounting surface of the loading unit 101, detects the pressure received at the place where the load is loaded, and outputs the detection result to the pressure detection signal. It is sent to the main control unit 231 as S1C.
  • the battery sensor 233A of the internal sensor unit 233 detects the remaining energy of the battery 232 at predetermined intervals, and sends the detection result as the battery remaining amount detection signal S2A to the main control unit 231.
  • the acceleration sensor 233B detects accelerations in three axial directions (x (roll) axis, y (pitch) axis, and z (yaw) axis) at predetermined cycles for the movement of the robot device 100, and obtains the detection result. , Is sent to the main control unit 231 as an acceleration detection signal S2B.
  • the acceleration sensor 233B may be, for example, an IMU (Inertial Measurement Unit) equipped with a 3-axis gyro and a 3-direction acceleration sensor.
  • the IMU can be used to measure the angle and acceleration of the robot device 100 main body or the loading unit 101.
  • the external memory 234 stores programs, data, control parameters, etc., and supplies the programs and data to the memory 231A built in the main control unit 231 as needed. Further, the external memory 234 receives data and the like from the memory 231A and stores the data.
  • the external memory 234 may be configured as a cartridge-type memory card such as an SD card, and may be detachable from the robot device 100 main body (or the control unit 230).
  • the communication unit 235 performs data communication with the outside based on a communication method such as Wi-Fi (registered trademark) or LTE (Long Term Evolution). For example, a program such as an application executed by the main control unit 231 and data required for executing the program can be acquired from the outside via the communication unit 235.
  • a communication method such as Wi-Fi (registered trademark) or LTE (Long Term Evolution).
  • Wi-Fi registered trademark
  • LTE Long Term Evolution
  • the main control unit 231 has a built-in memory 231A.
  • the memory 231A stores programs and data, and the main control unit 231 performs various processes by executing the programs stored in the memory 231A. That is, the main control unit 231 collects the image signal S1A, the audio signal S1B, and the pressure detection signal S1C (hereinafter, these are collectively supplied) from the cameras 211L and 211R of the external sensor unit 210, the microphone 212, and the touch sensor 213, respectively.
  • the external sensor signal S1 and the battery remaining amount detection signal S2A and the acceleration detection signal S2B (hereinafter, these are collectively referred to as an internal sensor signal) supplied from the battery sensor 233A and the acceleration sensor 233B of the internal sensor unit 233, respectively.
  • S2 Based on (referred to as S2), the surrounding and internal conditions of the robot device 100, the presence or absence of a command from the user, or the presence or absence of an action from the user, etc. are determined.
  • Information on the weight and the position of the center of gravity of the robot device 100 may be stored in the memory 231A in advance.
  • the main control unit 231 determines the surrounding and internal conditions of the robot device 100, the command from the user, or the presence / absence of the action from the user, and the control program stored in advance in the internal memory 231A, or a control program thereof. Based on various control parameters stored in the external memory 234 loaded at the time, the action of the robot device 100 and the expression action to be activated for the user are determined, and a control command based on the decision result is generated. Then, it is sent to each sub-control unit 241, 242, ....
  • the sub-control units 241 and 242, ... are in charge of operating control of each subsystem in the robot device 100, and drive the subsystems based on the control commands supplied from the main control unit 231.
  • the movable legs 110, 120, 130, 140 described above, and the take-out unit (described above) for scooping up the load correspond to a subsystem, and are driven and controlled by the corresponding sub-control units 241, 242, 243, 244, and so on.
  • the sub-control units 241, 242, 243, 244, ... Perform drive control of the joint portions 113, 123, 133, 143 and drive control of the take-out portion.
  • the take-out unit performs an operation such as scooping up the luggage placed on the shelf or the trolley and moving it to the loading unit 101.
  • the load transfer operation robot device 100 is applied to the logistics field, and it is assumed that the load is transported in the last mile from the final base to the delivery destination, for example. Therefore, the robot device 100 autonomously performs an operation of scooping up the luggage placed on the shelf or the trolley, placing it on the loading unit 101, and then moving to the delivery destination at the final base.
  • the robot device 100 may have to be placed on an installation surface inclined from the horizontal to scoop up a load having an indefinite posture.
  • the arm requires a large number of degrees of freedom, so that the weight of the arm becomes large and it becomes difficult to miniaturize the robot.
  • the type of arm that grips luggage with a gripper using frictional force grips with a large grip when taking out heavy objects but in the case of luggage packed in a soft box such as corrugated cardboard, the gripper There is a risk of crushing the box with the gripping force of.
  • the load is scooped up and the load is moved onto the load section 101.
  • the surface on which the luggage is placed is, for example, a shelf or a trolley on which the luggage is loaded.
  • the loading unit 101 can be made to imitate the surface on which the load is placed. Since the loading section 101 for loading the load has already imitated the surface on which the load is placed, such as a shelf or a trolley, the gripper is pulled into the loading section 101 to move the load to the loading section 101 relatively easily. be able to.
  • FIGS. 3 and 4 show the external configuration of the robot device 100 according to the present disclosure. However, FIG. 3 shows a view from the right side, and FIG. 4 shows a view from the front. In FIGS. 3 and 4, the corresponding components in FIG. 1 are given the same reference numbers, and thus detailed description of these components will be omitted.
  • the fuselage unit 300 contains circuit components such as a control unit 230 and sub-control units 241, 242, 243, 244, and the like.
  • the front leg 110 is connected to the body portion 300 by a first joint 114 corresponding to a shoulder joint or a hip joint, and the front leg 120 is also connected to the body portion 300 by a first joint 124.
  • the hind legs 130 and the hind legs 140 are also connected to the body portion 300 by the first joints 134 and 144, respectively.
  • the upper surface of the body portion 300 constitutes a loading portion 101 on which luggage is placed.
  • a gripper 310 is arranged in front of the loading portion 101.
  • the gripper 310 includes a pair of claws 311 and 312, and the claws 311 and 312 can open and close in parallel to grip an object.
  • the gripper 310 is used to scoop up a load placed on a shelf or a trolley and move it to the loading unit 101.
  • a stopper 320 for preventing the cargo from slipping down is provided near the rear end of the loading portion 101.
  • the gripper 310 has only an opening / closing degree of freedom and a degree of freedom for moving in the front-rear direction, and no other degree of freedom is required.
  • the degree of freedom of movement of the gripper 310 is in a direction parallel to the loading surface of the loading unit 101.
  • a large gripping force is not required even when taking out a heavy object. For example, a cardboard box or precision packaging containing luggage can be gently pulled out or placed without being crushed by the gripping force of a gripper.
  • FIGS. 3 and 4 illustrate the cameras 211L and 211R (described above) that function as the left and right "eyes" of the robot device 100 are not shown in FIGS. 3 and 4, they are attached so that the front of the robot device 100 is in the line-of-sight direction. Is preferable.
  • FIG. 3 illustrates the viewing angles of the cameras 211L and 211R.
  • a lidar or TOF sensor other than the camera may be used to detect the luggage and the shelves or shelves on which the luggage is placed.
  • 5 to 8 show an operation in which the robot device 100 loads a load onto the loading unit 101 using a gripper.
  • the robot device 100 searches for a load to be transported based on the images taken by the cameras 211L and 211R, and the detection results of the LIDAR and TOF sensors.
  • the luggage 500 placed on the shelf 501 is the target of transportation.
  • the robot device 100 approaches the luggage 500 and roughly detects the inclination of the luggage receiving surface of the shelf 501 on which the luggage 500 is placed by image recognition of the captured images of the cameras 211L and 211R. To do. Then, the robot device 100 determines the rotation direction of the posture of the body portion 300 for making the loading portion 101 imitate the luggage receiving surface after the gripper 310 integrally attached to the body portion 300 and the luggage receiving surface come into contact with each other. After making a decision and formulating an orbital plan for the gripper 310, the planned orbit is executed. In the examples shown in FIGS.
  • the posture of the body portion 300 is force-controlled so that the loading portion 101 imitates the luggage receiving surface.
  • the robot device 100 uses the legs 110, 120, 130, and 140 to control the posture of the body portion 300, and based on the whole body force control, the contact point position between the gripper 310 and the luggage receiving surface (that is, the luggage receiving surface). The position where the contact force is applied from the surface) can be estimated.
  • the posture of the body portion 300 is controlled so that the contact point position moves near the center of the contact surface between the gripper 310 and the luggage receiving surface, and when the contact point position enters the vicinity of the center of the contact surface, It is determined that the body portion 300 imitates the luggage receiving surface.
  • the external force F b and the moment M b acting on the base point of the body portion 300 can be obtained from the whole body force control of the robot device 100.
  • the base point of the body portion 300 referred to here is the root portion of the gripper 310 attached to the body portion 300.
  • the robot device 100 Based on the dynamics (F b , M b ) of the base point of the body portion 300, the robot device 100 has a contact force F c that the gripper 310 receives from the load receiving surface at the contact point position x between the gripper 310 and the load receiving surface. Can be estimated.
  • the distance from the base point of the body portion 300 to the contact point is defined as the contact point position x.
  • Let x 1 be the contact point position x where the gripper 310 first contacts the load receiving surface.
  • the robot device 100 drives the legs 110, 120, 130, and 140 until the contact force F c reaches a predetermined set value F1.
  • the contact force F c is equal to the external force F b acting on the base point, and the contact point position x holds the following equation (1).
  • the posture of the body portion 300 is continuously controlled so as to rotate according to the trajectory plan while maintaining the contact force F c at a predetermined set value F1
  • the posture of the body portion 300 is as shown in FIG.
  • the loading portion 101) on the upper surface of the portion 300 begins to imitate the luggage receiving surface.
  • the contact point position x between the gripper 310 and the luggage receiving surface begins to fluctuate.
  • the contact point position x at which the gripper 310 first contacts the luggage receiving surface is defined as x 1
  • the contact point position x 2 between the tip of the gripper 310 and the luggage receiving surface.
  • the contact point position x 2 is the contact point position where the gripper 310 finally contacts the load receiving surface, and can be said to be a contact point position that does not imitate the load receiving surface. Then, for example, with (x 1 + x 2 ) / 2 as a threshold value, when the contact point position reaches this threshold value, the contact point position has entered the vicinity of the center of the contact surface, and the body portion 300 or the loading portion 101 is substantially. It is judged that the baggage receiving surface is completely imitated.
  • the body portion 300 or the loading portion 101 almost completely imitates the luggage receiving surface. Therefore, the robot device 100 closes the two claws 311 and 312 of the gripper 310 until they come into contact with the load, and grips the load 500. Then, as shown in FIG. 8, the luggage 500 can be moved to the loading portion 101 by pulling the gripper 310 toward the main body of the robot device 100 while maintaining the gripped state of the luggage 500.
  • the robot device 100 pulls the load gripped by the gripper 310 to the body portion 300, so that the center of gravity of the weight of the entire robot device 100 including the load moves to the vicinity of the center of the support polygon, so that the posture is stabilized and the robot device 100 falls. The risk is low.
  • the gripper 310 may be provided with a belt conveyor or a linear motion mechanism for pulling in the luggage 500.
  • the gripper 310 has only the degree of freedom of opening and closing and the degree of freedom of moving in the front-rear direction, and other degrees of freedom are unnecessary. Further, since the work of transferring the load from the load receiving surface to the loading unit 101 is performed in a state of imitating the surface on which the load is placed, a large gripping force is not required even when taking out a heavy object. For example, a cardboard box or precision packaging containing luggage can be gently pulled out or placed without being crushed by the gripping force of a gripper.
  • FIG. 9 shows the operation procedure when the robot device 100 loads the load onto the loading unit 101 in the form of a flowchart.
  • the main control unit 231 in the control unit 230 sends a control command to each sub control unit 241, 242, 243, 244, ... Based on the sensor information input from the external sensor unit 210. Realized in form.
  • the robot device roughly detects the inclination of the luggage receiving surface of the shelf 501 on which the luggage 500 is placed based on the image recognition of the captured images of the cameras 211L and 211R (step S901). See, for example, FIG.
  • the robot device 100 is a body portion 300 for making the loading portion 101 imitate the luggage receiving surface after the gripper 310 integrally attached to the body portion 300 and the luggage receiving surface come into contact with each other.
  • the rotation direction of the posture is determined, and the trajectory plan of the gripper 310 is formulated (step S902).
  • the robot device 100 executes the trajectory plan (step S903). See, for example, FIG.
  • the robot device 100 acts on the base point of the body portion 300 while rotating the posture of the body portion 300 according to the formulated trajectory plan (see, for example, FIG. 6) in a state where the gripper 310 and the load receiving surface are in contact with each other.
  • the external force F b and the moment M b to be generated are obtained based on the whole body force control of the robot device 100.
  • the robot device 100 receives a contact force F that the gripper 310 receives from the load receiving surface at the contact point position x between the gripper 310 and the load receiving surface based on the dynamics (F b , M b ) of the base point of the body portion 300. Estimate c.
  • the robot device 100 continues to rotate the posture of the body portion 300 until the contact force F c reaches a predetermined set value F1 (step S904).
  • step S902 The posture of the body portion 300 is rotated in the direction of rotation of the determined trajectory plan of the body portion 300 (step S905). See, for example, FIG.
  • the contact point position x between the gripper 310 and the luggage receiving surface begins to fluctuate. Then, the robot device 100 determines that the body portion 300 or the loading portion 101 almost completely imitates the load receiving surface when the contact point position enters the contact surface near the center (step S906). See, for example, FIG.
  • the robot device 100 closes until the two claws 311 and 312 of the gripper 310 come into contact with the load, and grips the load 500 (step S907).
  • the gripper 310 is pulled in the direction of the robot device 100 main body while maintaining the gripped state of the luggage 500, so that the luggage 500 is moved to the loading portion 101 (step S908).
  • the robot device 100 is equipped with a gripper 310 that can control the posture of the body portion 300 by controlling the whole body force and has an opening / closing degree of freedom and a movement degree of freedom in the front-rear direction. If so, it is enough to load the luggage. Further, since the work of transferring the load from the load receiving surface to the loading unit 101 is performed in a state of imitating the surface on which the load is placed, a large gripping force is not required even when taking out a heavy object. For example, a cardboard box or precision packaging containing luggage can be gently pulled out or placed without being crushed by the gripping force of a gripper.
  • the robot device 100 carries out a load placed on a shelf.
  • the robot device 100 can carry out not only the shelves but also the luggage placed on various luggage receiving surfaces.
  • the robot device 100 operates as shown in FIG.
  • the load unit 101 is made to imitate the load receiving surface through the rough detection of the load receiving surface on which the target load is placed and the force control of the body portion 300 by the whole body force control, and the gripper 310 grips it relatively small.
  • the load can be gripped by force and moved from the trolley 1000 to the loading section 101.
  • the trolley 1000 is a trolley for carrying and moving luggage, and has casters at the four corners of the bottom surface.
  • FIG. 11 shows how the robot device 100 carries out the luggage stored in the trolley 1000.
  • a state in which the robot device 100 accesses the luggage from the side surface of the trolley 1000 is shown. It is also assumed that the robot device 100 carries out the work of carrying out the load from the trolley 1000 on a sloped road surface.
  • FIG. 12 shows a state in which the target luggage is gripped by the gripper 310. As shown in FIG. 12, it is also assumed that the luggage receiving surface is inclined in the opening / closing direction of the gripper 310.
  • the robot device 100 searches for luggage to be carried out from a plurality of luggage stored in the trolley 1000 based on the images taken by the cameras 211L and 211R and the detection results of the LIDAR and TOF sensors.
  • the robot device 100 determines the rotation direction of the posture of the body portion 300 for making the loading unit 101 imitate the load receiving surface.
  • the robot device 100 estimates the external force F b and the moment M b acting on the base point of the body portion 300 based on the whole body force control, and the contact that the gripper 310 receives from the luggage receiving surface.
  • the posture of the body portion 300 is continuously controlled while keeping the force F c at a predetermined set value F1.
  • the robot device 100 detects that the contact point between the gripper 310 and the luggage receiving surface has entered the vicinity of the center of the contact surface, it determines that the body portion 300 or the loading portion 101 almost completely imitates the luggage receiving surface.
  • the gripper 310 grips the load.
  • a free leg such as a front leg 110 or 120 may be used to suppress the casters so that the carriage 1000 does not slip off.
  • 13 to 15 show a state in which the gripper 310 and the luggage are grasped, and then the luggage is scooped up and transferred to the loading unit 101.
  • the luggage can be lifted from the luggage receiving surface by driving the legs 110, 120, 130, and 140 so that the body portion 300 is in an inclined posture.
  • the robot device 100 takes out the load from the carriage 1000 by driving the legs 110, 120, 130, and 140 so as to retreat from the carriage 1000 while maintaining the inclination of the body portion 300.
  • the claws 311 and 312 of the gripper 310 have an L-shaped cross section. Therefore, when the gripper 310 is closed and the luggage is gripped, the tips of the claws 311 and 312 are inserted between the bottom surface of the luggage and the luggage receiving surface (that is, under the target luggage) to lift the luggage from the luggage receiving surface. be able to. At that time, the gripper 310 only needs to lightly grip the load. Further, after the luggage is taken out from the carriage 1000, the body portion 300 and the gripper 310 can be greatly tilted to the rear of the robot device 100 by greatly bending the hind legs 130 and 140 as shown in FIG.
  • the load lightly gripped by the gripper 310 slides down the inclined surface formed by the L-shaped tips of the claws 311 and 312 and moves to the loading portion 101. Further, since the stopper 320 is provided on the rear end edge of the loading portion 101, the load that has slipped down from the gripper 310 does not further fall from the rear end of the loading portion 101.
  • the gripper 310 may be provided with a belt conveyor or a linear motion mechanism for drawing the load onto the loading surface.
  • FIG. 16 shows an external configuration example of the robot device 100 provided with an elevating lift 1600 instead of the gripper as a take-out unit for taking out the cargo placed on the cargo receiving surface.
  • the lift 1600 is arranged on the front surface portion of the body portion 300 of the robot device 100.
  • the lift 1600 has an L-shaped fork and is suitable for unloading luggage installed on the floor.
  • the floor on which the luggage is placed is used as the luggage receiving surface, and the robot device 100 can scoop up and carry out the luggage placed on the floor according to the same operation procedure as the flowchart shown in FIG. ..
  • the robot device 100 first roughly detects the floor surface by image recognition using a camera or the like, determines the rotation direction of the posture of the body portion 300 after the fork portion of the lift 1600 comes into contact with the floor surface, and lifts the lift. Develop a 1600 orbital plan.
  • the robot device 100 executes the trajectory plan, and when the fork portion of the lift 1600 comes into contact with the floor surface, the external force F b and the moment M b acting on the base point of the body portion 300 obtained from the whole body force control of the robot device 100. Based on, the contact force F c that the lift 1600 receives from the floor surface is estimated.
  • the robot device 100 rotates the posture of the body portion 300 by driving the legs 110, 120, 130, and 140 until the contact force F c from the floor surface reaches a predetermined set value F1. Further, the robot device 100 rotates the posture of the body portion 300 so that the contact force F c maintains a predetermined set value F1, and the contact point between the fork portion of the lift 1600 and the floor surface is the fork portion of the lift 1600. When entering the vicinity of the center of the contact surface, it is determined that the fork portion of the lift 1600 imitates the floor surface as the luggage receiving surface.
  • the robot device 100 walks toward the target load using the legs 110, 120, 130, and 140, and moves the fork portion of the lift 1600 to the bottom surface and the floor of the load. Insert it between the surface.
  • the robot device 100 scoops up the load at the fork portion by raising the elevating lift 1600.
  • the fuselage portion 300 and the gripper 310 are moved to the rear of the robot device 100 by greatly bending the hind legs 130 and 140. Tilt greatly to.
  • the lifted load slides down from the fork portion of the lift 1600 and moves to the loading section 101.
  • the stopper 320 is provided on the rear end edge of the loading portion 101, the load that has slipped down from the gripper 310 does not further fall from the rear end of the loading portion 101.
  • a belt conveyor or a linear motion mechanism may be provided for pulling the load onto the loading surface.
  • FIG. 20 shows an external configuration example of the robot device 100 provided with a protrusion 2000 that appears and disappears from the upper surface of the body portion 300 as a take-out portion for taking out the luggage placed on the luggage receiving surface.
  • the robot device 100 shown in FIG. 20 is designed on the assumption that a load loaded on a fork-shaped tray 2100 as shown in FIG. 21 is taken out from the tray 2100 and transported.
  • FIG. 21 shows a fork-shaped tray 2100 on which luggage is placed as viewed from above.
  • the fork-shaped tray 2100 supports the side edges of the load with two teeth of the fork.
  • the robot device 100 shown in FIG. 20 is in a state in which the luggage 2101 is lifted from the tray 2100 by sneaking under the fork-shaped tray 2100 and raising the protrusion 2000 from the upper surface of the body portion 300 directly under the target luggage 2101. Then, the luggage 2101 can be carried out from the tray 2100 by advancing in the direction of the opening portion of the fork by the walking motion.
  • FIG. 22 shows a state in which the robot device 100 raises the protrusion 2000 from the lower side of the tray 2100 and pushes up the luggage 2101.
  • the back surface of the tray 2100 on which the luggage 2101 is placed is used as the luggage receiving surface, and the robot device 100 loads the luggage placed on the fork-shaped tray 2100 according to the same operation procedure as the flowchart shown in FIG. It can be lifted and carried out. It is also assumed that the tray 2100 is tilted from the horizontal as shown in the example shown in FIG.
  • the robot device 100 roughly detects the back surface of the tray 2100 by image recognition using a camera or the like, and the posture of the body portion 300 after the loading portion 101 on the upper surface of the body portion 300 comes into contact with the back surface of the tray 2100.
  • the rotation direction is determined, and the trajectory plan of the fuselage portion 300 is formulated.
  • the robot device 100 executes the trajectory plan, and when the loading unit 101 comes into contact with the back surface of the tray 2100, the external force F b and the moment M b acting on the base point of the body unit 300 obtained from the whole body force control of the robot device 100.
  • the contact force F c received by the loading unit 101 from the back surface of the tray 2100 is estimated based on the above.
  • the robot device 100 rotates the posture of the body portion 300 by driving the legs 110, 120, 130, and 140 until the contact force F c from the back surface of the tray 2100 reaches a predetermined set value F1. Furthermore, the robot apparatus 100, the contact force F c rotates the posture of the body portion 300 so as to maintain a predetermined set value F1, the contact point between the rear surface of the loading portion 101 and the tray 2100 is near the center of the loading section 101 Upon entering, it is determined that the loading unit 101 imitates the back surface of the tray 2100 as the luggage receiving surface.
  • the robot device 100 lifts the luggage 2101 from the tray 2100 by raising the protrusion 2000. Then, the robot device 100 walks toward the opening portion of the fork using the legs 110, 120, 130, and 140 while keeping the luggage 2101 lifted, and carries out the luggage 2101 from the tray 2100. After escaping from the tray 2100, the robot device 100 lowers the protrusion 2000 so that the luggage 2101 is loaded on the loading portion 101.
  • FIG. 23 shows an example of an external configuration of a robot device 100 provided with a suction portion 2300 arranged in front of the body portion 300 as a take-out portion for taking out a load placed on a shelf or the like.
  • the robot device 100 according to this modification is designed on the assumption that the wall surface of the target luggage 2301 is attracted by air pressure or the like, lifted, taken out from a shelf or the like, and transported. ..
  • the robot device 100 shown in FIG. 23 advances toward the luggage 2301 placed on the shelf or the trolley, and brings the suction portion 2300 into contact with the suction portion 2300 so as to imitate the wall surface of the luggage 2301, thereby sucking the luggage 2301 with high accuracy. can do.
  • the robot device 100 can lift and carry out the luggage 2301 according to the same operation procedure as the flowchart shown in FIG. It is also assumed that the luggage 3301 is tilted from the horizontal as shown in the example shown in FIG.
  • the robot device 100 roughly detects the wall surface of the luggage 2301 by image recognition using a camera or the like, and determines the rotation direction of the posture of the body portion 300 after the suction port of the suction portion 2300 comes into contact with the wall surface of the luggage 2301. Determine and formulate an orbital plan for the suction unit 2300.
  • the robot device 100 executes the trajectory plan, and when the suction port of the suction unit 2300 comes into contact with the wall surface of the luggage 2301, the external force F b and the external force F b acting on the base point of the body unit 300 obtained from the whole body force control of the robot device 100 and Based on the moment M b , the contact force F c received by the suction unit 2300 from the wall surface of the load 2301 is estimated.
  • the robot device 100 rotates the posture of the body portion 300 by driving the legs 110, 120, 130, and 140 until the contact force F c from the wall surface of the luggage 2301 reaches a predetermined set value F1. Further, the robot device 100 rotates the posture of the body portion 300 so that the contact force F c maintains a predetermined set value F1, and the contact point between the suction port of the suction portion 2300 and the wall surface of the luggage 2301 is the suction portion 2300. When entering the vicinity of the center of the contact surface of the suction port, it is determined that the suction port of the suction portion 2300 imitates the wall surface of the luggage 2301.
  • the robot device 100 attracts the luggage 2301 by the suction unit 2300 by air pressure or the like, and retreats from the shelf or the trolley on which the luggage 2301 is placed by the walking operation using the legs 110, 120, 130, 140. Move to the destination of the luggage.
  • Modification example (4) 5 to 8 and 11 to 15 show the configuration and operation of the robot device 100 provided with a gripper attached to the body portion 300 as a take-out portion for taking out the luggage placed on the luggage receiving surface. ..
  • the gripper is fixed to the body portion 300, the height of the gripper when each leg 110, 120, 130, 140 is bent and the gripper height when each leg 110, 120, 130, 140 is straightened. Luggage can only be taken out within the height range.
  • a gripper 2401 is attached to the body portion 300 via a lift 2400 capable of raising and lowering. Therefore, the robot device 100 can grasp and take out a load having a height within the operating range of the lift 2400 with the gripper 2401. In this modified example as well, the robot device 100 can scoop up and carry out the luggage placed on a high shelf or the like according to the same operation procedure as the flowchart shown in FIG.
  • the robot device 100 roughly detects the luggage receiving surface by image recognition using a camera or the like, and the height of the lift 2400 for accessing the luggage receiving surface and the body portion after the gripper 2401 comes into contact with the luggage receiving surface.
  • the rotation direction of the posture of the 300 is determined, and the trajectory plan of the fuselage portion 300 including the elevating motion of the lift 2400 is formulated.
  • the robot device 100 executes the formulated trajectory plan to move the lift 2400 up and down as shown in FIG. 25, and brings the gripper 2401 closer to the load on the load receiving surface by the walking motion.
  • the gripper 2401 receives contact from the luggage receiving surface based on the external force F b and the moment M b acting on the base point of the body portion 300 obtained from the whole body force control of the robot device 100. Estimate the force F c.
  • the robot device 100 rotates the posture of the body portion 300 by driving the legs 110, 120, 130, and 140 until the contact force F c from the load receiving surface reaches a predetermined set value F1. Further, the robot device 100 rotates the posture of the body portion 300 so that the contact force F c maintains a predetermined set value F1, and the contact point between the gripper 2401 and the luggage receiving surface is near the center of the contact surface of the gripper 2401. Upon entering, it is determined that the gripper 2401 imitates the floor surface as the luggage receiving surface.
  • the robot device 100 can lift the luggage from the luggage receiving surface by closing the gripper 2401 to grip the luggage and raising the lift 2400 a little further.
  • the robot device 100 lowers the lift 2400 as shown in FIG. 26 after retreating from the shelf or the like on which the luggage is placed due to the walking motion, and raises the gripper 2401 to the same height as the loading portion 101 on the upper surface of the body portion 300. Align with the shelves.
  • the robot device 100 greatly tilts the body portion 300 and the gripper 310 to the rear of the robot device 100 by bending the hind legs 130 and 140 significantly. Then, the lifted load slides down from the gripper 2401 and moves to the loading section 101.
  • the gripper 2401 may be provided with a belt conveyor or a linear motion mechanism for drawing the load onto the loading surface.
  • the robot device 2800 shown in FIG. 28 is configured to move using the wheels 2801 and change the posture of the loading unit 101 using the parallel link 2802.
  • a gripper is used for taking out the luggage, but of course, a gripper with a fork-shaped lift, a protrusion, or a lift lift can also be applied.
  • the luggage placed on various luggage receiving surfaces can be scooped up and carried out according to the same operation procedure as the flowchart shown in FIG.
  • the parallel link is composed of a plurality of link mechanisms arranged in parallel to support the output end (corresponding to the loading unit 101 in the example shown in FIG. 28), and outputs by simultaneously controlling the drive of each link mechanism. You can decide the movement of the edge.
  • the parallel link mechanism has a feature that the operation range is relatively wide and high-speed and high-precision operation control is possible.
  • Patent Document 4 For details of the parallel link mechanism, refer to, for example, Patent Document 4.
  • FIG. 29 shows a modified example of the robot device 100 shown in FIG. 5 and the like regarding the gait when gripping a load.
  • the robot device 100 may modify the forefoot to the gait of the legs 110 and 120 protruding forward as much as possible.
  • the gaits of the legs 110 and 120 before modification are shown by dotted lines.
  • FIG. 30 shows a configuration example of the robot device 3000 provided with the gripper 3001 on the forefoot.
  • the legs play a role of taking out luggage in addition to moving and changing posture.
  • the robot device 3000 can scoop up and carry out the luggage according to the same operation procedure as the flowchart shown in FIG. 9 by making the gripper 3001 at the toes imitate the floor surface as the luggage receiving surface.
  • the robot device 3000 first roughly detects the floor surface as the luggage receiving surface by image recognition using a camera or the like, and determines the rotation direction of the posture of the body portion after the gripper 3001 at the toes comes into contact with the luggage receiving surface. Make a decision and formulate a trajectory plan for the fuselage. The robot device 3000 executes the formulated trajectory plan and brings the gripper 3001 closer to the luggage 3002 on the floor by the movement of the legs. Then, when the gripper 3001 comes into contact with the luggage receiving surface, the contact force received by the gripper 3001 from the luggage receiving surface is based on the external force F b and the moment M b acting on the base point of the body portion obtained from the whole body force control of the robot device 3000. Estimate F c.
  • the robot device 3000 rotates the posture of the body portion by driving each leg until the contact force F c from the floor surface reaches a predetermined set value F1. Furthermore, the robotic device 3000, the contact force F c rotates the body portion or the toe posture so as to maintain a predetermined set value F1, the gripper 3001 with the center of the contact surface of the contact points gripper 3001 with the floor surface Upon entering the vicinity, it is determined that the gripper 3001 imitates the floor surface. Then, the robot device 3000 can lift the luggage 3002 from the floor surface by closing the gripper 3001 to grip the luggage and raising the toes.
  • the robot device 3000 utilizes the attitude control of the body portion and the degree of freedom of the legs to make the gripper 3001 at the toes imitate the luggage receiving surface, grip the luggage 3002, and further move the luggage to the body portion.
  • the range in which luggage can be pulled out is expanded.
  • the robot device 3000 can directly pull up the luggage 3002 placed on the floor if it has a space for loading the luggage in the front, the rear, or the lower part of the body portion.
  • FIG. 31 shows a modified example in which a plurality of robot devices (in the illustrated example, the robot device 3101 and the robot device 3102) cooperate to carry out one load 3100.
  • a large-capacity luggage 3100 straddles the two robot devices 3101 and 3102. Can be stacked stably. Further, even if the luggage 3100 is too heavy to be carried by one unit, it can be transported by using the two robot devices 3101 and 3102.
  • FIG. 32 shows how the robot device 100 shown in FIG. 5 and the like pulls out one load 3200 from a plurality of packages stacked separately.
  • the robot device 100 imitates the body portion 300 or the loading portion 101 on the upper surface of the luggage 3201 directly below the luggage 3200, so that the luggage 3200 is loaded according to the same operation procedure as the flowchart shown in FIG. It can be scooped up and carried out.
  • the robot device 100 roughly detects the luggage receiving surface by image recognition using a camera or the like, determines the rotation direction of the posture of the body portion 300 after the gripper 310 comes into contact with the luggage receiving surface, and determines the rotation direction of the body portion 300. Formulate 300 orbital plans.
  • the luggage receiving surface referred to here is the upper surface of the luggage 3201 directly below the luggage 3200.
  • the robot device 100 executes the formulated trajectory plan and brings the gripper 310 closer to the luggage receiving surface on the luggage receiving surface by the walking motion. Then, when the gripper 2401 comes into contact with the luggage receiving surface, the gripper 310 receives contact from the luggage receiving surface based on the external force F b and the moment M b acting on the base point of the body portion 300 obtained from the whole body force control of the robot device 100. Estimate the force F c.
  • the robot device 100 rotates the posture of the body portion 300 by driving the legs 110, 120, 130, and 140 until the contact force F c from the load receiving surface reaches a predetermined set value F1. Further, the robot device 100 rotates the posture of the body portion 300 so that the contact force F c maintains a predetermined set value F1, and the contact point between the gripper 310 and the load receiving surface is near the center of the contact surface of the gripper 310. Upon entering, it is determined that the gripper 310 imitates the floor surface as the luggage receiving surface.
  • the robot device 100 closes the gripper 310, grips the luggage 3200, and lifts the luggage 3200 from the luggage receiving surface. Next, the robot device 100 retreats from the place where the luggage 3200 was piled up in a walking motion, and then bends the hind legs 130 and 140 significantly to move the body portion 300 and the gripper 310 to the rear of the robot device 100. Tilt a lot. Then, the lifted load slides down from the gripper 310 and moves to the loading section 101. Further, since the stopper 320 is provided on the rear end edge of the loading portion 101, the luggage 3200 that has slipped down from the gripper 310 does not further fall from the rear end of the loading portion 101.
  • All of the robot devices described so far are basically equipped with a take-out part such as a gripper in front of the robot device (or the body part) to pull the load into the loading part on the upper surface of the body part. It is a structure.
  • a space for accommodating luggage is provided at the rear or lower part of the body portion, and the robot device is configured so as to draw the luggage into the space so that the posture of the bottom surface of the body portion follows the floor surface. It is also possible.
  • the robot device can individually take out the target luggage from a shelf or a trolley on which one or more luggage is placed. (2) Since the robot device can take out the load from the load receiving surface without using the arm with multiple degrees of freedom, the device cost can be reduced and a small and lightweight robot device can be configured. (3) Even in an uncertain situation where the inclination of the luggage receiving surface is unknown or the accuracy of the bottom surface of the luggage is insufficient, the robot device imitates the loading part to the luggage receiving surface by whole body force control. This will ensure that your luggage can be scooped up. (4) The robot device uses full-body force control to imitate the load section on the load receiving surface, so that the load can be pulled out quietly without crushing the load or precision package packed in a soft box such as cardboard with a small gripping force.
  • the robot device pulls the load gripped by the gripper or the like to the body, and the center of gravity of the weight of the entire robot device including the load moves to the vicinity of the center of the supporting polygon, so that the posture is stabilized and the robot device falls. The risk is low.
  • the robot device Since the robot device is lifted from under the luggage, no additional gripper or pull-in mechanism is required, and the structure for taking out the luggage from the luggage receiving surface can be simplified.
  • the robot device can reliably adsorb the wall surface of the luggage by combining it with an adsorbing portion having an adsorbing action by air pressure or the like.
  • the robot device can easily pull out the load regardless of whether the load receiving surface is high or low by attaching a gripper via a lift capable of raising and lowering.
  • the robot device moves the toes of the front legs forward when gripping the load, and expands the support polygon forward, so that the position of the center of gravity including the load shifts forward even if the position of the center of gravity including the load shifts forward. The risk of falling can be reduced.
  • the robot device can directly pull up the load placed on the floor if it is provided with a space for loading the load in the front, the rear, or the lower part of the body portion.
  • the robot device If the robot device is provided with a take-out portion such as a gripper at the toes of the legs, the toes can be made to imitate the luggage receiving surface to grip the luggage, and the luggage can be further moved to the body portion. This expands the range in which luggage can be pulled out. (12) By imitating each body posture of a plurality of robot devices by whole body force control, it is possible to stably carry a large load while cooperating. (13) The robot device can reliably scoop up the baggage by imitating the upper surface of the baggage directly under the target baggage from the baggage piled up separately.
  • a take-out portion such as a gripper at the toes of the legs
  • a wheel-type mobile device including an autonomous vehicle
  • a parallel link in which a plurality of mechanisms are arranged in parallel and the final output destination is a loading platform. May be good.
  • the technology according to the present disclosure can also have the following configuration.
  • the posture changing portion is composed of a plurality of link structures that support the loading portion.
  • the posture changing portion and the moving portion are composed of a plurality of movable legs.
  • the robot device according to any one of (1) and (2) above.
  • the posture changing portion is composed of a parallel link, and the moving portion is composed of wheels.
  • the robot device according to any one of (1) and (2) above.
  • the control unit force-controls the posture changing unit to make the loading unit imitate the luggage receiving surface, and then takes out the luggage placed on the luggage receiving surface and moves it to the loading unit.
  • the robot device To control the take-out unit, The robot device according to (5) above.
  • the control unit estimates the contact point position between the take-out unit and the luggage receiving surface based on the force control for changing the posture of the attitude change unit, and the contact point position is the take-out unit and the take-out unit.
  • the attitude control of the loading unit is performed by the attitude changing unit so as to move to the vicinity of the center of the contact surface with the luggage receiving surface, and when the contact point position enters the vicinity of the center of the contact surface, the loading unit moves. It is determined that the baggage receiving surface is imitated.
  • the robot device according to (6) above.
  • the take-out portion includes at least one of an opening / closing gripper, an elevating lift, and an opening / closing gripper attached to the elevating lift.
  • the robot device according to any one of (5) to (7) above.
  • the take-out portion includes a protrusion that appears and disappears from the loading portion.
  • the control unit force-controls the posture changing unit to make the loading unit imitate the luggage receiving surface, and then projects the protrusion from the opening provided in the luggage receiving surface to scoop up the luggage. Control, The robot device according to (5) above.
  • the take-out part includes a suction part, and includes a suction part. After force-controlling the posture changing portion to make the suction portion imitate the wall surface of the luggage, the suction portion sucks the wall surface of the luggage and controls the suction portion to take out the luggage from the luggage receiving surface.
  • the robot device according to (5) above.
  • the take-out portion includes an elevating lift and an opening / closing gripper attached to the lift.
  • the control unit controls the posture changing unit or the moving unit so that the support polygon expands in the direction of the load when the load is taken out by the take-out unit.
  • the robot device according to any one of (5) to (11) above.
  • the moving portion is provided with movable legs and has movable legs.
  • the take-out portion includes a gripper attached to the toe of the movable leg.
  • the control unit controls the movable leg so as to force-control the gripper at the tip of the leg to imitate the floor surface and then grip the load placed on the floor surface with the gripper.
  • control unit force-controls the posture changing unit to make the loading unit imitate the upper surface of the load directly under the specific load, and then takes out the specific load and moves it to the loading section. Control the take-out part, The robot device according to (5) above.
  • a control method for a robot device including a loading unit for loading a load, a posture changing unit for changing the posture of the loading unit, and a moving unit for moving the loading unit.
  • a step of force-controlling the posture changing portion so that the loading portion imitates the luggage receiving surface The step of taking out the luggage placed on the luggage receiving surface and A method of controlling a robot device having.
  • External sensor unit 211L, 211R ... Camera 212 ... Microphone, 213 ... Touch sensor 221 ... Speaker, 222 ... Display unit 230 ... Control unit, 231 ... Main control unit, 232 ... Battery 233 ... Internal sensor unit 233A ... Battery sensor , 233B ... Accelerometer 234 ... External memory 235 ... Communication unit 241, 242, 243, 244, ... Sub control unit 300 ... Body, 310 ... Gripper, 311, 312 ... Claw 320 ... Stopper 1000 ... Cart, 1600 ... Lift , 2100 ... Fork type tray 2300 ... Suction part, 2400 ... Lifting lift, 2401 ... Gripper 2800 ... Robot device, 2801 ... Wheel, 2802 ... Parallel link 3101, 3102 ... Robot device

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

荷台への荷物の荷降ろし又は荷揚げをより少ない自由度で実現するロボット装置を提供する。 ロボット装置は、荷物を載せる積載部と、前記積載部の姿勢を変更する姿勢変更部と、前記積載部を移動させる移動部と、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させる取り出し部と、前記姿勢変更部及び移動部の動作を制御する制御部を具備する。前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する。

Description

ロボット装置及びその制御方法
 本明細書で開示(以下、「本開示」とする)する技術は、例えば荷物の搬送に適用されるロボット装置及びその制御方法に関する。
 例えば物流分野において、荷物の搬送に適用される移動ロボットの導入が進められている。この種の移動ロボットには、例えば、棚や台車に載せられた荷物を取り出して配送する自律動作を実現することが期待される。
 アームを使って荷物の取り出しを行う搬送ロボットについて提案がなされている(例えば、特許文献1及び2を参照のこと)。しかしながら、小型のアームでは重量物の持ち上げや荷降ろしが非常に困難である。また、重量物の取り出しを考慮して高出力のアームを用いると、アームが大型化するとともにコストが増大する。また、荷物をグリッパで摩擦力を利用して把持するタイプのアームは、重量物の取り出しの際には大きな把持力で把持するが、段ボールのような柔らかい箱に梱包された荷物の場合、グリッパの把持力で箱を押し潰してしまうおそれもある。
 また、物流のラストワンマイルは、屋外環境を含むため、工場や倉庫などとは相違して路面状況が一定とは限らない。水平から傾斜した設置面に荷物が置かれている場合、荷物の姿勢が不定であるから、多自由度アームなどを用いなければ荷物を掴むことが非常に難しい。例えば、アーム先端のエンドエフェクタで力検出し、力制御によりエンドエフェクタの倣い動作を実現するロボットについて提案がなされている(特許文献3を参照のこと)。しかしながら、このような倣い動作を行うには、姿勢制御が可能な6自由度のアームが必要となり、アーム重量が大きくなるため、小型のロボットに搭載することが困難になる。
特開2015-178141号公報 特開2008-23639号公報 特開2015-208836号公報 特公平4-45310号公報
 本開示に係る技術の目的は、荷台への荷物の荷降ろし又は荷揚げをより少ない自由度で実現するロボット装置及びその制御方法を提供することにある。
 本開示に係る技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 荷物を載せる積載部と、
 前記積載部の姿勢を変更する姿勢変更部と、
 前記積載部を移動させる移動部と、
 前記姿勢変更部及び移動部の動作を制御する制御部と、
を具備し、
 前記制御部は、前記積載部が荷物受面に倣うように前記姿勢変更部を力制御する、
ロボット装置である。
 第1の側面に係るロボット装置は、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させる取り出し部をさらに備える。また、前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する。
 また、本開示に係る技術の第2の側面は、
 荷物を載せる積載部と、前記積載部の姿勢を変更する姿勢変更部と、前記積載部を移動させる移動部を備えたロボット装置の制御方法であって、
 前記積載部が荷物受面に倣うように前記姿勢変更部を力制御するステップと、
 前記荷物受面に載せられた荷物を取り出すステップと、
を有するロボット装置の制御方法である。
 本開示に係る技術によれば、力制御により荷台の姿勢を倣い制御して、荷物の荷降ろし又は荷揚げをより少ない自由度で実現するロボット装置及びその制御方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本開示に係る技術によりもたらされる効果はこれに限定されるものではない。また、本開示に係る技術が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本開示に係る技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ロボット装置100の自由度構成例を示した図である。 図2は、ロボット装置100の電気系統の構成例を示した図である。 図3は、ロボット装置100の外観構成(右側面)を示した図である。 図4は、ロボット装置100の外観構成(正面)示した図である。 図5は、ロボット装置100が荷物を積み込む動作を示した図である。 図6は、ロボット装置100が荷物を積み込む動作を示した図である。 図7は、ロボット装置100が荷物を積み込む動作を示した図である。 図8は、ロボット装置100が荷物を積み込む動作を示した図である。 図9は、ロボット装置100が荷物を積載部101に積み込む際の動作手順を示したフローチャートである。 図10は、複数の荷物を載せた台車1000を示した図である。 図11は、ロボット装置100が台車1000に収納された荷物を搬出する様子を示した図である。 図12は、ロボット装置100が荷物をグリッパ310で把持する様子を示した図である。 図13は、ロボット装置100がグリッパ310と荷物を把持した後に、荷物をすくい上げて積載部101に移し替える様子を示した図である。 図14は、ロボット装置100がグリッパ310と荷物を把持した後に、荷物をすくい上げて積載部101に移し替える様子を示した図である。 図15は、ロボット装置100がグリッパ310と荷物を把持した後に、荷物をすくい上げて積載部101に移し替える様子を示した図である。 図16は、昇降式のリフト1600を備えたロボット装置100の外観構成例を示した図である。 図17は、昇降式のリフト1600を備えたロボット装置100の動作例を示した図である。 図18は、昇降式のリフト1600を備えたロボット装置100の動作例を示した図である。 図19は、昇降式のリフト1600を備えたロボット装置100の動作例を示した図である。 図20は、突起部2000を備えたロボット装置100の外観構成例を示した図である。 図21は、フォーク形のトレイ2100に荷物を載せた様子を示した図である。 図22は、突起部2000を備えたロボット装置100の動作例を示した図である。 図23は、吸着部2300を備えたロボット装置100の外観構成例を示した図である。 図24は、昇降動作が可能なリフト2400を介してグリッパ2401を取り付けたロボット装置100の外観構成例を示した図である。 図25は、図24に示したロボット装置100の動作例を示した図である。 図26は、図24に示したロボット装置100の動作例を示した図である。 図27は、図24に示したロボット装置100の動作例を示した図である。 図28は、車輪とパラレルリンク機構を用いたロボット装置2800の外観構成例を示した図である。 図29は、図5に示したロボット装置100の歩容の関する変形例を示した図である。 図30は、前足にグリッパ3001を備えたロボット装置3000の構成例を示した図である。 図31は、複数台のロボット装置が協働して1つの荷物3100を搬出している変形例を示した図である。 図32は、ロボット装置100がバラ積みされた複数の荷物の中から1つの荷物3200を引き出す様子を示した図である。
 以下、図面を参照しながら本開示に係る技術の実施形態について詳細に説明する。
A.装置構成
 図1には、本開示に係る技術が適用されるロボット装置100の自由度構成例を模式的に示している。図示のロボット装置100は、4本の可動脚を備えた4足歩行ロボットとして構成される。すなわち、ロボット装置100は、歩行ロボットの胴体に相当する積載部101と、積載部101の四隅にそれぞれ連結された4本の可動脚110、120、130、140を備えている。ここで、脚110は左前脚(LF)、脚120は右前脚(RF)、脚130は左後足(LR)、脚140は右後足(RR)とする。ロボット装置100は、脚110、120、130、140を同期的に動作させて(立脚と遊脚を交互に切り替えながら)、歩行することができる。そして、ロボット装置100は、積載部101に載せた荷物を搬送することを想定している。ロボット装置100は、物流分野に適用され、例えば最終拠点から配送時までの荷物の搬送を行う。
 脚110は、2本のリンク111及び112と、リンク111とリンク112間を接続する関節部113を備えている。リンク111の他端(下端)は足底に相当し、床面に設置している。また、リンク112の上端は、関節部114を介して積載部101に取り付けられている。関節部113は、ピッチ軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、リンク112に対してリンク111をピッチ軸回りに駆動させることができる。また、関節部114は、少なくともピッチ軸及びロール軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、積載部101に対してリンク112をピッチ軸及びロール軸回りに駆動させることができる。なお、積載部101に近い順に、リンク112を第1リンク、リンク111を第2リンクとも呼ぶことにする。また、積載部101に近い順に、尻又は股関節に相当する関節部114を第1関節、膝に相当する関節部113を第2関節とも呼ぶことにする。
 また、脚120は、2本のリンク121及び122と、リンク121とリンク122間を接続する関節部123を備えている。リンク121の他端(下端)は足底に相当し、床面に設置している。また、リンク122の上端は、関節部124を介して積載部101に取り付けられている。関節部123は、ピッチ軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、リンク122に対してリンク121をピッチ軸回りに駆動させることができる。また、関節部124は、少なくともピッチ軸及びロール軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、積載部101に対してリンク122をピッチ軸及びロール軸回りに駆動させることができる。なお、積載部101に近い順に、リンク122を第1リンク、リンク121を第2リンクとも呼ぶことにする。また、積載部101に近い順に、尻又は股関節に相当する関節部124を第1関節、膝に相当する関節部123を第2関節とも呼ぶことにする。
 また、脚130は、2本のリンク131及び132と、リンク131とリンク132間を接続する関節部133を備えている。リンク131の他端(下端)は足底に相当し、床面に設置している。また、リンク132の上端は、関節部134を介して積載部101に取り付けられている。関節部133は、ピッチ軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、リンク132に対してリンク131をピッチ軸回りに駆動させることができる。また、関節部134は、少なくともピッチ軸及びロール軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、積載部101に対してリンク132をピッチ軸及びロール軸回りに駆動させることができる。なお、積載部101に近い順に、リンク132を第1リンク、リンク131を第2リンクとも呼ぶことにする。また、積載部101に近い順に、尻又は股関節に相当する関節部134を第1関節、膝に関節部133を第2関節とも呼ぶことにする。
 また、脚140は、2本のリンク141及び142と、リンク141とリンク142間を接続する関節部143を備えている。リンク141の他端(下端)は足底に相当し、床面に設置している。また、リンク142の上端は、関節部144を介して積載部101に取り付けられている。関節部143は、ピッチ軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、リンク142に対してリンク141をピッチ軸回りに駆動させることができる。また、関節部144は、少なくともピッチ軸及びロール軸回りの回転自由度を有し、ピッチ軸回転モータなどのアクチュエータ(図示しない)によって、積載部101に対してリンク142をピッチ軸及びロール軸回りに駆動させることができる。なお、積載部101に近い順に、リンク142を第1リンク、リンク141を第2リンクとも呼ぶことにする。また、積載部101に近い順に、尻又は股関節に相当する関節部144を第1関節、膝に関節部143を第2関節とも呼ぶことにする。
 可動脚110、120、130、140はそれぞれ、第1関節のピッチ軸回りの回転自由度と第2関節のロール及びピッチ軸回りに回転自由度の3自由度を備えており、ロボット装置100全体では12自由度を持つ構成となっている。図1に示すロボット装置100は4脚で構成されるが、2脚又は3脚、あるいは5脚以上を装備していても、本明細書で開示する技術を適用可能であることを理解されたい。
 なお、積載部101には、棚や台車に載せられた荷物をすくい上げて積載部101に移動させる取り出し部や、荷物が積載部101から滑り落ちないようにするストッパなどが装備されるが、図1では簡素化のため図示を省略している。また、積載部101には、カメラやスピーカなどを備えた頭部や、作業用のアームなども装備されていてもよい。
 図2には、ロボット装置100の電気系統の構成例を示している。
 ロボット装置100は、外部センサ部210として、ロボット装置100の左右の「目」として機能するカメラ211L及び211R、「耳」として機能するマイクロホン212、並びにタッチセンサ213などがそれぞれ所定位置に配設されている。カメラ211L及び211Rには、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子で構成されるカメラが用いられる。
 なお、図示を省略するが、外部センサ部210は、その他のセンサをさらに含んでいてもよい。例えば、外部センサ部210は、各脚110、120、130、140の第1関節及び第2関節に作用する回転トルクを検出するトルクセンサ並びに関節角度を検出するエンコーダ、各脚110、120、130、140の足底に作用する床反力などを計測する足底センサなどを含んでいる。各足底センサは、例えば6DOF(Degree Of Freedom)の力センサなどで構成される。
 また、外部センサ部210は、LIDAR(Laser Imaging Detection and Ranging)、TOF(Time OF Flight)センサ、レーザーレンジセンサといった所定のターゲットの方向並びに距離を測定又は推定可能なセンサを備えていてもよい。また、外部センサ部210は、GPS(Global Positioning System)センサや、赤外線センサ、温度センサ、湿度センサ、照度センサなどを含んでいてもよい。
 また、ロボット装置100は、出力部としてスピーカ221や表示部222などが、それぞれ所定位置に配設されている。スピーカ221は、音声を出力して、例えば音声ガイダンスを行う機能する。また、表示部222には、ロボット装置100の状態や、ユーザに対する応答を表示する。
 制御ユニット230内には、メイン制御部231と、バッテリ232と、バッテリセンサ233A及び加速度センサ233Bなどからなる内部センサ部233と、外部メモリ234と、通信部235が配設されている。
 外部センサ部210のカメラ211L及び211Rは、周囲の状況を撮像し、得られた画像信号S1Aを、メイン制御部231に送出する。マイクロホン212は、ユーザから音声入力を集音し、得られた音声信号S1Bを、メイン制御部231にそれぞれ送出する。ユーザからロボット装置100に与えられる入力音声には、起動ワードや、「歩け」、「右へ曲がれ」、「急げ」、「止まれ」などの各種命令音声(音声コマンド)なども含まれる。なお、図2では1個のマイクロホン82しか描いていないが、左右の耳のように、2個以上のマイクロホンを備えて、音源方向を推定するようにしてもよい。
 また、外部センサ部の210のタッチセンサ213は、例えば積載部101の載置面に敷設されており、荷物が載せられた場所で受けた圧力を検出して、その検出結果を、圧力検出信号S1Cとしてメイン制御部231に送出する。
 内部センサ部233のバッテリセンサ233Aは、所定の周期毎にバッテリ232のエネルギ残量を検出して、検出結果をバッテリ残量検出信号S2Aとして、メイン制御部231に送出する。
 加速度センサ233Bは、ロボット装置100の移動について、所定の周期毎に3軸方向(x(ロール)軸、y(ピッチ)軸及びz(ヨー)軸)の加速度を検出して、その検出結果を、加速度検出信号S2Bとして、メイン制御部231に送出する。加速度センサ233Bは、例えば、3軸のジャイロ及び3方向の加速度センサなどを搭載したIMU(Inertial Measurement Unit)であってもよい。IMUを用いて、ロボット装置100本体又は積載部101の角度や加速度を計測することができる。
 外部メモリ234は、プログラムやデータ、及び制御パラメータなどを記憶しており、そのプログラムやデータを必要に応じてメイン制御部231に内蔵されるメモリ231Aに供給する。また、外部メモリ234は、データなどをメモリ231Aから受け取り、記憶する。なお、外部メモリ234は、例えばSDカードのようなカートリッジ式のメモリカードとして構成され、ロボット装置100本体(若しくは、制御ユニット230)から着脱可能であってもよい。
 通信部235は、例えばWi-Fi(登録商標)やLTE(Long Term Evolution)などの通信方式に基づいて外部とデータ通信を行う。例えば、メイン制御部231で実行するアプリケーションなどのプログラムや、プログラムの実行に必要となるデータを、通信部235を介して外部から取得することができる。
 メイン制御部231は、メモリ231Aを内蔵している。メモリ231Aは、プログラムやデータを記憶しており、メイン制御部231は、メモリ231Aに記憶されたプログラムを実行することで、各種の処理を行う。すなわち、メイン制御部231は、外部センサ部210のカメラ211L及び211R、マイクロホン212、及びタッチセンサ213からそれぞれ供給される、画像信号S1A、音声信号S1B、及び圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と称する)と、内部センサ部233のバッテリセンサ233A及び加速度センサ233Bなどからそれぞれ供給される、バッテリ残量検出信号S2A及び加速度検出信号S2B(以下、これらをまとめて内部センサ信号S2と称する)に基づいて、ロボット装置100の周囲及び内部の状況や、ユーザからの指令、又はユーザからの働きかけの有無などを判断する。なお、メモリ231A内には、ロボット装置100本体の重量や重心位置(但し、積載部101に荷物を置いていない状態)の情報があらかじめ格納されていてもよい。
 そして、メイン制御部231は、ロボット装置100の周囲及び内部の状況や、ユーザからの指令、又はユーザからの働きかけの有無の判断結果と、内部メモリ231Aにあらかじめ格納されている制御プログラム、あるいはそのとき装填されている外部メモリ234に格納されている各種制御パラメータなどに基づいて、ロボット装置100の行動やユーザに対して発動する表出動作を決定し、その決定結果に基づく制御コマンドを生成して、各サブ制御部241、242、…に送出する。
 サブ制御部241、242、…は、それぞれロボット装置100内の各サブシステムの動作制御を担当しており、メイン制御部231から供給された制御コマンドに基づいて、サブシステムを駆動する。上述した可動脚110、120、130、140、及び荷物をすくい上げる取り出し部(前述)はサブシステムに相当し、それぞれ対応するサブ制御部241、242、243、244、…によって駆動制御される。具体的には、サブ制御部241、242、243、244、…は、関節部113、123、133、143の駆動制御や、取り出し部の駆動制御を実施する。取り出し部は、棚や台車に載せられた荷物をすくい上げて積載部101に移動させるといった動作を行う。
B.荷物の搬送動作
 ロボット装置100は、物流分野に適用され、例えば最終拠点から配送先までのラストワンマイルにおいて荷物の搬送を行うことを想定している。したがって、ロボット装置100は、最終拠点において、棚や台車に載せられた荷物をすくい上げて積載部101に載せ、その後、配送先まで移動するという動作を自律的に行う。
 物流のラストワンマイルは、屋外環境を含むため、工場や倉庫などとは相違して路面状況が一定とは限らない。このため、ロボット装置100は、水平から傾斜した設置面に置かれて姿勢が不定の荷物をすくい上げなければならない場合もある。
 例えば、アームを用いて棚や台車から荷物をすくい上げるロボットについて提案がなされている。しかしながら、任意姿勢の荷物を掴むには、アームには多自由度が必要となるため、アーム重量が大きくなり、ロボットの小型化が難しくなる。また、荷物をグリッパで摩擦力を利用して把持するタイプのアームは、重量物の取り出しの際には大きな把持力で把持するが、段ボールのような柔らかい箱に梱包された荷物の場合、グリッパの把持力で箱を押し潰してしまうおそれもある。
 そこで、本開示に係る技術では、積載部101を荷物が載せられた面に倣うようにロボット装置100の姿勢制御を行った後に、荷物をすくい上げて積載部101の上に荷物を移動させるようにする。ここで、荷物が載せられた面とは、例えば荷物を積んだ棚や台車である。また、複数の可動脚110~140を用いてロボット装置100の姿勢制御を力制御により行うことで、積載部101を荷物が載せられた面に倣わせることができる。そして、荷物を積む積載部101が、棚や台車など荷物が載せられた面に既に倣っていることから、グリッパを積載部101に引き込むことで、荷物を比較的容易に積載部101に移動させることができる。
 開閉自由度と1方向の移動自由度しか持たない簡単な構成のグリッパでも十分に荷物の移動が可能であり、ロボット装置100は多自由度のアームを必要とせず、言い換えれば、ロボット装置100を小型化且つ軽量化することができるとともに、コストを削減することができる。
 図3及び図4には、本開示に係るロボット装置100の外観構成を示している。但し、図3は右側面から眺めた様子を示し、図4は正面から眺めた様子を示している。図3及び図4において、図1中の対応する構成要素については同じ参照番号を付けているので、これらの構成要素については詳細な説明を省略する。
 胴体部300には、制御ユニット230やサブ制御部241、242、243、244…などの回路コンポーネントが内蔵されている。前脚110は、肩関節又は股関節に相当する第1関節114で胴体部300に連結され、前脚120も第1関節124で胴体部300に連結されている。また、図4では隠れているが、後脚130及び後脚140も、それぞれ第1関節134及び144で胴体部300に連結されている。
 胴体部300の上面は、荷物を載せる積載部101を構成している。図1及び図2では省略したが、図3を参照すると、積載部101の前方にはグリッパ310が配設されている。図4を参照すると、グリッパ310は、一対の爪311及び312を含み、これら爪311及び312が平行開閉動作することで、物体を把持することができる。グリッパ310は、棚や台車に載せられた荷物をすくい上げて積載部101に移動させるために使用される。再び図3を参照すると、積載部101の後端付近には、荷物の滑落を防ぐストッパ320が配設されている。
 後述するように、積載部101を荷物が載せられた面に倣うようにロボット装置100の姿勢制御を力制御により行った後に、荷物をすくい上げて積載部101の上に荷物を移動させるようにする。このため、グリッパ310は開閉自由度と前後方向に移動する自由度のみを有していれば十分であり、その他の自由度は不要である。但し、グリッパ310の移動自由度は、積載部101の積載面に平行な方向とする。また、荷物が載せられた面に倣った状態で荷物を荷物受け面から積載部101へ移し替える作業を行うので、重量物を取り出す際であっても大きな把持力は不要である。例えば、荷物を梱包した段ボール箱や精密梱包を、グリッパの把持力で押し潰すことなく、静かに引き出したり置いたりすることができる。
 なお、ロボット装置100の左右の「目」として機能するカメラ211L及び211R(前述)は、図3及び図4には図示しないが、ロボット装置100の前方が視線方向となるように取り付けられていることが好ましい。カメラ211L及び211Rで撮影した画像を画像認識することで、荷物並びに荷物を載せている棚や棚を検出することができる。参考のため、図3には、カメラ211L及び211Rの視野角を例示している。また、カメラ以外のLIDARやTOFセンサを用いて荷物並びに荷物を載せている棚や棚を検出するようにしてもよい。
 図5~図8には、ロボット装置100が、グリッパを用いて荷物を積載部101に積み込む動作を示している。
 ロボット装置100は、カメラ211L及び211Rで撮影した画像、さらにはLIDARやTOFセンサの検出結果に基づいて、搬送の対象とする荷物を探索する。図5~図8に示す例では、棚501の上に載せられている荷物500を搬送の対象とするものとする。
 まず、図5に示すように、ロボット装置100は、荷物500に接近するとともに、カメラ211L及び211Rの撮影画像の画像認識などにより、荷物500を載せた棚501の荷物受面の傾きをラフ検出する。そして、ロボット装置100は、胴体部300と一体に取り付けられたグリッパ310と荷物受面が接触した後の、積載部101を荷物受面に倣わせるための胴体部300の姿勢の回転方向を決定して、グリッパ310の軌道計画を策定すると、その計画した軌道を実行する。図5~図8に示す例では、荷物受面が接触した後に紙面時計回りに回転するような胴体部300の軌道計画を策定すると、その軌道を実行して、積載部101を荷物受面に倣わせるように力制御を行う。
 図6に示すように、胴体部300と一体に取り付けられたグリッパ310が荷物受面と接触すると、積載部101が荷物受面に倣うように、胴体部300の姿勢を力制御する。ロボット装置100は、各脚110、120、130、140を使って胴体部300の姿勢制御を行っている全身力制御に基づいて、グリッパ310と荷物受面との接触点位置(すなわち、荷物受面から接触力が加わる位置)を推定することができる。そして、接触点位置がグリッパ310と荷物受面との接触面の中心付近に移動するように、胴体部300の姿勢制御を実施し、接触点位置が接触面の中心付近に入ったときに、胴体部300が荷物受面に倣ったと判定する。
 グリッパ310が荷物受面に接触したとき、ロボット装置100の全身力制御から、胴体部300の基点に作用する外力Fb及びモーメントMbを求めることができる。ここで言う胴体部300の基点は、胴体部300に取り付けられたグリッパ310の根元部とする。ロボット装置100は、胴体部300の基点の力学(Fb,Mb)に基づいて、グリッパ310と荷物受面との接触点位置xで、グリッパ310が荷物受面から受ける接触力Fcとを推定することができる。ここでは、胴体部300の基点から接触点までの距離を接触点位置xとする。グリッパ310が最初に荷物受面に接触する接触点位置xをx1とする。
 ロボット装置100は、接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140を駆動する。なお、接触力Fcは基点に作用する外力Fbと等しく、また、接触点位置xは下式(1)が成り立つ。
Figure JPOXMLDOC01-appb-M000001
 その後、胴体部300の基点に作用する接触力Fcを所定の設定値F1に保ちながら、各脚110、120、130、140を駆動させて、既に決めた胴体部300の軌道計画の回転方向に向かって胴体部300の姿勢を力制御する。
 接触力Fcを所定の設定値F1に保ちながら、軌道計画に従って回転させるように、胴体部300の姿勢を力制御し続けると、図7に示すように、胴体部300の姿勢(若しくは、胴体部300上面の積載部101)が荷物受面に倣い始める。その結果、グリッパ310と荷物受面との接触点位置xが変動し始める。
 ここで、図7において、グリッパ310が最初に荷物受面に接触する接触点位置xをx1とし、グリッパ310の先端と荷物受面との接触点位置x2とする。なお、接触点位置x2は、グリッパ310が最後に荷物受面に接触する接触点位置であり、荷物受面に倣わなくなる接触点位置と言うこともできる。そして、例えば(x1+x2)/2を閾値として、接触点位置がこの閾値に到達すると、接触点位置が接触面の中心付近に入ったことになり、胴体部300又は積載部101がほぼ完全に荷物受面に倣ったと判定する。
 図7に示すロボット装置100の姿勢では、胴体部300又は積載部101が荷物受面にほぼ完全に倣っている。そこで、ロボット装置100は、グリッパ310の2つの爪311及び312が荷物に接触するまで閉じて、荷物500を把持する。そして、図8に示すように、荷物500を把持した状態を保ちながら、グリッパ310をロボット装置100本体の方向に引き込めることで、荷物500を積載部101まで移動させることができる。ロボット装置100は、グリッパ310で把持した荷物を胴体部300まで引き込むことで、荷物を含めたロボット装置100全体の重量重心が支持多角形の中心付近に移動するので、姿勢が安定化し、転倒するリスクが低い。なお、荷物500の引き込みのために、グリッパ310にベルトコンベアや直動機構を備えていてもよい。
 図5~図8からも分かるように、グリッパ310は開閉自由度と前後方向に移動する自由度のみを有していれば十分であり、その他の自由度は不要である。また、荷物が載せられた面に倣った状態で荷物を荷物受け面から積載部101へ移し替える作業を行うので、重量物を取り出す際であっても大きな把持力は不要である。例えば、荷物を梱包した段ボール箱や精密梱包を、グリッパの把持力で押し潰すことなく、静かに引き出したり置いたりすることができる。
 図9には、ロボット装置100が荷物を積載部101に積み込む際の動作手順をフローチャートの形式で示している。この動作手順は、例えば、制御ユニット230内のメイン制御部231が外部センサ部210から入力されるセンサ情報に基づいて各サブ制御部241、242、243、244、…に制御コマンドを送出するという形態で実現される。
 まず、ロボット装置は、カメラ211L及び211Rの撮影画像の画像認識などに基づいて、荷物500を載せた棚501の荷物受面の傾きをラフ検出する(ステップS901)。例えば図5を参照されたい。
 次いで、ロボット装置100は、ロボット装置100は、胴体部300と一体に取り付けられたグリッパ310と荷物受面が接触した後の、積載部101を荷物受面に倣わせるための胴体部300の姿勢の回転方向を決定して、グリッパ310の軌道計画を策定する(ステップS902)。そして、ロボット装置100は、その軌道計画を実行する(ステップS903)。例えば、図5を参照されたい。
 ロボット装置100は、グリッパ310と荷物受面が接触した状態で、策定した軌道計画に従って胴体部300の姿勢を回転させている間(例えば図6を参照のこと)、胴体部300の基点に作用する外力Fb及びモーメントMbを、ロボット装置100の全身力制御に基づいて求める。次いで、ロボット装置100は、胴体部300の基点の力学(Fb,Mb)に基づいて、グリッパ310と荷物受面との接触点位置xで、グリッパ310が荷物受面から受ける接触力Fcとを推定する。そして、ロボット装置100は、接触力Fcが所定の設定値F1となるまで、胴体部300の姿勢の回転を続ける(ステップS904)。
 その後、ロボット装置100は、所定の設定値F1となるまで、胴体部300の基点に作用する接触力Fcを所定の設定値F1に保ちながら、ロボット装置100の全身力制御により、ステップS902で決めた胴体部300の軌道計画の回転方向に向かって胴体部300の姿勢を回転する(ステップS905)。例えば、図6を参照されたい。
 胴体部300の姿勢(若しくは、胴体部300上面の積載部101)が荷物受面に倣い始めると、グリッパ310と荷物受面との接触点位置xが変動し始める。そして、ロボット装置100は、接触点位置が接触面に中心付近に入ったときに、胴体部300又は積載部101がほぼ完全に荷物受面に倣ったと判定する(ステップS906)。例えば、図7を参照されたい。
 次いで、ロボット装置100は、グリッパ310の2つの爪311及び312が荷物に接触するまで閉じて、荷物500を把持する(ステップS907)。
 そして、図8に示すように、荷物500を把持した状態を保ちながら、グリッパ310をロボット装置100本体の方向に引き込めることで、荷物500を積載部101まで移動させる(ステップS908)。
 図9に示す動作手順に従えば、ロボット装置100は、全身力制御により胴体部300の姿勢制御を行うことができ、且つ、開閉自由度と前後方向の移動自由度を有するグリッパ310を装備していれば荷物の積み込みを行うのに十分である。また、荷物が載せられた面に倣った状態で荷物を荷物受け面から積載部101へ移し替える作業を行うので、重量物を取り出す際であっても大きな把持力は不要である。例えば、荷物を梱包した段ボール箱や精密梱包を、グリッパの把持力で押し潰すことなく、静かに引き出したり置いたりすることができる。
 図5~図8では、ロボット装置100が棚の上に置かれた荷物を搬出する例を示した。ロボット装置100は、棚だけではなく、さまざまな荷物受面に置かれた荷物を搬出することができる。例えば、図10に示すような、多段(図示の例では2段)の棚を有する台車1000に複数の荷物が載せられている場合であっても、ロボット装置100は、図9に示した動作手順に従って、対象とする荷物が載せられている荷物受面のラフ検出と、全身力制御による胴体部300の力制御を通じて積載部101を荷物受け面に倣わせて、グリッパ310で比較的小さな把持力により荷物を把持して、台車1000から積載部101へ荷物を移動させることができる。台車1000は、荷物を載せて運搬移動するための台であり、底面の四隅にキャスターが付いている。
 図11には、ロボット装置100が台車1000に収納された荷物を搬出する様子を示している。但し、ここでは、ロボット装置100が台車1000の側面から荷物にアクセスする様子を示している。ロボット装置100は、傾斜のある路面上で、台車1000から荷物を搬出する作業を行うことも想定される。図12には、対象とする荷物をグリッパ310で把持する様子を示している。図12に示すように、荷物受面がグリッパ310の開閉方向で傾斜していることも想定される。
 ロボット装置100は、カメラ211L及び211Rで撮影した画像、さらにはLIDARやTOFセンサの検出結果に基づいて、台車1000に収納された複数の荷物の中から、搬出すべき荷物を探索する。ロボット装置100は、対象とする荷物が載せられている荷物受面の傾きをラフ検出すると、積載部101を荷物受面に倣わせるための胴体部300の姿勢の回転方向を決定して、グリッパ310の軌道計画を策定し、その軌道計画を実行する。
 グリッパ310が荷物受面に接触した後、ロボット装置100は、全身力制御に基づいて胴体部300の基点に作用する外力Fb及びモーメントMbを推定し、グリッパ310が荷物受面から受ける接触力Fcを所定の設定値F1に保ちながら胴体部300の姿勢を力制御し続ける。そして、ロボット装置100は、グリッパ310と荷物受面の接触点が接触面の中心付近に入ったことを検出すると、胴体部300又は積載部101がほぼ完全に荷物受面に倣ったと判定して、グリッパ310で荷物を把持する。
 なお、台車1000が傾斜した路面上にある場合、ロボット装置100が荷物にアプローチしている期間中にも台車1000が動き出すおそれがある。そこで、図11に示すように、前脚110又は120などの遊脚を使ってキャスターを抑えて、台車1000が滑り落ちないようにしてもよい。
 図13~図15には、グリッパ310と荷物を把持した後に、荷物をすくい上げて積載部101に移し替える様子を示している。例えば図13に示すように、各脚110、120、130、140の駆動により、胴体部300が傾斜する姿勢とすることによって、荷物を荷物受面から持ち上げることができる。そして、図14に示すように、胴体部300の傾斜を保ちながら、台車1000から後退するように各脚110、120、130、140を駆動して、ロボット装置100は台車1000から荷物を持ち出す。
 図4や図12からも分かるように、グリッパ310の爪311及び312は断面がLの字の形状をしている。したがって、グリッパ310を閉じて荷物を把持すると、爪311及び312の先端が荷物の底面と荷物受面の間(すなわち、対象とする荷物の下)に挿入して、荷物を荷物受け面から浮かすことができる。その際、グリッパ310は荷物を軽く把持するだけでよい。さらに、荷物を台車1000から持ち出した後に、図15に示すように、後脚130及び140を大きく屈曲させることによって、胴体部300並びにグリッパ310をロボット装置100の後方に大きく傾けることができる。このような姿勢では、グリッパ310に軽く把持されている荷物は、爪311及び312のL字の先端からなる傾斜面を滑り落ちて、積載部101まで移動する。また、積載部101の後端縁にはストッパ320が設けられているので、グリッパ310から滑り落ちてきた荷物がさらに積載部101の後端から落下することはない。なお、荷物の積載面への引き込みのために、グリッパ310にベルトコンベアや直動機構を備えていてもよい。
C.変形例(1)
 図16には、荷物受面に置かれた荷物を取り出す取り出し部として、グリッパに代えて、昇降式のリフト1600を備えたロボット装置100の外観構成例を示している。図16に示す例では、ロボット装置100の胴体部300の前面部分にリフト1600が配設されている。リフト1600はL字の形状をしたフォークを有しており、床に設置された荷物の荷揚げに適している。この変形例では、荷物が置かれた床面を荷物受け面とし、ロボット装置100は、図9に示したフローチャートと同様の動作手順に従って、床に載せられた荷物をすくい上げて搬出することができる。
 ロボット装置100は、まず、カメラを用いた画像認識などにより床面をラフ検出して、リフト1600のフォーク部分が床面と接触した後の胴体部300の姿勢の回転方向を決定して、リフト1600の軌道計画を策定する。ロボット装置100は、その軌道計画を実行して、リフト1600のフォーク部分が床面と接触すると、ロボット装置100の全身力制御から求められる胴体部300の基点に作用する外力Fb及びモーメントMbに基づいて、リフト1600が床面から受ける接触力Fcを推定する。
 そして、ロボット装置100は、床面からの接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140の駆動により胴体部300の姿勢を回転させる。さらに、ロボット装置100は、接触力Fcが所定の設定値F1を保つように胴体部300の姿勢を回転させて、リフト1600のフォーク部分と床面との接触点がリフト1600のフォーク部分の接触面の中心付近に入ると、リフト1600のフォーク部分が荷物受面としての床面に倣ったと判定する。
 その後、図17に示すように、ロボット装置100は、各脚110、120、130、140を用いて、対象とする荷物に向かって歩行動作して、リフト1600のフォーク部分を荷物の底面と床面との間に挿入させる。次いで、図18に示すように、ロボット装置100は、昇降式のリフト1600を上昇させることによって、フォーク部分で荷物をすくい上げる。荷物を胴体部300の上面の積載部101と同じ高さまで上昇させると、図19に示すように、後脚130及び140を大きく屈曲させることによって、胴体部300並びにグリッパ310をロボット装置100の後方に大きく傾ける。すると、持ち上げられた荷物はリフト1600のフォーク部分から滑り落ちて、積載部101まで移動する。また、積載部101の後端縁にはストッパ320が設けられているので、グリッパ310から滑り落ちてきた荷物がさらに積載部101の後端から落下することはない。なお、荷物の積載面への引き込みのために、ベルトコンベアや直動機構を備えていてもよい。
D.変形例(2)
 図20には、荷物受面に置かれた荷物を取り出す取り出し部として、胴体部300の上面から出没する突起部2000を備えたロボット装置100の外観構成例を示している。図20に示すロボット装置100は、例えば図21に示すようなフォーク形のトレイ2100に載せられた荷物をトレイ2100から取り出して搬送することを想定して設計されている。図21では、荷物を載せたフォーク形のトレイ2100を上面から眺めた様子を示している。フォーク形のトレイ2100は、フォークの2本の歯で荷物の側縁を支持している。
 図20に示すロボット装置100は、フォーク形のトレイ2100の下に潜り込み、対象とする荷物2101の直下で、胴体部300の上面から突起部2000を上昇させて荷物2101をトレイ2100から持ち上げた状態で、歩行動作によりフォークの開口部分の方向に進むことで、荷物2101をトレイ2100から搬出することができる。図22には、ロボット装置100が、トレイ2100の下側から突起部2000を上昇させて、荷物2101を突き上げている様子を示している。この変形例では、荷物2101が置かれたトレイ2100の裏面を荷物受面とし、ロボット装置100は、図9に示したフローチャートと同様の動作手順に従って、フォーク形のトレイ2100に載せられた荷物を持ち上げて搬出することができる。なお、トレイ2100は、図22に示す例のように、水平から傾いていることも想定される。
 ロボット装置100は、まず、カメラを用いた画像認識などによりトレイ2100の裏面をラフ検出して、胴体部300の上面の積載部101がトレイ2100の裏面と接触した後の胴体部300の姿勢の回転方向を決定して、胴体部300の軌道計画を策定する。ロボット装置100は、その軌道計画を実行して、積載部101がトレイ2100の裏面と接触すると、ロボット装置100の全身力制御から求められる胴体部300の基点に作用する外力Fb及びモーメントMbに基づいて、積載部101がトレイ2100の裏面から受ける接触力Fcを推定する。
 そして、ロボット装置100は、トレイ2100の裏面からの接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140の駆動により胴体部300の姿勢を回転させる。さらに、ロボット装置100は、接触力Fcが所定の設定値F1を保つように胴体部300の姿勢を回転させて、積載部101とトレイ2100の裏面との接触点が積載部101の中心付近に入ると、積載部101が荷物受面としてのトレイ2100の裏面に倣ったと判定する。
 その後、図21に示すように、ロボット装置100は、突起部2000を上昇させることによって、荷物2101をトレイ2100から持ち上げる。そして、ロボット装置100は、荷物2101を持ち上げた状態のまま、各脚110、120、130、140を用いて、フォークの開口部分に向かって歩行動作して、荷物2101をトレイ2100から搬出する。ロボット装置100は、トレイ2100から脱出した後、突起部2000を下降させることで、荷物2101を積載部101に積んだ状態となる。
E.変形例(3)
 図23には、棚などに載せられた荷物を取り出す取り出し部として、胴体部300の正面に配設された吸着部2300を備えたロボット装置100の外観構成例を示している。この変形例に係るロボット装置100は、図23に示すように、対象とする荷物2301の壁面を空気圧などにより吸着して持ち上げて、棚などから取り出して搬送することを想定して設計されている。
 図23に示すロボット装置100は、棚や台車に載せられた荷物2301に向かって前進して、荷物2301の壁面に倣うようにして吸着部2300を接触させることで、高い精度で荷物2301を吸着することができる。この変形例でも、ロボット装置100は、図9に示したフローチャートと同様の動作手順に従って、荷物2301を持ち上げて搬出することができる。なお、荷物3301は、図23に示す例のように、水平から傾いていることも想定される。
 ロボット装置100は、まず、カメラを用いた画像認識などにより荷物2301の壁面をラフ検出して、吸着部2300の吸着口が荷物2301の壁面と接触した後の胴体部300の姿勢の回転方向を決定して、吸着部2300の軌道計画を策定する。ロボット装置100は、その軌道計画を実行して、吸着部2300の吸着口が荷物2301の壁面と接触すると、ロボット装置100の全身力制御から求められる胴体部300の基点に作用する外力Fb及びモーメントMbに基づいて、吸着部2300が荷物2301の壁面から受ける接触力Fcを推定する。
 そして、ロボット装置100は、荷物2301の壁面からの接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140の駆動により胴体部300の姿勢を回転させる。さらに、ロボット装置100は、接触力Fcが所定の設定値F1を保つように胴体部300の姿勢を回転させて、吸着部2300の吸着口と荷物2301の壁面との接触点が吸着部2300の吸着口の接触面の中心付近に入ると、吸着部2300の吸着口が荷物2301の壁面に倣ったと判定する。
 その後、ロボット装置100は、空気圧などにより吸着部2300で荷物2301を吸着させるとともに、各脚110、120、130、140を用いた歩行動作によって、荷物2301を載せていた棚や台車から退いて、荷物の搬送先へ移動する。
F.変形例(4)
 図5~図8、並びに図11~図15には、荷物受面に置かれた荷物を取り出す取り出し部として、胴体部300に取り付けられたグリッパを備えたロボット装置100の構成並びに動作について示した。グリッパが胴体部300に固定されている場合、各脚110、120、130、140を屈曲させたときのグリッパの高さと、各脚110、120、130、140を真直ぐに伸ばしたときのグリッパの高さの範囲でしか荷物の取り出しを行うことができない。
 これに対し、図24に示すロボット装置100は、胴体部300に、昇降動作が可能なリフト2400を介してグリッパ2401が取り付けられている。したがって、ロボット装置100は、リフト2400の動作範囲となる高さの荷物をグリッパ2401で把持して取り出すことが可能となる。この変形例でも、ロボット装置100は、図9に示したフローチャートと同様の動作手順に従って、高い棚などに載せられた荷物をすくい上げて搬出することができる。
 ロボット装置100は、まず、カメラを用いた画像認識などにより荷物受面をラフ検出して、荷物受面にアクセスするためのリフト2400の高さとグリッパ2401が荷物受面と接触した後の胴体部300の姿勢の回転方向を決定して、リフト2400の昇降動作を含んだ胴体部300の軌道計画を策定する。ロボット装置100は策定した軌道計画を実行して、図25に示すように、リフト2400を昇降動作させるとともに、歩行動作によりグリッパ2401を荷物受面上の荷物に近付ける。そして、グリッパ2401が荷物受面と接触すると、ロボット装置100の全身力制御から求められる胴体部300の基点に作用する外力Fb及びモーメントMbに基づいて、グリッパ2401が荷物受面から受ける接触力Fcを推定する。
 そして、ロボット装置100は、荷物受面からの接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140の駆動により胴体部300の姿勢を回転させる。さらに、ロボット装置100は、接触力Fcが所定の設定値F1を保つように胴体部300の姿勢を回転させて、グリッパ2401と荷物受面との接触点がグリッパ2401の接触面の中心付近に入ると、グリッパ2401が荷物受面としての床面に倣ったと判定する。
 ロボット装置100は、グリッパ2401を閉じて荷物を把持するとともに、リフト2400をさらに少し上昇させることによって、荷物を荷物受面から持ち上げることができる。次いで、ロボット装置100は、歩行動作により荷物が載せられていた棚などから退いた後、図26に示すようにリフト2400を降下さて、グリッパ2401を胴体部300の上面の積載部101と同じ高さに揃える。次いで、ロボット装置100は、図27に示すように、後脚130及び140を大きく屈曲させることによって、胴体部300並びにグリッパ310をロボット装置100の後方に大きく傾ける。すると、持ち上げられた荷物はグリッパ2401から滑り落ちて、積載部101まで移動する。また、積載部101の後端縁にはストッパ320が設けられているので、グリッパ310から滑り落ちてきた荷物がさらに積載部101の後端から落下することはない。なお、荷物の積載面への引き込みのために、グリッパ2401にベルトコンベアや直動機構を備えていてもよい。
F.変形例(4)
 これまで説明してきたロボット装置100はいずれも、胴体部300又は積載部101の姿勢の変更とロボット装置100本体の移動を各脚110、120、130、140の駆動により実現していた。
 これに対し、図28に示すロボット装置2800は、車輪2801を使って移動を行うとともに、パラレルリンク2802を用いて積載部101の姿勢変更を行うように構成されている。なお、図28に示す例では、荷物の取り出しにグリッパを用いているが、もちろん、フォーク形のリフトや突起、昇降リフト付きのグリッパを適用することもできる。また、図28に示すロボット装置2800においても、図9に示したフローチャートと同様の動作手順に従って、さまざまな荷物受面に載せられた荷物をすくい上げて搬出することができる。
 なお、パラレルリンクは、並列に配置した複数のリンク機構で出力端(図28に示す例では、積載部101に相当)を支持する機構からなり、各リンク機構の駆動を同時に制御することで出力端の動きを決めることができる。パラレルリンク機構は、動作範囲が比較的広く、高速且つ高精度な動作制御が可能といった特徴がある。パラレルリンク機構の詳細については、例えば特許文献4を参照されたい。
G.変形例(5)
 図29には、図5などに示したロボット装置100の、荷物を把持する際の歩容に関する変形例を示している。
 ロボット装置100の前方のグリッパ310で荷物2900を把持すると、荷物2900を含んだロボット装置100全体の重量重心位置が、ロボット装置100単体の場合よりも前方にシフトする。荷物2900の重量が重くなると、重心位置は前方により大きくシフトする。この結果、重心位置と支持多角形の境界までのマージンが小さくなるため、ロボット装置100が転倒するリスクが高まる。そこで、図29に示すように、ロボット装置100は、荷物2900を把持する際には、前足をなるべく前方に突き出した脚110及び120の歩容に修正するようにしてもよい。図29には、修正前の脚110及び120の歩容を点線で示している。このように前足を突き出すことで、ロボット装置100の支持多角形は前方に拡大するので、荷物2900を把持した際に転倒するリスクを軽減することができる。
H.変形例(6)
 図30には、前足にグリッパ3001を備えたロボット装置3000の構成例を示している。このロボット装置3000では、脚は、移動と姿勢変更に加え、荷物の取り出しの役割も果たすことになる。ロボット装置3000は、足先のグリッパ3001を荷物受面としての床面に倣わせることにより、図9に示したフローチャートと同様の動作手順に従って荷物をすくい上げて搬出することができる。
 ロボット装置3000は、まず、カメラを用いた画像認識などにより荷物受面としての床面をラフ検出して、足先のグリッパ3001が荷物受面と接触した後の胴体部の姿勢の回転方向を決定して、胴体部の軌道計画を策定する。ロボット装置3000は策定した軌道計画を実行して、脚の動作によりグリッパ3001を床上の荷物3002に近付ける。そして、グリッパ3001が荷物受面と接触すると、ロボット装置3000の全身力制御から求められる胴体部の基点に作用する外力Fb及びモーメントMbに基づいて、グリッパ3001が荷物受面から受ける接触力Fcを推定する。
 そして、ロボット装置3000は、床面からの接触力Fcが所定の設定値F1となるまで、各脚の駆動により胴体部の姿勢を回転させる。さらに、ロボット装置3000は、接触力Fcが所定の設定値F1を保つように胴体部又は足先の姿勢を回転させて、グリッパ3001と床面との接触点がグリッパ3001の接触面の中心付近に入ると、グリッパ3001が床面に倣ったと判定する。そして、ロボット装置3000は、グリッパ3001を閉じて荷物を把持するとともに、足先を上昇させることによって、荷物3002を床面から持ち上げることができる。
 ロボット装置3000は、胴体部の姿勢制御と脚の自由度を利用して、足先のグリッパ3001を荷物受面に倣わせて、荷物3002を把持し、さらに荷物を胴体部に移動させることで荷物を引き出せる範囲が拡大する。ロボット装置3000は、胴体部の前方、後方、又は下部に荷物を載せる空間を備えていれば、床に置かれた荷物3002を直接引き上げることができる。
I.変形例(7)
 図31には、複数台のロボット装置(図示の例では、ロボット装置3101とロボット装置3102の2台)が協働して1つの荷物3100を搬出している変形例を示している。各ロボット装置3101及び3102を全身力制御により姿勢制御して、互いの積載面が同じ平面となるように倣わせることで、2台のロボット装置3101及び3102を跨いで、大容量の荷物3100を安定して積むことができる。また、1台では重くて運べない荷物3100であっても、2台のロボット装置3101及び3102を使うことで運搬が可能になる。
J.変形例(7)
 図32には、図5などに示したロボット装置100が、バラ積みされた複数の荷物の中から1つの荷物3200を引き出す様子を示している。この場合、ロボット装置100は、荷物3200を載せている直下の荷物3201の上面に胴体部300又は積載部101を倣わせることで、図9に示したフローチャートと同様の動作手順に従って荷物3200をすくい上げて搬出することができる。
 ロボット装置100は、まず、カメラを用いた画像認識などにより荷物受面をラフ検出して、グリッパ310が荷物受面と接触した後の胴体部300の姿勢の回転方向を決定して、胴体部300の軌道計画を策定する。ここで言う荷物受面は、荷物3200を載せている直下の荷物3201の上面である。
 ロボット装置100は策定した軌道計画を実行して、リ歩行動作によりグリッパ310を荷物受面上の荷物受面に近付ける。そして、グリッパ2401が荷物受面と接触すると、ロボット装置100の全身力制御から求められる胴体部300の基点に作用する外力Fb及びモーメントMbに基づいて、グリッパ310が荷物受面から受ける接触力Fcを推定する。
 そして、ロボット装置100は、荷物受面からの接触力Fcが所定の設定値F1となるまで、各脚110、120、130、140の駆動により胴体部300の姿勢を回転させる。さらに、ロボット装置100は、接触力Fcが所定の設定値F1を保つように胴体部300の姿勢を回転させて、グリッパ310と荷物受面との接触点がグリッパ310の接触面の中心付近に入ると、グリッパ310が荷物受面としての床面に倣ったと判定する。
 ロボット装置100は、グリッパ310を閉じて荷物3200を把持するとともに、荷物3200を荷物受面から持ち上げる。次いで、ロボット装置100は、歩行動作により荷物3200がバラ積みされていた場所などから退いた後、後脚130及び140を大きく屈曲させることによって、胴体部300並びにグリッパ310をロボット装置100の後方に大きく傾ける。すると、持ち上げられた荷物はグリッパ310から滑り落ちて、積載部101まで移動する。また、積載部101の後端縁にはストッパ320が設けられているので、グリッパ310から滑り落ちてきた荷物3200がさらに積載部101の後端から落下することはない。
K.その他の変形例
 これまで説明してきたロボット装置はいずれも、基本的にはロボット装置(又は胴体部)の前方にグリッパなどの取り出し部を装備して、胴体部の上面の積載部に荷物を引き込む構造である。これに対し、胴体部の後方や下部に荷物を収容する空間を設けて、胴体部の底面の姿勢を床面に倣わせるようにしてその空間に荷物を引き込むように、ロボット装置を構成することも可能である。
L.まとめ
 最後に、本開示に係る技術を適用したロボット装置によりもたらされる効果についてまとめておく。
(1)ロボット装置は、1又は複数の荷物を載せた棚や台車などから、対象とする荷物を個別に取り出すことができる。
(2)ロボット装置は、多自由度のアームを使用せずに荷物受面から荷物を取り出すことができるので、装置コストを削減できるとともに、小型且つ軽量なロボット装置を構成することができる。
(3)荷物受面の傾きが不明であったり、荷物の底面の精度が不十分であったりする不確定な状況においても、ロボット装置は、全身力制御により積載部を荷物受面に倣わすことで、荷物を確実にすくい上げることができる。
(4)ロボット装置は、全身力制御により積載部を荷物受面に倣わすことで、小さな把持力で段ボールのような柔らかい箱に梱包された荷物や精密梱包を押し潰さずに、静かに引き出したり置いたりすることができる。
(5)ロボット装置は、グリッパなどで把持した荷物を胴体部まで引き込むことで、荷物を含めたロボット装置全体の重量重心が支持多角形の中心付近に移動するので、姿勢が安定化し、転倒するリスクが低い。
(6)ロボット装置は、荷物の下から持ち上げるで、追加のグリッパや引き込み機構などが不要であり、荷物を荷物受面から取り出す構造を簡素化することができる。
(7)ロボット装置は、空気圧などによる吸着作用を持つ吸着部と組み合わせることで、荷物の壁面を確実に吸着することが可能である。
(8)ロボット装置は、昇降動作が可能なリフトを介してグリッパを取り付けることで、荷物受面が高くても低くても簡単に荷物を引き出すことができる。
(9)ロボット装置は、荷物を把持する際に前脚の足先を前方に移動させて、支持多角形を前方に拡大することによって、荷物を含んだ重量重心位置が前方にシフトしても、転倒のリスクを軽減することができる。
(10)ロボット装置は、胴体部の前方、後方、又は下部に荷物を載せる空間を備えていれば、床に置かれた荷物を直接引き上げることができる。
(11)ロボット装置は、脚の足先にグリッパなどの取り出し部を備えていれば、足先を荷物受面に倣わせて、荷物を把持することができ、さらに荷物を胴体部に移動させることで荷物を引き出せる範囲が拡大する。
(12)複数のロボット装置の各胴体姿勢を全身力制御により倣わせることで、協働しながら安定して大きな荷物を運ぶことができる。
(13)ロボット装置は、バラ積みされた荷物の中から、対象とする荷物の直下の荷物の上面に倣わせることで、確実に荷物をすくい上げることができる。
 以上、特定の実施形態を参照しながら、本開示に係る技術について詳細に説明してきた。しかしながら、本開示に係る技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本開示に係る技術は、脚以外の複数の移動手段を備えたロボット装置若しくは移動体装置にも同様に適用することができる。例えば、複数の車輪を備えた車輪式の移動体装置(自動運転車を含む)に、複数の機構を並列に配置し且つ最終出力先を荷台として構成されたパラレルリンクを搭載する構成であってもよい。
 要するに、例示という形態により本開示に係る技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本開示に係る技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本開示に係る技術は、以下のような構成をとることも可能である。
(1)荷物を載せる積載部と、
 前記積載部の姿勢を変更する姿勢変更部と、
 前記積載部を移動させる移動部と、
 前記姿勢変更部及び移動部の動作を制御する制御部と、
を具備し、
 前記制御部は、前記積載部が荷物受面に倣うように前記姿勢変更部を力制御する、
ロボット装置。
(2)前記姿勢変更部は、前記積載部を支持する複数のリンク構造体からなる、
上記(1)に記載のロボット装置。
(3)前記姿勢変更部及び前記移動部は、複数の可動脚からなる、
上記(1)又は(2)のいずれかに記載のロボット装置。
(4)前記姿勢変更部はパラレルリンクからなり、前記移動部は車輪からなる、
上記(1)又は(2)のいずれかに記載のロボット装置。
(5)前記荷物受面に載せられた荷物を取り出して前記積載部に移動させる取り出し部をさらに備える、
上記(1)乃至(4)のいずれかに記載のロボット装置。
(6)前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する、
上記(5)に記載のロボット装置。
(7)前記制御部は、前記姿勢変更部の姿勢を変更する力制御に基づいて、前記取り出し部と前記荷物受面との接触点位置を推定し、前記接触点位置が前記取り出し部と前記荷物受面との接触面の中心付近に移動するように前記姿勢変更部による前記積載部の姿勢制御を実施し、前記接触点位置が前記接触面の中心付近に入ったときに前記積載部が前記荷物受面に倣ったと判定する、
上記(6)に記載のロボット装置。
(8)前記取り出し部は、開閉式のグリッパ、昇降式のリフト、昇降式のリフトに取り付けられた開閉式のグリッパのうち少なくとも1つを含む、
上記(5)乃至(7)のいずれかに記載のロボット装置。
(9)前記取り出し部は、前記積載部から出没する突起部を含み、
 前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に設けられた開口から前記突起部を突き出させて荷物をすくい上げるように制御する、
上記(5)に記載のロボット装置。
(10)前記取り出し部は、吸着部を含み、
前記姿勢変更部を力制御して前記吸着部を前記荷物の壁面に倣わせた後に、前記吸着部で前記荷物の壁面を吸着して前記荷物受面から前記荷物を取り出すように制御する、
上記(5)に記載のロボット装置。
(11)前記取り出し部は、昇降式のリフトと前記リフトに取り付けられた開閉式のグリッパを含む、
上記(5)に記載のロボット装置。
(12)前記制御部は、前記取り出し部で前記荷物を取り出す際に、前記荷物の方向に支持多角形が拡大するように前記姿勢変更部又は前記移動部を制御する、
上記(5)乃至(11)のいずれかに記載のロボット装置。
(13)前記移動部は可動脚を備え、
 前記取り出し部は、前記可動脚の足先に取り付けられたグリッパを含み、
 前記制御部は、前記可動脚を力制御して前記脚先のグリッパを床面に倣わせた後に、床面に置かれた荷物をグリッパで把持するように制御する、
上記(5)に記載のロボット装置。
(14)バラ積みされた荷物から特定の荷物を取り出す際に、
 前記制御部は、前記姿勢変更部を力制御して前記積載部を前記特定の荷物の直下の荷物の上面に倣わせた後に、前記特定の荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する、
上記(5)に記載のロボット装置。
(15)荷物を載せる積載部と、前記積載部の姿勢を変更する姿勢変更部と、前記積載部を移動させる移動部を備えたロボット装置の制御方法であって、
 前記積載部が荷物受面に倣うように前記姿勢変更部を力制御するステップと、
 前記荷物受面に載せられた荷物を取り出すステップと、
を有するロボット装置の制御方法。
 100…ロボット装置、101…積載部
 110…可動脚
 111…リンク(第2リンク)、112…リンク(第1リンク)
 113…関節部(第2関節)、114…関節部(第1関節)
 120…可動脚
 121…リンク(第2リンク)、122…リンク(第1リンク)
 123…関節部(第2関節)、124…関節部(第1関節)
 130…可動脚
 131…リンク(第2リンク)、132…リンク(第1リンク)
 133…関節部(第2関節)、134…関節部(第1関節)
 140…可動脚
 141…リンク(第2リンク)、142…リンク(第1リンク)
 143…関節部(第2関節)、144…関節部(第1関節)
 210…外部センサ部、211L、211R…カメラ
 212…マイクロホン、213…タッチセンサ
 221…スピーカ、222…表示部
 230…制御ユニット、231…メイン制御部、232…バッテリ
 233…内部センサ部
 233A…バッテリセンサ、233B…加速度センサ
 234…外部メモリ、235…通信部
 241、242、243、244、…サブ制御部
 300…胴体部、310…グリッパ、311、312…爪
 320…ストッパ
 1000…台車、1600…リフト、2100…フォーク形トレイ
 2300…吸着部、2400…昇降式リフト、2401…グリッパ
 2800…ロボット装置、2801…車輪、2802…パラレルリンク
 3101、3102…ロボット装置

Claims (15)

  1.  荷物を載せる積載部と、
     前記積載部の姿勢を変更する姿勢変更部と、
     前記積載部を移動させる移動部と、
     前記姿勢変更部及び移動部の動作を制御する制御部と、
    を具備し、
     前記制御部は、前記積載部が荷物受面に倣うように前記姿勢変更部を力制御する、
    ロボット装置。
  2.  前記姿勢変更部は、前記積載部を支持する複数のリンク構造体からなる、
    請求項1に記載のロボット装置。
  3.  前記姿勢変更部及び前記移動部は、複数の可動脚からなる、
    請求項1に記載のロボット装置。
  4.  前記姿勢変更部はパラレルリンクからなり、前記移動部は車輪からなる、
    請求項1に記載のロボット装置。
  5.  前記荷物受面に載せられた荷物を取り出して前記積載部に移動させる取り出し部をさらに備える、
    請求項1に記載のロボット装置。
  6.  前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に載せられた荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する、
    請求項5に記載のロボット装置。
  7.  前記制御部は、前記姿勢変更部の姿勢を変更する力制御に基づいて、前記取り出し部と前記荷物受面との接触点位置を推定し、前記接触点位置が前記取り出し部と前記荷物受面との接触面の中心付近に移動するように前記姿勢変更部による前記積載部の姿勢制御を実施し、前記接触点位置が前記接触面の中心付近に入ったときに前記積載部が前記荷物受面に倣ったと判定する、
    請求項6に記載のロボット装置。
  8.  前記取り出し部は、開閉式のグリッパ、昇降式のリフト、昇降式のリフトに取り付けられた開閉式のグリッパのうち少なくとも1つを含む、
    請求項5に記載のロボット装置。
  9.  前記取り出し部は、前記積載部から出没する突起部を含み、
     前記制御部は、前記姿勢変更部を力制御して前記積載部を前記荷物受面に倣わせた後に、前記荷物受面に設けられた開口から前記突起部を突き出させて荷物をすくい上げるように制御する、
    請求項5に記載のロボット装置。
  10.  前記取り出し部は、吸着部を含み、
    前記姿勢変更部を力制御して前記吸着部を前記荷物の壁面に倣わせた後に、前記吸着部で前記荷物の壁面を吸着して前記荷物受面から前記荷物を取り出すように制御する、
    請求項5に記載のロボット装置。
  11.  前記取り出し部は、昇降式のリフトと前記リフトに取り付けられた開閉式のグリッパを含む、
    請求項5に記載のロボット装置。
  12.  前記制御部は、前記取り出し部で前記荷物を取り出す際に、前記荷物の方向に支持多角形が拡大するように前記姿勢変更部又は前記移動部を制御する、
    請求項5に記載のロボット装置。
  13.  前記移動部は可動脚を備え、
     前記取り出し部は、前記可動脚の足先に取り付けられたグリッパを含み、
     前記制御部は、前記可動脚を力制御して前記脚先のグリッパを床面に倣わせた後に、床面に置かれた荷物をグリッパで把持するように制御する、
    請求項5に記載のロボット装置。
  14.  バラ積みされた荷物から特定の荷物を取り出す際に、
     前記制御部は、前記姿勢変更部を力制御して前記積載部を前記特定の荷物の直下の荷物の上面に倣わせた後に、前記特定の荷物を取り出して前記積載部に移動させるように前記取り出し部を制御する、
    請求項5に記載のロボット装置。
  15.  荷物を載せる積載部と、前記積載部の姿勢を変更する姿勢変更部と、前記積載部を移動させる移動部を備えたロボット装置の制御方法であって、
     前記積載部が荷物受面に倣うように前記姿勢変更部を力制御するステップと、
     前記荷物受面に載せられた荷物を取り出すステップと、
    を有するロボット装置の制御方法。
PCT/JP2020/027055 2019-10-11 2020-07-10 ロボット装置及びその制御方法 WO2021070439A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080069523.5A CN114502484A (zh) 2019-10-11 2020-07-10 机器人装置和用于控制机器人装置的方法
US17/766,475 US20240066691A1 (en) 2019-10-11 2020-07-10 Robot device and method for controlling the same
EP20874502.6A EP4043157A4 (en) 2019-10-11 2020-07-10 ROBOT DEVICE AND CONTROL METHOD THEREOF

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-187523 2019-10-11
JP2019187523A JP2021062431A (ja) 2019-10-11 2019-10-11 ロボット装置及びその制御方法

Publications (1)

Publication Number Publication Date
WO2021070439A1 true WO2021070439A1 (ja) 2021-04-15

Family

ID=75437080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/027055 WO2021070439A1 (ja) 2019-10-11 2020-07-10 ロボット装置及びその制御方法

Country Status (5)

Country Link
US (1) US20240066691A1 (ja)
EP (1) EP4043157A4 (ja)
JP (1) JP2021062431A (ja)
CN (1) CN114502484A (ja)
WO (1) WO2021070439A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220179417A1 (en) * 2014-07-24 2022-06-09 Boston Dynamics, Inc. Systems and Methods for Ground Plane Estimation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115533866B (zh) * 2022-11-07 2023-06-13 陈思睿 一种带有抓取装置的机器人及其工作方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0445310B2 (ja) 1985-12-16 1992-07-24 Sojeba Sa
JP2008023639A (ja) 2006-07-20 2008-02-07 Fujitsu Ltd 荷物搬送ロボット
JP2012056661A (ja) * 2010-09-07 2012-03-22 Toyota Industries Corp 荷物移送用ロボットと該ロボットの制御方法
JP2015178141A (ja) 2014-03-19 2015-10-08 トヨタ自動車株式会社 搬送ロボット及び搬送方法
JP2015208836A (ja) 2014-04-30 2015-11-24 ファナック株式会社 ロボットの柔軟制御を行う制御装置
JP2016020103A (ja) * 2014-07-11 2016-02-04 株式会社東芝 運搬装置
JP2016074060A (ja) * 2014-10-07 2016-05-12 株式会社東芝 遠隔作業自動機及びその作業方法
JP2017109294A (ja) * 2015-12-18 2017-06-22 清水建設株式会社 建設作業用ロボット

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1094011A (zh) * 1992-09-23 1994-10-26 贷盘东主有限公司 重物运输车
AU2002952422A0 (en) * 2002-11-01 2002-11-21 Tynecat Technologies Pty Ltd A transport trolley
JP4846342B2 (ja) * 2005-11-02 2011-12-28 川田工業株式会社 歩行ロボット用付加装置および歩行ロボット
JP2009095933A (ja) * 2007-10-17 2009-05-07 Nsk Ltd 車両の転倒防止装置および脚車輪型ロボット
JP2009154256A (ja) * 2007-12-27 2009-07-16 Yaskawa Electric Corp 車輪付脚式移動装置
TW200948560A (en) * 2008-05-29 2009-12-01 Contrel Technology Co Ltd Multi-segment support arm linear moving device
JP2010005730A (ja) * 2008-06-26 2010-01-14 Nsk Ltd 原点位置判定装置および脚車輪型ロボット、並びに原点位置判定方法
DE102009058607A1 (de) * 2009-12-17 2011-06-22 KUKA Laboratories GmbH, 86165 Verfahren und Vorrichtung zum Steuern eines Manipulators
JP5429256B2 (ja) * 2011-10-03 2014-02-26 株式会社安川電機 ロボットシステム
CN202569244U (zh) * 2012-03-09 2012-12-05 浙江理工大学 一种可变轮距可调中心高低的抗灾救援机器人
KR101327975B1 (ko) * 2012-05-17 2013-11-13 한국해양과학기술원 해저 로봇의 기능 시험용 테스트 베드
CN204295693U (zh) * 2014-12-18 2015-04-29 哈尔滨工大天才智能科技有限公司 一种携爪救援机器人
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
CN105773597B (zh) * 2016-05-02 2017-08-25 青岛农业大学 一种多用途仿生螃蟹机器人
US11607229B2 (en) * 2016-12-08 2023-03-21 Orthotaxy S.A.S. Surgical system for cutting an anatomical structure according to at least one target plane
CN106737669B (zh) * 2016-12-12 2019-10-18 杭州宇芯机器人科技有限公司 考虑外力冲击干扰和阻尼的多足机器人能量裕度计算方法
CN106627830A (zh) * 2017-01-17 2017-05-10 吴逸帆 轮腿复合移动机器人
CN106695801B (zh) * 2017-02-24 2023-03-21 浙江师范大学 一种多功能救援机器人
US10459450B2 (en) * 2017-05-12 2019-10-29 Autonomy Squared Llc Robot delivery system
US11413745B2 (en) * 2017-09-22 2022-08-16 Virginia Tech Intellectual Properties, Inc. Articulated, closed kinematic chain planar monopod
CN208411903U (zh) * 2018-03-14 2019-01-22 长春工业大学 一种小空间取样机器人
EP3797081A2 (en) * 2018-05-22 2021-03-31 Pick8Ship Technology AG Cargo receptacle and cargo logistics method
US20200306998A1 (en) * 2019-03-25 2020-10-01 Boston Dynamics, Inc. Multi-Body Controller

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0445310B2 (ja) 1985-12-16 1992-07-24 Sojeba Sa
JP2008023639A (ja) 2006-07-20 2008-02-07 Fujitsu Ltd 荷物搬送ロボット
JP2012056661A (ja) * 2010-09-07 2012-03-22 Toyota Industries Corp 荷物移送用ロボットと該ロボットの制御方法
JP2015178141A (ja) 2014-03-19 2015-10-08 トヨタ自動車株式会社 搬送ロボット及び搬送方法
JP2015208836A (ja) 2014-04-30 2015-11-24 ファナック株式会社 ロボットの柔軟制御を行う制御装置
JP2016020103A (ja) * 2014-07-11 2016-02-04 株式会社東芝 運搬装置
JP2016074060A (ja) * 2014-10-07 2016-05-12 株式会社東芝 遠隔作業自動機及びその作業方法
JP2017109294A (ja) * 2015-12-18 2017-06-22 清水建設株式会社 建設作業用ロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4043157A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220179417A1 (en) * 2014-07-24 2022-06-09 Boston Dynamics, Inc. Systems and Methods for Ground Plane Estimation
US11921508B2 (en) * 2014-07-24 2024-03-05 Boston Dynamics, Inc. Systems and methods for ground plane estimation

Also Published As

Publication number Publication date
US20240066691A1 (en) 2024-02-29
EP4043157A4 (en) 2022-12-21
JP2021062431A (ja) 2021-04-22
CN114502484A (zh) 2022-05-13
EP4043157A1 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
US20210132625A1 (en) Modular delivery vehicle system
US9592759B1 (en) Loading items onto a vehicle
JP2023116741A (ja) 未知の物体の自律的ピックアンドプレース
WO2021070439A1 (ja) ロボット装置及びその制御方法
KR102631871B1 (ko) 로봇 핸드, 로봇, 로봇 시스템 및 반송 방법
KR20210077643A (ko) 개별 컵 제어를 갖는 지능형 그리퍼
US20170293294A1 (en) Systems and methods for delivering containers using an autonomous dolly
WO2013099091A1 (ja) 自走式ロボットハンド
US20230150137A1 (en) Controlling multiple robots to cooperatively unload a truck or other container
JP6136435B2 (ja) 自律移動装置
US20240042613A1 (en) Robotic system to control multiple robots to perform a task cooperatively
US20230158676A1 (en) Controlling multiple robots to cooperatively pick and place items
JP7279717B2 (ja) ロボット、及び制御方法
WO2023187006A1 (en) Controlling a robotic manipulator for packing an object
CN114670175A (zh) 服务机器人、服务机器人控制方法、***及存储介质
JP2022100650A (ja) 荷物搬送システム、荷物搬送方法および荷物搬送プログラム
US20230391451A1 (en) Unmanned delivery system and unmanned delivery method
WO2022059541A1 (ja) 制御装置、制御システム、制御方法、及びロボット
US20230271797A1 (en) Robotic system to control ingress to a robotic loader
WO2022091907A1 (ja) 無人配送システム及び無人配送方法
JP2015164748A (ja) ロボットの保持システム
JP2020163483A (ja) ロボット
CN114200921A (zh) 递送***、递送方法和程序
CN115136093A (zh) 信息处理装置、信息处理方法、计算机程序和移动机器人
JP2024082204A (ja) ロボットハンド、ロボットの制御システム、ロボットの制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20874502

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 17766475

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020874502

Country of ref document: EP

Effective date: 20220511