WO2004082900A1 - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法 Download PDF

Info

Publication number
WO2004082900A1
WO2004082900A1 PCT/JP2004/003917 JP2004003917W WO2004082900A1 WO 2004082900 A1 WO2004082900 A1 WO 2004082900A1 JP 2004003917 W JP2004003917 W JP 2004003917W WO 2004082900 A1 WO2004082900 A1 WO 2004082900A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
user
robot device
state
posture
Prior art date
Application number
PCT/JP2004/003917
Other languages
English (en)
French (fr)
Inventor
Tomohisa Moridaira
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/515,274 priority Critical patent/US20050228540A1/en
Priority to EP04722665A priority patent/EP1607191A1/en
Publication of WO2004082900A1 publication Critical patent/WO2004082900A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to a robot apparatus and a control method thereof, and is suitably applied to, for example, a humanoid type mouth bot.
  • bipedal humanoid robots have been developed and commercialized by many companies. These robots are equipped with various external sensors such as CCD (Charge Coupled Device) cameras and microphones, and recognize the external situation based on the outputs of these external sensors, and based on the recognition results. Some have been made to be able to act autonomously. '' Also, recently, when a relatively small autonomous humanoid robot is held up by a user, its holding state is detected, and according to the detection result, There are also proposals that have a function of shifting the user's own posture to a predetermined posture that is considered to be easy for the user to hold (hereinafter referred to as the “lifting posture”), or having the function of weakening the entire body. Disclosure of the invention
  • a mechanism for reliably detecting that the user is raised is required. For example, if the robot is lifted by the user, it cannot be detected, and if the robot is operating as if it were placed on the floor, the user's fingers may be pinched in the joints or the robot's limbs may be damaged. The user may be injured unexpectedly by hitting the robot.
  • the robot that is assumed to be held by the user in this way, only the posture and state of the robot in the held state
  • the robot is held down or just before it is lowered on the floor, it is troublesome to handle the robot when it is lowered, and it is a humanoid type.
  • the entertainment robot As an entertainment robot is impaired.
  • the lifting posture and weakness described above are unstable postures and postures for the robot, so the robot loses balance after falling and falls, causing the aircraft to be damaged or stowed. If a damaged device is damaged, an accident may occur. Disclosure of the invention
  • the present invention has been made in consideration of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can significantly improve entertainment and safety.
  • an action point detecting means for detecting an action point at which an external force acts on a mouth pot apparatus
  • a center of gravity detection for detecting a center of gravity of the mouth bot apparatus
  • a planned contact area calculating means for calculating a planned contact area where a part of the robot device contacts the floor surface
  • the robot device can effectively and effectively prevent a fall after touching down the ground, and can exhibit an action as if a human is preparing for touching down normally.
  • an operation point at which an external force acts on the mouth bot device and a center of gravity of the robot device are detected, and a part of the robot device is contacted with the floor.
  • a second step is provided for controlling the movable portion so that the action point and the center of gravity are stored in the space above the ground contact area when the robot device is released from the floor by an external force.
  • a center of gravity detecting means for detecting a center of gravity of the robot apparatus
  • a grounding part calculating means for calculating a grounding part between the robot apparatus and the floor surface
  • Distance calculation to calculate the distance to the part A lifting means is provided to detect the lift based on the distance between the center of gravity of the robot device and the ground contact portion.
  • this robot device can reliably detect that it has been lifted without requiring a special sensor, etc., thus causing user injuries due to the operation of the mouth bot device during the lifting state. Etc. can be effectively prevented to ensure user safety.
  • a first step of detecting a center of gravity of the robot device and calculating a ground contact portion between the robot device and the floor surface; A second step of calculating the distance to the part and a third step of performing a lift detection based on the calculated distance are provided.
  • the robot apparatus control method it is possible to reliably detect that the robot apparatus has been lifted without requiring a special sensor or the like. It is possible to effectively prevent the occurrence of injuries, etc., and to ensure the safety of the user.
  • a sensor means for detecting an external and / or internal state in which a plurality of legs each having a multi-stage joint mechanism are connected to a body portion, a sensor means for detecting an external and / or internal state, and a sensor means for detecting an internal or external state.
  • State determining means for determining whether the external and / or internal state is in a state of being lifted or lifted by the user's arm, and each joint machine birch based on the determination result by the state determining means.
  • control means for controlling the drive system so as to stop the operation of (1).
  • a control means for controlling a driving system for operating each joint mechanism corresponding to each leg is determined according to the result of the determination of the posture of the torso.
  • the robot device can ensure the safety after the user is lifted or lifted by the user's arm and can express natural appearance.
  • the drive system is configured to stop the operation of each joint mechanism. Controlled.
  • this control method of the robot apparatus it is possible to ensure the safety of the user by preventing each leg from being moved while being held or lifted by the user. it can.
  • an action point detecting means for detecting an action point at which an external force acts on the robot apparatus
  • a gravity center detecting means for detecting a center of gravity of the robot apparatus
  • Ground contact area calculating means for calculating the contact area with the floor.
  • the control means controls the drive means when the robot is released from the floor by an external force, so that the action point and the center of gravity are grounded.
  • an action point at which an external force acts on the robot device and a center of gravity of the robot device are detected, and a part of the mouth bot device is in contact with the floor.
  • a robot which is provided with a center of gravity detecting means for detecting a center of gravity of the robot, a ground contact part calculating means for calculating a contact part between the robot apparatus and the floor, and a distance calculating means for calculating a distance between the center of gravity of the robot apparatus and the contact part. Detection based on the distance between the center of gravity of the robot, a center of gravity detecting means for detecting a center of gravity of the robot, a ground contact part calculating means for calculating a contact part between the robot apparatus and the floor, and a distance calculating means for calculating a distance between the center of gravity of the robot apparatus and the contact part. Detection based on the distance between the center of gravity of the
  • a robot that can effectively prevent the occurrence of injuries to the user due to the operation of the robot device when the robot is lifted, thereby ensuring the safety of the user and thus significantly improving the entertainment property.
  • the device can be realized.
  • a first step of detecting a center of gravity of the robot device and calculating a ground contact portion between the robot device and the floor surface By providing the second step of calculating the distance to the part and the third step of detecting the lift based on the calculated distance, the robot can be lifted without requiring a special sensor or the like. Can be reliably detected. In this way, it is possible to effectively prevent the occurrence of user injuries due to the operation of the robot device in the lifting state, thereby ensuring the safety of the user, and thereby significantly improving the entertaining property.
  • a control method of a robot device that can be improved can be realized.
  • a sensor means for detecting an external and / or internal state and a sensor means for detecting an internal or external state are provided. Whether the external and / or internal state is in a state of being lifted or lifted by the user's arm.3 ⁇ 4A state determining means for determining, and each joint mechanism is determined based on a determination result by the state determining means.
  • control means for controlling the drive system so as to stop the operation of the vehicle it is possible to ensure the safety of the user in the state of being lifted or lifted by the user.
  • a plurality of legs having a multi-stage articulation mechanism in the body are provided.
  • a robot device that can be implemented can be realized.
  • the state of being lifted or lifted by the user's arm is released.
  • the state is determined after detecting an external and / or internal state.
  • the present invention in the method of controlling a robot apparatus in which a plurality of legs each having a multi-stage joint mechanism on the body are connected, when the state in which the user is lifted or lifted by the user is released.
  • the posture of the torso part and controlling the drive system for operating each joint mechanism corresponding to each leg part according to the judgment result the held state or the raised state is released. After that, it is possible to ensure the safety after the operation and express the natural appearance, and thus, it is possible to realize a control method of the robot apparatus which can greatly improve the entertainment.
  • FIG. 1 is a perspective view showing an external configuration of the robot.
  • FIG. 2 is a perspective view showing an external configuration of the robot.
  • Fig. 3 is a conceptual diagram showing the external configuration of the robot.
  • FIG. 4 ' is a block diagram showing the internal configuration of the robot.
  • FIG. 5 is a block diagram showing the internal configuration of the robot.
  • FIG. 6 is a flowchart for explaining the first lifting control processing procedure.
  • FIG. 7 is a schematic conceptual diagram used to explain the state of lifting.
  • FIG. 8 is a flowchart for explaining a pseudo compliance control processing procedure.
  • FIG. 9 is a schematic conceptual diagram for explaining the pseudo compliance control.
  • FIG. 10 is a schematic conceptual diagram for explaining the placing posture control.
  • FIG. 11 is a perspective view for explaining a mode of lifting the robot by a user.
  • FIG. 12 is a block diagram showing an internal configuration of the robot.
  • FIG. 13 is a flowchart showing a lifting state detecting process a procedure.
  • FIG. 14 is a side view for explaining the difference in the position of the center of gravity depending on the state of the robot.
  • FIG. 15 is a side view for explaining a difference in the position of the center of gravity depending on the state of the robot.
  • FIG. 16 is a flowchart showing a lifting state detection processing procedure.
  • FIG. 17 is a flowchart illustrating the lift-up state release detection processing procedure.
  • FIG. 18 is a conceptual diagram serving to explain the placing posture control process.
  • FIG. 19 is a conceptual diagram serving to explain the placing attitude control process.
  • FIG. 20 is a flowchart illustrating the placing posture control processing procedure.
  • FIG. 21 is a front view for explaining a posture control process for an unstable lifting posture.
  • FIG. 22 is a front view for explaining a posture control process for an unstable lifting posture.
  • FIG. 23 is a side view for explaining the posture control process for the unstable lifting posture.
  • FIG. 24 is a flowchart illustrating a second lifting control processing procedure.
  • FIG. 25 is a schematic diagram for explaining a state of holding a conventional robot. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes a robot according to the present embodiment as a whole.
  • a head unit 4 is connected to an upper portion of a body unit 2 via a neck 3, and a left and right upper part of the body unit 2 is connected.
  • Arm units 5A and 5B are connected to both sides, respectively, and a pair of leg units 6A and 6B are connected to the lower part of the body unit 2.
  • the neck 3 has a degree of freedom around the neck joint pitch axis 10 and the axis of the neck joint 11 and the neck joint mechanism 13 having a degree of freedom around the neck joint pitch axis 12.
  • the head unit 4 is attached to the tip of the neck 3 with a degree of freedom around the neck roll axis 14 as shown in FIG.
  • the head unit 4 can be turned in desired directions such as front and rear, left and right, and diagonally.
  • Each arm unit 5A is composed of three blocks, an upper arm block 15, a forearm block 16 and a hand block 17, as is clear from FIGS. 1 and 2.
  • the upper end of the block 15 is connected to the body unit 2 via a shoulder joint mechanism 20 having a degree of freedom about the shoulder pitch axis 18 and the shoulder roll axis 19 as shown in FIG.
  • the forearm block 16 is connected to the upper arm block 15 with a degree of freedom about the upper arm shaft 21 as shown in FIG.
  • the hand block 17 is connected to the forearm block 16 with a degree of freedom around one axis 22 of the wrist as shown in FIG.
  • the forearm section 16 is provided with an elbow joint mechanism 24 having a degree of freedom around the elbow pitch axis 23.
  • the arm units 5 ⁇ and 5 ⁇ can be moved with almost the same degree of freedom as the human arm as a whole, and thus the greeting with one hand raised and the arm unit 5 ⁇ , Various actions using the arm unit 5 ⁇ , 5 ⁇ , such as a dance of swinging 5 ⁇ , can be performed.
  • each leg unit 6 ⁇ , 6 ⁇ has three blocks of a thigh block 30, a shin block 31 and a foot block 32.
  • the upper end of the thigh block 30 has a degree of freedom around the hip joint axis 33, the hip roll axis 34 and the hip pitch axis 35 as shown in FIG. It is connected to the body unit 2 via 36.
  • the thigh block 30 and the shin block 31 are placed at the shin pitch as shown in FIG.
  • the shin block 31 and the foot block 32 are connected via a knee joint mechanism 38 having a degree of freedom about the axis 37, and the ankle pitch axis 39 and the ankle as shown in FIG. They are connected via an ankle joint mechanism 41 having a degree of freedom about the roll axis 40.
  • these leg units 6A and 6B can be moved with almost the same degree of freedom as human legs, and thus the leg units 6A and 6B such as walking and kicking a ball can be moved. O Being able to perform the various actions used
  • a grip handle 2A is provided on the rear upper portion of the body unit 2 so as to surround the neck 3, so that the user can lift the entire robot 1 by using the grip handle 2A as a clue. It has been done.
  • each hip joint mechanism 36 is supported by a waist joint mechanism 44 having a degree of freedom around the trunk roll axis 42 and the trunk pitch axis 43 as shown in FIG.
  • the body unit 2 can be freely tilted in the front-back, left-right directions.
  • the power source for moving the head unit 4 each arm unit 5A, 5B, each leg unit 6A, 6B, and the trunk unit 2.
  • a portion having each degree of freedom including each joint mechanism, such as the neck joint mechanism 13 and the shoulder joint mechanism 20, is assigned to each of the functions A i to A for the number of degrees of freedom. i 7 is disposed.
  • the body unit 2 accommodates a main control unit 50 that controls the operation of the entire robot 1, a peripheral circuit 51 such as a power supply circuit and a communication circuit, and a battery 52 (FIG. 5).
  • a main control unit 50 that controls the operation of the entire robot 1
  • a peripheral circuit 51 such as a power supply circuit and a communication circuit
  • a battery 52 (FIG. 5).
  • each of the constituent units (body unit 2, head unit 4, each arm unit 5A, 5B, and each leg unit 6A, 6B) has a main control unit 50 and electric unit.
  • the sub-controllers 53A to 53D that are connected in series are housed.
  • the head unit 4 has the "eye I" of the robot 1.
  • Various external sensors such as a pair of CCD (Charge Coupled Device) cameras 60A and 60B and a microphone 61 functioning as an "ear”, and a speaker 62 functioning as a "mouth” are arranged at predetermined positions. It is set up.
  • a predetermined portion such as a back surface of the foot block 32 or a grip portion of the grip handle 2A is provided with an evening sensor 63 as an external sensor.
  • the evening sensor 63 provided on the back surface of the foot block 32 of each leg unit 6A, 6B is referred to as a sole force sensor 63L, 63R, and the grip portion of the grip handle 2A.
  • the evening switch sensor 63 composed of a tact switch provided in the above is referred to as a grip switch 63G.
  • More torso Yunidzuto 2 with which various internal sensors Badzuterisensa 64 and the acceleration sensor 65 is arranged, within each constituent unit, it it to each ⁇ _ Kuchiyue Isseki A ⁇ A i 7 respectively in correspondence, potentiometer Isseki Pi ⁇ P 17 as an internal sensor for detecting the rotation angle of the output shaft of the corresponding Akuchiyue Isseki a i to a j 7 is provided.
  • Each of the CCD cameras 60A and 60B captures an image of the surroundings and sends the obtained image signal S 1A to the main control unit 50 via the sub control unit 53B (not shown in FIG. 5).
  • the microphone 61 collects various external sounds and sends out the audio signal S 1B thus obtained to the main control unit 50 via the sub control unit 53B.
  • Each of the touch sensors 63 detects a physical action from the user or a physical contact with the outside, and the detection result is used as a pressure detection signal S1C to correspond to the sub-control units 53A to 53D (FIG. 5). Is transmitted to the main control unit 50 via a not shown).
  • the battery sensor 64 detects the remaining energy of the battery 52 at a predetermined cycle and sends the detection result to the main control unit 50 as a remaining battery signal S2A, while the acceleration sensor 65 outputs three axes (X axis, y The acceleration of the (axis and z-axis) is detected at a predetermined cycle, and the detection result is sent to the main control unit 50 as an acceleration detection signal S2B.
  • Each potentiometer P i to P 17 is the output shaft of the corresponding actuator A i to A 7 Rotation angle is detected and the detection results transmitted to the angle detection signal S 2 C i S 2 C 1 7 and then the main control section 5 0 through the corresponding sub-control section 5 3 A ⁇ 5 3 D by a predetermined period of I do.
  • the main control unit 50 is provided with image signals S 1 A, audio signals S 1 B, and pressure detection signals supplied from various external sensors such as the CCD cameras 60 A, 6 OB, the microphone 61, and the evening sensor 63.
  • an external sensor signals S 1 such as S 1 C, Batterise capacitors 6 4, the acceleration sensor 6 5 and the energy remaining amount signal S 2 a supplied respectively from various internal sensors such as potentiometers P I-P 1 7, acceleration Based on the detection signal S 2 B and each angle detection signal S 2 ( ⁇ to 2 C 17, etc., the internal sensor signal S 2, the external and internal conditions of the mouth bot 1 and the physical Judge whether there is any action or not.
  • the main control unit 50 determines the determination result, the control program stored in the internal memory 5OA in advance, and the various control parameters stored in the external memory 66 loaded at that time. Then, the subsequent action of the robot 1 is determined, and a control command based on the determination result is transmitted to the corresponding sub-control units 53A to 53D (FIG. 4).
  • the robot 1 is capable of acting autonomously based on external and internal situations and the like.
  • the robot 1 is equipped with a function for providing the user with an optimal holding state that is close to a reaction when a human child is held (hereinafter, this function is referred to as a holding control function). ing. Then, the main control unit 50 executes the lifting control function shown in FIG. 6 based on the control program stored in the internal memory 5OA. The function processing procedure is performed by the robot 1 by executing predetermined control processing according to RT1.
  • the main control unit 5d starts the lifting control function processing procedure RT1 in step SP0, and in subsequent step SP1, the external sensor signals from various external sensors. S1 and internal sensor signals S2 from various internal sensors are acquired.
  • step SP2 the main controller 50 proceeds to step SP2, and based on the external sensor signal S1 and the internal sensor signal S2, the robot 1 is currently held by the user as shown in FIG. 25 (A). State (hereinafter referred to as the raised state).
  • step SP2 means that the robot 1 is in the holding state (or the initial holding posture described later) held by the user on the stool.
  • step SP6 proceeds to step SP6
  • obtaining a negative result in step SP2 means that robot 1 is not yet in the state of being held up by the user, and thus this
  • the main control unit 50 proceeds to step SP3 and determines whether or not the robot 1 is currently being lifted by the user (hereinafter referred to as a lifting state) as a precedent stage for holding the robot 1 up. I do.
  • step SP3 If the main control unit 50 obtains a negative result in step SP3, it returns to step SP1, and thereafter returns to step SP2 or step SP3 until a positive result is obtained in step SP1 to step SP3—step SP3. Repeat the loop of 1.
  • step SP 4 Stops all current robot 1 operations.
  • the main controller 5 0, the process proceeds to subsequent Sutedzupu SP 5, by controlling the corresponding Akuchu er evening A 1 to A 1 7, predetermined DAKI AGE up that is set as an advance default posture of the robot 1 To the posture (hereinafter referred to as the initial lifting posture), and then proceed to step SP6.
  • step SP6 the main control unit 50 performs various joint control operations (hereinafter, referred to as “lifting control”) to maintain an optimal raised state from the current raised state. Then, the process proceeds to step SP7, and waits for the lifting state to be released (that is, the robot 1 is dropped on the floor).
  • lifting control various joint control operations
  • step SP7 the main control unit 50 obtains an affirmative result in step SP7 by detecting that the robot 1 is eventually dropped on the floor based on the external sensor signal S1 and the internal sensor signal S2.
  • the main control unit 50 thereafter returns to step SP1 and thereafter repeats steps SP1 to SP8 in the same manner.
  • the lifting control function processing procedure RT1 is performed. To end.
  • the main control unit 50 holds the grip handle 2A by the robot 1 as shown in FIG. 7 in steps SP1 to SP3 in the lifting control function processing procedure R ⁇ 1 shown in FIG.
  • the robot 1 constantly monitors whether or not the current state of the robot 1 satisfies all of the following first to third conditions.
  • the first condition is that the grip switch 63G is in a state of detecting pressure (on state), and in order to clearly grasp that the robot 1 is being lifted. Prerequisite that grip handle 2 A is gripped
  • the second condition is that both the sole force sensors 63L and 63R are in the off state (that is, the sensor values are almost 0), and both the foot block 32 of the robot 1 are in the off state. It is also a condition that it is not in the grounded state.
  • the third condition is that the detection result of the acceleration sensor 65 detects that the robot 1 is accelerated in the direction opposite to the gravity (the direction of the arrow a in FIG. 7). It must also be lifted vertically.
  • the third condition is a condition required to complement the first and second conditions in some cases even when the robot 1 is sleeping on a floor or the like.
  • the main control unit 50 determines that the robot 1 is currently in the lifting state, and immediately executes the subsequent processing operation.
  • the main control unit 50 prevents the robot 1 from flapping its limbs while it is being lifted by the user.
  • the main control section 5 0, by controlling the subsequent corresponding Akuchiyue Isseki A i ⁇ A i 7, shifts the orientation of Robodzuto 1 to the initial DAKI AGE up position (Step, blanking SP 5).
  • step SP5 of the lifting control function processing procedure RT1 shown in FIG. 6 the main control unit 50 holds the user from the default initial lifting position so that the user can always maintain the optimum lifting state. Execute the raising control operation.
  • each ⁇ Kuchiyue Isseki Ai ⁇ A 17 consider the output torque and viscosity, to control the output torque of the Akuchiyue Isseki a i to a 7 so while slightly soften the joints of Robodzu sheet 1 maintains a constant hardness.
  • the posture of the robot 1 in the lifted state can also be a design object.
  • step SP11 the target angles of the joints of the robot 1 and the actual angles measured by the corresponding potentiometers P i P i 7 and the like are used, and direct kinematics is applied. The target position and the measurement position of the toe and the arm 6 of the robot 1 are calculated.
  • the main control unit 50 obtains the deviation of the measured position from the target position, and then adds an offset amount obtained by multiplying the deviation by a predetermined rate to the target position. Is calculated.
  • step SP13 calculates the joint control amounts using inverse kinematics using the obtained reference position, and then proceeds to step SP13. Proceeding to step SP14, the obtained joint control amount is applied to the corresponding actuary one-eighth-eight (FIG. 5), and thereafter, the process returns to step SP11 to repeat the same processing as described above.
  • each of the leg units 6A and 6B a case will be described in which the legs are extended forward as if sitting on a chair and the toes are raised.
  • the hip pitch axis 35 of the hip joint mechanism 36 of each leg unit 6A, 6B, the shin pitch axis 37 of the knee joint mechanism 38, and the ankle pitch axis 39 of the ankle joint mechanism 41 Is represented on the XZ plane with the Y axis.
  • the position of the foot block 32 of each leg unit 6A, 6B in the initial raised posture (hereinafter referred to as the target foot position) ⁇ ⁇ ( ⁇ ⁇ 3 ⁇ ⁇ , ⁇ ⁇ )
  • the angle of the hip joint mechanism 36 around the hip joint pitch axis 35 (hereinafter, this is the target angle) 0 ⁇ 1 .
  • the target angle 0 ⁇ 2 around the shin pitch axis 37 of the knee joint mechanism 38, and the ankle joint It is calculated by direct kinematics using the target angle ⁇ ⁇ 3 about the ankle pitch axis 39 of the mechanism section 41.
  • the position of the foot block 32 in the posture at that time (hereinafter, this is referred to as the actually measured foot position) referred) P m (X m, Y m, the Z m), the angle around the crotch joint pitch axis 35 of the hip joint mechanism unit 36 (hereinafter, measured angle) 0 ml, shin knee machine ⁇ 38 this It is calculated by direct kinematics using the actually measured angle ⁇ m2 around the pitch axis 37 and the actually measured angle 0 m3 around the ankle pitch axis 39 of the ankle joint mechanism 41.
  • the position of the foot block 32 when a certain constraint is applied so that each leg unit 6A, 6B can be moved only within a certain posture range (hereinafter, this is referred to as a reference foot position) P r (X r5 Y r5 Z r ) includes the elements of the target leg tip position P p, the target toe
  • the angle of the hip joint mechanism 36 around the hip joint pitch axis 35 (hereinafter referred to as a reference target angle) 0 rl , and the knee joint mechanism
  • the reference target angle ⁇ centered on the shin pitch axis 37 of 38 and the reference target angle S r3 centered on the ankle pitch axis 39 of the ankle joint mechanism 41 are obtained.
  • step SP7 of the first lifting control processing procedure RT1 the main control unit 50 determines whether or not the lifting state has been released (whether or not the robot 1 has been lowered on the floor). As a judgment factor, when the robot is dropped on the floor, the posture control process is executed to prevent the posture from becoming unstable when the robot touches the floor. As shown in Fig. 10, this placement posture control processing is performed so that the grip handle 2A, the center of gravity G of the entire robot 1, and the foot block 32 are aligned on the straight line when the robot touches the floor FL. In this control, the robot 1 changes its posture to the standing posture when it is determined that the weight is applied to the sole force sensors 63L and 63R while changing the posture of the robot 1.
  • the target position is always set to the posture, and when the lower body of the robot 1 is oriented in the direction of the gravitational acceleration, the parameter of the compliance control is increased or decreased, and the user can control the robot 1 By placing the device closer to the direction in which it is placed, it is possible to realize a posture that is easier for the user to place.
  • step SP8 of RT1 the main control unit 50 determines the current posture and returns to the original standing posture or the sleeping posture. Let it.
  • the mouth bot 1 in order to return the robot 1 from the raised posture to the normal standing posture, for example, if the robot 1 is in the standing posture and at the same time the caroweight is being added to the sole force sensors 63L and 63R, The mouth bot 1 can be safely moved to the standing posture by judging that it is in the holding state at present.
  • the robot 1 when the robot 1 is in a state perpendicular to the direction of gravity, it can be determined that the robot 1 is currently in a horizontal position. In addition, when the grip switch 2A is in the off state, it can be determined that the robot 1 is currently placed on the floor, and it is best to return the robot 1 to the sleeping posture. Can be determined.
  • a trigger for returning the posture of the robot 1 is triggered by a user using the evening sensor 63 or the like provided on the shoulder of the robot 1. If an input operation is performed using another input device, a malfunction that occurs when a return operation appears while the user is holding the robot 1 can be avoided.
  • the robot 1 detects that the grip handle 2A of the fuselage unit 2 is gripped by the grip switch 63G, and both foot blocks 32 of the mouth boat 1 are in the ground state. Is detected by the sole force sensors 63 L and 63 R, and when the acceleration sensor 65 detects that the robot 1 has been lifted in the vertical direction in the antigravity direction, the user lifts the robot 1 ( Or lifted). Therefore, even if the robot 1 is in a posture such as a state of lying on the floor or the like, it is possible to reliably recognize that the robot 1 has been lifted (or lifted) by the user.
  • the robot 1 when it recognizes the DAKI AGE up state, after immediate various Akuchiyue Isseki the A i ⁇ A i 7 stops all of the operations by driving stop, as it transitions to the initial DAKI AGE up state. Therefore, in the robot 1, it is possible to prevent the limbs from flapping while being lifted, and as a result, the safety of the user can be ensured.
  • the robot 1 executes a lifting control operation by various joint controls to maintain an optimal lifting state for the user from the initial lifting state. Therefore, the robot 1 can soften the body when lifted and imitate the user's holding style.
  • the robot 1 controls the servo gain of each of the actuations A1 to A17 required when the user lifts up the robot relatively small, so that the robot 1 can imitate its own posture with respect to the arm of the user. .
  • the robot 1 controls each joint gain so that each joint relating to the lower body becomes soft when the robot 1 is lifted up with both hands of the user and is in the sideways state, while each joint relating to the lower body is rigid when the robot 1 is in the vertical state. Control each joint gain Therefore, when the user is holding with both hands (lower body sideways), the emphasis is placed on the ease of holding the user. On the other hand, when the user is lifting with one hand (lower body is down), When the robot is placed on the ground, the robot's posture is stable and it is easy to place the robot.
  • the robot 1 executes the pseudo compliance control so that even if the feet or arms of the robot 1 have deviations due to the user's holding style, the robot 1 follows each link according to the deviations.
  • a certain constraint can be added so that the movement can be performed only within a certain posture range, and as a result, the posture of the user in the raised state can also be improved.
  • the robot 1 When the robot 1 recognizes that the lifting state has been released while performing the lifting control operation, the robot 1 returns to the safe standing posture when the robot 1 is in the holding state, or When 1 is in the sideways position, return to the sleeping position. ⁇ Determine the existing position and return to the original standing or sleeping position. Safety can be ensured and the natural appearance can be expressed. '
  • the robot 1 when the robot 1 recognizes that the user is in the raised state by the user based on the detection results of the various sensors, the robot 1 stops all current operations and transitions to the initial raised state. While performing the lift control operation by various joint controls to maintain the optimal lift state for the user, when it is later recognized that the lift state has been released, the standing posture corresponding to the current posture is determined. By executing a series of control operations that transit to the sleeping posture, it is possible to provide the user with an optimal raised state that is close to the reaction when a human child is raised. Thus, it is possible to realize a robot capable of significantly improving the entertainment property. ⁇
  • reference numeral 70 denotes a robot according to the second embodiment as a whole, which can detect even when a part other than the grip handle 2 A is gripped and lifted.
  • the configuration is the same as that of the robot 1 according to the first embodiment except for the above points.
  • the robot 70 when the user lifts the robot 70, the user does not always hold the grip handle 2A.
  • the robot 70 is lifted by grasping both shoulders, or as shown in FIG. 11 (B), the robot unit 4 is grasped. It may be possible to lift it.
  • the user lifts up by gripping both shoulders, or as shown in Fig. 11 (B), lifts by gripping head unit 4
  • the shoulder joint mechanism 20 that connects the gripped part to the body unit 2
  • the neck A corresponding joint mechanism such as the joint mechanism 13 receives a force in a direction opposite to the gravitational force enough to support the own weight of the robot 1.
  • a force of a predetermined level or more in the direction opposite to the gravity acts on any of the joint mechanisms, an acceleration is generated in the robot 70 in the direction opposite to the gravity, and each leg unit 6A, 6
  • the robot 70 is connected to the body unit 2 via the joint structure. O It can be determined that the part that has been
  • the force sensor FS ⁇ FS 1 7 respectively corresponding to the Akuchiyue Isseki A I ⁇ A 1 7 It is provided when one of Akuchiyue Isseki a person output shaft perpendicular to the direction of the force to the output shaft of i to a 7 is applied, detected by the force sensor F 3 ⁇ FS 1 7 corresponding this It has been made available. And each force sensor FS i ⁇ FS 1 7, upon detecting such forces, it as a force detection signal S l D i ⁇ S 1 D 1 7 , the main control unit 7 responsible for the robot 7 0 operation control of the entire To send to 1 Have been.
  • the same control processing as that performed when the grip handle 2A is gripped and lifted is performed, while the gripping is performed. If the connected portion is connected to the body unit 2 via a structurally weak joint mechanism, a warning is issued to remedy this.
  • the robot 70 even when a part other than the grip handle 2A is gripped and lifted, the robot 70 operates in the same manner as the case where the grip handle 2A is gripped and lifted. In this way, it is possible to effectively and effectively prevent the occurrence of user injuries caused by the movement of the limbs by the robot 70 when the robot 70 is in a lifted state, and to ensure the safety of further users. . .
  • lifting state detection processing is performed under the control of the main control unit 71 based on the control program stored in the internal memory 71A, as shown in FIG. Performed according to RT3.
  • step SP3 of the first lifting control processing procedure RT1 (FIG. 6)
  • the current robot 7 is detected based on the pressure detection signal S 1 C supplied from the corresponding push sensor 63 and the acceleration detection signal S 2 B supplied from the acceleration sensor 65.
  • the state of 0 indicates that the first condition that the grip switch 63G is in the ON state described above in the first embodiment with respect to this step SP3, and that both the sole force sensors 63L and 63R are in the ON state. It is determined whether or not all of the second condition of the off state and the third condition of the acceleration sensor 65 detecting acceleration in the direction opposite to the gravity are satisfied.
  • a positive result in this step SP 21 means that Robot 1 This means that the handle 2A is gripped and lifted (lifted).
  • the main control unit 71 proceeds to step SP25, determines that the robot 1 is in the lifting state, and then proceeds to step SP27 to end the lifting state detection processing procedure RT3. Then, the main control unit 71 returns to the first lifting control processing procedure RT1 (FIG. 6) and proceeds to step SP4, and thereafter, executes the first lifting control processing procedure RT1 (FIG. 6). Steps SP4 to SP8) are processed as described above.
  • step SP21 means that the robot 1 is not in a state in which the grip handle 2A is gripped and lifted (lifted state).
  • the main control unit 71 proceeds to step SP22, where the pressure detection signal S1C supplied from the corresponding evening sensor 63, the acceleration detection signal S2B supplied from the acceleration sensor 65, Based on the force detection signals S 1 DS 1 D 17 provided from the force sensors FSi to FS 17 , in addition to the above-described second and third conditions, the output shaft of one of the actuators A i to A 7 It is determined whether all of the fourth condition that a force in the direction perpendicular to the output shaft acts on the output shaft is satisfied
  • step SP22 Obtaining an affirmative result in step SP22 means that the robot 1 is in a state where it is being lifted by holding a part other than the grip handle 2A (lifted state).
  • the main control unit 71 proceeds to step SP23, where 3 1 ⁇ ? 3 17 based on mosquito detection signal 3 LDI to S 1 D 17 are given Era from the structure of the joint mechanism connecting the part and the body part Yunidzuto 2 being gripped at that time, such as a neck joint mechanism 13 It is determined whether or not the joint mechanism is a part that is predetermined as a part that is vulnerable to the load.
  • the main control unit 71 When the main control unit 71 obtains a positive result in step SP23, the main control unit 71 transmits the corresponding audio signal S3 (FIG. 12) to the speaker 62 (FIG. 12), for example, "do not have it". , "down to” like to output audio, or Robo corresponding Akuchiyue Isseki a ⁇ a 7 predetermined operation by driving the ⁇ ⁇ Gives a warning to the user by causing it to appear in port 1. Then, the main control unit 71 returns to step SP21.
  • step SP23 the main control unit 71 proceeds to step SP25, and determines that the robot 1 is in the state of being lifted (lifting state). Then, the lifting state detection processing procedure RT3 is completed. Then, the main control unit 71 returns to the first lifting control processing procedure RT1 (FIG. 6) and proceeds to step SP4, and thereafter proceeds to step SP4 of the first lifting control processing procedure RT1. Process step SP8 as described above.
  • step SP22 means that the robot 1 is not currently being lifted (lifting state).
  • the main control unit 71 proceeds to step SP26, and After it is determined that 1 is not in the lifting state, the process proceeds to step SP27 to end the lifting state detection processing procedure RT3. Then, the main controller 71 returns to the first lifting control processing procedure RT1 (FIG. 6), and then returns to step SP3 of the first lifting control processing procedure RT1.
  • the main control unit 7i can reliably detect this and execute necessary control processing. ing.
  • the robot 70 has the second condition that both the sole force sensors 63L and 63R are in the off state and the third condition that the acceleration sensor 65 detects the acceleration in the direction opposite to the gravity. If, it is determined that the state lifted when one of Akuchiyue Isseki a i to a the output shaft and the direction perpendicular external force to the output shaft of the i 7 satisfies all of the fourth condition that acts, After that, all the current motions are stopped, and after shifting to the initial lifting position, the lifting control operation is executed.
  • the grip handle 2A is gripped and lifted. Not only when the grip handle is lifted, but also when it is gripped and lifted at a part other than the grip handle 2A, the part other than the grip handle 2A is gripped and lifted accordingly. Even in this case, it is possible to prevent user injury caused by the movement of the limbs by the robot 70 in the lifting state or the holding state before and effectively, and to further secure user safety. it can.
  • the lifting control operation described above in the first embodiment can be performed, so that the lip handle 2A It is possible to provide the user with a sensation closer to the sensation of lifting a human child than in the case where the lifting control operation is not performed except when the user lifts and lifts the child.
  • the Hare gutter first acceleration sensor 6 5 detects the acceleration in the direction opposite to the gravity first It is determined that the robot has been lifted when all of the conditions of 3 and all of the fourth conditions that an external force perpendicular to the output shaft is applied to the output shaft of any one of the actuators A i A i 7 are satisfied, After that, all the current movements were stopped, and after shifting to the initial lifting position, the lifting control operation was executed, so that even if a part other than the grip handle 2A was gripped and lifted, Can be reliably detected.
  • reference numeral 80 denotes a robot as a whole according to the third embodiment, which has been lifted or lifted (the robot 80 has been lowered onto the floor). Except that the servo deviation is used to detect The configuration is the same as that of the robot 1 (FIGS. 1 to 4) according to the first embodiment.
  • the joint angle of each joint mechanism is predetermined for each posture, and during operation, the posture in which the joint angle of each joint mechanism is the target at that time (hereinafter, this by controlling each power sale by a defined angle to each Akuchiyue Isseki a i ⁇ A i 7 About is called a target posture) are adapted to be able to take the desired posture as a whole Robodzuto 1.
  • the joint mechanism mechanism supporting the weight of the robot 1 is attached to the body part above the joint mechanism.
  • the weight is given as a load. Therefore, the corresponding Akuchiyue Isseki A ⁇ A 7 in the joint mechanism is due to the influence of the load, the desired posture at that time the rotation angle of the output shaft (e.g., Fig. 1 4 (A) and FIG. 1 5 (A) ) Cannot be maintained at a predetermined angle (hereinafter, referred to as the target angle), and the rotation angle of the output shaft of the actuator becomes smaller than the target angle. A deviation occurs.
  • each joint mechanism lower than the part gripped by the user further lowers the joint mechanism.
  • the weight of the side fuselage is given as a load. Therefore, the influence of the corresponding Akuchiyue Isseki A i ⁇ A i 7 in its the joint mechanism is this load, the desired posture at the time the rotation angle of the output shaft (1 4 (A), FIG 5 ( A)) cannot be maintained at the predetermined target angle, and the A servo deviation occurs in which the rotation angle of the output shaft of .about.A i 7 becomes larger than the target angle.
  • the lifting state detection processing in step S ⁇ 3 of the first lifting control processing procedure R ⁇ 1 (FIG. 6) and the lifting operation in step S ⁇ 8 The process of detecting the release of the state is defined as the distance in the direction of gravity from the center of gravity G of the robot 80 in the target posture at that time to the ground contact portion in the target posture (hereinafter referred to as the target center of gravity height).
  • the distance in the direction of gravity from the current center of gravity G of the robot 80 to the ground contact point (hereinafter referred to as the actually measured center-of-gravity height) is calculated by forward kinematics, and the magnitudes are compared. It has been done.
  • the actual measured center of gravity of the robot 80 may be smaller or larger than the target center of gravity from the floor for some reason other than lifting of the robot 80 or lifting the robot 80 by the user. Because of this, some countermeasures are needed to avoid misrecognition.
  • the robot 80 first, the condition that the measured height of the center of gravity of the robot 80 is larger or smaller than the target height of the center of gravity at that time is satisfied for a certain period of time. 5 (Fig. 5), the direction of gravity detected by the robot is stable (that is, the posture of the robot 80 is stable). Third, the actual measurement of the robot 80 is performed on a plurality of parts near the floor surface. It is necessary to satisfy the three conditions that the same can be said for the height of the center of gravity. Is determined to be in the release state.
  • the detection processing of the release of the lifting state and the lifting state is performed under the control of the main controller 81 shown in FIG. 5 which controls the operation of the robot 80 as a whole.
  • the lifting state detection processing procedure RT4 shown in FIG. 16 or the lifting state release detection processing procedure RT5 shown in FIG. 16 is performed.
  • step SP3 of the first lifting control processing procedure RT1 the main control unit 81 executes the lifting state detection processing procedure RT4 shown in FIG. 16 in step SP30.
  • step SP31 the robot 80 is controlled based on the value of the acceleration detection signal S2B from the acceleration sensor 65 acquired in step SP1 of the first lift control processing procedure RT1 (FIG. 6). Judge whether the posture is stable.
  • step SP31 If a negative result is obtained in step SP31, the main control unit 81 proceeds to step SP38, determines that the robot 80 is not currently in the lifting state, proceeds to step SP39, and performs this lifting state detection processing procedure RT4 Then, the process returns to step SP1 of the first lifting control processing procedure RT1.
  • step SP31 the main control unit 81 proceeds to step SP32, and obtains the result in step SP1 of the first lifting control processing procedure RT1 (FIG. 6).
  • the direction of gravity is detected based on the value of the acceleration detection signal S 2 B from the acceleration sensor 65 obtained.
  • the main control Takashi 158 1 proceeds to step SP 33 Thereafter, on the basis of the target angle of each current ⁇ click Chiyue Isseki Ai ⁇ A 17, a target attitude of Robodzuto 80 at that time, the target posture
  • the target height of the center of gravity at the time is calculated based on forward kinematics. More specifically, the main control unit 81 sets the target angles of the joint angles of the joint mechanisms between the center of gravity of the robot 80 and the ground contact point at the time of the target posture to be 0 rl or more, respectively, and uses these in order.
  • L r L (, (1)
  • step SP 34 the angle detection signal S from the first DAKI AGE up control processing procedures RT 1 (FIG. 6) in step SP 1 each potentiometer one evening Pi ⁇ P 17 obtained in based on the current angle of the output shaft of the 2 DS 2 corresponding obtained based on D 17 Akuchiyue Isseki a 1 to a 17, and the current robot Bok 8 0 position, with the current actual height of the center of gravity Lm order Calculated based on kinematics.
  • the main control unit 50 sets the current measured values of the joint angles of the respective joint mechanisms between the robot's center of gravity and the ground contact portion as 0 ml to 6> mn , respectively, as follows:
  • the main control unit 50 calculates the measured center-of-gravity height Lm with respect to a plurality of parts that are in contact with the ground in that posture, for example, the left and right soles in a standing posture as shown in FIG. If the posture is on all fours, calculation is performed for both hands and soles.
  • step SP35 determines whether or not all the measured center-of-gravity heights Lm calculated in step SP44 are larger than the target center-of-gravity height Lr.
  • obtaining a negative result in step SP35 means that the measured center-of-gravity height Lm is smaller than the target center-of-gravity height Lr, that is, the target posture at that time as shown in FIGS. 14 (A) and 15 (A).
  • the current posture of the robot 80 is This means that it can be determined that the robot is in the posture in the ground contact state as shown in Fig. 15 (C) (hereinafter referred to as the floor contact state posture).
  • step SP38 determines that the robot 80 is not currently in the lifting state, and then proceeds to step SP39 to end the lifting state detection processing procedure RT4. Thereafter, the process returns to step SP1 of the first lifting control processing procedure R1 (FIG. 6).
  • step SP35 means that the measured center-of-gravity height Lm is larger than the target center-of-gravity height Lr, that is, the target posture at that time as shown in FIGS. 14 (A) and 15 (A).
  • it means that it can be determined that the current posture of the robot 80 is in a floating state (hereinafter, referred to as a floating state) as shown in FIG. 14 (B) and FIG. 15 (B).
  • step SP36 determines whether or not the state where the actually measured center-of-gravity height Lm is greater than the target center-of-gravity height Lr has continued for a predetermined period of time, and determines a negative result. If obtained, the process proceeds to step SP38, where it is determined that the robot 80 is not currently in the lifting state. Then, the main controller 81 proceeds to step SP39 to end the lifting state detection processing procedure RT4, and thereafter returns to step SP1 of the first lifting control processing procedure RT1 (FIG. 6). .
  • step SP36 the main control unit 81 proceeds to step SP37, determines that the robot 80 is currently in the lifting state, and then proceeds to step SP39 to perform the lifting state detection processing.
  • the procedure RT4 is ended, and thereafter, the process proceeds to step SP4 of the first lifting control processing procedure RT1 (FIG. 6).
  • step SP7 of the first lifting control processing procedure RT1 the main control unit 81 starts the lifting state release detection processing procedure RT5 shown in FIG. 17 in step SP40, and then proceeds to step SP41.
  • -Lifting state detection of step SP44 Processing procedure Performs the same processing as stipulation SP31-step SP34 of HT4 (Fig. 16).
  • step SP45 the main control unit 81 proceeds to step SP45, and proceeds to step SP45. It is determined whether or not the measured center-of-gravity height Lm calculated in 44 is smaller than the target center-of-gravity height Lr calculated in step SP43.
  • obtaining a negative result in step SP45 means that the measured center of gravity height Lm is larger than the target center of gravity height Lr, that is, the target posture at that time as shown in FIGS. 14 (A) and 15 (A). On the other hand, this means that it can be determined that the current posture of the robot 80 is in the floating posture as shown in FIG. 14 (B) and FIG. 14 (B).
  • step SP48 determines that the robot 80 has not yet been released from the raised state, and then proceeds to step SP49 to perform this raised state release detection processing.
  • the procedure RT5 is completed, and thereafter, the procedure returns to step SP7 of the first lifting control procedure RT1 (FIG. 6).
  • step SP45 means that the measured center-of-gravity height Lm is smaller than the target center-of-gravity height Lr, that is, the target posture at that time as shown in FIGS. 14 (A) and 15 (A).
  • the current robot posture is shown in Fig. 14 (C) and Fig. 1
  • the main control unit 81 proceeds to step SP46, and determines whether or not the state where the actually measured center-of-gravity height Lm is smaller than the target center-of-gravity height Lr has continued for a predetermined period of time. Is obtained, the process proceeds to step SP48, and it is determined that the robot 80 is not currently in the lifted state. Then, the main control unit 81 proceeds to step SP49, ends the lifting state release detection processing procedure RT5, and then proceeds to step SP7 of the first lifting control processing procedure RT1 (FIG. 6). Return.
  • step SP46 the main control unit 81 proceeds to step SP47, determines that the robot 80 is not currently being lifted, and then proceeds to step SP49 to detect this lifting state release.
  • the processing procedure RT5 is ended, and thereafter, the process proceeds to step SP8 of the first lifting control processing procedure RT1 (FIG. 6). In this manner, the main control unit 81 determines whether the lifting state or the lifting state is up. Released This can be detected using the servo deviation.
  • the state where the measured height of the center of gravity is larger than the target height of the center of gravity at that time continues for a certain period of time, the posture of the robot 80 at that time is stabilized, and a plurality of If the same can be said for the height of the measured center of gravity of the robot 80 with respect to the part, it is determined that the robot 80 is currently in the lifted state, and then all current movements are stopped, and the robot is moved to the initial raised posture Then, the lift control operation is performed.
  • the robot 80 keeps the state where the measured gravity center height is smaller than the target gravity center height at that time for a certain period of time, the posture of the robot 80 at that time becomes stable, and furthermore, the robot 80 performs robots for a plurality of parts near the floor surface. If the same can be said for the measured center-of-gravity height of 80, it is determined that the lifted state has been released, and then the current posture is determined, and the state shifts to the standing posture or the sleeping posture. '.,
  • the robot 80 similarly to the robot 70 according to the second embodiment, not only the case where the grip handle 2A is gripped and lifted, but also the portion other than the grip handle 2A is gripped.
  • the robot 70 can move the limbs even when the robot is lifted by gripping other parts than the loop handle 2A. It is possible to prevent the occurrence of user injuries due to this problem effectively and proactively, and to further secure user safety.
  • the robot 80 since a device such as a new sensor for detecting the release of the lifting state or the lifting state is not required, for example, the robot 70 according to the second embodiment is not required.
  • a state in which the measured height of the center of gravity is larger than the target height of the center of gravity at that time is maintained for a certain period of time, and the posture of the robot 80 at that time is maintained. The same can be said for the measured height of the center of gravity of the robot 80 for multiple parts close to the floor surface.
  • the robot 80 is determined to be in the lifted state, then all current movements are stopped, and the robot moves to the initial lifting position, then performs the lifting control operation, while the measured height of the center of gravity is Is smaller than the target center-of-gravity height for a certain period of time, the posture of the robot 80 at that time is stable, and the actual measured center-of-gravity height of the robot 80 for a plurality of parts close to the floor
  • the robot 80 determines that the raised state has been released, and then determines the current posture, and shifts to the standing posture or the sleeping posture.
  • the robot can be constructed to be lighter and smaller than the robot according to the second embodiment, and thus the robot can greatly improve the entertainment property. Can be realized.
  • reference numeral 90 denotes a robot according to the fourth embodiment as a whole.
  • the robot When the robot is raised, its posture is changed to a predetermined posture according to a user's request.
  • the configuration is the same as that of the robot 70 according to the second embodiment except for the points described above.
  • the robot 90 may be held sideways so as to support the lower shoulder and the lower waist.
  • the robot 90 in step SP7 of the first lifting control processing procedure RT1 (FIG. 6), a user's intention to change to the placing posture is indicated by the user.
  • the robot 90 as shown in Fig. 18.
  • the area on the floor surface that is sandwiched or surrounded by positions hereinafter referred to as the planned ground contact area
  • the site to be grounded is determined in advance so that the projection point of the center of gravity G of the robot 90 (hereinafter, referred to as the center of gravity projection point) P ⁇ is located in the AR, and the robot 90 is grounded from that site.
  • moving parts such as the arm unit 5 mm, 5 mm and the leg unit 6 mm, 6 mm are moved.
  • the center of gravity projection point is set by the arm unit 5 ⁇ , 5 ⁇ and the leg unit 6 ⁇ , 6 ⁇ ⁇ due to the structural constraints of the robot 90 and constraints by the user.
  • precise devices such as CCD cameras 60A, 6OB and microphone 61 are densely packed as shown in Fig. 19 (B).
  • the landing unit is selected so that the head unit 4 avoids supporting its own weight and a relatively robust structural unit such as the body unit 2 is grounded.
  • such a placing posture control process is performed under the control of the main control unit 91 shown in FIG. 12 which controls the overall operation of the robot 90, under the control program stored in its internal memory 91A (FIG. 12). This is performed according to the placing posture control processing procedure RT6 shown in FIG.
  • the main control section 91 in step SP7 of the first lifting control processing procedure RT1 (FIG. 6), speaks, for example, “put it down” and the evening sensor 63 arranged on the shoulder.
  • the placing posture control processing procedure RT6 is started in step SP50, and in the following step SP51, the acceleration sensor The direction of gravity is detected based on the acceleration detection signal S 2 B given from FIG.
  • the main control unit 91 selects such a grounding candidate excluding the head unit 4 in which precision devices are densely arranged and other structurally weak parts.
  • step SP54 the main controller 91 proceeds to step SP54, and moves one of the unconstrained joint mechanisms as necessary, thereby projecting the center of gravity using the contact portion candidate selected in step SP53. determining whether it is possible that form the ground plan area AR to include the point P alpha.
  • step SP54 If a negative result is obtained in step SP54, the main control unit 91 returns to step SP53, and after selecting a part near the floor next to the part previously selected as the ground contact candidate as a ground contact candidate, returns to step SP54. Then, using the part previously selected as the ground contact candidate and the part selected as the ground contact candidate at the same time, it is possible to form the ground contact area AR so as to include the center of gravity projection point Pa.
  • step SP54 the loop of steps SP53-SP54-SP53 is repeated until a positive result is obtained in step SP54 while sequentially selecting a portion close to the floor surface which is a candidate for ground contact. repeat.
  • the main control unit 9 it gives a positive result in Sutetsu flop SP 54 that eventually finishes selecting several candidates for forming the ground plan area AR including a gravity center projected point P G inside (site) If, proceed to Sutedzupu SP 55, so as to be able to form the corresponding grounding scheduled region AR, to drive the corresponding Akuchiyue Isseki a ⁇ a 17.
  • each of the arm units 5A and 5A 5B and the chest part of the torso unit 2 are grounded at the same time, and the ground area AR formed by the chest parts of the arm units 5A, 5B and the torso unit 2 at the time of the ground contact
  • Each arm unit 5A, 5B, etc. is driven such that the center of gravity projection point PQ is located inside.
  • the head unit 4 is driven so as to warp backward so that the head unit 4 does not touch the ground when the chest unit of each arm unit 5A, 5B and the body unit 2 touches the chest.
  • step SP56 the acceleration detection signal S 2 B from the acceleration sensor 65 (FIG. 12) and the pressure detection signal S 1 C from the corresponding evening sensor 63 (FIG. 12) Based on the above, it is determined whether or not the robot 90 is in contact with the ground. If a negative result is obtained, the process returns to step SP51, and thereafter, steps SP51 to SP56_SP51 are performed until a positive result is obtained in step SP56. of Repeat the rules.
  • step SP57 the main control unit 91 eventually grounded the robot 90 body based on the acceleration detection signal S 2 B from the acceleration sensor 65 and the corresponding pressure detection signal S 1 C from the evening sensor 63.
  • step SP8 the first lifting control processing procedure: T1 (FIG. 6).
  • the posture of the robot 90 can be changed to a predetermined placing posture according to the posture at that time in accordance with a command from the user. . , (4-2) Operation and effect of this embodiment
  • the robot 9 place depending on the intention of the user to the effect that the transition to the position, selecting the grounded portion as the center of gravity projection point [rho alpha is located within the ground plan area AR, Move the movable parts such as the arm unit 5 mm and 5 mm and the leg unit 6 mm and 6 mm so that they touch the ground.
  • the ground contact area is selected such that the center of gravity projection point is located in the planned ground contact area AR, and the ground is contacted from that position.
  • reference numeral 100 denotes a robot as a whole according to the fifth embodiment.
  • the robot operates so as to stabilize the posture.
  • the configuration is the same as that of the robot 90 according to the fourth embodiment except for the above point.
  • the user when the user lifts the robot 100, the user does not always select the part to be gripped in consideration of the body stability of the robot after lifting.
  • the robot 100 lifts one arm unit 5A as shown in FIG. 21 (A), it grips the tip of this arm unit 5A as shown in FIG. 21 (B).
  • the robot 100 may be lifted, or the robot 100 may be lifted while the body is tilted while holding both shoulders of the robot 100 as shown in FIG.
  • Fig. 21 ( ⁇ ) when one arm unit 5 2 is gripped and lifted, the position of the center of gravity of the robot 10Q and the action point (point gripped by the user) are determined. From the balance, the lifted robot 100 oscillates like a pendulum, and then the robot is in a state where the position of the center of gravity of the robot 100 and the action point are balanced as shown in FIG. 21 (B). The aircraft of 100 will be settled. Further, when the robot 100 is lifted while holding the shoulders while holding both shoulders of the robot 100 as shown in FIG. 23 (A), the robot 100 is settled in that state.
  • the body has an unstable posture.
  • the actuators in each joint mechanism existing between the part restrained by the user and the torso unit 2 at that time When lifted by the user, the actuators in each joint mechanism existing between the part restrained by the user and the torso unit 2 at that time
  • the robot 1 when detecting such a lift, the robot 1 detects all the actuators in the shoulder joint mechanism 15 and the elbow joint mechanism 24 corresponding to the restrained arm unit 5A. evening sufficiently reduce the servo gain of a 5 to a 8.
  • the center of gravity shifts to a stable posture located vertically below the constraint point (action point) with reference to the restricted arm unit 5A.
  • the inclination of the body of the robot 100 changes due to its own weight.
  • both all in the shoulder joint mechanism 1 3 Akuchiyue Isseki A 5 to A 7 sufficiently lower the mono Bogein of.
  • the center of gravity of the robot 100 is positioned vertically below the constraint point (action point) when viewed from the side with the arm units 5A and 5B at the center.
  • the inclination of the body of the mouth boat 100 is changed so as to make a transition to the stable posture.
  • steps SP4 to SP7 of the first lifting control processing procedure RT1 in FIG. It is expected that the robot 100 will immediately place the robot 100 on the floor rather than proceeding to the lifting control process as described above, so it is preferable to immediately proceed to the placing posture control process. Conceivable.
  • the robot 100 when it is detected that the body is lifted in an unstable posture, as shown in FIG. 22 (B) or FIG. 23 (B), for example, 20 so that the (action point) and the center of gravity G of the robot 100 are accommodated in the space on the groundable area AR (FIGS. 18 and 19) described above with reference to FIGS.
  • the above-mentioned placement posture control processing is executed, so that even if the vehicle is immediately placed on the floor FL, it can be grounded in a stable posture. Have been.
  • Such a lift control process of the robot 100 is stored in its internal memory 101A (FIG. 12) under the control of the main control unit 101 shown in FIG. 12, which controls the operation of the entire robot 100. 24 is performed according to the second lift control processing procedure RT7 shown in FIG.
  • the main control section 101 starts the second lifting control processing procedure RT7 in step SP60, and proceeds to steps SP61 to SP63 in FIG. Is performed in the same manner as in steps SP1 to SP3 of the first lifting control processing procedure RT1 described above.
  • the main control unit 101 obtains a positive result at step SP 63, the routine proceeds to step SP 64, on the basis of a force detection signal S 1 Di ⁇ S 1 D 17 supplied from each of the force sensors FS i ⁇ FS 17 Identify the part (restricted part) restricted by the user.
  • step SP65 at which time the And orientation of the current Robodzuto 100 to be recognized on the basis of (12) angle is supplied from the detection signal S 2Di ⁇ S 2 D 17, the acceleration detecting signal S 2 B supplied from the acceleration sensor 65 (FIG. 12) It is determined whether or not the robot 100 is currently in an unstable posture based on the results of recognition of the direction of gravity recognized based on the position and the part restricted by the user specified in step SP64. If the control unit 101 obtains a negative result in step SP65, it proceeds to step SP66, and thereafter executes step SP66 to step SP70 in step SP4 of the first lifting control processing procedure RT1 described above with reference to FIG. To Step SP Process in the same way as SP8.
  • step SP65 the main control unit 101 proceeds to step SP71, and proceeds from the portion restricted by the user specified in step SP64 to the body unit 2.
  • All articulated machines in Reduce the servo gain of all factories Ai A7 in the building to a sufficiently small value (for example, “0” or a predetermined value close to this value).
  • step SP72 the center of gravity is set in the ground contact area AR (FIGS. 18 and 19). projection point; select ground sites as P G (FIG. 1 8 and 1 9) is located, is varied as required its own attitude to ground from the site.
  • step SP69 executes step SP69 and step SP70 in the first lifting control processing procedure RT1 described above with reference to FIG. The processing is performed in the same manner as in step SP7 and step SP8.
  • the main control unit 101 performs the lifting control process when the robot 100 is lifted in an unstable posture.
  • the robot 100 performs the posture control process such that the constraint point (action point) and the center of gravity G of the robot 100 are stored in the space on the groundable area AR.
  • the robot can be touched down in a stable posture, and the fall after touchdown can be prevented effectively and effectively, and usually performed by humans.
  • the joint mechanisms existing between the part restrained by the user and the body unit 2 at that time are located in the joint mechanisms.
  • Support for A to A 7 The gain was sufficiently reduced, and immediately after that, the posture control process was executed to prevent the robot 10 from being damaged due to such lifting. The burden on the user who lifts the zero can be effectively reduced, and a robot that can improve the entertaining property can be realized.
  • the posture control process is executed so that the constraint point (action point) and the center of gravity G of the robot 100 are stored in the space on the groundable area AR.
  • the constraint point action point
  • the center of gravity G of the robot 100 are stored in the space on the groundable area AR.
  • the present invention connects a plurality of leg units 6A and 6B each having a multi-stage joint mechanism to the body unit 2.
  • the present invention has been described in connection with the case where the present invention is applied to the robots 1, 70, 80, 90, and 100 described above.
  • the present invention is not limited to this, and is widely applied to various other robot devices. be able to ..
  • the sensor means for detecting the external and / or internal state the grip switch (gripping sensor) 63 G provided on the grip handle (gripping part) 2 A, and the foot switch 32 provided on the foot part work piece 32 are provided.
  • the sole force sensors 63 L, 63 and the acceleration sensor 65 described above have been described, the present invention is not limited to this, and the user is held up or lifted up by the user's arm. As long as it can be used to determine whether or not there is, it may be widely applied to various other sensor means.
  • the external and / or internal state Therefore, after judging whether it is in the state of being lifted or lifted, based on the judgment result, the operation of the hip joint mechanism 36, the knee joint mechanism 38, and the ankle joint mechanism 4, 1 as Akuchiyue Isseki control means for controlling the (drive system) a i ⁇ A 1 7 so as to stop the, it has dealt with the case where the so that to apply the main controller 5 0 provided in the body portion Yunitto 2
  • the present invention is not limited to this, and may be widely applied to control means having various other configurations.
  • each joint mechanism may include a neck joint mechanism 13 in the neck 3 and a shoulder joint mechanism 20 and an elbow joint mechanism 24 in each of the arm units 5A and 5B.
  • the main control unit 50 as the control means determines whether or not the user is in the lifted state or the lifted state, and determines whether the neck joint mechanism unit 13, the shoulder joint mechanism unit 20 and the elbow are present.
  • Akuchiyue Isseki may be controlled (driving system) a i ⁇ A 1 7.
  • the main control unit 50 as control means, when being held by the user's arm, imitates the posture of each leg unit 6A, 6B with respect to the arm. so that it, dealt with the case of controlling the hip joint mechanism unit 3 6, the knee joint mechanism 3 8 and Akuchiyue operating the ankle joint mechanism 4 1 Isseki (drive system) a i ⁇ A 1 7
  • the present invention is not limited to this. In short, if the user can have a reaction close to that of lifting a human child when held in a state of being lifted by the arm of the user, In addition, various control methods may be adopted.
  • each joint mechanism may include a neck joint mechanism 13 in the neck 3 and a shoulder joint mechanism 20 and an elbow joint mechanism 24 in each of the arm units 5A and 5B.
  • the main control unit 50 as a control means, when being held by the user's arm, causes the posture of the neck 3 and each of the arm units 5A and 5B to follow the arm.
  • the neck joint mechanism 1 3, shoulder joint mechanism 2 0 and elbow joint mechanism 2 4 Akuchiyue operating Isseki (drive system) may be controlled a to a 1 7.
  • the main control unit 50 as a control unit includes: W
  • each of the joint mechanisms may include a neck joint mechanism 13 in the neck 3 and a shoulder joint mechanism 20 and an elbow joint mechanism 24 in each of the arm units 5A and 5B.
  • the main control unit 50 as the control means includes the neck joint mechanism unit 13 corresponding to the neck unit 3 and the arm unit units 5A and 5B when the body unit 2 is in the sideways position while being lifted. While controlling the Akeuchie (drive system) Ai A 17 so that the shoulder joint mechanism 20 and the elbow joint mechanism 24 are soft, the neck 3 and each arm unit when the body unit 2 is in the vertical orientation. Actuate Yue (driveline) controls Ai A 17 so that the neck joint mechanism 13, shoulder joint mechanism 20, and elbow joint mechanism 24 corresponding to 5A5B become stiff.
  • the main control unit 50 as a control unit sets the degree of follow-up of the hip joint mechanism unit 36, the knee joint mechanism unit 38, and the ankle joint mechanism unit 41, and If the deviation occurs in the posture of each leg units 6 a 6B in response to, in accordance with the control amount obtained by adding the degree of follow-up to the deviation Akuchiyue Isseki (drive system) pseudo compliance control to control the Ai a 17
  • the present invention is not limited to this, but the point is that when the user is in a state of being lifted up by the user's arm, a reaction similar to that of lifting up a human child to the user is obtained. If possible, various other control methods may be adopted.
  • each joint mechanism may include a neck joint mechanism 13 in the neck 3 and a shoulder joint mechanism 20 and an elbow joint mechanism 24 in each of the arm units 5A and 5B.
  • the main control unit 50 as the control means sets the degree of follow-up of the neck joint mechanism unit 13, the shoulder joint mechanism unit 20 and the elbow joint mechanism unit 24, and sets the state of being lifted up.
  • neck. parts 3 and Kakuude unit Yunitto 5 a, 5 if the deviation of the attitude of B occurs, in accordance with the control amount obtained by adding the degree of follow-up to the deviation Akuchiyue Isseki (drive system) a i ⁇ A 1 7 Should be controlled.
  • the main control unit 50 as control means determines the posture of the body unit 2 when the state of being lifted up or lifted by the user's arm is released. Then, according to the result of the determination, the actuating mechanism (drive system) A i ⁇ for operating the hip joint mechanism 36, the knee joint mechanism 38, and the ankle joint mechanism 41 corresponding to each leg unit 6A 6B. .A has been described, but the present invention is not limited to this, and the point is to ensure the safety after the user C is lifted or lifted by the arm. Various other control methods may be adopted as long as the natural appearance can be expressed.
  • each joint mechanism may include a neck joint mechanism 13 in the neck 3 and a shoulder joint mechanism 20 and an elbow joint mechanism 24 in each of the arm units 5A and 5B.
  • the main control unit 50 as control means determines the posture of the body unit 2 when the state of being lifted or lifted by the user's arm is released, and the neck unit is determined according to the determination result.
  • 3 and arm units 5 a, 5 neck joint mechanism unit 1 3 corresponding to B, the shoulder joint mechanism 2 0 and elbow joint mechanism 2 4 Akuchiyue operating Isseki (drive system) a i ⁇ A 1 7 can be controlled.
  • the action point at which an external force acts on the robot 100 and the center of gravity G of the robot 100 are detected, and a part of the robot 100 is in contact with the floor surface. Is calculated such that when the robot 100 is released from the floor by an external force, the action point and the center of gravity G are stored in the space above the ground contact area AR.
  • the present invention is not limited to this, but detects a ZMP (Zero Moment Point) instead of the center of gravity G, and when the robot 100 is released from the bed by an external force, Attitude control processing may be performed such that the action point and the center of gravity G are stored in the space above the ground contact area AR.
  • the present invention can be widely applied to various types of robot devices in addition to humanoid robots.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本発明は、エンターテインメント性を格段と向上し得るロボット装置及びその制御方法を実現するものである。胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボット装置及びその制御方法において、外部及び又は内部の状態を検知した後、当該検知された外部及び又は内部の状態が、ユーザの腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断し、当該判断結果に基づいて、各関節機構の動作を停止させるように駆動系を制御するようにした。

Description

ロボット装置及びその制御方法 技術分野
本発明はロボット装置及びその制御方法に関し、 例えばヒュ一マノィ ド型の口 ボットに適用して好適なものである。
背景技術 田
近年、 2足歩行型のヒユーマノィ ド型のロボットが多くの企業等において開発 され、 商品化されている。 そしてこのようなロボットの中には、 CCD ( . Char e Coupled D e v i c e ) カメラやマイクロホン等の各種 外部センサが搭載され、 'これら外部センサの出力に基づいて外部状況を認識し、 認識結果に基づいて自律的に行動し得るようになされたものなどもある。 ' また最近に至っては、 自律型のヒュ一マノィ ド型ロボットのうちの比較的小型 のものについて、 ユーザに抱き上げられたときに、 その抱上げ状態を検出し、 当 該検出結果に応じて、 自己の姿勢をユーザが抱き易いと考えられる所定姿勢 (以 下、 これを抱上げ姿勢と呼ぶ) に移行させたり、 体全体を脱力させる機能を備え たものも提案されている。 発明の開示
しかしながら、 図 25 (A) に示すように、 上述のようにロボット RBが自己 の姿勢を所定の抱上げ姿勢に移行させたとしても、 関節部分が硬い状態のままで はロボット RBの重心の偏り等のためにユーザに抱き難さを感じさせ (図 25 ( B) )、 逆にロボット RBを脱力状態にして関節部分を柔らかい状態にし過ぎて もユーザの腕の中での据わりが悪いため抱き難さを感じさせる (図 25 (C) ) 問題がある。 またユーザは、 ロボット R Bを持ち上げて腕の中に収めた抱き上げた状態にお いて、 あたかもぬいぐるみのように、 そのロボット R Bの姿勢を自分の手で様々 な姿勢に変化させたいと思うとも考えられる。 そのためにはロボット R Bを完全 に脱力状態にさせる必要があるが、 このようにすると各種ァクチユエ一夕に逆起 電力を発生させるといったハードウェア的な弊害をもたらす問題がある。
そこで、 各関節を若干柔らかくしながらも一定の硬さを保ち、 かつユーザの抱 き方に対して倣うような制御をロボットにかけるようにすれば、 ロボットの抱き 心地を人間の子供を抱き上げたときの抱き心地と近いものとすることができ、 ま た各種ァクチユエ一夕に逆起電力を発生させるといったハードウエア的な弊害を 有効に防止し得るものと考えられる。 '
一方、 上述のような抱上げ制御機能が搭載されたロボットにおいては、 ユーザ に抱き上げられたこと確実に検出するための仕組みが必要となる。 例えばロボッ トがユーザに抱き上げられた場合にこれを検知できず、 床面上に置かれた状態と 同様に稼働していると、 関節部分にユーザの指を挟んだり、 ロボットの手足がュ —ザにぶっかるなどして、 ユーザに思わぬ怪我を負わせることにもなりかねない さらにこのようにユーザにより抱き上げられることを前提としたロボットでは 、 抱き上げられた状態でのロボットの姿勢や状態のみならず、 床面に下ろされる 際のロボットの機体の姿勢や状態についても考慮する必要がある。
実際上、 床面に下ろされる直前や下ろされた後もかかる抱 :げ姿勢や脱力状態 が維持されるようでは、 抱き下ろす際のロボットの取り扱いが面倒であり、 また ヒユーマノィ ド型でありながら生物感のない不自然さをユーザに感じさせること により、 エンターティンメントロボヅトとしてのェン夕一ティンメント性を損な う問題がある。 - また上述のような抱上げ姿勢や脱力状態はロボットにとつて不安定な姿勢や状 態であることから、 接地後にバランスを崩して転倒し、 機体に傷が生じたり、 ま たは収納されたデバイスが破損するといつた事故が生じるおそれもある。 発明の開示
本発明は以上の点を考慮してなされたもので、 エンターティンメント性ゃ安全 性を格段と向上し得るロボット装置及びその制御方法を提案しょうとするもので ある。
かかる課題を解決するため本発明においては、 可動部を有するロボット装置に おいて、 口ポット装置に外力が作用する作用点を検出する作用点検出手段と、 口 ボット装置の重心を検出する重心検出手段と、 ロボット装置の一部が床面と接地 する接地予定領域を算出する接地予定領域算出手段とを設け、 制御手段が、 ロボ ット装置が外力により離床された際に、 駆動手段を制御することにより、 作用点 及び重心を接地予定領域上の空間内に収納されるように可動部を制御するように し/ L o
この結果このロボット装置は、 接地後の転倒を未然かつ有効に防止すると共に 、 通常、 人間が行う接地の際の身構えるかのような動作を発現することができる o
また本発明においては、 可動部を有するロボット装置の制御方法において、 口 ボット装置に外力が作用する作用点及びロボット装置の重心を検出すると共に、 ロボット装置の一部が床面と接地する接地予定領域を算出する第 1のステップと
、 ロボット装置が外力により離床された際に、 作用点及び重心を接地予定領域上 の空間内に収納されるように可動部を制御する第 2のステップとを設けるように. した。
この結果このロボット装置の制御方法によれば、 接地後のロボット装置の転倒 を未然かつ有効に防止すると共に、 通常、 人間が行う接地の際の身構えるかのよ うな動作をロボット装置に発現させることができる。
さらに本発明においては、 可動部を有するロボット装置において、 ロボット装 置の重心を検出する重心検出手段とロボット装置と床面との接地部位を算出する 接地部位算出手段と、 ロボット装置の重心と接地部位との距離を算出する距離算 出手段とを設け、 ロボット装置の重心と接地部位との距離に基づいて抱上げ検出 を行うようにした。
この結果このロボット装置では、 特別なセンサ等を必要とすることなく、 持ち 上げられたことを確実に検知することができ、 かくして持上げ状態時における口 ボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、 ユーザの 安全性を確保することができる。 ,
さらに本発明においては、 可動部を有するロボット装置の制御方法において、 ロボット装置の重心を検出すると共に、 ロボット装置と床面との接地部位を算出 する第 1のステップと、 ロボット装置の重心と接地部位との距離を算出する'第 2 のステップと、 算出した距離に基づいて抱上げ検出を行う第 3のステップとを 設けるようにした。 .
この結果このロボット装置の制御方法によれば、 特別なセンサ等を必要とする ことなく、 持ち上げられたことを確実に検知することができ、 かくして持上げ状 態時におけるロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止 して、 ュ一ザの安全性を確保することができる。
さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚部がそ れそれ連結されたロボット装置において、 外部及び又は内部の状態を検知するセ ンサ手段と、 センサ手段によって検知された外部及び又は内部の状態が、 ユーザ の腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する 状態判断手段と、 状態判断手段による判断結果に基づいて、 各関節機樺の動作を 停止させるように駆動系を制御する制御手段とを設けるようにした。
この結果このロボット装置では、 ユーザによって抱上げられた状態又は持ち上 げられた状態で、 各脚部を動かすことを未然に防止することによって、 ユーザの 安全性を確保することができる。
さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚部がそ れそれ連結されたロボット装置において、 ユーザの腕によって抱上げられた状態 にあるとき、 各脚部の姿勢を腕に対して倣わせるように、 各関節機構を動作させ る駆動系を制御する制御手段を設けるようにした。
この結果このロボット装置では、 ユーザによって抱上げられた状態にあるとき 、 ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることが できる。
さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚部がそ れそれ連結されたロボット装置において、 ュ一ザの腕によって抱上げられた状態 又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、 当該判断 結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御する制御手 段を設けるようにした。
この結果このロボット装置は、 ユーザの腕によって抱上げられた状態又は持ち 上げられた状態が解除された後の安全性の確保や見た目の自然さを表現すること ができる。
さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚部がそ れそれ連結されたロボット装置の制御方法において、 外部及び又は内部の状態を 検知した後、 当該検知された外部及び又は内部の状態が、 ユーザの腕によって抱 上げられた状態又は持ち上げられた状態にあるか否かを判断し、 当該判断結果に 基づいて、 各関節機構の動作を停止させるように駆動系を制御するようにした。 この結果このロボット装置の制御方法では、 ユーザによって抱き上げられた状 態又は持ち上げられた状態で、 各脚部を動かすことを未然に防止することによつ て、 ユーザの安全性を確保することができる。
さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚¾がそ れぞれ連結されたロボット装置の制御方法において、 ユーザによって抱き上げら れた状態にあるとき、 各脚部の姿勢を腕に対して倣わせるように、 各関節機構を 動作させる駆動系を制御するようにした。
この結果このロボヅト装置の制御方法では、 ユーザの腕によって抱上げられた 状態にあるとき、 ユーザに対してあたかも人間の子供を抱上げた時に近い反応を 持たせることができる。 さらに本発明においては、 胴体部に多段階の関節機構を有する複数の脚部がそ れぞれ連結されたロボット装置の制御方法において、 ユーザによって抱き上げら れた状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、 当該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御す るよつにした。 .
この結果このロボット装置の制御方法では、 ユーザによって抱き上げられた状 態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然さを表 現することができる。
本発明によれば、 可動部を有するロボット装置において、 ロボット装置に外力 が作用する作用点を検出する作用点検出手段と、 ロボット装置の重心を検出する 重心検出手段と、 ロボット装置の一部が床面と接地する接地予定領域を算出する 接地予定領域算出手段とを設け、 制御手段が、 ロボット装置が外力により離床さ れた際に、 駆動手段を制御することにより、 作用点及び重心を接地予定領域上の 空間内に収納されるように可動部を制御するようにしたことにより、 接地後の転 倒を未然かつ有効に防止すると共に、 あたかも人間が行うような接地の際に身を 整えるかのような動作を発現することができ、 かくしてエンターテインメント性 を格段と向上し得るロボット装置を実現できる。
また本発明によれば、 可動部を有するロボット装置の制御方法において、 ロボ ツト装置に外力が作用する作用点及びロボット装置の重心を検出すると共に、 口 ボット装置の一部が床面と接地する接地予定領域を算出する第 1のステップと、 ロボット装置が外力により離床された際に、 作用点及び重心を接地予定領域上の 空間内に収納されるように可動部を制御する第 2のステップとを設けるようにし たことにより、 接地後のロボット装置の転倒を未然かつ有効に防止すると共に、 あたかも人間が行うような接地の際に身を整えるかのような動作をロボット装置 に発現させることができ、 かくしてエンターティンメント性を格段と向上し得る ロボット装置の制御方法を実現できる。
さらに本発明によれば、 可動部を有するロボット装置において、 ロボット装置 の重心を検出する重心検出手段とロボヅト装置と床面との接地部位を算出する接 地部位算出手段と、 ロボット装置の重心と接地部位との距離を算出する距離算出 手段とを設け、 ロボット装置の重心と接地部位との距離に基づいて抱上げ検出を
7
行うようにしたことにより、 特別なセンサ等を必要とすることなく、 持ち上げら れたことを確実に検知することができる。 かくするにっき持上げ状態時における ロボット装置の稼働に起因するュ一ザの怪我の発生等を有効に防止して、 ユーザ の安全性を確保することができ、 かくしてエンターテインメント性を格段と向上 し得るロボット装置を実現できる。
さらに本発明においては、 可動部を有するロボット装置の制御方法において、 ロボット装置の重心を検出すると共に、 ロボット装置と床面との接地部位を算出 する第 1のステップと、 ロボット装置の重心と接地部位との距離を算出する第 2 のステップと、 算出した距離に基づいて抱上げ検出を行う第 3のステップとを 設けるようにしたことにより、 特別なセンサ等を必要とすることなく、 持ち上げ られたことを確実に検知することができる。 かくするにつき持上げ状態時におけ るロボット装置の稼働に起因するユーザの怪我の発生等を有効に防止して、 ユー ザの安全性を確保することができ、 かくしてエンターティンメント性を格段と'向 上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボット装置において、 外部及び又は内部の状態を検知するセン サ手段と、 センサ手段によって検知された外部及び又は内部の状態が、 ユーザの 腕によって抱上げられた状態又は持ち上げられた状態にあるか否か ¾判断する状 態判断手段と、 状態判断手段による判断結果に基づいて、 各関節機構の動作を停 止させるように駆動系を制御する制御手段とを設けたことにより、 ュ一ザによつ て抱上げられた状態又は持ち上げられた状態でのユーザの安全性を確保すること ができ、 かくしてエンターテインメント性を格段と向上し得るロボット装置を実 現できる。
さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボット装置において、 ユーザの腕によって抱上げられた状態に あるとき、 各脚部の姿勢を腕に対して倣わせるように、 各関節機構を動作させる 駆動系を制御する制御手段を設けた.ことにより、 ユーザによって抱上げられた状 態にあるときに、 ユーザに対してあたかも人間の子供を抱上げた時に近い反応を 持たせることができ、 かくしてエンターテ ンメント性を格段と向上し得るロボ ヅ ト装置を実現できる。
さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボヅト装置において、 ユーザの腕によって抱上げられた状態又 は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、 当該判断結 果に従って各脚部に対応する各関節機構を動作させる駆動系を制御する制御手段 を設けたことにより、 ユーザの腕によって抱上げられた状態又は持ち上げられた 状態が解除された後の安全性の確保や見た目の自然さを表現することができ、 か くしてエンターテインメント性を格段と向上し得るロボット装置を実現できる。 さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボット装置の制御方法において、 外部及び又は内部の状態を検 知した後、 当該検知された外部及び又は内部の状態が、 ユーザによって抱き上げ られた状態又は持ち上げられた状態にあるか否かを判断し、 当該判断結果に基づ いて、 各関節機構の動作を停止させるように駆動系を制御するようにしたことに より、 ユーザによって抱き上げられた状態又は持ち上げられた状態でのユーザの 安全性を確保することができ、 かくしてエンターテインメント性を格段と向上し 得るロボット装置の制御方法を実現できる。
さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボット装置の制御方法において、 ュ一ザによって抱き上げられ た状態にあるとき、 各脚部の姿勢をユーザの腕に対して倣わせるように、 各関節 機構を動作させる駆動系を制御するようにしたことにより、 ユーザによって抱上 げられた状態にあるときに、 ユーザに対してあたかも人間の子供を抱き上げた時 に近い反応を持たせることができ、 かくしてェン夕一ティンメント性を格段と向 上し得るロボット装置の制御方法を実現できる。
さらに本発明によれば、 胴体部に多段階の関節機構を有する複数の脚部がそれ それ連結されたロボット装置の制御方法において、 ユーザによって抱き上げられ た状態又は持ち上げられた状態が解除されたときの胴体部の姿勢を判断して、 当 該判断結果に従って各脚部に対応する各関節機構を動作させる駆動系を制御する ようにしたことにより、 抱き上げられた状態又は持ち上げられた状態が解除され た後の安全性の確保や見た目の自然さを表現することができ、 かくしてエンター ティンメント性を格段と向上し得るロボヅ ト装置の制御方法を実現できる。 図面の簡単な説明
図 1は、 ロボットの外観構成を示す斜視図である。
図 2は、 ロボットの外観構成を示す斜視図である。
図 3は、 ロボットの外観構成を示す概念図である。
図 4'は、 ロボヅトの内部構成を示すプロック図である。
図 5は、 ロボヅ卜の内部構成を示すプロヅク図である。
図 6は、 第 1の抱上げ制御処理手順の説明に供するフローチヤ一トである。 図 7は、 抱上げ状態検知の説明に供する略線的な概念図である。
図 8は、 擬似コンプライアンス制御処理手順の説明に供するフローチャートで ある。
図 9は、 擬似コンプライアンス制御の説明に供する略線的な概念図である。 図 1 0は、 置き姿勢制御の説明に供する略線的な概念図である。
図 1 1は、 ユーザによるロボットの持ち上げ形態の説明に供する斜視図である 図 1 2は、 ロボットの内部構成を示すブロック図である。
図 1 3は、 持上げ状態検知処 a手順を示すフローチャートである。
図 1 4は、 ロボットの状態による重心位置の違いの説明に供する側面図である 図 1 5は、 ロボットの状態による重心位置の違いの説明 供する側面図である 図 1 6は、 持上げ状態検知処理手順を示すフローチャートである。
図 1 7は、 抱上げ状態解除検知処理手順を示すフローチャートである。
図 1 8は、 置き姿勢制御処理の説明に供する概念図である。
図 1 9は、 置き姿勢制御処理の説明に供する概念図である。
図 2 0は、 置き姿勢制御処理手順を示すフローチャートである。
図 2 1は、 不安定な持上げ姿勢に対する姿勢制御処理の説明に供する正面図で ある。
図 2 2は、 不安定な持上げ姿勢に対する姿勢制御処理の説明に供する正面図で ある。
図 2 3は、 不安定な持上げ姿勢に対する姿勢制御処理の説明に供する側面図で ある。
図 2 4は、 第 2の抱上げ制御処理手順を示すフローチャートである。
図 2 5は、 従来のロボットの抱上げ状態の説明に供する略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。 '
( 1 ) 第 1の実施の形態
( 1 - 1 ) ロボット 1の全体構成
図 1及び図 2において、 1は全体として本実施の形態によるロボットを示し、 胴体部ュニット 2の上部に首部 3を介して頭部ュニット 4が連結されると共に、 当該胴体部ュニヅト 2の上部左右両側面にそれそれ腕部ュニット 5 A、 5 Bが連 結され、 かつ当該胴体部ユニット 2の下部に一対の脚部ユニット 6 A、 6 Bが連 結されることにより構成されている。
この場合、 首部 3は、 図 3に示すように、 首関節ピッチ軸 1 0回り、 首閧節ョ —軸 1 1回り及び首関節ピッチ軸 1 2回りの自由度を有する首関節機構部 1 3に より保持されている。 また頭部ユニット 4は、 この首部 3の先端部に図 3のよう に首部ロール軸 1 4回りの自由度をもって取り付けられている。 これによりこの ロボット 1.においては、 頭部ユニット 4を前後、 左右及び斜めの所望方向に向か せることができるようになされている。
また各腕部ユニット 5 Aは、 図 1及び図 2において明らかなように、 上腕部ブ ロック 1 5、 前腕部プロック 1 6及び手先部プロヅク 1 7の 3つのプロックから 構成され、 上 J3宛部ブロック 1 5の上端部が図 3のように肩ピッチ軸 1 8回り及び 肩ロール軸 1 9回りの自由度を有する肩関節機構部 2 0を介して胴体部ュニット 2に連結されている。
このとき前腕部ブロック 1 6は、 図 3のように上腕部プロヅク 1 5に上腕ョ一 軸 2 1回りの自由度をもって連結されている。 また手先部ブロック 1 7は、 図 3 のように前腕部ブロック 1 6に手首ョ一軸 2 2回りの自由度をもって連結されて いる。 さらに前腕部プロヅク 1 6には、 肘ピッチ軸 2 3回りの自由度を有する肘 関節機構部 2 4が設けられている。
これによりロボット 1においては、 れら腕部ュニット 5 Α、 5 Βを全体とし てほぼ人間の腕部と同様の自由度をもって動かすことができ、 かくして片手を上 げた挨拶や腕部ュニット 5 Α、 5 Βを振り回すダンスなどの当該腕部ュニット 5 Α、 5 Βを用いた各種行動を行い得るようになされている。
さらに手先部ブロック 1 .7の先端部には、 5本の指部 2 5がそれぞれ屈曲及び 伸長自在に取り付けられており、 これによりこれら指部を使って物を摘んだり、 把持することができるようになされている。 . , 他方、 各脚部ユニット 6 Α、 6 Βは、 図 1及び図 2において明らかなように、 大腿部ブロヅク 3 0、 脛部プロヅク 3 1及び足平部プロック 3 2の 3つのブロッ クから構成され、 大腿部ブロック 3 0の上端部が図 3のように股関節ョ'一軸 3 3 回り、 股関節ロール軸 3 4回り及び股関節ピッチ軸 3 5回りの自由度を有する股 関節機構.部 3 6を介して胴体部ュニヅト 2に連結されている。
このとき大腿部プロヅク 3 0及び脛部ブロック 3 1は、 図 3のように脛ピッチ 軸 3 7回りの自由度を有する膝関節機構部 3 8を介して連結されると共に、 脛ブ ロック 3 1及び足平ブロック 3 2は、 図 3のように足首ピッチ軸 3 9回り及び足 首ロール軸 4 0回りの自由度を有する足首関節機構部 4 1を介して連結されてい る。
これによりロボット 1においては、 これら脚部ユニット 6 A、 6 Bを人間の脚 部とほぼ同様の自由度をもって動かすことができ、 かくして歩行やボールを蹴る などの脚部ュニヅト 6 A、 6 Bを用いた各種行動を行い得るようになされている o
さらに胴体部ュニット 2の後側上部には、 首部 3を囲むようにグリップハンド ル 2 Aが設けられており、 かくしてユーザがこのグリヅプハンドル 2 Aを手掛か りとして、 ロボット 1全体を持ち上げることができるようになされている。 なおこのロボット 1の場合、 各股関節機構部 3 6は、 図 3のように体幹ロール 軸 4 2回り及び体幹ピツチ軸 4 3回りの自由度を有する腰関節機構部 4 4により 支持されており、 これにより胴体部ユニット 2を前後、 左右方向に自在に傾かせ ることもできるようになされている。
ここでロボット 1においては、 上述のように頭部ュニヅト 4、 各腕部ュニヅト 5 A、 5 B、 各脚部ユニット 6 A、 6 B及び胴体部ユニット.2を動かすための動 力源として、 図 4に示すように、 首関節機構部 1 3及び肩関節機構部 2 0等の各 関節機構部を含む各自由度を有する部位に、 それぞれその自由度数分のァクチュ ェ一夕 A i〜 A i 7が配設されている。
また胴体部ュニット 2には、 当該ロボット 1全体の動作制御を司るメイン制御 部 5 0と、 電源回路及び通信回路などの周辺回路 5 1と、 バヅテリ 5 2 (図 5 ) となどが収納されると共に、 各構成ユニット (胴体部ユニット 2、 頭部ユニット 4、 各腕部ユニット 5 A、 5 B及び各脚部ユニット 6 A、 6 B ) 内には、 それそ れメイン制御部 5 0と電気的に接続されたサブ制御部 5 3 A〜5 3 Dが収納され ている。
さらに頭部ュニヅト 4には、 図 5に示すように、 このロボヅト 1の 「目 I とし て機能する一対の CCD (Charge Coupled Device) カメ ラ 60A、 60B及び 「耳」 として機能するマイクロホン 61などの各種外部セ ンサと、 「口」 として機能するスピーカ 62となどがそれそれ所定位置に配設さ れている。 · また各脚部ュニット 6 A、 6 Bにおける足平部ブロック 32の裏面や、 グリッ プハンドル 2 Aの把持部分等の各所定部位 は外部センサとしての夕ツチセンサ 63が配設されている。 なお、 以下においては、 各脚分ユニット 6 A、 6Bにお ける足平部プロック 32の裏面に設けられた夕ツチセンサ 63を足底力センサ 6 3L、 63 Rと呼び、 グリップハンドル 2 Aの把持部分に設けられたタクトスィ ツチでなる夕ツチセンサ 63をグリップスィツチ 63 Gと呼ぶものとする。 さらに胴体部ュニヅト 2内には、 バヅテリセンサ 64及び加速度センサ 65な どの各種内部センサが配設されると共に、 各構成ユニット内には、 それぞれ各ァ _クチユエ一夕 A丄〜 A i 7にそれそれ対応させて、 対応するァクチユエ一夕 A i〜 A j 7の出力軸の回転角度を検出する内部センサとしてのポテンショメ一夕 Pi〜 P17が設けられている。
そして各 CCDカメラ 60A、 60Bは、 周囲の状況を撮像し、 得られた画像 信号 S 1 Aをサブ制御部 53 B (図 5において図示せず) を介してメイン制御部 50に送出する一方、 マイクロホン 61は、 各種外部音を集音し、 かくして得ら れた音声信号 S 1Bをサブ制御部 53Bを介してメイン制御部 50に送出する。 また各夕ツチセンサ 63は、 ユーザからの物理的な働きかけや、 外部との物理的 .な接触を検出し、 検出結果を圧力検出信号 S 1 Cとして対応するサブ制御部 53 A〜53D (図 5において図示せず) を介してメイン制御部 50に送出する。 さらにバッテリセンサ 64は、 バッテリ 52のエネルギ残量を所定周期で検出 し、 検出結果をバッテリ残量信号 S 2Aとしてメイン制御部 50に送出する一方 、 加速度センサ 65は、 3軸 (X軸、 y軸及び z軸) の加速度を所定周期で検出 し、 検出結果を加速度検出信号 S 2Bとしてメイン制御部 50に送出する。 また 各ポテンショメ一夕 P i〜P 17は、 対応するァクチユエ一夕 A i〜 A 7の出力軸 の回転角度を検出し、 検出結果を所定周期で角度検出信号 S 2 C i S 2 C 1 7と して対応するサブ制御部 5 3 A〜5 3 Dを介してメイン制御部 5 0に送出する。 メイン制御部 5 0は、 C C Dカメラ 6 0 A、 6 O B、 マイクロホン 6 1及び各 夕ツチセンサ 6 3等の各種外部センサからそれぞれ供給される画像信号 S 1 A、 音声信号 S 1 B及び圧力検出信号 S 1 C等の外部センサ信号 S 1と、 バッテリセ ンサ 6 4、 加速度センサ 6 5及び各ポテンショメータ P i〜P 1 7等の各種内部セ ンサからそれぞれ供給されるエネルギ残量信号 S 2 A、 加速度検出信号 S 2 B及 び各角度検出信号 S 2 (^〜 2 C 1 7等の内部センサ信号 S 2とに基づいて、 口 ボット 1の外部及び内部の状況や、 ュ一ザの物理的な働きかけの有無等を判断す る。
そしてメイン制御部 5 0は、 この判断結果と、 予め内部メモリ 5 O Aに格納さ れている制御プログラムと、 そのとき装填されている外部メモリ 6 6に格納され ている各種制御パラメ一夕となどに基づいて続くロボット 1の行動を決定し、 当 該決定結果に基づく制御コマンドを対応するサブ制御部 5 3 A〜5 3 D (図 4 ) に送出する。
この結果、 この制御コマンドに基づき、 そのサブ制御部 5 3 A〜 5 3 Dの制御 のもとに、 対応するァクチユエ一夕 A i〜A 1 7が駆動され、 かくして頭部ュニヅ ト 4を上下左右に揺動させたり、 腕部ユニット 5 A、 5 Bを上に上げたり、 歩行 するなどの各種行動が.ロボヅト 1により発現される。
このようにしてこのロボヅト 1においては、 外部及び内部の状況等に基づいて 自律的に行動することができるようになされている。
( 1— 2 ) ロボット 1に搭載された抱上げ制御機能
次に、 このロボツト 1に搭載された抱上げ制御機能について説明する。
このロボット 1には、 あたかも人間の子供を抱上げた時の反応に近い状態であ る最適な抱上げ状態をユーザに提供する機能 (以下、 これを抱上げ制御機能と呼 ぶ) が搭載されている。 そして、 この抱上げ制御機能は、 メイン制御部 5 0が、 内部メモリ 5 O Aに格納された制御プログラムに基づき、 図 6に示す抱上げ制御 機能処理手順 R T 1に従って所定の制御処理を実行することによってロボット 1 により発揮される。
すなわちメイン制御部 5 dは、 ロボット 1のメイン電源が投入されると、 この 抱上げ制御機能処理手順 R T 1をステップ S P 0において開始し、 続くステヅプ S P 1において、 各種外部センサからの外部センサ信号 S 1と、 各種内部センサ からの内部センサ信号 S 2とを取得する。
続いてメイン制御部 5 0は、 ステップ S.P 2に進んで、 これら外部センサ信号 S 1及び内部センサ信号 S 2に基づいて、 現在ロボヅト 1がユーザによって図 2 5 (A) のように抱き上げられた状態 (以下、 これを抱上げ状態と呼ぶ) にある か否かを判断する。 1
ここで、 このステップ S P 2において肯定結果を得ることは、 廐にロボット 1 がユーザにより抱き上げられた抱上げ状態 (又は後述する初期抱上げ姿勢) にあ ることを意味し、 かくしてこのときメイン制御部 5 0は、 ステップ S P 6に進む これに対して、 このステップ S P 2において否定結果を得ることは、 未だロボ ット 1がユーザにより抱き上げられた抱上げ状態にないことを意味し、 かくして このときメイン制御部 5 0は、 ステップ S P 3に進んで、 抱き上げる際の前段階 として、 現在ロボット 1がユーザにより持ち上げられている状態 (以下、 これを 持上げ状態と呼ぶ) にあるか否かを判断する。
そしてメイン制御部 5 0は、 このステップ S P 3において否定結果を得ると、 ステヅプ S P 1に戻り、 この後ステップ S P 2又はステップ S P 3において肯定 結果を得るまでステヅプ S P 1〜ステップ S P 3—ステップ S P 1のループを繰 り返す。
さらにメイン制御部 5 0は、 やがてロボット 1がユーザに持ち上げられること によりステップ S P 3において肯定結果が得られると、 ステップ S P 4に進んで 対応するァクチユエ一夕 A i〜A i 7を制御することにより、 現在のロボヅト 1の 動作を全て停止させる。 またメイン制御部 5 0は、 その後ステヅプ S P 5に進んで、 対応するァクチュ エー夕 A 1〜A 1 7を制御することにより、 ロボット 1の姿勢を予めデフオルトと して設定された所定の抱上げ姿勢 (以下、 これを初期抱上げ姿勢と呼ぶ) に移行 させ、 この後ステップ S P 6に進む。
そしてメイン制御部 5 0は、 このステップ S P 6に進むと、 現在の抱上げ状態 から最適な抱上げ状態を維持するような各種の関節制御 (以下、 これを抱上げ制 御と呼ぶ) 動作を実行し、 この後ステップ S P 7に進んで、 抱上げ状態が解除さ れる (すなわちロボヅ ト 1が床面上に下ろされる) のを待ち受ける。
そしてメイン制御部 5 0は、 やがてロボット 1が床面上に下ろされたことを外 部センサ信号 S 1及び内部センサ信号 S 2に基づき検出することにより、 このス テツプ S P 7において肯定結果を得ると、 ステップ S P 8に進んで、 各ポテンシ ョメ—夕 Ρ ι〜ρ ΐ 7からそれぞれ供給される角度検出信号 S 2 C 1〜S 2 C 1 7 に基づいて、 現在ロボット 1がどのような姿勢にあるかを判断した後、 必要に応 じて対応するァクチユエ一夕 A i A 1 7を制御することによりロボヅ ト 1の姿勢 を所定の立ち姿勢や寝姿勢に移行させる。
さらにメイン制御部 5 0は、 この後ステップ S P 1に戻ってこの後ステップ S P 1〜ステップ S P 8を同様に繰り返し、 やがてロボヅト 1のメイン電源がオフ されるとこの抱上げ制御機能処理手順 R T 1を終了する。
( 1 - 2 - 1 ) 持上げ状態検出処理
ここでメイン制御部 5 0は、 図 6に示す抱上げ制御機能処理手順 R Τ 1におけ るステップ S P 1〜S P 3において、 図 7に示すように、 現在ロボット 1がグリ ップハンドル 2 Aが把持されるようにして持ち上げられている持上げ状態にある ことを検出するため、 現在のロボヅト 1の状態が以下の第 1〜第 3の条件を全て 満たすか否かを常時監視する。
すなわち第 1の条件は、 グリップスイッチ 6 3 Gが圧力を検出している状態 ( オン状態) にあることであり、 ロボヅ ト 1が持ち上げられている最中にあること を明確に把握するためにグリップノヽンドル 2 Aが把持されていることを前提条件 とする。 第 2の条件は、 両方の足底力センサ 6 3 L、 6 3 Rがオフ状態 (すなわ ちセンサ値がほぼ 0 ) であることであり、 ロボヅ ト 1の両方の足平部ブロック 3 2が接地状態にないことも条件とする。
第 3の条件は、 加速度センサ 6 5の検出結果がロボット 1が重力と反対方向 ( 図 7の矢印 a方向) に加速されたことを検知したことであり、 ロボット 1が重力 方向と逆向きの鉛直方向に持ち上げられたことも条件とする。 この第 3の条件は 、 ロボット 1が床等に寝ている状態でも上述の第 1及び第 2の条件を満たす場合 があることから、 これを補完するために必要とされる条件である。
このようにこれら第 1〜第 3の条件を全て満たした場合にのみ、 メイン制御部 5 0は現在ロボット 1が持上げ状態にあると判断して、 即座に後続する処理動作
(すなわちステップ S P 4 ) へ移行する。
( 1 - 2 - 2 ) 持上げ状態検出時の動作
またメイン制御部 5 0は、 図 6に示す抱上げ制御機能処理手順 R T 1における ステップ S P 4では、 現在ロボヅト 1が持上げ状態にあることを検出したときに 、 即座に全ての動作を停止させるように各種ァクチユエ一夕 A i〜A i 7 (図 4 ) の駆動を停止させる。
これによりメイン制御部 5 0は、 ロボット 1が、 ユーザにより持ち上げられて いる状態のときに手足をばたばた動かすことを未然に防止する。 そしてメイン制 御部 5 0は、 その後対応するァクチユエ一夕 A i〜A i 7を制御することにより、 ロボヅト 1の姿勢を初期抱上げ姿勢に遷移させる (ステ、 ブ S P 5 ) 。
( 1 - 2 - 3 ) 定常抱上げ状態での関節制御
さらにメイン制御部 5 0は、 図 6に示す榫上げ制御機能処理手順 R T 1におけ るステップ S P 5では、 デフォルトとしての初期抱上げ姿勢からユーザにとって 常に最適な抱上げ状態を維持できるように抱上げ制御動作を実行する。
この抱上げ制御動作としては、 抱上げ状態のときには、 一般的にロボットが体 を柔らかくして、 ユーザの抱き方に倣うような制御を行った方がユーザにとって も抱き易いと考えられることから、 以下に説明する 3通りの抱上げ制御方法を組 み合わせたものを適用する。
因みに、 ユーザの腕と接触することが想定させる箇所全面に力センサを搭載し ておき、 インピーダンス制御などをかけることによって抱上げ制御動作を実現す ることが理想的であるが、 ロボット 1全体の構成が煩雑になる等の観点から現実 的ではない。 そこで、 かかる 3通りの抱上げ制御方法には、 このような複数の力 センサを使用しない手法が採用されている。
(1-2-3-1) サーボゲイン制御による抱上げ制御方法
ロボヅ.ト 1において、 各ァクチユエ一夕 Ai〜A17 (図 4) のうちユーザによ る抱上げ時に必要なものについてサーボゲインを比較的小さく制御することによ り、 ロボヅト 1の姿勢をユーザの腕に対して倣わすことができる。
但し、 ロボット 1の各関節部分にある程度の硬さを保っていなければユーザの 腕の中で据わりの悪い状態となると共に持ち易さも損ねることとなるため'、 各ァ クチユエ一夕 Ai〜A17の出力トルクや粘性を考慮して、 ロボヅ ト 1の各関節を 若干柔らかくしながらも一定の硬さを保つように各ァクチユエ一夕 A i〜 A 7の 出力トルクを制御する。
(1-2-3-2) 重力に応じた関節ゲイン制御による抱上げ制御方法 ロボヅ ト 1について、 重力方向に対する身体の向きに合わせて、 各関節ゲイン の調整レベルを変化させることにより、 ユーザが抱上げ状態から床等に置き易く することができる。
すなわちロボット 1がユーザの両手で抱きかかえられて横向き状態にあるとき 、 ロボット 1の下半身に関する各関節が柔らかくなるように、 対応する各ァクチ ユエ一夕 〜 ^のゲインを制御する。 一方、 ロボット 1がユーザの片手で持 ち上げられて縦向き状態にあるとき、 ロボット 1の下半身に関する各関節が硬く なるように、 対応する各ァクチユエ一夕 Ai Ai?のゲインを制御する。
このように各ァクチユエ一夕 A i〜 A i 7のゲインを制御することによって、 ュ —ザがロボヅト 1を両手で抱いている (下半身が横向きの) 状態のときは、 ユー ザの抱き易さを重視でき、 片手でロボット 1を持ち上げている (下半身が下向き ) 状態のときは、 ロボット 1を地面に置く際にロボヅト 1の姿勢を安定させて置 き易くなるといった効果を得ることができる。
またこのように各ァクチユエ一夕 A 〜 A i 7のゲインを制御することによって 、 ユーザが両手でロボット 1を抱上げている状態からグリップハンドル 2 Aのみ を把持して片手で持ち上げるようにロボット 1の持ち方を変えた場合に、 ロボッ ト 1の下半身が下向きになったときに当該下半身に関する各関節が硬くなること から、 次第にロボット 1の姿勢が直立状態に戻ってゆき、 再度ロボット 1を地面 に置くことが非常に容易になるという効果をも得ることができる。
( 1 - 2 - 3 - 3 ) 擬似コンプライアンス制御による抱上げ制御方法
ロボヅト 1において、 全身の動きをある姿勢範囲でしか動かせないように一定 の拘束を加えることにより、 抱上げ状態時のロボット 1の姿勢もデザイン対象と することが可能となる。
かかる拘束をロボヅト 1に加えるべく、 図 8に示すような擬似コンプライアン ス制御処理手順 R T 2を実行することにより、 ロボット 1の足先や腕先にユーザ の抱き方によって偏差が生じた場合でも、 当該偏差にロボット 1の各リンクを追 従させることができる。
実際には、 メイン制御部 5 0 (図 4及び図 5 ) は、 第 1の抱上げ制御処理手順 R T 1のステップ S P 6に進むと、 図 8の擬似コンプライアンス制御処理手順を ステップ S P 1 0において開始し、 続くステップ S P 1 1において、 ロボット 1 の各関節の目標角度と、 該当する各ポテンショメ一夕 P i P i 7等による実測角 度とをそれそれ用い、 ダイレクトキネマティクスを適用して、 ロボット 1の足先 や腕^ 6等の目標位置及び計測位置を算出する。
続くステップ S P 1 2において、 メィン制御部 5 0は、 目標位置に対する計測 位置の偏差を求めた後、 当該偏差に対して所定レートを乗算したオフセット量を 当該目標位置に付加するようにして参照位置を算出する。
そしてメイン制御部 5 0は、 この後ステヅプ S P 1 3に進んで、 求めた参照位 置を用いてィンバースキネマティスクを用いて各関節制御量を算出した後、 ステ ップ SP 14に進んで、 求めた関節制御量を対応するァクチユエ一夕八 〜八^ (図 5) に適用し、 この後ステップ SP 1 1に戻って上述と同様の処理を繰り返 す。
これにより ザの抱き方に倣った擬似コンプライアンス制御を実現すること ができ、 この結果としてユーザにあたかもロボヅトが脱力しユーザの抱き方に倣 つているように感じさせることができる。
具体的な例として、 各脚部ユニット 6 A、 6 Bにおいて、 あたかも椅子に座つ た状態から脚を前方 伸ばすようにして足先を上にあげる場合について説明する 。 図 9に示す XYZ座標系において、 各脚部ユニット 6 A、 6Bの股関節機構部 36の股関節ピッチ軸 35、 膝関節機構部 38の脛ピッチ軸 37及び足首関節機 構部 41の足首ピッチ軸 39を Y軸とした X Z平面上に表されることとする。 まず初期抱上げ姿勢での各脚部ュニット 6 A、 6 Bの足平部プロック 32の位 置 (以下、 これを目標足先位置と呼ぶ) Ρρρ3 Υρ, Ζρ) を、 股関節機構 部 36の股関節ピッチ軸 35を中心とした角度 (以下、 .これを目標角度) 0ρ1 .、 膝関節機構部 38の脛ピッチ軸 37を中心とした目標角度 0ρ2、 及び足首関 節機構部 41の足首ピッチ軸 39を中心とした目標角度 θρ3を用いてダイレク トキネマテイクスにより算出する。
続いてこの初期抱上げ姿勢であっても実際にユーザによって抱上げられたとき に外力が加わったとき、 そのときの姿勢での足平部ブロック 32の位置 (以下、 これを実測足先位置と呼ぶ) Pm (Xm, Ym, Zm) を、 股関節機構部 36の股 関節ピッチ軸 35を中心とした角度 (以下、 これを実測角度) 0ml、 膝関節機 構部 38の脛ピッチ軸 37を中心とした実測角度 Θ m2、 及び足首関節機構部 4 1の足首ピッチ軸 39を中心とした実測角度 0m3を用いてダイレクトキネマテ イクスにより算出する。
このとき各脚部ュニヅト 6 A、 6 Bをある姿勢範囲でしか動かせないように一 定の拘束をかけたときの足平部ブロック 32の位置 (以下、 これを参照足先位置 と呼ぶ) Pr (Xr5 Yr5 Zr) は、 目標足先位置 Ppの各要素と、 当該目標足先 位置 Ppに対する実測足先位置 Pmの偏差 Pd ( = pm-pP) の各要素にそれそれ の要素のレート RATE (rx, ryJ r z) 分を乗算したオフセヅト量 ( = Pd XRATE) との和として求められる。'
このレート RATE (rx, ry3 r J は、 股関節機構部 36、 膝関節機構部 38及び足首関節機構部 41の各回転方向のトルクを決定するためのパラメ一夕 であり、 0≤rx≤l、 0≤ry≤l及び 0≤Γζ≤1の範囲で表される。 ; τχ、 r y及び r zが 1に近づくほどトルクが小さく関節部分が柔軟になる一方、 0に 近づくほどトルクが大きく関節部分が強固になる。 例えばレート RATE (rx , ry5 r J = (0. 5, 0. 9, 0. 5) とすると y方向には簡単に動かせ るが、 X方向、 z方向には若干硬い動きとなる。
この参照足先位置 Pr (Xr, Yr, Zr) では、 股関節機構部 36の股関節ピ ツチ軸 35を中心とした角度 (以下、 これを参照目的角度) 0rl、 膝関節機構 部 38の脛ピッチ軸 37を中心とした参照目的角度 ^、 及び足首関節機構部 41の足首ピッチ軸 39を中心とした参照目的角度 Sr3となる。
このようにしてロボット 1が例えば女性的特徴をもつようにしたとき、 レート RATE (rx, ry5 r J = (1, 0, 1) と設定することにより、 y方向の 動きが制限され、 足を開かない (見た目が上品な) 方向にのみ動く制御となる。 因みにレ一ト RATEの成分 rx、 r ys rzを、 それぞれ加速度センサ 65の 出力による関数にしておけば、 ロボッ小 1の姿勢により擬似コンプライアンス制 御の度合いを制御することができる。 例えば対数の関数にしておけば急激に重力 方向の変化により急激に柔らかさを増したりといつた制御が可能となる。
またピッチ軸を中心とした回転方向のみならず、 ロール軸やヨ^"軸を中心とし た回転方向についても上述と同様な擬似コンプライアンス制御を適用することに より、 さらに細かな制御を行うことが可能となる。 加えて、 目標位置を置き姿勢 と同様の位置に設定しておけば、 上述した抱上げ検出時の動作と同様に再度地面 に置きやすいといった利点が得られる。
(1-2-3-4) 置き姿勢制御処理 さらに第 1の抱上げ制御処理手順 R T 1のステップ S P 7において、 メィン制 御部 5 0は、 抱上げ状態が解除されたか否か (ロボット 1が床面上に下ろされた か否か) の判断要因として、 床面に下ろされる際に、 置き姿勢制御処理を実行す ることにより、 床面との接地時に姿勢が不安定になるのを未然に防止する。 この置き姿勢制御処理は、 図 1 0に示すように、 床面 F Lとの接地時に、 グリ ップハンドル 2 A、 ロボット 1全体の重心 G、 足平部プロック 3 2がー直線上に なるように、 ロボット 1の姿勢を遷移させながら、 足底力センサ 6 3 L、 6 3 R に加重が加わったと判断した時点で立ち姿勢へ遷移させる制御である。
ここで上述した擬似コンプライアンス制御において、 目標位置を常に置き姿勢 にしておき、 さらに重力加速度方向にロボット 1の下半身が向いだ場合に、 コン プライアンス制御のパラメ一夕を増減して、 ユーザがロボヅト 1を置く向きに近 づけることにより、 ユーザにとってより一層置き易い姿勢を実現できる。
( 1 - 2 - 4 ) 抱上げ姿勢からの復帰制御
さらに第 1の抱上げ制御処理手順; R T 1のステップ S P 8において、 メィン制 御部 5 0は、 現在の姿勢を判断して、 元の立ち姿勢や寝姿勢へ移行するように姿 勢を復帰させる。
すなわちロボット 1を抱上げ姿勢から通常の立ち姿勢に復帰させるには、 例え ばロボヅト 1が置き姿勢になっていると同時に足底力センサ 6 3 L、 6 3 Rにカロ 重が加わりつつあれば、 今現在抱き下ろし状態であると判断することにより、 口 ボット 1を安全に立ち姿勢に遷移させることができる。
また加速度センサ 6 5の検知結果に基づいて、 ロボヅト 1が重力方向に対して 垂直な状態になっている場合には、 現在ロボット 1は横向きになっていると判断 することができる。 併せてグリップスィヅチ 2 Aがオフ状態になっていることも 条件に加えると現在ロボット 1が床に置かれている状態だと判断することができ 、 ロボット 1を寝姿勢に復帰させることが最善であると判断できる。
なお、 上述のような復帰制御を行う際には、 ロボット 1が姿勢を復帰する際の トリガをュ一ザによってロボット 1の肩部分に配設された夕ツチセンサ 6 3やそ の他の入力デバイスを用いて入力させるようにしておけば、 ユーザがロボット 1 を抱上げている最中に復帰動作が表出してしまうといつた誤動作を未然に回避す ることができる。
( 1— 3 ) 第 1の実施の形態による動作及び効果
以上の構成において、 このロボヅト 1は、 胴体ュニット 2のグリップハンドル 2 Aが把持されたことをグリヅブスィヅチ 6 3 Gにより検知すると共に、 口ボヅ ト 1の両方の足平部ブロック 3 2が接地状態にないことを足底力センサ 6 3 L、 6 3 Rにより検知し、 さらにロボット 1が反重力方向の鉛直方向に持ち上げられ たことを加速度センサ 6 5により検知したときに、 ュ一ザによって抱き上げ (又 は持ち上げ) られた状態にあると認識する。 従って、 ロボッド 1は、 床等に寝て いる状態などのような姿勢であっても確実にユーザによって抱き上げ (又は持ち 上げ) られたことを認識することができる。
そしてロボット 1は、 抱上げ状態を認識したとき、 即座に各種ァクチユエ一夕 A i〜A i 7を駆動停止させて全ての動作を停止させた後、 そのまま初期抱上げ状 態に遷移する。 従って、 このロボット 1においては、 抱上げ状態で手足をばたば た動かすことを未然に防止することができ、 この結果としてュ一ザの安全性を確 保することができる。
さらにロボット 1は、 この初期抱上げ状態からユーザにとって最適な抱上げ状 態を維持するような各種の関節制御による抱上げ制御動作を実行する。 従って、 このロボット 1は、 抱上げ時に体を柔らかくしてユーザの抱き方に対して倣わせ ることができる。
その際ロボット 1は、 ユーザによる抱上げ時に必要な各ァクチユエ一夕 A 1〜 A 1 7についてサ一ボゲインを比較的小さく制御するため、 自己の姿勢をユーザ の腕に対して倣わすことができる。
またロボット 1は、 ユーザの両手で抱上げられて横向き状態にあるときには下 半身に関する各関節が柔らかくなるように各関節ゲインを制御する一方、 縦向き 状態にあるときには下半身に関する各関節が硬くなるように各関節ゲインを制御 するため、 ユーザが両手で抱いている (下半身が横向きの) 状態のときは、 ユー ザの抱き易さを重視する一方、 片手で持ち上げている (下半身が下向き) 状態の ときは、 ユーザが再度地面にロボットを置く際にロボツトの姿勢が安定していて 置き易くなるような、 あたかも人間の子供を抱上げた時に近い反応を持たせるこ とができる。
さらにロボヅ ト 1は、 擬似コンプライアンス制御を実行して、 ロボット 1の足 先や腕先がユーザの抱き方により偏差が生じた場合でも、 当該偏差にロボット 1 の各リンクを追従させるため、 全身の動きをある姿勢範囲でしか動かせないよう に一定の拘束を加えることができ、 この結果、 ユーザによる抱上げ状態の姿勢も 見た目を良くさせることができる。
そしてロボット 1は、 かかる抱上げ制御動作を実行しながら、 抱上げ状態が解 除されたことを認識したときに、 ロボット 1が抱き下ろし状態であるときには安 全な立ち姿勢に復帰し、 又はロボット 1が横向きになっているときには寝姿勢に 復帰させるように、 ί見在の姿勢を判断して元の立ち姿勢や寝姿勢へ移行するよう に姿勢を復帰することから、 抱上げ状態の後の安全性の確保や見た目の自然さを 表出させることができる。 '
以上の構成によれば、 ロボット 1が、 ユーザによって抱上げ状態にされたこと を各種センサの検知結果に基づいて認識したときには、 現在の動作を全て停止き せて初期抱上げ状態に遷移した後、 ユーザにとって最適な抱上げ状態を維持する ような各種の関節制御による抱上げ制御動作を実行する一方、 その後抱上げ状態 が解除されたことを認識したときには、 現在の姿勢に応じた立ち姿勢や寝姿勢へ 遷移するような一連の制御動作を実行するようにしたことにより、 あたかも人間 の子供を抱上げた時の反応.に近い状態である最適な抱上げ状態をユーザに提供す ることができ、 かくしてエンターテインメント性を格段と向上し得るロボヅトを' 実現できる。 ·
( 2 ) 第 2の実施の形態
( 2 - 1 ) 本実施の形態によるロボットの構成 図 1〜図 4において、 7 0は全体として第 2の実施の形態によるロボットを示 し、 グリップハンドル 2 A以外の部位を把持されて持ち上げられた場合において も、 これを検出し得るようになされた点を除いて第 1の実施の形態によるロボッ ト 1と同様に構成されている。
すなわち、 ユーザがロボヅト 7 0を持ち上げる際に必ずグリップハンドル 2 A を把持するとは限らない。 例えば図 1 1 (A) に示すように、 ロボヅ ト 7 0を、 その両肩を把持するようにして持ち上げる場合や、 図 1 1 ( B ) に示すように、 頭部ュニット 4を把持するようにして持ち上げる場合などもあり得る。
この場合、 例えば図 1 1 (A) のように両肩を把持するようにして持ち上げら れた場合や、 図 1 1 ( B ) のように頭部ユニット 4を把持するようにして持ち上 げられた場合など、 ロボット 7 0がグリップハンドル 2 A以外の部位を把持され て持ち上げられた場合には、 その把持された部位と胴体部ュニット 2とを連結す る肩関節機構部 2 0、 首関節機構部 1 3などの対応する関節機構部に、 当該ロボ ット 1の自重を支えるだけの重力と反対方向の力が作用する。
従って、 いずれかの関節機構部に重力と反対方向の所定レベル以上の力が作用 すると共に、 ロボット 7 0に重力と反対方向の加速度が発生し、 かつ各脚部ュニ ット 6 A、 6 Bの足底力センサ 6 3 L、 6 3 Rのいずれもが圧力を検出していな いオフ状態のときには、 ロボヅ ト 7 0が、 当該関節 ¾構部を介して胴体部ュニヅ ト 2と連結された部位を把持されて抱き上げられていると判断することができる o
そこでこのロボット 7 0においては、 図 5との対応部分に同一符号を付した図 1 2に示すように、 各ァクチユエ一夕 A i〜A 1 7にそれぞれ対応させて力センサ F S 〜F S 1 7が設けられ、 いずれかのァクチユエ一夕 A i〜 A 7の出力軸に当 該出力軸と垂直な方向の力が作用したときに、 これを対応する力センサ F 3 〜 F S 1 7によって検出し得るょゔになされている。 また各力センサ F S i〜F S 1 7 は、 かかる力を検出したときには、 これを力検出信号 S l D i〜S 1 D 1 7として 、 このロボット 7 0全体の動作制御を司るメイン制御部 7 1に送出するようにな されている。
そしてメイン制御部 7 1や、 これら力センサ F S i〜F S 1 7からの力検出信号 S' 1 D i〜 S 1 D i 7や加速度センサ 6 5からの加速度検出信号 S 2 Bなどに基づ いてグリップハンドル 2 A以外の部位を把持されて持ち上げられたことを検知し た場合には、 グリップハンドル 2 Aを把持されて持ち上げられた場合と同様'の制 御処理を実行する一方、 かかる把持された部位が構造的に弱い関節機構部を介し て胴体部ュニヅト 2と連結されている場合には、 これを ±めるように警告を発す るようになされている。
このようにこのロボヅト 7 0においては、 グリップハンドル 2 A以外の部位を 把持されて持ち上げられた場合においても、 グリップハンドル 2 Aを把持されて 持ち上げられた場合と同様に動作することで、 持上げ状態時や抱上げ状態時にお いてロボット 7 0が手足を動かすことに起因するユーザの怪我の発生を未然かつ 有効に防止し、 より 層のユーザの安全性を確保することができるようになされ ている。 .
ここで、 このような持上げ状態の検知処理は、 メィン制御部 7 1の制御のもと に、 その内部メモリ 7 1 Aに格納された制御プログラムに基づき、 図 1 3に示す 持上げ状態検知処理手順 R T 3に従って行われる。
実際上、 メイン制御部 7 1は、 第 1の抱上げ制御処理手順 R T 1 (図 6 ) のス テヅプ S P 3に進むと、 この持上げ状態検知処理手順 R T 3をステップ S P 2 0 において開始し、 続くステップ S P 2 1において、 対応する夕ヅチセンサ 6 3か ら供給される圧力検出信号 S 1 Cと、 加速度センサ 6 5から供給される加速度検 出信号 S 2 Bとに基づいて、 現在のロボット 7 0の状態が、 このステップ S P 3 について第 1の実施の形態において上述した、 グリヅプスィツチ 6 3 Gがオン状 態にあるという第 1の条件と、 両方の足底力センサ 6 3 L、 6 3 Rがオフ状態に あるという第 2の条件と、 加速度センサ 6 5が重力と反対方向の加速度を検出し たという第 3の条件との全てを満たしているか否かを判断する。
このステップ S P 2 1において肯定結果を得ることは、 ロボヅト 1がグリップ ハンドル 2 Aを把持されて持ち上げられている状態 (持上げ状態) であることを 意味する。 かくしてこのときメイン制御部 71は、 ステップ SP 25に進んで、 ロボヅト 1が持上げ状態にあると判定した後、 ステップ SP27に進んでこの持 上げ状態検知処理手順 RT 3を終了する。 そしてメイン制御部 71は、 この後第 1の抱上げ制御処理手順 RT 1 (図 6) に戻ってそのステップ SP 4に進み、 こ の後この第 1の抱上げ制御処理手順 R T 1 (図 6 ) のステップ S P 4〜ステヅプ SP 8を上述のように処理する。
これに対してステップ SP 21において否定結果を得ることは、 ロボット 1が グリップハンドル 2 Aを把持されて持ち上げられている状態 (持上げ状態) でな いことを意味する。 かくしてこのときメイン制御部 71は、 ステップ SP 22に 進んで、 対応する夕ツチセンサ 63から供給される圧力検出信号 S 1 Cと、 加速 度センサ 65から供給される加速度検出信号 S 2 Bと、 各力センサ FSi〜FS 17から与えられる力検出信号 S 1 D S 1 D17とに基づいて、 上述の第 2及び 第 3の条件に加えて、 いずれかのァクチユエ一夕 A i〜 A 7の出力軸に当該出力 軸と垂直な方向の力が作用するという第 4の条件の全てを満たすか否かを判断す る
このステップ SP 22において肯定結果を得ることは、 ロボヅト 1がグリヅプ ハンドル 2 A以外の部位を把持されて持ち上げられている状態 (持上げ状態) に あることを意味する。 かくしてこのときメイン制御部 71は、 ステップ SP 23 に進んで、 対応するカセンサ?31〜?317から与ぇられるカ検出信号3 lDi 〜S 1 D 17に基づいて、 そのとき把持されている部位と胴体部ュニヅト 2とを 連結する関節機構部が、 例えば首関節機構部 13などの構造的に負荷に弱い部位 として予め定められている関節機構部であるか否かを判断する。
そしてメイン制御部 71は、 このステップ SP 23において肯定結果を得ると 、 対応する音声信号 S 3 (図 12) をスピーカ 62 (図 12) に送出することに より、 例えば 『そこを持たないで』 、 『降ろして』 といった音声を出力させ、 又 は対応するァクチユエ一夕 A 〜 A 7を駆動させることにより所定の動作をロボ ヅ ト 1に発現させることにより、 ユーザに警告を与える。 そしてメイン制御部 7 1は、 この後ステヅプ SP21に戻る。
これに対してメイン制御部 71は、 ステップ SP23において否定結桌を得る と、 ステップ SP 25に進んで、 ロボヅ ト 1が持ち上げられている状態 (持上げ 状態) であると判定した後、 ステップ SP 27に進んでこの持上げ状態検知処理 手順 RT3を終了する。 そしてメイン制御部 71は、 この後第 1の抱上げ制御処 理手順 RT 1 (図 6) に戻ってそのステップ SP4に進み、 この後この第 1の抱 上げ制御処理手順 RT 1のステップ SP 4〜ステップ SP 8を上述のように処理 する。
なお、 ステップ SP22において否定結果を得ることは、 現在ロボヅト 1が持 ち上げられている状態 (持上げ状態) でないことを意味し、 このときメイン制御 部 71は、 ステップ SP 26に進んで、 ロボヅ ト 1が持上げ状態でないと判定し た後、 ステップ S P 27に進んでこの持上げ状態検知処理手順 R T 3を終了する 。 そしてメイン制御部 71は、 この後第 1の抱上げ制御処理手順 R T 1 (図 6 ) に戻って、 この後この第 1の抱上げ制御処理手順 RT 1のステップ SP 3に戻る o
このようにしてメイン制御部 7 iは、 グリップハンドル 2 A以外の部分が把持 されてロボット 1が持ち上げられた場合においてもこれを確実に検知して、 必要 な制御処理を実行し得るようになされている。
(2-2)本実施の形態の動作及び効果
' 以上の構成において、 ロボット 70は、 両方の足底力センサ 63 L、 63Rが オフ状態にあるという第 2の条件と、 加速度センサ 65が重力と反対方向の加速 度を検出したという第 3の条件と、 いずれかのァクチユエ一夕 A i〜 A i 7の出力 軸に当該出力軸と垂直な方向の外力が作用するという第 4の条件の全てを満たし た場合に持上げ状態であると判断し、 その後現在の動作を全て停止させ、 初期抱 上げ姿勢に移行した後、 抱上げ制御動作を実行する。
従って、 ロボット 70によれば、 グリヅプハンドル 2 Aを把持されて持ち上げ られた場合のみならず、 グリップハンドル 2 A以外の部位を把持されて持ち上げ られた場合にもこれを確実に検知することができ、 その分リヅプハンドル 2 A以 外の部位を把持されて持ち上げられた場合にあっても持上げ状態時や抱上げ状態 時にロボット 7 0が手足を動かすことに起因するユーザの怪我の発生を未然かつ 有効に防止して、 より一層のユーザの安全性を確保することができる。
またこのようにリップハンドル 2 A以外の部位を把持して持ち上げた場合の持 上げ状態時にも第 1の実施の形態において上述した抱上げ制御動作を行い得るよ うにすることで、 リップハンドル 2 Aを把持して持ち上げたとき以外には抱上げ 制御動作が発現されないとする場合と比べて、 より人間の子供を抱上げたときの 感覚に近い感覚をユーザに提供することができる。
以上の構成によれば、 両方の足底力センサ 6 3 L、 6 3 Rがオフ状態にあると いう第 2の条件と、 加速度センサ 6 5が重力と反対方向の加速度を検出したとい1 う第 3の条件と、 いずれかのァクチユエ一夕 A i A i 7の出力軸に当該出力軸と 垂直な方向の外力が作用するという第 4の条件の全てを満たした場合に持ち上げ られたと判断し、 その後現在の動作を全て停止させ、 初期抱上げ姿勢に移行した 後、 抱上げ制御動作を実行するようにしたことにより、 グリップハンドル 2 A以 外の部位を把持されて持ち上げられた場合にもこれを確実に検知することができ る。 かくするにっきリップハンドル 2 A以外の部位を把持されて持ち上げられた 場合の持上げ状態時や抱上げ状態時においても、 より一層のユーザの安全性を確 保しながら、 より人間の子供を抱上げたときの感覚に近い感覚をュ一ザに提供す ることができ、 かくしてエンターテインメント性を格段と向上し得るロボヅトを 実現できる'。
( 3 ) 第 3の実施の形態
( 3 - 1 ) 本実施の形態によるロボットの構成
図 1〜図 4において、 8 0は全体として第 3の実施の形態によるロボヅトを示 し、 持ち上げられたことや、 抱上げ状態が解除された (ロボット 8 0が床面上に 下ろされた) ことをサーボ偏差を利用して検知するようになされた点を除いて第 1の実施の形態によるロボット 1 (図 1〜図 4 ) と同様に構成されている。 すなわち、 通常、 ロボット 1は、 姿勢ごとに各関節機構部の関節角がそれそれ 予め定められており、 動作時には、 各関節機構部の関節角をそれぞれそのとき目 標とする姿勢 (以下、 これを目標姿勢と呼ぶ) について定められた角度となるよ うに各ァクチユエ一夕 A i〜A i 7をそれぞれ制御することによって、 ロボヅト 1 全体としてその目標姿勢をとることができるようになされている。
しかしながら、 ロボット 1が機体の一部を床面に接地させてその部位において 自重をまえている床接地状態のときには、 自重を支える各閧節機構部に当該関節 機構部よりも上側の機体部分の自重が負荷となって与えられる。 このため、 その 関節機構部内の対応するァクチユエ一夕 A 〜 A 7がこの負荷の影響によって、 出力軸の回転角度をそのときの目標姿勢 (例えば図 1 4 (A) や図 1 5 (A) ) について予め定められた角度 (以下、 これを目標角度と呼ぶ) に維持することが できず、 当該ァクチユエ一夕八 〜八^の出力軸の回転角度が目標角度よりも小 さくなるというサ一ボ偏差が発生する。
この結果図 1 4 ( C ) や図 1 5 ( C ) に示すように、 このときロボット 1の自 重を支える関節機構部の関節角が目標姿勢時 (図 1 4 (A) 、 図 1 5 (A) ) に おける関節角よりも小さくなるという現象が生じ、 これにより床接地状態時には 、 ロボヅト 1における床面から離れた任意の部位 (例えばロボヅト 1の重心 G ) から当該ロボヅト 1におけるそのとき床面に近い任意の他の部位 (例えばロボッ ト 1の足裏や手の指先) までの重力方向の距離 H 2が、 その目標姿勢時における 距離 に比べて小さくなる。
一方、 ロボット 1が機体の一部を把持されて持ち上げられた浮遊状態時のとき には、 当該ユーザに把持された部位よりも下側の各関節機構部に、 その関節機構 部よりもさらに下側の機体部分の重量が負荷となって与えられる。 このため、 そ の関節機構部内の対応するァクチユエ一夕 A i〜A i 7がこの負荷の影響によって 、 出力軸の回転角度をそのときの目標姿勢 (図 1 4 (A) 、 図 1 5 (A) ) につ いて予め定められた目標角度に維持することができず、 当該ァクチユエ一夕 A丄 〜A i 7の出力軸の回転角度が目標角度よりも大きくなるというサ一ボ偏差が発 生する。
この結果図 1 4 ( B ) や図 1 5 ( B ) に示すように、 このときロボヅト 1のュ 一ザにより把持された部位よりも下側に位置する関節機構部の関節角が目標姿勢 時における関節角よりも大きくなるという現象が生じ、 これにより持ち上げられ た状態のとき時には、 ロボット 1における床面から離れた任意の部位 (例えば口 ボヅト 1の重心 G ) から当該ロボヅト 1におけるそのとき床面に近い任意の他の 部位 (例えばロボット 1の足裏や手の指先) までの重力方向の距離 H 3が、 その 目標姿勢時における距離 に比べて大きくなる。
そこで、 この箄 3の実施の形態によるロボット 8 0においては、 第 1の抱上げ 制御処理手順 R Τ 1 (図 6 ) のステップ S Ρ 3における持上げ状態の検知処理や ステップ S Ρ 8における抱上げ状態の解除の検知処理を、 そのときの目標姿勢時 におけるロボット 8 0の重心 Gからその目標姿勢のときの接地部位までの重力方 向の距離 (以下、 これを目標重心高さと呼ぶ) と、 現在のロボット 8 0の重心 G から接地部位までの重力方向の距離 (以下、 これを実測重心高さと呼ぶ) とを順 運動学によりそれそれ算出し、 これらの大小を比較するようにして行うようにな されている。
ただしこの場合において、 ユーザによるロボヅト 8 0の持ち上げ又は抱上げ状 態の解除以外の何らかの理由によって、 床面からロボット 8 0の実測重心高さが 目標重心高さよりも小さく又は大きくなっている場合も考えられるため、 誤認識 を避けるための何らかの対応策が必要となる。
そこで、 このロボット 8 0においては、 第 1に、 かかるロボット 8 0の実測重 心高さがそのときの目標重心高さよりも大きい又は小さい状態が一定時間満たさ れること、 第 2に、 加速度センサ 6 5 (図 5 ) により検出される重力方向が静定 している (すなわちロボヅ ド 8 0の姿勢が安定していること) 、 第 3に、 床面に 近い複数の部位に関してロボヅト 8 0の実測重心高さについて同様のことが言え ることの 3つの条件を満たすことを要件として、 上述のような持上げ状態や抱上 げ状態の解除にあると判断するようになされている。
ここで、 このような持上げ状態や抱上げ状態の解除の検知処理は、 このロボッ ト 80全体の動作制 ¾1を司る図 5に示すメイン制御部 8 1の制御のもとに、 その 内部メモリ 8 1 A (図 5) に格納された制御プログラムに基づき、 図 16に示す 持上げ状態検知処理手順 R T 4又は図 1 6に示す抱上げ状態解除検知処理手順 R T 5に従って行われる。
実際上、 メイン制御部 8 1は、 第 1の抱上げ制御処理手順 RT 1 (図 6) のス テヅプ SP 3に進むと、 図 1 6に示す持上げ状態検知処理手順 RT 4をステップ SP 30において開始し、 続くステップ SP 3 1において、 第 1の抱上げ制御処 理手順 RT 1 (図 6) のステップ SP 1において取得した加速度センサ 65から の加速度検出信号 S 2 Bの値に基づいてロボット 80の姿勢が安定しているか否 かを判断する。
そしてメイン制御部 8 1は、 このステップ SP 3 1において否定結果を得ると 、 ステップ SP 38に進んで現在ロボット 80は持上げ状態でないと判定した後 ステヅプ SP 39に進んでこの持上げ状態検知処理手順 RT4を終了し、 この後 第 1の抱上げ制御処理手順 R T 1のステップ S P 1に戻る。
これに対してメイン制御部 8 1は、 ステップ SP 3 1において肯定結果を得る と、 ステヅプ SP 32に進んで、 第 1の抱上げ制御処理手順 RT 1 (図 6) のス テヅプ SP 1において取得した加速度センサ 65からの加速度検出信号 S 2 Bの 値に基づいて重力方向を検出する。
そしてメイン制御孝 158 1は、 この後ステップ SP 33に進んで、 現在の各ァク チユエ一夕 Ai〜A17の目標角度に基づいて、 そのときのロボヅト 80の目標姿 勢と、 当該目標姿勢時における目標重心高さとを順運動学に基づいて算出する。 具体的に、 メイン制御部 8 1は、 目標姿勢時におけるロボット 80の重心から 接地部位までの間にある各関節機構部の関節角の各目標角度をそれぞれ 0r l〜 とし、 これらを利用した順運動学に基づく目標重心高さを求める演算式を L (Θ i) (i = l , 2, ······, η) として、 次式 L r = L ( , (1 )
により、 目標重心高さ Lrを算出する。
さらにメイン制御部 81は、 続くステップ SP 34において、 第 1の抱上げ制 御処理手順 RT 1 (図 6) のステップ SP 1において取得した各ポテンショメ一 夕 Pi〜P17からの角度検出信号 S 2 D S 2 D17に基づき得られる対応する ァクチユエ一夕 A1〜A17の現在の出力軸の角度に基づいて、 現在のロボッ卜 8 0の姿勢と、 現在の実測重心高さ Lmとを順運動学に基づいて算出する。
具体的には、 メイン制御部 50は、 ロボットの重心から接地部位までの間にあ る各関節機構部の関節角の現在の実測値をそれそれ 0ml〜6>mnとして、 次式
Lm=L (0mi, ……, D …… (2)
により、 実測重心高さ Lmを算出する。
この際メイン制御部 50は、 この実測重心高さ Lmを、 その姿勢においてその とき接地している複数の部位、 例えば図 14のような立脚姿勢であれば左右の足 裏に関して、 図 1 5のような四つん這い姿勢であれば両手先及び両足裏に関して それぞれ算出する。
そしてメイン制御部 8 1.は、 この後ステヅプ SP 35に進んで、 ステップ SP 44において算出した全ての実測重心高さ Lmが目標重心高さ L rよりも大きい か否かを判断する。
ここでこのステヅプ SP 35において否定結果を得ることは、 実測重心高さ L mが目標重心高さ Lrよりも小さい、 つまり図 14 (A) や図 15 (A) のよう なそのときの目標姿勢に対して、 現在のロボット 80の姿勢が図 14 (C) や図 15 (C) のような床接地状態時の姿勢 (以下、 これを床接地状態姿勢と呼ぶ) にあると判断できることを意味する。 ·
かくしてこのときメイン制御部 81 'は、 ステップ SP 38に進んで、 現在ロボ ヅト 80は持上げ状態でないと判定した後、 ステップ SP 39に進んでこの持上 げ状態検知処理手順 R T 4を終了し、 この後第 1の抱上げ制御処理手順 R 1 ( 図 6) のステップ SP 1に戻る。
これに対してステップ SP 35において肯定結果を得ることは、 実測重心高さ Lmが目標重心高さ Lrよりも大きい、 つまり図 14 (A) や図 15 (A) のよ うなそのときの目標姿勢に対して、 現在のロボット 80の姿勢が図 14 (B) や 図 15 (B) のような浮遊状態時の姿勢 (以下、 これを浮遊状態姿勢と呼ぶ) に あると判断できることを意味する。
かくしてこのときメイン制御部 81は、 ステップ SP 36に進んで実測重心高 さ Lmが目標重心高さ L rよりも大きい状態が予め定められた一定時間継続した か否かを判断し、 否定結果を得るとステップ SP 38に進んで、 現在ロボット 8 0は持上げ状態でないと判定する。 そしてメイン制御部 81は、 この後ステップ SP 39に進んでこの持上げ状態検知処理手順 R T 4を終了し、 さらにこの後第 1の抱上げ制御処理手順 RT 1 (図 6) のステップ SP 1に戻る。
これに対してメイン制御部 81は、 ステップ SP 36において肯定結果を得る とステヅプ SP 37に進んで、 現在ロボヅト 80は持上げ状態であると判定した 後、 ステヅプ SP 39に進んでこの持上げ状態検知処理手順 RT 4を終了し、 こ の後第 1の抱上げ制御処理手順 RT 1 (図 6) のステップ SP 4に進む。
一方、 メイン制御部 81は、 第 1の抱上げ制御処理手順 RT 1のステップ SP 7に進むと、 図 17に示す抱上げ状態解除検知処理手順 RT5をステップ SP4 0において開始し、 続くステップ S P 41〜ステップ S P 44を持上げ状態検知 処理手順 HT4 (図 16) のスチップ SP31〜ステップ SP34と同様に処理 する。
そしてメイン制御部 81は、 この後ステップ SP45に進んで、 ステヅプ SP 44において算出した実測重心高さ Lmが、 ステップ SP 43において算出した 目標重心高さ L rよりも小さいか否かを判断する。
ここでこのステップ SP45において否定結果を得ることは、 実測重心高さ L mが目標重心高さ Lrよりも大きい、 つまり図 14 (A) や図 15 (A) のよう なそのときの目標姿勢に対して、 現在のロボヅト 80の姿勢が図 14 (B) や図 14 (B) のような浮遊状態姿勢にあると判断できることを意味する。
かくしてこのときメイン制御部 81は、 ステップ SP 48に進んで、 現在ロボ ヅト 80は未だ抱上げ状態が解除されていないと判定した後、.ステップ SP 49 に進んでこの抱上げ状態解除検知処理手順 R T 5を終了し、 この後第 1の抱上げ 制御処理手順 RT 1 (図 6) のステップ SP 7に戻る。
これに対してステップ SP 45において肯定結果を得ることは、 実測重心高さ Lmが目標重心高さ Lrよりも小さい、 つまり図 14 (A) や図 15 (A) のよ うなそのときの目標姿勢に対して、 現在のロボットの姿勢が図 14 (C) や図 1
5 (C) のような床接地状態姿勢にあると判断できることを意味する。
かくしてこのときメイン制御部 81は、 ステップ SP46に進んで、 実測重心 高さ L mが目標重心高さ L rよりも小さい状態が予め定められた一定時間継続し たか否かを判定し、 否定結果を得るとステップ SP48に進んで、 現在ロボット 80は抱上げ状態が解除されていないと判断する。 そしてメイン制御部 81は、 この後ステップ SP 49に進んでこの抱上げ状態解除検知処理手順 RT 5を終了 し、 さらにこの後第 1の抱上げ制御処理手順 RT 1 (図 6) のステップ SP7に 戻る。
これに対してメイン制御部 81は、 ステップ SP 46において肯定結果を得る とステップ SP47に進んで、 現在ロボット 80は抱き上げられていないと判定 した後、 ステップ S P 49に進んでこの抱上げ状態解除検知処理手順 R T 5を終 了し、 この後第 1の抱上げ制御処理手順 RT 1 (図 6) のステヅプ SP 8に進む このようにしてこのメイン制御部 81は、 持上げ状態や、 抱上げ状態が解除さ れたことをサーボ偏差を利用して検知し得るようになされている。
( 3 - 2 ) 本実施の形態の動作及び効果
以上の構成において、 ロボット 8 0は、 実測重心高さがそのときの目標重心高 さよりも大きい状態が一定時間継続され、 そのときのロボット 8 0の姿勢が安定 し、 さらに床面に近い複数の部位に関してロボット 8 0の実測重心高さについて 同様のことが言える場合に、 現在ロボット 8 0が持上げ状態にあると判断し、 そ の後現在の動作を全て停止させ、 初期抱上げ姿勢に移行した後、 抱上げ制御動作 を実行する。 '
またロボット 8 0は、 実測重心高さがそのときの目標重心高さよりも小さい状 態が一定時間継続され、 そのときのロボット 8 0の姿勢が安定し、 さらに床面に 近い複数の部位に関してロボヅト 8 0の実測重心高さについて同様のことが言え る場合に、 抱上げ状態が解除されたと判断し、 その後現在の姿勢を判断して、 立 ち姿勢や寝姿勢に移行する。 '. 、
従って、 ロボット 8 0によれば、 第 2の実施の形態によるロボヅ ト 7 0と同様 に、 グリップハンドル 2 Aを把持されて持ち上げられた場合のみならず、 グリッ プハンドル 2 A以外の部位を把持されて持ち上げられた場合にもこれを確実に検 知することができ、 その分リヅプハンドル 2 A以外の部位を把持されて持ち上げ られた場合の抱上げ状態においても、 ロボット 7 0が手足を動かすことに起因す るユーザの怪我の発生を未然かつ有効に防止し、 より一層のユーザの安全性を確 保することができる。
またこのロボット 8 0によれば、 かかる持上げ状態又は抱上げ状態の解除の検 知処理のための新たなセンサ等のデバイスを必要としないため、 例えば第 2の実 施の形態によるロボット 7 0に比してより軽量かつ小型に構築することができる 以上の構成によれば、 実測重心高さがそのときの目標重心高さよりも大きい状 態が一定時間継続され、 そのときのロボット 8 0の姿勢が安定し、 さらに床面に 近い複数の部位に関してロボヅト 8 0の実測重心高さについて同様のことが言え る場合に、 ロボット 8 0が持上げ状態であると判断し、 その後現在の動作を全て 停止させ、 初期抱上げ姿勢に移行した後、 抱上げ制御動作を実行する一方、 実測 重心高さがそのと の目標重心高さよりも小さい状態が一定時間継続され、 その ときのロボット 8 0の姿勢が安定し、 さらに床面に近い複数の部位に関してロボ ヅ ト 8 0の実測重心高さについて周様のことが言える場合に、 ロボヅト 8 0が抱 上げ状態が解除されたと判断し、 その後現在の姿勢を判断して、 立ち姿勢や寝姿 勢に移行する うにしたことによ.り、 第 2の実施の形態と同様の効果を得ること ができることに加え、 さらに第 2の実施の形態によるロボットに比してより軽量 かつ小型に構築することができ、 かくしてエンターティンメント性を格段と向上 し得るロボットを実現できる。
( 4 ) 第 4の実施の形'態
( 4 - 1 ) 本実施の形態によるロボットの構成
図 1〜図 4において、 9 0は全体として第 4の実施の形態によるロボットを示- し、 抱上げ状態時、 ユーザの要求に応じて自己の姿勢を所定の置き姿勢に遷移さ ' せるようになされた点を除いて第 2の実施の形態によるロボヅト 7 0と同様に構 成されている'。
すなわち、 ユーザが抱き上げているロボット 9. 0を床面上に下ろす際に、 必ず グリップハンドルを把持するとは限らない。 例えば図 1 8に示すように、 横向き にして、 下側の肩部及び下側の腰部を支持するようにしてロボット 9 0 ·を保持す る場合などもあり得る。
そしてこのような場合にロボット 1が何らの置き姿勢にも遷移しないとすれば 、 接地時におけるロボット 9 0の姿勢が不安定となって接地後に転がるなどの事 態が発生することにより、 機体に傷が生じたり、 機体内部に収納された各種外部 センサ及び内部センサ等の精密部品に不具合が生じるおそれがある。 , そこでこの第 3の実施の形態によるロボヅト 9 0においては、 第 1の抱上げ制 御処理手順 R T 1 (図 6 ) のステヅプ S P 7において、 置き姿勢に遷移すべき旨 のユーザからの意思表示があつた場合に、 図 1 8のようにロボット 9 0の接地部 位によって挟まれ又は囲まれる床面上の領域 (以下、 これを接地予定領域と呼ぶ
) AR内にロボット 90の重心 Gの投影点 (以下、 これを重心投影点と呼ぶ) P αが位置するように、 接地させるべき部位を予め決定し、 その部位からロボッ小 90が接地するように腕部ユニット 5 Α、 5 Β及び脚部ュニヅ ト 6 Α、 6Βなど の可動部位を動かすようになされている。
この際、 図 19 (Α) に示すように、 ロボヅ ト 90の構造的な制約やユーザに よる拘束などから腕部ユニット 5 Α、 5 Β及び脚部ユニット 6 Α、 6 Βによって 重心投影点 を含むような接地予定領域 ARを形成できない場合も生ずるが、 この場合には、 図 19, (B) に示すように、 CCDカメラ 60A、 6 OBやマイ クロホン 61などの精密なデバイスが密集している頭部ュニット 4で自重を支え るのを避けて、 構造上比較的頑強である例えば胴体部ュニット 2等の部位を接地 させるように、 接地部位を選択するようになされている。
ここで、 このような置き姿勢制御処理は、 このロボット 90全体の動作制御を 司る図 12に示すメイン制御部 91の制御のもとに、 その内部メモリ 91A (図 12) に格納された制御プログラムに基づき、 図 20に示す置き姿勢制御処理手 順 RT 6に従って行われる。
実際上、 メイン制御部 91は、 第 1の抱上げ制御処理手順 R T 1 (図 6 ) のス テツプ SP7において、 『置くよ』 等の話しかけや、 肩部分.に配設された夕ツチ センサ 63が押圧操作されるなどのユーザからの置き姿勢に遷移すべき旨の意思 表示が与えられると、 この置き姿勢制御処理手順 R T 6を テップ S P 50にお いて開始し、 続くステップ SP51において、 加速度センサ 65 (図 12) から 与えられる加速度検出信号 S 2 Bに基づいて重力方向を検出する。
続いて、 メイン制御部 91は、 ステップ SP 52に進んで、 ロボット 90の機 体の各部位 i (i = l, 2, 〜〜) の質量を mい その部位の重心からの X方向 及び y方向の距離をそれそれ Xi、 yiとして、 次式 , y)
Figure imgf000041_0001
により、 そのときのロボヅ ト 90の重心投影点の位置 G (X, y) を求める。 さらにメイン制御部 91は、 この後ステヅプ SP 53に進んで、 各ポテンショ メータ Pi Pi? (図 12) から供給される角度検出信号 S 2Di〜S 2D17及 び加速度センサ 65 (図 12) から供給される加速度検出信号 S 2 Bに基づき認 識されるそのときのロボヅト 90の姿勢と、 各力センサ F S i〜F S 17から与えられる力検出信号 S 1 Di〜S 1 D17に基づき認識される拘束されていない部位 との各認識結果に基づいて、 ロボット 90における地面に最も近く、 かつ拘束さ れていない部位を接地する際の部位の候補 (以下、 これを接地候補と呼ぶ) とし て選択する。 この際、 メイン制御部 91は、 精密なデバイスが密集している頭部 ュニット 4や、 その他構造的に弱い部位を除外してかかる接地候補を選択する。 続いてメイン制御部 91は、 ステップ SP 54に進んで、 必要に応じて拘束さ れていないいずれかの関節機構部を動かすことで、 ステヅプ SP 53において選 択した接地部位候補によつて重心投影点 P αを含むように接地予定領域 A Rを形 成することができるか否かを判断する。
そしてメイン制御部 91は、 このステップ SP 54において否定結果を得ると ステップ SP53に戻り、 先行して接地候補として選択した部位の次に床面に近 い部位を接地候補として選択した後ステップ SP 54に進み、,先行して接地候補 として選択した部位と今回接地候補として選択した部位とを同時に用いて重心投 影点 Paを含むように接地予定領域 A Rを形成することができ.るか否かを判断す る
' そしてメイン制御部 91は、 このステップ SP 54において否定結果を得ると ステップ S P 53に戻り、 この後同様に接地候補どしてなるベく床面に近い部位 を順次選択しながらステップ SP 54において肯定結果を得るまで、 ステップ S P 53-SP 54-SP 53のループを繰り返す。
そしてメイン制御部 9 1は、 やがて重心投影点 PGを内部に含む接地予定領域 ARを形成するための幾つかの候補 (部位) を選択し終えることにより、 ステツ プ SP 54において肯定結果を得ると、 ステヅプ SP 55に進んで、 対応する接 地予定領域 ARを形成することができるように、 対応するァクチユエ一夕 A丄〜 A17を駆動させる。
この結果、 例えば接地候補として右側の腕部ュニット 5 Bと右側の脚部ュニッ ト 6 Bとが選択された場合には、 図 18に示すように、 これら腕部ユニット 5B 及び脚部ュニット 6 Bが胴体部ュニット 2に先行して接地するように、 かつその 接地時にこれら腕部ュニット 5 B及び脚部ュニット 6 Bによって形成される接地 予定領域 AR内に重心投影点 PQが位置するように、 腕部ュニット 5B及び脚部 ュニヅト 6 B等が駆動される。
また、 例えば接地候補として左右の両腕部ユニット 5A, 5Bと胴体部ュニッ ト 2の胸部分とが選択された場合には、 図 19に示すように、 これら各腕部ュニ ット 5A、 5 B及び胴体部ユニット 2の胸部分が同時に接地するように、 かつそ の接地時にこれら腕部ュニット 5 A、 5 B及び胴体部ュニット 2の胸部分によつ て形成される接地予定領域 AR内に重心投影点 PQが位置するように、 各腕部ュ ニヅ ト 5A、 5 B等が駆動される。 なおこの際、 各腕部ュニヅ ト 5 A、 5B及び 胴体部ュニット 2の胸部分の接地時に頭部ュニット 4が接地しないように、 頭部 ュニット 4が後ろに反らすように駆動される。 , そしてメイン制御部 91は、 この後ステップ SP 56に進んで、 加速度センサ 65 (図 12) からの加速度検出信号 S 2 B及び対応する夕ツチセンサ 63 (図 12) からの圧力検出信号 S 1 C等に基づいて、 ロボヅト 90の機体が接地した か否かを判断し、 否定結果を得るとステヅプ SP 5 1に戻って、 この後ステップ SP 56において肯定結果を得るまでステップ SP 51〜SP 56_SP 51の ル一ルを繰り返す。
そしてメイン制御部 9 1は、 やがて加速度センサ 6 5からの加速度検出信号 S 2 B及び対応する夕ツチセンサ 6 3からの圧力検出信 S 1 C等に基づいてロボ ヅ ト 9 0の機体が接地したことを検出すると、 ステップ S P 5 7に進んでこの置 き姿勢制御処理手順 R T 6を終了し、 この後第 1の抱上げ制御処理手順: T 1 ( 図 6 ) のステップ S P 8に進む。 .
このようにしてメイン制御部 9 1においては、 ュ一ザからの命令に応じてロボ ヅ 'ト 9 0の姿勢をそのときの姿勢に応じた所定の置き姿勢に遷移させ得るように なされている。 , ( 4 - 2 ) 本実施の形態の動作及び効果
以上の構成において、 ロボット 9 0は、 置き姿勢に遷移すべき旨のユーザから の意思表示に応じて、 接地予定領域 A R内に重心投影点 Ρ αが位置するように接 地部位を選択し、 その部位から接地するように腕部ユニット 5 Α、 5 Β及び脚部 ユニット 6 Α、 6 Βなどの可動部位を動かす。
従って、 このロボット 9 0では、 接地時におけるロボヅト 9 0の姿勢が不安定 となつて接地後に転がるなどの事態が発生することにより、 機体に傷が生じたり 、 機体内部に収納された各種外部センサ及び内部センサ等の精密部品に不具合が 生じるおそれを未然かつ有効に防止することができる。
またこのようにロボット 9 0を動作させることによって、 通常、 人間が接地の 際に行う身構える仕草を表現することができ、 その分ヒユーマノィ ド型エンター ティンメントとしてのエンターティンメント性を向上することができる。
以上の構成によれば、 置き姿勢に遷移すべき旨のユーザからの意思表示に応じ て、 接地予定領域 A R内に重心投影点 が位置するように接地部位を選択し、 その部位から接地するように自己の姿勢を必要に応じて変化させるようにしたこ とにより、 持ち下ろす際の傷の発生や精密部品の不具合の発生を未然かつ有効に 防止しながら、 人間らしい仕草を表現することができ、 かくして機体保全を確保 しながらエンターティンメント性を向上し得るロボットを実現できる。 ( 5 ) 第 5の実施の形態
( 5 - 1 ) 本実施の形態によるロボットの構成
図 1〜図 4において、 1 0 0は全体として第 5の実施の形態によるロボヅトを 示し、 機体が不安定な姿勢で持ち上げられたときに、 当該姿勢を安定化させるよ うに動作するようになされた点を除いて第 4の実施の形態によるロボット 9 0と 同様に構成されている。 ―
すなわち、 ユーザがロボット 1 0 0を持ち上げる際に、 常に持ち上げ後のロボ ットの機体安定性を考慮して把持する部位を選択するとは限らない。 例えば図 2 1 (A) のようにロボット 1 0 0が片方の腕部ユニット 5 Aを上げたときに、 図 2 1 ( B ) のようにこの腕部ュニット 5 Aの先端部を把持してロボヅト 1 0 0を 持ち上げる場合や、 図 2 3 (Α) のようにロボヅ ト 1 0 0の両肩を把持して機体 が傾いた状態で持ち上げる場合もあり得る。
そして、 例えば図 2 1 ( Β ) のように片方の腕部ユニット 5 Αが把持されて持 ち上げられだ場合、 ロボット 1 0 Qの重心位置と作用点 (ユーザにより把持され た点) とのバランスから、 持ち上げられたロボヅ ト 1 0 0の機体が振り子状に振 動し、 その後図 2 1 ( B ) のようにロボット 1 0 0の重心位置と作用点とが釣り 合った状態でロボヅ ト 1 0 0の機体が静定することになる。 また図 2 3 (A) の ようにロボット 1 0 0の両肩を把持して機体が傾いた状態で持ち上げた場合には 、 ロボット 1 0 0はその状態で静定することとなる。
この場合、 このようにロボット 1 0 0の機体が不安定な姿勢で静定した状態に おいて、 肩関節機構部 1 3のァクチユエ一夕 A 5〜A 7 (図 4参照) や肘関節機 構部 2 4のァクチユエ一夕 A 8 (図 4参照) のサーボゲインを上げたままにして おくと、 これらァクチユエ一夕 A 5〜A 8にロボヅ ト 1 0 0の重量分の大きな負 荷が与えられる一方、 持ち上げているユーザにもロボヅト 1 0 0の機体の重量だ けでなく、 不安定な姿勢にあるロボット 1 0 0の回転モーメントによる負荷が与 えられる。
そこでこの第 5の実施の形態によるロボット 1 0 0では、 機体が不安定な姿勢 で持ち上げられたときに、 そのときユーザにより拘束されている部位から胴体部 ュニヅト 2までの間に存在する各関節機構部内のァクチユエ一夕八 〜八 のサ
—ボゲインを十分に下げることによって、 そのどきロボヅト 1 0 0の自熏を支え るァクチユエ一夕 A i〜 A i 7に与えられる負荷と、 ロボヅト 1 0 0を持ち上げた ユーザに与えられる負荷とを共に軽減し得るようになされている。
例えば図 2 1の例では、 ロボット 1は、 かかる持ち上げを検出すると、 拘束き れた腕部ュニット 5 Aと対応する肩関節機構部 1 5及び肘関節機構部 2 4内の全 てのァクチユエ一夕 A 5〜A 8のサーボゲインを十分に下げる。 この結果、 図 2 2 (A) 'に示すように、 拘束された腕部ユニット 5 Aを基準として、 重心が拘束 点 (作用点) の鉛直下側に位置した安定した姿勢に遷移するように、 ロボット 1 0 0の機体の傾きが自重により変化することとなる。
また図 2 3の例では、 両方の肩関節機構部 1 3内の全てのァクチユエ一夕 A 5 〜A 7のサ一ボゲインを十分に下げる。 この結果、 図 2 3 ( B ) に示すように、 各腕部ュニヅト 5 A、 5 Bを中心として、 ロボット 1 0 0の重心位置が側面から 見て拘束点 (作用点) の鉛直下側に位置した安定した姿勢に遷移するように、 口 ボヅト 1 0 0の機体の傾きが変化することとなる。
一方、 このように機体が不安定となる部位を拘束されてロボット 1 0 0が持ち 上げられた場合には、 図 6の第 1の抱上げ制御処理手順 R T 1のステツプ S P 4 〜ステップ S P 7について上述したような抱上げ制御処理に移行するよりも、 ュ 一ザがロボツト 1 0 0を直ぐに床面に置くことが予想されることから、 直ちに置 き姿勢制御処理に移行した方が望ましいと考えられる。
そこで、 ヒのロボット 1 0 0においては、 機体が不安定な姿勢で持ち上げられ たことを検出した場合には、 例えば図 2 2 ( B ) や図 2 3 ( B ) に示すように、 拘束点 (作用点) とロボヅト 1 0 0の重心 Gとが図 1 8及び図 1 9について上述 した接地可能領域 A R (図 1 8、 図 1 9 ) 上の空間内に収納されるように図 2 0 について上述した置き姿勢制御処理を実行するようになされ、 これにより直ちに 床面 F L上に置かれた場合にも安定した姿勢で接地することができるようになさ れている。
ここでこのようなロボヅト 100の抱上げ制御処理は、 このロボット 100全 体の動作制御を司る図 12に示すメイン制御部 101の制御のもとに、 その内部 メモリ 101A (図 12) に格納された制御プログラムに基づき、 図 24に示す 第 2の抱上げ制御処理手順 R T 7に従って行われる。
すなわち、 メイン制御部 101は、 ロボット 100の電源が投入されると、 こ の第 2の抱上げ制御処理手順 R T 7をステップ S P 60において開始し、 続くス テヅプ SP 61〜ステップ SP 63を図 6について上述した第 1の抱上げ制御処 理手順 RT 1のステップ SP 1〜ステップ SP 3と同様に処理する。
そしてメイン制御部 101は、 ステップ SP63において肯定結果を得ると、 ステップ SP 64に進んで、 各力センサ F S i〜F S 17からそれぞれ供給される 力検出信号 S 1 Di〜S 1 D17に基づいて、 ユーザにより拘束されている部位 ( 拘束部位) を特定する。
続いてメイン制御部 101は、 ステップ SP 65に進んで、 このとき各ポテン ショメ一夕
Figure imgf000046_0001
(図 12) からそれぞれ供給される角度検出信号 S 2Di 〜S 2 D17に基づき認識される現在のロボヅト 100の姿勢と、 加速度センサ 65 (図 12) から供給される加速度検出信号 S 2 Bに基づき認識される重力方' 向と、 ステップ SP 64において特定したユーザにより拘束された部位との各認 識結果に基づいて、 現在ロボット 100が不安定な姿勢にあるか否かを判断する そしてメイン制御部 101は、 このステップ SP 65において否定結果を得る と、 ステップ S P 66に進んで、 この後ステヅプ S P 66〜ステヅプ S P 70を 図 6について上述した第 1の抱上げ制御処理手順 RT1のステップ SP4〜ステ ヅプ SP 8と同様に処理する。
これに対してメイン制御部 101は、 このステップ SP 65において否定結果 を得ると、 ステップ SP 71に進んで、 ステップ SP 64において特定したュ一 ザにより拘束された部位から胴体部ュニット 2までの間に存在する全ての関節機 構部内の全てのァクチユエ一夕 A i A 7のサーボゲインを十分に小さい値 (例 えば 「0」 又はこれに近い所定の値) にまで下げる。
そしてメイン制御部 1 0 1は、 この後ステップ S P 7 2に進んで、 図 2 0につ いて上述した置き姿勢処理手順 R T 6に従って接地予定領域 A R (図 1 8及び図 1 9 ) 内に重心投影点; P G (図 1 8及び図 1 9 ) が位置するように接地部位を選 択し、 その部位から接地するように自己の姿勢を必要に応じて変化させる。 そしてメイン制御部 1 0 1は、 この後ステップ S P 6 9に進んで、 この後ステ ヅプ S P 6 9及びステヅプ S P 7 0を図 6について上述した第 1の抱上げ制御処 理手順 R T 1のステヅプ S P 7及びステヅプ S P 8と同様に処理する。
このようにしてメイン制御部 1 0 1は、 ロボット 1 0 0が不安定な姿勢で持ち 上げられたときの抱上げ制御処理を行うようになされている。
( 5— 2 ) 本実施の形態の動作及び効果 ' 以上の構成において、 ロボヅト 1 0 0は、 機体が不安定な姿勢で持ち,上げられ たときに、 そのときユーザにより拘束されている部位から胴体部ュニット 2まで の間に存在する各関節機構部内のァクチユエ一夕 A i〜 A i 7のサ一ボゲインを十 分に下げ、 この後直ちに置き姿勢制御処理を実行する。
従って、 このロボット 1 0 0では、 機体が不安定な姿勢で持ち上げられた場合 においても、 対応するァクチユエ一夕 A i〜A 1 7にロボヅト 1 0 0の重量分の大 きな負荷が与えられると共に、 持ち上げているユーザに不安定な姿勢にあるロボ ヅ ト 1 0 0の回転モ一メントによる負荷が与えられるのを有効に防止することが でき、 その分かかる持ち上げに起因する破損を防止しながら、 ロボット 1 0 0を 持ち上げるユーザの負担を有効に軽減させることができる。
またこの場合において、 このロボヅト 1 0 0は、 拘束点 (作用点) とロボット 1 0 0の重心 Gとが接地可能領域 A R上の空間内に収納されるように置き姿勢制 御処理を実行するようになされているため、 直ちに床面 F L上に置かれた場合に も安定した姿勢で接地することができ、 その分接地後の転倒を未然かつ有効に防 止すると共に、 通常、 人間が行う接地の際の身構えるような動作を表現すること ができる。
以上の構成によれば、 ロボヅト 1 0 0の機体が不安定な姿勢で持ち上げられた ときに、 そのときユーザにより拘束されている部位から胴体部ュニヅト 2までの .間に存在する各関節機構部内のァクチユエ一夕 A 〜 7のサ一ポ:ゲインを十分 に下げ、 この後直ちに置き姿勢制御処理を実行するようにしたことにより、 かか る持ち上げに起因する破損を防止しながら、 ロボット 1 0 0を持ち上げるユーザ の負担を有効に軽減させることができ、 かくしてエンターティンメント性を向上 させ得るロボヅトを実現できる。
また以上の構成によれば、 拘束点 (作用点) とロボヅト 1 0 0の重心 Gとが接 地可能領域 A R上の空間内に収納されるように置き姿勢制御処理を実行するよう にしたことにより、 接地後の転倒を未然かつ有効に防止すると共に、 あたかも人 間が行うような接地の際に身を整えるかのような動作を表現することができ、 か くしてエンターティンメント性を向上し得るロボヅトを実現できる。
( 6 ) 他の実施の形態
なお上述の実施の形態においては、 本発明を図 1〜図 4のように、 胴体部ュニ ット 2に多段階の関節機構を有する複数の脚部ュニット 6 A、 6 Bがそれぞれ連 結されたロボット 1、 7 0、 8 0、 9 0、 1 0 0に適用するようにした場合につ いて述べたが、 本発明はこれに限らず、 この他種々のロボット装置に広く適用す ることができる .。
また上述の実施の形態においては、 外部及び又は内 の状態を検知するセンサ 手段と、 グリヅプハンドル (把持部) 2 Aに設けられたグリヅプスイッチ (把持 センサ) 6 3 G、 足平部プロヅク 3 2に設けられた足底力センサ 6 3 L、 6 3 、 加速度センサ 6 5を適用するようにした場合について述べたが、 本発明はこれ に限らず、 ユーザの腕によって抱上げられた状態又は持ち上げられた状態にある か否かの判断に供することができれば、 この他種々のセンサ手段に広く適用する ようにしても良い。
さらに上述の実施の形態においては、 外部及び又は内部の状態がユーザの腕に よって抱き上げられた状態又は持ち上げられた状態にあるか否かを判断した後、 当該判断結果に基づいて、 股関節機構部 3 6、 膝関節機構部 3 8及び足首関節機 構部 4、1の動作を停止させるようにァクチユエ一夕 (駆動系) A i〜A 1 7を制御 する制御手段として、 胴体部ュニット 2に設けられたメイン制御部 5 0を適用す るようにした場合について述べたが、 本発明はこれに限らず、 この他種々の構成 からなる制御手段に広く適用するようにしても良い。
また各関節機構として、 首部 3における首関節機構部 1 3と、 各腕部ユニット 5 A、 5 Bにおける肩関節機構部 2 0及び肘関節機構部 2 4とを含むようにして も良い。 この場合、 制御手段としてのメイン制御部 5 0は、 抱上げられた状態又 は持ち上げられた状態にあるか否かを判断したときには、 首関節機構部 1 3、 肩 関節機構部 2 0及び肘関節機構部 2 4の動作を停止させるようにァクチユエ一夕 (駆動系) A i〜A 1 7を制御すれば良い。
さらに上述の実施の形態においては、 制御手段としてのメイン制御部 5 0は、 ユーザの腕によって抱上げられた状態にあるとき、 各脚部ユニット 6 A、 6 Bの 姿勢を腕に対して倣わせるように、 股関節機構部 3 6、 膝関節機構部 3 8及び足 首関節機構部 4 1を動作させるァクチユエ一夕 (駆動系) A i〜A 1 7を制御する ようにした場合について述べたが、 本発明はこれに限らず、 要は、 ユーザの腕に よって抱上げられた状態にあるとき、 ユーザに対してあたかも人間の子供を抱上 げた時に近い反応を持たせることができれば、 この他種々の制御方法を採用する ようにしても良い。
また各関節機構として、 首部 3における首関節機構部 1 3と、 各腕部ユニット 5 A、 5 Bにおける肩関節機構部 2 0及び肘関節機構部 2 4とを含むようにして も良い。 この場合、 制御手段としてのメイン制御部 5 0は、 ユーザの腕によって 抱上げられた状態にあるとき、 首部 3及び各腕部ユニット 5 A、 5 Bの姿勢を腕 に対して倣わせるように首関節機構部 1 3、 肩関節機構部 2 0及び肘関節機構部 2 4を動作させるァクチユエ一夕 (駆動系) A 〜A 1 7を制御すれば良い。
さらに上述の実施の形態においては、 制御手段としてのメイン制御部 5 0は、 W
抱上げられた状態で胴体部ュニット 2が横向きであるとき、 各脚部ュニット 6 A '6 Bに対応する股関節機構部 36、 膝関節機構部 38及び足首関節機構部 41 が柔らかくなるようにァクチユエ一夕 (駆動系) Ai A17を制御する一方、 胴 体部ユニット 2が縦向きであるとき、 各脚部ユニット 6 A 6 Bに対応する股閧 節機構部 36、 膝関節機構部 38及び足首関節機構部 41が硬くなるようにァク チユエ一夕 (駆動系) A1 A17を制御するようにした場合について述べたが、 本発明はこれに限らず、 要は、 ザの腕によって抱上げられた状態にあるとき 、 ユーザに対してあたかも人間の子供を抱上げた時に近い反応を持たせることが できれば、 この他種々の制御方法を採用するようにしても良い。
また各関節機構として、 首部 3における首関節機構部 13と、 各腕部ュニット 5A 5 Bにおける肩関節機構部 20及び肘関節機構部 24とを含むようにして も良い。 この場合、 制御手段としてのメイン制御部 50は、 抱上げられた状態で 胴体部ュニット 2が横向きであるとき、 首部 3及び各腕部ュニヅ ト 5 A 5 Bに 対応する首関節機構部 13、 肩関節機構部 20及び肘関節機構部 24が柔らかく なるようにアケチユエ一夕 (駆動系) Ai A17を制御する一方、 胴体部ュニヅ ト 2が縦向きであるとき、 首部 3及び各腕部ユニット 5 A 5Bに対応する首関 節機構部 13、 肩関節機構部 20及び肘関節機構部 24が硬くなるようにァクチ ユエ一夕 (駆動系) Ai A17を制御する
さらに上述の実施の形態においては、 制御手段としてのメイン制御部 50が、 股関節機構部 36、 膝関節機構部 38及び足首関節機構部 41の追従の度合いを 設定しておき、 抱上げられた状態に応じて各脚部ユニット 6 A 6Bの姿勢に偏 差が生じた場合、 当該偏差に追従の度合いを付加した制御量に従ってァクチユエ 一夕 (駆動系) Ai A17を制御するような擬似コンプライアンス制御を適用し た場合について述べたが、 本発明ほこれに限らず、 要は、 ユーザの腕によって抱 上げられた状態にあるとき、 ユーザに対してあたかも人間の子供を抱上げた時に 近い反応を持たせることができれば、 この他種々の制御方法を採用するようにし ても良い。 また各関節機構として、 首部 3における首関節機構部 1 3と、 各腕部ユニット 5 A、 5 Bにおける肩関節機構部 2 0及び肘関節機構部 2 4とを含むようにして も良い。 この場合、 制御手段としてのメイン制御部 5 0は、 首関節機構部 1 3、 肩関節機構部 2 0及び肘関節機構部 2 4の追従の度合いを設定しておき、 抱上げ られた状態に応じて首.部 3及び各腕部ュニット 5 A、 5 Bの姿勢に偏差が生じた 場合、 当該偏差に追従の度合いを付加した制御量に従ってァクチユエ一夕 (駆動 系) A i〜A 1 7を制御すれば良い。
. さらに上述の実施の形 においては、 .制御手段としてのメイン制御部 5 0が、 ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたとき の胴体部ュニット 2の姿勢を判断して、 当該判断結果に従って各脚部ュニット 6 A 6 Bに対応する股関節機構部 3 6、 膝関節機構部 3 8及び足首関節機構部 4 1を動作させるァクチユエ一夕 (駆動系) A i ~.A を制御するようにした場合 について述べたが、 本発明はこれに限らず、 要は、 ユーザ C 腕によって抱上げら れた状態又は持ち上げられた状態が解除された後の安全性の確保や見た目の自然 さを表出させることができれば、 この他種々の制御方法を採用するようにしても 良い。
また各関節機構として、 首部 3における首関節機構部 1 3と、 各腕部ユニット 5 A、 5 Bにおける肩関節機構部 2 0及び肘関節機構部 2 4とを含むようにして も良い。 この場合、 制御手段としてのメイン制御部 5 0は、 ユーザの腕によって 抱上げられた状態又は持ち上げられた状態が解除されたときの胴体部ュニット 2 の姿勢を判断して、 当該判断結果に従って首部 3及び各腕部ユニット 5 A、 5 B に対応する首関節機構部 1 3、 肩関節機構部 2 0及び肘関節機構部 2 4を動作さ せるァクチユエ一夕 (駆動系) A i〜A 1 7を制御すれば良い。 ' ' さらに上述の第 5の実施の形態においては、 ロボット 1 0 0に外力が作用する 作用点及びロボヅト 1 0 0の重心 Gを検出すると共に、 ロボヅト 1 0 0の一部が 床面と接地する接地予定領域 A Rを算出し、 ロボヅト 1 0 0が外力により離床さ れた際に、 作用点及び重心 Gが接地予定領域 A R上の空間内に収納するような姿 勢制御処理を行うようにした場合について述べたが、 本発明はこれに限らず、 重 心 Gに変えて ZMP (Zero Moment Point) を検出し、 ロボヅ ト 100が外力により離床された際に、 作用点及び重心 Gが接地予定領域 AR上 の空間内に収納するような姿勢制御処理を行うようにしても良い。 産業上の利用可能性
本発明は、 ヒューマノイ ドロボットの他、 種々の形態のロボット装置に広く適 用することができる。

Claims

請 求 の 範 囲
1 . 可動部を有するロボット装置において、
上記可動部を駆動する駆動手段と、
上記駆動手段を制御する制御手段と、
上記ロボット装置に外力が作用する作用点を検出する作用点検出手段と、 上記ロボット装置の重心を検出する重心検出手段と、
上記ロボット装置の一部が床面と接地する接地予定領域を算出する接地予定領 域算出手段と
を具え、
上記制御手段は、
上記ロボット装置が外力により離床された際に、 上記駆動手段を制御すること により、 上記作用点及び上記重心を上記接地予定領域上の空間内に収納されるよ うに上記可動部を制御する
ことを特徴とするロボット装置。
2 . 可動部を有するロボット装置の制御方法において、
上記ロボット装置に外力が作用する作用点及び上記ロボット装置の重心を検出 すると共に、 上記ロボット装置の一部が床面と接地する接地予定領域を算出する 第 1のステップと、
上記口.ボット装置が外力により離床された際に、 上記作用点及び上記重心を上 記接地予定領域上の空間内に収納されるように上記可動部を制御する第 2のステ ップと
を具えることを特徴とするロボット装置の制御方 。
3 . 可動部を有するロボット装置において、
上記ロボット装置の重心を検出する重心検出手段と、 ' 上記ロボット装置と床面との接地部位を算出する接地部位算出手段と、 上記ロボット装置の上記重心と上記接地部位との上記距離を算出する距離算出 手段と
を具え、
上記ロボット装置の上記重心と上記接地部位との距離に基づいて抱上げ検出を 行う
ことを特徴とするロボット装置。
4 . 可動部を有するロボット装置の制御5方 ■
2法において、
上記ロボット装置の重心を検出すると共に、 上記ロボット装置と床面との接地 部位を算出する第 1のステップと、
上記ロボット装置の上記重心と上記接地部位との距離を算出する第 2のステツ プと、
算出した上記距離に基づいて抱上げ検出を行う第 3のステツプと
を具えることを特徴とするロボット装置の制御方法。
5 . 胴体部に多段階の関節機構を有する複数の脚^がそれぞれ連結されたロボヅ ト装置において、
外部及び又は内部の状態を検知するセンサ手段と、
上記センサ手段によって検知された上記外部及び又は内部の状態が、 ユーザの 腕によって抱上げられた状態又は持ち上げられた状態にあるか否かを判断する状 態判断手段と、
上記状態判断手段による判断結果に基づいて、 各上記関節機構の動作を停止さ
/ 一
せるように駆動系を制御する制御手段と
を具えることを特徴とするロボット装置。
6 . 上記胴体部に設けられ、 ユーザが持ち上げる際に把持する把持部と 各上記脚部に設けられ、 直立時にそれぞれ接地する足平部と
を具え、
上記センサ手段は、
上記把持部に設けられたュ一ザの腕によって把持されたか否かを検知する把持 センサと、 各上記足平部に設けられた接地状態に.あるか否かを検知する足底力セ ンサとからなる
ことを特徴とする請求の範囲第 5項に記載のロボット装置。
7 . 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボッ ト装置において、
ユーザの腕によって抱上げられた状態にあるとき、 各上記脚部の姿勢を上記腕 に対して倣わせるように、 各上記関節機構を動作させる駆動系を制御する制御手 段
を具えることを特徴とするロボット装置。
8 . 上記制御手段は、
上記抱上げられた状態で上記胴体部が横向きであるとき、 各上記脚部に対応す る各上記関節機構が柔らかくなるように上記駆動系を制御する一方、 上記胴体部 が縦向きであるとき、 各上記脚部に対応する各上記関節機構が硬くなるように上 記駆動系を制御する
ことを特徴とする請求の範囲第 7項に記載のロボット装置。
9 . 上記制御手段は、
各上記関節機構の追従の度合いを設定しておき、 上記抱上げられた状態に応じ て各上記脚部の姿勢に偏差が生じた場合、 当該偏差に上記追従の度合いを付加し た制御量に従って上記駆動系を制御する .
ことを特徴とする請求の範囲第 7項に記載のロボット装置。
1 0 . 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結された Dボ ヅ ト装置において、
ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたと きの上記胴体部の姿勢を判断して、 当該判断結果に従つて各上記脚部に対応する 各上記関節機構を動作させる駆動系を制御する制御手段
を具えることを特徴とするロボヅト装髩。
1 1 . 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボ ット装置の制御方法において、 · 外部及び又は内部の状態を検知する第 1のステツプと、
検知された上記外部及び又は内部の状態が、 ユーザの腕によって抱上げられた 状態又は持ち上げられた状態にあるか否かを判断する第 2のステップと、
上記判断結果に基づいて、 各上記関節機構の動作を停止させるように駆動系を' 制御する第 3のステップと ,
を具えることを特徴とするロボツト装置の制御方法。 '
1 2 . 胴体部に多段階の関節機構を有する複数の脚部がそれそれ連結されたロボ ット装置の制御方法において、
ユーザの腕によって抱上げられた状態にあるとき、 各上記脚部の姿勢を上記腕 に対して倣わせるように、 各上記関節機構を動作させる駆動系を制御する' ことを特徴とするロボット装置の制御方法。
1 3 . 上記抱上げられた状態で上記胴体部が横向きであるとき、 各上記脚部に対 応する各上記関節機構が柔らかくなるように上記駆動系を制御する一方、 上記胴 イ 部が縦向きであるとき、 各上記脚部に対応する各上記関節機構が硬くなるよう に上記駆動系を制御する ことを特徴とする請求の範囲第 1 2項に記載のロボット装置の制御方法。
1 4 . 各上記関節機構の追従の度合いを設定しておき、 上記抱上げられた状態に 応じて各上記脚部の姿勢に偏差が生じた場合、 当該偏差に上記追従の度合いを付 加した制御量に従って上記駆動系を制御する
ことを特徴とする請求の範囲第 1 2項に記載のロボット装置の制御方法。
1 5 . 胴体部に多段階の関節機構を有する複数の脚部がそれぞれ連結されたロボ ット装置の制御方法において、
ユーザの腕によって抱上げられた状態又は持ち上げられた状態が解除されたと きの上記胴体部の姿勢を判断して.、 当該判断結果に従って各上記脚部に対応する 各上記関節機構を動作させる駆動系を制御する
ことを特徴とするロボット装置の制御方法。
PCT/JP2004/003917 2003-03-23 2004-03-23 ロボット装置及びその制御方法 WO2004082900A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/515,274 US20050228540A1 (en) 2003-03-23 2004-03-23 Robot device and method of controlling the same
EP04722665A EP1607191A1 (en) 2003-03-23 2004-03-23 Robot device and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003122886 2003-03-23
JP2003-122886 2003-03-23

Publications (1)

Publication Number Publication Date
WO2004082900A1 true WO2004082900A1 (ja) 2004-09-30

Family

ID=33028297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/003917 WO2004082900A1 (ja) 2003-03-23 2004-03-23 ロボット装置及びその制御方法

Country Status (4)

Country Link
US (1) US20050228540A1 (ja)
EP (1) EP1607191A1 (ja)
CN (1) CN100344416C (ja)
WO (1) WO2004082900A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100453278C (zh) * 2005-03-31 2009-01-21 Lg电子株式会社 用于检测自主移动机器人的提升的装置
USD826303S1 (en) * 2016-04-19 2018-08-21 Fondazione Istituto Italiano Di Tecnologia Robot

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4548135B2 (ja) * 2005-02-03 2010-09-22 トヨタ自動車株式会社 脚式ロボットとその制御方法
JP4788246B2 (ja) * 2005-08-31 2011-10-05 ソニー株式会社 入力装置及び入力方法
JP4591419B2 (ja) * 2006-07-18 2010-12-01 トヨタ自動車株式会社 ロボットとその制御方法
US7920124B2 (en) * 2006-08-29 2011-04-05 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
JP5109573B2 (ja) * 2007-10-19 2012-12-26 ソニー株式会社 制御システム及び制御方法、並びにロボット装置
JP4634541B2 (ja) * 2008-06-06 2011-02-16 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
EP2756929A4 (en) * 2011-09-13 2015-07-15 Yaskawa Denki Seisakusho Kk AUTOMOTIVE ROBOT AND AUTOMOTIVE TRUCK
JP5948932B2 (ja) * 2012-02-16 2016-07-06 セイコーエプソン株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム
US10510189B2 (en) * 2014-04-16 2019-12-17 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, and information processing method
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
US9499219B1 (en) 2014-08-25 2016-11-22 Google Inc. Touch-down sensing for robotic devices
CN106272564A (zh) * 2015-05-29 2017-01-04 鸿富锦精密工业(深圳)有限公司 机器人防跌倒***
KR20170011870A (ko) * 2015-07-24 2017-02-02 삼성전자주식회사 콘텐트를 제공하는 전자 장치 및 방법
CN109414623B (zh) * 2016-07-11 2021-03-19 Groove X 株式会社 行为自主型机器人
JP7069155B2 (ja) * 2017-06-29 2022-05-17 株式会社ソニー・インタラクティブエンタテインメント ロボットの制御装置、制御方法および制御プログラム
JP6854722B2 (ja) 2017-07-14 2021-04-07 パナソニック株式会社 ロボット
CN109693234B (zh) * 2017-10-20 2021-08-27 深圳市优必选科技有限公司 机器人跌倒预测方法、装置、终端设备及计算机存储介质
CN111526972B (zh) 2017-12-28 2023-07-18 Groove X 株式会社 收容有移动机构的机器人
TWI704471B (zh) * 2018-09-27 2020-09-11 仁寶電腦工業股份有限公司 互動式電子裝置及其互動方法
CN109045719A (zh) * 2018-10-26 2018-12-21 东莞市鸿茂物联网科技有限公司 可模仿多种动作的娃娃造型玩具
US11892852B2 (en) * 2019-08-29 2024-02-06 Sony Group Corporation Information processing apparatus and information processing method
CN111300420B (zh) * 2020-03-16 2021-08-10 大连理工大学 一种机械臂关节空间转角最小路径求取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002346958A (ja) * 2001-05-24 2002-12-04 Sony Corp 脚式移動ロボットのための制御装置及び制御方法
JP2002361584A (ja) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab コミュニケーションロボット

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3500577A (en) * 1968-09-26 1970-03-17 Remco Ind Inc Tumbling doll
CN1146492C (zh) * 1998-06-09 2004-04-21 索尼公司 机器人装置及其姿态控制方法
WO2000032360A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot et son procede de commande
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
JP3726009B2 (ja) * 2000-05-19 2005-12-14 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
JP3634238B2 (ja) * 2000-05-19 2005-03-30 本田技研工業株式会社 脚式移動ロボットの床形状推定装置
JP2002154081A (ja) * 2000-11-16 2002-05-28 Nec Access Technica Ltd ロボットならびにその表情表現方法および段差と持ち上げ状態の検出方法
TW499349B (en) * 2000-11-17 2002-08-21 Sony Corp Legged mobile robot, leg structure of legged mobile robot, and mobile leg unit for legged mobile robot
JP3726032B2 (ja) * 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
EP1466705B1 (en) * 2001-12-28 2010-05-19 Honda Giken Kogyo Kabushiki Kaisha Gait producing device for leg type movable robot, and control device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002346958A (ja) * 2001-05-24 2002-12-04 Sony Corp 脚式移動ロボットのための制御装置及び制御方法
JP2002361584A (ja) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab コミュニケーションロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100453278C (zh) * 2005-03-31 2009-01-21 Lg电子株式会社 用于检测自主移动机器人的提升的装置
USD826303S1 (en) * 2016-04-19 2018-08-21 Fondazione Istituto Italiano Di Tecnologia Robot

Also Published As

Publication number Publication date
US20050228540A1 (en) 2005-10-13
EP1607191A1 (en) 2005-12-21
CN100344416C (zh) 2007-10-24
CN1697723A (zh) 2005-11-16

Similar Documents

Publication Publication Date Title
WO2004082900A1 (ja) ロボット装置及びその制御方法
KR101709605B1 (ko) 이동 보조기용 컨트롤 시스템
US9526668B2 (en) Locomotion assisting device and method
JP2019005595A (ja) 下肢装具用のヒューマンマシンインターフェース
JP7174705B2 (ja) 外骨格を動かすための方法
Kumar et al. Assistive devices for people with motor disabilities
WO2002040223A1 (fr) Robot mobile a deux jambes et son procede de commande, sa structure jambes, et unite jambe mobile destinee a ce robot
JP2004306251A (ja) ロボット装置及びその制御方法
JP2009207840A (ja) 歩行動作補助装置
KR20130105867A (ko) 통합형 기울기 센서를 구비한 보행 보조 장치
TW201622678A (zh) 起立動作支援系統、起立動作支援系統之控制部的控制方法、起立動作支援系統之控制部用程式、起立動作支援系統之控制部的控制方法、機器人
JP2017185185A (ja) 起立又は着座動作支援システム及び起立又は着座動作支援用制御方法、ロボット、並びに、起立又は着座動作支援用プログラム
CN107020639A (zh) 机器人以及机器人的控制方法
JP3628826B2 (ja) 脚式移動ロボットの遠隔制御システム
CN110430852A (zh) 辅助装置
WO2004033160A1 (ja) ロボット装置の動作制御装置及び動作制御方法
JP3528171B2 (ja) 移動ロボット装置及び移動ロボット装置の転倒制御方法
JP2013090843A (ja) 歩行補助装置及びその制御方法
JP2020525074A (ja) 外骨格を動作させる方法
JP4660870B2 (ja) 脚式移動ロボット及びその制御方法
JP2005001099A (ja) ロボット装置及びその動作制御方法
JPH1110567A (ja) 二足歩行型ロボットの遠隔制御システム
JP2012091300A (ja) 脚式ロボット
JP4110525B2 (ja) ロボット装置及びその動作制御方法
JP3813102B2 (ja) 脚式ロボットの姿勢制御装置及び姿勢制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2004722665

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10515274

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 20048003682

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2004722665

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2004722665

Country of ref document: EP