WO2001070468A1 - Determination de l'action d'un robot et robot - Google Patents

Determination de l'action d'un robot et robot Download PDF

Info

Publication number
WO2001070468A1
WO2001070468A1 PCT/JP2001/002419 JP0102419W WO0170468A1 WO 2001070468 A1 WO2001070468 A1 WO 2001070468A1 JP 0102419 W JP0102419 W JP 0102419W WO 0170468 A1 WO0170468 A1 WO 0170468A1
Authority
WO
WIPO (PCT)
Prior art keywords
action
behavior
appearance
tendency
information
Prior art date
Application number
PCT/JP2001/002419
Other languages
English (en)
French (fr)
Inventor
Tsuyoshi Takagi
Masahiro Fujita
Rika Hasegawa
Kotaro Sabe
Craig Ronald Arkin
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/979,434 priority Critical patent/US6650965B2/en
Priority to EP01915786A priority patent/EP1247624A1/en
Priority to KR1020017015057A priority patent/KR20020026165A/ko
Publication of WO2001070468A1 publication Critical patent/WO2001070468A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Definitions

  • the present invention relates to a behavior determining method and a robot device of a robot device, and more particularly, to a robot device that behaves autonomously and a robot that determines the behavior of such a robot device.
  • the present invention relates to a method for determining an action of a device.
  • the robotic device can move closer to the behavior of an actual animal, the biological feeling of the robotic device will further increase, and the user (owner) will feel more familiar and satisfied with the robotic device. feel. This improves the amusement of the robot device.
  • Bruce Mitchel Blumberg has verified the mechanism of animal behavior selection using a CG model, and is not adapted to a robot device existing in the real world.
  • action selection action realization
  • action selection action realization
  • Actions performed independently of the planned action such as reflex actions, can be counteracted.
  • a robot device is a robot device that controls an operation unit and causes an action to appear, and a detection unit that detects external or internal information, and a detection unit that detects the external or internal information.
  • a causal factor acquisition means for acquiring causal factors that are external or internal information that is information affecting behavior, and the appearance of behavior affected by the causal factors based on the causal factors acquired by the causal factor acquisition means
  • An appearance tendency acquiring means for acquiring the tendency; an appearance tendency comparing means for comparing the appearance tendency corresponding to two or more actions acquired by the appearance tendency acquisition means, which are considered to be in the same group; and an appearance tendency.
  • An action selecting means for selecting one action based on a comparison result of the appearance tendency by the comparing means, and an action unit is controlled based on the action selected by the action selecting means, and the selected And an action section control means for causing the action to appear, wherein an appearance tendency of the one action selected by the action selection means changes according to a causal factor which changes according to the actual appearance of the action.
  • the robot apparatus having such a configuration detects the external or internal information by the detecting means, and obtains the external or internal information detected by the detecting means and causes the causative factors to be information affecting the behavior. Then, based on the causal factors acquired by the causal factor acquiring means, the appearance tendency of the behavior affected by the causal factor is acquired by the appearance tendency acquiring means.
  • the robot apparatus compares the appearance trends corresponding to the two or more actions acquired by the appearance tendency acquisition means, which are considered to be in the same group, by the appearance tendency comparison means, and An action is selected by the action selecting means on the basis of the comparison result of the appearance tendency by the action selecting means, and the action section is controlled by the action section control means based on the action selected by the action selecting means, and the selected action is Let it appear. Then, the appearance tendency of one action selected by the action selection means changes according to the causal factor changed by the actual appearance of the action.
  • the behavior determining method of the robot apparatus includes: an information detecting step of detecting external or internal information of the robot apparatus by a detecting unit; Alternatively, based on the causal factor acquisition step of acquiring causal factors that are information affecting the behavior of the robot device in the internal information, based on the causal factors acquired in the causal factor acquisition step, the behavior of the behavior affected by the causal factor is determined.
  • Such a behavior determination method for a robot device is such that external or internal information, which is information external or internal to the robot device, is detected by a detecting means in an information detecting step, and the external or internal information detected in the information detecting step is detected.
  • the causative factors which are the information affecting the behavior of the robot device, are acquired in the causal factor acquisition process, and the behavior affected by the causal factors is generated based on the causal factors acquired in the causal factor acquisition process.
  • the tendency is acquired in the appearance tendency acquisition step.
  • the appearance tendency corresponding to the two or more actions acquired in the appearance tendency acquisition step, which are in the same group, are compared in the appearance tendency comparison step.
  • One action is selected in the action selection step based on the comparison result of the appearance tendency in the tendency comparison step, and the operation unit of the robot apparatus is set to the operation unit control step based on the action selected in the action selection step. Control so that the selected action appears on the robot device. Then, the appearance tendency of one action selected in the action selection step changes according to the causal factor that changes due to the actual appearance of the action.
  • FIG. 1 is a perspective view showing an external configuration of a lopot device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.
  • FIG. 3 is a block diagram showing a software structure of the robot device described above.
  • FIG. 4 is a block diagram illustrating a configuration of a middleware layer of software of the above-described robot apparatus.
  • FIG. 5 is a block diagram showing the configuration of the above action determination system.
  • FIG. 6A and FIG. 6B are diagrams used to explain a robot device for determining behavior by the above ethological approach.
  • FIG. 7 is a diagram showing an action selection system constructed in the action selection unit and having a plurality of actions in a hierarchical structure.
  • FIG. 8 is a diagram of the first half used to explain the function of each unit constituting the above-described action determination system. ⁇
  • FIG. 9 is a diagram of the latter half used to explain the function of each unit constituting the above-described action determination system.
  • FIG. 10 is a block diagram used to explain a case where behavior is determined by perception and motivation according to an ethological approach.
  • FIGS. 11A to 11C are characteristic diagrams showing a causal factor state space composed of causal factors and an appearance tendency space in which the appearance tendency of the behavior defined by the causal factor state space is mapped. .
  • FIG. 12 is a diagram used to explain the factor state space.
  • FIGS. 13A and 13B are characteristic diagrams showing the causal factor state space of eating behavior and ice behavior used in the description of formulating the ethological approach.
  • FIG. 14 is a characteristic diagram showing an appearance tendency space composed of the eating tendency and the eating tendency used in the description for formulating the ethological approach.
  • Figure 15A shows the case where the values mapped from the causal factor state space are in the eating behavior selection area
  • Fig. 15B is a characteristic diagram showing the case where the value mapped from the causal factor state space is in the watering action selection area.
  • FIG. 16 is a diagram used to explain exclusive control.
  • Fig. 17 is a characteristic diagram showing the appearance tendency space used to explain the selection of actions realized by the calculation formula based on the ethological approach.
  • FIG. 18 is a characteristic diagram showing an appearance tendency space used to explain selection of an action by an actual process of the robot apparatus.
  • FIG. 19 is a block diagram showing the flow of information among the perceptual information acquisition unit, the motive information acquisition unit, and the behavior information selection unit that constitute the behavior selection unit.
  • FIG. 20 is a diagram used to explain the calculation of the appearance tendency before exclusive control.
  • FIG. 21 is a diagram used to explain calculation of an appearance tendency by exclusive control.
  • FIG. 22 is a flowchart showing the procedure for calculating the appearance tendency.
  • FIG. 23 is a block diagram illustrating a configuration of the perceptual information acquisition unit.
  • FIG. 24 is a flowchart illustrating a processing procedure in the above-described perceptual information acquisition unit.
  • FIG. 25 is a diagram used to explain the motivation information acquisition unit.
  • FIGS. 26A and 26B show another embodiment of the robot apparatus, which is used to explain a case where the action selection in the lower layer is not influenced by the motive in the action selection system having a hierarchical structure.
  • FIG. 26A shows another embodiment of the robot apparatus, which is used to explain a case where the action selection in the lower layer is not influenced by the motive in the action selection system having a hierarchical structure.
  • FIG. 27 is a diagram used to explain the functions of the action selection calculation unit and the operation generation unit of the robot device according to the other embodiment described above.
  • FIG. 28 is a block diagram showing the configuration of the action determination system for a robot device in another actual mode described above.
  • FIG. 29 is a block diagram illustrating a configuration of the operation generation unit.
  • FIG. 30 is a block diagram showing a plurality of action selecting units which are set as objects.
  • FIG. 31 is a diagram showing a specific example of the first half of each action group configuration in the subsystem layer, the mode layer, and the module layer.
  • Figure 32 shows the behavior groups in the subsystem layer, mode layer, and module layer. It is a figure which shows the specific example of the latter half of a structure.
  • BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
  • the present invention is applied to a robot apparatus that changes the state of instinct and emotion based on external factors and internal factors, and acts according to the state of instinct and emotion. .
  • leg units 3A, 3B, 3C, and 3D are connected to the front, rear, left, and right of the body unit 2, respectively.
  • the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
  • the body unit 2 includes a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 11, a flash ROM (Read Only Memory) 12, and a PC (Personal Computer).
  • the control section 16 formed by connecting the card-in-time interface circuit 13 and the signal processing circuit 14 to each other via the internal bus 15 and the power source of the robot device 1 Battery 17 is stored.
  • the body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the direction and the acceleration of the movement of the robot device 1.
  • the head unit 4 has a CCD (Charge Coupled Device) camera 20 for imaging an external situation and a pressure applied by a physical action such as “stroke” or “hit” from the user.
  • Sensor 21 for detecting the distance
  • a distance sensor 22 for measuring the distance to an object located ahead
  • a microphone 23 for collecting external sounds, and outputting a sound such as a squeal Speaker 24 and an LED (Light Emitting Diode) corresponding to the “eye” of the robot device 1 (not shown).
  • LED Light Emitting Diode
  • Actuyue 25 ⁇ 25 ⁇ has a servo mode configuration.
  • the leg units 3A to 3D are controlled by the drive of the servomotor, and transition to the target posture or motion.
  • the signal processing circuit 14 sequentially captures the sensor data, image data, and audio data supplied from each of the above-described sensors, and sequentially receives them at predetermined positions in the DRAM 11 via the internal bus 15. Store. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores it in a predetermined position in the DRAM 11.
  • the sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this manner are stored in the DRAM 11, and the CPU 10 thereafter controls the operation of the robot device 1. Used when performing.
  • the CPU 10 when the power of the robot apparatus 1 is turned on, the CPU 10 is stored in the memory card 28 or the flash ROM 12 mounted on the PC unit slot (not shown) of the body unit 2.
  • the read control program is read out via the PC card interface circuit 13 or directly, and stored in the DRAM 11.
  • the CPU 10 thereafter, based on the sensor data, image data, audio data, and remaining battery level data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, as described above. Situation, user's instructions and Judge which.
  • the CPU 10 determines the subsequent action based on the result of the determination and the control program stored in the DRAM 11, and based on the determined result, the necessary action 25 25 25
  • the head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3A to 3D can be driven. And perform actions such as walking.
  • the CPU 10 generates an audio signal as needed, and supplies it to the speaker 24 as an audio signal via the signal processing circuit 14 so that the audio based on the audio signal is externally provided.
  • Output, or turn on / off or blink the above-mentioned LED in this way, the robot apparatus 1 can act autonomously according to its own and surrounding conditions, and instructions and actions from the user. It has been made like that.
  • the device driver layer 30 is located at the lowest layer of the control program, and is composed of a device driver.
  • 'Set 31 including a plurality of device drivers.
  • each device driver is an object that is allowed to directly access hardware used in a normal computer such as a CCD camera 20 (Fig. 2) and a timer. Performs the process in response to the interrupt.
  • the manager object 37 includes an object manager 38 and a service manager 39.
  • the object 'Manager 3 Reference numeral 8 denotes a software group that manages activation and termination of each software group included in the robotic server.object 32, middleware.layer 40- and application layer 41.
  • the manager 39 is a software group that manages the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).
  • ⁇ Wear ⁇ Layer 40 is located in the upper layer of robotic server object 32 and is composed of software that provides basic functions of robot device 1 such as image processing and audio processing. It is configured.
  • the application layer 41 is located at a higher layer than the middleware layer 40 and is based on the processing result processed by each software group constituting the middleware layer 40. It consists of a group of software for determining the behavior of the robot device 1.
  • the specific software configurations of the middleware layer 40 and the application layer 41 are shown in FIG.
  • a recognition system 60 having signal processing modules 50 to 5.8 for color recognition, an input semantics converter module 59, etc .; an output semantics converter module 68; attitude management, tracking; It comprises a recognition system 60 having signal processing modules 61 'to 67 for motion reproduction, walking, falling and returning, LED lighting and sound reproduction.
  • Each of the signal processing modules 50 to 58 of the recognition system 60 transmits various sensor data and data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robot server object 32.
  • the corresponding data of the image data and the audio data is fetched, predetermined processing is performed based on the data, and the processing result is provided to the input semantics converter module 59.
  • the virtual mouth port 33 is configured as a part for transmitting / receiving or converting a signal according to a predetermined communication protocol.
  • the input semantics comparator module 59 Based on the processing results given from each of these signal processing modules 50 to 58, the input semantics comparator module 59, based on the processing results given from these signal processing modules 50 to 58, "Bright”, “detected ball”, “detected fall”, “stroke”, “hit”, “sounds of domiso”, “detected moving object”, or “obstacle” It recognizes the situation of itself and its surroundings, such as "object detected,” and commands and actions from the user, and outputs the recognition result to the application's layer 41 (Fig. 2).
  • the application layer 41 has an action decision system for action decision which will be described later.
  • the output semantics converter module 68 controls each of the signal processing modules 61 to 67 based on the behavior information. That is, for example, according to the recognition result of the recognition system 60, "noisy”, “hot”, “bright”, “detected the ball”, “detected a fall”, “stroke”, " Responding to self and surrounding conditions, such as ⁇ hitting '', ⁇ he heard a domeso scale '', ⁇ detected a moving object '' or ⁇ detected an obstacle '', as well as commands and actions from the user Control information (commands) for each signal processing module 6! Output to ⁇ 67.
  • the action information input to the output semantics converter module 68 is an abstract action command such as “forward”, “pleasure”, “squeal” or “tracking (follow the ball)”.
  • the semantics converter module 68 gives those action commands to the corresponding signal processing modules 61 to 67.
  • the behavior information input to the output semantics converter module 68 is from a behavior determination system that is an upper information processing unit, but is a main part according to the present invention, and will be described in detail later. is there. '
  • each of the signal processing modules 61 to 67 outputs a control signal for controlling each device to the virtual robot 33 based on the action command from the output semantics converter module 68.
  • the signal processing module 6 1-6 given the behavior command based on the action command, Akuchiyue Isseki 2 5 1 5 2 5 2 corresponding to perform its behavior, ... ⁇ Generates the servo command value to be given to (Fig. 2) and the audio data of the sound output from the speaker 24 (Fig. 2) and / or the drive data to be given to the LED of the "eye".
  • the robot-server object 32, the virtual robot 33, and the signal processing circuit 14 sequentially correspond to the corresponding actuator 25 ⁇ 25 'or the speed force 24. Or send to LED sequentially.
  • Each device is controlled based on a signal (command) from the virtual mouth bot 33, so that the mouth pot device 1 makes a predetermined action appear.
  • next action is determined based on the recognition result from the input semantics converter module 59, and information on the determined action is output to the output semantics converter module 68.
  • the robot device 1 determines an action by an action determination system 70 as shown in FIG.
  • the action determination system 70 determines an action based on the recognition result from the input semantics converter module 59, and outputs the action to the output semantics converter module 68.
  • the robot device 1 includes an action selecting unit 80, an internal state model unit 71, and a module 2.
  • the action selecting unit 80 selects a desired action from a plurality of actions. Specifically, the action selecting unit 80 selects a desired action based on the recognition result of the input semantics converter module 59.
  • the action selection unit 80 includes a perceptual information acquisition unit 90, a motive information acquisition unit 81, and an action selection calculation unit 82, and selects an action.
  • the perceptual information acquisition unit 90 and the motive information acquisition unit 81 include detection means for detecting external or internal information such as a CCD camera 20, a distance sensor 22 and a microphone 23. Based on the detected external or internal information, causal factor acquisition means for acquiring causal factors that are considered to be information affecting behavior, and behavior affected by the causal factor based on causal factors acquired as causal factor acquisition means
  • the behavior selection calculation unit 82 includes an appearance tendency acquisition unit that acquires the appearance tendency of the object, and the behavior selection calculation unit 82 includes an appearance tendency corresponding to two or more behaviors acquired by the perception information acquisition unit 90 and the motive information acquisition unit 81.
  • an action selecting means for selecting one action is configured based on an appearance tendency comparison means for comparing the appearance tendencies of the same group and an appearance tendency comparison means, and an output semantic.
  • the tics converter module 68 controls the operation section based on the action selected by the action selection calculation section 82 to output the selected action.
  • the operating part control means to be realized is constituted.
  • the action selecting unit 80 obtains the perceptual information obtained by the perceptual information obtaining unit 90 from the recognition result, and the motivation information obtaining unit 81 obtains from the internal state information from the internal state model unit 71.
  • the action is selected by the action selection calculation unit 82 based on the obtained motive information.
  • the action selecting section 80 will be described later in detail.
  • the internal state model unit 71 has an internal state model that changes the instinct and emotional state (internal state) of the robot apparatus 1 according to external factors and internal factors.
  • the external factor is, for example, information struck, stroked, or a command from a user.
  • the internal factors are information such as low battery level and rising body temperature.
  • the internal state model unit 71 changes the internal state based on the recognition result of the input semantics converter module 5_9. And output to the module.
  • the motive information acquisition unit 81 acquires motive information based on the internal state information. This will be described in detail later.
  • MOJIURE Ichiya 72 is the part that generates the action information (action command). More specifically, the action information 72 is the action information finally expressed from the action selected by the action selection unit 80 and the information on the internal state from the internal state model unit 71. Is generated and output to the output semantics compiler module 68.
  • the modulator radar 72 adds the instincts and emotional states obtained by the internal state model section 71 to the actions determined (selected) by the action selecting section 80, and causes the robot apparatus 1 to take action. Can appear. That is, for example, the action selecting unit 80 selects the next action such as “eat an apple” based on the recognition result or the like, while the internal state model unit 71 selects the current robot device based on the recognition result. For example, "angry” is acquired as the internal state of 1. Then, based on the information, Mogiyure Ichiya added the behavior of “eat apples” to the internal state of “angry” and the behavior of “eat apples in a bad mood”.
  • the output semantics comparator module 68 sends a signal to each signal processing module 61 to 67 to control each device to control the operation section. Then, the next action (the desired action) will appear as an apple eating action.
  • the internal state information indicating the state of instinct and emotion generated in the internal state model unit 71 is also used as information when the robot apparatus 1 determines (selects) an action. It is used in such a way that it does not appear (is added) to the decided action.
  • the action determining system 70 determines an action based on the recognition result. ⁇ Hereinafter, each component of the action determining system 70 will be described in more detail ( (3-1) Internal state model unit) Configuration
  • the internal state model section 71 changes the internal state such as instinct and emotion according to external factors and internal factors.
  • the instinct and emotion states obtained by the internal state model unit 71 are used as information when the robot apparatus 1 determines an action, as described above, and are also displayed for the determined action. It is also used in the form of being issued (added).
  • the internal state model 71 has a plurality of elements related to instinct (desirability) and personality that change according to external factors and internal factors.
  • the internal state model section 71 includes: fatigue, heat or body temperature, pain, appetite or hunger, dryness, affection, curiosity.
  • Nine instinctual elements such as heart, excretion (el imination) and sexual desire (sex.ual), and happiness, sadness, anger, surprise, disgust ), Fear, frustration, boredom, sleep, somnolence, sociality, gregariousness, patience, tension, relaxed, alertness 18 emotional elements such as guilt, spite, loyalty, submission, ashamedy, etc.
  • the emotion element holds a parameter indicating the intensity of the emotion for each emotion. Then, the internal state model unit 71 converts the parameter value of each of these elements into a specific value such as “hit” and “stroke” given from the input semantics converter module 59. Change periodically based on recognition results and elapsed time.
  • the emotional elements include the recognition result given by the input semantics compa- tor module 59, the behavior of the robot device 1 at that time, and the elapsed time since the last update.
  • ⁇ ⁇ [t] the current parameter value of the emotion, E [t]
  • the coefficient representing the sensitivity of the emotion are expressed by ⁇ ⁇ [t].
  • the parameter value E [t + 1] of the emotion in the next cycle is calculated by equation (1), and this is calculated as the parameter value E of the emotion at present.
  • the internal state model unit 71 updates the parameter values of all emotions such as “happiness” by the expression (1) shown above.
  • each recognition result and the notification from the output semantics converter module 68 affect the amount of variation in the parameter value of each emotion ⁇ [7] is determined in advance, for example, “hit”.
  • Recognition results such as “anger” have a significant effect on the amount of change in the parameter value of emotions ⁇ [t]
  • recognition results such as “stroke” indicate changes in the parameter value of “joy” emotions. It has a large effect on the quantity ⁇ ⁇ [t].
  • the notification from the output semantics converter module 68 is so-called feedback information (action completion information) of the action, information on the appearance result of the action, and the internal state model unit 71 is , c Note also changes the emotion by such information, internal state model portion 71 similarly instinct to be described later is also changed.
  • the feedback of the action results is as follows. It may be performed by the output of 2 (behavior with added emotion).
  • the instinct element holds a parameter indicating the strength of the desire for each desire (instinct). Then, the instinct ⁇ : element periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 59, the elapsed time and the notification from the output semantics converter module 68, etc. .
  • the instinct factor is based on the recognition results of "tired”, “affection”, and “curiosity” ', “libido”, “excretion”, elapsed time, and notification from the output semantics converter module 68.
  • the amount of change of the desire at that time calculated by a predetermined arithmetic expression is 1 [k]
  • the parameter value of the current desire is I [k]
  • the coefficient ki representing the sensitivity of the desire is given as Calculate the parameter value I [k + 1] of the desire in the next period using equation (2) in the cycle, and replace this operation result with the parameter value I [k] of the desire now
  • the parameter value of the desire is updated.
  • the internal state model unit 71 updates the parameter values of all instinct (desirability) such as the fatigue described above by using the equation (2).
  • a parameter value of a predetermined desire can be determined.
  • “pain” is determined based on the number of abnormal postures notified via the signal processing module 55 for posture detection of the middle 'wear' layer 40 and the input semantics converter overnight module 59. , the number of times is N, the intensity of pain and Ki, to the speed of the constant pain decreases and K 2, the equation (3), the "pain”
  • the parameter value I [k] is calculated, and the parameter value of the “pain” is changed by replacing the result of the calculation with the current parameter value I [k] of the pain.
  • I [k] is less than 0
  • the remaining battery level is obtained based on the remaining battery level data (information obtained by the battery level detecting module shown in the figure) provided via the input semantics converter module 59.
  • Is defined as B L and the parameter value I [k] of “appetite” is calculated in a predetermined cycle by equation (5), and this calculation result is replaced with the current appetite parameter overnight value I [k]. Then, the parameter value of “appetite” is updated.
  • the battery remaining at time t is determined based on the battery remaining fi change rate given via the input semantics converter overnight module 59. Assuming that S is B L (seven), and that battery remaining amount data is acquired at times t> and t2,
  • the dry parameter value I [k] is calculated by equation (6), and the calculated result is replaced with the current dry parameter value I [k] to replace the dry parameter. Update.
  • the emotion and parameter Isseki values are ⁇ to vary in range H therefrom then 0 to 100, also the coefficient k e, the values of ki of each desire (instinct) Are also set individually for each emotion and each desire.
  • the internal state model unit 71 is configured, and the robot device 1 uses the internal state model unit 71 to respond to the situation of itself and the surroundings, and to instructions and actions from the user. It is designed to be able to perform autonomous actions by changing instinct (desire) and emotional state (parameters).
  • the robot apparatus 1 includes, as external sensors for detecting the situation around the west, in addition to the above-described CCD camera 20, distance sensor 22 s scanner sensor 21, microphone mouth phone 23, and the like.
  • a temperature sensor (not shown) for detecting an ambient temperature is provided at a predetermined position.
  • the recognition system 60 of the middle and wear layer 40 includes signal processing modules 50 to 52 for noise detection, temperature detection, and brightness detection. .
  • the signal processing module 50 for noise detection is controlled based on the sound data from the microphone 23 (FIG. 2) given through the virtual robot 33 of the robot server object 32.
  • the noise level of the The input semantics are output to the converter module 59.
  • the signal processing module 51 for temperature detection detects an ambient temperature based on a sensor data from a temperature sensor provided via the virtual robot 33, and inputs a detection result to the semantics converter module. 5 Output to 9.
  • the signal processing module 52 for detecting brightness detects the illuminance of the surroundings based on image data from the CCD camera 20 (FIG. 2) given via the virtual robot 33.
  • the detection result is output to the input semantics converter module 59.
  • the input semantics converter module 59 recognizes the degree of “noise”, “temperature” and “illuminance” of the surroundings based on the output of each of the signal processing modules 50 to 52, and reports the recognition result as described above. Output to the internal state model part 71 of the application module 41 (FIG. 5) as follows.
  • the input semantics converter module 59 recognizes the degree of surrounding “noise” based on the output of the signal processing module 50 for noise detection, and recognizes “noisy” or “quiet”. The result is output to the internal state model unit 71. Also, the input semantics converter module 59 recognizes the degree of “temperature” of the surroundings based on the output of the signal processing module 51 for temperature detection, and internally recognizes the recognition result such as “hot” or “cold”. Output to the state model unit 71 and the perceptual information acquisition unit 90.
  • the input semantics converter module 59 recognizes the degree of “illuminance” in the surroundings based on the output of the signal processing module 52 for brightness detection, and recognizes “bright” or “dark”. The result is output to the internal state model 71, etc. As described above, the internal state model unit 71 periodically changes each parameter value according to the expression (1) based on various recognition results given from the input semantics converter module 59.
  • the internal state model unit 71 1) Increase or decrease the value of the coefficient ke in the equation. Specifically, for example, when a recognition result such as “noisy” is given, the internal state model unit 71 increases the value of the coefficient ke for the emotion of “anger” by a predetermined number. When a recognition result such as “quiet” is given, the value of the coefficient ke for the emotion of “anger” is reduced by a predetermined number. As a result, the parameter value of “anger” changes due to the influence of the surrounding “noise”.
  • the internal state model unit 71 reduces the value of the coefficient ke for the emotion of “joy” by a predetermined number, whereas the recognition state such as “cold”
  • the value of the coefficient ke for the emotion of “sadness” is increased by a predetermined number.
  • the parameter value of "sadness” changes due to the "temperature” of the surroundings.
  • internal state model unit 7 1 such as "bright” if such a recognition result is given increased a predetermined number of values of the coefficient k e for emotion "joy”, [. Dark “contrast increasing the predetermined number of values of the coefficient k e for the emotion "fear” when the recognition result is given. As a result, the parameter value of “fear” changes due to the “illuminance” of the surroundings.
  • the internal state model unit 71 calculates each semantic according to the expressions (2) to (6) based on the various recognition results and the like given from the input semantics.
  • the parameter of desire is changed periodically.
  • the internal state model unit 71 generates a predetermined corresponding desire () based on the recognition result of the degree of “noise”, “temperature” and “illuminance” given from the input semantics converter module 59. 2) Increase or decrease the value of the coefficient ki in the equation c. Specifically, when the recognition result such as “noisy” or “bright” is given, for example, the internal state model unit 71 The value is decreased by a predetermined number, and when a recognition result such as “quiet” or “dark” is given, the value of the coefficient ki for “fatigue” is increased by a predetermined number. Further, when a recognition result such as “hot” or “cold” is given, the internal state model unit 71 increases the value of the coefficient ki for “fatigue” by a predetermined number.
  • the parameter value of “anger” tends to increase and the parameter value of “tired” tends to decrease.
  • the behavior becomes “irritated” as a whole, and when the surroundings are “quiet”, the parameter value of “anger” tends to decrease and the parameter of “tired” Because the value is likely to increase, the behavior as a whole is a “settled” behavior.
  • the robot apparatus 1 can change the state of instinct and emotion according to the environment (external factors or internal factors) by the internal state model unit 71, and Can be expressed in actions. Further, the state of instinct and emotion obtained by the internal state model unit 71 is also used as information for selecting an action in the action selection unit 80.
  • the action selector 80 selects one action from a plurality of actions prepared in advance.
  • the action selection section 80 is constructed to make action selection (decision) using an ethological approach.
  • animals determine behavior based on a plurality of external and internal causative factors (hereinafter collectively referred to as causal factors) that affect behavior. Determine their actions in a state of intertwining.
  • the robot apparatus 1 adopts such a general mechanism for determining behavior of an animal to determine its behavior.
  • Robotic equipment whose behavioral decision mechanism is built using an ethological approach For example, as shown in FIG. 6A, when there is a puddle in front of the eye, the device 1 determines an action to appear by the following procedure.
  • the robot apparatus 1 perceives and recognizes (evaluates) external causal factors (external perceptual elements, for example, those based on perception) of “discover water” and “up to 10 cm of water”.
  • external causal factors external perceptual elements, for example, those based on perception
  • the motives as internal causal factors are “high throat dryness” and “moderate angry”. It is in the state of.
  • the motive is obtained using the parameter values of the internal state model 71 described above. This will be described in detail later.
  • the action is finally determined as compared to other actions. For example, if you want to drink water and want to eat food, the degree of “want to drink water” or its feasibility and the degree of “want to eat food” or its realization Compare the possibilities and select, for example, watering behavior as one action.
  • the robot device 1 With such an ethological approach, the robot device 1 finally determines the behavior. In other words, the robot apparatus 1 makes a comprehensive judgment based on information such as “discovery of water” under the condition of "high throat dryness” and information such as “10 cm to water”. Exclude other actions such as action j, and make “watering action” appear. In addition, the robot apparatus 1 causes the angry operation to appear to take a water action as the state of “moderate angry”. This is achieved by the above-mentioned module 72. Then, for example, the mouth port device 1 lowers the level of “anger” by detecting water as an internal state. This is realized by the feedback of the action completion information from the output semantics combiner module 68 to the internal state model unit 71, and the speed.
  • FIG. 6B shows a procedure for selecting “walk forward” as a specific action of “permanent behavior” by the ethological approach as described above.
  • the robot apparatus 1 selects “ingestion behavior” from a plurality of behaviors.
  • Other actions not selected include, for example, "fighting action” and “searching action”.
  • the robot apparatus 1 is a behavior group in which such “ingestion behavior”, “fighting behavior”, “searching behavior”, and the like can be selected, and is held as a subsystem (subsystem layer).
  • the action group is composed of a plurality of lower-level actions that embody the higher-level actions.
  • the lower-level actions have a relationship of suppressing each other.
  • the 'robot device 1 selects' watering behavior' as one of the selected ingesting behaviors.
  • Other ingestion behaviors that were not selected include, for example, “feeding behavior”.
  • the robot apparatus 1 is set as a behavior group in which such “water intake behavior” and “feeding behavior” can be selected, and is held as a mode (mode layer).
  • mode layer mode layer
  • “water intake behavior” and “feeding behavior” are set as behavior groups, and are held as subordinate actions of “ingestion behavior”.
  • the robot apparatus 1 is a group (selectable) such as “approaching water” and “putting water into the mouth”, and is held as a module (module layer).
  • the robot apparatus 1 causes the behavior of the lowest layer such as “walking forward” from the ethological approach to appear as the final behavior of the “ingestion behavior” that defines the behavior at the top. .
  • FIG. 7 shows an action selection system constructed for the action determination of the robot device 1.
  • This action selection system is constructed, for example, in the action selection unit 80.
  • the action selection system is constructed with multiple actions in a hierarchical structure (tree structure).
  • an action group consisting of a plurality of lower actions is composed of an action group that embodies the upper action. For example, if the upper action is “fighting action”, the lower action is likely to be “fighting / predatory action” or “defense / flight action”.
  • the action selection system may hold information of each action in a data form (for example, a data form), and may be designed to be object-oriented. For example, if the action selection unit is designed as object-oriented, the action selection system will configure each action independently as a unit of object, and perform various processes for action selection for each object. .
  • the action is selected while proceeding to the lower layers, that is, the action that realizes the higher action is selected, and the final action is selected.
  • the actions in the middle class it indicates information on the selected route from the highest action to the lowest action.
  • the action selection unit 80 includes a perceptual information acquisition unit 90, It has a motive information acquisition unit 81 and an action selection calculation unit 82.
  • the components constituting the action selecting unit 80 function roughly as shown in FIGS. 8 and 9. ⁇
  • the perceptual information acquisition unit 90 acquires perceptual information for each action. For example, as the acquisition of perceptual information, an RM value indicating the evaluation of perception in a release mechanism (to be described later) is calculated. For example, the perceptual information acquisition unit 90 detects water and recognizes that the distance to the water is 10 cm. As a result, the value of the ingestion behavior (watering behavior) increases, that is, the selectivity increases.
  • the motivation information acquisition unit 81 acquires motivation information for each action based on the internal state. For example, as acquisition of motivation information for each action, a motivation for each action is calculated based on the instinct values and emotion values described above. Specifically, it calculates a Mot value that indicates the state of motivation during the motivation ceremony described later. For example, the throat dry state is acquired by the motive information acquisition unit 81. As a result, the motivation value of the eating behavior is increased, and among the eating behaviors, the drinking behavior is further increased.
  • the action selection calculation unit 82 selects a desired action for each action from the motivation information (motivation value) from the motivation information acquisition unit 81 and the perception information (value) from the perception information acquisition unit 90. I do. Then, when selecting a desired action, the action selection calculating section 82 exclusively controls other actions in the same group. (Action group). For example, the behavior selection operation unit 82 selects an intake behavior in the subsystem layer, and further selects a water intake behavior in the intake behavior.
  • the action selection calculation unit 82 plans an actual action group based on the selected action. For example, select "Move-forward".
  • the internal state model unit 71 acquires information on internal states such as instinct and emotional state in the body. For example, instinct values and emotion values are calculated to obtain information on internal states. Specifically, the parameter value of the instinct (desire) described above, the parameter value of the emotion, or the IE value described later are calculated. For example, in the internal state model unit 71, information of a state that the throat is dry is obtained because of the movement.
  • the output semantics comparator module 68 is a module for converting an action into an action sequence according to the type of the robot device 1.
  • the output semantics converter module 68 now recognizes that the type of the robot device 1 is a four-legged robot, and converts it into an action sequence according to the input behavior and emotional state. That is, the output semantics complier module 68 sends a command from the action command from the higher-order action determination system 70 to each of the corresponding signal processing modules 61 to 67.
  • the column of “input” indicates the form of the command to be input
  • the column of “output” indicates the form of the command to be output.
  • the action selecting section 80 is configured. Next, the ethological approach adopted by the action selection unit 80 as the action selection system will be described in more detail.
  • the decision (selection) of an animal's behavior is, as described above, a complex intertwining of multiple factors.
  • actions are determined from perception and motivation. .
  • perception is information from the outside that affects the behavior, and can be considered as a condition induced or restricted by the input external environment.
  • the motivation is internal information such as “I am hungry.” It expresses the internal state and can be considered as the internal intention to want to take that action. In this way, it can be said that behavioral decisions are made as actions due to perception and motivation.
  • Action decisions based on perception and motivation are specifically made as follows.
  • the principle of action decision (selection) described below is based on the state space approach proposed by 81113 and ⁇ ) 111 (1 (1975)).
  • Silby and Mrfarland (1975) start with a theory based on the assumption that animals perform the most prominent activities (behaviors).
  • One direction that clearly shows the array of appearance trends is vector space. Therefore, the magnitude of the vector indicates the strength of the so-called appearance tendency based on an index having some commonality.
  • the appearance tendency is For example, there is a tendency (degree) in which eating behavior appears ⁇ a tendency (degree) in which watering behavior appears. All appearance states are represented as points on this appearance space.
  • This space is divided into regions where the behavior with the highest appearance is the highest, and the boundary line is the “switching line”.
  • the tendency of appearance depends on various causal factors. For example, eating habits depend on food restrictions, eating opportunities, and the possibility of feeding. A clear way to express all of these factors is to use another vector space. Determining the appearance tendency from the causal factor is synonymous with the following expression. In other words, there is a mapping from the state space of the causal factor to the appearance space, and there is a state space with an appearance tendency corresponding to any state of the causal factor. And it allows them to decide what action to take. The relationship between the causal factor and the appearance tendency will be described with reference to FIGS. 11A to 11C.
  • FIG. 11A and FIG. 11C show the causal factor state space showing the state of the causal factor.
  • This causal state space is composed of causal factors that influence a certain action.
  • the causal factors include the above-mentioned “perception” and “motivation”.
  • Figs. 11A to 11C only the two-dimensional space is considered for simplicity.In practice, however, many of the behavioral tendencies are determined by the causal factor state space of three or more dimensions. Is what is done.
  • Figure 11A specifically shows the tendency of eating behavior to appear, that is, the tendency of “feeding behavior” (hereinafter referred to as eating tendency), and is considered to be a causative factor.
  • the horizontal axis is “hunger” as the “motivation”, and the vertical axis is “deliciousness” as the causal factor “perception”.
  • Fig. 11C shows the tendency of water intake behavior to appear, i.e., the appearance tendency of "water intake behavior” (hereinafter referred to as the water intake tendency). "On the horizontal axis and" distance to water “as” perception "on the vertical axis.
  • Fig. 11B shows the space of the appearance tendency of "feeding tendency” and “watering tendency” based on the state of the causal factors in Fig. 11.A and Fig. 11C.
  • Appearance trends of more affected behaviors are mapped, and a space is shown where these appearance trends can be compared.
  • the causal factor state space shown in FIG. 12 is the causal factor state space of “feeding behavior” shown in FIG. 11A described above.
  • the causal factor state space contains several different feeding intensities yy 2 , ⁇ ⁇ ⁇ There is a-, which is shown as a contour line, as shown in Fig. 12, as a distribution of the tendency of eating. '
  • Fig. 12 it is shown that the intensity of eating increases as going to the upper right in the causal factor state space. This means that if you are very hungry and have very good food in front of you, everyone will be eating. 'In this way, the causal factor can define the strength of the tendency to eat, and similarly, the strength of the tendency to water can be defined.
  • the water intake behavior occurs when the throat is severe and the distance to the water (where there is water) is long, and when the throat is small, the behavior is apparent when the throat is short. “Throat throat” and “distance to water” interact to produce water intake behavior. .
  • the strength of the “feeding tendency” and the strength of the “watering tendency” are obtained based on the state of each causal factor, and the comparison is made based on these strengths.
  • An action is decided (chosen). It is in the appearance tendency space shown in Fig. 11B that such appearance trends are compared. Appearance tendency space can appear Consists of behavioral tendencies.
  • the appearance tendency space is divided into two regions by setting the switching boundary line.
  • a region surrounded by and hereinafter referred to as a feeding behavior selection region) is formed.
  • one action is determined by the position of the value (x, y) mapped from the causal factor state space. That is, if the value (x, y) is within the watering action selection area, the watering action is selected, and if the value (x, y) is within the feeding action selection area, the watering action is selected. Eating behavior will be selected. Therefore, in the example shown in FIG. 11C, the value ( ⁇ 2 , y) is (1) the water-supplying action is selected because the water-supplying action selection area.
  • the final selected action may affect the causal factor involved and several other causal factors. For this reason, information exclusion is performed.
  • the ethological approach to behavior determination as described above is only a theory, and in order to apply it to an actual robotic device 1, the ethological approach described above must be used. It is necessary to convert the information into a database or the like, or to formulate it. Therefore, in order to realize the present invention, the above-mentioned behavioral decision from the animal-imperative approach was formulated as follows.
  • the state (degree) of “hunger”, which is the causative factor of “feeding behavior”, is defined as Mot [0]
  • the evaluation of “deliciousness” is defined as RM [0]. deep.
  • the feeding tendency (strength of the tendency) at a certain value of Mot [0] and RM [0] is defined as Be [0]. '
  • the state (degree) of “throat stag”, which is the causative factor of water intake behavior, is defined as Mot [1], and the evaluation of “distance to water” is evaluated.
  • the perception is represented by the two values of RM [0] and RM [1], and the motivation is represented by Mo7. [ ⁇ ] and Mot [1], but it is possible to compare many appearance trends. Therefore, the perception (external intellectual element) is RM [i], the motive (internal hunting element) is Mot [i], and the appearance tendency is Be [i], where i is an integer.
  • RM [i] the perception (external intellectual element)
  • the motive is Mot [i]
  • Be [i] where i is an integer.
  • perceptual evaluations RM [i] such as “deliciousness” and “distance to water” are acquired by the perceptual information acquisition unit 90, and include “hungry” and “nodaki”.
  • the motivation Mo t [i] is acquired by the motivation information acquisition unit 81. Specific processing for acquiring such information in the perceptual information acquiring unit 90 and the motivation information acquiring unit 81 will be described later in detail.
  • the eating tendency and the water intake tendency obtained from the perception (external intellectual element) and the motive (internal motive element) are shown in the appearance tendency space as shown in FIG. .
  • the action with the strongest appearance tendency is selected from the following relationship.
  • the feeding tendency B e [0]. Is placed on the X axis, the water consumption tendency B e [1] is placed on the y axis, and the eating tendency B e [0] and the water consumption tendency B e [1].
  • the slope coefficients H and? Can be determined as arbitrary values, and can be determined according to, for example, the growth of the robot device 1 or the like.
  • the eating tendency B e [0] is a value determined by “Hungry” Mot [0] and “Taste” RM [0] shown in FIG. ] Is the value determined by the “Nodokawa” Mot [1] and the “distance to water” RM [1] shown in Figure 13B. ,
  • the above action selection can be realized by the following mathematical formula.
  • the slope ⁇ of the first switching boundary line can be expressed as' in a relationship such as equation (10).
  • equation (10) is the exclusive control gain (> 1) from the water intake tendency Be [1] to the food intake tendency Be [0].
  • Fig. 15B shows the case of water intake behavior, and the slope? Of the second switching boundary is given by equation (1 2). Note that? Is the exclusive control gain (> 1) from the feeding tendency Be [0] to the water feeding tendency Be [1], as described later. From such a relationship, it is derived that the condition for selecting “water intake behavior” satisfies equation (13).
  • the influence of the causal factor on the one action decreases, and the appearance tendency of the executed one action decreases.
  • the eating behavior is realized and the motive for eating is satisfied, and the influence of the causal factor (motivation) on the “feeding behavior” is affected.
  • the tendency to eat becomes smaller (weaker).
  • the feeding behavior is selected as one action as long as the value (a, a ') is in the corresponding eating behavior selection area.
  • the eating tendency B et [0] on the left side of the above equation (17) is positive.
  • the feeding or watering behavior selection area eating behavior can be selected.
  • the feeding tendency B e t [0] on the left side is also positive.
  • the effect of the causal factor is reduced by realizing the eating behavior, and the eating tendency B et [0] becomes smaller.
  • the value (a, a ') ranges from the watering action selection area to the feeding or watering action selection area.
  • the feeding or watering behavior selection area watering behavior is selected and In Eq. (17), the feeding tendency B et [1] on the left side is also positive.
  • the water intake tendency B et [1] decreases, and the value (a, a ') goes from the feeding or water intake behavior selection region to the eating behavior selection region.
  • eating behavior is selected again. That is, the change of the values from water consumption behavior selection area to eating behavior selection region (a, a ') is as shown by the arrow P 3 in the graph shown in FIG. 17. Thereafter, the action is selected in this way, and the action is switched.
  • either the eating tendency B et [0] or the drinking tendency B et [1] indicates a positive value, and the appearance tendency that is positive is one action to be selected. .
  • Such behavior determination is performed by the determination selection unit 71 shown in FIG.
  • G [i] [j] is an exclusive control gain of the appearance tendency Bet [i] of a certain action with respect to the appearance tendency Bet [j] of a certain action.
  • animals that determine the appearance tendency of each action based on causal factors such as perception and motivation and determine (or select) one action from the strength (magnitude) of the appearance tendency Behavioral decisions can be made using a behavioral approach.
  • the appearance tendency is finally 0, that is, the eating tendency B e [0] and the watering tendency B e [1 ] Converges to 0 (origin).
  • the effect of the causal factor (for example, the motivation) on the action approaches endlessly.
  • the robot device 1 can be set according to the growth stage It has a growth behavior model that changes the behavior to appear.
  • the growth model in the growth model is “infant”, the slope of the first switching boundary and the slope of the second switching boundary /? As a close value, narrow the feeding or watering behavior selection area.
  • the growth stage is "adult”, the inclination of the first switching boundary and the inclination /? Of the second switching boundary are set so that the feeding or ice-action selection area becomes wider. I do. .
  • the robot apparatus 1 frequently switches between eating behavior and watering behavior when the child is an “infant”, and appears to be less calm. Switching between eating and ice behavior is selected at appropriate intervals so that calm behavior appears.
  • the so-called recovery speed of the appearance tendency can be made variable. For example, when the growth level is low, the recovery speed is increased, and when the growth level is high, the recovery speed is reduced, so that the recovery speed is set according to the growth level. With this setting, switching between eating behavior and watering behavior is frequently performed when the child is an "infant", and eating and watering behavior when the "adult” is. Is appropriately switched, and the same effect as in the above-described example can be obtained.
  • the convergence is prevented by using the recovery of the appearance tendency.
  • the convergence may be similarly prevented by manipulating this in calculation.
  • the behavior selection unit 80 includes a perception information acquisition unit (Release Mechanism) 90 that acquires perception information (RM), and a motivation information that acquires motivation information (Mot). Acquisition unit (Motivation Creater) 81 and an action selection calculation unit 82 for selecting one action based on the perception information (RM) and the motive information (Mot).
  • a perception information acquisition unit Release Mechanism
  • a motivation information that acquires motivation information (Mot).
  • the three behaviors to be compared are “feeding behavior”, “water intake behavior”, and “excretion behavior”.
  • “feeding behavior”, “deliciousness” is cited as the first perceptual evaluation RM [0].
  • the appearance tendency space is composed of these eating tendency B et [0], water intake tendency B et [1], and excretion tendency B et [2].
  • a [i] is calculated as Bet [i]. That is, if there is an inverse relationship between the perception evaluation RM [i] and the motivation state Mot [i], the coefficient A [i] is calculated as the appearance tendency Bet [i]. .
  • the appearance tendency B e t [i] before the exclusive control can be calculated.
  • the appearance tendency B e t [i] in which exclusive control is considered can be calculated by equation (21).
  • Appearance tendency B e. "0”, B et [1], B et [2] are calculated as exclusive control.
  • the appearance tendency before the exclusive control and the appearance tendency before the exclusion are used to calculate the appearance tendency in consideration of the exclusion control.
  • step S2 the value of B et [2] to the (2 1) of the first term on the right side is calculated. That is, the appearance tendency B e t [i] before exclusive control is calculated.
  • step S6 the processing of step S2 to step S6 is specifically as follows.
  • step S3 the perception evaluation RM [0] and the motivation state Mot [0] are calculated. That is, for example, an evaluation RM [0] of “deliciousness” is obtained, and a state “Hungry” Mot [1] is obtained.
  • step S4 the appearance tendency B e t [0] of “feeding behavior” is calculated as the value of the first term on the right side of the equation (2 1).
  • steps S1 to S6 As the values before exclusive control, following the eating tendency B et [0], the water consumption behavior B et [1] and the excretion tendency B e7 [2] ] Is calculated.
  • step S7 the processing of step S7 is executed.
  • step S 8 either B e t [i] is judged whether or not a positive value is performed.
  • B et [i] is a positive value
  • a recursive calculation as shown in equation (21) is performed. That is, the calculation is performed with B et [i] obtained by the pre-processing as Bett- ⁇ [i].
  • the appearance tendency B et [i] can be obtained based on the perceptual evaluation (perceptual information) RM [i] and the motivation state (motivation information) Mo7 [i].
  • the perceptual information acquisition unit 90 for acquiring the perceptual evaluation RM [i] and the motivation information acquiring unit 81 for acquiring the motivation state Mot [i] will be described.
  • the perceptual information acquisition unit 90 will be described.
  • the perceptual information acquisition unit 90 acquires perceptual information (evaluation) as a causative factor of the behavior according to external or internal information (recognition result). As shown in FIG. 23, the perceptual information acquisition unit 90 includes a behavior memory 91, an object name memory 92, an object determiner 93, an object information memory 94, and a perceptual information calculator. It has 9 5.
  • the action memory 91 stores a plurality of actions that can be selected. For example, a plurality of actions are stored as a database.
  • the behavior memory 91 outputs a plurality of behaviors to be compared as one behavior group to the object determiner 93 by the behavior group number 'input of a signal'.
  • Behaviors that embody the behavior of eating an apple include, for example, approaching an apple, smelling an apple, putting an apple in a mouth, touching an apple, and the like.
  • “approaching” is an action that shortens the distance to the object
  • “smell” is an action of, for example, bringing the nose closer to the object
  • “putting in the mouth” is "Touching” the action of bringing an object into the mouth This is the action of bringing the hand (leg) into contact with the object.
  • the actions corresponding to “approach”, “smell”, “put in mouth”, “touch”, etc. are actions applicable to the target object in general.
  • the action memory 91 outputs a plurality of pieces of action information applicable to an object in general such as “approaching” to the object determiner 93 as one action group.
  • the action memory 91 extracts the action name information specified by extracting the information of the object of the lower action that embodies the higher action such as “eating an apple”.
  • 9 Output to 3.
  • the action name information output from the action storage unit 91 corresponds to the action whose appearance tendency is compared in the action selection calculation unit 82. Therefore, the behaviors are mutually restrained.
  • action name information as information applicable to an object in general eliminates the need to define multiple signals (commands) for the same operation for different objects, This is because, for example, the system itself, such as a database, is prevented from becoming too large in the case where stipulation is specified, and conversely, when similar actions are taken, there is no significant difference in the actions themselves for each object. For special actions, the actions may be specified anew, including information on the object.
  • the object name storage 92 stores an object name.
  • the object name stored in the object name storage device 92 is the object name selected in the higher-level action. For example, when “eating an apple (eating behavior of apple)” is selected as the top action, the robot apparatus 1 recognizes the presence of an apple. In this case, “apple” is the target object.
  • the name is stored in the object name memory 92. Then, the object name memory 92 outputs the object name information (object signal) to the object determiner 93.
  • the behavior memory 91 described above outputs behavior information applicable to the general object with respect to the lower-level behavior to the object determiner 93, and the object name memory 9 2
  • the object name is output to the object determiner 93. Therefore, the object determiner 93 uses the information (action name signal) output from the action memory 91 and the information (object signal) output from the object name memory 92 to determine the comparison target. Multiple actions are formed as complete information.
  • the object determiner 93 outputs a plurality of action information (action group signals) to the perceptual information calculator 95 in such a comparable form.
  • the object determiner 93 sets the perception information calculator 9 as a form (pair) corresponding to the action name acquired by the action memory 91 and the object name acquired by the object name memory 92. Output to 5.
  • the object determiner 93 outputs the information on the action output from the action memory 91 to the perceptual information calculator 95 as information on the action without the object.
  • the action storage device 91, the object name storage device 92, and the object determiner 93 configured as described above perform, for example, the following processing.
  • the behavior memory number 9 1 is inputted with the behavior group number “1”
  • "Action 3" is output to the object determiner 93
  • the object name memory 92 outputs "food” in response to "action 0", and outputs "food” in response to "action 1”.
  • “Water” is output
  • "No object” is output in response to action group "2”
  • “No object” is output in response to "Action 3".
  • such an example is a case where the higher-level action is “ingestion action”, and as described above, if the higher-level action is “eat an apple”, the object name memory 92 Only “apples” are output. Then, the object determiner 93 pairs each “action” output from the action memory 91 with the “object name” output from the object name memory 92 to form a pair. It is output to the perceptual information computing unit 95 as action information having a certainty.
  • the input semantics comparator module 59 outputs the perception information input to the D-bot device 1 to the object information storage device 94, and the object information storage device. Perception information sent from the input semantics converter overnight module 59 is stored. That is, for example, object information storage
  • the parameter 94 stores perceptual evaluation parameters used for calculating the appearance tendency, such as “apple”, “distance to the apple”, “the direction in which the apple is”, and the like.
  • the perceptual information calculator 95 is based on the object information (object information signal) from the object information storage device 94 and the action group information (action group information signal) from the object determiner 93. Then, a perceptual evaluation RM [i] corresponding to each action whose appearance tendency is compared in the action selection calculation unit 82 is acquired. That is, for example, using the “distance to an apple”, a perceptual evaluation of “eating an apple (eating behavior of an apple)” or a perceptual evaluation of “approaching an apple” is performed.
  • the perceptual evaluation R M [i] acquired by the perceptual information calculator 95 is output to the action selection calculator 82.
  • the perceptual evaluation R M [i] is output from the perceptual information acquisition unit 90 to the action selection calculation unit 82 as a vector amount.
  • the synchronization signal can also be output from the object determiner 93 to the object information storage device 94.
  • the output of the object determiner 93 and the output of the object information storage device 94 can be synchronized by the synchronization signal, so that the perceptual information calculator 95 has the object determiner 9
  • the parameter corresponding to the action from 3 can be input at a predetermined timing.
  • the robot device 1 has only one perceptual information acquisition unit 90.
  • the perceptual information acquisition unit 90 can be provided for each action and each action. In such a case, it is only necessary to consider that the perceptual information acquisition unit 90 applies one action to the general object, so that it is not necessary to provide the behavior storage unit 91.
  • an action selecting unit described later is configured as a plurality of objects.
  • step S11 an action group name is obtained.
  • Acquisition of an action group name refers to acquisition of an action group name indicating “approaching an apple”, “smell an apple”, etc., which are subordinate actions of “eat an apple”.
  • an object selection routine is executed.
  • step In S12 an action name group to be calculated is obtained.
  • a plurality of behaviors (behavior information in a form applicable to the general target object) are stored in the behavior memory 91. For example, it is information defining an action name such as “approach” or “smell”.
  • step S13 an object name is obtained.
  • the object name acquired in the higher-level action is stored in the object name storage 92.
  • it is information on an object such as “apple”.
  • the action name group and the object name are obtained.
  • step S14 it is determined whether or not the perceptual evaluation R M [i] in the perceptual information calculator 95 has been calculated for all the selected actions. If the calculation of the perceptual evaluation RM [i] has been completed for all the selected actions, the process is terminated, and the perceptual evaluation RM [i] is calculated for all the selected actions. If has not been completed, a perceptual evaluation calculation routine is executed. The perceptual evaluation calculation routine is executed in the perceptual information calculator 95 and includes the following processing.
  • step S15 a determination is made as to whether an object exists. If the target exists, the process proceeds to step S16. If the target does not exist, the process proceeds to step S18.
  • step S16 the perceptual information computing unit 95 acquires the distance and direction (parameters for acquiring the perceptual evaluation) of the object from the object information storage unit 94, and proceeds to step S17.
  • the perceptual evaluation (Value) RM [i] is calculated by. That is, for example, the evaluation R M [i] of “approaching an apple” is calculated from “distance to an apple”.
  • the distance is detected by the distance sensor 22, and the direction is detected by using a captured image of the CCD camera 20 or the like.
  • step S18 the perceptual information acquisition unit 95 calculates a perceptual evaluation (Value) R M [i] in a state where there is no object.
  • this processing corresponds to the case where the action for perceptual evaluation does not require an object.
  • Such a perceptual evaluation calculation routine is used for all actions (a plurality of actions constituting an action group) to be compared in the above-described discrimination processing in step S14. This is performed until it is determined that the perceptual evaluation RM [i] has been calculated. That is, the perception evaluation RM [i] of all the actions in the action group is calculated by the processing of step S14 and the perception evaluation calculation routine.
  • step S14 If it is determined in step S14 that the perceptual evaluation RM [i] of all actions in the action group has been calculated, the process ends.
  • the perceptual information acquiring unit 90 is configured as described above, and the perceptual information acquiring unit 90 can acquire a perceptual evaluation RM [i] for a plurality of actions to be compared in the action group.
  • the motivation information acquisition unit 81 acquires motivation, which is one of the causative factors of the behavior, based on the instinct and emotional state that change according to external or internal information (recognition result). As shown in FIG. 25, this motivation information acquisition unit 81 has an instinct.
  • the instincts' emotional parameters group IE [p] is composed of information that is influenced by instinct and emotions. Specifically, it consists of multiple parameters determined by the internal state model described above. It is configured. That is, as instinct and emotion parameters, for example, “tired”, “body temperature”, “pain”, “hunger”, “dry”, “affection”, “submission”, “curiosity”, “excretion” , “Happiness”, “sadness”, “anger”, “surprise”, “disgust”, “fear”, “irritation”, “boring”, “sleepiness”, “socialism”, “perseverance”, “tension” , “Vigilance”, “sin”, “malice”, “sincereness”, “libido”, “jealousy”, and the like.
  • the motivation group Mo t [i] of actions is a group of motivations corresponding to multiple actions within the same action group. For example, “hunger” for “feeding behavior” and “throat kid” for “watering behavior”.
  • the motivation information acquisition unit 81 calculates the motivation Mo t [i] for each action by mapping such instinct and emotion parameter IE [p]. Specifically, it is calculated by equation (22). Mot [0], [o] K [O] WK [0] [m] ffi [0]
  • the motivation Mo t [i] of each action is calculated by mapping as a linear sum.
  • the motivation motivation Mo7 [i] derived as such a determinant is obtained as a vector quantity from the motivation information acquisition unit 81 to the action selection calculation unit.
  • the motivation Mo t [i] of the action can be obtained from the instinct 'emotion parameter group I E [ ⁇ ] and the coefficient K [i] [m].
  • the instinct. Emotion parameter overnight group K [i] [p] appropriately, it is possible to obtain the desired motive Mo t [i] for acquiring the appearance tendency RM [i]. it can. That is, for example, motivation such as “throat throat” and “hungry” in the above example can be obtained.
  • the motivation information obtaining unit 81 is configured as described above, and the motivation information obtaining unit 81 can obtain a motivation Mo t [i] for each action.
  • the motivation obtained by the motivation information acquisition unit 81 changes according to the change of the parameter value of instinct and emotion, and as a result, is reflected in the selected action.
  • the motive is reflected in the behavior as follows.
  • the robot device 1 starts searching (the first example described above). As we walk around by searching, we accumulate fatigue as much as we walk. Also, curiosity itself can be reduced by searching. If nothing is input after walking for a while, curiosity decreases and fatigue increases, thereby switching to a resting behavior (the second example described above). By taking a rest after a while, fatigue is reduced, and the affection of the robot device 1 which is increased with time is swiftly switched (the third example described above). Thus, it can be seen that the motivation is reflected in the selected action.
  • the value of the coefficient K [i] [p] described above can be set arbitrarily.
  • mapping by IE [p] can be changed in various ways.
  • K [i] [p] it is possible to perform mapping in accordance with the type of animal, the growth level, and the like applied to the robot apparatus 1.
  • the concrete configuration of the perceptual information acquisition unit 90 for acquiring the perception evaluation RM [i] and the motivation information acquisition unit 81 for acquiring the motivation state Mot [i] has been described above. Based on the perceptual evaluation RM [i] and the motivation state Mot [i] acquired by the perceptual information acquisition unit 90 and the motivation information acquisition unit 81 as described above, the selection of one action in the action selection calculation unit 82 is performed. Done.
  • the system for action selection is constructed as a hierarchical structure as shown in FIG. 7 described above, and as described above in each layer until the lowest action (actually output action) is determined.
  • the action selection process is executed based on the perception evaluation RM [i] and the motive information Mo7 [i].
  • “ingestion behavior” is the result of behavior selection based on perceptual evaluation RM [i] and motivation information M07 [i] in the subsystem layer.
  • “Water intake behavior” is the result of behavior selection based on perceptual evaluation RM [i] and motivation information Mo t [i] in the mode layer composed of further embodied behavior groups.
  • an appearance tendency is calculated based on a cause factor such as perception or motivation, and one action is selected based on the tendency.
  • the same motivation information may be used for all layers. That is, for example, if "ingestion behavior” is regarded as a higher-level behavior, all lower-level behaviors are for realizing "intake behavior”. Given this, the lower-level actions are actions to satisfy the condition of “hunger (dry)”. Therefore, in the lower-level actions for realizing “ingestion behavior”, the state of 'hunger (dry)' is the motive information (causal factor).
  • perception does not always have such a relationship.
  • perceived information external intellectual element
  • distance to water can be cited, but the perceived information of “advancing” below “approaching water” is “water” This is because a certain direction may be optimal.
  • the processing for actually appearing one action selected by the action selection calculation unit 82 is performed by the module 72 and the output semantics converter module 68 described later.
  • the module is finally generated from the one action selected by the action selection unit 80 and the representative emotion information (representative emotion signal) output from the internal : state model unit 71. Determine action.
  • the representative emotion information output from the internal emotion model unit 71 indicates the current emotional state of the robot device 1.
  • the 'internal emotion model unit 71 outputs the instinct or emotion having the largest instinct (desire) or emotion parameter value as representative emotion information.
  • the module 72 modulates one action selected by the action selecting section 80 based on such representative emotions. In other words, by the processing of the module 72, emotions are expressed in the action.
  • the module 112 outputs information about the selected action modulated by emotion as described above to the output semantics converter module 68.
  • MOZYURE Ichiya 72 outputs behavior information as an abstract behavior command.
  • the output semantics converter module 68 gives an output corresponding to the behavior information from the module 72 to the signal processing modules 61 to 67. Thereby, the robot device 1 outputs the action determined by the action determination system 70 as an actual action.
  • the action determination system 70 has been described above.
  • the internal state model unit 71 changes the internal state such as the instinct and the emotional state of the robot device 1 based on the recognition result of the input semantics converter module 59 by the action determination system 70 as described above. Can be done. Further, the action selecting section 80 can select one action in which the robot apparatus 1 appears from a plurality of actions based on the recognition result.
  • the behavior information to which the emotion is added is output to the output semantics converter module 68 by the modulator 72.
  • the output semantics converter overnight module 68 holds information such as the type (for example, bipedal type or quadrupedal type) and the shape of the robot device 1, and modulates the information in accordance with this information.
  • the signal processing modules 61 to 67 are controlled by the behavior information from the evening 72.
  • the output semantics comparator module 68 is a quadruped walking robot device 1.
  • the action information such as “go forward” is sent from the module 72
  • a command is output to the signal processing module that controls the four legs in order to realize the “go forward”.
  • the output semantics converter module 68 sends a command to each of the corresponding signal processing modules 61-67 in response to the abstract action command from the module 72.
  • Each of the signal processing modules 61 to 67 controls a corresponding device based on a command from the output semantics converter module 68. This allows The action determined (selected) in the action determination system 70 as described above appears as the action of the robot apparatus 1 as an actual action.
  • the appearance of the behavior of the robot device 1 is performed under the control of the posture and the movement.
  • each part of the robot device 1 can operate independently in principle, it is prohibited to operate a predetermined operation independently by managing the posture and the operation.
  • the robot device 1 is configured such that the leg unit 3A to 3D, the head unit 4 and the tail unit 5 are connected to the body unit 2. .
  • each unit can operate independently by individually controlling each signal processing module according to the selected action.
  • improper operation may occur due to interference in the operation of each unit.
  • the transition to the target posture or motion is impossible from the current posture.
  • the robot apparatus 1 manages the posture and the movement by matching the units so as to prevent an unreasonable posture or interference between parts (each unit).
  • the robot apparatus 1 manages such postures and movements using the posture management module 61 shown in FIG. .
  • the posture management module 61 changes the state from the “sitting state” to the “walking state”.
  • Search for a posture transition path to be transitioned For example, search for a transition path from a “sitting state” to a “walking state” via multiple postures and actions. Then, based on the result of the search for the transition path from the “sitting state” to the “walking state”, in order to execute the posture and motion on such a transition path, an instruction is issued according to the order of the path to be transitioned. Output to the signal processing module.
  • the robot apparatus 1 can prevent an unreasonable posture and interference between parts, and reach the desired desired posture and movement, that is, the behavior determined by the behavior determination system 70 described above. it can.
  • the configuration and processing of the robot device 1 have been described above. With the above-described configuration, the robot device 1 can make the behavior determined by the ethological approach appear. This allows the robot The biological sensation of the device 1 further increases, and the user (owner) feels a closer affinity / satisfaction with the robot device 1.
  • the action determination system 70 determines the selection of the final action with reference to the motivation information. For example, in the example shown in FIG. 6B, “forward” is selected with reference to the motive information. However, the final action selection may be determined without the motive information.
  • the mode layer may be defined as having zero or more layers, and the module layer may be defined as having one layer.
  • an operation generation unit 100 is provided as a part that determines an operation without being based on the motive information as described above.
  • the motion generation unit 100 selects, from the behavior selected by the behavior selection calculation unit, an action that realizes the action of “approaching the water” or a subordinate action based on perceptual information or the like. Then, the operation generation unit 100 outputs the selected operation to the module 72.
  • the internal state model 7 1 It outputs behaviors modulated by sent emotions.
  • the action generation unit 100 includes a perceptual information acquisition unit 90 and an action selection calculation unit 102.
  • the output semantics Using the object information storage unit 94 in which various types of information from the data module 68 are stored, an action is selected in the action selection calculation unit 102.
  • the motion generation unit 100 can determine, for example, that the distance to the object, which is the information stored in the object information storage unit 94 (for example, The action selection operation unit 102 selects a motion by using only the information of the direction (for example, the information in which the object is in the right direction) and the direction (for example, the information in which the object is in the right direction).
  • the action selecting section 80 holds information on a plurality of actions, and determines one action based on the data of these actions. However, it is not limited to this.
  • the action determination system 70 can design a part for determining an action by object orientation. Even when constructing a system for deciding actions as object-oriented, the relationship in a hierarchical structure such as higher-level actions and lower-level actions is used as it is. In selecting an action, one action is selected for each object from an action group configured as an object. Specifically, as shown in FIG. 3 0, so that a selection action in action systems plurality of behavior selection section (object or thread) 8 0 ⁇ . 8 0 2, 8 0 3 as a hierarchical structure .
  • each action selector 8 0 1 5 8 0 2, 8 0 s like the action selector 8 0 having been the only behavioral determination system 7 0 described above, the perceptual information acquisition unit 9 0, motivation information acquisition unit 8 1 and an action selection operation unit 82 are provided.
  • the higher-level action selector 80! There based on the selected action, the selection of actions in lower action selector 8 0 2 8 0 3.
  • the selection of the higher-level action is the selection of the lower-level action selection unit. Then, the selected one action selection unit selects a lower-order action.
  • the action selection unit which is located at the bottom of such a plurality of actions consisting selector 8 0 8.0 2, 8 0 3 system, the information of the selected action, as described above operates Deliver to generator 100.
  • adding a new action refers to a case where a new action is acquired by learning or a case where a new action is added due to a change in the growth level.
  • the external or internal information is detected by the detecting means, and the external or internal information detected by the detecting means, and the causal factor which is the information affecting the behavior is acquired by the causal factor acquiring means. Then, based on the causal factors acquired by the causal factor acquiring means, the appearance tendency of the behavior affected by the causal factor is acquired by the appearance tendency acquiring means, and the two or more behaviors acquired by the appearance tendency acquiring means are acquired. The appearance tendency of the same group is compared by the appearance tendency comparison means, and one action is selected by the action selection means based on the comparison result of the appearance tendency by the appearance tendency comparison means. Based on the action selected by the selecting means, the operating unit is controlled by the operating unit control means, and the selected action appears, thereby affecting the causal factor. By comparing the appearance tendencies determined by the selection, one behavior is selected, and the behavior emerges as an ethological approach.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

明細書 ロボット装置の行動決定方法及びロポット装置 技術分野 本発明は、 ロボット装置の行動決定方法及びロボット装置に関し、 特に、 自律 的に行動するロボット装置及びそのようなロボット装置の行動を決定するロボッ ト装置の行動決定方法に関する。 背景技術 近年、 動物を摸した形状とされたロボヅト装置、 いわゆるぺヅトロボヅトが提 案されている。 このようなロボット装置は、 一般家庭において飼育される犬や猫 に似た形状を有し、 ユーザ (飼い主) からの 「叩く」 や 「撫でる」 といった働き かけや、 周囲の環境等に応じて自律的に行動する。 例えば、 自律的な行動として、 実際の動物と同様に、 「吠える」 、 「寝る」 等といった行動をする。
ところで、 ロボット装置が実際の動物のような行動に、 より近づくことができ れば、 ロボット装置の生物感が一層増し、 ュ一ザ (飼い主) は、 ロボット装置に 一層の親近感や満足感を感じる。 これにより、 ロボヅト装置のアミューズメント 性が向上する。
例えば、 実際の動物のような行動に行動をさせるものとして、 動物行動学的な アプローチからロボット装置の行動決定をするようなことが考えられる。
動物行動的なアプローチからなされた行動研究の成果として、 例えば、 物行動 学者の Sibly, Mcfarland らが動機付け空間表象の状態を 1975年に論文で発表し ている( "動物コミュニケーション" 西村書店)。 また、 Ludlowは、 1976年に行動 の競合モデルについて発表している。 そして、 これらの成果を Bruce Mitchel l B lumberg (Bruce of Arts, Amherst Col lege, 1977, Master of Siencs, Sloan School of Management, MIT, 1981 ) が 「01d Tricks, New Dogs : Ethology and Interactive Creatures」 (1997年 4月)【こおレヽて検証して ヽる。 Bruce Mitchel l Blumbergは、 3 0の0 0 (コンピュータグラフイク) の犬に対して上述した理論 を適用し、 行動選択メカニズムとして検証している。
ところで、 Bruce Mitchel l Blumbergは、 C Gモデルにて動物の行動選択メカ二 ズムについて検証しており、 実世界で存在するロボヅ ト装置に適応したものでは ない。
C Gなどのコンピュータシステムのディスプレイ等に表示される仮想生物では、 行動選択と行動実現とを直接結びつけること (行動選択 =行動実現) が可能であ るため、 行動の選択による動機へのフ ィー ドバックが可能であるが、 実際のロボ ッ トでは、 行動選択と行動実現とを直接結びつけることができるとは限らない (すなわち、 行動選択 =行動実現となるとは限らない) 。 これは、 以下のような ことが理由として挙げられる。
反射行動などの計画された行動とは無関係に実行される行動によって、 打ち消 される可能性がある。
センサからの入力のフィ一ドバヅクを使用しないと、 行動が真の意味で実現で きたか分からない場合がある。
■ このような理由において後者の具体的な例としては "足でボ一ルを蹴る"の行動 を、 ボールとの距離が蹴ることが可能な距離に到達した時点で行動が選択され、 行動命令が出力されたとしても、 ボールが置かれているところに傾斜があったり すると、 蹴れない場合が存在する。 "足でボールを蹴る"の行動結果としての"ボ ールを蹴れた" を認識するためには、 ボールとロボッ ト装置が接触し、 ボールが 前方に進んだことを認識して、 初めて "蹴れた" とできるのである。 すなわち、 ロボッ ト装置が有するセンサのセンサ情報を使用して行動に対する評価を行い、 ロボッ ト装置の内部状態を変化させることが必要になる。
このように、 上述したような Bruce Mitchel l Blumbergが提唱する技術だけでは、 実世界での存在であるロボツ ト装置の行動を決定することは不可能である。 発明の開示 本発明は、 上述の実情に鑑みてなされたものであり、 より生物感が向上された ロボット装置及びロボット装置の行動決定方法の提供を目的としている。
本発明に係るロボット装置は、 上述の課題を解決するために、 動作部を制御し て行動を出現させるロボット装置であって、 外部又は内部情報を検出する検出手 段と、 検出手段が検出した外部又は内部情報であって、 行動に影響する情報とさ れる原因因子を取得する原因因子取得手段と、 原因因子取得手段が取得した原因 因子に基づいて、 当該原因因子に影響される行動の出現傾向を取得する出現傾向 取得手段と、 出現傾向取得手段が取得した 2つ以上の行動に対応する出現傾向で あって、 同一グループとされる出現傾向を比較する出現傾向比較手段と、 出現傾 向比較手段による出現傾向の比較結果に基づいて、 一の行動を選択する行動選択 手段と、 行動選択手段が選択した行動に基づいて、 動作部を制御して、 当該選択 された行動を出現させる動作部制御手段とを備え、 行動選択手段が選択した一の 行動の出現傾向が、 当該行動の実際の出現により変化する原因因子に応じて変化 する。
このような構成を備えたロボット装置は、 外部又は内部情報を検出手段により 検出し、 検出手段が検出した外部又は内部情報であって、 行動に影響する情報と される原因因子を原因因子取得手段により取得し、 原因因子取得手段が取得した 原因因子に基づいて、 当該原因因子に影響される行動の出現傾向を出現傾向取得 手段により取得する。
' そして、 ロボット装置は、 出現傾向取得手段が取得した 2つ以上の行動に対応 する出現傾向であって、 同一グループとされる出現傾向を出現傾向比較手段によ り比較し、 出現傾向比較手段による出現傾向の比較結果に基づいて、 一の行動を 行動選択手段により選択し、 行動選択手段が選択した行動に基づいて、 動作部を 動作部制御手段により制御して、 当該選択された行動を出現させる。 そして、 行 動選択手段が選択した一の行動の出現傾向は、 当該行動の実際の出現により変化 する原因因子に応じて変化する。
このようなロボット装置は、 原因因子に影響されて決定される出現傾向につい て比較することで、 一の行動を選択しており、 動物行動学的なアプローチとして の行動を出現するようになる。 また、 本発明に係るロボット装置の行動決定方法は、 上述の課題を解決するた めに、 ロボット装置の外部又は内部情報を検出手段により検出する情報検出工程 と、 情報検出工程にて検出した外部又は内部情報のロボット装置の行動に影響す る情報とされる原因因子を取得する原因因子取得工程と、 原因因子取得工程にて 取得した原因因子に基づいて、 当該原因因子に影響される行動の出現傾向を取得 する出現傾向取得工程と、 出現傾向取得工程にて取得した 2つ以上の行動に対応 する出現傾向であって、 同一グループとされる出現傾向を比較する出現傾向比較 工程と、 出現傾向比較工程における出現傾向の比較結果に基づいて、 一の行動を 選択する行動選択工程と、 行動選択工程にて選択された行動に基づいて、 ロボッ ト装置の動作部を制御して、 当該ロボット装置に選択された行動を出現させる動 作部制御工程とを有し、 行動選択工程にて選択された一の行動の出現傾向が、 当 該行働の実際の出現により変化する原因因子に応じて変化する。 .
このようなロボヅト装置の行動決定方法は、 ロボット装置の外部又は内部の情 報とされる外部又は内部情報を情報検出工程にて検出手段により検出し、 情報検 出工程にて検出した外部又は内部情報のロボット装置の行動に影響する情報とさ れる原因因子を原因因子取得工程にて取得し、 原因因子取得工程にて取得した原 因因子に基づいて、 当該原因因子に影響される行動の出現傾向を出現傾向取得ェ 程にて取得する。
そして、 ロボット装置の行動決定方法は、 出現傾向取得工程にて取得した 2つ 以上の行動に対応する出現傾向であって、 同一グループとされる出現傾向を出現 傾向比較工程にて比較し、 出現傾向比較工程における出現傾向の比較結果に基づ いて、 一の行動を行動選択工程にて選択し、 行動選択工程にて選択された行動に 基づいて、 ロボット装置の動作部を動作部制御工程にて制御して、 当該ロボッ ト 装置に選択された行動を出現させる。 そして、 行動選択工程にて選択された一の 行動の出現傾向は、 当該行動の実際の出現により変化する原因因子に応じて変化 する。
このようなロボット装置の行動決定方法により、 ロボット装置は、 原因因子に 影響されて決定される出現傾向について比較することで、 一の行動を選択してお り、 動物行動学的なアプローチとしての行動を出現するようになる。 図面の簡単な説明 図 1は、 本発明の実施の形態であるロポツト装置の外観構成を示す斜視図であ る。
図 2は、 上述のロボヅト装置の回路構成を示すプロック図である。
図 3は、 上述のロボヅト装置のソフトウエア構造を示すプロヅク図である。 図 4は、 上述のロボヅト装置のソフトウエアのミ ドル ' ウェア · レイヤの構成 を示すプロヅクである。
図 5は、 上行動決定システムの構成を示すプロック図である。
図 6 A, 図 6 Bは、 上記動物行動学的なアプローチによる行動決定をするロボ ッ ト装置を説明するために使用した図である。
図 7は、 行動選択部における構築された、 複数の行動が階層構造とされた行動 選システムを示す図である。
図 8は、 上述の行動決定システムを構成する各部の機能を説明するために使用 した前半の図である。 ·
. 図 9は、 上述の行動決定システムを構成する各部の機能を説明するために使用 した後半の図である。
図 1 0は、 動物行動学的なァプロ一チによって、 知覚及び動機により行動を決 定する場合について説明するために使用したプロック図である。
図 1 1 A〜図 1 1 Cは、 原因因子によって構成される原因因子状態空間と、 原 因因子状態空間により規定された行動の出現傾向が写像される出現傾向空間とを 示す特性図である。
図 1 2は、 因因子状態空間を説明するために使用した図である。
図 1 3 A , 図 1 3 Bは、 動物行動学的なアプローチを数式化する説明に使用し た摂食行動及び摂氷行動の原因因子状態空間を示す特性図である。
図 1 4は、 動物行動学的なアプローチを数式化する説明に使用した摂食傾向と 摂食傾向とから構成される出現傾向空間を示す特性図である。
図 1 5 Aは原因因子状態空間から写像された値が摂食行動選択領域にある場合 を、 図 1 5 Bは原因因子状態空間から写像された値が摂水行動選択領域にある場 合をそれぞれ示す特性図である。
図 1 6は、 排他制御を説明するために使用した図である。
図 1 7は、 動物行動学的なアプローチによる計算式によって実現される行動の 選択を説明するために使用した出現傾向空間を示す特性図である。
図 1 8は、 ロボット装置の実際の処理による行動の選択を説明するために使用 した出現傾向空間を示す特性図である。
図 1 9は、 行動選択部を構成する知覚情報取得部と、 動機情報取得部と、 行動 情報選択部との間の情報の流れを示すブロック図である。
図 2 0は、 排他制御前の出現傾向の算出を説明するために使用した図である。 図 2 1は、 排他制御によるの出現傾向の算出を説明するために使用した図であ る。
図 2 2は、 出現傾向の算出手順を示すフローチヤ一トである。
図 2 3は、 知覚情報取得部の構成を示すブロック図である。
図 2 4は、 上述の知覚情報取得部における処理手順を示すフローチャートであ る。
図 2 5は、 動機情報取得部を説明するために使用した図である。
図 2 6 A , 図 2 6 Bは、 ロボット装置の他の実施の形態であって、 階層構造と された行動選択システムにおいて下位層における行動の選択が動機によって影響 されない場合を説明するために使用した図である。
図 2 7は、 上述の他の実施の形態のロボット装置の行動選択演算部及び動作生 成部の機能を説明するために使用した図である。
図 2 8は、 上述の他の実際の形態のロボット装置の行動決定システムの構成を 示すプロック図である。
図 2 9は、 動作生成部の構成を示すブロック図である。
図 3 0は、 オブジェクトとされた複数の行動選択部を示すプロツク図である。 図 3 1は、 サブシステム層、 モード層、 モジュール層における各行動グループ 構成の前半の具体例を示す図である。
図 3 2は、 サブシステム層、 モード層、 モジュール層における各行動グループ 構成の後半の具体例を示す図である。 発明を実施するための最良の形態 以下、 本発明の実施の形態について図面を用いて詳しく説明する。 この実施の 形態は、 本発明を、 外的要因及び内的要因に基づいて本能及び感情の状態を変化 させて、 この本能及び感情の状態に応じて行動をするロボット装置に適用したも のである。
実施の形態では、 先ず、 ロボヅ ト装置の構成について説明して、 その後、 ロボ ット装置における本発明の適用部分について詳細に説明する。
( 1 ) 本実施の形態によるロボット装置の構成
図 1に示すように、 「犬」 を模した形状のいわゆるぺットロボヅトとされ、 胴 体部ユニット 2の前後左右にそれそれ脚部ユニット 3 A, 3 B, 3 C, 3 Dが連 結されると共に、 胴体部ュニット 2の前端部及ぴ後端部にそれそれ頭部ュニッ ト 4及び尻尾部ュニット 5が連結されて構成されている。
胴体部ユニット 2には、 図 2に示すように、 C P U (Central Processing ノ Uni t) l 0、 D R A M ( Dynamic Random Access Memory) 1 1、 フラヅシュ R O M (Read O nly Memory) 1 2、 P C (Personal Computer) カードイン夕一フエ ース回路 1 3及び信号処理回路 1 4が内部バス 1 5を介して相互に接続されるこ とにより形成されたコントロール部 1 6と、 このロボット装置 1の動力源として のバヅテリ 1 7とが収納されている。 また胴体部ユニット 2には、 ロボヅ ト装置 1の向きや動きの加速度を検出するための角速度センサ 1 8及び加速度センサ 1 9なども収納されている。
また、 頭部ュニヅ ト 4には、 外部の状況を撮像するための C C D (Charge Coupled Devi ce) カメラ 2 0と、 ユーザからの 「撫でる」 や 「叩く」 といった物 理的な働きかけにより受けた圧力を検出するための夕ヅチセンサ 2 1と、 前方に 位置する物体までの距離を測定するための距離センサ 2 2と、 外部音を集音する ためのマイクロホン 2 3と、 鳴き声等の音声を出力するためのスピーカ 2 4と、 ロボヅ ト装置 1の 「目」 に相当する L E D (Light Emitting Diode) (図示せ ず) となどがそれそれ所定位置に配置されている。
さらに、 各脚部ュニヅ ト 3 A〜 3 Dの関節部分や各脚部ュニッ ト 3 A〜3 D及 び胴体部ュニット 2の各連結部分、 頭部ュニッ ト 4及び胴体部ュニット 2の連結 部分、 並びに尻尾部ュニット 5の尻尾 5 Aの連結部分などにはそれそれ自由度数 分のァクチユエ一夕 2 5 2 52, · · '及びポテンショメ一夕 2 6 , 2 62, · · •が配設されている。 例えば、 ァクチユエ一夕 2 5 ^ 2 5 · ·はサーボモー 夕を構成として有している。 サーボモ一夕の駆動により、 脚部ユニット 3 A〜 3 Dが制御されて、 目標の姿勢或いは動作に遷移する。
そして、 これら角速度センサ 1 8、 加速度センサ 1 9、 タヅチセンサ 2 1、 距 離センサ 2 2、 マイクロホン 23、 スピーカ 24及び各ポテンショメ一夕 2 6 2 62, · · 'などの各種センサ並びに LED及び各ァクチユエ一夕 2 5 2 52, • · ·は、. それそれ対応するハブ 27 〜 27„を介してコントロール部 1 6の信 号処理回路 14と接続され、 C CDカメラ 20及びバッテリ.1 7は、 それそれ信 号処理回路 14と直接接続されている。
信号処理回路 14は、 上述の各センサから供給されるセンサデ一夕や画像デー タ及び音声データを順次取り込み、 これらをそれぞれ内部バス 1 5を介じて DR AM 1 1·内の所定位置に順次格納する。 また信号処理回路 14は、 .これと共にバ ッテリ 1 7から供給されるバッテリ残量を表すバッテリ残量データを順次取り込 み、 これを DRAM 1 1内の所定位置に格納する。
このようにして DRAM 1 1に格納された各センサデータ、 '画像デ一夕、 音声 デ一夕及びバヅテリ残量デ一夕は、 この後 CP U 1 0がこのロボヅト装置 1の動 作制御を行う際に利用される。
実際上 CPU 1 0は、 ロボット装置 1の電源が投入された初期時、 胴体部ュニ ヅ ト 2の図示しない P C力一ドスロヅトに装填されたメモリカード 2 8又はフラ ヅシュ R OM 1 2に格納された制御プログラムを P Cカードィン夕'一フェース回 路 1 3を介して又は直接読み出し、 これを DRAM 1 1に格納する。
また、 CPU 1 0は、 この後上述のように信号処理回路 14より D RAM 1 1 に順次格納される各センサデータ、 画像データ、 音声データ及びバッテリ残量デ 一夕に基づいて自己及び周囲の状況や、 ユーザからの指示及び働きかけの有無な どを判断する。
さらに、 C P U 1 0は、 この判断結果及び D R A M 1 1に格納しだ制御ブ nグ ラムに基づいて続く行動を決定すると共に、 当該決定結果に基づいて必要なァク チユエ一夕 2 5 ^ 2 5 2, · · · を駆動させることにより、 頭部ュニヅ ト 4を上下 左右に振らせたり、 尻尾部ユニッ ト 5の尻尾 5 Aを動かせたり、 各脚部ユニッ ト 3 A〜 3 Dを駆動させて歩行させるなどの行動を行わせる。
またこの際 C P U 1 0は、 必要に応じて音声デ一夕を生成し、 これを信号処理 • 回路 1 4を介して音声信号としてスピーカ 2 4に与えることにより当該音声信号 に基づく音声を外部に出力させたり、 上述の L E Dを点灯、 消灯又は点滅させる ( このようにしてこのロボヅ ト装置 1においては、 自己及び周囲の状況や、 ユー ザからの指示及び働きかけに応じて自律的に行動し得るようになされている。
( 2 ) 制御プログラムのソフ トウェア構成 .
ここでロボヅ ト装置 1 における上述の制御プログラムのソフ トウエア構成は、 図 3に示すようになる。 この図 3において、 デバイス · ドライバ · レイヤ 3 0は、 この制御プログラムの最下位層に位置し、 複数のデバイス · ドライバからなるデ バイス · ドライバ .' セッ ト 3 1から構成されている。 この場合各デバイス ' ドラ ィバは、 C C Dカメラ 2 0 (図 2 ) やタイマ等の通常のコンピュータで用いられ るハードウエアに直接アクセスするごとを許されたオブジェク トであり、 対応す るハードウエアからの割り込みを受けて処理を行う。
また、 ロボティ ヅク · サ一バ · オブジェク ト 3 2は、 デバイス · ドライノ、 ' · レ ィャ 3 0の最下位層に位置し、 例えば上述の各種センサゃァクチユエ一夕 2 5 2 5 2 , · · ·等のハードウェアにアクセスするためのイン夕一フェースを提供す るソフ トウェア群でなるバーチャル · ロボッ ト 3 3と、 電源の切り換えなどを管 理するソフ トウェア群でなるパワーマネージャ 3 4と、 他の種々のデバイス - ド ライバを管理するソフ トウエア群でなるデバイス * ドライノ、' · マネージャ 3 5と、 ロボヅ ト装置 1の機構を管理するソフ トウエア群でなるデザインド · ロボッ ト 3 6 とから構成されている。
マネージャ · オブジェク ト 3 7は、 オブジェク ト · マネージャ 3 8及びサービ ス · マネージャ 3 9から構成されている。 この場合オブジェク ト 'マネージャ 3 8は、 ロボティ ヅク · サーバ . オブジェク ト 3 2、 ミ ドル · ウェア . レイヤ 4 0 - 及びアプリケーション · レイヤ 4 1に含まれる各ソフ トウエア群の起動や終了を 管理するソフ トウェア群であり、 サービス · マネージャ 3 9は、 メモリカード 2 8 (図 2 ) に格納されたコネクションファイルに記述されている各オブジェク ト 間の接続情報に基づいて各ォブジェク トの接続を管理するソフ トウエア群である, ミ ドル · ウエア · レイヤ 4 0は、 ロボティ ヅク · サ一バ · オブジェク ト 3 2の 上位層に位置し、 画像処理や音声処理などのこのロボッ ト装置 1の基本的な機能 を提供するソフ トウエア群から構成されている。 また、 アプリケーション · レイ ャ 4 1は、 ミ ドル . ウェア . レイヤ 4 0の上位層に位置し、 当該ミ ドル · ウェア - レイヤ 4 0を構成する各ソフ トウヱァ群によって処理された処理結果に基づい てロボッ ト装置 1の行動を決定するためのソフ トウエア群から構成されている。 なおミ ドル ' ウェア · レイヤ 4 0及びアプリケーション · レイヤ 4 1の具体な ソフ トウエア構成をそれそれ図 4に示す。
ミ ドル · ウェア · レイヤ 4 0においては、 図 4に示すように、 騒音検出用、 温 度検出用、 明るさ検出用、 音階認識用、 距離検出用、 姿勢検出用、 タツチセンサ 用、 動き検出用及び色認識用の各信号処理モジュール 5 0〜 5· 8並びに入力セマ ンティクスコンバ一夕モジュール 5 9などを有する認識系 6 0と、 出力セマンテ イクスコンバータモジュール 6 8並びに姿勢管理用、 トラッキング用、 モーショ ン再生用、 歩行用、 転倒復帰用、 L E D点灯用及び音再生用の各信号処理モジュ ール 6 1 '〜 6 7などを有する認識系 6 0とから構成されている。
認識系 6 0の各信号処理モジュール 5 0〜 5 8は、 ロボティ ヅク · サーバ · ォ ブジェク ト 3 2のバーチャル · ロボッ ト 3 3により D R A M 1 1 (図 2 ) から読 み出される各センサデータや画像データ及び音声データのうちの対応するデータ を取り込み、 当該データに基づいて所定の処理を施して、 処理結果を入力セマン ティクスコンバ一夕モジュール 5 9に与える。 ここで、 例えば、 バーチャル . 口 ボッ ト 3 3は、 所定の通信規約によって、 信号の授受或いは変換をする部分とし て構成されている。
入力セマンティクスコンパ一夕モジュール 5 9は、 これら各信号処理モジユー ル 5 0〜 5 8から与えられる処理結果に基づいて、 「うるさい」 、 「暑い」 、 「明るい」 、 「ボールを検出した」 、 「転倒を検出した」 、 「撫でられた」 、 「叩かれた」 、 「ドミソの音階が聞こえた」 、 「動く物体を検出した」 又は 「障 害物を検出した」 などの自己及び周囲の状況や、 ユーザからの指令及び働きかけ を認識し、 認識結果をアプリケーション ' レイヤ 4 1 (図 2 ) に出力する。 なお、 アプリケーション · レイヤ 4 1には、 後述する行動決定のための行動決定システ ムが構築されている。
一方、 出力系 6 9では、 出力セマンティクスコンバータモジュール 6 8が、 行 動情報に基づいて、 各信号処理モジュール 6 1 ~ 6 7を制御する。 .すなわち、 例 えば、 認識系 6 0の認識結果に応じて、 「うるさい」 、 「暑い」 、 「明るい」 、 「ボールを検出した」 、 「転倒を検出した」 、 「撫でられた」 、 「叩かれた」 、 「ドミソの音階が聞こえた」 、 「動く物体を検出した」 又は 「障害物を検出し た」 などの自己及び周囲の状況や、 ユーザからの指令及び働きかけなどに対応し て制御情報 (コマンド) を各信号処理モジュール 6 :!〜 6 7に出力する。
出力セマンティクスコンバ一夕モジュール 6 8に入力される行動情報は、 「前 進」 、 「喜ぶ」 、 「鳴く」 又は 「トラッキング (ボールを追いかける) 」 といつ た抽象的な行動コマンドであって、 出力セマンティクスコンバ 夕モジュール 6 8は、 それらの行動コマンドを対応する各信号処理モジュール 6 1〜 6 7に与え る。 そして、 出力セマンティクスコンバータモジュール 6 8に入力される行動情 報は、 上位の情報処理部とされる行動決定システムからのものであるが、 本発明 に係る要部であり、 後で詳述するところである。 '
そして、 各信号処理モジュール 6 1〜 6 7は、 出力セマンティクスコンバ一夕 モジュール 6 8からの行動コマンドに基づいて、 各デバイスを制御する制御信号 を、 バーチャル · ロボット 3 3に出力する。 具体的には、 信号処理モジュール 6 1〜 6 7は、 行動コマンドが与えられると当該行動コマンドに基づいて、 その行 動を行うために対応するァクチユエ一夕 2 5 1 5 2 5 2 , · · · (図 2 ) に与えるベ きサーボ指令値や、 スピーカ 2 4 (図 2 ) から出力する音の音声デ一夕及び又は 「目」 の L E Dに与える駆動データを生成し、 これらのデ一夕をロボティヅク - サーバ ·オブジェクト 3 2のバ一チャルロボヅト 3 3及び信号処理回路 1 4 (図 2 ) を順次介して対応するァクチユエ一夕 2 5 ^ 2 5 ' ·又はスピー力 2 4 又は L E Dに順次送出する。
各デバイスがバーチャル · 口ボット 3 3からの信号 (コマンド) に基づいて制 御されることにより、 口ポット装置 1により、 所定の行動の出現がなされるよう になる。
次に、 入力セマンティクスコンバータモジュール 5 9からの認識結果に基づい て次の行動 (遷移する行動或いは目的の行動) を決定し、 当該決定した行動の情 報を出力セマンティクスコンバ一夕モジュール 6 8に出力する行動決定システム について説明する。 ·
( 3 ) ロボッ ト装置の行動決定システムの構成
ロボツト装置 1は、 図 5に示すような行動決定システム 7 0により行動を決定 している。 行動決定システム 7 0は、 入力セマンティクスコンバ一タモジュール 5 9·からの認識結果に基づいて行動を決定し、 その行動を出力セ.マンティクスコ ンバー夕モジュール 6 8に出力している。 具体的には、 ロボヅト装置 1は、 行動 選択部 8 0、 内的状態モデル部 7 1及びモジユレ一夕 Ί 2を備えている。
行動選択部 8 0は、 複数の行動から所望の行動を選択する。 具体的には、 行動 選択部 8 0は、 入力セマンティクスコンバータモジュール 5 9の認識結果に基づ いて所望の行動を選択する。 例えば、 行動選択部 8 0は、 知覚情報取得部 9 0、 動機情報取得部 8 1及び行動選択演算部 8 2を備え、 行動の選択をする。
このような行動決定システム 7 0において、 知覚情報取得部 9 0及び動機情報 取得部 8 1は、 C C Dカメラ 2 0、 距離センサ 2 2、 マイクロホン 2 3等の外部 又は内部情報を検出する検出手段が検出した外部又は内部情報であって、 行動に 影響する情報とされる原因因子を取得する原因因子取得手段及び原因因子取得手 段として取得した原因因子に基づいて、 当該原因因子に影響される行動の出現傾 向を取得する出現傾向取得手段を構成し、 行動選択演算部 8 2は、 知覚情報取得 部 9 0及び動機情報取得部 8 1が取得した 2つ以上の行動に対応する出現傾向で あって、 同一グループとされる出現傾向を比較する出現傾向比較手段及び出現傾 向比較手段による出現傾向の比較結果に基づいて、 一の行動を選択する行動選択 手段を構成し、 出力セマンティクスコンバータモジュール 6 8は、 行動選択演算 部 8 2が選択した行動に基づいて、 動作部を制御して、 当該選択された行動を出 現させる動作部制御手段を構成する。
ここで、 行動選択部 8 0は、 知覚情報取得部 9 0が認識結果から取得した知覚 情報と、 動機情報取得部 8 1が内的状態モデル部 7 1からの内.的状態情報から取 得した動機情報とに基づいて、 行動選択演算部 8 2において行動を選択する。 こ の行動選択部 8 0については、 後で詳述する。
—方、 内的状態モデル部 7 1は、 外的要因や内的要因に応じてロボット装置 1 の本能及び感情の状態 (内的状態) を変化させる内部状態モデルを有している。 ここで、 外的要因とは、 例えば、 叩かれた情報、 撫でられた情報、 或いはユーザ からの命令などである。 また、 内的要因は、 バッテリ残量が少ないや体温が上昇 しているなどの情報である。
具体的には、 内的状態モデル部 7 1は、 入力セマンティクスコンバータモジュ ール 5_ 9の認識結果に基づいて、 内的状態を変化させており、 .内的状態の情報を 行動選択部 8 0及びモジユレ一夕 7 2に出力している。
動機情報取得部 8 1では、 この内的状態情報に基づいて動機情報を取得する。 これについては、 後で詳述する。
一方、 モジユレ一夕 7 2は、 最終的に出現させる行動情報 (行動コマンド) .を 生成する部分である。 具体的には、 モジユレ一夕 7 2は、 行動選択部 8 0にて達 択された行動と、 内的状態モデル部 7 1からの内的状態の情報とから最終的に出 現させる行動情報を生成し、 出力セマンティクスコンパ一夕モジュール 6 8に出 力する。
このモジュレーダ 7 2により、 行動選択部 8 0により決定 (選択) された行動 に、 内的状態モデル部 7 1により得られる本能や感情の状態を付加させたものと して、 ロボット装置 1に行動を出現させることができるようになる。 すなわち、 例えば、 行動選択部 8 0では認識結果等から次の行動どして 「リンゴを食べる」 といった行動が選択され、 一方、 内的状態モデル部 7 1では、 認識結果により現 在のロボヅト装置 1の内的状態として例えば 「怒っている」 が取得される。 そし て、 モジユレ一夕 7 2では、 それらの情報に基づいて、 「リンゴを食べる」 の行 動に 「怒っている」 の内的状態を付加させて、 「不機嫌にリンゴを食べる」 の行 動の情報を生成して、 その情報を出力セマンティクスコンバ一夕モジュール 6 8 に出力する。 出力セマンティクスコンパ一夕モジュ一ル 6 8は、 各信号処理モジ ュ一ル ·6 1〜6 7に信号を送り、 各デバイスを制御して動作部を制御するので、 これにより、 ロボヅト装置 1は、 次の行動 (目的の行動) として不機嫌にリンゴ を食べる行動を出現させるようになる。
また、 内的状態モデル部 7 1において生成される本能や感情の状態を示す内的 状態情報にあっては、 ロボット装置 1が行動を決定 (選択) する際の情報として も使用され、 さらに、 決定された行動に対しても表出ざれる (付加される) かた ちで使用されている。
このように行動決定システム 7 0は、 認識結果に基づいて行動を決定している < 以下、 この行動決定システム 7 0を構成する各部についてさらに詳しく説明する ( ( 3— 1 ) 内的状態モデル部の構成
内的状態モデル部 7 1は、 外的要因及び内的要因に応じて本能及び感情といつ た内的状態を変化させている。 そして、 内的状態モデル部 7 1によって得られる 本能及び感情の状態は、 上述したように、 ロボット装置 1が行動を決定する際の 情報として使用され、 さらに、 決定された行動に対しても表出される (付加され る) かたちでも使用される。
この内的状態モデル部 7 1は、 外的要因や内的要因に応じて変化する本能 (欲 求) や性格に関わる要素を複数有して構成されている。
具体的には、 内的状態モデル部 7 1は、 疲れ (fatigue) 、 熱或いは体内温度 (temperature) 、 痛み (pain) 、 食欲或いは飢え (hunger) 、 乾き (thifst) 、 愛情 (affection) 、 好奇心 (curiosity) 、 *** (el imination) 及び*** (sex. ual ) 等といった 9個の本能的要素と、 幸せ (happiness) 、 悲しみ (sadness) 、 怒り (anger) 、 驚き (surprise) 、 嫌悪 (disgust) 、 恐れ (fear) 、 苛立ち (frustration) 、 返屈 (boredom) 、 睡眠 (somnolence; 、 社交性 (gregarious ness) 、 根気 (patience) 、 緊張 (tense) 、 リラッケス (relaxed) 、 警戒 (al ertness) 、 罪 (gui lt) 、 悪意 (spite) 、 誠実さ ( loyalty) 、 服従性 (submis sion) 及び嫉妬 (jealousy) 等といった 1 8個の情動的要素とを有し、 全体とし て 2 7個の内的状態を示す要素を持っている。
情動的要素は、 各情動毎にその情動の強さを表すパラメ一夕を保持している。 そして、 内的状態モデル部 7 1では、 これらの各要素のパラメ一夕値を、 それそ れ入力セマンティクスコンバータモジュール 5 9から与えられる 「叩かれた」 及 び 「撫でられた」 などの特定の認識結果と、 経過時間などに基づいて周期的に変 更する。
具体的には、 情動的要素は、 入力セマンティクスコンパ'一夕モジュール 5 9か ら与えられる認識結果と、 そのときのロボッ ト装置 1の行動と、 前回更新してか らの経過時間となどに基づいて所定の演箅式により箅出されるそのときのその情 動の変動量を Δ Ε [ t ] 、 現在のその情動のパラメ一夕値を E [ t ] 、 その情動 の感度を表す係数を k eとして、 ( 1 ) 式によって次の周期におけるその情動のパ ラメ一夕値 E [ t + 1 ] を算出し、 これを現在のその情動のパラメ一夕値 E
[七 ] と置き換えるようにしてその情動のパラメータ値を更新する。
E[t+l]=E[t]+ke ΧΔΕ[ί] . . . (] )
内的状態モデル部 7 1は、 このように示される ( 1 ) 式により上述の 「幸せ」 などの全て情動のパラメ一夕値を更新する。
なお、 各認識結果や出力セマンティクスコンバータモジュール 6 8からの通知 が各情動のパラメータ値の変動量厶 Ε [七 ] にどの程度の影響を与えるかは予め 決められており、 例えば 「叩かれた」 といった認識結果は 「怒り」 の情動のパラ メ一夕値の変動量厶 Ε [ t ] に大きな影響を与え、 「撫でられた」 といった認識 結果は 「喜び」 の情動のパラメ一夕値の変動量 Δ Ε [ t ] に大きな影響を与える ようになっている。
ここで、 出力セマンティクスコンバータモジュ一ル 6 8からの通知とは、 いわ ゆる行動のフィ一ドバック情報 (行動完了情報) であり、 行動の出現結果の情報 であり、 内的状態モデル部 7 1は、 このような情報によっても感情を変化させる c なお、 内的状態モデル部 7 1は、 同様に、 後述する本能も変化させる。
これは、 例えば、 「吠える」 といった行動により怒りの感情レベルが下がると いったようなことである。 なお、 行動結果のフィ一ドバックは、 モジユレ一夕 7 2の出力 (感情が付加された行動) によりなされるものであってもよい。
一方、 本能的要素は、 欲求 (本能) ごとにその欲求の強さを表すパラメ一夕を 保持している。 そして、 本能的¾:素は、 これら欲求のパラメータ値を、 それそれ 入力セマンティクスコンバータモジュール 59から与えられる認識結果や、 経過 時間及び出力セマンティクスコンバータモジュール 68からの通知などに基づい て周期的に更新する。
具体的に本能的要素は、 「疲れ」 、 「愛情」 、 及び、 「好奇心」'、 「***」 、 「***」 の認識結果、 経過時間及び出力セマンティクスコンバータモジュール 6 8からの通知などに基づいて所定の演算式により算出されるそのときのその欲求 の変動量を厶1 [k] 、 现在のその欲求のパラメ一夕値を I [k] 、 その欲求の 感度を表す係数 kiとして、 所定周期で (2) 式を用いて次の周期におけるその欲 求のパラメ一夕値 I [k+ 1] を算出し、 この演算結果を現在のその欲求のパラ メ一夕値 I [k] と置き換えるようにしてその欲求のパラメ一夕値を更新する。
I「k+l]=I[k]+ki xAI[k] ' · ' (2)
内的状態モデル部 7 1は、 この (2) 式により上述の疲れなどの全て本能 (欲 求) のパラメ一夕値を更新する。
なお、 認識結果及び出力セマンティクスコンバータモジュール 68からの通知 などが各本能的要素の各欲求のパラメータ値の変動量 ΔΙ [k] にどの程度の影 響を与えるかは予め決められており、 例えば出力セマンティクスコンバータモジ ユール 68からの通知は、 「疲れ」 のパラメータ値の変動量 ΔΙ [k] に大きな 影響を与えるようになつている。
また、 以下に示すように、 所定の欲求のパラメ一タ値を決定することもできる。 本能的要素のうち、 「痛み」 については、 ミ ドル ' ウェア ' レイヤ 40の姿勢 検出用の信号処理モジュール 55と、 入力セマンティクスコンバ一夕モジュール 59を介して通知される異常姿勢の回数に基づいて、 回数を Nとし、 痛みの強さ を Kiとし、 痛みが減少する速度の定数を K2とし、 (3) 式により、 「痛み」 の パラメ一タ値 I [k] を算出し、 この演算結果を現在の痛みのパラメ一夕値 I [k] と置き換えるようにして当該 「痛み」 のパラメ一タ値を変更する。 ただし、 I [k] く 0のときは I [k] = 0、 t = 0、 N= 0とする。
I [k] = Kl x N - K. x t … (3)
また、 「熱」 については、 入力セマンティクスコンパ'一夕モジュール 59を介 して与えられる温度検出用の信号処理モジュール 5 1からの温度データに基づい て、 温度を Tとし、 外気温を T。とし、 温度上昇係数 K3として、 (4) 式により、 「熱」 のパラメ一夕値 I [k] を算出し、 この演算結果を現在の熱のパラメ一夕 値 I [k] と @き換えるようにして当該 「熱」 のパラメ一夕値を更新する。 T— To< 0のときには、 I [k] =0とする。
Figure imgf000019_0001
また、 「食欲」 については、 入力セマンティクスコンバータモジュール 59を 介して与えられるバヅテリ残量デ一タ (図示しなぃバヅテリ残量検出用のモジュ —ルが得た情報) に基づいて、 バヅテリ残量を BLとして、 所定周期で、 (5) 式 により、 「食欲」 のパラメータ値 I [k] を算出し、 この演算結果を現在の食欲 パラメ一夕値 I [k] と置き換えることにようにして当該 「食欲」 のパラメ一夕 値を更新する。
I[k] = 100— BL · · - (5)
また、 「乾き」 については、 入力セマンティクスコンバ一夕モジュール 59を 介して与えられるバ テリ残 fi変化速度に基づいて、 時刻 tにおけるバッテリ残 Sを B L (七) とし、 今時刻 t >と t 2でバヅテリ残量データを取得したとすると、
( 6 ) 式により、 「乾き」 のパラメータ値 I [ k ] を算出し、 この演算結果を現 在の乾きパラメータ値 I [ k ] と匿き換えるようにして当該 「乾き」 のパラメ一 タを更新する。
Figure imgf000020_0001
なお、 本実施の形態においては、 各情動及び各欲求 (本能) のパラメ一夕値が それそれ 0から 100までの範 Hで変動するように规制されており、 また係数 k e、 k iの値も各情動及び各欲求ごとに個別に設定されている。
以上述べたように内的状態モデル部 7 1が構成され、 ロボッ ト装置 1は、 この 内的状態モデル部 7 1により、 自己及び周囲の状況や、 ユーザからの指示及び働 きかけに応じて、 本能 (欲求) や感情の状態 (パラメ一夕) を変化させて自律的 な行動を行うことができるようになされている。
( 3 - 2 ) 環境に応じた本能及び感情の変化
かかる構成に加えてこのロボッ ト装置 1の場合、 例えば、 周囲が 「明るい」 と きには陽気になり、 これに対して周西が 「暗い」 ときには物静かになるなど、 周 Hの環境のうちの 「騒音」 、 「温度」 及び 「照度」 の 3つの条件 (以下、 環境条 件という。 ) の度合いに応じて感情 ·本能を変化させるようになされている。 すなわち、 このロボッ ト装置 1には、 周西の状況を検出するための外部センサ として、 上述した C C Dカメラ 2 0、 距離センサ 2 2 s 夕ヅチセンサ 2 1及びマ イク口ホン 2 3などに加えて周囲の温度を検出するための温度センサ (図示せ ず) が所定位置に設けられている。 対応する構成として、 ミ ドル , ウェア ' レイ ャ 4 0の認識系 6 0には、 騒音検出用、 温度検出用及び明るさ検出用の各信号処 理モジュール 5 0 ~ 5 2が設けられている。
そして、 騒音検出用の信号処理モジュール 5 0は、 ロボティ ヅク · サーバ · ォ ブジェク ト 3 2のバーチャル ' ロボヅ ト 3 3を介して与えられるマイクロホン 2 3 (図 2 ) からの音声データに基づいて周囲の騒音レベルを検出し、 検出結果を 入力セマンティクスコンバ一夕モジュール 5 9に出力するようになされている。 また、 温度検出用の信号処理モジュール 5 1は、 パーチャル · ロボッ ト 3 3を 介して与えられる温度センサからのセンサデ一夕に基づいて周囲の温度を検出し、 検出結果を入力セマンティクスコンバ一夕モジュール 5 9に出力する。
さらに、 明るさ検出用の信号処理モジュール 5 2は、 バ一チャル . ロボッ ト 3 3を介して与えられる C C Dカメラ 2 0 (図 2 ) からの画像データに基づいて周 囲の照度を検出し、 検出結果を入力セマンティクスコンバータモジュール 5 9に 出力する。
入力セマンティクスコンバ一タモジュール 5 9は、 これら各信号処理モジユー ル 5 0〜 5 2の出力に基づいて周囲の 「騒音」 、 「温度」 及び 「照度」 の度合い を認識し、 当該認識結果を上述のようにアプリケーション ·モジュール 4 1 (図 5 ) の内的状態モデル部 7 1に出力する。
具体的に、 入力セマンティクスコンバータモジュール 5 9.は、 騒音検出用の信 号処理モジュール 5 0の出力に基づいて周囲の 「騒音」 の度合いを認識し、 「う るさい」 又は 「静か」 といった認識結果を内的状態モデル部 7 1に出力する。 また、 入力セマンティクスコンバータモジュール 5 9は、 温度検出用の信号処 理モジュール 5 1の出力に基づいて周囲の 「温度」 の度合いを認識し、. 「暑い」 又は 「寒い」 といった認識結果を内的状態モデル部 7 1及び知覚情報取得部 9 0 に出力する。
ざらに、 入力セマンティクスコンバ一夕モジュール 5 9は、 明るさ検出用の信 号処理モジュール 5 2の出力に基づいて周囲の 「照度」 の度合いを認識し、 「明 るい」 又は 「暗い」 といった認識結果を、 内的状態モデル部 7 1等に出力する。 内的状態モデル部 7 1は、 上述のように、 入力セマンティクスコンバータモジ ユール 5 9から与えられる各種認識結果に基づき ( 1 ) 式に従って各パラメ一夕 値を周期的に変更する。
そして、 内的状態モデル部 7 1は、 入力セマンティクスコンバータモジュール 5 9から与えられる 「騒音」 、 「温度」 及び 「照度」 についての認識結果に基づ いて、 予め定められた対応する情動についての ( 1 ) 式の係数 k eの値を増減させ る。 具体的には、 内的状態モデル部 7 1は、 例えば 「うるさい」 といった認識結果 が与えられた場合には 「怒り」 の情動に対する係数 k eの値を所定数増加させ、 こ れに対して 「静か」 といった認識結果が与えられた場合には 「怒り」 の情動に対 する係数 k eの値を所定数減少させる。 これにより、 周囲の 「騒音」 に影響されて 「怒り」 のパラメ一タ値が変化することになる。
また、 内的状態モデル部 7 1は、 「暑い」 といった認識結果が与えられた場合 には 「喜び」 の情動に対する係数 k eの値を所定数減少させ、 これに対して 「寒 い」 といった認識結果が与えられた場合には 「悲しみ」 の情動に対する係数 k eの 値を所定数增加させる。 これにより、 周囲の 「温度」 に影響されて 「悲しみ」 の パラメ一夕値が変化することになる。
さらに、 内的状態モデル部 7 1は、 「明るい」 といった認識結果が与えられた 場合には 「喜び」 の情動に対する係数 k eの値を所定数増加させ、 これに対して [.暗い」 といった認識結果が与えられた場合には 「恐れ」 の情動に対する係数 k eの値を所定数増加させる。 これにより、 周囲の 「照度」 に影響されて 「恐れ」 の パラメ一夕値が変化することになる。
これと同様にして、 内的状態モデル部 7 1は、 上述のょ に、 入力セマンティ . クスコンバ一夕モジュール 5 9から与えられる各種認識結果等に基づき (2 ) 式 . 〜 ( 6 ) 式に従って各欲求のパラメ一夕値を周期的に変更する。
また、 内的状態モデル部 7 1は、 入力セマンティクスコンバータモジュール 5 9から与えられる 「騒音」 、 「温度」 及び 「照度」 の度合いについての認識結果 に基づいて、 予め定められた対応する欲求の (2 ) 式の係数 k iの値を増減させる c 具体的に内的状態モデル部 7 1は、 例えば 「うるさい」 や 「明るい」 といった 認識結果が与えられた場合には、 「疲れ」 に対する係数 k iの値を所定数減少させ、 これに対して 「静か」 や 「暗い」 といった認識結果が与えられた場合には 「疲 れ」 に対する係数 k iの値を所定数増加させる。 また、 内的状態モデル部 7 1は、 「暑い」 又は 「寒い」 といった認識結果が与えられた場合には 「疲れ」 に対する 係数 k iの値を所定数増加させる。
この結果このロボヅト装置 1においては、 例えば周西が 「うるさい」 ときには、 「怒り」 のパラメ一夕値が増加しやすく、 「疲れ」 のパラメータ値が減少しやす くなるために、 全体として行動が 「いらいら」 したような行動となり、 これに対 して周囲が 「静か」 なときには、 「怒り」 のパラメータ値が減少しやすく、 「疲 れ」 のパラメ一夕値が増加しやすくなるために、 全体として行動が 「おちつい た」 行動となる。
また、 周囲が 「暑い」 ときには、 「喜び」 のパラメータ値が減少しやすく、 「疲れ」 のパラメ一夕値が増加しやすくなるために、 全体として行動が 「だらけ た」 ような行動となり、 これに対して周囲が 「寒い」 ときには、 「悲しみ」 のパ ラメ一夕値が増加しやすく、 「疲れ」 のパラメ一夕値が増加しやすくなるために、 全体として行動が 「寒がっている」 行動となる。
また、 周囲が 「明るい」 ときには、 「喜び」 のパラメータ値が増加しやすく、 「疲れ」 のパラメータ値が減少しやすくなるために、 全体として行動が 「陽気」 な行動となり、 これに対して周囲が 「暗い」 ときには、 「喜び」 のパラメータ値 が増加しやすく、 「疲れ」 のパラメータ値が増加しやすくなるために、 全体とし て行動が 「物静か」 な行動となる。
このようにしてロボット装置 1は、 内的状態モデル部 7 1により、 環境 (外的 要因や内的要因) に応じて本能及び感情の状態を変化させる'ことができ、 この本 能や感情を行動に表出させることができる。 さらに、 内的状態モデル部 7 1によ つて得られる本能及び感情の状態は、 行動選択部 8 0において行動を選択するた めの情報としても使用される。
( 3 - 3 ) 行動選択部の構成 ' 行動選択部 8 0は、 予め用意されている複数の行動から一の行動を選択する。 この行動選択部 8 0は、 動物行動学的なアプローチにより行動選択 (決定) をす るように構築されている。
一般的には、 動物は、 行動に影響する複数の外的原因因子及び内的原因因子 (以下、 まとめて原因因子という。 ) に基づいて行動を決定していると考えられ、 さらにはそれら因子が複雑に絡み合つた状態において行動を決定している。 ロボ ヅト装置 1は、 そのような一般的な動物の行動決定のメカニズムを取り入れて、 その行動を決定するようになされている。
行動決定のメカニズムが動物行動学なアプローチにより構築されたロボツ ト装 置 1は、 例えば、 図 6 Aに示すように、 目の前に水たまりがあるとき次のような 手順により出現させる行動を決定する。
ロボット装置 1は、 「水を発見」 、 「水までは 1 0 c m」 という外的原因因子 (外的知覚要素、 例えば、 知覚に基づくもの) を知覚し認識する (評価する) 。 一方で、 ロボット装置 1は、 例えば、 内的原因因子 (内的動機要素、 例えば、 本 能や感情にもとづくもの) としての動機が 「のどの乾きが高く」 、 「中程度に怒 つている」 の状態にある。 なお、 動機は、 上述した内的状態モデル部 7 1のパラ メータ値を使用して取得されるものである。 これは、 後で詳述する。
ここで、 動物行動学的なアプローチによればその行動決定において少なくとも 次のような判断がなされる。
「のどの乾きが高い」 の状態にあり、 かつ 「水を発見」 の場合にあっても、 例 えば、 水への距離が長いときには水をとる行動 (摂水行動) を起こすとは限らな い。 例えば、 水までの距離が遠い場合には、 体力もそれだけ消費することになり、 のどが乾きがさらにひどくなるといったことが本能的に処理されるからである。 逆に、 「のどの乾きが低い」 の状態にあり、 かつ 「永が目の前にある」 のとき は、 摂水行動をすることもある。 このように、 「のどの乾き」 といった内的原因 因子から一概に摂水行動がなされるか否かが判断されるものではなく、 「水があ る」 また 「水が目の前にある」 といった外的原因因子から行動決定の判断なされ るものである。 すなわち、 行動は、 複数の外的原因因子及び内的原因因子に基づ いて決定され、 それら因子が複雑に絡み合った状態において決定される。
また、 この際、 他の行動と比較して、 最終的に行動が決定される。 例えば、 「水を飲みたい」 かつ 「食物を食べたい」 の状態にある場合には、 「水を飲みた い」 の度合い或いはその実現可能性と、 「食物を食べたい」 の度合い或いはその 実現可能性とを比較して、 一の行動として例えば、 摂水行動を選択する。
このような動物行動学的なアプローチにより、 ロボット装置 1は最終的に行動 を決定している。 すなわち、 ロボット装置 1は、 「のどの乾きが高い」 といった 状況下の 「水の発見」 、 さらには 「水までは 1 0 c m」 とあること等の情報から 総合的に判断し、 「摂食行動 j 等の他の行動を排除して、 「摂水行動」 を出現さ せる。 また、 ロボッ ト装置 1は、 「中程度に怒っている」 の状態として、 怒っている 動作を伴い摂水行動を出現させる。 これは、 上述したモジユレ一夕 7 2によって 実現されるものである。 そして、 例えば、 口ポヅト装置 1は、 内部状態として、 水を発見したことにより、 その 「怒り」 のレベルを低下させる。 これは、 上述し た出力セマンティクスコンバ一夕モジュール 6 8から内的状態モデル部 7 1への 行動完了情報のフィードバ、ソクにより実現される。
図 6 Bには、 上述したような動物行動学的なアプローチにより、 「摂永行動」 の具体的な行動として 「前方へ歩く」 を選択するまでの手順を示している。
先ず、 ロボッ ト装置 1は、 上述の図 6 Aに示すような状態におかれた場合、 複 数の行動から 「摂取行動」 を選択する。 選択されなかった他の行動としては、 例 えば、 「闘争行動」 、 「探索行動」 等が挙げられる。 例えば、 ロボット装置 1は、 このような 「摂取行動」 、 「闘争行動」 及び 「探索行動」 等が選択可能な行動グ ループとされて.、 サブシステム (サブシステム層) として保持している。
ここで、 行動グループは、 上位の行動を具現化する複数の下位の行動群からな り、 例えば、 下位の行動は、 互いに抑制しあう関係にある。 以下、 同様である。 次に、'ロポッ ト装置 1は、 選択した摂取行動内から一の行動として 「摂水行 動」 を選択する,。 選択されなかった他の摂取行動としては、 例えば 「摂食行動」. が挙げられる。 例えば、 ロボット装置 1は、 このような Γ摂水行動」 や 「摂食行 動」 等が選択可能な行動グループとされて、 モード (モード層) として保持して いる。 すなわち、 「摂水行動」 や 「摂食行動」 を行動グループとし、 「摂取行 動」 の下位行動として保持している。
次に、 選択した摂水行動内から一の行動として 「水に近づく」 を選択する。 他 の摂水行動としては、 例えば 「水を口に入れる」 が挙げられる。 例えば、 ロボッ ト装置 1は、 このような 「水に近づく」 や 「水を口に入れる」 等が選択可能なグ ループとされて、 モジュール (モジュール層) として保持している。
次に、 「水に近づく」 の具体的行動として 「前進する」 を選択して、 実際の行 動として出現させる。 なお、 選択されなかった他の 「水に近づく j の行動として は、 例えば 「後進する」 、 「右に曲がる」 及び 「左に曲がる j が挙げられる。 例 えば、 ロボヅト装置 1は、 このような 「前進する」 、 「後進する」 、 「右に曲が る」 及び 「左に曲がる」 等が選択可能なグループとされて、 モー夕コマンド (モ 一夕コマンド層) として保持している。
このような手順により、 ロボット装置 1は、 動物行動学的なアプローチから 「前方へ歩く」 といった最下位層の行動を上位の行動を規定する 「摂取行動」 の 最終的な行動として出現させている。
図 7には、 ロボット装置 1の有する行動決定のために構築されている行動選択 システムを示す。 この行動選択システムは、 例えば、 行動選択部 8 0において構 築されている。
行動選択システムは、 複数の行動が階層構造 (ツリー構造) とされて構築され ている。 この階層構造とされる行動選択システムでは、 下位の行動が複数個から なる行動グループが、 上位を具現化する行動群から構成されている。 例えば、 上 位の行動が 「闘争行動」 といった場合には、 下位の行動が 「戦い ·捕食行動」 、 「防御 ·逃避行動」 といった行動からなるようにである。
例えば、 この行動選択システムは、 各行動の情報をデ一タ形態 (例えば、 デ一 夕べ一ス形態) として保持することとしてもよく、 オブジェクト指向として設計 されてもよい。 例えば、 オブジェクト指向として行動選択部が設計された場合、 行動選択システムは、 各行動が独立してオブジェクトの.単位として構成され、 各 オブジェクト単位で行動選択のための各種処理がなされるようになる。
この図 7に示すように複数の行動が階層構造とされ構築されている行動選択シ ステムでは、 より上位層の行動が願望のような抽象的な行動とされ、 下位層の行 動がそのような願望を実現するための具体的な行動とされている。 .
このような行動選択システムでは、 下位の層に進みながら行動を選んでいき、 すなわち、 上位の行動を実現化する行動を選んでいき、 最終的な行動の選択がな される。 すなわち、 中間層における行動について言えば、 最上位の行動から最下 位の行動が選択されるまでの選択された経路上の情報を示すものとなる。
このように上位の層から下位の層に進むなかで各層において行動の選択がなさ れていく際に、 各層では、 上述したような外的原因因子や内的原因因子によって 一の行動の選択がなされていくのである。.
行動選択部 8 0は、 具体的には、 図 5に示したように、 知覚情報取得部 9 0、 動機情報取得部 8 1及び行動選択演算部 8 2を有している。 この行動選択部 8 0 を構成する各部は、 概略として、 図 8及び図 9に示すように機能する。 ·
知覚情報取得部 9 0は、 行動ごとに、 知覚情報を取得する。 例えば、 知覚情報 の取得として、 後述するリリースメカニズム (Release Mechanism) における知覚 の評価を示す R M値を計算する。 例えば、 この知覚情報取得部 9 0により、 水が 発見され、 水までの距離が 1 0 c mであることの認識がなされる。 これにより、 摂取行動 (摂水行動) の値が高くなる、 すなわち選択可能性が高くなる。 ' 動機情報取得部 8 1は、 内的状態に基づいて、 行動ごとの動機情報を取得する。 例えば、 行動ごとの動機情報の取得として、 上述本能値、 感情値に基づいて、 行 動ごとの動機を計算する。 具体的には、 後述するモチベーションクリエ一夕にお ける動機の状態を示す M o t値を計算する。 例えば、 動機情報取得部 8 1により、 のどが乾きの状態が取得される。 これにより、 摂食行動の動機値が高くなり、 摂 食行動のうち、 摂水行動がさらに高くなる。
行動選択演算部 8 2は、 行動ごとに、 動機情報取得部 8 1からの動機情報 (動 機値) と、 知覚情報取得部 9 0からの知覚情報 (値) とから、 所望の行動を選択 する。 そして、 行動選択演算部 8 2は、 所望の行動の選択の際に、 同一グループ . (行動グループ) .内の他の行動を排他的に制御する。 例えば、 この行動選択演算 部 8 2により、 サブシステム層では摂取行動が選択され、 さらに摂取行動内の摂 水行動が選択ざれる。
また、 行動選択演算部 8 2は、 選択された行動に基づいて、 ·実際の動作群の計 画をする。 例えば、 「前方へ移動 (Move- forward) 」 を選択する、 といったよう にである。
なお、 内的状態モデル部 7 1は、 上述したように、 体内の本能や感情の状態等 の内的状態についての情報を取得する。 例えば、 内的状態の情報の取得として、 本能値や感情値を算出する。 具体的には、 上述した本能 (欲求) のパラメ一夕値 や情動のパラメータ値、 或いは後述する I E値を算出する。 例えば、 この内的状 態モデル部 7 1では、 動いたため、 のどが乾いているといった状態の情報が取得 される。
また、 出力セマンティクスコンパ一夕モジュール 6 8は、 図 8に示すように、 行動をロボヅト装置 1のタイプに応じた動作列に変換するモジュールである。 例 えば、 出力セマンティクスコンバータモジュール 6 8は、 今、 ロボヅ ト装置 1の タイプが 4足ロボッ トであることを認識し、 入力されてくる行動及び感情状態に 応じて動作列に変換する。 すなわち、 出力セマンティクスコンパ '一夕モジュール 6 8は、 上位の行動決定システム 7 0からの行動のコマンドから、 対応する各信 号処理モジュール 6 1〜 6 7にコマンドを送る。
なお、 図 9に示すようなモジユレ一夕 7 2、 姿勢管理モジュール等については、 後で詳述する。 なお、 図 9において、 「input」 の欄は入力されるコマンドの形態 を示し、 「output」 の欄は出力されるコマンドの形態を示す。
以上のように、 行動選択部 8 0が構成されている。 次に、 行動選択部 8 0が行 動選択のシステムとして採用する動物行動学的なアプローチについてさらに詳し <説明する。
( 3 - 4 ) 動物行動学的なアプローチによる行動選択
一般的には、 動物の行動の決定 (選択) は、 上述のように、 複数の因子が複雑 に絡み合ってなされるものである。 単純な例としては、 図 1 0に示すように、 知 覚と動機とから行動が決定される。 .
ここで、 知覚は、 行動に影響する外部からの情報であり、 入力されてくる外界 環境によって誘発若しくは制約される条件と考えることができる。 また、 動機は、 「お腹がすいた」 等の内部の情報であり、 内的状態を表現しており、 その行動を 起こしたいという内的意図と考えることができる。 このように、 知覚や動機とい つたものを原因として、 その作用として行動の決定がなされているとすることが できる。
知覚及び動機に基づく行動決定は、 具体的には次のようにしてなされる。 なお、 次に説明する行動決定 (選択) のための原理は、 81113 と^ ) 1 11(1 ( 1975) が提 唱した状態空間アプローチによるものである。
Si lbyと Mrfarland ( 1975) は、 まず動物は最も出現傾向の高い活動 (行動) を 遂行する、 との仮定から理論を出発している。 出現傾向の配列をはっきりと表す 1つの方向としてベクトル空間がある。 そこで、 ベクトルの大きさは、 ある共通 性をもった指標に基づいたいわゆる出現傾向の強さを示している。 出現傾向とは、 例えば、 摂食行動が出現される傾向 (度合い) ゃ摂水行動が出現される傾向 (度 合い) 等がある。 そして、 全ての出現傾向の状態は、 この出現傾向空間上の点と して表される。
そして、 この空間は、 出現傾向の最も高い行動がどれかという領域毎に分けら れ、 その境界線が 「切り換え境界線 (スイッチングライン、 switching l ine) 」 となる。
—方、 出現傾向はさまざまな原因因子に依存している。 例えば、 摂食傾向は、 食物制限、 摂食機会、 補食の可能性等に依存しているのである。 これら全ての原 因因子をはっきりと表す方法は、 もう 1つのべクトル空間を用いることである。 原因因子から出現傾向を決めるというのは、 次のような表現と同義になる。 すな わち、 原因因子の状態空間から出現傾向空間への写像があり、 そこで原因因子の いかなる状態に対しても対応する出現傾向の状態空間が存在するようになつてい る。 そして、 どの行動が行われるかの決定ができるようになつているというもの である。 原因因子と出現傾向との関連性を図 1 1 A〜Cを用いて説明する。
図 1 1 A及び図 1 1 Cは、 原因因子の状態を示す原因因子状態空間を示すもの である。 この原因因子状態空間は、 ある行動が導かれることに影響する原因因子 によって構成される。 原因因子としては、 上述した 「知覚」 、 「動機」 が挙げら れる。 なお、 この図 1 1 A〜Cでは、 単純化のために 2次元空間だけを検討した ものであるが、 実際には、 行動の出現傾向の多くは、 3次元以上の原因因子状態 空間によって決定されるものである。
図' 1 1 Aは、 具体的には、 摂食の行動が出現される傾向、 すなわち 「摂食行 動」 の出現傾向 (以下、 摂食傾向という。 ) を示すもので、 原因因子とされる 「動機」 として 「空腹」 を横軸にとり、 原因因子とされる 「知覚」 として 「おい しさ」 を縦軸にとっている。 また、 図 1 1 Cは、 摂水の行動が出現される傾向、 ' すなわち 「摂水行動」 の出現傾向 (以下、 摂水傾向という。 ) を示すもので、 「動機」 として 「のどのかわき」 を横軸にとり、 「知覚」 として 「水への距離」 を縦軸にとっている。
また、 図 1 1 Bは、 図 1 1. A及び図 1 1 Cにおける原因因子の状態に基づく 「摂食傾向」及び 「摂水傾向」 の出現傾向の空間を示す。 すなわち、 原因因子に より影響される行動の出現傾向が写像され、 これらの出現傾向の比較が可能とさ れる空間を示す。
先ず、 原因因子状態空間について、 図 1 2を用いて具体的に説明する。 この図 1 2に示す原因因子状態空間は、 上述の図 1 1 Aに示す 「摂食行動」 の原因因子 状態空間である。
図 1 2に示すように、 すごくおいしいものがあって (m 2状態) 、 でもそんなに お腹がすいていない状態 (原因状態) にあるとき (11 !状態) 、 一方、 'ものすごく お腹がすいているが (η 2 ( > η ι ) 状態) 、 あまりおいしくない食物がある状態 (原因状態) にあるとき (nn ( < m 2 ) 状態) に、 摂食行動が出現される。 すな わち、 一概に、 動機とされる 「空腹」 にのみ依存して摂食行動が出現されるので はなく、 また、 知覚とされる 「おいしさ」 にのみ依存して摂食行動が出現される ものでもなく、 「空腹」 と 「おいしさ」 とが相互に作用して、 摂食行動が出現さ れる。
言い換えれば、 「空腹」 の程度が異なっている場合であっても、 摂食行動は出 現され、 「空腹」 と 「おいしさ」 との状態によっては、 原因因子状態空間内に摂 食行動が出現される度合いが同じ原因状態、 すなわち摂食傾向を同程度と.する原 · 因状態が複数点に存在する。 例えば、 空腹でないときにとてもおいしい食物を与 えたりしたときに、 或いは非常に空腹であるときにあまりおいしくない食物を与 えたりしたときに、 同程度の摂食傾向が存在するということである。
例えば、 摂食行動では、 「空腹」 と 「おいしさ」 とを原因因子としてみた場合、 その出現傾向が同程度とされるには、 「空腹」 が高い (多い) ときには 「おいし さ」 が低く (少なく) 、 また、 「空腹」 が低い (少ない) ときには 「おいしさ」 が高い (多い) 。 よって、 摂食傾向を同程度とすることを考えた場合、 「空腹」 と 「おいしさ」 とは反比例の関係となり、 摂食傾向が同程度とされる点を結ぶと、 図 1 2において例えばそれが曲線として示される。 すなわち、 図 1 2に示すよう に、 摂食傾向のいわゆる強さ (ベクトルの強さ) yを同程度とするような原因因 子の状態が複数存在して、 それらは原因因子状態空間において曲線として示され る。 .
さらに、 原因因子状態空間には、 異なる複数の摂食傾向の強さ y y 2, · · - が存在し、 図 1 2に示すように、 それが摂食傾向の強さの分布として、 いわゆ る等高線として示される。 '
なお、 図 1 2において、 原因因子状態空間における右上方向に行くほど、 摂食 の強さは強くなることを示す。 これは、 すごくお腹がすいており、 さらに目の前 にはすごくおいしい食物があれば、 誰しもが摂食行動をとるようになる、 といつ たようなことをいうものである。 ' このように、 原因因子により摂食傾向の強さを定義づけることができ、 同様に して、 摂水傾向の強さを定義づけることができる。
すなわち、 摂水行動は、 のどのかわきが激しいときには水 (水のある場所) へ の距離が遠くても出現され、 また、 のどのかわきが少ないときでも水への距離が 近い場合に出現され、 「のどのかわき」 と 「水への距離」 とが相互に作用して、 摂水行動が出現される。 .
言い換えれば、 「のどのかわき」 の程度が異なっている場合であっても、 摂水 行動は出現され、 「のどのかわき」 と 「水への距離」 との状態によっては、 原因 因子状態空間内に摂水傾向を同程度とする原因状態が複数点に存在する。 例えば、 水が欠乏していないときに水が目の前にあったり、 或いは水が非常に欠乏してい るときに水が遠くにあったりしたときに同程度とする摂水傾向が存在するという ことである。
そして、 摂水傾向を同程度とすることを考えた場合、 「のどのかわき」 と 「水 への距離」 とは反比例の関係にあり、 摂水傾向が同程度と'される点を結ぶと、 例 えば図 1 1 Cにおいて原因因子状態空間内において曲線として示される。 すなわ ち、 図 1 1 Cに示すように、 摂水傾向のいわゆる強さ Xが同程度とされるような 原因因子の状態が複数存在して、 それらは原因因子状態空間において曲線として 示される。 そして、 図 1 1 Cに示すように、 原因因子状態空間には、 異なる摂水 傾向の強さ X X 2 , · · ·が等高線として示される。
以上述べたように、 「摂食傾向」 の強さと、 「摂水傾向」 の強さとが、 各原因 因子の状態に基づいて求められ、 これらの強さの基づいてその比較がなされ、 一 の行動の袂定 (選択) がなされる。 そして、 そのような出現傾向が比較されるの が、 図 1 1 Bに示す出現傾向空間においてである。 出現傾向空間は、 出現可能な 行動の傾向から構成されている。
例えば、 ある原因状態において、 ある摂食傾向の強さ とある摂水傾向の強さ X 2とが得られた場合、 図 1 1 Bに示すように、 原因因子状態空間から写像された 摂食傾向の強さ と摂水傾向の強さ X 2とが出現傾向空間上において組み合わさ れて比較される。 具体的には、 次のようにして行動の選択がなされる。
図 1 1 Bに示すように、 切り換え境界線の設定によって、 出現傾向空間が 2つ の領域に分割される。 y = 0 (摂水傾向を示す X軸) と切り換え境界線とで囲ま れる領域 (以下、 摂水行動選択領域という。 ) と、 x = 0 (摂食傾向を示す y 軸) と切り換え境界線とで囲まれる領域 (以下、 摂食行動選択領域という。 ) と が形成される。
このように出現傾向空間にて切り換え境界線の設定により形成される各領域に、 原因因子状態空間から写像された値 (x, y ) の位置によって一の行動が決定さ れる。 すなわち、 値 (x, y ) が摂水行動選択領域内にある場合には、 摂水行動 が選択され、 また、 値 (x, y ) が摂食行動選択領域内にある場合には、 摂食行 動が選択されるようになる。 よって、 図 1 1 Cに示す例では、 値 (χ 2 , y が ■摂水行動選択領域になることから摂水行動が選択されることになる。 .
なお、 単純化のため、 原因因子の状態空間を、 摂食と摂水それぞれに関与する 状態変数 (原因因子) に分けて示しているが、 実際には 1つの状態変数は複数の 行動の出現傾向に影響を及ぼす。 原因因子空間の曲線は、 特定の行動の出現傾向 と同一のレベルをもたらす状態につながつている。
また、 最終的に選択された行動によって、 それに関わる原因因子やそれ以外の 複数の原因因子に影響を及ぼす可能性がある。 このようなことから、 情報の排他 処理がなされている。
以上のような動物行動学的なアプローチとして、 原因因子を用いた行動決定 (選択) の手法は、 例えば Silbyと Mcfarland ( 1975の論文) や Ludlow (競合モデ ルとして) が提唱している。
( 3 - 5 ) 動物行動学的なアプローチによる行動決定を実現する計算式
. 上述したような行動決定への動物行動学的なアプローチはあくまでも理論であ り、 実際のロボット装置 1に適用するためには、 上述した動物行動学的なァプロ ーチをデータベース等としての情報化、 或いは数式化する必要がある。 そこで、 本 ¾明を実現するために、 上述した動物行勅学的なアブローチからの行動決定を 次のように数式化した。
図 1 3 Aに示すように、 「摂食行動」 の原因因子とされる 「空腹」 の状態 (度 合い) を Mo t [0] とおき、 「おいしさ」 の評価を RM [0] とおく。 そして、 ある Mo t [0]及び RM [0] がある値における摂食傾向 (傾向の強さ) を B e [0] とおく。 '
同様に、 図 1 3 Bに示すように、 摂水行動の原因因子とされる 「のどのかわ き」 の状態 (度合い) を Mo t [ 1 ] とおき、 「水への距離」 の評価を RM
[ 1 ] とおく。 そして、 . Mo t [ 1 ] 及び RM [ 1 ] がある値における摂水傾向 (傾向の強さ) を B e [0] とおく。 これらの関係は、 次に示す表のようになる (
Figure imgf000033_0001
なお、 本例では、 比較する出現傾向が 「摂食行動」 及び 「摂水行動」 の 2つな ので、 知覚については RM [0 ] 、 RM [ 1 ] の 2値とし、 動機については Mo 七 [◦ ] 、 Mo t [ 1 ] の 2値としているが、 多くの出現傾向についても比較す ることは可能である。 このようなことから、 知覚 (外的知的要素) を RM [i] 、 動機 (内的勳機要素) を Mo t [i] 及び出現傾向を B e [i] とし、 ここで i を整数として、 一般化する。 以下、 特に出現される行動の種類を言及しないとき には、 これら一般化したものを示す。
なお、 上述した例で、 「摂食行動」 についてみた場合、 同程度の出現傾向は、 「空腹」 と おいしさ」 とが反比例の関係の下で成立することについて述べてい るが、 同程度の出現傾向とされるためには、 出現傾向に作用する原因因子が必ず 反比例の関係にあるとは限らない。 すなわち、 B e [ i ] と RM [i ] と Mo t C i ] とは (7) 式のような関係として示すことができるが、 RM [ i ] と Mo t [i] との関係が必ず反比例の関係になるとは限らない。 要は、 出現傾向は、 動機 (内的動機要素) にのみ影響を受けるのではなく、 知覚 (外的知的要素) の 影響をも受けるということである。
Be[i] = func(RM[i],Mot[i]) ... (7)
また、 「おいしさ」 や 「水への距離」 といった知覚評価 RM [ i] は、 知覚情 報取得部 90において取得されるものであり、 また、 「空腹」 や .「のどのかわ き」 といった動機 Mo t [ i] は、 動機情報取得部 8 1において取得されるもの である。 知覚情報取得部 90及び動機情報取得部 8 1におけるこれらの情報の取 得のための具体的な処理等については、 後で詳述する。
そして、 上述したように知覚 (外的知的要素) と動機 (内的動機要素) とから 得られた摂食傾向及び摂水傾向は、 図 14に示すような出現傾向空間上に示され る。
ここで、 この図 14に示す出現傾向空間は、 第 1の切り換え境界線 (y=« X) と第 2の切り換え境界線 (y = ?x) といった 2本の切り換え境界線が設定 されている。 すなわち、 出現傾向空間が 3つの領域に分割されている。 一方、 上 述の図 1 1 Bに示した出現傾向空間では、 切り換え線が 1本であった。 これは次 のような理由からである。
理論的には、 上述したように、 切り換え境界線が 1本でも異なる行動の間で選 択は可能である。 しかし、 実際のロボット装置 1にそのような理論をそのまま適 用した場合、 各行動の出現傾向が設定した切り換え境界線付近に存在すると、 今 選択した行動と他方の行動との選択の切り替わりがせわしくなり、 ロボット装置 1の行動に落ち着きがなくなる。 このような現象は、 行動が選択されて実施され た場合に当該行動の出現傾向が他の行動に対して相対的に小さくなるといったこ とが前提とされて発生する。 すなわち、 動機 (願望) が達成されれば、 その動機 の程度が小さくなり、 結果としてその動機に影響される行動の出現傾向が小さく なるというようなことからである。
このように、 2本の切り換え境界線により領域を分割することで、 「摂食行 動」 が選択される領域 (摂食行動選択領域) 、 「摂水行動」 が選択される領域
(摂水行動選択領域) 、 「摂食行動」 又は 「摂水行動」 のいずれかが選択される 領域 (以下、 摂食又は摂水行動選択領域という。 ) の 3つ行動選択の領域が形成 される。 これにより、 ロボット ¾蘆 1の行動に落ち着きがなくなることを防止す ることができる。 このように、 2本の切り換え境界線を設定することで、 ロボッ ト装置 1の行動に落ち着きがなくなることが防止される理由については、 後で詳 述する。
この図 14に示す出現傾向空間において、 出現傾向の最も強い行動が次のよう な関係から選択される。
図 14に示す出現傾向空間は、 摂食傾向 B e [0] .を X軸におき、 摂水傾向 B e [ 1 ] を y軸におき、 摂食傾向 B e [0] と摂水傾向 B e [1] とから構成さ れている。 そして、 このような出現傾向空間において、 第 1及び第 2の切り換え 境界線をそれぞれ y = «x及び. y = /?xとして設定する。 例えば、 傾き係数ひ, ?は、 任意の値として決定し、 例えば、 ロボット装置 1の成長などに応じて決定 することができる。
ここで、 摂食傾向 B e [0] は、 図 13 Aに示す 「空腹」 Mo t [0] 及び 「おいしさ」 RM [0] により決定される値であり、 摂水傾向 B e [1] は、 図 13 Bに示す 「のどのかわき」 Mo t [ 1 ] 、 「水への距離」 RM [ 1 ] により 決定される値である。 ,,
このような出現傾向空間において、 図 14に示すように、 原因因子状態空間か ら写像された値 (a, a' ) が摂食行動選択領域にある場合 (点 C) には、 一の 行動として摂食行動が選択され、 一方、 値 (a, a, ) が摂水行動選択領域にあ る場合 (点り) には、 一の行動として摂水行動が選択される。
そして、 値 (a, a, ) は、 例えば、 図 13 Aに示すように、 「空腹」 が Mo 七 [0] =n。、 「おいしさ」 が RM [0] =πι0の状態にあり、 このとき 「摂食 傾向」 B e [0] が aとされ、 さらに、 図 13 Bに示すように、 「のどのかわ き」 が Mo七 [ 1 ] =ηκ 「水への距離」 が RM [ 1 ] ^πηの状態にあり、 こ のとき 「摂水傾向」 B e [ 1] が a' とされた場合である。
以上のような行動の選択は、 次のような数式化により実現することができる。 先ず、 a, /a (B e [ l] /B e [0] ) の値として考える。 x = 0と第 2 の切り換え境界線 (y = ?x) とによって囲まれる摂水行動選択領域に値 (a, a' ) が位置される条件は、 ∞>a, /a> ?である。 また、 = 0と第 1の切 り換え境界線 (y =ひ X) とによって囲まれる摂食行勐選択領域に値 (a, a
, ) が位置される条件は、 ひ >a, /a>0である。
このような関係式から以下のような式が導き出せる。 ひ >a' /a> 0の場合、 すなわち値 (a, a' ) が摂食行動選択領域にある場合には、 図 1 5 Aに示すよ うになり、 ( 8 ) 式及び ( 9 ) 式が成り立つ。
a«-a〉0 (8)
Figure imgf000036_0001
ここで、 第 1の切り換え境界線の傾き αは ( 1 0) 式のような関係の ' とし て示すことができる。 なお、 ひ, は、 後述するように、 摂水傾向 B e [ 1] から 摂食傾向 B e [0] に対する排他制御ゲイン (> 1 ) となる。
Be [0] (10)
— α
このような関係から、 「摂食行動」 が選択されるための条件は (1 1 ) 式を満 たすものであることが導き出される。 a― a' ' > 0 · , ·
次に、 図 1 5 Bは摂水行動の場合を示しており、 第 2の切り換え境界線の傾き ?は ( 1 2) 式として与えられる。 なお、 ?は、 後述するように、 摂食傾向 B e [ 0 ] から摂水傾向 B e [ 1 ] に対する排他制御ゲイン ( > 1 ) となる。
Figure imgf000037_0001
このような関係から、 「摂水行動」 が選択されるための条件は ( 1 3) 式を満 たすものであることが導き出される。
Figure imgf000037_0002
なお、 上述の条件を満たすのは、 ( 14) 式かつ ( 1 5) 式である場合である, したがって、 摂食行動をとるようになるときには、 (14) 式を満たし、 摂水行 動をとるようになるときには、 ( 1 5) 式が満たされる。
a- a'a' > 0 (U) a' - a β > 0 (15) ここで、 上述のような (a— a, ひ, ) 及び (a, -a 3) を行列として記述 すると ( 1 6) 式のようになる。 Be[0] a 0 a' a (16)
Be[l] a' β 0 a'
また、 これを離散的に計算するものとすると、 時刻 tにおける出現傾向 B e t [ i ] と時刻七一 1における出 ¾傾向 B e "- υ [i] とを用いて記述すると ( 1 7 ) 式のようになる。 ,
(17)
Figure imgf000038_0001
ここで、 ひ, は、 摂水傾向 B e [ 1] から摂食傾向 B et [0] に対する排他制 御ゲイン (> 1 ) を示し、 また、 ^は、 摂食傾向 B e* [0] から摂水傾向 B et [ 1 ] に対する排他制御ゲイン (> 1) を示すものとなる。 例えば、 イメージ的 には、 図 1 6に示すように、 α' が摂食傾向 B et [0] に対する排他制御ゲイン として働き、 また、 ?が摂食傾向 B et [1] に対する排他制御ゲインとして働く このように、 複数の行動についての出現傾向を行列式として示すことができる ようになる。 そして、 行列式の左辺における行列中に正となる B et [i] がある とき、 当該出現傾向 B e t [i] に対応される行動が一の行動として選択される。 なお、 上述のような行列式の場合には、 一方の出現傾向の値が負となっている ので、 負となっている当該出現傾向については、 0を代入して、 再帰的に計算を する。
上述の ( 17) 式を用いて排他制御を再帰的に行うことにより、 図 1 7に示す ような行動の選択がなされるようになる。
ここで、 前提として、 選択された一の行動が実行されると、 当該一の行動に対 する原因因子の影響が少なくなり、 当該実行された一の行動の出現傾向が小さく なるとする。 すなわち、 例えば、 「摂食行動」 がーの行動として選択された場合、 摂食行動が実現されて摂食に対する動機等が満たされるので、 当該 「摂食行動」 に対する原因因子 (動機) の影響が少なくなり、 その結果、 摂食傾向が小さく (弱く) なるということである。 (1 7) 式を用いて排他制御を再帰的に行うこ とにより次のように行動の選択がなされる。
図 17に示すように、 例えば、 (摂食傾向 B e [0] , 摂水傾向 [ 1 ] ) = (a, a' ) が摂食行動選択領域内 (y= 0と y = o:xとで囲まれる領域).にあ る場合は、 値 (a, a' ) が当該摂食行動選択領域にある限り、 一の行動として 摂食行動が選択される。 ここで、 値 (a, a, ) が摂食行動選択領域にある場合、 上述の ( 17) 式の左辺の摂食傾向 B et [0] は正を示す。
そして、 摂食行動が選択され続けると、 上述したように当該摂食行動の実現に より原因因子の影響が小さくなることから摂食傾向 B'e.t [0] は.小さく (弱ぐ) なっていく。 摂食傾向 B etが小さくなつていくと、 値 (a, a, ) は摂食又は摂 水選択領域に至る。 すなわち、 図 17に示すグラフ中において矢印 P に示すよう に値 (a, a, ) が変化する。
摂食又は摂水行動選択領域では、 摂食行動が選択ざれる。 また、 上述の ( 1 7) 式にて左辺の摂食傾向 B et [0] も正を示す。 そして、 摂食行動が選択され 続けると、 当該摂食行動の実現により原因因子の影響が小さくなることから摂食 傾向 B et [0] は小さくなつていく。 そして、 値 (a, a, ) は摂食又は摂水行 動選択領域から摂水領域 (x= 0と y = ?xとで囲まれる領域) に至る。 すなわ ち、 図 1 7に示すグラフ中において矢印 P 2に示すように値 (a, a5 ) が変化す る。
摂水選択領域では、 摂水行動が選択される。 ここで、 値 (a, a' ) が摂水行 動選択領域にある場合、 上述の (17) 式の左辺の摂水傾向 B et [ 1] が今度は 正を示す。
そして、 摂水行動が選択され続けると、 当該摂水行動選択領域では、 当該摂水 行動の実現により原因因子の影響が小さくなることから摂水傾向 B et [ 1 ] は小 さくなつていく。 そして、 値 (a, a' ) は摂水行動選択領域から摂食又は摂水 行動選択領域に至る。 摂食又は摂水行動選択領域では、 摂水行動が選択され、 上 述の ( 17) 式にて左辺の摂食傾向 B et [ 1 ] も正を示す。 さらに、 摂水行動が 選択され続けると、 摂水傾向 B et [1] は減少し、 値 (a, a' ) は摂食又は摂 水行動選択領域から摂食行動選択領域に至る。 摂食行動選択領域では再び摂食行 動が選択されるようになる。 すなわち、 摂水行動選択領域から摂食行動選択領域 への値 (a, a ' ) の変化は、 図 17に示すグラフ中において矢印 P 3に示すよう になる。 そして、 以後、 このように行動が選択されて、 行動が切り換えられてい く。
また、 .出現傾向空間において、 2本の切り換え境界線を設定することで、 行動 が頻繁に切り替わることが防止されたものとなり、 行動に落ち着きがなくなるこ とが防止される。
以上のように、 摂食傾向 B et [0] と摂水傾向 B et [ 1] とが変化すること により、 それらの値の関係から値 (a, a, ) = (B et [0] , B e t [1 ] ) が出現傾向空間上に特定されて、 一の行動が選択され.る。 そして、 このとき、
( 1 7) 式においては、 摂食傾向 B et [0] 、 摂水傾向 B et [ 1] の何れかが 正の値を示し、 正を示した出現傾向が選択される一の行動となる。 このような行 動決定を図 5に示す決定選択部 7 1により行っている。
なお、 上述した実施の形態では、 摂食傾向 B et [0] 及び摂水傾向 B et
[ 1 ] により摂食行動及び摂水行動の 2つの行動が切り換えられる場合について 説明した。 しかし、 実際にはさらに多くの行動 (n個の行動) を出現傾向空間上 において比較して一の行動を選択する。 すなわち n次元によって示される出現傾 向空間により一の行動の選択がなされる。 n個の行動から一の行動を選択する場 合については、 ( 1 8) 式に示すような行列式になる。
[以下余白]
Figure imgf000041_0001
(1 8)
ここで、 G [ i ] [ j ] は、 ある行動の出現傾向 B e t [ j ] に対するある行動 の出現傾向 B e t [ i ] の排他制御ゲインとなる。
以上のような数式化により、 知覚や動機といった原因因子に基づいて各行動の 出現傾向を求め、 出現傾向の強さ (大きさ) から一の行動の決定 (或いは選択) がなされるような動物行動学的なアプローチによる行動決定が可能になる。
なお、 例えば、 上述の図 1 7に示しように行動が選択されていった場合には、 最終的に出現傾向が 0、 すなわち、 摂食傾向 B e [ 0 ] 及び摂水傾向 B e [ 1 ] が 0 (原点) に収束してしまうようにも考えられる。 これは、 上述したように行 動が実現されていくと、 そのままでは、 当該行動に対しての原因因子 (例えば、 動機) の影響が限りなく無に近づくからである。
しかし、 選択された一の行動が実行されている間に、 選択されなかった他の行 動に対しての原因因子の影響が大きくなるので問題はないといえる。 すなわち、 例えば、 摂水行動が実行されている間に、 選択されていない摂食行動についての 原因因子である例えば 「お腹がすいた」 の状態が変化して、 これにより 「空腹」 の評価が変化することで、 摂食傾向が高くなるからである。 「寝る」 或いは 「歩 く」 ことなどにより、 食欲が回復するようにである。 すなわち、 選択された行動 が実行されている間に選択されなかつた行動の出現傾向がいわゆる回復され、 こ れを図示すると、 例えば、 図 1 8に示すようになる。
また、 第 1及び第 2の切り換え境界線の傾き 、 ?については、 任意に決定す ることができる。 これにより、 例えば、 成長段階に合わせて、 或いは性格に合わ せて設定することにより、 そのような行動を適切に示すことができるようになる < 例えば、 ロボ.ツト装置 1は成長段階に応じて出現させる行動を変化させる成長 行動モデルを備えており、 その成長モデルにおける成長段階が 「幼児」 のときに は、 第 1の切り換え境界線の傾きひと第 2の切り換え境界線の傾き/?とを近い値 として、 摂食又は摂水行動選択領域を狭める。 また、 成長段階が 「成人」 のとき には、 摂食又は摂氷行動選択領域が広くなるように、 第 1の切り換え境界線の傾 きひと第 2の切り換え境界線の傾き/?とを設定する。 .
これにより、 ロボット装置 1は、 「幼児」 のときには、 摂食行動と摂水行動と の切り換えが頻繁に行い、 あまり落ち着きがない行動を出現するようになり、 ま た、 「成人」 のときには、 摂食行動と摂氷行動との切り換えが適当な間隔で選択 して、 落ち着きのある行動を出現するようになる。
また、 出現傾向のいわゆる回復速度といったものを可変にすることもできる。 例えば、 成長レベルが低いときには回復速度を早く し、 成長レベルが高いときに は回復速度を遅くするといつたように成長レベルに応じて回復速度を設定する。 このように設定した場合には、 「幼児」 のときには、 摂食行動と摂水行動との切 り換えが頻繁に行われるようになり、 「成人」 のときには、.摂食行動と摂水行動 との切り換えが適当になされるようになり、 前述の例と同様な効果を得ることが できる。
なお、 上述したように、 出現傾向の回復を利用して収束しないようになされる が、 これを計算上で操作して同様に収束を防止することとしてもよい。
以上、 動物行動学的なアプローチによる行動決定を現実のロボット装置 1にお いて実現するための計算式について説明した。 そして、 行動選択部 8 0がこのよ うな計算式により行動の選択を行っている。 ' ( 3— 6 ) 行動選択部における具体的な処理
以下、 行動選択部 8 0における具体的な処理について説明する。
行動選択部 8 0は、 図 1 9に示すように、 知覚情報 (R M) を取得する知覚情 報取得部 (Release Mechanism, リリースメカニズム) 9 0と、 動機情報 (M o t ) を取得する動機情報取得部 (モーションクリエ一夕、 Motivation Creater) 8 1と、 知覚情報 (RM) と動機情報 (Mo t) とに基づいて一の行動を選択す る行動選択演算部 82を備えている。
(3 - 6 - 1) 出現傾向の取得手順
' 知覚評価 (知覚情報) RM [i] と動機状態 (動機情報) Mo t [i] とに基 づいて、 出現傾向 B et [i] を求める手順について説明する。 出現傾向 B e t
[i] を求める手順は、 排他制御前の値の算出と、 排他制御をした値の算出とに 大別される。 すなわち、 上述した ( 1 8) 式の右辺の第 1項の出現傾向 B e t
[i] の算出と、 ( 1 8) 式の左辺の出現傾向 B et [i] の算出とに大別される, 前者の計算と後者の計算について、 3つの異なる行動の出現傾向 B e t [i] を 取得する場合を例として説明する。 3つの異なる行動は、 同一行動グループであ る。 例えば、 図 20に示すように、 3つの各行動について、 3つの第 1乃至第 3 の知覚評価 RM [0] , RM [ 1] , RM [2] と、 3つの第 1乃至第 3の動機 状態 Mo七 [0] , Mo t [ 1 ] , Mo t [2] とから、 対応される第 1乃至第 3の出現傾向 B et [0] , B et [ 1 ] , B et [2] を取得するというような場 合である。
例えば、 比較対象となる 3つの行動としては、 「摂食行動」 、 「摂水行動」 及 び 「***行動」 が挙げられる。 第 1の行動とされる 「摂食行動」 については、 第 1の知覚評価 RM [0] として 「おいしさ」 が挙げられ、 第 1の動機状態 Mo七
[0 ] として 「空腹」 が挙げられる。 また、 第 2の行動とされる 「摂水行動」 に ついては、'第 2の知覚評価 RM [ 1] として 「水への距離」 が挙げられ、 第 2の 動機状態 Mo t [ 1 ] として 「のどのかわき」 が挙げられる。 また、 第 3の行動 とされる 「***行動」 については、 第 3の知覚評価 RM [2] として 「トイレへ の距離」 が挙げられ、 第 1の動機状態 Mo t [2] として 「糞又は尿がつまつ た」 が挙げられる。 そして、 出現傾向空間は、 これら摂食傾向 B et [0] 、 摂水 傾向 B et [ 1] 、 ***傾向 B et [2] により構成される。
各知覚評価 RM [i] 及び動機状態 Mo t [i] に基づく、 「摂食行動」 、 「摂水行動」及び 「***行動」 に対応される各出現傾向 B et [i] の算出は次の ようになる。
知覚評価 RM [i] と動機状態 Mo七 [i] とから、 ( 1 9) 式に示すように 出現傾向 B e t [i] を算出する Bet[i] = RM[i]xMot [i] (19)
ここで、 知覚評価 RM [ i] と動機状態 Mo七 [i] との間に反比例の関係が ある埸合には、 その関係を例えば ( 2 0) 式のように示すことができる。
A
RM「 (20)
Mot [i | この知覚評価 RM [i] を、 ( 1 9) 式に代入すると、 A [ i ] が B e t [ i] として算出される。 すなわち、 知覚評価 RM [ i] と動機状態 Mo t [i] との 間に反比例の関係がある場合には、 その係数 A [ i ] が出現傾向 B et [i] とし て箅出されるのである。
このような計算により、 排他制御前の出現傾向 B e t [ i ] を算出することがで きる。 そして、 排他制御が考慮された出現傾向 B e t [i] については (2 1 ) 式 により算出することができる。
0 G lj 0j G|2j[0j
G刚 0 G[2][l] Bet MW (21)
G[0][2] G[l][2] 0
Figure imgf000044_0001
ィメージ的には、 図 2 1に示すように、 排他制御ゲイン G [ i ] [ j ] ( i = 0 , 1, 2、 j =0 , 1 , 2) により、 第 1乃至第 3の行動の出現傾向 B eい . 「0] , B et [ 1 ] , B e t [2] が排他制御として算出がなされる。 以上のように、 排他制御前の出現傾向と、 その排他前の出現傾向を使用し、 排 他制御が考慮された出現傾向との算出がなされる。
例えば、 図 2 2に示すような手順により、 これら一連の計算がなされる。, 先ず、 ステップ S 1に示すように、 t = 0, B e (t-i) [i] = 0として各値を 初期化する。 そして、 ステヅプ S 2〜ステヅプ S 6において、 B et [ 0 ] 〜: B e t [2] までの (2 1 ) 式の右辺第 1項の値が算出される。 すなわち、 排他制御 前の出現傾向 B et [i] が算出される。 ステップ S 2〜ステップ S 6の処理は具 体的には次のようになる。
ステップ S 2では、 i = 0とされる。 これにより、 B et [0] についての計算 が開始される。
続く、 ステップ S 3にて、 知覚評価 RM [0] と、 動機状態 Mo t [0] とが 算出される。 すなわち、 例えば 「おいしさ」 の評価 RM [0] を取得し、. 「空 腹」 の状態 Mo t [ 1 ] を取得する。
続く、 ステップ S 4では、 (2 1 ) 式の右辺第 1項の値として、 「摂食行動」 の出現傾向 B et [0] を算出する。
そして、 ステ.ヅプ S 5において、 i = 3か否かについての判別がなされる。 す なわち、 比較対象となる全ての出現傾向 B et [ 0 ] ~ B e t [2] の値が算出さ れたか否かの判別がなされる。
ここで、 i = 3ではないとき、 ステヅプ S 6において i = i + 1とされ、 再び、 ステヅプ S 3からの処理を開始する。
このようなステップ S 1〜ステヅプ S 6の処理により、 排他制御前の値として、 摂食傾向 B et [0] に続いて、 摂水行動傾向 B e t [ 1 ] 及び***傾向 B e七 [2] が算出されるようになる。
そして、 ステヅプ S 5において、 i = 3とされたとき、 ステヅプ S 7の処理を 実行する。 ステップ S 7では、 (2 1) 式の左辺の出現傾向 B et [i] ( i = 0 〜2 ) が算出される。 すなわち、 (2 1 ) 式により、 排他制御が考慮された出現 傾向 B et [i] が算出される。
続く、 ステップ S 8において、 B et [i] の何れかが正の値となっているか否 か判断がなされる。 ここで、 B et [i] の何れもが正の値となっていない場合に は、 ステップ S 9において t = t + 1として、 再びステヅプ S 1からの処理を実 行する。 これにより、 (2 1 ) 式に示すような再帰的な計算がなされようになる。 すなわち、 前処理により得られた B e t [i] が B e tt-υ [i] とされて計算が なされる。
一方、 ここで、 出現傾向 B et [i] の何れかが正の値となっている場合には、 当該出現傾向 B et [i] に対応される行動を実際に出現させる一の行動として選 択して、 行動の選択処理を終了する。
以上のように、 知覚評価 (知覚情報) RM [i] と動機状態 (動機情報) Mo 七 [i] とに基づいて、 出現傾向 B et [i] を求めることができる。
( 3 - 6 - 2 ) 知覚情報取得部における処理
次に、 知覚評価 RM [i] を取得する知覚情報取得部 9 0と、 動機状態 Mo t [ i] を取得する動機情報取得部 8 1との具体的な構成について説明する。 先ず、 知覚情報取得部 90について説明する。
知覚情報取得部 90は、 外部又は内部の情報 (認識結果) に応じて、 行動の原 因因子とされる知覚情報 (評価) を取得する。 この知覚情報取得部 9 0は、 図 2 3に示すように、 行動記憶器 9 1、 対象物名記憶器 9 2、 対象物決定器 9 3、 対 象物情報記憶器 94及び知覚情報演算器 9 5を備えている。
行動記憶器 9 1は、 選択可能とされる複数の行動が記憶されている。 例えば、 複数の行動がデータベースとして記憶されている。
そして、 この行動記憶器 9 1は、 行動グループ番号 ' (信号) が入力されること 'により、 比較対象とされる複数の行動を 1つの行動グループとして対象物決定器 93に出力する。
例えば、 「リンゴを食べる (リンゴの摂食行動) 」 について例を挙げると次の ようになる。
「リンゴを食べる」 の行動を具現化する行動としては、 例えば、 「リンゴに近 づく」 、 「リンゴのにおいをかぐ」 、 「リンゴを口に入れる」 、 「リンゴに触 る」 等が挙げられる。 例えば、 「近づく」 は、 対象物との距離を短くする行動で あり、 また、 「においをかぐ」 は、 対象物に対して例えば鼻を近づけるという行 動であり、 「口に入れる」 は、 対象物を口の中に運ぶという行動、 「触る」 は、 対象物に手 (脚) を接触させる行動である。 これら 「近づく」 、 「においをか ぐ」 、 「口に入れる」 及び 「触る」 等に対応する行動は、 対象物一般に適用可能 な行動とされる。 すなわち、 対象物が 「ミカン」 の場合において、 その距離を短 くする行動は、 「ミカンに近づく」 の行動になり、 また、 鼻を近づける行動は、 「ミカンのにおいをかぐ」 の行動になり、 口に運ぶ行動は、 「ミカンを口にいれ る」 の行動になり、 また、 手を接触させる行動は、 「ミカンに ¾1}る」 の行動にな る。
行動記憶器 9 1は、 このような 「近づく」 等の対象物一般に適用可能な複数の 行動情報を 1つの行動グループとして対象物決定器 9 3に出力している。 すなわ ち、 行動記憶器 9 1は、 このような 「リンゴを食べる」 等の上位の行動を具現化 する下位の行動の対象物の情報を抜いて規定された行動名情報を対象物決定器 9 3に出力している。 そして、 この行動記憶器 9 1から出力される行動名情報は、 行動選択演算部 8 2において出現傾向が比較される行動に対応されるものである。 よって、 互いに抑制する関係にある行動となる。
このように対象物一般に適用可能な情報としての行動名情報を保持しているの は、 対象物が異なる同じ動作について信号 (コマンド) を複数定義する必要をな く し、 各対象物毎の行動を規定した場合の例えばデータベース等のシステムの肥 大を防止して、 逆に同様な行動を起こす場合に対象物毎に所作自体に大きな差異 はないことによる。 なお、 特別の行動については、 対象物の情報を含めて改めて 行動を規定すればよい。
一方、 対象物名記憶器 9 2には、 対象物名が記憶されている。 この対象物名記 憶器 9 2に記憶される対象物名は、 上位の行動において選択された対象物名であ る。 例えば、 上位の行動として 「リンゴを食べる (リンゴの摂食行動) 」 が選択 された場合には、 ロボット装置 1がリンゴの存在を認識した場合であり、 この場 合、 「リンゴ」 が対象物名として対象物名記憶器 9 2に記憶される。 そして、 対 象物名記憶器 9 2は、 対象物名情報 (対象物信号) を対象物決定器 9 3に出力す る。
上述の行動記憶器 9 1では、 下位の行動について対象物一般に適用可能な行動 情報を対象物決定器 9 3に出力しており、 この対象物名記憶器 9 2は、 その対象 物名を対象物決定器 9 3に出力するものである。 よって、 対象物決定器 9 3では、 行動記憶器 9 1から出力される情報 (行動名信号) と対象物名記憶器 9 2から出 力される情報 (対象物信号) とから、 比較対象とされる複数の行動が完全な情報 として形成される。
対象物決定器 9 3は、 そのように比較可能な形態として複数の行動情報 (行動 グループ信号) を知覚情報演算器 9 5に出力する。 すなわち、 対象物決定器 9 3 は、 行動記憶器 9 1により取得した行動名と、 対象物名記憶器 9 2により取得し た対象物名とを対応した形 (ペア) として知覚情報演算器 9 5に出力する。
なお、 比較対象となる複数の行動の全てが対象物を必要とする行動であるとは 限らない。 このような場合には、 対象物名記憶器 9 2からは、 そのような行動に 対応して 「対象物はない」 といった情報を対象物決定器 9 3に出力するようにす る。 これにより、 対象物決定器 9 3では、 対象物がない行動の情報として、 行動 記憶器 9 1から出力された行動の情報を知覚情報演算器 9 5に出力する。
このように構成されている行動記憶器 9 1、 対象物名記憶器 9 2及び対象物決 定器 9 3は例えば次のように処理をする。 例えば、 行動記憶器 9 1は、 行動グル —プ番号" 1 " が入力されると、 行動グループ" 1 " を構成する" 行動 (Behavi or) 0 " 、 "行動 1 ".、 " 行動 2 " 、 " 行動 3 " を対象物決定器 9 3に出力する c 一方、 対象物名記憶器 9 2は、 " 行動 0 " に対応して"食物" を出力し、 " 行動 1 " に対応して" 水" を出力し、 行動グループ" 2 " に対応して" 対象物なし" を出力し、 "行動 3 " に対応して" 対象物なし" を出力する。 例えば、 このよう な例は、 上位の行動が 「摂取行動」 である場合であり、 上述したように、 上位の 行動が 「リンゴを食べる」 であれば、 この対象物名記憶器 9 2からは" リンゴ" のみが出力される。 そして、 対象物決定器 9 3では、 行動記憶器 9 1から出力さ れた各" 行動" と、 対象物名記憶器 9 2から出力された" 対象物名" とをペアと して、 意味のある行動情報として、 知覚情報演算器 9 5に出力する。
入力セマンティクスコンパ一夕モジュール 5 9は、 対象物情報記憶器 9 4に対 して、 Dボット装置 1に入力されてきた知覚に関する情報を出力しており、 対象 物情報記憶器.9 4では、 入力セマンティクスコンバ一夕モジュール 5 9から送ら れてくる知覚に関する情報が記憶される。 すなわち、 例えば、 対象物情報記憶器 9 4には、 対象物とされる 「リンゴ」 、 「リンゴまでの距離」 、 「リンゴのある 方向」'等といった、 出現傾向の算出に使用する知覚評価のためのパラメータが記 憶される。
知覚情報演算器 9 5は、 対象物情報記億器 9 4からの対象物情報 (対象物情報 信号) と、 対象物決定器 9 3からの行動グループ情報 (行動グループ情報信号) とに基づいて、 行動選択演算部 8 2において出現傾向が比較される各行動に対応 した知覚評価 R M [ i ] を取得する。 すなわち、 例えば、 「リンゴまでの距離」 を用いて、 「リンゴを食べる (リンゴの摂食行動) 」 についての知覚評価をした り、 「リンゴに近づく」 について知覚評価をしたりする。
そして、 このように知覚情報演算器 9 5により取得された知覚評価 R M [ i ] が行動選択演算部 8 2に出力される。 例えば、 知覚評価 R M [ i ] は、 図 1 9に 示すように、 べク トル量と.して知覚情報取得部 9 0から行動選択演算部 8 2.に出 力される。
なお、 対象物決定器 9 3から同期信号を対象物情報記憶器 9 4に出力すること もできる。 同期信号により対象物決定器 9 3の出力と対象物情報記憶器 9 4の出 力の同期を取ることができるようになり、 これにより、 知覚情報演算器 9 5には、 対象物決定器 9 3からの行動に対応されるパラメータが所定のタイ ミングで入力 させることができるようになる。
また、 基本的には、 ロボッ ト装置 1は、 この知覚情報取得部 9 0を 1つだけ備 えるものである。 しかし、 知覚情報取得部 9 0を、 各行動それそれについてそれ それに備えることもできる。 このような場合には、 知覚情報取得部 9 0が 1つの 行動で対象物一般に適用することのみを考慮すればよいことになることから、 行 動記憶器 9 1を備える必要がなくなる。 例えば、 このような例は、 後述するよう な行動選択部を複数のオブジェク トとして構成する場合である。
この知覚情報取得部 9 0における処理の手順について図 2 4を用いて説明する。 先ず、 ステップ S 1 1において、 行動グループ名の取得がなされる。 行動グル ープ名の取得とは、 「リンゴを食べる」 の下位行動である 「リンゴに近づく」 、 「リンゴのにおいをかぐ」 等を示す行動グループ名の取得である。
続いて対象物選択ルーチンが実行される。 対象物選択ルーチンでは、 ステップ S 1 2にて、 計算する行動名群の取得がなされる。 この行動名群の取得により、 行動記憶器 9 1に複数の行動 (対象物一般に適用可能な形態の行動情報) が記憶 される。 例えば、 「近づく」 、 「においをかぐ」 等の行動名を規定する情報であ る。
また、 ステヅプ S 1 3にて、 対象物名の取得がなされる。 この対象物名の取得 により、 対象物名記憶器 9 2に上位の行動において取得された対象物名称が記憶 される。 例えば、 「リンゴ」 等の対象物の情報である。
このように対象物選択ルーチンにおいて、 行動名群の取得及び対象物名の取得 がなされる。 続くステヅプ S 1 4において、 選択された全ての行動に対して、 知 覚情報演算器 9 5における知覚評価 R M [ i ] の計算を行ったか否かの判別がな される。 選択された全ての行動に対して知覚評価 R M [ i ] の計算が終了してい る場合には、 当該処理を終了して、 選択された全ての行動に対して知覚評価 R M [ i ] の計算が終了していない場合には、 知覚評価算出ルーチンが実行される。 知覚評価算出ルーチンは、 知覚情報演算器 9 5において実行されるもので次の ような処理からなる。
ステヅプ S 1 5において、 対象物が存在するか否かについての判別がなされる。 対象物が存在する場合には、 ステップ S 1 6に進み、 対象物が存在しない場合に は、 ステップ S 1 8に進む。
ステップ S 1 6において、 知覚情報演算器 9 5は、 対象物情報記憶器 9 4から の対象物についての距離及び方向 (知覚評価取得のためのパラメ一夕) を取得し て、 ステップ S 1 7で知覚評価 (Value) R M [ i ] を算出する。 すなわち、 例え ば、 リンゴまでの距離」 から、 「リンゴに近づく」 の評価 R M [ i ] を算出する。 なお、 距離は距離センサ 2 2により検出し、 方向は C C Dカメラ 2 0の撮像画像 等を利用して検出する。
一方、 ステップ S 1 8において、 知覚情報取得器 9 5は、 対象物がない状態に て知覚評価 (Value) R M [ i ] を算出する。 例えば、 この処理は、 知覚評価をす る行動が対象物を要しない場合に対応される。
このような知覚評価算出ルーチンは、 上述のステップ S 1 4の判別処理におい て、 比較対象とされる全ての行動 (行動グループを構成する複数の行動) につい て、 知覚評価 RM [i] の計算を行ったと判断されるまで実行される。 すなわち、 ステップ S 14の処理と知覚評価算出ルーチンとで、 行動グル一プ内の全ての行 動につい.ての知覚評価 RM [i] が算出される。
ステップ S 14にて、 行動グループ内の全ての行動の知覚評価 RM [i] が算 出されたと判断されると、 当該処理が終了する。
以上のように知覚情報取得部 90が構成されており、 この知覚情報取得部 90 により、 行動グループにおける比較対象の複数の行動についての知覚評価 RM [ i ] を取得することができる。
( 3 - 6 - 3 ) 動機情報取得部における処理
動機情報取得部 81は、 外部又は内部の情報 (認識結果) に応じて変化する本 能及び感情の状態に基づいて、 行動の原因因子の 1つである動機を取得する。 こ の動機情報取得部 8 1は、 図 2 5に示すように、 本能 .感情パラメ一夕 I E
[P] を複個数 (本能 ·感情パラメ一夕群) を有し、 これにより複数個の行動の 動機 Mo t [i] を取得している。 具体的には、 次のようにして行動の動機を取 得する。
本能 '感情パラメ一夕群 I E [p] は、 本能や感情に影響される情報によって 構成されており、 具体的には、 上述したような内的状態モデルによって決定され る複数のパラメ一夕から構成されている。 すなわち、 本能 ·感情パラメータとし て、 例えば、 「疲れ」 、 「体内温度」 、 「痛み」 、 「飢え」 、 「乾き」 、 「愛 情」 、 「服従性」 、 「好奇心 j 、 「***」 、 「幸せ」 、 「悲しみ」 、 「怒りぶ、 「驚き」 、 「嫌悪」 、 「恐れ」 、 「苛立ち」 、 「退屈」 、 「眠気」 、 「社交心」 、 「根気」 、 「緊張 ' リラヅクス」 、 「警戒」 、 「罪」 、 「悪意」 、 「誠実さ」 、 「***」 、 「嫉妬」 等が挙げられる。
また、 行動の動機群 Mo t [ i] は、 同一の行動グループ内における複数の行 動に対応される動機群である。 例えば、 「摂食行動」 についての 「空腹」 等や 「摂水行動」 についての 「のどのかわき」 等である。
この動機情報取得部 8 1は、 このような本能 ·感情パラメ一夕 I E [p] をマ ヅビングして各行動についての動機 Mo t [i] を算出する。 具体的には、 (2 2 ) 式により算出する。 Mot [0] ,[o] K[O]W K[0][m] ffi[0]
Mot [l] ゆ M κ[ι]Η IE[1]
(22)
Mot [2] K[i][。] 尋] K[i]H IE [m]
この (22) 式により、 本能 .感情パラメ一夕 I E [p] に係数 K [ i]
[ρ] を掛け合わせて、 線形和としてのマッピングにより.各行動の動機 Mo t [i] を算出する。 このような行列式として箅出された動機動機 Mo七 [i] は、 図 19に示すように、 ベクトル量として動機情報取得部 8 1から行動選択演算部
82に出力される。
例えば、 「探索」 、 「ねだる」 、 「休む」 の動機を例に挙げて具体的に説明す る。 「探索」 の動機 Mo t [0] 、 「ねだる」 の動機 Mo t [ 1 ] 及び 「休む」 の動機 M 0 t [ 2 ] は ( 23 ) 式として与えられる。
Figure imgf000052_0001
また、 K [i] [p] を (24) 式に示すように与える
Figure imgf000052_0002
また、 本能 ·感情パラメ一夕 I E [p] は (25) 式に示すように与える
IE[p]= 好^疲
(25)
心欲
このような関係から、 「探索」 、 「ねだる」 、 「休む」 の各動機は、 (26) 式のように示される。
-10 10 0 疲れ
0 0 15 X 好奇心 (26)
休む
Figure imgf000053_0001
10 一 5 0 f情欲
この (26) 式では、 「探索」 は、 「疲れ」 がマイナス因子として作用し、. · 「好奇心」 がプラス因子として作用する本能 ·感情パラメ一夕の関数となること を示す。 また、 「ねだる」 は、 「愛情欲」 がプラス因子として作用する本能 ·感 情パラメ一夕の関数となることを示す。 また、 「休む」 は、 「疲れ」 がプラス因 子として作用し、 「好奇心」 がマイナス因子として作用する本能 ·感情パラメ一 夕の関数となることを示す。
ここで、 第 1の例として、 本能 ·感情パラメ一夕 I E [p] が [ 10, 50, 20] の場合について考えてみる。 例えば、 このようなような状態は、 好奇心が 高い状態をいう。 このような状態では、 「探索」 Mo t [0] が400 (=- 1 00 + 500 + 0) となり、 「ねだる」 Mo t [1] が 300 (= 0 + 0 + 30 0 ) となり、 「休む」 Mo t [2] がー 1 50 (= 100 -2 50 + 0) となる, 第 2の例として、 本能 .感情パラメ一夕 I E [p] が [70, 10, 30] の 場合について考えてみる。 例えば、 このようなような状態は、 探し疲れた状態を いう。 このような状態では、 「探索」 Mo t [0] がー 600 (ニー 700 + 1 00 + 0) となり、 「ねだる」 Mo t [1] が 450 (= 0 + 0 + 450) とな り、 「休む」 Mo t [2] が 650 (= 700- 50 + 0) となる。
第 3の例として、 本能 ·感情パラメ一夕 I E [p] が [30, 20, 60] の 場合について考えてみる。 例えば、 このようなような状態は、 疲れがちょっと回 復し、 愛情欲が高い状態をいう。 このような状態では、 「探索」 Mo t [0] が - 1 00 ( = -300 + 200 + 0) となり、 「ねだる j Mo t [ 1 ] が 300 (= 0 + 0 + 300) となり、 「休む」 Mo t [2] が 200 (=300— 1 0 0 + 0) となる。
このようにして、 本能 '感情パラメータ群 I E [ρ] と係数 K [i] [m] と から、 行動の動機 Mo t [i] を取得することができる。 そして、 本能 .感情パ ラメ一夕群 K [i] [p] のマヅビングを適切に設定することにより、 出現傾向 RM [ i ] の取得のための所望の動機 Mo t [i] を得ることができる。 すなわ ち、 例えば、 上述の例でいう 「のどのかわき」 、 「空腹」 といった動機をも得る ことができる。
以上のように動機情報取得部 8 1が構成されており、 この動機情報取得部 8 1 により、 各行動についての動機 Mo t [i] を取得することができる。 この動機 情報取得部 8 1により得ちれる動機は、 本能や感情のパラメ一夕値の変化に応じ て変化するものであって、 結果として、 選択された行動に反映される。 例えば、 上述の例では次のように、 動機が行動に反映されることとなる。
欲求は、 基本的には、 時間増加であるため、 満たされないと増加する。 好奇心 が高くなると、 ロボヅ ト装置 1は探索を始める (上述の第 1の例) 。 探索するこ とで歩き回るため、 歩いた分だけ疲れが蓄積される。 また、 好奇心自体も探索す ることによって減少してくる。 しばらく歩き回っても何も入力されないと、 好奇 心が減少し、 疲れが増大することによって、 休む行動にスイッチする (上述の第 2の例) 。 しばらくして休むことによって疲れが減少し、 時間によって増加して きた愛情欲によってロボット装置 1の行動はねだるにスィツチされる (上述の第 3の例) 。 このように、 動機が、 選択された行動に反映されることがわかる。 なお、 上述した係数 K [i] [p] の値については、 任意に設定することがで きる。 例えば、 任意に設定することにより、 動機 Mo t [ i] の取得のための本 能 '感情パラメ一夕 I E [p] によるマッピングを種々変化することができるよ うになる。 これにより、 係数 K [i] [p] の設定によっては、 ロボヅト装置 1 に適用する動物の種類や成長レベル等に対応して、 マヅビングすることができる ようになる。
以上、 知覚評価 RM [i] を取得する知覚情報取得部 90及び動機状態 Mo t [i] を取得する動機情報取得部 8 1との具的な構成について説明した。 以上の ような知覚情報取得部 90及び動機情報取得部 8 1によって取得された知覚評価 RM [i] 及び動機状態 Mo t [ i ] により、 行動選択演算部 82のおいて一の 行動の選択がなされる。
そして、 このような行動の選択処理が、 最下位の行動層における行動の選択が なされるまで実行される。 すなわち、 上述の図 7に示したように行動選択のため のシステムを階層構造として構築しており、 最下位の行動 (実際に出力する行 動) を決定するまで、 各層において上述したように、 知覚評価 RM [i] と動機 情報 Mo七 [i] とによる行動選択処理を実行する。 すなわち、 図 6 Bに示すよ うに、 「摂取行動」 はサブシステム層においてした知覚評価 RM [i] と動機情 報 M 0七 [ i ] と.に基づぐ行動選択の結果であり、 「摂水行動」 は、 さらに具現 化した行動群からなるモード層においてした知覚評価 RM [i] と動機情報 Mo t [i] とに基づく行動選択の結果であり、 「水に近づく」 は、 またさらに具現 化した行動群からなるモジュール層においてした知覚評価 RM [i] と動機情報 Mo t [i] とに基づく行動選択の結果であり、 「前進する」 は、 またさらに具 現化した行動群からなるモータコマンド層においてした知覚評価 [ i] と動 機情報 Mo t [i] とに基づく行動選択の結果である。 このような選択処理によ り、 抽象的な行動 (願望としての行動) である 「摂食行動」 が、 「前進する」 と いった実際の行動によって実現されることになる。 '
なお、 各層における行動の選択において、 上述したように、 知覚や動機等の原 因因子によってその出現傾向が算出されて、 それに基づいて一の行動が選択され ているが、 出現傾向を算出する際に使用する動機情報を全ての層において一律の ものを使用してもよい。 すなわち.、 例えば、 「摂取行動」 が上位の行動とされて いる場合には、 その下位の行動は全て 「摂取行動」 を実現するためのものである ことを考えれば、 当該下位の行動は、 「飢え (乾き) 」 の状態を満たすための行 動となる。 よって、 「摂取行動」 を実現するための下位の行動は、' 「飢え (乾 き) 」 の状態が動機の情報 (原因因子) となる。
なお、 知覚については、 必ずしもそのような関係にはならない。 「水に近づ く」 の知覚情報 (外部知的要素) として 「水への距離」 が挙げられるが、 その 「水に近づく」 の下位の 「前進する」 の知覚情報としては、 「水のある方向」 が 最適である場合もあるからである。
( 3 - 7 ) モジユレ一夕における処理
モジユレ一夕 7 2及び後述する出力セマンティクスコンバ一夕モジュール 6 8 により、 上述したように、 行動選択演算部 8 2にて選択された一の行動を実際に 出現するための処理がなされる。
モジユレ一夕 7 2は、 行動選択部 8 0において選択された一の行動と、 内的 :状 態モデル部 7 1から出力された代表感情情報 (代表感情信号) とから最終的に出 現させる行動を決定する。
ここで、 内的感情モデル部 7 1から出力される代表感情情報は、 ロボット装置 1の.現在の感情状態を示すものである。 例えば、'内的感情モデル部 7 1は、 本能 (欲求) 又は感情のパラメータ値の一番大きい本能又は感情を代表感情情報とし て出力する。
モジユレ一夕 7 2は、 このような代表感情に基づいて、 行動選択部 8 0におい て選択された一の行動をいわゆる変調するものである。 すなわち、 モジユレ一夕 7 2の処理により、 行動において感情が表出されるようになる。
れにより、 例えば、 現在の感情をロボット装置 1の行動として直接出現させ る必要はないが、 感情表現を含ませて行動を出現させる場合に有効なものとなる すなわち、 例えば、 本当に怒っていない状態であるが、 少し怒っているような場 合に、 行動選択部 8 0により選択された行動に 「不機嫌さ」 を伴わせる (付加さ せる) ような場合である。
モジユレ一夕 7 2は、 上述のような感情により変調された選択された一の行動 についての情報を、 出力セマンティクスコンバ一夕モジュール 6 8に出力する。 例えば、 モジユレ一夕 7 2は、 行動の情報を抽象的な行動コマンドとして出力セ マンティクスコンバ一夕モジュール 6 8に出力する。
出カセマンティクスコンバータモジュール 6 8は、 モジユレ一タ 7 2からの行 動情報に対応する出力を信号処理モジュール 6 1〜 6 7に与える。 これにより、 ロボヅ ト装置 1は、 行動決定システム 7 0において決定された行動を実際のもの として出力する。
以上、 行動決定システム 7 0について説明した。 上述のような行動決定システ ム 7 0により、 入力セマンティクスコンバータモジュール 5 9における認識結果 に基づいて内的状態モデル部 7 1では、 ロボヅ ト装置 1の本能及び感情の状態な どの内的状態を変化させることができる。 また、 行動選択部 8 0では、 認識結果 に基づいて、 複数の行動からロボッ ト装置 1が出現する一の行動を選択すること ができる。
そして、 モジユレ一夕 7 2により、 内的状態モデル部 7 1により得られた内的 状態と行動選択部 8 0.により得られた一の行動とに基づいて、 感情が付加された 行動情報の生成がなされる。 そしてモジュレー夕 7 2により、 感情が付加された 行動情報が出力セマンティクスコンバータモジュール 6 8に出力される。
( 4 ) 出力セマンティクスコンバータモジュールにおける処理
出力セマンティクスコンバ一夕モジュール 6 8は、 ロボヅ ト装置 1の夕ィプ (例えば、 二足歩行型や四足歩行型等) や形状等の情報を保持しており、 この情 報に応じてモジユレ一夕 7 2からの行動情報を各信号処理モジュール 6 1〜 6 7 を制御する。 例えば、 4足により歩行する本実施の形態のロボッ ト装置 1の場合 には、 出力セマンティクスコンパ'一夕モジュール 6 8は、 四足歩行型のロボヅ ト 装置 1であることを把握していることから、 「前進する」 といった行動情報がモ ジユレ一夕 7 2から送られてきたときには、 その 「前進する」 を実現するために 4本の脚を制御する信号処理モジュールにコマンドを出力する。 ここで、 出力セ マンティクスコンバ一夕モジュール 6 8は、 モジユレ一夕 7 2からの抽象的な行 動コマンドによりそのように対応される各信号処理モジュール 6 1〜 6 7にコマ ンドを送る。
各信号処理モジュール 6 1〜 6 7は、 出力セマンティクスコンバー夕モジユー ル 6 8からのコマンドに基づいて、 対応するデバイスを制御する。 これにより、 上述のような行動決定システム 7 0において決定 (選択) された行動が、 実際の ものとしてロボット装置 1の行動として出現されたことになる。
また、 このようなロボット装置 1の行動の出現は、 姿勢と動作の管理がされた もとにおいてなされている。 ロボッ ト装置 1の各部は原則的には独立として動作 することはできるが、 姿勢と動作を管理することにより所定の動作を独立して動 作させることを禁止している。
• ロボット装置 1は、 図 1に示したように、 胴体部ユニット 2に対して、 脚部ュ ニッ ト 3 A〜 3 D、 頭部ュニット 4及び尻尾部ュニヅト 5が連結されて構成され ている。 これにより、 基本的には、 ロボット装置 1は、 選択された行動に応じて、 各信号処理モジユールが個別に制御することで各部が独立して動作することがで きるようになされている。 しかし、 場合によっては、 各ユニッ トの動作の干渉に より、 不適切な動作となる場合もある。 また、 目的とする姿勢或いは動作への遷 移が、 現在の姿勢から無理なときもある。
そこで、 ロボット装置 1は、 無理な姿勢や、 部位 (各ユニッ ト) 同士の干渉が 起こることを防止すべく、 各ユニット間の整合をとり、 姿勢と動作の管理をして いる。 ロボット装置 1は、 このような姿勢や動作を.、 図 4に示す姿勢管理モジュ ール 6 1により管理している。 .
具体的には、 姿勢管理モジュール 6 1は、 ロボヅト装置 1は座っている場合に おいて、 "前へ歩け" というような命令を受信したときには、 「座り状態」 から 「歩く状態」 への'遷移させる姿勢遷移経路を探索する。 例えば、 複数の姿勢や動 作を経由して、 「座り状態」 から 「歩く状態」 への遷移経路を探索する。 そして、 「座り状態」 から 「歩く状態」 への遷移経路探索の結果に基づいて、 そのような 遷移経路上にある姿勢や動作を実行すべく、 遷移させる経路の順番に応じて命令 を、 各信号処理モジュールに出力する。 これにより、 ロボット装置 1は、 無理な 姿勢や、 部位同士の干渉を防止して、 目的とする所望の姿勢や動作、 すなわち、 上述した行動決定システム 7 0において決定された行動に到達することができる。 以上、 ロボット装置 1の構成及びその処理について説明した。 上述したような 構成を備えることにより、 ロボット装置 1は、 動物行動学的なアプローチによつ て決定された行動を出現させることができるようになる。 これにより、 ロボッ ト 装置 1の生物感が一層増し、 ユーザ (飼い主) は、 ロボット装置 1に一層の親近 感ゃ満足感を感じるようになる。
( 4 ) 他の実施の形態
以上、 ロボヅト装置 1について最良の実際の形態について説明した。 しかし、 本発明は、 次に述べるような他の実施の形態としても実現することができる。 上述の実施の形態では、 行動決定システム 7 0が最終段の行動の選択を、 動機 情報をも参照して決定している。 例えば、 図 6 Bに示す例では、 「前進する」 が 動機情報が参照されて選択されているものである。 しかし、 最終段の.行動選択に ついては、 動機情報を除いて決定してもよい。
すなわち、 例えば, 図 2 6 A及び図 2 6 Bに示すように、 「摂取行動」 の下位 の行動 (動作) となる 「水に近づく」 さらには、 その下位の行動 (動作) の 「前 進する」 の選択を、 動機情報を除いた情報、 例えば対象物までの距離等の知覚情 報を参照して選択するものとする。 例えば、 ある行動 (例えば、 .漠然とした行 動) をしょうとする場合には、 動機がその行動選択に大きく作用し、 そして、 し たい行動をある程度絞り込んだ後は、 動機とは切り離して、 行動の選択処理 (選 • 択思考) がそのような行動を実現するためのものにスィッチするようなものであ る。 すなわち、 最終的に選択される動作は、 動機の影響を受けることなく決定さ れる点がポイントとなる。 そして、 そのような最終的に動作を決定する場合に、 例えば、 知覚情報を使用するということである。 なお、 モード層の階層は 0階層 以上であり、 モジュール層の階層は 1階層であるものとして定義しても良い。 例えば、 上述したような動機情報に基づくことなく動作を決定する部分として、 例えば図 2 7及び図 2 8に示すように、 動作生成部 1 0 0を備える。 動作生成部 1 0 0は、 行動選択演算部によって選択された行動から、 知覚情報等に基づいて、 「水に近づく」 やその下位の動作とされる 「前進丄を行動を実現する動作の選択 をする。 そして、 動作生成部 1 0 0は、 選択した動作を、 モジユレ一夕 7 2に出 力する。 モジユレ一夕 7 2では、 先に説明したように、 内的状態モデル部 7 1か ら送られてくる感情により変調した行動を出力する。
具体的には、 動作生成部 1 0 0は、 図 2 9に示すように、 知覚情報取得部 9 0、 行動選択演算部 1 0 2を備えて構成する。 例えば、 出力セマンティクスコンパ一 タモジュール 6 8からの各種情報が蓄積される対象物情報記憶部 9 4を利用して、 行動選択演算部 1 0 2において動作の選択をする。 これにより、 '動作生成部 1 0 0は、 例えば、 「前進する」 の際には、 対象物情報記憶器 9 4に記憶されている 情報である対象物まで距離 (例えば、 対象物までの距離が 1 0 c mである情報) や方向 (例えば、 対象物が右方向にある情報) の情報のみを利用して、 行動選択 演算部 1 0 2において動作の選択を行う。
また、 上述の実施の形態では、 行動選択部 8 0によって複数の行動から一の行 動を選択している場合について説明した。 例えば、 行動選択部 8 0では複数の行 動の情報を保持しており、 これら行動のデータに基づいて一の行動を決定してい る。 しかし、 これに限定されるものではない。
例えば、 行動決定システム 7 0は、 行動決定する部分をオブジェクト指向によ り設計することができる。 なお、 オブジェクト指向として行動決定するシステム を構築する場合でも、 上位の行動と下位の行動といった.ような階層構造としての 関係はそのまま用いる。 そして、 行動の選択は、 オブジェクト単位として構成さ れる行動グループから当該オブジェクト単位で一の行動を選択するようにする。 具体的には、 図 3 0に示すように、 行動システムにおいて行動の選択を複数の行 動選択部 (オブジェクト或いはスレッド) 8 0 ^ . 8 0 2 , 8 0 3を階層構造として 備えるようにする。
本例では、 図 3 0に示すように、 オブジェクトとされる行動選択部が 2階層と されてシステムが構築されているが、 これに限定されないことはいうまでもない。 各行動選択部 8 0 1 5 8 0 2 , 8 0 sは、 上述した行動決定システム 7 0が唯一と して備える行動選択部 8 0と同様に、 知覚情報取得部 9 0、 動機情報取得部 8 1 及び行動選択演算部 8 2を備える。
このように構成した場合、 上位の行動選択部 8 0!が選択した行動に基づいて、 下位の行動選択部部 8 0 2, 8 0 3において行動の選択を行う。 ここで、 上位の行 動の選択は、 下位層の一の行動選択部の選択となる。 そして、 選択された一の行 動選択部は、 更に下位の行動の選択を行う。
そして、 このような複数の行動選択部 8 0 8. 0 2, 8 0 3からなるシステムの 最下位に位置される行動選択部が、 選択した行動の情報を、 上述したような動作 生成部 1 0 0に引き渡す。
このような、 オブジェクト指向として行動決定のためのシステムを構築するこ とにより、 行動選択のために常にシステム全体についての処理或いは把握をする 必要がなくなり、 行動選択の処理負担が軽減されるようになる。 また、 後に新た な行動を加える場合であっても、 そのような新たなオブジェク トを加えるだけで 済み、 行動選択のためのデータを全て書き換えるといったような手間もかからな い。 例えば、 新たな行動を加える場合とは、 学習によって新たな行動を取得した 場合や、 成長レベルの変化により新たな行動が加わる場合をいう。
また、 図 6 B或いは図 2 6 Bに示したサブシステム層 (SUBSYSTEM) 、 モード層 (MODE 1 , M0DE2 ) 、 モジュール層 (MODULE) における各行動グループ構成の具体 例は、 図 3 1及び図 3 2に示すようになる。
以上説明したようなロボット装置は、 外部又は内部情報を検出手段により検出 し、 検出手段が検出した外部又は内部情報であって、 行動に影響する情報とされ る原因因子を原因因子取得手段により取得し、 原因因子取得手段が取得した原因 因子に基づいて、 当該原因因子に影響される行動の出現傾向を出現傾向取得手段 • により取得し、 出現傾向取得手段が取得した 2つ以上の行動に対応する出現傾向 であって、 同一グループとされる出現傾向を出現傾向比較手段により比較し、 出 現傾向比較手段による出現傾向の比較結果に基づいて、 一の行動を行動選択手段 により選択し、 行動選択手段が選択した行動に基づいて、 動作部を動作部制御手 段により制御して、 当該選択された行動を出現させることにより、 原因因子に影 響されて決定される出現傾向について比較することで、 一の行動を選択しており、 動物行動学的なアプローチとしての行動を出現するようになる。
このようなロボット装置の行動決定方法は、 ロボ、ソト装置の外部又は内部情報 を情報検出工程にて検出手段により検出し、 情報検出工程にて検出した外部又は 内部情報のロボット装置の行動に影響する情報とされる原因因子を原因因子取得 工程にて取得し、 原因因子取得工程にて取得した原因因子に基づいて、 当該原因 因子に影響される行動の出現傾向を出現傾向取得工程にて取得し、 出現傾向取得 工程にて取得した 2つ以上の行動に対応する出現傾向であって、 同一グループと される出現傾向を出現傾向比較工程にて比較し、 出現傾向比較工程における出現 傾向の比較結果に基づいて、 一の行動を行動選択工程にて選択し、 行動選択工程 にて選択された行動に基づいて、 ロボット装置の動作部を動作部制御工程にて制 御して、 当該ロボット装置に選択された行動を出現させることにより、 ロボット 装置は、 原因因子に影響されて決定される出現傾向について比較することで、 一 の行動を選択しており、 動物行動学的なアプローチとしての行動を出現するよう になる。

Claims

請求の範囲
1 . 動作部を制御して行動を出現させるロボット装置であって、
外部又は内部情報を検出する検出手段と、
上記検出手段が検出した外部又は内部情報であって、 行動に影響する情報とさ れる原因因子を取得する原因因子取得手段と、
上記原因因子取得手段が取得した原因因子に基づいて、 当該原因因子に影響さ れる行動の出現傾向を取得する出現傾向取得手段と、
上記出現傾向取得手段が取得した 2つ以上の行動に対応する出現傾向であって、 同一グループとされる出現傾向を比較する出現傾向比較手段と、
上記出現傾向比較手段による出現傾向の比較結果に基づいて、 一の行動を選択 する行動選択手段と、
上記行動選択手段が選択した行動に基づいて、 動作部を制御して、 当該選択さ れた行動を出現させる動作部制御手段とを備え、
上記行動選択手段が選択した一の行動の出現傾向は、 当該行動の実際の出現に より変化する原因因子に応じて変化すること
を特徴とするロボッ ト装置。
2 . 上記原因因子取得手段は、 少なくとも知覚に関する原因因子及び動機に関す る原因因子を取得すること · '
を特徴とする請求の範囲第 1項記載のロボット装置。
3 . 上記原因因子取得手段は、 上記動機に関する原因因子として、 少なくとも 本能的要素又は情動的要素からなるものを取得すること
を特徴とする請求の範囲第 2項記載のロボット装置。
4 . 上記本能的要素が、 疲れ (fatigue) 、 熱或いは体内温度 (temperature) 、 痛み (pain) 、 食欲或いは飢え (hunger) 、 乾き (thirst)、 愛情 (affection) 好奇心 ( curiosity) 、 *** (el imination) 又は*** (sexual) のうちの少なく とも 1つであり、 上記情動的要素が、 幸せ (happiness) 、 悲しみ (sadness) 、 怒り (anger) 、 驚き (surprise) 、 嫌悪 (disgust) 、 恐れ (fear) 、 苛立ち (frustration) 、 退屈 (boredom) 、 睡眠 (somnolence) 、 社交性 (gregarious ness) 、 根気 (patience) 、 緊張 (tense) 、 リラックス (relaxed) 、 警戒 (al ertness) 、 罪 (gui lt) 、 悪意 (spite) 、 誠実さ ( loyalty) 、 服従性 .(submis s ion) 又は嫉妬 (jealousy) の内の少なくとも 1つであること
を特徴とする請求の範囲第 3項記載のロボット装置。
5 . 出現可能とされる複数の行動が階層構造として構築され、 同一グループとさ れる複数の下位の行動が上位の行動の具体的な行動を示す行動選択システムを有 し、
上記出現傾向比較手段は、 上記上位の行動に対応されるグループ内の複数の下 位の行動について出現傾向を比較し、
上記行動選択手段は、 上記出現傾向比較手段による出現傾向の比較結果に基づ いて、 一の下位の行動を選択し、
上記動作部制御手段は、 上記行動選択手段が選択した行動が最下位の行動であ るときに、 当該最下位の行動に基づいて、 動作部を制御すること
を特徴とする請求の範囲第 1項記載のロボット装置。
6 . 上記原因因子取得手段は、 知覚に関する原因因子及び動機に関する原因因子 を取得していき、
上記出現傾向取得手段は、 少なくとも最下位層の行動については、 上記知覚に 関する原因因子に基づいて、 当該最下位層の行動の出現傾向を取得すること を特徴とする請求の範囲第 5項記載のロボット装置。
7 . 各行動に対応して、 行動選択のための複数のオブジェクトを有しており、 上記原因因子取得手段、 上記出現傾向取得手段及び上記行動選択手段は、 各ォ ブジェクトにより実現していること
を特徴とする請求の範囲第 1項記載のロボット装置。
8 . 上記出現傾向比較手段は、 比較する行動の出現傾向の間で排他処理をして、 複数の出現傾向を比較すること
を特徴とする請求の範囲第 1項記載のロボット装置。
9 . 上記検出手段はセンサであること
を特徴とする請求の範囲第 1項記載のロボット装置。
1 0 . 上記原因因子取得手段は、 上記センサが検出した外部又は内部情報とされ るセンサ情報から、 行動を評価するための原因因子を取得すること
を特徴とする請求の範囲第 9項記載のロボット装置。. ■
1 1 . ロボット装置の外部又は内部情報を検出手段により検出する情報検出工程 と、
上記情報検出工程にて検出した外部又は内部情報のロボッ ト装置の行動に影響 する情報とされる原因因子を取得する原因因子取得工程と、
上記原因因子取得工程にて取得した原因因子に基づいて、 当該原因因子に影響 される行動の出現傾向を取得する出現傾向取得工程と、
上記出現傾向取得工程にて取得した 2つ以上の行動に対応する出現傾向であつ て、 同一グループとされる出現傾向を比較する出現傾向比較工程と、
上記出現傾向比較工程における出現傾向の比較結果に基づいて、 一の行動を選 択する行動選択工程と、
上記行動選択工程にて選択された行動に基づいて、 上記ロボッ ト装置の動作部 を制御して、 当該ロボット装置に上記選択された行動を出現させる動作部制御ェ 程とを有し、 ' - 上記行動選択工程にて選択された一の行動の出現傾向は、 当該行動の実際の.出 現により変化する原因因子に応じて変化すること
を特徴とするロボット装置の行動決定方法。
1 2 . 上記原因因子取得工程では、 少なくとも知覚に関する原因因子及び動機に 関する原因因子を取得すること
を特徴とする請求の範囲第 1 1項記載のロボット装置の行動決定方法。
1 3 . 上記原因因子取得工程では、 上記動機に関する原因因子として、 少なくと も本能的要素又は情動的要素からなるものを取得すること
• を特徴とする請求の範囲第 1 2項記載のロボヅト装置の行動決定方法。
1 . 上記本能的要素が、 疲れ (fatigue) 、 熱或いは体内温度 (temperature) 、 痛み (pain) 、 食欲或いは飢え (hunger) 、 乾き (thirst) 、 愛情 (affection) 好奇心 ( curiosity) 、 *** (el imination) 又は*** (sexual) のうちの少なく とも 1つであり、 上記情動的要素が、 幸せ (happiness) 、 悲しみ (sadness) 、 怒り (anger) 、 驚き (surprise) 、 嫌悪 (disgust) 、 恐れ (fear) 、 苟立ち
(frustration) 、 退屈 (boredom) 、 睡眠 (somnolence) 、 社交性 (gregarious ness) 、 根気 (patience) 、 緊張 (tense) 、 リラヅクス (relaxed) ヽ. 警戒 (al ertness) 、 罪 (guilt) 、 悪意 (spite) 、 誠実さ ( loyalty) 、 服従性 (submis sion) 又は嫉妬 (jealousy) の内の少なくとも 1つであること
を特徴とする請求の範囲第 1 3項記載のロボット装置の行動決定方法。
1 5 . 上記ロボット装置が、 出現可能とされる複数の行動の情報を階層構造とし て構築され、 同一グループとされる複数の下位の行動が上位の行動の具体的な行 動を示す行動選択システムを有し、
上記出現傾向取得工程では、 上記上位の行動に対応されるグループ内の複数の 下位の行動について出現傾向を比較し、
上記行動選択工程では、 下位の行動の出現傾向の比較結果に基づいて、 一の下 位の行動を選択し、
上記動作部制御工程では、 上記行動選択工程にて選択された行動が最下位の行 動であるときに、 当該最下位の行動に基づいて、 口ポット装置の動作部を制御す ること
を特徴とする請求の範囲第 1 1項記載のロボット装置の行動決定方法。
1 6 . 上記原因因子取得工程では、 知覚に関する原因因子及び動機に関する原因 因子を取得し、
上記出現傾向取得工程では、 少なくとも最下位層の行動については、 上記知覚 に関する原因因子に基づいて、 当該最下位層の行動の出現傾向を取得すること . を特徴とする請求の範囲第 1 5項記載のロポット装置の行動決定方法。
1 7 . ロボット装置が、 各行動に対応して、 行動選択のための複数のオブジェク トを有しており、
上記原因因子取得工程、 上記出現傾向取得工程及び上記行動選択工程は、 各ォ ブジェクトにより実行されること
を特徴とする請求の範囲第 1 1項記載のロボット装置の行動決定方法。
1 8 . 上記出現傾向比較工程では、 比較する行動の出現傾向の間で排他処理をし て、 複数の出現傾向を比較すること を特徴とする請求の範囲第 1 1項記載のロボット装置の行動決定方法。
1 9 . 上記検出手段がセンサであること
を特徴とする請求の範囲第 1 1項記載のロボッ ト装置の行動決定方法。
2 0 . 上記原因因子取得工程では、 上記センサが検出した外部又は内部情報とさ れるセンサ情報から、 行動を評価するための原因因子を取得すること
を特徴とする請求の範囲第 1 9項記載のロボット装置の行動決定方法。
PCT/JP2001/002419 2000-03-24 2001-03-26 Determination de l'action d'un robot et robot WO2001070468A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/979,434 US6650965B2 (en) 2000-03-24 2001-03-26 Robot apparatus and behavior deciding method
EP01915786A EP1247624A1 (en) 2000-03-24 2001-03-26 Method for determining action of robot and robot
KR1020017015057A KR20020026165A (ko) 2000-03-24 2001-03-26 로봇 장치의 행동 결정 방법 및 로봇 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000088596 2000-03-24
JP2000-88596 2000-03-24

Publications (1)

Publication Number Publication Date
WO2001070468A1 true WO2001070468A1 (fr) 2001-09-27

Family

ID=18604453

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/002419 WO2001070468A1 (fr) 2000-03-24 2001-03-26 Determination de l'action d'un robot et robot

Country Status (5)

Country Link
US (1) US6650965B2 (ja)
EP (1) EP1247624A1 (ja)
KR (1) KR20020026165A (ja)
CN (1) CN1372506A (ja)
WO (1) WO2001070468A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101780675A (zh) * 2010-03-19 2010-07-21 上海大学 双面机器人头部装置

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
US7813835B2 (en) * 2002-03-15 2010-10-12 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
US7613553B1 (en) * 2003-07-31 2009-11-03 The United States Of America As Represented By The Secretary Of The Navy Unmanned vehicle control system
US7689319B2 (en) * 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
GB0407260D0 (en) * 2004-03-31 2004-05-05 Ibm Accelerated solution of constraint satisfaction problems by partioning of the variable space
KR100762653B1 (ko) * 2004-03-31 2007-10-01 삼성전자주식회사 캐릭터 육성 시뮬레이션을 제공하는 이동 통신 장치 및 방법
CN1942289A (zh) * 2004-04-16 2007-04-04 松下电器产业株式会社 机器人、提示输出装置、机器人控制***、机器人控制方法、机器人控制程序及集成电路
JP4179230B2 (ja) * 2004-06-07 2008-11-12 ソニー株式会社 ロボット装置及びその動作制御方法
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US8588969B2 (en) * 2005-03-01 2013-11-19 Sony Corporation Enhancements to mechanical robot
US7047108B1 (en) * 2005-03-01 2006-05-16 Sony Corporation Enhancements to mechanical robot
JP2007041735A (ja) * 2005-08-01 2007-02-15 Toyota Motor Corp ロボット制御システム
US7797079B2 (en) 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
KR100825719B1 (ko) 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
KR100827088B1 (ko) * 2006-09-07 2008-05-02 삼성전자주식회사 소프트웨어 로봇 장치
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
KR101028814B1 (ko) * 2007-02-08 2011-04-12 삼성전자주식회사 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법
EP1956528B1 (en) 2007-02-08 2018-10-03 Samsung Electronics Co., Ltd. Apparatus and method for expressing behavior of software robot
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP5150341B2 (ja) * 2008-04-10 2013-02-20 株式会社東芝 データ作成装置及び方法
WO2009158653A1 (en) * 2008-06-27 2009-12-30 Intuitive Automata, Inc. Apparatus and method for assisting in achieving desired behavior patterns
CN101504546B (zh) * 2008-12-12 2010-04-21 北京科技大学 一种儿童机器人的***跟踪装置
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US8762305B1 (en) * 2010-11-11 2014-06-24 Hrl Laboratories, Llc Method and system for dynamic task selection suitable for mapping external inputs and internal goals toward actions that solve problems or elicit rewards
CN102063640B (zh) * 2010-11-29 2013-01-30 北京航空航天大学 基于效用差分网络的机器人行为学习模型
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
CN103179157A (zh) * 2011-12-22 2013-06-26 张殿礼 一种智能网络机器人及控制方法
JP2013146310A (ja) * 2012-01-17 2013-08-01 Sharp Corp 自走式電子機器
CN104246818B (zh) * 2012-09-28 2018-01-02 松下电器(美国)知识产权公司 行动倾向的确定方法以及行动倾向的确定***
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
CN103752018A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 娱乐机器猩猩
CN103752019A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 娱乐机器犬
CN106573378A (zh) * 2014-06-12 2017-04-19 普雷-艾公司 通过机器人反馈增强编程教育的***和方法
CN104554510B (zh) * 2015-01-04 2017-01-11 武汉理工大学 带有柔性结构的仿生机器狗
CN107291654A (zh) * 2016-03-31 2017-10-24 深圳光启合众科技有限公司 机器人的智能决策***和方法
GB2564821A (en) * 2016-05-20 2019-01-23 Groove X Inc Autonomous action robot and computer program
CN105945949A (zh) * 2016-06-01 2016-09-21 北京光年无限科技有限公司 面向智能机器人的信息处理方法及***
US11185989B2 (en) 2016-06-06 2021-11-30 Sony Corporation Virtual creature control system and virtual creature control method
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
WO2018157355A1 (zh) * 2017-03-02 2018-09-07 深圳市爱维尔智能科技有限公司 一种人型智能机器人及人机交流***
US20190061617A1 (en) * 2017-08-29 2019-02-28 GM Global Technology Operations LLC Audio Control Systems And Methods Based On Driver Helmet Use
US10635102B2 (en) * 2017-10-17 2020-04-28 Steering Solutions Ip Holding Corporation Driver re-engagement assessment system for an autonomous vehicle
CN107598928B (zh) * 2017-10-25 2019-11-12 中国科学院沈阳自动化研究所 基于语义模型的相机与机器人控制***及其自动适配方法
US10754318B2 (en) 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
CN109991973A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 一种机器人运动控制方法、装置以及机器人
US11097418B2 (en) 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US20200022335A1 (en) * 2018-07-18 2020-01-23 Yuan Qing Wu Dog's play partner AI dog

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876810A (ja) * 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
JPH10333731A (ja) * 1997-06-02 1998-12-18 Fujitsu Ltd ロボット及びその制御方法並びに記憶媒体
US5870527A (en) * 1995-10-17 1999-02-09 Sony Corporation Robot control methods and apparatus
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876810A (ja) * 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
US5870527A (en) * 1995-10-17 1999-02-09 Sony Corporation Robot control methods and apparatus
JPH10333731A (ja) * 1997-06-02 1998-12-18 Fujitsu Ltd ロボット及びその制御方法並びに記憶媒体
JPH11143849A (ja) * 1997-11-11 1999-05-28 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101780675A (zh) * 2010-03-19 2010-07-21 上海大学 双面机器人头部装置

Also Published As

Publication number Publication date
US6650965B2 (en) 2003-11-18
EP1247624A1 (en) 2002-10-09
US20020156751A1 (en) 2002-10-24
CN1372506A (zh) 2002-10-02
KR20020026165A (ko) 2002-04-06

Similar Documents

Publication Publication Date Title
WO2001070468A1 (fr) Determination de l&#39;action d&#39;un robot et robot
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
WO2001039932A1 (fr) Robot, son procede de commande et procede d&#39;appreciation du caractere du robot
JP7068709B2 (ja) 瞳を変化させる自律行動型ロボット
US8483873B2 (en) Autonomous robotic life form
Merrick et al. Motivated reinforcement learning: curious characters for multiuser games
US6362589B1 (en) Robot apparatus
EP1508409A1 (en) Robot device and robot control method
JP7236142B2 (ja) 自律行動型ロボット
Yoon et al. Interactive training for synthetic characters
JP2001191281A (ja) 編集装置、編集方法及び記録媒体
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JP2006110707A (ja) ロボット装置
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP4296736B2 (ja) ロボット装置
JP2001334482A (ja) ロボット装置及びロボット装置の行動決定方法
JP2003191187A (ja) ロボット装置及びその制御方法
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2001157980A (ja) ロボット装置及びその制御方法
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2001154707A (ja) ロボット装置及びその制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP2001157977A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017015057

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2001915786

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 018012183

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 09979434

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001915786

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2001915786

Country of ref document: EP