JP2002178282A - Robot device and its control method - Google Patents

Robot device and its control method

Info

Publication number
JP2002178282A
JP2002178282A JP2001309017A JP2001309017A JP2002178282A JP 2002178282 A JP2002178282 A JP 2002178282A JP 2001309017 A JP2001309017 A JP 2001309017A JP 2001309017 A JP2001309017 A JP 2001309017A JP 2002178282 A JP2002178282 A JP 2002178282A
Authority
JP
Japan
Prior art keywords
parameter
robot
action
user
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001309017A
Other languages
Japanese (ja)
Inventor
Makoto Inoue
真 井上
Tatsunori Kato
龍憲 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001309017A priority Critical patent/JP2002178282A/en
Publication of JP2002178282A publication Critical patent/JP2002178282A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve an entertaining property by giving familiarity to a user concerning a robot device and its control method. SOLUTION: It is devised to memorize using hysteresis by the user and to decide following motion in accordance with the using history. Additionally, it is devised to decide activity of the robot device in accordance with a periodical parameter to give a period to a tendency of the activity of the robot device in a specified period of time and to move each of portions of the robot device in accordance with the decided activity. Additionally, it is devised to discriminate whether it is work from the user or not by evaluating an outer stimulus detected by a specified outer stimulus detection means, enumerate the outer stimulus to a specified parameter for each of the work of the user and actuate each of the portions of the robot device in accordance with the decided activity by deciding the activity in accordance with the parameter.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願出
願人から提案及び開発されている。かかるペットロボッ
トは、一般家庭において飼育される犬や猫に似た形状を
有し、ユーザからの指令や周囲の環境に応じて自律的に
行動するものである。なお以下においては、動作の集合
を行動と定義して使用するものとする。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type that performs an action in response to a command from a user or the surrounding environment has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and acts autonomously in response to a command from a user or a surrounding environment. In the following, a set of actions is defined and used as an action.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいて、当該ペットロボットの生活リズムを
ユーザの生活リズムに適応させる機能を搭載することが
できれば、より一層の親近感や満足感をユーザに与えて
ペットロボットとしてのアミューズメント性をより向上
させることができるものと考えられる。
By the way, if such a pet robot can be equipped with a function of adapting the life rhythm of the pet robot to the life rhythm of the user, the user can be provided with a greater sense of intimacy and satisfaction. It is considered that the amusement as a pet robot can be further improved.

【0004】本発明は以上の点を考慮してなされたもの
で、アミューズメント性を向上させ得るロボット装置及
びその制御方法を提案しようとするものである。
The present invention has been made in consideration of the above points, and has as its object to propose a robot apparatus capable of improving amusement and a control method thereof.

【0005】[0005]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット装置において、時間軸方
向に形成されたユーザによる使用の履歴を表す使用履歴
を記憶する記憶手段と、使用履歴に応じて次の動作を決
定する動作決定手段とを設けるようにした。この結果こ
のロボット装置は、生活リズムをユーザの生活リズムに
適合させることができる。
According to the present invention, there is provided a robot apparatus, comprising: a storage unit for storing a use history indicating a history of use by a user formed in a time axis direction; An operation determining means for determining the next operation in response to the request is provided. As a result, the robot device can adapt the life rhythm to the life rhythm of the user.

【0006】また本発明においては、ロボット装置の制
御方法において、時間軸方向に形成されたユーザによる
使用の履歴を表す使用履歴を記憶手段に記憶する第1の
ステップと、使用履歴に応じて次の動作を決定する第2
のステップとを設けるようにした。この結果このロボッ
ト装置の制御方法によれば、ロボット装置の生活リズム
をユーザの生活リズムに適合させることができる。
According to the present invention, in a control method of a robot apparatus, a first step of storing in a storage means a use history representing a history of use by a user formed in a time axis direction, and The second to determine the operation of
And steps are provided. As a result, according to the control method of the robot device, the life rhythm of the robot device can be adapted to the life rhythm of the user.

【0007】さらに本発明においては、自律的に行動す
るロボット装置において、ロボット装置の各部位を動作
させる動作制御手段と、ロボットの行動を決定する行動
決定機構部と、行動決定機構部が決定する行動の傾向に
対して、所定の時間内における周期を与える周期パラメ
ータが記憶された記憶手段とを設け、行動決定機構部
が、周期パラメータに基づいて行動を決定し、動作制御
手段が、決定された行動に基づいてロボット装置の各部
位を動作させるようにした。この結果このロボット装置
は、生活リズムをユーザの生活リズムに適合させること
ができる。
Further, according to the present invention, in a robot apparatus which behaves autonomously, operation control means for operating each part of the robot apparatus, an action determining mechanism for determining the action of the robot, and an action determining mechanism are determined. Storage means for storing a cycle parameter that gives a cycle within a predetermined time with respect to the tendency of the action, wherein the action determining mechanism unit determines the action based on the cycle parameter, and the action control means determines the action. Each part of the robot device is operated based on the action. As a result, the robot device can adapt the life rhythm to the life rhythm of the user.

【0008】さらに本発明においては、自律的に行動す
るロボット装置の制御方法において、所定の時間内にお
けるロボット装置の行動の傾向に周期を与える周期パラ
メータに基づいて当該ロボット装置の行動を決定する第
1のステップと、決定した行動に基づいてロボット装置
の各部位を動作させる第2のステップとを設けるように
した。この結果このロボット装置の制御方法よれば、ロ
ボット装置の生活リズムをユーザの生活リズムに適合さ
せることができる。
Further, according to the present invention, in the control method of the robot apparatus which behaves autonomously, the behavior of the robot apparatus is determined based on a cycle parameter which gives a cycle to the behavior tendency of the robot apparatus within a predetermined time. One step and a second step of operating each part of the robot device based on the determined action are provided. As a result, according to the control method of the robot device, the life rhythm of the robot device can be adapted to the life rhythm of the user.

【0009】さらに本発明においては、自律的に行動す
るロボット装置において、ロボット装置の各部位を動作
させる動作制御手段と、ロボットの行動を決定する行動
決定機構部と、外部からの刺激を検出する外部刺激検出
手段と、検出した外部刺激を評価し、ユーザからの働き
かけか否かを判別し、ユーザの働きかけごとに外部刺激
を所定のパラメータへ数値化する外部刺激判別手段とを
設け、行動決定機構部が、所定のパラメータに基づいて
行動を決定し、動作制御手段は、決定された行動に基づ
いてロボット装置の各部位を動作させるようにした。こ
の結果このロボット装置は、生活リズムをユーザの生活
リズムに適合させることができる。
Further, according to the present invention, in a robot apparatus which behaves autonomously, an operation control means for operating each part of the robot apparatus, an action determining mechanism for determining the action of the robot, and detecting an external stimulus. An external stimulus detecting unit, and an external stimulus determining unit that evaluates the detected external stimulus, determines whether the external stimulus is an action from the user, and quantifies the external stimulus to a predetermined parameter for each user's action. The mechanism unit determines an action based on a predetermined parameter, and the operation control unit operates each part of the robot device based on the determined action. As a result, the robot device can adapt the life rhythm to the life rhythm of the user.

【0010】さらに本発明においては、自律的に行動す
るロボット装置の制御方法において、所定の外部刺激検
出手段により検出した外部刺激を評価して、ユーザから
の働きかけか否かを判別し、ユーザの働きかけごとに外
部刺激を所定のパラメータへ数値化する第1のステップ
と、所定のパラメータに基づいて行動を決定し、決定し
た行動に基づいてロボット装置の各部位を動作させる第
2のステップとを設けるようにした。この結果このロボ
ット装置の制御方法よれば、ロボット装置の生活リズム
をユーザの生活リズムに適合させることができる。
Further, according to the present invention, in a control method of a robot apparatus which behaves autonomously, an external stimulus detected by a predetermined external stimulus detecting means is evaluated, and it is determined whether or not the user is working. A first step of quantifying an external stimulus into a predetermined parameter for each action, and a second step of determining an action based on the predetermined parameter and operating each part of the robot apparatus based on the determined action. It was provided. As a result, according to the control method of the robot device, the life rhythm of the robot device can be adapted to the life rhythm of the user.

【0011】[0011]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0012】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体としてペットロボットを示し、
胴体部ユニット2の前後左右にそれぞれ脚部ユニット3
A〜3Dが連結されると共に、胴体部ユニット2の前端
部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニ
ット5が連結されることにより構成されている。
(1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, 1 indicates a pet robot as a whole,
Leg unit 3 on the front, back, left and right of body unit 2
A to 3D are connected, and a head unit 4 and a tail unit 5 are connected to a front end and a rear end of the body unit 2, respectively.

【0013】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
してのバッテリ11と、バッテリセンサ12、温度セン
サ13及び加速度センサ14等からなる内部センサ部1
5とが収納されている。
In this case, as shown in FIG. 2, a controller 10 for controlling the operation of the whole pet robot 1, a battery 11 as a power source of the pet robot 1, a battery sensor 12, Internal sensor unit 1 including temperature sensor 13 and acceleration sensor 14, etc.
5 are stored.

【0014】また頭部ユニット4には、このペットロボ
ット1の「耳」に相当するマイクロホン16、「目」に
相当するCCD(Charge Coupled De
vice)カメラ17及びタッチセンサ18からなる外
部センサ部19と、「口」に相当するスピーカ20とな
どがそれぞれ所定位置に配設されている。
The head unit 4 has a microphone 16 corresponding to the "ears" of the pet robot 1 and a CCD (Charge Coupled De) corresponding to the "eyes".
vice) An external sensor unit 19 including a camera 17 and a touch sensor 18 and a speaker 20 corresponding to a “mouth” are disposed at predetermined positions.

【0015】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などには、それぞれアクチュエータ21
〜21が配設されている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the coupling portion of the head unit 4 and body unit 2, and the like in the connecting portion of the tail unit 5 and the body unit 2, respectively the actuator 21 1
-21 n are provided.

【0016】そして外部センサ部19のマイクロホン1
6は、ユーザから図示しないサウンドコマンダを介して
音階として与えられる「歩け」、「伏せ」又は「ボール
を追いかけろ」などの指令音を集音し、得られた音声信
号S1Aをコントローラ10に送出する。またCCDカ
メラ17は、周囲の状況を撮像し、得られた画像信号S
1Bをコントローラ10に送出する。
The microphone 1 of the external sensor unit 19
Reference numeral 6 collects a command sound such as "walk", "down" or "chase the ball" given as a musical scale by a user via a sound commander (not shown), and sends the obtained audio signal S1A to the controller 10. . Further, the CCD camera 17 captures an image of the surrounding situation, and obtains an image signal S
1B is sent to the controller 10.

【0017】さらにタッチセンサ18は、図1において
明らかなように、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S1Cとしてコントローラ10に送出する。
As shown in FIG. 1, the touch sensor 18 is provided above the head unit 4, and detects a pressure applied by a physical action such as "stroke" or "hit" from the user. Then, the detection result is sent to the controller 10 as a pressure detection signal S1C.

【0018】また内部センサ部15のバッテリセンサ1
2は、バッテリ11のエネルギー残量を検出し、検出結
果をバッテリ残量検出信号S2Aとしてコントローラ1
0に送出する。また温度センサ13は、ペットロボット
1内部の温度を検出し、検出結果を温度検出信号S2B
としてコントローラ10に送出する。さらに加速度セン
サ14は、3軸方向(Z軸方向、Y軸方向及びZ軸方
向)の加速度を検出し、検出結果を加速度検出信号S2
Cとしてコントローラ10に送出する。
The battery sensor 1 of the internal sensor unit 15
2 detects the remaining energy of the battery 11 and uses the detection result as a remaining battery detection signal S2A.
Send to 0. The temperature sensor 13 detects the temperature inside the pet robot 1 and outputs the detection result as a temperature detection signal S2B.
To the controller 10. Further, the acceleration sensor 14 detects accelerations in three axial directions (Z-axis direction, Y-axis direction, and Z-axis direction), and outputs the detection result to an acceleration detection signal S2.
It is sent to the controller 10 as C.

【0019】コントローラ10は、外部センサ部19か
ら与えられる音声信号S1A、画像信号S1B及び圧力
検出信号S1C等(以下、これらをまとめて外部情報信
号S1と呼ぶ)と、内部センサ部15から与えられるバ
ッテリ残量信号S2A、温度検出信号S2B及び加速度
検出信号S2C等(以下、これらをまとめて内部情報信
号S2と呼ぶ)とに基づいて、外部及び内部の状態や、
ユーザからの指令及び働きかけの有無などを判断する。
The controller 10 receives an audio signal S1A, an image signal S1B, a pressure detection signal S1C, and the like (hereinafter collectively referred to as an external information signal S1) provided from the external sensor unit 19, and provided from the internal sensor unit 15. Based on the remaining battery signal S2A, the temperature detection signal S2B, the acceleration detection signal S2C, and the like (hereinafter, these are collectively referred to as an internal information signal S2),
It is determined whether there is a command from the user and whether or not there is any action.

【0020】そしてコントローラ10は、この判断結果
と、予めメモリ10Aに格納されている制御プログラム
とに基づいて続く行動を決定し、当該決定結果に基づい
て必要なアクチュエータ21〜21を駆動させるこ
とにより、頭部ユニット4を上下左右に振らせたり、尻
尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニッ
ト3A〜3Dを駆動して歩行させるなどの行動や動作を
行わせる。
The controller 10 determines a subsequent action based on the determination result and a control program stored in the memory 10A in advance, and drives the necessary actuators 21 1 to 21 n based on the determination result. This allows the head unit 4 to move up and down, left and right, move the tail 5A of the tail unit 5, and drive and move the leg units 3A to 3D to walk.

【0021】またこの際コントローラ10は、必要に応
じて音声信号S3を生成してこれをスピーカ20に与え
ることにより、当該音声信号S3に基づく音声を外部に
出力させたり、このペットロボット1の「目」の位置に
配設された図示しないLED(Light Emitt
ing Diode)を点滅させる。
At this time, the controller 10 generates an audio signal S3 as necessary and supplies it to the speaker 20 to output an audio based on the audio signal S3 to the outside, LED (Light Emitt) (not shown)
ing Diode) blinks.

【0022】このようにしてこのペットロボット1にお
いては、外部及び内部の状態や、ユーザからの指令及び
ユーザからの働きかけの有無などに応じて自律的に行動
することができるようになされている。
As described above, the pet robot 1 can autonomously act according to the external and internal conditions, the command from the user, the presence or absence of the action from the user, and the like.

【0023】かかる構成に加えてこのペットロボット1
の場合、ユーザからの働きかけやサウンドコマンダを用
いた指令などの操作入力の履歴と、自己の行動及び動作
履歴とに応じて、あたかも本物の動物が「成長」するか
のごとく行動や動作を変化させるようになされている。
In addition to the above configuration, this pet robot 1
In the case of, the behavior and behavior change as if the real animal `` grows up '' according to the history of operation input such as commands from the user and commands using the sound commander, and the own behavior and movement history. It is made to let.

【0024】すなわちこのペットロボット1には、図3
に示すように、成長過程として「幼年期」、「少年
期」、「青年期」及び「成人期」の4つの「成長段階」
が設けられている。そしてコントローラ10のメモリ1
0Aには、これら各「成長段階」ごとに、「歩行状
態」、「モーション(動き)」、「行動」及び「サウン
ド(鳴き声)」の4つの項目に関する行動及び動作の基
礎となる各種制御パラメータ及び制御プログラム等から
なる行動及び動作モデルが予め格納されている。
That is, this pet robot 1 has
As shown in the figure, there are four stages of growth: childhood, childhood, adolescence, and adulthood.
Is provided. And the memory 1 of the controller 10
0A includes, for each of these “growth stages”, various control parameters serving as the basis of the action and motion related to the four items of “walking state”, “motion”, “action”, and “sound”. And an action and action model including a control program and the like are stored in advance.

【0025】従ってこのペットロボット1においては、
外部からの入力や自己の行動及び動作の履歴に応じて、
「幼年期」、「少年期」、「青年期」及び「成人期」の
4段階で「成長」するようになされている。
Therefore, in this pet robot 1,
Depending on the input from the outside and the history of your own actions and actions,
The child grows up in four stages of "childhood", "childhood", "adolescence" and "adult".

【0026】なおこの実施の形態の場合、図3からも明
らかなように、「少年期」、「青年期」及び「成人期」
の各「成長段階」について、それぞれ複数の行動及び動
作モデルが用意されている。
In this embodiment, as is apparent from FIG. 3, "childhood", "adolescence", and "adult"
For each of the “growth stages”, a plurality of behavior and behavior models are prepared.

【0027】これによりこのペットロボット1において
は、あたかも本物の動物が飼い主の飼育の仕方等によっ
て行動様式を形成してゆくかのごとく、ユーザからの働
きかけ及び指令の入力履歴や自己の行動及び動作履歴に
応じて、「成長」に伴って「行動様式」をも変化させる
ようになされている。
In this way, in the pet robot 1, as if the real animal forms a behavioral mode according to the breeding method of the owner, etc., the input history of the user's action and the command, the own action and the operation are performed. According to the history, the "behavior" is also changed along with the "growth".

【0028】(2)コントローラ10の処理 次にこのペットロボット1におけるコントローラ10の
具体的な処理について説明する。
(2) Processing of Controller 10 Next, specific processing of the controller 10 in the pet robot 1 will be described.

【0029】コントローラ10の処理内容を機能的に分
類すると、図4に示すように、外部及び内部の状態を認
識する状態認識機構部30と、状態認識機構部30の認
識結果に基づいて感情及び本能の状態を決定する感情・
本能モデル部31と、状態認識機構部30の認識結果及
び感情・本能モデル部31の出力に基づいて続く行動や
動作を決定する行動決定機構部32と、行動決定機構部
32により決定された行動や動作を行うためのペットロ
ボット1の一連の動作計画を立てる姿勢遷移機構部33
と、姿勢遷移機構部33により立てられた動作計画に基
づいてアクチュエータ21〜21を制御するデバイ
ス制御機構部34とに分けることができる。
When the processing contents of the controller 10 are functionally classified, as shown in FIG. 4, a state recognizing mechanism section 30 for recognizing external and internal states, and emotions and emotions based on the recognition results of the state recognizing mechanism section 30 are obtained. Emotions that determine the state of instinct
An instinct model unit 31, an action determining mechanism unit 32 that determines a subsequent action or action based on the recognition result of the state recognition mechanism unit 30 and the output of the emotion / instinct model unit 31, and an action determined by the action determining mechanism unit 32 Transition mechanism unit 33 that makes a series of motion plans of the pet robot 1 for performing motion and motion
And a device control mechanism unit 34 that controls the actuators 21 1 to 21 n based on an operation plan established by the posture transition mechanism unit 33.

【0030】以下、これら状態認識機構部30、感情・
本能モデル部31、行動決定機構部32、姿勢遷移機構
部33、デバイス制御機構部34及び成長制御機構部3
5について詳細に説明する。
In the following, these state recognition mechanism units 30
Instinct model unit 31, action determination mechanism unit 32, posture transition mechanism unit 33, device control mechanism unit 34, and growth control mechanism unit 3
5 will be described in detail.

【0031】(2−1)状態認識機構部30の構成 状態認識機構部30は、外部センサ部19(図2)から
与えられる外部情報信号S1と、内部センサ部15から
与えられる内部情報信号S2とに基づいて特定の状態を
認識し、認識結果を状態認識情報S10として感情・本
能モデル部31及び行動決定機構部32に通知する。
(2-1) Configuration of State Recognition Mechanism 30 The state recognition mechanism 30 includes an external information signal S1 supplied from the external sensor unit 19 (FIG. 2) and an internal information signal S2 supplied from the internal sensor unit 15. And recognizes a specific state based on the above, and notifies the emotion / instinct model unit 31 and the action determination mechanism unit 32 of the recognition result as state recognition information S10.

【0032】実際上、状態認識機構部30は、外部セン
サ部19のマイクロホン16(図2)から与えられる音
声信号S1Aを常時監視し、当該音声信号S1Aのスペ
クトラムとして「歩け」、「伏せ」、「ボールを追いか
けろ」などの指令に応じてサウンドコマンダから出力さ
れる指令音と同じ音階のスペクトラムを検出したときに
その指令が与えられたと認識し、認識結果を感情・本能
モデル部31及び行動決定機構部32に通知する。
In practice, the state recognition mechanism section 30 constantly monitors the audio signal S1A given from the microphone 16 (FIG. 2) of the external sensor section 19, and “walks”, “downs”, When it detects a spectrum of the same scale as the command sound output from the sound commander in response to a command such as "chase the ball", it recognizes that the command has been given, and determines the recognition result as the emotion / instinct model unit 31 and action determination. Notify the mechanism unit 32.

【0033】また状態認識機構部30は、CCDカメラ
17(図2)から与えられる画像信号S1Bを常時監視
し、当該画像信号S1Bに基づく画像内に例えば「赤い
丸いもの」や「地面に対して垂直かつ所定高さ以上の平
面」を検出したときには「ボールがある」、「壁があ
る」と認識し、認識結果を感情・本能モデル部31及び
行動決定機構部32に通知する。
The state recognizing mechanism 30 constantly monitors the image signal S1B provided from the CCD camera 17 (FIG. 2), and includes, for example, a “red round object” or “red ground” in an image based on the image signal S1B. When a “vertical plane having a height equal to or more than a predetermined height” is detected, it is recognized that “there is a ball” and “there is a wall”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.

【0034】さらに状態認識機構部30は、タッチセン
サ18(図2)から与えられる圧力検出信号S1Cを常
時監視し、当該圧力検出信号S1Cに基づいて所定の閾
値以上のかつ短時間(例えば2秒未満)の圧力を検出し
たときには「叩かれた(叱られた)」と認識し、所定の
閾値未満のかつ長時間(例えば2秒以上)の圧力を検出
したときには「撫でられた(誉められた)」と認識し、
認識結果を感情・本能モデル部31及び行動決定機構部
32に通知する。
Further, the state recognition mechanism section 30 constantly monitors the pressure detection signal S1C given from the touch sensor 18 (FIG. 2), and based on the pressure detection signal S1C, has a predetermined threshold or more and a short time (for example, 2 seconds). When a pressure of less than a predetermined threshold is detected and the pressure is detected for a long time (for example, 2 seconds or more), it is recognized that the user has been struck (praised). ) "
The recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.

【0035】一方、状態認識機構部30は、内部センサ
部15の加速度センサ14(図2)から与えられる加速
度検出信号S2Cを常時監視し、当該加速度信号S2C
に基づいて例えば予め設定された所定レベル以上の加速
度を検出したときには「大きな衝撃を受けた」と認識す
る一方、これよりもさらに大きい重力加速度程度の加速
度を検出したときには「(机等から)落ちた」と認識
し、これら認識結果を感情・本能モデル31及び行動決
定機構部32に通知する。
On the other hand, the state recognition mechanism section 30 constantly monitors the acceleration detection signal S2C given from the acceleration sensor 14 (FIG. 2) of the internal sensor section 15, and monitors the acceleration signal S2C.
For example, when an acceleration equal to or higher than a predetermined level detected in advance is detected, it is recognized that “a large impact has been received”. And notifies the recognition result to the emotion / instinct model 31 and the action determination mechanism unit 32.

【0036】また状態認識機構部30は、温度センサ1
3(図2)から与えられる温度検出信号S2Bを常時監
視し、当該温度検出信号S2Bに基づいて所定以上の温
度を検出したときには「内部温度が上昇した」と認識
し、認識結果を感情・本能モデル部31及び行動決定機
構部32に通知する。
The state recognition mechanism 30 is provided with a temperature sensor 1
3 (FIG. 2) is constantly monitored, and when a temperature equal to or higher than a predetermined value is detected based on the temperature detection signal S2B, it is recognized that "the internal temperature has risen" and the recognition result is expressed as emotion / instinct. Notify the model unit 31 and the action determination mechanism unit 32.

【0037】(2−2)感情・本能モデル部31の処理 感情・本能モデル部31は、図5に示すように、「喜
び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び
「怒り」の6つの情動にそれぞれ対応させて設けられた
感情モデルとしての情動ユニット40A〜40Fからな
る基本情動群40と、「食欲」、「愛情欲」、「探索
欲」及び「運動欲」の4つの欲求にそれぞれ対応させて
設けられた欲求モデルとしての欲求ユニット41A〜4
1Dからなる基本欲求群41と、各情動ユニット40A
〜40F及び各欲求ユニット41A〜41Dにそれぞれ
対応して設けられた強度増減関数42A〜42Hとを有
している。
(2-2) Processing of the Emotion / Instinct Model Unit 31 As shown in FIG. 5, the emotion / instinct model unit 31 processes “joy”, “sadness”, “surprise”, “fear”, and “disgust”. And a basic emotion group 40 composed of emotion units 40A to 40F as emotion models provided corresponding to the six emotions of “anger” and “anger”, “appetite”, “love affection”, “search desire”, and “exercise desire”. Unit 41A-4 as a desire model provided corresponding to each of the four needs
1D basic desire group 41 and each emotion unit 40A
To 40F and the intensity increasing / decreasing functions 42A to 42H provided corresponding to the desire units 41A to 41D, respectively.

【0038】そして各情動ユニット40A〜40Fは、
対応する情動の度合いを例えば0〜100レベルまでの
強度によってそれぞれ表し、当該強度を対応する強度増
減関数42A〜42Fから与えられる強度情報S11A
〜S11Fに基づいて時々刻々と変化させる。
Each of the emotion units 40A to 40F
The degree of the corresponding emotion is represented by, for example, an intensity from 0 to 100 level, and the intensity is represented by intensity information S11A given from the corresponding intensity increase / decrease functions 42A to 42F.
11S11F to change every moment.

【0039】また各欲求ユニット41A〜41Dは、情
動ユニット40A〜40Fと同様に、対応する欲求の度
合いを0〜100レベルまでの強度によってそれぞれ表
し、当該強度を対応する強度増減関数42G〜42Kか
ら与えられる強度情報S12G〜S12Fに基づいて時
々刻々と変化させる。
Similarly to the emotion units 40A to 40F, each of the desire units 41A to 41D expresses the corresponding degree of desire by an intensity from 0 to 100 level, and expresses the intensity from the corresponding intensity increase / decrease functions 42G to 42K. It changes every moment based on the given intensity information S12G to S12F.

【0040】そして感情・本能モデル31は、これら情
動ユニット40A〜40Fの強度を組み合わせることよ
り感情の状態を決定すると共に、これら欲求ユニット4
1A〜41Dの強度を組み合わせることにより本能の状
態を決定し、当該決定した感情及び本能の状態を感情・
本能状態情報S12として行動決定機構部32に出力す
る。
The emotion / instinct model 31 determines the state of emotion by combining the intensity of the emotion units 40A to 40F,
The state of the instinct is determined by combining the intensities of 1A to 41D, and the determined emotion and the state of the instinct are expressed as emotion /
The information is output to the action determining mechanism 32 as the instinct state information S12.

【0041】なお強度増減関数42A〜42Gは、状態
認識機構部30から与えられる状態認識情報S10と、
後述の行動決定機構部32から与えられるペットロボッ
ト1自身の現在又は過去の行動の内容を表す行動情報S
13とに基づき、予め設定されているパラメータに応じ
て上述のように各情動ユニット40A〜40F及び各欲
求ユニット41A〜41Dの強度を増減させるための強
度情報S11A〜S11Gを生成して出力するような関
数である。
The intensity increasing / decreasing functions 42A to 42G include state recognition information S10 given from the state recognition mechanism 30 and
Behavior information S representing the current or past behavior of the pet robot 1 itself given from the behavior determining mechanism 32 described later.
13, the intensity information S11A to S11G for increasing or decreasing the intensity of each of the emotion units 40A to 40F and each of the desire units 41A to 41D is generated and output according to the preset parameters as described above. Function.

【0042】かくしてペットロボット1においては、こ
れら強度増減関数42A〜42Gのパラメータを各行動
及び動作モデル(Baby 1、Child 1、Ch
ild 2、Young 1〜Young 3、Adu
lt 1〜Adult 4)ごとに異なる値に設定する
ことによって、ペットロボット1に「いらいら」や「お
となしい」のような性格をもたせることができるように
なされている。
Thus, in the pet robot 1, the parameters of the intensity increasing / decreasing functions 42A to 42G are set to the respective behavior and motion models (Baby 1, Child 1, Ch 1).
ild 2, Young 1 to Young 3, Adu
By setting different values for each of lt 1 to Adult 4), the pet robot 1 can be given a character such as “irritable” or “calm”.

【0043】(2−3)行動決定機構部32の処理 行動決定機構部32は、各行動及び動作モデル(Bab
y 1、Child1、Child 2、Young
1〜Young 3、Adult 1〜Adult
4)にそれぞれ対応させて、複数の行動モデルをメモリ
10A内に有している。
(2-3) Processing of the Action Decision Mechanism 32 The action decision mechanism 32 executes the actions and the motion models (Bab
y1, Child1, Child2, Young
1-Young 3, Adult 1-Adult
A plurality of behavior models are provided in the memory 10A in correspondence with 4).

【0044】そして行動決定機構部32は、状態認識機
構部30から与えられる状態認識情報10と、感情・本
能モデル部31の各情動ユニット40A〜40F及び各
欲求ユニット41A〜41Dの強度と、対応する行動モ
デルとに基づいて次の行動や動作を決定し、決定結果を
行動決定情報S14として姿勢遷移機構部33に出力す
る。
The action determining mechanism 32 responds to the state recognition information 10 given from the state recognizing mechanism 30 and the intensity of each of the emotion units 40A to 40F and each of the desire units 41A to 41D of the emotion / instinct model unit 31. The next action or action is determined based on the action model to be performed, and the determination result is output to the attitude transition mechanism unit 33 as action determination information S14.

【0045】この場合、行動決定機構部32は、次の行
動や動作を決定する手法として、図6に示すような1つ
のノード(状態)NDA0から同じ又は他のどのノード
ND A0〜NDAnに遷移するかを各ノードNDA0
NDAn間を接続するアークARA0〜ARAnに対し
てそれぞれ設定された遷移確率P〜Pに基づいて確
率的に決定する確率オートマトンと呼ばれるアルゴリズ
ムを用いる。
In this case, the action determining mechanism unit 32
One of the methods to determine the motion and motion is as shown in FIG.
Node (state) NDA0From the same or any other node
ND A0~ NDAnTo each node NDA0~
NDAnArc AR connecting betweenA0~ ARAnAgainst
Transition probability P0~ PnBased on
An algorithm called a stochastic automaton that is determined stochastically
Use a system.

【0046】より具体的には、メモリ10Aには行動モ
デルとして、各ノードNDA0〜NDAnごとの図7に
示すような状態遷移表50が格納されており、行動決定
機構部32がこれに状態遷移表50に基づいて次の行動
や動作を決定するようになされている。
More specifically, a state transition table 50 as shown in FIG. 7 for each of the nodes ND A0 to ND An is stored as an action model in the memory 10A, and the action determination mechanism 32 The next action or action is determined based on the state transition table 50.

【0047】ここで状態遷移表50においては、そのノ
ードNDA0〜NDAnにおいて遷移条件とする入力イ
ベント(認識結果)が「入力イベント」の行に優先順に
列記され、その遷移条件についてのさらなる条件が「デ
ータ名」及び「データ範囲」の行における対応する列に
記述されている。
In the state transition table 50, input events (recognition results) as transition conditions at the nodes ND A0 to ND An are listed in the “input event” row in priority order, and further conditions for the transition conditions are further described. Are described in the corresponding columns in the rows of “data name” and “data range”.

【0048】従って図7の状態遷移表50で定義された
ノードND100では、「ボールを検出した(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000の範囲(0,1000)」で
あることや、「障害物を検出(OBSTACLE)」と
いう認識結果が与えられた場合に、当該認識結果と共に
与えられるその障害物までの「距離(DISTANC
E)」が「0か100の範囲(0,100)」であるこ
とが他のノードに遷移するための条件となっている。
Therefore, at the node ND 100 defined in the state transition table 50 of FIG.
L) "is given, the" size (SIZ) "of the ball given together with the recognition result is given.
E) is in the range of 0 to 1000 (0,1000), or when a recognition result of “obstacle detected (OBSTABLE)” is given, the obstacle is given together with the recognition result. "Distance (DISTANC
"E)" is "a range of 0 or 100 (0, 100)", which is a condition for transition to another node.

【0049】またこのノードND100では、認識結果
の入力がない場合においても、行動決定機構部32が周
期的に参照する感情・本能モデル部31の各情動ユニッ
ト40A〜40F及び各欲求ユニット41A〜41Dの
強度のうち、「喜び(JOY)」、「驚き(SUPRI
SE)」又は「悲しみ(SUDNESS)」のいずれか
の情動ユニット40A〜40Fの強度が「50から10
0の範囲(50,100)」であるときには他のノード
に遷移することができる。
In the node ND 100 , even when there is no input of the recognition result, each of the emotion units 40A to 40F and each of the desire units 41A to 41F of the emotion / instinct model unit 31 periodically referred to by the action determination mechanism unit 32. Among the 41D strengths, "JOY" and "Surprise (SUPRI)
SE) or the sadness (SUDNESS) of the emotion unit 40A to 40F is “50 to 10”.
When it is within the range of "0 (50, 100)", it is possible to transit to another node.

【0050】また状態遷移表50では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNDA0〜NDAnから遷移できるノード名が列
記されると共に、「入力イベント名」、「データ値」及
び「データの範囲」の各行に記述された全ての条件が揃
ったときに遷移できる他の各ノードNDA0〜ND
への遷移確率が「他のノードへの遷移確率」の欄におけ
る「出力行動」の行に記述される。なお「他のノードへ
の遷移確率」の欄における各行の遷移確率の和は100
〔%〕となっている。
In the state transition table 50, in the column of "transition destination node" in the column of "transition probability to another node", the names of nodes that can transition from the nodes ND A0 to ND An are listed, and event name "," every other node that can transition when all of the conditions described in each line of data values, "and" data range "are aligned ND A0 to ND a n
Is described in the row of “output action” in the column of “transition probability to another node”. Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0051】従ってこの例のノードNODE100
は、例えば「ボールを検出(BALL)」し、そのボー
ルの「大きさ(SIZE)」が「0から1000の範囲
(0,1000)」であるという認識結果が与えられた
場合には、「30〔%〕」の確率で「ノードNODE
120(node 120)」に遷移でき、そのとき
「ACTION 1」の行動や動作が出力されることと
なる。
Therefore, in the node NODE 100 of this example, for example, “ball is detected (BALL)”, and the recognition is made that the “size” of the ball is in the range (0, 1000) of 0 to 1000. If the result is given, the “node NODE” has a probability of “30 [%]”.
120 (node 120) ", and the action or action of" ACTION 1 "is output at that time.

【0052】そして各行動モデルは、それぞれこのよう
な状態遷移表50として記述されたノードNDA0〜N
Anがいくつも繋がるようにして構成されている。
Each of the behavior models includes the nodes ND A0 to ND A described in the state transition table 50, respectively.
The configuration is such that a number of D An are connected.

【0053】かくして行動決定機構部32は、状態認識
機構部30から状態認識情報S10が与えられたとき
や、最後に行動を発現してから一定時間が経過したとき
などに、メモリ10Aに格納されている対応する行動モ
デルのうちの対応するノードNDAn〜NDAnの状態
遷移表50を利用して次の行動や動作(「出力行動」の
行に記述された行動や動作)を確率的に決定し、決定結
果を行動指令情報S14として姿勢遷移機構部33に出
力するようになされている。
Thus, the action determination mechanism 32 is stored in the memory 10A when the state recognition information S10 is given from the state recognition mechanism 30 or when a certain period of time has elapsed since the last appearance of the action. and utilizing the corresponding node ND an to ND state transition table 50 of an of the corresponding behavior model next action or operation ( "output behavior" behavioral and behavioral description in a row of) stochastically The determination is made, and the determination result is output to the posture transition mechanism unit 33 as the action command information S14.

【0054】(2−4)姿勢遷移機構部33の処理 姿勢遷移機構部33は、行動決定機構部32から行動決
定情報S14が与えられると、当該行動決定情報S14
に基づく行動や動作を行うためのペットロボット1の一
連の動作計画を立て、当該動作計画に基づく動作指令情
報S15をデバイス制御機構部34に出力する。
(2-4) Processing of Posture Transition Mechanism 33 When the behavior decision information S14 is given from the behavior decision mechanism 32, the posture transition mechanism 33 receives the behavior decision information S14.
A series of operation plans of the pet robot 1 for performing an action or an operation based on the operation plan are made, and operation command information S15 based on the operation plan is output to the device control mechanism unit 34.

【0055】この場合姿勢遷移機構部33は、動作計画
を立てる手法として、図8に示すようなペットロボット
1がとり得る姿勢をそれぞれノードNDB0〜NDB2
とし、遷移可能なノードNDB0〜NDB2間を動作を
表す有向アークARB0〜ARB2で結び、かつ1つの
ノードNDB0〜NDB2間で完結する動作を自己動作
アークARC2〜ARC2として表現する有向グラフを
用いる。
In this case, the posture transition mechanism unit 33 uses the nodes ND B0 to ND B2 to determine the postures that the pet robot 1 can take as shown in FIG.
And then, connected by directed arcs AR B0 to Ar B2 representing the operation between possible transition nodes ND B0 to ND B2, and one node ND B0 self operating arc operation to complete between ~ND B2 AR C2 ~AR C2 Is used.

【0056】(2−5)デバイス制御機構部34の処理 デバイス制御機構部34は、姿勢遷移機構部33から与
えられる動作指令情報S15に基づいて制御信号S16
を生成し、当該制御信号S16に基づいて各アクチュエ
ータ21〜21を駆動制御することにより、ペット
ロボット1に指定された行動や動作を行わせる。
(2-5) Processing of the Device Control Mechanism 34 The device control mechanism 34 controls the control signal S16 based on the operation command information S15 given from the attitude transition mechanism 33.
Is generated and the actuators 21 1 to 21 n are driven and controlled based on the control signal S16, thereby causing the pet robot 1 to perform a specified action or operation.

【0057】(2−6)覚醒度及びインタラクション度 ここでこのペットロボット1では、当該ペットロボット
1の生活パターンを飼い主であるユーザの生活パターン
に適合させるため、当該ペットロボット1が目覚めてい
る度合いを示す覚醒度と呼ばれるパラメータと、当該ユ
ーザからの働きかけの頻度を示すインタラクション度と
呼ばれるパラメータとが導入されている。
(2-6) Awakening degree and interaction degree In this pet robot 1, in order to adapt the life pattern of the pet robot 1 to the life pattern of the user who is the owner, the degree of awakening of the pet robot 1 And a parameter called a degree of interaction, which indicates the frequency of the action from the user.

【0058】覚醒度パラメータは、所定の時間内(例え
ば1日の24時間)において、ロボットの行動や感情又
は実行される行動の傾向に一定のリズム(周期)を与え
るパラメータである。例えば、朝方の覚醒度の低い時間
帯では元気のない行動が実行され、夕方の覚醒度の高い
時間帯では活発な行動が実行される傾向を生じさせる。
このリズムは人間や動物においてはバイオリズムに相当
する。
The arousal level parameter is a parameter that gives a certain rhythm (cycle) to the behavior or emotion of the robot or the tendency of the executed action within a predetermined time (for example, 24 hours a day). For example, in a morning time zone with a low degree of awakening, a cheerful action is performed, and in a time zone with a high level of awakening in the evening, there is a tendency that a vigorous action is executed.
This rhythm corresponds to biorhythm in humans and animals.

【0059】ここでは、覚醒度パラメータと呼ぶが、同
様な機能を生ずるパラメータであれば、バイオリズムパ
ラメータ等、他の名称であっても構わない。本実施の形
態では、ロボットの起動時に覚醒度パラメータ値を増加
等させたが、覚醒度パラメータの時間的増減周期を予め
設定し、固定しておいても良い。
Here, the arousal level parameter is called, but any other name such as a biorhythm parameter may be used as long as it has a similar function. In the present embodiment, the awakening degree parameter value is increased when the robot is started, but the time increase / decrease cycle of the awakening degree parameter may be set in advance and fixed.

【0060】ところでこの覚醒度は、1日24時間をタ
イムスロットと呼ばれる所定の時間幅例えば30分単位
で分割することにより当該24時間を48個のタイムス
ロットに分割し、当該タイムスロット毎に覚醒度を0〜
100までのレベルで表した覚醒パラメータテーブルと
してコントローラ10のメモリ10Aに格納されてい
る。この覚醒パラメータテーブルは、図9(A)に示す
ように、初期値として、各タイムスロット全てにおいて
同一の覚醒度が選定されている。
By the way, this awakening degree is divided into 48 time slots by dividing 24 hours a day into a predetermined time width called a time slot, for example, in units of 30 minutes. Degree 0
It is stored in the memory 10A of the controller 10 as an awakening parameter table represented by levels up to 100. In the awakening parameter table, as shown in FIG. 9A, the same awakening degree is selected as an initial value in each time slot.

【0061】この状態において、ユーザがペットロボッ
ト1の電源を入れて起動させると、コントローラ10
は、図9(B)に示すように、当該ペットロボット1を
起動させている時刻に対応するタイムスロット及び当該
タイムスロットの前後に位置するタイムスロットの覚醒
度をそれぞれ所定レベル増加させると共に、覚醒度の増
加分の合計を他のタイムスロットの覚醒度から減少さ
せ、覚醒パラメータテーブルを更新する。
In this state, when the user turns on and starts the pet robot 1, the controller 10
As shown in FIG. 9B, the awakening degree of the time slot corresponding to the time when the pet robot 1 is activated and the awakening degrees of the time slots located before and after the time slot are respectively increased by a predetermined level. The sum of the increments is reduced from the wakefulness of other time slots, and the wakeup parameter table is updated.

【0062】このようにしてコントローラ10は、ユー
ザがペットロボット1を起動して繰り返し使用すること
により、各タイムスロットにおける覚醒度の合計を一定
に保持しながら、ユーザの生活パターンに適合した覚醒
パラメータテーブルを生成していく。
In this way, the controller 10 activates the pet robot 1 and repeatedly uses the pet robot 1 to keep the sum of the arousal degrees in each time slot constant, while maintaining the awakening parameter suitable for the user's life pattern. Generate tables.

【0063】すなわちユーザがペットロボット1の電源
を入れて起動すると、コントローラ10は図10に示す
覚醒パラメータテーブル生成処理手順RT1を実行す
る。この図10においてコントローラ10の状態認識機
構部30は、覚醒パラメータテーブル生成処理手順RT
1に入ると、ステップSP1において、内部センサ部1
5から与えられる内部情報信号S2に基づいて、当該ペ
ットロボット1が起動したことを認識し、この認識結果
を状態認識情報S10として感情・本能モデル部31及
び行動決定機構部32に通知する。
That is, when the user turns on the power of the pet robot 1 and starts the pet robot 1, the controller 10 executes an awakening parameter table generation processing procedure RT1 shown in FIG. In FIG. 10, the state recognition mechanism unit 30 of the controller 10 includes a wakeup parameter table generation processing procedure RT.
In step SP1, the internal sensor unit 1
Based on the internal information signal S2 given from the step 5, the control unit recognizes that the pet robot 1 has been started, and notifies the emotion / instinct model unit 31 and the action determination mechanism unit 32 of the recognition result as state recognition information S10.

【0064】感情・本能モデル部31は、この状態認識
情報S10が供給されると、メモリ10Aから覚醒パラ
メータテーブルを読み出し、続くステップSP2に移っ
て、現在時刻Tcが、当該ペットロボット1の起動状態
を検知するための検知時間Tuの倍数か否かを判断し、
肯定結果が得られるまで当該処理ステップSP2を繰り
返す。ここで検知時間Tuは、タイムスロットの時間幅
よりも十分に小さい時間幅になるように選定されてい
る。
When supplied with the state recognition information S10, the emotion / instinct model unit 31 reads the awakening parameter table from the memory 10A, and proceeds to the subsequent step SP2, where the current time Tc is set to the activation state of the pet robot 1 concerned. Judge whether it is a multiple of the detection time Tu for detecting
The processing step SP2 is repeated until a positive result is obtained. Here, the detection time Tu is selected so that the time width is sufficiently smaller than the time width of the time slot.

【0065】ステップSP2において肯定結果が得られ
ると、このことはペットロボット1の起動状態を検知す
るための検知時間Tuを経過したことを表しており、こ
のとき感情・本能モデル部31は、ステップSP3に移
って、現在時刻Tcが属するi番目のタイムスロットの
覚醒度awk〔i〕にaレベル(例えば2レベル)を加
算すると共に、当該i番目のタイムスロットの前後の時
刻に存在するタイムスロットの覚醒度awk〔i−1〕
及びawk〔i+1〕にbレベル(例えば1レベル)を
加算する。
If a positive result is obtained in step SP2, this means that the detection time Tu for detecting the activation state of the pet robot 1 has elapsed. At this time, the emotion / instinct model unit 31 Moving to SP3, the a level (for example, 2 levels) is added to the awakening degree awk [i] of the i-th time slot to which the current time Tc belongs, and the time slots existing before and after the i-th time slot are added. Awk [i-1]
And awk [i + 1] are added to the b level (for example, 1 level).

【0066】但し、加算結果が100レベルを超える場
合には覚醒度awkとして100レベルを強制的に設定
する。このようにして感情・本能モデル部31は、ペッ
トロボット1を起動させている時刻付近のタイムスロッ
トの覚醒度を所定レベル増加させることにより、一つの
タイムスロットの覚醒度awk〔i〕が突出して上昇す
ることを防止している。
However, when the addition result exceeds 100 levels, 100 levels are forcibly set as the arousal degree awk. In this manner, the emotion / instinct model unit 31 increases the alertness of the time slot near the time when the pet robot 1 is activated by a predetermined level, so that the alertness awk [i] of one time slot is prominent. It prevents it from rising.

【0067】そして感情・本能モデル部31は、ステッ
プSP4において、覚醒度awkの増加分の合計(a+
2b)を算出し、これをΔawkとした後、続くステッ
プSP5に移って、1番目のタイムスロットの覚醒度a
wk〔1〕から(i−2)番目のタイムスロットの覚醒
度awk〔i−2〕までの各値と、(i+2)番目のタ
イムスロットの覚醒度awk〔i+2〕から48番目の
タイムスロットの覚醒度awk〔48〕までの各値とか
ら、Δawk/(N−3)をそれぞれ減算する。
Then, in step SP4, the emotion / instinct model unit 31 calculates the total (a +
2b) is calculated and is set to Δawk. Then, the process proceeds to the next step SP5, where the arousal level a of the first time slot is
Each value from wk [1] to the arousal level awk [i-2] of the (i-2) th time slot and the arousal level awk [i + 2] of the (i + 2) th time slot and the 48th time slot Δawk / (N−3) is subtracted from each value up to the arousal level awk [48].

【0068】但し、減算結果が0レベル以下になるよう
な場合には覚醒度awkとして0レベルを強制的に設定
する。このようにして感情・本能モデル部31は、覚醒
度の増加分の合計Δawkを、増加させたタイムスロッ
トを除く他のタイムスロットの覚醒度awkから全体的
に減少させることにより、1日における覚醒度awkの
合計を一定に保ちながら覚醒パラメータテーブルのバラ
ンスを保持する。
However, when the subtraction result is equal to or less than the 0 level, the 0 level is forcibly set as the arousal degree awk. In this way, the emotion / instinct model unit 31 reduces the total amount of increase in the arousal level Δawk from the arousal levels awk of the other time slots except for the increased time slot, thereby increasing the arousal level in one day. Maintain the balance of the arousal parameter table while keeping the sum of the degrees awk constant.

【0069】そして感情・本能モデル部31は、ステッ
プSP6において、この覚醒パラメータテーブルにおけ
る各タイムスロットの覚醒度awkを行動決定機構部3
2に通知することにより、当該覚醒パラメータテーブル
における各覚醒度awkの値をペットロボット1の行動
に反映させる。
In step SP6, the emotion / instinct model unit 31 determines the awakening degree awk of each time slot in the awakening parameter table,
By notifying the pet robot 1, the value of each arousal level awk in the arousal parameter table is reflected on the behavior of the pet robot 1.

【0070】すなわち感情・本能モデル部31は、覚醒
度awkが高い場合には、当該ペットロボット1を激し
く運動させても「運動欲」の欲求ユニット41Dの欲求
の度合いを大きく減少させないようにするのに対して、
覚醒度awkが低い場合には、わずかに運動しただけで
直ぐに「運動欲」の欲求ユニット41Dの欲求の度合い
を減少させることにより、当該「運動欲」の欲求ユニッ
ト41Dの欲求の度合いを介して、覚醒度awkに応じ
て間接的に行動の活発さを変化させる。
That is, when the arousal level awk is high, the emotion / instinct model unit 31 does not significantly reduce the degree of desire of the desire unit 41D of “movement desire” even if the pet robot 1 is vigorously exercised. Whereas
When the arousal degree awk is low, the degree of desire of the desire unit 41D of “exercise desire” is immediately reduced by slightly exercising, so that the degree of desire of the desire unit 41D of “exercise desire” is increased. , The activity indirectly changes according to the arousal level awk.

【0071】また行動決定機構部32は、状態遷移表5
0でのノード選択において、覚醒度awkが高い場合に
は活発なノードに遷移するための遷移確率を高くするの
に対して、覚醒度awkが低い場合には活発なノードに
遷移するための遷移確率を低くすることにより、覚醒度
awkに応じて直接的に行動の活発さを変化させる。
The action determining mechanism unit 32 determines the state transition table 5
In the node selection at 0, the transition probability for transitioning to an active node is increased when the arousal level awk is high, whereas the transition for transition to an active node is performed when the arousal level awk is low. By lowering the probability, the activity is directly changed according to the arousal level awk.

【0072】これにより行動決定機構部32は、覚醒度
awkが低い場合には、状態遷移表50において「あく
び」、「寝ころがる」、「のびをする」などの眠い状態
を表現するようなノードを高い確率で選択することによ
り、ユーザに対してペットロボット1が眠いことを直接
表現する。また、行動決定機構部32は感情本能モデル
部31から通知された覚醒度awkが所定の閾値以下で
ある時はペットロボット1をシャットダウンさせる。
When the arousal level awk is low, the behavior determining mechanism 32 determines in the state transition table 50 that a node expressing a sleepy state such as “yawn”, “to lie down”, or “spread”. Is selected with a high probability, thereby directly expressing to the user that the pet robot 1 is sleepy. The behavior determining mechanism 32 shuts down the pet robot 1 when the alertness awk notified from the emotion instinct model 31 is equal to or smaller than a predetermined threshold.

【0073】そして感情・本能モデル部31は、続くス
テップSP7に移って、ペットロボット1がシャットダ
ウンしたか否かを判断し、肯定結果が得られるまで上述
のステップSP2〜SP6を順次繰り返す。
Then, the emotion / instinct model unit 31 proceeds to the subsequent step SP7, determines whether or not the pet robot 1 has shut down, and repeats the above-described steps SP2 to SP6 sequentially until a positive result is obtained.

【0074】ステップSP6において肯定結果が得られ
ると、このことは覚醒度awkが図9(A)及び(B)
に示す所定の閾値(ここでは覚醒度awkの初期値に比
して数レベル低い値が選定されている)より小さくなっ
たこと、又はユーザによって電源が切断されたことを表
しており、このとき感情・本能モデル部31は、続くス
テップSP8に移って、各覚醒度awk〔1〕〜awk
〔48〕の値をメモリ10Aに書き込んで覚醒パラメー
タテーブルを更新した後、ステップSP9において当該
処理手順RT1を終了する。
If an affirmative result is obtained in step SP6, this means that the arousal level awk is lower than that shown in FIGS. 9A and 9B.
(In this case, a value several levels lower than the initial value of the arousal level awk is selected), or the power is turned off by the user. The emotion / instinct model unit 31 proceeds to the next step SP8, where the arousal degrees awk [1] to awk
After updating the awakening parameter table by writing the value of [48] in the memory 10A, the process procedure RT1 is ended in step SP9.

【0075】その際、コントローラ10は、このメモリ
10Aに格納された覚醒パラメータテーブルを参照する
ことにより、次に覚醒度awkが閾値より大きくなるタ
イムスロットに対応する時刻を検出し、当該時刻にペッ
トロボット1が再起動するように各種設定を行うように
なされている。
At this time, the controller 10 refers to the awakening parameter table stored in the memory 10A to detect the time corresponding to the next time slot in which the awakening degree awk becomes larger than the threshold, and at that time the pet 10 Various settings are made so that the robot 1 restarts.

【0076】このようにペットロボット1は、覚醒度が
所定の閾値より大きい場合には起動するのに対して、覚
醒度が所定の閾値より小さい場合にはシャットダウンす
ることにより、覚醒度awkに応じて自然に起きたり寝
たりすることでき、当該ペットロボット1の生活パター
ンをユーザの生活パターンに適合させることができる。
As described above, the pet robot 1 is activated when the arousal level is larger than the predetermined threshold, whereas the pet robot 1 is shut down when the arousal level is smaller than the predetermined threshold. The user can wake up and sleep naturally, and the life pattern of the pet robot 1 can be adapted to the life pattern of the user.

【0077】さらにこのペットロボット1では、ユーザ
からの働きかけの頻度を示すインタラクション度と呼ば
れるパラメータが導入されており、このインタラクショ
ン度の算出方法として時間移動平均による方法が使用さ
れている。
Further, in the pet robot 1, a parameter called an interaction degree indicating the frequency of a user's action is introduced, and a method based on a time moving average is used as a method of calculating the interaction degree.

【0078】この時間移動平均による方法では、まず始
めにペットロボット1に対する入力のうちユーザからの
働きかけによる入力を選定し、当該働きかけの種類に応
じたポイントを予め決めてこれらをメモリ10Aに格納
しておく。すなわち、ユーザからの働きかけを働きかけ
ごとに数値化し、メモリ10Aに格納する。この場合、
ペットロボット1では、「名前を呼ぶ」に15ポイン
ト、「頭をなでる」に10ポイント、「頭などのスイッ
チに触る」に5ポイント、「たたく」に2ポイント、
「抱き上げる」に2ポイントが設定されメモリ10Aに
格納されている。
In the method based on the time-moving average, first, among the inputs to the pet robot 1, an input by a user's action is selected, points corresponding to the type of the action are determined in advance, and these points are stored in the memory 10 A. Keep it. That is, the action from the user is digitized for each action and stored in the memory 10A. in this case,
For pet robot 1, 15 points for "call name", 10 points for "stroking head", 5 points for "touching switches such as head", 2 points for "slap",
Two points are set for “Hold” and stored in the memory 10A.

【0079】コントローラ10の感情・本能モデル部3
1は、状態認識機構部30から供給される状態認識情報
S10に基づいてユーザからの働きかけによる入力があ
ったか否かを判断し、ユーザからの働きかけによる入力
があったと判断した場合には、当該働きかけに応じたポ
イント数と時刻を記憶しておく。具体的には感情・本能
モデル部31は、ユーザからの働きかけによる入力に応
じて、時刻13:05:30に5ポイント、時刻13:
05:10に2ポイント、時刻13:08:30に10
ポイントと順次記憶し、一定時間(例えば15分)以上
経過したデータを順次削除していく。
The emotion / instinct model section 3 of the controller 10
1 determines whether or not there is an input by a user's action based on the state recognition information S10 supplied from the state recognition mechanism unit 30, and when it is determined that there is an input by a user's action, The number of points and the time according to are stored. Specifically, the emotion / instinct model unit 31 responds to the input from the user by the action, and at time 13:05:30, 5 points, and at time 13:
2 points at 05:10, 10 at 13:08:30
The points are sequentially stored, and data that has passed for a certain period of time (for example, 15 minutes) is sequentially deleted.

【0080】この場合、感情・本能モデル部31は、図
11に示すように、インタラクション度を算出するため
の時間幅(例えば10分)を予め決めておき、現在時刻
と当該現在時刻からこの時間幅だけさかのぼった時刻と
の間に存在するポイント数を合計する。そして感情・本
能モデル部31は、この算出したポイント数を予め選定
された値の範囲に入るように正規化し、当該正規化され
たポイント数をインタラクション度とする。
In this case, as shown in FIG. 11, the emotion / instinct model unit 31 previously determines a time width (for example, 10 minutes) for calculating the degree of interaction, and calculates the time width from the current time and the current time. The number of points that exist between the time that has been moved back by the width and the total number of points has been calculated. Then, the emotion / instinct model unit 31 normalizes the calculated number of points so as to fall within a range of a value selected in advance, and sets the normalized number of points as the degree of interaction.

【0081】そして感情・本能モデル部31は、図9
(C)に示すように、メモリ11Aに格納されている覚
醒パラメータテーブルのうち、上述のインタラクション
度を算出した時間幅の時刻に対応するタイムスロットの
覚醒度に対して当該インタラクション度を加算し、これ
を行動決定機構部32に通知することにより、インタラ
クション度をペットロボット1の行動に反映させる。
Then, the emotion / instinct model unit 31
As shown in (C), in the awakening parameter table stored in the memory 11A, the interaction degree is added to the awakening degree of the time slot corresponding to the time of the time width in which the above-described interaction degree is calculated, By notifying this to the action determining mechanism unit 32, the degree of interaction is reflected in the action of the pet robot 1.

【0082】これによりペットロボット1は、覚醒度が
所定の閾値より小さい場合であっても、当該覚醒度にイ
ンタラクション度を加算した値が閾値より大きくなれ
ば、起動して起き上がることにより、ユーザとのコミュ
ニケーションが可能となる。
Thus, even if the arousal level is smaller than the predetermined threshold, the pet robot 1 starts up and rises if the value obtained by adding the interaction level to the arousal level becomes larger than the threshold value. Communication becomes possible.

【0083】これに対してペットロボット1は、覚醒度
にインタラクション度を加算した値が閾値より小さくな
った場合には、シャットダウンする。その際、ペットロ
ボット1は、メモリ10Aに格納された覚醒パラメータ
テーブルを参照することにより、覚醒度にインタラクシ
ョン度を加算した値が閾値より大きくなるタイムスロッ
トに対応する時刻を検出し、当該時刻にペットロボット
1が再起動するように各種設定を行うようになされてい
る。
On the other hand, the pet robot 1 shuts down when the value obtained by adding the interaction level to the awakening level becomes smaller than the threshold. At that time, the pet robot 1 refers to the awakening parameter table stored in the memory 10A, detects a time corresponding to a time slot in which a value obtained by adding the degree of interaction to the degree of awakening is larger than a threshold, and detects the time corresponding to the time. Various settings are made so that the pet robot 1 restarts.

【0084】このようにペットロボット1では、覚醒度
とインタラクション度を加算した値が所定の閾値より大
きい場合には起動するのに対して、覚醒度とインタラク
ション度を加算した値が所定の閾値より小さい場合には
シャットダウンすることにより、覚醒度に応じて自然に
起きたり寝たりすることでき、さらに覚醒度が低くても
ユーザが働きかけを行っている間はインタラクション度
が高く起き上がることから、一段と自然に起きたり寝た
りすることができる。
As described above, the pet robot 1 is activated when the value obtained by adding the degree of awakening and the degree of interaction is larger than the predetermined threshold, whereas the value obtained by adding the degree of awakening and the degree of interaction is higher than the predetermined threshold. If the user is small, the user can wake up or sleep naturally according to the degree of arousal by shutting down, and even if the arousal level is low, the degree of interaction is high while the user is working, and the user can get up more naturally. You can get up and sleep.

【0085】また行動決定機構部32は、状態遷移表5
0でのノード選択において、インタラクション度が高い
場合には活発なノードに遷移するための遷移確率を高く
するのに対して、インタラクション度が低い場合には不
活発なノードに遷移するための遷移確率を高くすること
により、インタラクション度に応じて行動の活発さを変
化させる。
The action determining mechanism unit 32 determines whether the state transition table 5
In the node selection at 0, the transition probability for transition to an active node is increased when the degree of interaction is high, while the transition probability for transition to an inactive node is low when the degree of interaction is low. , The activity is changed according to the degree of interaction.

【0086】これにより行動決定機構部32は、状態遷
移表50でのノード選択において、インタラクション度
が高い場合には、例えばダンス、歌、派手な芸などのよ
うに、特にユーザに見て欲しい行動を高い確率で選択す
るのに対して、インタラクション度が低い場合には、例
えば歩き回る、探索する、見つけた物体と遊ぶなどのよ
うに、ユーザが見ていても見ていなくても構わない行動
を高い確率で選択する。
Thus, when the degree of interaction is high in the node selection in the state transition table 50, the action determining mechanism unit 32 determines the action that the user particularly wants to see, such as a dance, a song, or a fancy trick. Is selected with a high probability, but if the degree of interaction is low, actions that the user may or may not be looking at, such as walking around, searching, playing with the found object, etc. Choose with high probability.

【0087】その際、行動決定機構部32は、インタラ
クション度が所定の閾値よりも小さくなった場合には、
例えば所望のアクチュエータ21の電源を切る、当該ア
クチュエータ21のゲインを下げる、寝転がる姿勢をと
るなどして消費エネルギーの低減を図り、また音声認識
の機能を停止してコントローラ10の負荷の軽減を図
る。
At this time, when the degree of interaction becomes smaller than the predetermined threshold value,
For example, the power of the desired actuator 21 is turned off, the gain of the actuator 21 is reduced, the lying posture is taken, etc., to reduce the energy consumption, and the voice recognition function is stopped to reduce the load on the controller 10.

【0088】(3)本実施の形態の動作及び効果 以上の構成において、ペットロボット1のコントローラ
10は、起動及びシャットダウンを順次繰り返すことに
より、1日うちの各時間帯それぞれにおいて当該ペット
ロボット1の目覚めの度合いを示す覚醒度を表した覚醒
パラメータテーブルを生成しこれをメモリ10Aに格納
する。
(3) Operation and Effect of the Present Embodiment In the above configuration, the controller 10 of the pet robot 1 repeatedly starts and shuts down the pet robot 1 in each time zone of the day. A wake-up parameter table indicating the wake-up degree indicating the wake-up degree is generated and stored in the memory 10A.

【0089】そしてコントローラ10は、この覚醒パラ
メータテーブルを参照し、覚醒度が所定の閾値より小さ
い場合にはシャットダウンし、その際、次に覚醒度が高
くなる時間を次の起動のためにタイマーにセットするこ
とにより、当該ペットロボット1の生活リズムをユーザ
の生活リズムに適合させることができ、かくしてユーザ
にコミュニケーションをとり易くさせると共に、より一
層の親近感を与えることができる。
Then, the controller 10 refers to this awakening parameter table and shuts down if the arousal level is smaller than the predetermined threshold value. At this time, the controller 10 sets the next time when the arousal level increases to a timer for the next activation. By setting, the life rhythm of the pet robot 1 can be adapted to the life rhythm of the user, thus making it easier for the user to communicate and giving a more intimate feeling.

【0090】またコントローラ10は、ユーザからの働
きかけがあると、当該働きかけの頻度を示すインタラク
ション度を算出し、覚醒パラメータテーブルにおける各
覚醒度に当該インタラクション度を加算する。従ってコ
ントローラ10は、覚醒度が所定の閾値よりも低い場合
であっても、覚醒度とインタラクション度の合計が閾値
よりも大きい場合には、起動して起き上がることによ
り、ユーザとのコミュニケーションが可能にしてより一
層の親近感をユーザに与えることができる。
Further, when there is an action from the user, the controller 10 calculates the degree of interaction indicating the frequency of the action and adds the degree of interaction to each arousal degree in the arousal parameter table. Therefore, even when the arousal level is lower than the predetermined threshold, the controller 10 activates and wakes up when the sum of the arousal level and the interaction level is larger than the threshold value, thereby enabling communication with the user. Thus, the user can be provided with an even closer affinity.

【0091】以上の構成によれば、ユーザによるペット
ロボット1の使用履歴に応じて当該ペットロボット1を
起動又はシャットダウンさせることにより、当該ペット
ロボット1の生活リズムをユーザの生活リズムに適合さ
せることができ、かくしてユーザにより一層の親近感を
与えてエンタテインメント性を向上し得る。
According to the above configuration, by starting or shutting down the pet robot 1 according to the usage history of the pet robot 1 by the user, the life rhythm of the pet robot 1 can be adapted to the life rhythm of the user. Thus, it is possible to provide the user with a more intimate feeling and to improve the entertainment.

【0092】(4)他の実施の形態 なお上述の実施の形態においては、覚醒度の増加分の合
計Δawkを、増加させたタイムスロットを除く他のタ
イムスロットの覚醒度awkから全体的に減少させるよ
うにした場合について述べたが、本発明はこれに限ら
ず、図12に示すように、増加させたタイムスロットに
対して所定の時間幅分だけ経過したタイムスロットの覚
醒度awkを部分的に減少させるようにしても良い。
(4) Other Embodiments In the above-described embodiment, the total Δawk of the increase in the degree of arousal is reduced as a whole from the degree of arousal awk of the other time slots excluding the increased time slot. However, the present invention is not limited to this, and as shown in FIG. 12, the awakening degree awk of a time slot that has passed by a predetermined time width with respect to the increased time slot is partially changed. May be reduced.

【0093】また上述の実施の形態においては、起動及
びシャットダウンする際の基準となる閾値を覚醒度aw
kの初期値に比して数レベル低い値を選定した場合につ
いて述べたが、本発明はこれに限らず、例えば図12に
示すように、覚醒度awkの初期値に比して高い値のよ
うに種々の値を選定するようにしても良い。
Further, in the above-described embodiment, the threshold value used as a reference for starting and shutting down is set to the awakening level aw
The case where a value several levels lower than the initial value of k is selected has been described. However, the present invention is not limited to this. For example, as shown in FIG. Various values may be selected as described above.

【0094】また上述の実施の形態においては、ユーザ
によるペットロボット1の使用履歴に応じて変化する覚
醒パラメータテーブルに基づいて当該ペットロボット1
を起動又はシャットダウンさせる場合について述べた
が、本発明はこれに限らず、当該ペットロボット1の年
代や性格によって予め用意された固定の覚醒パラメータ
テーブルを用いるようにしても良い。
In the above-described embodiment, the pet robot 1 based on the awakening parameter table that changes according to the usage history of the pet robot 1 by the user.
Has been described, but the present invention is not limited to this, and a fixed awakening parameter table prepared in advance according to the age and character of the pet robot 1 may be used.

【0095】また上述の実施の形態においては、インタ
ラクション度の算出方法として時間移動平均による方法
を適用する場合について述べたが、本発明はこれに限ら
ず、例えば重みつき時間移動平均による方法、時間減衰
による方法などのように他の種々の方法を適用するよう
にしても良い。
Further, in the above-described embodiment, the case where the method based on the time moving average is applied as the method for calculating the degree of interaction has been described. However, the present invention is not limited to this. Various other methods, such as a method using attenuation, may be applied.

【0096】すなわち重みつき時間移動平均による方法
では、現在時刻を基準として新しい入力ほど大きく、古
い入力ほど小さく重み係数を選定しておく。この重み係
数は、現在時刻を基準として、例えば0〜2分前の入力
に対しては10、2〜5分前の入力に対しては5、5〜
10分前の入力に対しては1の値が選定されている。
That is, in the method based on the weighted time moving average, the weight coefficient is selected larger for newer inputs and smaller for older inputs based on the current time. The weighting factor is, for example, 10, 10 for an input 0 to 2 minutes ago, and 5, 5, 5 for an input 2 to 5 minutes ago based on the current time.
A value of 1 is selected for the input 10 minutes ago.

【0097】従って感情・本能モデル部31は、現在時
刻と当該現在時刻から所定の時間幅だけさかのぼった時
刻との間に存在する働きかけの各ポイントに対してそれ
ぞれ対応する重み係数を乗算した上で合計することによ
り、インタラクション度を算出する。
Therefore, the emotion / instinct model unit 31 multiplies each point of the action existing between the current time and the time that has been advanced by a predetermined time width from the current time by the corresponding weighting coefficient. The degree of interaction is calculated by summing.

【0098】また時間減衰による方法では、内部インタ
ラクション度と呼ばれる変数を導入してインタラクショ
ン度を算出する。この場合、感情・本能モデル部31
は、ユーザからの働きかけによる入力があった場合に
は、当該働きかけの種類に応じたポイントを内部インタ
ラクション度に加算する。これと共に、感情・本能モデ
ル部31は、例えば1分経過する毎に0.9を1分前の
内部インタラクション度に乗算するなどして、時間の経
過に従って当該内部インタラクション度を減衰させる。
In the method based on time decay, the degree of interaction is calculated by introducing a variable called the degree of internal interaction. In this case, the emotion / instinct model unit 31
Adds a point corresponding to the type of the action to the degree of internal interaction when there is an input by the action from the user. At the same time, the emotion / instinct model unit 31 attenuates the degree of internal interaction over time by, for example, multiplying the degree of internal interaction one minute ago by 0.9 every time one minute elapses.

【0099】そして感情・本能モデル部31は、内部イ
ンタラクション度が所定の閾値より小さくなった場合に
は当該内部インタラクション度を上述のインタラクショ
ン度とするのに対して、この閾値より大きい場合には当
該閾値をインタラクション度とする。
The emotion / instinct model unit 31 sets the internal interaction degree to the above-described interaction degree when the internal interaction degree is smaller than a predetermined threshold value, and sets the internal interaction degree to the above-described interaction degree when the internal interaction degree is larger than the predetermined threshold value. Let the threshold be the degree of interaction.

【0100】また上述の実施の形態においては、使用履
歴として覚醒パラメータテーブル及びインタラクション
度を組み合わせたものを適用した場合について述べた
が、本発明はこれに限らず、時間軸方向に形成されたユ
ーザによる使用の履歴を表す他の種々の使用履歴を適用
するようにしても良い。
Further, in the above-described embodiment, a case has been described in which a combination of the awakening parameter table and the degree of interaction is applied as the use history, but the present invention is not limited to this, and the user formed in the time axis direction is not limited to this. Alternatively, various other usage histories representing the usage histories according to may be applied.

【0101】また上述の実施の形態においては、記憶手
段としてメモリ10Aを適用する場合について述べた
が、本発明はこれに限らず、ユーザによる使用履歴を記
憶する他の種々の記憶手段を適用するようにしても良
い。
In the above embodiment, the case where the memory 10A is applied as the storage means has been described. However, the present invention is not limited to this, and various other storage means for storing the usage history by the user are applied. You may do it.

【0102】また上述の実施の形態においては、動作決
定手段としてコントローラ10を適用する場合について
述べたが、本発明はこれに限らず、使用履歴に応じて次
の動作を決定する他の種々の動作決定手段を適用するよ
うにしても良い。
In the above embodiment, the case where the controller 10 is applied as the operation determining means has been described. However, the present invention is not limited to this, and various other operations for determining the next operation according to the use history are performed. Operation determining means may be applied.

【0103】さらに上述の実施の形態においては、図1
のように構成された4足歩行型のロボットに適用するよ
うにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成のロボットに広く適用することが
できる。
Further, in the above-described embodiment, FIG.
Although the description has been made of the case where the present invention is applied to a quadruped walking robot configured as described above, the present invention is not limited to this, and can be widely applied to robots having various other configurations.

【0104】[0104]

【発明の効果】上述のように本発明によれば、ロボット
装置及びその制御方法において、時間軸方向に形成され
たユーザによる使用履歴を記憶し、当該使用履歴に応じ
て次の動作を決定することにより、当該ロボット装置の
生活リズムをユーザの生活リズムに適合させることがで
き、かくしてユーザにより一層の親近感を与えてエンタ
テインメント性を向上し得るロボット装置及びその制御
方法を実現できる。
As described above, according to the present invention, in the robot apparatus and the control method therefor, the use history of the user formed in the time axis direction is stored, and the next operation is determined according to the use history. Accordingly, it is possible to adapt the life rhythm of the robot device to the life rhythm of the user, thereby realizing a robot device capable of giving the user a more close feeling and improving the entertainment property, and a control method thereof.

【0105】また本発明によれば、ロボット装置及びそ
の制御方法において、所定の時間内におけるロボット装
置の行動の傾向に周期を与える周期パラメータに基づい
て当該ロボット装置の行動を決定し、決定した行動に基
づいてロボット装置の各部位を動作させるようにしたこ
とにより、ロボット装置の生活リズムをユーザの生活リ
ズムに適合させることができ、かくしてユーザにより一
層の親近感を与えてエンタテインメント性を向上し得る
ロボット装置及びその制御方法を実現できる。
Further, according to the present invention, in the robot apparatus and the control method thereof, the behavior of the robot apparatus is determined based on a cycle parameter that gives a cycle to the behavior tendency of the robot apparatus within a predetermined time, and the determined behavior is determined. By operating each part of the robot apparatus based on the above, the life rhythm of the robot apparatus can be adapted to the life rhythm of the user, and thus the user can be provided with a closer feeling and the entertainment property can be improved. A robot device and a control method thereof can be realized.

【0106】さらに本発明によれば、ロボット装置及び
その制御方法において、所定の外部刺激検出手段により
検出した外部刺激を評価して、ユーザからの働きかけか
否かを判別し、ユーザの働きかけごとに外部刺激を所定
のパラメータへ数値化すると共に、当該パラメータに基
づいて行動を決定し、決定した行動に基づいてロボット
装置の各部位を動作させるようにしたことにより、ロボ
ット装置の生活リズムをユーザの生活リズムに適合させ
ることができ、かくしてユーザにより一層の親近感を与
えてエンタテインメント性を向上し得るロボット装置及
びその制御方法を実現できる。
Further, according to the present invention, in the robot apparatus and the control method therefor, the external stimulus detected by the predetermined external stimulus detecting means is evaluated, and it is determined whether or not the user is acting. By quantifying the external stimulus to a predetermined parameter, determining an action based on the parameter, and operating each part of the robot apparatus based on the determined action, the life rhythm of the robot apparatus can be changed by the user. A robot device that can be adapted to a life rhythm and thus can provide a more intimate feeling to the user and improve entertainment properties, and a control method thereof can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したペットロボットの外観構成を
示す斜視図である。
FIG. 1 is a perspective view showing an external configuration of a pet robot to which the present invention is applied.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】成長モデルを示す概念図である。FIG. 3 is a conceptual diagram showing a growth model.

【図4】コントローラの処理の説明に供するブロック図
である。
FIG. 4 is a block diagram for explaining processing of a controller;

【図5】感情・本能モデル部におけるデータ処理の説明
に供する概念図である。
FIG. 5 is a conceptual diagram serving to explain data processing in an emotion / instinct model unit.

【図6】確率オートマトンを示す概念図である。FIG. 6 is a conceptual diagram illustrating a stochastic automaton.

【図7】状態遷移表を示す概念図である。FIG. 7 is a conceptual diagram showing a state transition table.

【図8】有向グラフに説明に供する概念図である。FIG. 8 is a conceptual diagram for explaining a directed graph.

【図9】覚醒パラメータテーブルの説明に供する略線図
である。
FIG. 9 is a schematic diagram for explaining a wakeup parameter table;

【図10】覚醒パラメータテーブル生成処理手順を示す
フローチャートである。
FIG. 10 is a flowchart illustrating an awakening parameter table generation processing procedure;

【図11】インタラクション度の算出の説明に供する略
線図である。
FIG. 11 is a schematic diagram used to explain the calculation of a degree of interaction.

【図12】他の実施の形態による覚醒パラメータテーブ
ルの説明に供する略線図である。
FIG. 12 is a schematic diagram used to explain an awakening parameter table according to another embodiment.

【符号の説明】[Explanation of symbols]

1……ペットロボット、10……コントローラ、10A
……メモリ、15……内部センサ部、19……外部セン
サ部、211 〜21n ……アクチュエータ、30…
…状態認識機構部、31……感情・本能モデル部、32
……行動決定機構部、33……姿勢遷移機構部、34…
…制御機構部、50……状態遷移表。
1 ... pet robot, 10 ... controller, 10A
... Memory, 15... Internal sensor unit, 19... External sensor unit, 211 to 21 n.
... State Recognition Mechanism Unit, 31 ... Emotion / Instinct Model Unit, 32
... Behavior determination mechanism 33, Posture transition mechanism 34
... Control mechanism section, 50 ... State transition table.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DF01 DG02 DJ01 DK02 DK10 EB00 EC02 ED01 ED37 ED39 ED42 ED47 ED49 ED56 EE02 EE07 EF16 EF28 EF29 FA03 3C007 AS36 CS08 MT14 WA04 WA14 WB14 WB17 WB19 WB25  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2C150 CA02 DA05 DF01 DG02 DJ01 DK02 DK10 EB00 EC02 ED01 ED37 ED39 ED42 ED47 ED49 ED56 EE02 EE07 EF16 EF28 EF29 FA03 3C007 AS36 CS08 MT14 WA04 WA14 WB14 WB25

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】時間軸方向に形成されたユーザによる使用
の履歴を表す使用履歴を記憶する記憶手段と、 上記使用履歴に応じて次の動作を決定する動作決定手段
とを具えることを特徴とするロボット装置。
1. A storage means for storing a use history indicating a history of use by a user formed in a time axis direction, and an operation determining means for determining a next operation according to the use history. Robot device.
【請求項2】上記使用履歴は、上記ロボット装置が過去
に起動していた起動の度合いを示す起動レベルを時間軸
方向に変化させることにより生成され、 上記動作決定手段は、 上記起動レベルを予め定められた所定の閾値と比較し、
上記起動レベルが上記閾値より大きい場合には上記ロボ
ット装置を起動させ、上記起動レベルが上記閾値より小
さい場合には上記ロボット装置を停止させることを特徴
とする請求項1に記載のロボット装置。
2. The use history is generated by changing, in the time axis direction, an activation level indicating a degree of activation of the robot apparatus which has been activated in the past, and the operation determining means sets the activation level in advance. Comparing with a predetermined threshold,
The robot device according to claim 1, wherein the robot device is activated when the activation level is higher than the threshold value, and is stopped when the activation level is less than the threshold value.
【請求項3】上記使用履歴は、上記起動レベルに対して
上記ユーザからの働きかけの頻度に応じて決定される働
きかけレベルを加算した加算レベルを時間軸方向に変化
させることにより生成され、 上記動作決定手段は、 上記加算レベルを予め定められた所定の閾値と比較し、
上記加算レベルが上記閾値より大きい場合には上記ロボ
ット装置を起動させ、上記加算レベルが上記閾値より小
さい場合には上記ロボット装置を停止させることを特徴
とする請求項2に記載のロボット装置。
3. The use history is generated by changing, in the time axis direction, an addition level obtained by adding a work level determined according to a frequency of work from the user to the activation level. Determining means for comparing the addition level with a predetermined threshold value,
The robot device according to claim 2, wherein the robot device is activated when the addition level is larger than the threshold value, and is stopped when the addition level is smaller than the threshold value.
【請求項4】時間軸方向に形成されたユーザによる使用
の履歴を表す使用履歴を記憶手段に記憶する第1のステ
ップと、 上記使用履歴に応じて次の動作を決定する第2のステッ
プとを具えることを特徴とするロボット装置の制御方
法。
4. A first step of storing in a storage means a use history representing a history of use by a user formed in a time axis direction, and a second step of determining a next operation according to the use history. A control method of a robot device, comprising:
【請求項5】上記使用履歴は、上記ロボット装置が過去
に起動していた起動の度合いを示す起動レベルを時間軸
方向に変化させることにより生成され、 上記第2のステップでは、 上記起動レベルを予め定められた所定の閾値と比較し、
上記起動レベルが上記閾値より大きい場合には上記ロボ
ット装置を起動させ、上記起動レベルが上記閾値より小
さい場合には上記ロボット装置を停止させることを特徴
とする請求項4に記載のロボット装置の制御方法。
5. The use history is generated by changing, in the time axis direction, an activation level indicating a degree of activation of the robot apparatus that has been activated in the past. In the second step, the activation level is calculated by changing the activation level. By comparing with a predetermined threshold value,
The control of the robot device according to claim 4, wherein the robot device is activated when the activation level is larger than the threshold value, and is stopped when the activation level is smaller than the threshold value. Method.
【請求項6】上記使用履歴は、上記起動レベルに対して
上記ユーザからの働きかけの頻度に応じて決定される働
きかけレベルを加算した加算レベルを時間軸方向に変化
させることにより生成され、 上記第2のステップでは、 上記加算レベルを予め定められた所定の閾値と比較し、
上記加算レベルが上記閾値より大きい場合には上記ロボ
ット装置を起動させ、上記加算レベルが上記閾値より小
さい場合には上記ロボット装置を停止させることを特徴
とする請求項5に記載のロボット装置の制御方法。
6. The use history is generated by changing a sum level obtained by adding a work level determined in accordance with a frequency of work from the user to the activation level in a time axis direction. In step 2, the addition level is compared with a predetermined threshold value,
The control of the robot device according to claim 5, wherein the robot device is started when the addition level is larger than the threshold value, and is stopped when the addition level is smaller than the threshold value. Method.
【請求項7】自律的に行動するロボット装置において、 上記ロボット装置の各部位を動作させる動作制御手段
と、 上記ロボット装置の行動を決定する行動決定機構部と、 上記行動決定機構部が決定する上記行動の傾向に対し
て、所定の時間内における周期を与える周期パラメータ
が記憶された記憶手段とを具え、 上記行動決定機構部は、上記周期パラメータに基づいて
行動を決定し、 上記動作制御手段は、上記決定された行動に基づいて上
記ロボット装置の各部位を動作させることを特徴とする
ロボット装置。
7. A robot apparatus which autonomously behaves, wherein the operation control means for operating each part of the robot apparatus, an action determining mechanism for determining an action of the robot apparatus, and the action determining mechanism are determined. Storage means for storing a cycle parameter for giving a cycle within a predetermined time with respect to the tendency of the action, wherein the action determination mechanism unit determines an action based on the cycle parameter, Is a device for operating each part of the robot device based on the determined behavior.
【請求項8】上記周期パラメータは、覚醒度パラメータ
であることを特徴とする請求項7に記載のロボット装
置。
8. The robot apparatus according to claim 7, wherein the periodic parameter is a wakefulness parameter.
【請求項9】上記覚醒度パラメータの総和は一定である
ことを特徴とする請求項8に記載のロボット装置。
9. The robot apparatus according to claim 8, wherein the sum of the arousal degree parameters is constant.
【請求項10】上記所定の時間はおおよそ24時間であ
ることを特徴とする請求項8に記載のロボット装置。
10. The robot apparatus according to claim 8, wherein the predetermined time is approximately 24 hours.
【請求項11】上記ロボット装置の擬似的感情を規定す
る感情モデルを具え、 上記感情モデルは、上記覚醒度パラメータに基づいて変
化することを特徴とする請求項8に記載のロボット装
置。
11. The robot apparatus according to claim 8, further comprising an emotion model that defines a pseudo-emotion of the robot apparatus, wherein the emotion model changes based on the arousal level parameter.
【請求項12】外部からの刺激を検出する外部刺激検出
手段と、 上記検出した上記外部刺激を評価し、ユーザからの働き
かけか否かを判断し、ユーザからの働きかけごとに上記
外部刺激を所定のパラメータへ数値化する外部刺激判別
手段とを具え、 上記行動決定機構部は、上記所定のパラメータと上記覚
醒度パラメータとに基づいて行動を決定することを特徴
とする請求項12に記載のロボット装置。
12. An external stimulus detecting means for detecting an external stimulus, evaluating the detected external stimulus, determining whether or not the user is acting, and determining the external stimulus for each user's activity. 13. The robot according to claim 12, further comprising: external stimulus determination means for quantifying the parameter to a parameter, wherein the action determining mechanism unit determines an action based on the predetermined parameter and the arousal level parameter. apparatus.
【請求項13】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項12に記載のロボ
ット装置。
13. The robot apparatus according to claim 12, wherein the predetermined parameter is a degree of interaction.
【請求項14】外部からの刺激を検出する外部刺激検出
手段と、 検出した上記外部刺激を評価し、ユーザからの働きかけ
か否かを判別し、ユーザからの働きかけごとに上記外部
刺激を所定のパラメータへ数値化する外部刺激判別手段
とを具え、 上記感情モデルは、上記所定のパラメータと上記覚醒度
パラメータとに基づいて変化することを特徴とする請求
項11に記載のロボット装置。
14. An external stimulus detecting means for detecting an external stimulus, and evaluating the detected external stimulus to determine whether or not the user is acting. The robot apparatus according to claim 11, further comprising external stimulus determination means for converting the emotion model into a parameter, wherein the emotion model changes based on the predetermined parameter and the arousal level parameter.
【請求項15】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項14に記載のロボ
ット装置。
15. The robot apparatus according to claim 14, wherein the predetermined parameter is a degree of interaction.
【請求項16】自律的に行動するロボット装置の制御方
法において、 所定の時間内における上記ロボット装置の行動の傾向に
周期を与える周期パラメータに基づいて当該ロボット装
置の上記行動を決定する第1のステップと、上記決定し
た行動に基づいて上記ロボット装置の各部位を動作させ
る第2のステップとを具えることを特徴とするロボット
装置の制御方法。
16. A method for controlling a robot apparatus that behaves autonomously, wherein the behavior of the robot apparatus is determined based on a cycle parameter that gives a cycle to the behavior tendency of the robot apparatus within a predetermined time. And a second step of operating each part of the robot device based on the determined behavior.
【請求項17】上記周期パラメータは、覚醒度パラメー
タであることを特徴とする請求項16に記載のロボット
装置の制御方法。
17. The method according to claim 16, wherein the periodic parameter is a wakefulness parameter.
【請求項18】上記覚醒度パラメータの総和は一定であ
ることを特徴とする請求項17に記載のロボット装置の
制御方法。
18. The method according to claim 17, wherein a total sum of the arousal degree parameters is constant.
【請求項19】上記所定の時間はおおよそ24時間であ
ることを特徴とする請求項17に記載のロボット装置の
制御方法。
19. The method according to claim 17, wherein the predetermined time is approximately 24 hours.
【請求項20】上記第1のステップでは、 上記ロボット装置の擬似的感情を規定する感情モデルを
上記覚醒度パラメータに基づいて変化させながら、上記
周期パラメータと上記感情モデルとに基づいて上記ロボ
ット装置の上記行動を決定することを特徴とする請求項
17に記載のロボット装置の制御方法。
20. In the first step, while changing an emotion model that defines a pseudo-emotion of the robot device based on the arousal degree parameter, the robot device based on the periodic parameter and the emotion model. 18. The method according to claim 17, wherein the action is determined.
【請求項21】上記第1のステップでは、 所定の外部刺激検出手段により検出された外部刺激を評
価して、ユーザからの働きかけか否かを判断すると共
に、上記ユーザからの働きかけごとに上記外部刺激を所
定のパラメータへ数値化しながら、当該所定のパラメー
タと上記覚醒度パラメータとに基づいて上記ロボット装
置の上記行動を決定することを特徴とする請求項17に
記載のロボット装置の制御方法。
21. In the first step, an external stimulus detected by a predetermined external stimulus detecting means is evaluated to judge whether or not the user is acting. The method according to claim 17, wherein the behavior of the robot device is determined based on the predetermined parameter and the arousal level parameter while stimulating the stimulus into a predetermined parameter.
【請求項22】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項21に記載のロボ
ット装置の制御方法。
22. The method according to claim 21, wherein the predetermined parameter is a degree of interaction.
【請求項23】上記第1のステップでは、 所定の外部刺激検出手段により検出した外部刺激を評価
して、ユーザからの働きかけか否かを判別し、上記ユー
ザからの働きかけごとに上記外部刺激を所定のパラメー
タへ数値化すると共に、上記感情モデルを、上記所定の
パラメータと上記覚醒度パラメータとに基づいて変化さ
せることを特徴とする請求項20に記載のロボット装置
の制御方法。
23. In the first step, an external stimulus detected by a predetermined external stimulus detecting means is evaluated to determine whether or not the user is acting. 21. The control method of the robot apparatus according to claim 20, wherein a numerical value is converted into a predetermined parameter, and the emotion model is changed based on the predetermined parameter and the arousal level parameter.
【請求項24】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項23に記載のロボ
ット装置の制御方法。
24. The method according to claim 23, wherein the predetermined parameter is a degree of interaction.
【請求項25】自律的に行動するロボット装置におい
て、 上記ロボット装置の各部位を動作させる動作制御手段
と、 上記ロボットの行動を決定する行動決定機構部と、 外部からの刺激を検出する外部刺激検出手段と、 上記検出した外部刺激を評価し、ユーザからの働きかけ
か否かを判別し、ユーザの働きかけごとに上記外部刺激
を所定のパラメータへ数値化する外部刺激判別手段とを
具え、 上記行動決定機構部は、上記所定のパラメータに基づい
て行動を決定し、 上記動作制御手段は、上記決定された行動に基づいて上
記ロボット装置の各部位を動作させることを特徴とする
ロボット装置。
25. An autonomously behaving robot apparatus, comprising: an operation control means for operating each part of the robot apparatus; an action determining mechanism for determining the action of the robot; and an external stimulus for detecting an external stimulus. Detecting means for evaluating the detected external stimulus, determining whether or not the action is from a user, and quantifying the external stimulus to a predetermined parameter for each action of the user. A robot device, wherein the determining mechanism unit determines an action based on the predetermined parameter, and wherein the operation control unit operates each part of the robot device based on the determined action.
【請求項26】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項25に記載のロボ
ット装置。
26. The robot apparatus according to claim 25, wherein the predetermined parameter is a degree of interaction.
【請求項27】上記ロボット装置の擬似的感情を規定す
る感情モデルを具え、 上記感情モデルは、上記インタラクション度に基づいて
変化することを特徴とする請求項26に記載のロボット
装置。
27. The robot apparatus according to claim 26, further comprising an emotion model that defines a pseudo emotion of the robot apparatus, wherein the emotion model changes based on the degree of interaction.
【請求項28】自律的に行動するロボット装置の制御方
法において、 所定の外部刺激検出手段により検出した外部刺激を評価
して、ユーザからの働きかけか否かを判別し、ユーザの
働きかけごとに上記外部刺激を所定のパラメータへ数値
化する第1のステップと、 上記所定のパラメータに基づいて行動を決定し、上記決
定した行動に基づいて上記ロボット装置の各部位を動作
させる第2のステップとを具えることを特徴とするロボ
ット装置の制御方法。
28. A control method of a robot apparatus which autonomously acts, wherein an external stimulus detected by a predetermined external stimulus detecting means is evaluated to determine whether or not the user is acting. A first step of numerically converting the external stimulus into a predetermined parameter; and a second step of determining an action based on the predetermined parameter and operating each part of the robot apparatus based on the determined action. A method for controlling a robot device, comprising:
【請求項29】上記所定のパラメータは、インタラクシ
ョン度であることを特徴とする請求項28に記載のロボ
ット装置の制御方法。
29. The method according to claim 28, wherein the predetermined parameter is a degree of interaction.
【請求項30】上記ロボット装置の擬似的感情を規定す
る感情モデルを、上記インタラクション度に基づいて変
化させることを特徴とする請求項29に記載のロボット
装置の制御方法。
30. The control method of a robot device according to claim 29, wherein an emotion model defining a pseudo emotion of the robot device is changed based on the degree of interaction.
JP2001309017A 2000-10-05 2001-10-04 Robot device and its control method Pending JP2002178282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001309017A JP2002178282A (en) 2000-10-05 2001-10-04 Robot device and its control method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-311735 2000-10-05
JP2000311735 2000-10-05
JP2001309017A JP2002178282A (en) 2000-10-05 2001-10-04 Robot device and its control method

Publications (1)

Publication Number Publication Date
JP2002178282A true JP2002178282A (en) 2002-06-25

Family

ID=26601955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001309017A Pending JP2002178282A (en) 2000-10-05 2001-10-04 Robot device and its control method

Country Status (1)

Country Link
JP (1) JP2002178282A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
US7747350B2 (en) 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP2015036915A (en) * 2013-08-14 2015-02-23 富士通株式会社 Interaction device, interaction program, and interaction method
JP2015191591A (en) * 2014-03-28 2015-11-02 富士通株式会社 information processing apparatus, action timing detection method, and program
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
CN114863714A (en) * 2022-04-18 2022-08-05 桂林电子科技大学 Intelligent guiding system for underground parking space and reverse car searching method after parking

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747350B2 (en) 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
JP4560078B2 (en) * 2007-12-06 2010-10-13 本田技研工業株式会社 Communication robot
US8010231B2 (en) 2007-12-06 2011-08-30 Honda Motor Co., Ltd. Communication robot
JP2015036915A (en) * 2013-08-14 2015-02-23 富士通株式会社 Interaction device, interaction program, and interaction method
JP2015191591A (en) * 2014-03-28 2015-11-02 富士通株式会社 information processing apparatus, action timing detection method, and program
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
CN114863714A (en) * 2022-04-18 2022-08-05 桂林电子科技大学 Intelligent guiding system for underground parking space and reverse car searching method after parking
CN114863714B (en) * 2022-04-18 2023-04-21 桂林电子科技大学 Intelligent guiding system for underground parking space and backward vehicle searching method after parking

Similar Documents

Publication Publication Date Title
US6711467B2 (en) Robot apparatus and its control method
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6445978B1 (en) Robot device and method for controlling the same
JP6436548B2 (en) Autonomous robot
KR101137205B1 (en) Robot behavior control system, behavior control method, and robot device
US7515992B2 (en) Robot apparatus and emotion representing method therefor
US20040210347A1 (en) Robot device and robot control method
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US6362589B1 (en) Robot apparatus
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2001191281A (en) Editing device, editing method, and storage medium
JP2006110707A (en) Robot device
JP2002178282A (en) Robot device and its control method
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP2003191187A (en) Robot device and method of controlling it
JP2002120179A (en) Robot device and control method for it
JP2001157982A (en) Robot device and control method thereof
JP2001157980A (en) Robot device, and control method thereof
JP2003208161A (en) Robot apparatus and method of controlling the same
JP4419035B2 (en) Robot apparatus and control method thereof
JP4411503B2 (en) Robot apparatus and control method thereof
JP2003071757A (en) Robot device
JP2003136451A (en) Robot device and control method thereof
JP2002269530A (en) Robot, behavior control method of the robot, program and storage medium