JP2001157984A - Robot device and action control method for robot device - Google Patents

Robot device and action control method for robot device

Info

Publication number
JP2001157984A
JP2001157984A JP34137699A JP34137699A JP2001157984A JP 2001157984 A JP2001157984 A JP 2001157984A JP 34137699 A JP34137699 A JP 34137699A JP 34137699 A JP34137699 A JP 34137699A JP 2001157984 A JP2001157984 A JP 2001157984A
Authority
JP
Japan
Prior art keywords
action
unit
position information
model
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34137699A
Other languages
Japanese (ja)
Inventor
Takashi Yamamoto
隆司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34137699A priority Critical patent/JP2001157984A/en
Publication of JP2001157984A publication Critical patent/JP2001157984A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device easily capable of taking in a new expression. SOLUTION: A P-gain of a control signal to control an actuator of a pet robot 1 is intentionally changed. As the P-gain is increased, reaction of the actuator becomes so sensitive that a walking action of the pet robot 1 becomes the one that looks feeble as a result, as shown as a change from drawing A into drawing B, or it reacts so sensitively to position control as to make a comical walking action.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びロ
ボット装置の動作制御方法に関し、例えば四足動物のよ
うに動作するペットロボットに適用して好適なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and an operation control method of the robot apparatus, and is suitably applied to, for example, a pet robot operating like a quadruped.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて動作を行う四足歩行型のロボット装置、いわゆる
ペットロボットが提案及び開発されている。
2. Description of the Related Art In recent years, a four-legged walking type robot apparatus which operates in response to a command from a user or the surrounding environment, that is, a so-called pet robot has been proposed and developed.

【0003】ペットロボットは、家庭内で飼う犬や猫の
ような四足動物によく似た形状とされ、例えばユーザか
ら「伏せ」という指令を受け取ると伏せの姿勢を取った
り、又は自分の口の前にユーザが手を差し出すと「お
て」をするようになされている。
[0003] A pet robot has a shape very similar to a quadruped such as a dog or a cat kept at home. For example, when a pet command is received from a user, the pet robot takes a prone posture, or takes a position of its own mouth. When the user presents his hand before the "!"

【0004】[0004]

【発明が解決しようとする課題】ところで、プレイバッ
クモーションなどで再現されるロボット装置等の動作
は、教示などによって作成している。このような場合、
ペットロボットの動作を変更、或いは新たに加えようと
すれば、モーションを新たに作成しなくてはならず、多
くの工程が必要となる。
By the way, the operation of the robot device or the like reproduced by the playback motion or the like is created by teaching or the like. In such a case,
If the operation of the pet robot is to be changed or newly added, a new motion must be created, and many steps are required.

【0005】また、ロボット装置の内部状態と動作のマ
ッチングを設定する方法は主に人間の手作業によりデザ
インされ、非常に煩雑な作業が必要であった。よって、
表現を拡張しようとすると、そのだけ煩雑な作業が必要
になる。
Further, the method of setting the matching between the internal state and the operation of the robot device is designed mainly by a manual operation of a human, and requires a very complicated operation. Therefore,
If you try to expand the expression, you will have to do a lot of complicated work.

【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、容易に新たな表現を取り入れること
が可能なロボット装置及びロボット装置の動作制御方法
の提供を目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot apparatus and an operation control method of the robot apparatus that can easily adopt a new expression.

【0007】[0007]

【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、内部状態に応じて
行動及び/又は動作を生成するモデルを有し、入力情報
に基づいてモデルを変化させて、行動及び/又は動作を
生成する行動及び/又は動作生成手段と、位置情報に基
づいて動作部を制御して行動及び/又は動作生成手段が
生成した動作を実行する動作部制御手段と、動作部制御
手段の制御特性を変更する制御特性変更手段とを備え
る。
In order to solve the above-mentioned problems, a robot apparatus according to the present invention has a model for generating an action and / or an action in accordance with an internal state, and a model based on input information. And an action and / or action generating means for generating an action and / or action, and an action section control for executing the action generated by the action and / or action generating means by controlling the action section based on the position information Means, and control characteristic changing means for changing the control characteristic of the operation unit control means.

【0008】このような構成を備えるロボット装置は、
入力情報に基づいてモデルを変化させて、行動及び/又
は動作を行動及び/又は動作生成手段により生成し、位
置情報に基づいて動作部を制御して行動及び/又は動作
生成手段が生成した行動及び/又は動作を動作部制御手
段により実行する。そして、生成された行動及び/又は
動作に応じて、動作部制御手段の制御特性を制御特性変
更手段により変更する。
[0008] The robot device having such a configuration is as follows.
An action and / or an action are generated by an action and / or action generation unit by changing a model based on input information, and an action and / or an action generated by the action generation unit by controlling an operation unit based on position information. And / or performing the operation by the operation unit control means. Then, according to the generated action and / or operation, the control characteristic of the operation unit control unit is changed by the control characteristic change unit.

【0009】これにより、このロボット装置は、同一の
位置情報に基づいて、異なる動作を生成する。
Thus, the robot device generates different actions based on the same position information.

【0010】また、本発明に係るロボット装置の動作制
御方法は、上述の課題を解決するために、内部状態に応
じて行動及び/又は動作を生成するモデルを有し、入力
情報に基づいてモデルを変化させて、行動及び/又は動
作を生成する行動及び/又は動作生成工程と、位置情報
に基づいて動作部制御手段により動作部を制御して行動
及び/又は動作生成工程にて決定した行動及び/又は動
作を実行する動作部制御工程とを有し、動作部制御工程
では、行動及び/又は動作生成工程にて生成した行動及
び/又は動作に応じて動作部制御手段の制御特性を変更
する。
Further, in order to solve the above-mentioned problem, a motion control method for a robot apparatus according to the present invention has a model for generating an action and / or motion in accordance with an internal state, and a model based on input information. And an action and / or action generation step of generating an action and / or action, and an action determined by the action and / or action generation step by controlling the action section by the action section control means based on the position information. And / or an operation unit control step of executing an operation, wherein the operation unit control step changes a control characteristic of the operation unit control unit according to the action and / or the operation generated in the action and / or the operation generation step. I do.

【0011】このロボット装置の動作制御方法により、
ロボット装置は、同一の位置情報に基づいて、異なる動
作を生成する。
According to the operation control method of the robot apparatus,
The robot device generates different motions based on the same position information.

【0012】また、本発明に係るロボット装置は、上述
の課題を解決するために、時系列の複数の通過位置情報
からなる位置情報に基づいて現在位置から目標位置へ動
作部の遷移動作をさせるロボット装置である。このロボ
ット装置は、通過位置情報に基づいて、動作部を現在位
置から目標位置へ遷移させる動作部制御手段と、通過位
置情報を変更する通過位置情報変更手段とを備える。
Further, in order to solve the above-mentioned problem, the robot apparatus according to the present invention causes the operation unit to perform a transition operation from a current position to a target position based on position information including a plurality of time-series passing position information. It is a robot device. The robot apparatus includes an operation unit control unit that changes an operation unit from a current position to a target position based on the passage position information, and a passage position information change unit that changes the passage position information.

【0013】このような構成を備えるロボット装置は、
通過位置情報に基づいて、動作部を現在位置から目標位
置へ動作部制御手段により遷移させ、通過位置情報を通
過位置情報変更手段により変更する。
[0013] The robot device having such a configuration is as follows.
Based on the passing position information, the operating unit is shifted from the current position to the target position by the operating unit control unit, and the passing position information is changed by the passing position information changing unit.

【0014】これにより、このロボット装置は、同一の
位置情報に基づいて、異なる動作を生成する。
Thus, the robot device generates different motions based on the same position information.

【0015】また、本発明に係るロボット装置の動作制
御方法は、上述の課題を解決するために、時系列の複数
の通過位置情報からなる位置情報に基づいて現在位置か
ら目標位置へロボット装置の動作部の遷移動作をさせる
ロボット装置の動作制御方法である。このロボット装置
の動作制御方法は、通過位置情報に基づいて、動作部を
現在位置から目標位置へ遷移させる動作部制御工程を有
し、動作部制御工程では、遷移動作に応じて通過位置情
報を変更する。
Further, in order to solve the above-mentioned problem, the operation control method for a robot device according to the present invention is a method for controlling a robot device from a current position to a target position based on position information comprising a plurality of time-series passing position information. 5 is an operation control method of a robot device that causes a transition operation of an operation unit. The operation control method of the robot apparatus includes an operation unit control step of transitioning the operation unit from the current position to the target position based on the passage position information, and in the operation unit control step, the operation unit controls the passage position information in accordance with the transition operation. change.

【0016】このロボット装置の動作制御方法により、
ロボット装置は、同一の位置情報に基づいて、異なる動
作を生成する。
According to the operation control method of the robot apparatus,
The robot device generates different motions based on the same position information.

【0017】また、本発明に係るロボット装置は、上述
の課題を解決するために、内部状態に応じて行動及び/
又は動作を生成するモデルにより生成された行動及び/
又は動作を実行する動作部の動作遷移経過を制御する動
作部制御手段を備える。これにより、ロボット装置は、
多彩な動作をする。
Further, in order to solve the above-mentioned problems, the robot apparatus according to the present invention has an action and / or an action according to an internal state.
Or an action generated by a model generating the action and / or
Alternatively, an operation unit control unit that controls the progress of the operation transition of the operation unit that executes the operation is provided. As a result, the robot device
Perform various actions.

【0018】また、本発明に係るロボット装置の動作制
御方法は、上述の課題を解決するために、内部状態に応
じて行動及び/又は動作を生成するモデルにより生成さ
れた行動及び/又は動作を実行する動作部の動作遷移経
過を制御する。このロボット装置の動作制御方法によ
り、ロボット装置は、多彩な動作をする。
Further, in order to solve the above-mentioned problems, the operation control method for a robot apparatus according to the present invention includes an operation and / or an operation generated by a model that generates an operation and / or an operation according to an internal state. The operation transition of the operation unit to be executed is controlled. According to the operation control method of the robot device, the robot device performs various operations.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、本
発明を、四足歩行型のロボット装置である、いわゆるペ
ットロボットに適用したものである。先ず、本発明の原
理について説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the present invention is applied to a so-called pet robot which is a four-legged robot device. First, the principle of the present invention will be described.

【0020】動作部を備える駆動機械等において、その
動作部は、動作部制御手段により制御がなされている。
具体的には、動作部は、動作部制御手段からの制御信号
に基づいてその動作が制御されている。ここで、制御信
号は、一般的には現在位置と目標位置とからなる位置情
報に基づいて生成される。
In a driving machine or the like having an operation section, the operation section is controlled by an operation section control means.
Specifically, the operation of the operation unit is controlled based on a control signal from the operation unit control means. Here, the control signal is generally generated based on position information including a current position and a target position.

【0021】このような動作部制御手段による動作部の
制御において、その制御特性は、制御信号のゲイン調整
等により決定される。制御特性を決定付けるものとし
て、例えば、PIDが挙げられる。PIDは、Pが比例
要素であり、Iが積分要素であり、Dが微分要素であ
る。
In the control of the operation unit by the operation unit control means, the control characteristic is determined by adjusting the gain of the control signal. As a factor that determines the control characteristics, for example, a PID is given. In PID, P is a proportional element, I is an integral element, and D is a differential element.

【0022】本発明は、このような制御特性を決定する
要素を意図的に変更することにより、動作部の動作を操
作するものである。以下に、本発明を、図1及び図2に
示すような実施の形態のペットロボット1に適用して説
明する。
According to the present invention, the operation of the operation section is operated by intentionally changing the element for determining such a control characteristic. Hereinafter, the present invention will be described as applied to a pet robot 1 according to an embodiment as shown in FIGS. 1 and 2.

【0023】ペットロボット1は、頭に相当する頭部2
と、胴体に相当する本体部3と、足に相当する足部4A
〜4Dと、尻尾に相当する尻尾部5とを連結することに
よって構成されている。このペットロボット1は、本体
部3に対して頭部2、足部4A〜4D、尻尾部5を動か
すことによって本物の四足動物のように動作させるよう
になされている。
The pet robot 1 has a head 2 corresponding to the head.
And a main body 3 corresponding to the body and a foot 4A corresponding to the foot
4D and a tail 5 corresponding to the tail. The pet robot 1 is made to operate like a real quadruped by moving the head 2, the legs 4A to 4D, and the tail 5 with respect to the main body 3.

【0024】ペットロボット1において、足部4A〜4
Dの関節部分、足部4A〜4Dと本体部3の連結部分、
本体部3と頭部2の連結部分、本体部3と尻尾部5の連
結部分などは、アクチュエータによって連結されてお
り、本体部3内部に収納される電子回路の制御に基づい
て駆動するようになされている。ペットロボット1は、
各アクチュエータを駆動させることにより、頭部2を上
下左右に振らせたり、尻尾部5を振らせたり、足部4A
〜4Dを動かして歩かせたり走らせたりして、本物の四
足動物のような動作を行わせる。
In the pet robot 1, the feet 4A to 4A
D, joints between the feet 4A to 4D and the main body 3,
The connecting portion between the main body 3 and the head 2 and the connecting portion between the main body 3 and the tail 5 are connected by an actuator, and are driven based on control of an electronic circuit housed inside the main body 3. It has been done. The pet robot 1
By driving each actuator, the head 2 is swung up and down, left and right, the tail 5 is swung, and the foot 4A is swung.
Move ~ 4D to walk or run to make it perform like a real quadruped.

【0025】このような構成からなるペットロボット1
について、足部4の関節を連結するアクチュエータの位
置制御をする場合を例に挙げて本発明を説明する。
The pet robot 1 having such a configuration
The present invention will be described with reference to an example in which the position of an actuator that connects the joints of the feet 4 is controlled.

【0026】ペットロボット1において足部4を動作さ
せる場合、各関節を構成するアクチュエータは、図示し
ない動作部制御手段により制御されている。具体的に
は、アクチュエータは、動作部制御手段からの制御信号
であって、位置制御特性としてPIDゲインが調節され
ている信号により制御されている。
When the foot 4 is operated in the pet robot 1, the actuators forming the joints are controlled by operating unit control means (not shown). Specifically, the actuator is controlled by a control signal from the operating unit control means, the signal having a PID gain adjusted as a position control characteristic.

【0027】このようにPIDゲインにより制御特性が
調節されている制御信号により動作部であるアクチュエ
ータが制御される場合において、Pゲインが異なると次
のようにアクチュエータが動作する。
In the case where the actuator, which is the operating unit, is controlled by the control signal whose control characteristic is adjusted by the PID gain, if the P gain is different, the actuator operates as follows.

【0028】Pゲインが小さい場合、アクチュエータで
発生する動作トルクは結果的に小さくなる。これによ
り、図1中(A)から図1中(B)への変化として示さ
れるように、ペットロボット1の自重により膝の関節が
沈み込み、結果として動作が緩慢になる。
When the P gain is small, the operating torque generated by the actuator is consequently small. As a result, as shown as a change from (A) in FIG. 1 to (B) in FIG. 1, the knee joint sinks due to the weight of the pet robot 1, and as a result, the operation becomes slow.

【0029】一方、Pゲインが大きい場合、アクチュエ
ータで発生する動作トルクは結果的に大きくなる。これ
により、位置情報に対する膝の関節の反応が過敏にな
り、場合によっては発振する。例えば、ペットロボット
1の歩行動作は、図2中(A)から図2中(B)への変
化として示されるように、結果的に弱々しくみえる歩行
動作となったり、位置制御に過敏に反応してコミカルな
歩行動作となったりする。
On the other hand, when the P gain is large, the operating torque generated by the actuator becomes large as a result. As a result, the response of the knee joint to the position information becomes excessively sensitive and, in some cases, oscillates. For example, the walking motion of the pet robot 1 results in a walking motion that looks weak, as shown as a change from (A) in FIG. 2 to (B) in FIG. It reacts to a comical walking motion.

【0030】例えば、PIDゲイン制御と制御特性との
関係は、概略として次のようになる。そして、PIDゲ
イン制御の演算式については、一般的に(1)式により
与えられる。(1)式において、e(t)は、入力と出
力の偏差である。
For example, the relationship between PID gain control and control characteristics is roughly as follows. The calculation formula of the PID gain control is generally given by the formula (1). In the equation (1), e (t) is a deviation between the input and the output.

【0031】[0031]

【数1】 (Equation 1)

【0032】P(比例)動作では、操作変数の値は偏差
に比例して変化する。P動作では、オフセットを0にす
ることができないが、I(積分)動作によってこの問題
を解決することができる。よって、I動作を行わないP
動作を弱くした場合、重力等の影響によるオフセットが
大きくなり、これにより膝の関節が沈み込むようにな
る。また、P動作を大きくした場合、制御変数が振動す
る。この効果を利用することで、上述のように膝を振動
させることができるようになる。
In the P (proportional) operation, the value of the manipulated variable changes in proportion to the deviation. In the P operation, the offset cannot be set to 0, but this problem can be solved by the I (integral) operation. Therefore, P that does not perform I operation
When the movement is weakened, the offset due to the influence of gravity or the like becomes large, so that the knee joint sinks. When the P operation is increased, the control variable oscillates. By utilizing this effect, the knee can be vibrated as described above.

【0033】そして、以上のような新たな動作の生成
は、制御信号のゲインを変更することにより可能とされ
たものであり、位置情報については何ら手を加えてはい
ないもとで達成している。
The generation of the new operation as described above is made possible by changing the gain of the control signal, and can be achieved without changing the position information at all. I have.

【0034】このように、本発明は、制御特性を決定す
るようなPIDゲインの設定を意図的に変更すること
で、同一の位置情報から異なる動作を派生させるを実現
している。
As described above, the present invention realizes that different operations are derived from the same position information by intentionally changing the setting of the PID gain for determining the control characteristics.

【0035】次に、動作実行に際して関節に対する位置
指令を時間に対して伸縮し又は短縮することで表現を拡
張することができる発明について説明する。
Next, a description will be given of an invention in which the expression can be expanded by expanding or contracting the position command for the joint with respect to time when executing the operation.

【0036】上述したように動作部の動作は、位置情報
に基づいて現在位置から目標位置へと位置制御されて実
行される。通常、このような動作部は、ある時間間隔で
更新される位置情報に従って変位して、最終的に目標と
される位置に遷移する。このような目標位置への遷移
は、ある時間間隔で更新される位置情報に基づいてなさ
れている。例えば、8msec毎に更新されるような位置
情報に基づいた動作の場合、10秒間のプレイバックモ
ーションでは、例えば1250個の通過位置情報に基づ
いた動作となる。すなわち、位置情報の示す通過位置情
報は、現在位置から目標とされる位置までの動作を達成
するための情報であり、動作部制御手段は、目標とされ
る位置に遷移するまでにある時間間隔で更新されるこの
通過位置情報に基づいて動作部の動作を制御している。
As described above, the operation of the operation section is executed by controlling the position from the current position to the target position based on the position information. Usually, such an operation unit is displaced according to position information updated at a certain time interval, and finally transitions to a target position. Such a transition to the target position is made based on position information updated at certain time intervals. For example, in the case of an operation based on position information that is updated every 8 msec, an operation based on, for example, 1250 pieces of passing position information in a 10-second playback motion. That is, the passing position information indicated by the position information is information for achieving the operation from the current position to the target position, and the operating unit control means performs a certain time interval before transitioning to the target position. The operation of the operation unit is controlled based on the passing position information updated by the above.

【0037】本発明は、このように一連の動作を実行す
るための時系列情報とされる通過位置情報からなる位置
情報を、再サンプリングして、通過位置情報の個数を増
加又は減少させることで、オリジナルの位置情報に基づ
いて再生される本来の動作と異なる動作を動作部にさせ
るものである。
According to the present invention, the position information consisting of the passing position information, which is time-series information for executing a series of operations, is resampled to increase or decrease the number of passing position information. The operation unit causes an operation different from the original operation to be reproduced based on the original position information.

【0038】例えば、上述したような1250個の通過
位置情報で構成される10秒間のプレイバックモーショ
ンを、例えば1500個の通過位置情報に変更すること
により、そのような動作の再生は、12秒間の動作とし
て得られるようになる。このように、ある動作を実行さ
せるためのオリジナル位置情報の再量子化をして、通過
位置情報の数を増加させることにより、結果得られる動
きをオリジナルのものと比較して緩慢な動作として得る
ことができる。
For example, by changing a 10-second playback motion composed of 1250 pieces of passing position information as described above to, for example, 1500 pieces of passing position information, such an operation is reproduced for 12 seconds. Operation. In this way, by requantizing the original position information to execute a certain operation and increasing the number of passing position information, the resulting movement is obtained as a slow operation compared to the original one. be able to.

【0039】このような再量子化による目標位置の変更
は、具体的には、先ず、図3中(A)に示すように、オ
リジナルの位置情報について2倍の周波数で再サンプリ
ングする。次に、図3中(B)に示すように2倍の数の
通過位置情報からなる位置情報を作成する。例えば、再
サンプリングには、オーバサンプリングや補間によるも
のがある。
To change the target position by such requantization, first, as shown in FIG. 3A, the original position information is resampled at twice the frequency. Next, as shown in FIG. 3B, position information including twice as many passing position information is created. For example, resampling includes oversampling and interpolation.

【0040】このように変更された通過位置位置から構
成される位置情報を、図3中(B)に示すように、再サ
ンプリングされる前の位置情報の再生周波数と同じ再生
周波数により再生して、動作を実行させる。これによ
り、同一の位置情報により、元の動作よりもスローな動
作が再生される。
As shown in FIG. 3B, the position information composed of the passing position positions thus changed is reproduced at the same reproduction frequency as the reproduction frequency of the position information before being resampled. , To perform the operation. Accordingly, a slower operation than the original operation is reproduced by the same position information.

【0041】なお、逆に、オリジナルよりも少ない数の
通過位置情報になるように再サンプリングした場合、再
現される動作は、オリジナルの動作と比較して短時間に
再生されるものとなり、結果得られる動作は機敏なもの
となる。
Conversely, when resampling is performed so that the number of passing position information is smaller than that of the original, the reproduced operation will be reproduced in a shorter time than the original operation. The action taken is agile.

【0042】このように、位置情報を再サンプリングし
て、通過位置情報の数を変更することにより、異なった
動作を生成することができる。これにより、1つのオリ
ジナルの位置情報から、印象の異なる動作を派生するこ
とができるようになる。そして、このように異なる動作
の生成は、ペットロボット1の動作表現の拡張を実現す
る。
Thus, different operations can be generated by resampling the position information and changing the number of passing position information. As a result, it is possible to derive an operation having a different impression from one piece of original position information. The generation of such different actions realizes an extension of the action expression of the pet robot 1.

【0043】次に、動作実行に際して関節の動作振幅を
伸縮させることにより、ペットロボット1の動作表現を
拡張する発明について説明する。
Next, a description will be given of an invention in which the motion expression of the pet robot 1 is extended by expanding and contracting the motion amplitude of the joint when executing the motion.

【0044】ここでは、動作部制御手段が複数の通過位
置情報の振幅量に応じて動作部を目標位置に遷移させる
場合において、通過位置情報の振幅量を増加又は減少さ
せることにより異なる動作を生成している。
Here, when the operating section control means causes the operating section to transition to the target position in accordance with the amplitudes of the plurality of passing position information, different operations are generated by increasing or decreasing the amplitude of the passing position information. are doing.

【0045】上述の発明では、時系列方向において通過
位置情報の数を変更することにより、異なる動作を生成
したものであった。一方、ここでは、通過位置情報の振
幅量を変更することにより、異なる動作を生成してい
る。
In the above-described invention, different operations are generated by changing the number of passing position information in the time series direction. On the other hand, here, a different operation is generated by changing the amplitude of the passing position information.

【0046】具体的には、図4中(A)に示すように位
置情報にてある振幅として得られる複数の通過位置情報
により、図4中(B)に示すように、ペットロボット1
の足4Cが往復動作するような場合において、図5中
(A)に示すように、通過位置情報の振幅量を増加させ
ることにより、図5中(B)に示すように、足4Cの往
復運動の本来のものよりストロークが大きくなり、異な
る動作をなすようになる。
More specifically, as shown in FIG. 4B, the pet robot 1 has a plurality of passing position information obtained as a certain amplitude in the position information as shown in FIG.
In the case where the foot 4C reciprocates, as shown in FIG. 5A, the amplitude of the passing position information is increased, so that the foot 4C reciprocates as shown in FIG. 5B. The stroke will be larger than the original motion, resulting in a different motion.

【0047】このように、通過位置情報の振幅量を変更
することにより、異なった動作を生成することができ
る。これにより、1つのオリジナルの位置情報から、印
象の異なる動作を派生することができるようになる。そ
して、このように異なる動作の生成は、ペットロボット
1の動作表現の拡張となる。
As described above, by changing the amplitude of the passing position information, different operations can be generated. As a result, it is possible to derive an operation having a different impression from one piece of original position information. The generation of such a different motion is an extension of the motion expression of the pet robot 1.

【0048】次に、本発明を、外的要因や内的要因に応
じて変化する感情、本能、或いは成長度合いをモデル化
した情報により行動及び/又は動作が決定されるペット
ロボットの実施の形態について説明する。
Next, the present invention relates to an embodiment of a pet robot whose behavior and / or action is determined by information modeling emotions, instinct, or the degree of growth that change according to external factors or internal factors. Will be described.

【0049】例えば、上述のようなモデル化された情報
に基づかないで動作が決定されるペットロボットは、図
6のような手順によって最終的な動作が決定される。
For example, for a pet robot whose movement is determined based on the above-described modeled information, the final movement is determined by the procedure shown in FIG.

【0050】モデル化された情報に基づかない場合、図
6に示すように、先ず、外的要因或いは内的要因とされ
るセンサー入力に基づいて動作生成部SP1にて動作生
成がなされる。ここで、外的要因のセンサー入力とは、
外部の情報であり、例えばタッチセンサからの情報等か
らなり、内的要因のセンサー入力とは、内部の情報であ
り、例えば、バッテリ残量の情報等からなる。
When not based on the modeled information, as shown in FIG. 6, first, a motion is generated by the motion generating unit SP1 based on a sensor input as an external factor or an internal factor. Here, the sensor input of the external factor is
The external information is, for example, information from a touch sensor, and the sensor input of an internal factor is internal information, for example, information on a remaining battery level.

【0051】動作決定部SP2では、動作生成部SP1
からの動作要求に応じた動作を生成する。例えば、動作
決定部SP2では、動作要求に応じて、現在の姿勢から
目標とされる姿勢まで遷移するための動作の計画を立て
る。動作決定部SP2は、そのような姿勢の遷移計画等
に基づいて、動作部SP3に動作情報を出力する。
In the operation determining unit SP2, the operation generating unit SP1
Generates an operation in response to an operation request from. For example, the motion determining unit SP2 makes a plan of motion for transitioning from the current posture to a target posture in response to a motion request. The motion determining unit SP2 outputs motion information to the motion unit SP3 based on such a posture transition plan.

【0052】動作部SP3では、動作情報に基づいて関
節を構成するアクチュエータを動作させ、所定の動作を
させる。
In the operation section SP3, the actuator forming the joint is operated based on the operation information to perform a predetermined operation.

【0053】このような一連の手順により、ペットロボ
ットは、センサー入力に基づいて、動作が再生されるよ
うになる。
According to such a series of procedures, the operation of the pet robot is reproduced based on the sensor input.

【0054】ここで、動作部SP3で制御される動作に
ついては、予め登録されている位置情報に基づいてなさ
れる。すなわち、動作により遷移されるべき目標位置か
らなる位置情報に基づいて、足等のアクチュエータの位
置制御がなされる。
Here, the operation controlled by the operation unit SP3 is performed based on position information registered in advance. That is, position control of an actuator such as a foot is performed based on position information including a target position to be shifted by an operation.

【0055】これにより、上述したようにPIDゲイン
の変更による位置制御特性を変化させたり、通過位置情
報を変更させたりすることで、動作部SP3では、オリ
ジナルの位置情報に基づいて異なる動作を再生すること
ができるようになる。例えば、動作部SP3では、動作
決定部SP2からの動作情報に応じて、位置制御特性を
変更し、或いは位置情報の通過位置情報を変更して、動
作情報に応じた動作を再生する。
By changing the position control characteristics by changing the PID gain or changing the passing position information as described above, the operation unit SP3 reproduces different operations based on the original position information. Will be able to For example, the operation unit SP3 reproduces the operation according to the operation information by changing the position control characteristic or changing the passage position information of the position information according to the operation information from the operation determination unit SP2.

【0056】一方、モデル化された情報に基づいて動作
を決定するペットロボットは、図7に示すような手順に
より動作を再生している。
On the other hand, the pet robot that determines an action based on the modeled information reproduces the action according to a procedure as shown in FIG.

【0057】モデル化された情報に基づく場合、動作生
成部SP1は、感情モデルSP4、本能モデルSP5及
び成長モデルSP6からの感情情報、本能情報、及び成
長情報を考慮に入れた動作情報を出力する。
When based on the modeled information, the motion generation unit SP1 outputs motion information taking into account emotion information, instinct information, and growth information from the emotion model SP4, instinct model SP5, and growth model SP6. .

【0058】例えば、感情モデルSP4とは、内的情報
や外的情報から感情に起因した行動をさせるための情報
からなり、本能モデルSP5とは、内的情報や外的情報
から本能に起因した行動をさせるための情報からなり、
成長モデルSP6とは、内的情報や外的情報から成長度
合いに応じた動作をさせるための情報からなる。
For example, the emotion model SP4 is composed of information for causing an action based on emotion from internal information or external information, and the instinct model SP5 is composed of instinct based on internal information or external information. Consists of information to act,
The growth model SP6 is composed of information for performing an operation according to the degree of growth from internal information and external information.

【0059】動作生成部SP1では、このような各モデ
ルからの感情情報、本能情報、成長情報に応じた動作要
求を動作決定部SP2に出力する。
The motion generation unit SP1 outputs a motion request corresponding to the emotion information, instinct information, and growth information from each model to the motion determination unit SP2.

【0060】動作決定部SP2では、上述したように、
動作要求に応じて、現在の姿勢から目標とされる姿勢ま
で遷移するための動作の計画を立てる。動作決定部SP
2は、そのような姿勢の遷移計画等に基づいて、動作部
SP3に動作情報を出力する。
In the operation determining unit SP2, as described above,
In response to the operation request, an operation plan for transitioning from the current posture to the target posture is made. Operation determination unit SP
2 outputs operation information to the operation unit SP3 based on such a posture transition plan.

【0061】動作部SP3では、図6を用いて説明した
と同様に、動作情報に基づいて足等のアクチュエータを
駆動して、動作を再生する。これにより、動作部SP3
により再生される動作は、上述した各モデルが反映され
た動作となる。さらに、動作部SP3では、必要に応じ
て位置制御特性や通過位置情報を変更することにより、
オリジナルの位置情報に基づいて異なる動作を再生す
る。
The operation unit SP3 reproduces the operation by driving an actuator such as a foot on the basis of the operation information in the same manner as described with reference to FIG. Thereby, the operation unit SP3
Is an operation in which each model described above is reflected. Further, in the operation unit SP3, by changing the position control characteristics and the passing position information as needed,
Play different actions based on the original location information.

【0062】例えば、成長モデルにより、生まれたばか
りのペットロボットの表現が要求されている場合には、
Pゲインを大きくして、足の関節のアクチュエータを発
振させる。これにより、ペットロボットは、図2中
(B)に示したように、生後間もない犬の動作として弱
々しくみえる歩行動作をとる。また、慣用モデルによ
り、怒っている最中の表現が要求されている場合にも、
このような制御をすることにより、怒りによりふるえて
いるペットロボットを表現することができる。
For example, when the growth model requires expression of a newly born pet robot,
By increasing the P gain, the actuator of the foot joint is oscillated. As a result, the pet robot takes a walking motion that looks weak as a new dog motion, as shown in FIG. 2B. Also, if the idiomatic model requires an expression that is angry,
By performing such control, a pet robot trembling with anger can be expressed.

【0063】このように、各モデルに応じてオリジナル
の位置情報について位置制御特性や動作の目標位置を変
更することで、モデル化によりペットロボットの行動を
より現実的なものにすることができるとともに、感情、
本能、成長等の表現の豊富化が可能になる。
As described above, by changing the position control characteristics and the target position of the operation for the original position information according to each model, the behavior of the pet robot can be made more realistic by modeling. , Emotions,
Enrichment of expressions such as instinct and growth becomes possible.

【0064】以下に、ペットロボットの具体的な構成を
説明し、併せて、本発明を適用した場合の効果について
説明する。
Hereinafter, the specific configuration of the pet robot will be described, and the effects of the present invention will be described.

【0065】(1)ペットロボットの構成 図8に示すように、ペットロボット1は全体が構成され
ており、頭に相当する頭部2と、胴体に相当する本体部
3と、足に相当する足部4A〜4Dと、尻尾に相当する
尻尾部5とを連結することによって構成され、本体部3
に対して頭部2、足部4A〜4D、尻尾部5を動かすこ
とによって本物の四足動物のように動作させるようにな
されている。
(1) Configuration of Pet Robot As shown in FIG. 8, the pet robot 1 is entirely configured, and includes a head 2 corresponding to a head, a main body 3 corresponding to a body, and feet. The main body 3 is formed by connecting the feet 4A to 4D and the tail 5 corresponding to the tail.
By moving the head 2, the feet 4A to 4D, and the tail 5, the robot can be operated like a real quadruped.

【0066】頭部2には、目に相当し、画像を撮像する
例えばCCD(Charge Coupled Device)カメラでなる
画像認識部10と、耳に相当し、音声を集音するマイク
11と、口に相当し、音声を発するスピーカ12とがそ
れぞれ所定位置に取り付けられている。また頭部2に
は、ユーザからリモートコントローラ(図示せず)を介
して送信される指令を受信するリモートコントローラ受
信部13と、ユーザの手などが接触されたことを検出す
るたぬのタッチセンサ14と、内部で生成された画像を
表示するための画像表示部15とが取り付けられてい
る。
The head 2 has an image recognizing section 10 corresponding to the eyes, for example, a CCD (Charge Coupled Device) camera for capturing an image, a microphone 11 corresponding to the ears for collecting sound, and a mouth. Correspondingly, a speaker 12 that emits sound is attached to a predetermined position. The head 2 also includes a remote controller receiving unit 13 for receiving a command transmitted from a user via a remote controller (not shown), and a touch sensor for detecting contact of a user's hand or the like. 14 and an image display unit 15 for displaying an internally generated image.

【0067】本体部3には、腹に相当する位置にバッテ
リ21が取り付けられると共に、その内部にペットロボ
ット1全体の動作を制御するための電子回路(図示せ
ず)等が収納されている。
The main body 3 has a battery 21 mounted at a position corresponding to the belly, and houses therein an electronic circuit (not shown) for controlling the operation of the pet robot 1 as a whole.

【0068】足部4A〜4Dの関節部分、足部4A〜4
Dと本体部3の連結部分、本体部3と頭部2の連結部
分、本体部3と尻尾部5の連結部分などは、それぞれの
アクチュエータ23A〜23Nによって連結されてお
り、本体部3内部に収納される電子回路の制御に基づい
て駆動するようになされている。このようにペットロボ
ット1は、各アクチュエータ23A〜23Nを駆動させ
ることにより、頭部2を上下左右に振らせたり、尻尾部
5を振らせたり、足部4A〜4Dを動かして歩かせたり
走らせたりして、本物の四足動物のような動作を行わせ
る。
The joints of the feet 4A-4D, the feet 4A-4
A connecting portion between D and the main body portion 3, a connecting portion between the main body portion 3 and the head portion 2, a connecting portion between the main body portion 3 and the tail portion 5, and the like are connected by respective actuators 23A to 23N. It is designed to be driven based on the control of a stored electronic circuit. As described above, the pet robot 1 drives the actuators 23A to 23N to swing the head 2 up, down, left and right, swing the tail 5, and move or move the feet 4A to 4D to walk or run. Or make it behave like a real quadruped.

【0069】(2)ペットロボットの回路構成 ここで図9を用いてペットロボット1の回路構成につい
て説明する。頭部2は、マイク11及びリモートコント
ローラ受信部13でなるコマンド受信部30と、画像認
識部10及びタッチセンサ14からなる外部センサ31
と、スピーカ12と、画像表示部15とを有している。
また本体部3は、バッテリ21を有すると共に、その内
部にペットロボット1全体の動作を制御するためのコン
トローラ32と、バッテリ21の残量を検出するための
バッテリセンサ33及びペットロボット1内部で発生す
る熱を検出する熱センサ34でなる内部センサ35とを
有している。さらにペットロボット1の所定位置にはア
クチュエータ23A〜23Nがそれぞれ設けられてい
る。このアクチュエータ23A〜23N等がPIDゲイ
ンが調節された制御信号により制御される。
(2) Circuit Configuration of Pet Robot The circuit configuration of the pet robot 1 will now be described with reference to FIG. The head 2 includes a command receiving unit 30 including the microphone 11 and the remote controller receiving unit 13, and an external sensor 31 including the image recognizing unit 10 and the touch sensor 14.
, A speaker 12, and an image display unit 15.
The main body 3 has a battery 21, a controller 32 for controlling the entire operation of the pet robot 1, a battery sensor 33 for detecting the remaining amount of the battery 21, and a battery 21 inside the pet robot 1. And an internal sensor 35 that is a heat sensor 34 that detects heat generated. Further, actuators 23A to 23N are provided at predetermined positions of the pet robot 1, respectively. The actuators 23A to 23N are controlled by a control signal in which the PID gain is adjusted.

【0070】コマンド受信部30は、ユーザからペット
ロボット1に与えられる指令、例えば「歩け」、「伏
せ」、「ボールを追いかけろ」等の指令を受信するため
のものであり、リモートコントローラ受信部13及びマ
イク11によって構成されている。リモートコントロー
ラ(図示せず)は、ユーザの操作によって所望の指令が
入力されると、当該入力された指令に応じた赤外線光を
リモートコントローラ受信部13に送信する。リモート
コントローラ受信部13は、この赤外線光を受信して受
信信号SIAを生成し、これをコントローラ32に送出
する。マイク11は、ユーザが所望の指令に応じた音声
を発すると、当該ユーザの発した音声を集音して音声信
号SIBを生成し、これをコントローラ32に送出す
る。このようにコマンド受信部30は、ユーザからペッ
トロボット1に与えられる指令に応じて受信信号SIA
及び音声信号SIBでなる指令信号S1を生成し、これ
をコントローラ32に供給する.外部センサ31のタッ
チセンサ14は、ユーザからペットロボット1への働き
かけ、例えば「なでる」、「たたく」等の働きかけを検
出するためのものであり、ユーザが当該タッチセンサ1
4を触れることによって所望の働きかけを行うと、当該
働きかけに応じた接触検出信号S2Aを生成し、これを
コントローラ32に送出する。
The command receiving unit 30 is for receiving a command given by the user to the pet robot 1, for example, a command such as “walk”, “down”, “follow the ball”, etc. And a microphone 11. When a desired command is input by a user's operation, a remote controller (not shown) transmits infrared light corresponding to the input command to the remote controller receiving unit 13. The remote controller receiving unit 13 receives the infrared light, generates a reception signal SIA, and sends it to the controller 32. When the user emits a sound according to a desired command, the microphone 11 collects the sound emitted by the user, generates an audio signal SIB, and sends this to the controller 32. As described above, the command receiving unit 30 receives the signal SIA according to the command given to the pet robot 1 from the user.
And a command signal S1 composed of a voice signal SIB and a controller 32. The touch sensor 14 of the external sensor 31 is for detecting a user's action on the pet robot 1, for example, an action such as “stroking” or “slapping”.
When a desired action is performed by touching 4, a contact detection signal S <b> 2 </ b> A corresponding to the action is generated and transmitted to the controller 32.

【0071】外部センサ31の画像認識部10は、ペッ
トロボット1の周囲の環境を識別した結果、例えば「暗
い」、「お気に入りのおもちゃがある」等の周囲の環境
情報又は例えば「他のペットロボットが走っている」等
の他のペットロボットの動きを検出するためのものであ
り、当該ペットロボット1の周囲の画像を撮影し、その
結果得られる画像信号S2Bをコントローラ32に送出
する。このように外部センサ31は、ペットロボット1
の外部から与えられる外部情報に応じて接触検出信号S
2A及び画像信号S2Bでなる外部情報信号S2を生成
し、これをコントローラ32に送出する。
The image recognizing unit 10 of the external sensor 31 identifies the surrounding environment of the pet robot 1 and, as a result, the surrounding environment information such as “dark”, “there is a favorite toy” or the like. Is running, and the like, and the motion of another pet robot is detected. An image around the pet robot 1 is photographed, and an image signal S2B obtained as a result is sent to the controller 32. As described above, the external sensor 31 is the pet robot 1
Contact detection signal S according to external information given from outside
An external information signal S2 composed of 2A and an image signal S2B is generated and sent to the controller 32.

【0072】内部センサ35は、ペットロボット1自身
の内部状態、例えばバッテリ容量が低下したを意味する
「お腹がすいた」、「熱がある」等の内部状態を検出す
るためのものであり、バッテリセンサ33及び熱センサ
34から構成されている。パッテリセンサ33は、ペッ
トロボット1の各回路に電源を供給するバッテリ21の
残量を検出するためのものであり、その検出した結果で
あるバッテリ容量検出信号S3Aをコントローラ32に
送出する。熱センサ34は、ペットロボット1内部の熱
を検出するためのものであり、その結果として熱検出信
号S3Bをコントローラ32に送出する。このように内
部センサ35は、ペットロボット1の内部の情報に応じ
てバッテリ容量検出信号S3A及び熱検出信号S3Bで
なる内部情報信号S3を生成し、これをコントローラ3
2に送出する。
The internal sensor 35 is for detecting an internal state of the pet robot 1 itself, for example, an internal state such as "hungry" or "heated" meaning that the battery capacity has decreased. It comprises a battery sensor 33 and a heat sensor 34. The battery sensor 33 detects the remaining amount of the battery 21 that supplies power to each circuit of the pet robot 1, and sends a battery capacity detection signal S <b> 3 </ b> A as a result of the detection to the controller 32. The heat sensor 34 is for detecting heat inside the pet robot 1, and as a result, sends a heat detection signal S 3 B to the controller 32. As described above, the internal sensor 35 generates the internal information signal S3 including the battery capacity detection signal S3A and the heat detection signal S3B according to the information inside the pet robot 1, and outputs this to the controller 3.
Send to 2.

【0073】コントローラ32は、コマンド受信部30
から供給される指令信号S1と、外部センサ3lから供
給される外部情報信号S2と、内部センサ35から供給
される内部情報信号S3とに基づいて、各アクチュエー
タ23A〜23Nを駆動させるための制御信号S5A〜
S5Nを生成し、これらをアクチュエータ23A〜23
Nにそれぞれ送出して駆動させることによリペットロボ
ット1を動作させる。
The controller 32 includes a command receiving unit 30
Control signal for driving each of the actuators 23A to 23N based on the command signal S1 supplied from the external sensor 31, the external information signal S2 supplied from the external sensor 31 and the internal information signal S3 supplied from the internal sensor 35. S5A ~
S5N are generated and these are connected to the actuators 23A to 23A.
The lippet robot 1 is operated by sending it out to N and driving it.

【0074】その際コントローラ32は、外部に出力す
るための音声信号S10や画像信号S11を必要に応じ
て生成し、このうち音声信号S10をスピーカl2を介
して外部に出力したり、画像信号S11を画像表示部1
5に送出して所望の画像を表示させたりすることによ
り、ユーザに必要な情報を知らせるようになされてい
る。
At this time, the controller 32 generates an audio signal S10 and an image signal S11 for output to the outside as necessary, and outputs the audio signal S10 to the outside via the speaker 12 or the image signal S11. Image display unit 1
5 to display a desired image to inform the user of necessary information.

【0075】(3)コントローラにおけるデータ処理 ここでコントローラ32におけるデータ処理について説
明する。コントローラ32は、コマンド受信部30から
供給される指令信号S1と、外部センサ31から供給さ
れる外部情報信号S2と、内部センサ35から供給され
る内部情報信号S3とを、所定の記憶領域に予め格納さ
れているプログラムに基づいてソフトウエア的にデータ
処理を施し、その結果得られる制御信号S5をアクチュ
エータ23に供給する。
(3) Data Processing in Controller Here, data processing in the controller 32 will be described. The controller 32 stores the command signal S1 supplied from the command receiving unit 30, the external information signal S2 supplied from the external sensor 31, and the internal information signal S3 supplied from the internal sensor 35 in a predetermined storage area in advance. Data processing is performed by software based on the stored program, and the resulting control signal S5 is supplied to the actuator 23.

【0076】図10に示すように、コントローラ32
は、そのデータ処理の内容を機能的に分類すると、感情
本能モデル変化手段としての感情・本能モデル部40と
動作状態決定手段としての行動決定機構部41と姿勢遷
移手段としての姿勢遷移機構部42と制御機構部43と
を備えている。コントローラ32は、感情・本能モデル
部40を有することにより、入力情報に基づいて当該モ
デルを変化させて、行動及び/又は動作を生成する行動
及び/又は動作生成手段として機能する。また、コント
ローラ32は、成長度合いに応じた成長モデルの情報に
基づいて動作を制御する機能を備えている。
As shown in FIG. 10, the controller 32
When the contents of the data processing are functionally classified, the emotion / instinct model unit 40 as the emotion instinct model changing unit, the action determining mechanism unit 41 as the operation state determining unit, and the posture transition mechanism unit 42 as the posture transition unit And a control mechanism 43. By having the emotion / instinct model unit 40, the controller 32 functions as an action and / or action generation unit that generates an action and / or action by changing the model based on input information. Further, the controller 32 has a function of controlling the operation based on information of a growth model according to the degree of growth.

【0077】このコントローラ32は、外部から供給さ
れる指令信号S1と外部情報信号S2と内部情報信号S
3とを感情・本能モデル部40、感情モデル部、及び行
動決定機構部41に入力する。先ず、感情・本能モデル
部40に関する部分について説明する。
The controller 32 includes a command signal S1, an external information signal S2, and an internal information signal S2 supplied from outside.
Is input to the emotion / instinct model unit 40, the emotion model unit, and the action determination mechanism unit 41. First, a part related to the emotion / instinct model unit 40 will be described.

【0078】図11に示すように、感情・本能モデル部
40は、複数の独立した感情モデルとしての情動ユニッ
ト50A〜50Cでなる基本情動群50と、複数の独立
した欲求モデルとしての欲求ユニット51A〜51Cで
なる基本欲求群51とを有している。基本情動群50の
うち情動ユニット50Aは「うれしさ」という情動を示
すものであり、情動ユニット50Bは「悲しさ」という
情動を結ぶものであり、情動ユニット50Cは「怒り」
という情動を示すものである。
As shown in FIG. 11, the emotion / instinct model section 40 includes a basic emotion group 50 composed of a plurality of independent emotion models 50A to 50C, and a plurality of independent desire models 51A as independent desire models.欲 51C. In the basic emotion group 50, the emotion unit 50A indicates the emotion of "joy", the emotion unit 50B connects the emotion of "sadness", and the emotion unit 50C indicates "anger".
It shows the emotion.

【0079】情動ユニット50A〜50Cは、情動の度
合いを例えば0〜100レベルまでの強度によってそれ
ぞれ表し、供給される指令信号S1、外部情報信号S2
及び内部情報信号S3に基づいて情動の強度をそれぞれ
時々刻々と変化させる。かくして感情・本能モデル部4
0は、時々刻々と変化する情動ユニット50A〜50C
の強度を組み合わせることによりペットロボット1の感
情の状態を表現し、感情の時間変化をモデル化してい
る。
The emotion units 50A to 50C represent the degree of emotion by, for example, intensity from 0 to 100 levels, and are supplied with a command signal S1 and an external information signal S2.
And the intensity of the emotion is changed every moment based on the internal information signal S3. Thus, emotion and instinct model part 4
0 is the emotion unit 50A to 50C that changes every moment
The emotional state of the pet robot 1 is expressed by combining the intensities of the pet robots 1 and the temporal change of the emotion is modeled.

【0080】また、基本欲求群51のうち欲求ユニット
51Aは「食欲」という欲求を示すものであり、欲求ユ
ニット51Bは「睡眠欲」という欲求を示すものであ
り、欲求ユニット51Cは「運動欲」という欲求を示す
ものである。欲求ユニット51A〜51Cは、情動ユニ
ット50A〜50Cと同様に、欲求の度合いを例えば0
〜l00レベルまでの強度によってそれぞれ表し、供給
される指令信号S1と外部情報信号S2と内部情報信号
S3とに基づいて欲求の強度をそれぞれ時々刻々と変化
させる。かくして感情・本能モデル群40は、時々刻々
と変化する欲求ユニット5lA〜51Cの強度を組み合
わせることによりペットロボット1の本能の状態を表現
し、本能の時間変化をモデル化している。
In the basic desire group 51, the desire unit 51A indicates the desire of “appetite”, the desire unit 51B indicates the desire of “sleep desire”, and the desire unit 51C indicates the desire of “exercise desire”. It indicates the desire. The desire units 51A to 51C, like the emotion units 50A to 50C, set the degree of desire to 0, for example.
The strength of desire is represented by the intensity up to the level 100, and the intensity of the desire is changed every moment based on the supplied command signal S1, external information signal S2, and internal information signal S3. Thus, the emotion / instinct model group 40 expresses the state of the instinct of the pet robot 1 by combining the strengths of the desire units 51A to 51C that change from moment to moment, and models the temporal change of the instinct.

【0081】以上のような感情・本能モデル部40は、
指令信号S1と外部情報信号S2と内部情報信号S3と
でなる入力情報S1〜S3に基づいて情動ユニット50
A〜50C及び欲求ユニット5lA〜51Cの強度をそ
れぞれ変化させる。そして、感情・本能モデル部40
は、この変化した情動ユニット50A〜50Cの強度を
組合せることにより感情の状態を決定すると共に、変化
した欲求ユニット51A〜51Cの強度を組み合わせる
ことにより本能の状態を決定し、当該決定された感情及
び本能の状態を感情・本能状態情報S10として行動決
定機構部41に送出する。
The emotion / instinct model section 40 as described above
An emotion unit 50 based on input information S1 to S3 including a command signal S1, an external information signal S2, and an internal information signal S3.
A to 50C and the intensity of the desire units 51A to 51C are respectively changed. And the emotion / instinct model section 40
Determines the state of emotion by combining the strengths of the changed emotion units 50A to 50C, and determines the state of instinct by combining the strengths of the changed desire units 51A to 51C. And the state of the instinct is sent to the action determining mechanism unit 41 as emotion / instinct state information S10.

【0082】図10に戻って、行動決定機構部41は、
指令信号S1と外部情報信号S2と内部情報信号S3と
感情・本能状態情報S10と行動情報S12とでなる入
力情報S14に基づいて次の行動を決定し、当該決定さ
れた行動の内容を行動指令情報Sl6として姿勢遷移機
構部42に送出する。
Returning to FIG. 10, the action determining mechanism section 41
The next action is determined based on the input information S14 including the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct state information S10, and the action information S12, and the content of the determined action is designated as an action command. The information is sent to the posture transition mechanism unit 42 as information S16.

【0083】具体的には、図12に示すように、行動決
定機構部41は、過去に供給された入力情報S14の履
歴を動作状態(以下、これをステートと呼ぶ)で表し、
現在供給された入力情報S14とそのときのステートと
に基づいて当該ステートを別のステートに遷移させるこ
とにより、次の行動を決定するような有限個のステート
を有する有限オートマトン57と呼ばれるアルゴリズム
を用いている。以下、行動決定機構部41において行動
を決定するこのようなアルゴリズムを、行動モデルとい
うことにする。
More specifically, as shown in FIG. 12, the action determining mechanism unit 41 represents the history of the input information S14 supplied in the past as an operating state (hereinafter, this is referred to as a state).
By transitioning the state to another state based on the currently supplied input information S14 and the state at that time, an algorithm called a finite automaton 57 having a finite number of states for determining the next action is used. ing. Hereinafter, such an algorithm that determines an action in the action determination mechanism unit 41 is referred to as an action model.

【0084】このように行動決定機構部41は、入力情
報S14が供給される毎にステートを遷移させ、当該遷
移したステートに応じて行動を決定することにより、現
在の入力情報S14だけでなく過去の入力情報S14も
参照して行動を決定している。
As described above, the action determining mechanism unit 41 changes the state each time the input information S14 is supplied, and determines the action according to the changed state. The action is also determined with reference to the input information S14.

【0085】従って、例えば「ボールを追いかけてい
る」というステートST1において、「ボールが見えな
くなった」という入力情報S14が供給されると、「立
っている」というステートST5に遷移する一方、「寝
ている」というステートST2において、「起きろ」と
いう入力情報S14が供給されると、「立っている」と
いうステートST4に遷移する。このようにこれらステ
ートST4及びステートST5は、行動は同一であって
も過去の入力情報S14の履歴が異なっていることか
ら、ステートも異なっていることが分かる。
Therefore, for example, in the state ST1 of “chasing the ball”, when the input information S14 of “the ball is no longer visible” is supplied, the state transits to the state ST5 of “standing” and “state of sleeping”. When the input information S14 “Get up” is supplied in the state ST2 of “Yes”, the state transits to the state ST4 of “Standing”. As described above, since the states ST4 and ST5 have the same action but different histories of the past input information S14, it can be understood that the states are also different.

【0086】実際上、行動決定機構部41は、所定のト
リガーがあったことを検出すると、現在のステートを次
のステートに遷移させる。トリガーの具体例としては、
例えば現在のステートの行動を実行している時間が一定
値に達した、又は特定の入力情報S14が入力された、
又は感情・本能モデル部40から供給される感情・本能
状態情報S10が示す情動ユニット50A〜50C及び
欲求ユニット51A〜51の強度のうち、所望のユニッ
トの強度が所定の閾値を超えたこと等が挙げられる。
In practice, when the action determining mechanism section 41 detects that a predetermined trigger has been made, it changes the current state to the next state. Specific examples of triggers include:
For example, the time during which the action of the current state is being executed has reached a certain value, or specific input information S14 has been input,
Or, among the strengths of the emotion units 50A to 50C and the desire units 51A to 51 indicated by the emotion / instinct state information S10 supplied from the emotion / instinct model unit 40, the strength of a desired unit exceeds a predetermined threshold. No.

【0087】その際、行動決定機構部41は、感情・本
能モデル部40から供給された感情・本能状態情報S1
0が示す情動ユニット50A〜50C及び欲求ユニット
51A〜51Cの強度のうち、所望のユニットの強度が
所定の閾値を超えているか否かに基づいて遷移先のステ
ートを選択する。これにより行動決定機構部41は、例
えば同一の指令信号Slが入力されても、情動ユニット
50A〜50C及び欲求ユニット51A〜51Cの強度
に応じて異なるステートに遷移するようになされてい
る。
At this time, the behavior determining mechanism 41 transmits the emotion / instinct state information S 1 supplied from the emotion / instinct model 40.
A transition destination state is selected based on whether or not the intensity of a desired unit exceeds a predetermined threshold value among the intensity of the emotion units 50A to 50C and the intensity of the desire units 51A to 51C indicated by 0. As a result, even when the same command signal Sl is input, for example, the action determining mechanism unit 41 transits to different states according to the strengths of the emotion units 50A to 50C and the desire units 51A to 51C.

【0088】従って行動決定機構部41は、供給される
外部情報信号S2を基に例えば目の前に手のひらが差し
出されたことを検出し、かつ感情・本能状態情報S10
を基に「怒り」情動ユニット50Cの強度が所定の閾値
以下であることを検出し、かつ内部情報信号S3を基に
「お腹がすいていない」、すなわも電池電圧が所定の閾
値以上であることを検出すると、目の前に手のひらが差
し出されたことに応じて「おて」の動作を行わせるため
の行動指令情報S16を生成し、これを姿勢遷移機構部
42に送出する。
Therefore, the action determining mechanism section 41 detects, for example, that the palm is inserted in front of the eyes based on the supplied external information signal S2, and outputs the emotion / instinct state information S10.
Is detected that the intensity of the "anger" emotion unit 50C is equal to or lower than a predetermined threshold, and "not hungry" based on the internal information signal S3, that is, when the battery voltage is equal to or higher than the predetermined threshold. When it is detected that there is, the action command information S16 for performing the operation of “front” is generated in response to the palm being put out in front of the eyes, and this is sent to the posture transition mechanism unit 42.

【0089】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以下であり、かつ「お腹がす
いている」すなわち電池電圧が所定の閾値未満であるこ
とを検出すると、「手のひらをぺろぺろなめる」ような
動作を行わせるための行動指令情報S16を生成し、こ
れを姿勢遷移機構部42に送出する。
Further, the action determining mechanism section 41 may, for example, display a palm in front of the eyes, the intensity of the “anger” emotion unit 50C is equal to or lower than a predetermined threshold value, and the “hungry” When detecting that the voltage is lower than the predetermined threshold value, it generates action command information S16 for causing the user to perform an operation such as “palm palm”, and sends the action command information S16 to the posture transition mechanism unit.

【0090】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以上であることを検出する
と、「お腹がすいていない」すなわち電池電圧が所定の
閾値以上であるか否かにかかわらず、「ぷいと横を向
く」ような動作を行わせるための行動指令情報S16を
生成し、これを姿勢遷移機構部42に送出する。
When the action determining mechanism section 41 detects, for example, that the palm is in front of the eyes and that the intensity of the "anger" emotion unit 50C is equal to or higher than a predetermined threshold value, the action determining mechanism section 41 determines that "stomach is not hungry." That is, regardless of whether or not the battery voltage is equal to or higher than a predetermined threshold value, action command information S16 for performing an operation of “turning sideways” is transmitted to the attitude transition mechanism unit 42. I do.

【0091】また、行動決定機構部41は、感情・本能
モデル部40から供給された感情・本能状態情報S10
が示す情動ユニット50A〜50C及び欲求ユニット5
1A〜51Cの強度のうち所望のユニットの強度に基づ
いて、遷移先のステートで行われる行動のパラメータ、
例えば歩行の速度、手足を動かす際の動きの大きさや速
度、音を出す際の音の高さや大きさなどを決定し、当該
行動のパラメータに応じた行動指令情報S16を生成し
て姿勢遷移機構部42に送出するようになされている。
The behavior determining mechanism 41 also includes the emotion / instinct state information S10 supplied from the emotion / instinct model 40.
Emotion units 50A to 50C and desire unit 5 indicated by
Based on the strength of the desired unit among the strengths of 1A to 51C, the parameter of the action performed in the state of the transition destination,
For example, the walking speed, the size and speed of the movement when moving the limbs, the pitch and the size of the sound when making a sound, and the like are determined, and the action command information S16 corresponding to the parameter of the action is generated to generate the posture transition mechanism. The data is sent to the unit 42.

【0092】以上述べたように、行動決定機構部41
は、指令信号S1と外部情報信号S2と内部情報信号S
3と感情・本能状態情報S10と行動情報S12とでな
る入力情報S14に基づいて次の行動を決定している。
そして、この行動決定機構部41は、成長モデルに応じ
て行動を決定している。
As described above, the action decision mechanism 41
Is a command signal S1, an external information signal S2, and an internal information signal S
The next action is determined based on the input information S14 including the information 3 and the emotion / instinct state information S10 and the action information S12.
The action determining mechanism 41 determines an action according to the growth model.

【0093】コントローラ32における成長モデルは、
ペットロボット1があたかも本物の動物が「成長」する
かのごとく行動及び動作を変化させるようなモデルであ
る。
The growth model in the controller 32 is as follows:
This is a model in which the pet robot 1 changes its behavior and movement as if a real animal “grows up”.

【0094】具体的には、ペットロボット1は、成長モ
デルにより、「幼年期」、「少年期」、「青年期」及び
「成人期」の4つの「成長段階」に応じて行動や動作を
行うようになされている。コントローラ32のメモリ3
2Aには、これら各「成長段階」ごとに、「歩行状
態」、「モーション(動き)」、「行動」及び「サウン
ド(鳴き声)」の4つの項目に関する行動及び動作の基
礎となる成長モデルの情報が予め格納されている。
[0094] Specifically, the pet robot 1 uses a growth model to perform actions and actions according to four "growth stages" of "childhood", "childhood", "adolescence", and "adult". Has been made to do. Memory 3 of controller 32
2A shows, for each of these “growth stages”, a growth model that is the basis of the behavior and motion related to the four items of “walking state”, “motion”, “action”, and “sound”. Information is stored in advance.

【0095】そして、成長モデルでは、「成長段階」に
応じて「幼年期」、「少年期」、「青年期」及び「成人
期」というように遷移させて、それに対応する行動及び
動作をペットロボット1がするようになされている。
[0095] In the growth model, transitions such as "childhood", "childhood", "adolescence" and "adult" are made in accordance with the "growth stage", and actions and actions corresponding to the transition are defined as pets. The robot 1 is made to do so.

【0096】成長モデルは、具体的には、「幼年期」、
「少年期」、「青年期」及び「成人期」の成長段階毎に
上述したような行動モデルを備えるものであって、各成
長段階に応じた行動モデルが選択されることにより成長
に応じた行動を行うようになされている。例えば、行動
モデルの「成長段階」による違いは、行動や動作の難易
度や煩雑さなどによって表現している。具体的には、以
下のようになる。
The growth model specifically includes “childhood”,
A behavior model as described above is provided for each of the growth stages of "childhood", "adolescence", and "adult", and the behavior model according to each growth stage is selected, so Action has been taken. For example, the difference between the behavior models depending on the “growth stage” is expressed by the difficulty or complexity of the behavior or the motion. Specifically, it is as follows.

【0097】コントローラ32は、初期時には「幼年
期」の行動モデルに従って、例えば「歩行状態」につい
ては歩幅を小さくするなどして「よちよち歩き」となる
ように、「モーション」については単に「歩く」、「立
つ」、「寝る」程度の「単純」な動きとなるように、
「行動」については同じ行動を繰り返し行うようにする
などして「単調」な行動となるように、また「サウン
ド」については音声信号S6の増幅率を低下させるなど
して「小さく短い」鳴き声となるように、各アクチュエ
ータ23A〜23N及び音声出力を制御する。
At the initial stage, the controller 32 simply follows the behavior model of “childhood”, for example, “walks” by reducing the stride for “walking state”, and simply “walks” for “motion”. , "Stand", "sleep", "simple" movement,
For "action", the same action is repeatedly performed so as to be a "monotonous" action. For "sound", the amplification rate of the audio signal S6 is reduced and the "small and short" squeal is called. Each of the actuators 23A to 23N and the audio output are controlled so as to achieve the above.

【0098】また、この際コントローラ32は、サウン
ドコマンダ(リモートコントローラ)を用いた指令入力
と、「なでる」及び「たたく」に該当するタッチセンサ
14を介してのセンサ入力及び決められた行動及び動作
の成功回数などでなる強化学習と、「なでる」及び「た
たく」に該当しないタッチセンサ14を介してのセンサ
入力と、「ボールで遊ぶ」などの所定の行動及び動作と
などの予め決められた「成長」に関与する複数の要素
(以下、これらを成長要素という。)について、その発
生を常時監視してカウントする。
At this time, the controller 32 receives a command input using a sound commander (remote controller), a sensor input via the touch sensor 14 corresponding to “stroke” and “slap”, and determined actions and actions. And a predetermined action such as "playing with a ball" and a predetermined action such as "playing with a ball". For a plurality of elements involved in “growth” (hereinafter referred to as “growth elements”), the occurrence is constantly monitored and counted.

【0099】成長要素の累積度数が、成長度合いを示す
情報となり、コントローラ32は、各成長要素の累積度
数の合計値(以下、成長要素の総合経験値という。)が
予め設定された閾値を越えると、使用する行動モデルを
「幼年期」の行動モデルよりも成長レベル(行動や動作
の難易度や煩雑さなどのレベル)が高い「少年期」の行
動モデルに変更する。
The cumulative frequency of the growth element becomes information indicating the degree of growth, and the controller 32 determines that the total value of the cumulative frequency of each growth element (hereinafter referred to as the total experience value of the growth element) exceeds a preset threshold. Then, the behavior model to be used is changed to the behavior model of "boyhood" having a higher growth level (the level of difficulty or complexity of behavior and movement) than the behavior model of "childhood".

【0100】そして、コントローラ32は、今後この
「少年期」の行動モデルに従って、例えば「歩行状態」
については各アクチュエータ23A〜23Nの回転速度
を速くするなどして「少しはしっかり」と歩くように、
「モーション」については動きの数を増加させるなどし
て「少しは高度かつ複雑」な動きとなるように、「行
動」については前の行動を参照して次の行動を決定する
ようにするなどして「少しは目的」をもった行動となる
ように、また「サウンド」については音声信号S6の長
さを延ばしかつ増幅率を上げるなどして「少しは長く大
きい」鳴き声となるように、各アクチュエータ23A〜
23Nやスピーカ12からの音声出力を制御する。
[0100] Then, in accordance with the behavior model of the "childhood", the controller 32, for example, "walking state"
About to walk "a little firmly" by increasing the rotation speed of each of the actuators 23A to 23N,
For "motion", increase the number of movements, etc. to make it a "slightly advanced and complicated" movement, and for "action", refer to the previous action to determine the next action, etc. In order to behave with "a little purpose", and to make "sound" a "slightly long and loud" cry by extending the length of the audio signal S6 and increasing the amplification factor, Each actuator 23A ~
The audio output from the speaker 23N and the speaker 12 is controlled.

【0101】これと同様にして、コントローラ32は、
この後、成長要素の総合経験値が「青年期」や「成人
期」にそれぞれ対応させて予め設定された各閾値を越え
るごとに、行動モデルをより「成長段階」の高い「青年
期」又は「成人期」の行動モデルに順次変更し、当該行
動モデルに従って各アクチュエータ23A〜23Nの回
転速度やスピーカ12に与える音声信号S10の長さや
増幅率を徐々に上げたり、1つの動作を行う際の各アク
チュエータ23A〜23Nの回転量などを変化させる。
In the same manner, the controller 32
Thereafter, each time the total experience value of the growth factor exceeds each threshold value set in advance corresponding to “adolescence” or “adult”, the behavior model is changed to “adolescence” or “adolescence” with a higher “growth stage”. When the behavior model is sequentially changed to the behavior model of "adult", the rotation speed of each of the actuators 23A to 23N, the length and the amplification factor of the audio signal S10 given to the speaker 12 are gradually increased, and one operation is performed. The amount of rotation of each of the actuators 23A to 23N is changed.

【0102】ここで、各アクチュエータ23A〜23N
等の動作部について、「成長段階」に応じて位置制御特
性や通過位置情報を変更することにより、ペットロボッ
ト1は、成長レベルに応じた行動及び動作をとるように
なる。
Here, each of the actuators 23A to 23N
By changing the position control characteristics and the passing position information according to the “growing stage” for the operating unit such as, the pet robot 1 takes an action and an operation according to the growth level.

【0103】以上のような成長モデルにより行動及び動
作を決定することにより、ペットロボット1は、「成長
段階」が上がる(すなわち「幼年期」から「少年期」、
「少年期」から「青年期」、「青年期」から「成人期」
に変化する。)に従って、「歩行状態」が「よちよち歩
き」から「しっかりした歩き」に、「モーション」が
「単純」から「高度・複雑」に、「行動」が「単調」か
ら「目的をもって行動」に、かつ「サウンド」が「小さ
く短い」から「長く大きい」に段階的に変化するように
なる。
By deciding the behavior and the motion by the growth model as described above, the pet robot 1 can increase the “growth stage” (ie, from “childhood” to “childhood”,
From childhood to adolescence, from adolescence to adulthood
Changes to ), The “walking state” changes from “toddling” to “steady walking”, the “motion” changes from “simple” to “altitude / complexity”, the “action” changes from “monotonous” to “action with purpose” In addition, the “sound” gradually changes from “small and short” to “long and large”.

【0104】このようなマイクロコンピュータ32にお
ける成長モデルによる行動の決定は、具体的には、図1
3に示すように、「成長段階」を制御する成長段階制御
機構部71によりなされてている。
The determination of the behavior by the growth model in the microcomputer 32 is specifically described in FIG.
As shown in FIG. 3, the process is performed by a growth stage control mechanism 71 that controls the “growth stage”.

【0105】ここで、コントローラ32において、成長
段階制御機構部71の前段の状態認識機構部72は、マ
イク11、画像認識部10及びタッチセンサ14から与
えられる入力信号S1〜S3に基づいて、特定の状態
や、ユーザからの特定の働きかけ及びユーザからの指示
等を検出及び認識する機能を有している。
Here, in the controller 32, the state recognition mechanism 72 preceding the growth stage control mechanism 71 specifies the identification based on the input signals S1 to S3 supplied from the microphone 11, the image recognition unit 10 and the touch sensor 14. It has a function of detecting and recognizing the state of the user, a specific action from the user, an instruction from the user, and the like.

【0106】具体的には、状態認識機構部72は、マイ
ク11から与えられる音声信号S1Bを常時監視し、当
該音声信号S1Bのスペクトラムとして「歩け」、「伏
せ」、「ボールを追いかけろ」等の指令に応じてサウン
ドコマンダから出力される指令音と同じ音階のスペクト
ラムを検出したときにはその指令が与えられたと認識す
る。そして、状態認識機構部72は、このような認識結
果を、状態認識情報として、成長段階制御機構部71及
び行動決定機構部41に通知する。
More specifically, the state recognizing mechanism 72 constantly monitors the audio signal S1B given from the microphone 11, and uses the spectrum of the audio signal S1B such as "walk", "down", "follow the ball", and the like. When a spectrum of the same scale as the command sound output from the sound commander is detected in response to the command, it is recognized that the command has been given. Then, the state recognition mechanism unit 72 notifies the growth stage control mechanism unit 71 and the action determination mechanism unit 41 of such a recognition result as state recognition information.

【0107】また、状態認識機構部72は、CCDカメ
ラ16から与えられる画像信号S11を常時監視し、当
該画像信号S11に基づく画像内に例えば「赤い丸いも
の」や「地面に対して垂直なかつ所定高さ以上の平面」
を検出したときには「ボールがある」、「壁がある」と
認識して、当該認識結果を成長段階制御機構部71及び
行動決定機構部41に通知する。
The state recognizing mechanism 72 constantly monitors the image signal S11 supplied from the CCD camera 16, and includes, for example, a “red round object” or a “vertical and perpendicular to the ground” in the image based on the image signal S11. Plane above height "
Is detected, "there is a ball" and "there is a wall", and the recognition result is notified to the growth stage control mechanism 71 and the action determination mechanism 41.

【0108】また、状態認識機構部72は、タッチセン
サ14から与えられる接触検出信号S2Aを常時監視
し、当該接触検出信号S2Aに基づいて所定の閾値以上
のかつ短時間(例えば2秒未満)の圧力を検出したとき
には「たたかれた(しかられた)」と認識し、所定の閾
値未満のかつ長時間(例えば2秒以上)の圧力を検出し
たときには「なでられた(ほめられた)」と認識して、
これら認識結果を成長段階制御機構部71及び行動決定
機構部41に通知する。
The state recognizing mechanism 72 constantly monitors the contact detection signal S2A given from the touch sensor 14, and based on the contact detection signal S2A, detects a contact detection signal S2A that is equal to or greater than a predetermined threshold value and short (for example, less than 2 seconds) When the pressure is detected, it is recognized as “hit”, and when the pressure is detected below a predetermined threshold value and for a long time (for example, 2 seconds or more), “patched (praised)”. "
The recognition results are notified to the growth stage control mechanism 71 and the action determination mechanism 41.

【0109】行動決定機構部41では、上述したように
各情報に基づいて行動を決定する。一方、成長段階制御
機構部71は、この状態認識機構部72の認識結果に基
づいて成長レベルを制御する。
The action determining mechanism 41 determines an action based on each information as described above. On the other hand, the growth stage control mechanism 71 controls the growth level based on the recognition result of the state recognition mechanism 72.

【0110】成長段階制御機構部72は、具体的には、
図14中(A)に示すように、状態認識機構部72から
与えられる認識結果である状態認識情報S21に基づく
各種状態のうち、「成長段階」を上げる際の参考要素と
すべき上述の成長要素のリスト(以下、第1の成長要素
リストという。)T1Aと、これら成長要素の累積度数
をそれぞれ計数するための図14中(B)のようなカウ
ンタテーブル(以下、第1の成長要素カウンタテーブル
という。)T1Aとをメモリ32A内に有している。
Specifically, the growth stage control mechanism 72 includes:
As shown in FIG. 14A, among the various states based on the state recognition information S21 which is the recognition result given from the state recognition mechanism unit 72, the above-described growth which should be a reference element when raising the "growth stage" A list of elements (hereinafter referred to as a first growth element list) T1A and a counter table (hereinafter referred to as a first growth element counter) as shown in FIG. 14B for counting the cumulative frequencies of these growth elements, respectively. This is called a table.) T1A is provided in the memory 32A.

【0111】そして、成長段階制御機構部71は、状態
認識機構部72から状態認識情報S21が与えられる
と、当該状態認識情報S21により得た状態が成長要素
か否かを第1の成長要素リストT1Aに基づいて判断
し、当該状態が成長要素である場合には第1の成長要素
カウンタテーブルT1A内の対応するカウント値(経験
値)を1つ増加させる。
When the state recognition information S21 is given from the state recognition mechanism 72, the growth stage control mechanism 71 determines whether the state obtained by the state recognition information S21 is a growth element or not in the first growth element list. Judgment is made based on T1A, and if the state is a growth element, the corresponding count value (experience value) in the first growth element counter table T1A is increased by one.

【0112】さらに、成長段階制御機構部71は、図1
5中(A)に示すように、上述のように行動決定機構部
72から与えられる行動指令情報S16に基づき得られ
る行動のうち、「成長段階」を上げる際の参考要素とす
べき上述の成長要素のリスト(以下、第2の成長要素リ
ストという。)T1Bと、これら成長要素の累積度数を
それぞれ計数するための図15中(B)のようなカウン
タテーブル(以下、第2の成長要素カウンタテーブルと
いう。)T2Bとをメモリ32A内に有している。そし
て、成長段階制御機構部71は、行動決定機構部41か
ら行動指令情報S16が与えられると、当該行動指令情
報S16に基づき得られる行動が成長要素か否かを第2
の成長要素リストT1Bに基づいて判断し、当該行動が
成長要素である場合には第2の成長要素カウンタテーブ
ルT2B内の対応するカウント値(経験値)を1つ増加
させる。
Further, the growth stage control mechanism section 71
As shown in (A) of FIG. 5, among the actions obtained based on the action command information S16 given from the action determination mechanism section 72 as described above, the above-described growth to be used as a reference element when raising the “growth stage” A list of elements (hereinafter, referred to as a second growth element list) T1B and a counter table (hereinafter, referred to as a second growth element counter) as shown in FIG. The table T2B is stored in the memory 32A. Then, when given the action command information S16 from the action determination mechanism section 41, the growth stage control mechanism section 71 determines whether or not the action obtained based on the action command information S16 is a growth element.
Is determined based on the growth element list T1B, and when the action is a growth element, the corresponding count value (experience value) in the second growth element counter table T2B is increased by one.

【0113】さらに、成長段階制御機構部71は、上述
のように第1又は第2の成長要素カウンタテーブルT2
A,T2B内のカウント値を増加させたときには、第1
及び第2の成長要素カウンタテーブルT2A,T2Bと
は別に用意した「成長段階」を上げるか否かを判定する
ためのカウンタ(以下、総合経験値カウンタという。)
のカウント値を1増加させ、この後当該総合経験値カウ
ンタのカウント値が現在の「成長段階」の終了条件とし
て予め設定されたカウント値に達したか否かを判断す
る。
Further, as described above, the growth stage control mechanism 71 performs the first or second growth element counter table T2.
When the count value in A, T2B is increased, the first
And a counter for determining whether to increase the “growth stage” prepared separately from the second growth element counter tables T2A and T2B (hereinafter referred to as a total experience value counter).
Then, it is determined whether or not the count value of the total experience value counter has reached a count value set in advance as a termination condition of the current “growth stage”.

【0114】そして、成長段階制御機構部71は、総合
経験値カウンタのカウント値が現在の「成長段階」の終
了条件として予め設定されたカウント値に達した場合に
は、行動モデルを次の「成長段階」内のいずれの行動モ
デルに遷移させるかを第1及び第2の成長要素カウンタ
テーブルT2A、T2B内の各カウント値に基づいて決
定し、決定結果を行動決定機構部41及び姿勢遷移機構
部42に通知する。
When the count value of the total experience value counter reaches the count value set in advance as the end condition of the current “growth stage”, the growth stage control mechanism 71 changes the behavior model to the next “ Which of the behavior models in the "growth stage" is to be transitioned is determined based on each count value in the first and second growth element counter tables T2A and T2B, and the decision result is determined by the behavior determination mechanism unit 41 and the posture transition mechanism. Notify the section 42.

【0115】行動決定機構部41では、成長段階制御機
構部71からの通知に基づいて、現在の成長段階の行動
モデルにおいて行動を決定して、行動指令情報S16を
姿勢遷移機構部42に送出する。
The action determining mechanism 41 determines an action in the action model of the current growth stage based on the notification from the growth stage control mechanism 71, and sends the action command information S16 to the posture transition mechanism 42. .

【0116】図10に戻って、姿勢遷移機構部42は、
行動決定機構部41から供給される行動指令情報S16
に基づいて現在の姿勢から次の姿勢に遷移させるための
姿勢繊維情報S18を生成し、これを制御機構部43に
送出する。この場合、現在の姿勢から次に遷移可能な姿
勢は、例えば胴体や手や足の形状、重さ、各部の結合状
態のようなペットロボット1の物理的形状と、例えば関
節が曲がる方向や角度のようなアクチュエータ23A〜
23Nの機構とによって決定される。
Returning to FIG. 10, the posture transition mechanism section 42
Action command information S16 supplied from the action determination mechanism unit 41
Based on the above, posture fiber information S18 for transitioning from the current posture to the next posture is generated and transmitted to the control mechanism unit 43. In this case, the posture that can be changed next from the current posture is, for example, the physical shape of the pet robot 1 such as the shape and weight of the body, hands and feet, and the connection state of each part, and the direction and angle at which the joint bends, for example. Actuators 23A ~
23N mechanism.

【0117】ところで、このような遷移可能な姿勢は、
現在の姿勢から直接遷移可能な姿勢と直接には遷移でき
ない姿勢とに分類される。例えば4本足のペットロボッ
ト1は、手足を大きく投げ出して寝転んでいる状態から
伏せた状態へ直接遷移することはできるが、立った状態
へ直接遷移することはできず、一旦手足を胴体近くに引
き寄せて伏せた姿勢になり、それから立ち上がるという
2段階の動作が必要である。また、安全に実行できない
姿勢も存在する。例えば4本足のペットロボット1は、
立っている姿勢で両前足を挙げてバンザイをしようとす
ると、簡単に転倒してしまう場合である。
By the way, such a posture in which the transition is possible is as follows.
It is classified into a posture that can directly transition from the current posture and a posture that cannot directly transition. For example, a four-legged pet robot 1 can directly transition from a lying down state to a lying down state by throwing out a large limb, but cannot directly transition to a standing state. It is necessary to perform a two-stage operation of pulling down to a prone position and then standing up. There are also postures that cannot be safely executed. For example, a four-legged pet robot 1
If you try to banzai with both forelimbs in a standing position, you may fall easily.

【0118】従って姿勢遷移機構部42は、遷移可能な
姿勢を予め登録しておき、行動決定機構部41から供給
された行動指令情報S16が直接遷移可能な姿勢を示す
場合には、当該行動指令情報S16をそのまま姿勢遷移
情報S18として制御機構部43に送出する一方、直接
遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢
に―旦遷移した後に目的の姿勢まで遷移させるような姿
勢遷移情報S18を生成して制御機構部43に送出す
る。これによりペットロボット1は、遷移不可能な姿勢
を無理に実行しようとする事態や転倒するような自体を
回避することができる。
Therefore, the posture transition mechanism unit 42 registers in advance the transitionable posture, and when the behavior command information S16 supplied from the behavior determination mechanism unit 41 indicates the directly translatable posture, the behavior command While the information S16 is sent as it is to the control mechanism unit 43 as the posture transition information S18, if it indicates a posture that cannot be directly transited, a transition to another possible posture is performed, and then a transition to the target posture is performed. The posture transition information S18 is generated and sent to the control mechanism unit 43. Thereby, the pet robot 1 can avoid a situation in which the pet robot 1 forcibly executes an untransitionable posture or a situation in which the pet robot 1 falls down.

【0119】具体的には姿勢遷移機構部42は、ペット
ロボット1がとり得る姿勢を予め登録すると共に、遷移
可能な2つの姿勢の間を記録しておくようになされてい
る。例えば図16に示すように、姿勢遷移機構部42
は、ペットロボット1がとり得る姿勢をノードND1
ND5で表すと共に、遷移可能な2つの姿勢の間すなわ
ちノードND1〜ND5間を有向アークa1〜a10で結合
した有向グラフ60と呼ばれるアルゴリズムを用いてい
る。
More specifically, the posture transition mechanism 42 registers in advance the postures that the pet robot 1 can take, and records between the two postures that can be transitioned. For example, as shown in FIG.
Is the attitude the pet robot 1 can take node ND 1 ~
Together represented by ND 5, and using an algorithm called a directed graph 60 bound a directed arc a 1 ~a 10 during i.e. between node ND 1 to ND 5 transition possible two postures.

【0120】姿勢遷移機構部42は、行動決定機構部4
1から行動指令情報S16が供給されると、現在の姿勢
に対応したノードNDと、行動指令情報S16が示す次
に取るべき姿勢に対応するノードNDとを結ぶように、
有向アークaの向きに従いながら現在のノードNDから
次のノードNDに至る経路を探索し、当該探索した経路
上にあるノードNDを順番に記録することにより、姿勢
遷移の計画を行うようになされている。これによリペッ
トロボット1は、遷移不可能な姿勢を無理に実行しよう
とする事態や転倒するような事態を回避しながら、行動
決定機構部41から指示された行動を実現することがで
きる。
The posture transition mechanism section 42 includes the action determination mechanism section 4
When the action command information S16 is supplied from No. 1, the node ND corresponding to the current attitude and the node ND corresponding to the next attitude to be taken indicated by the action command information S16 are connected.
A route from the current node ND to the next node ND is searched for while following the direction of the directed arc a, and the nodes ND on the searched route are recorded in order to plan the posture transition. ing. Thereby, the lippet robot 1 can realize the behavior instructed by the behavior determination mechanism unit 41 while avoiding a situation in which the posture that cannot be transitioned is forcibly executed or a situation in which the robot falls down.

【0121】姿勢遷移機構部42は、例えば現在の姿勢
が「ふせる」という姿勢を示すノードND2にある場
合、「すわれ」という行動指令情報S16が供給される
と、「ふせる」という姿勢を示すノードND2から「す
わる」という姿勢を示すノードND5へは直接遷移可能
であることを利用して、「すわれ」という姿勢遷移情報
SI8を制御機構部43に与える。これに対して姿勢遷
移機構部42は、「歩け」という行動指令情報S16が
供給されると、「ふせる」というノードND2から「あ
るく」というノードND4に至る経路を探索することに
より姿勢遷移計画を行い、その結果、「たて」という指
示を出した後に「歩け」という指示を出すような行動指
令情報S18を生成して制御機構部43に送出する。
For example, when the current posture is at the node ND 2 indicating the posture of “turn off”, the action transition information unit 42 changes the posture of “turn off” when the action command information S16 of “close” is supplied. is to the node ND 5 indicating the posture of "sitting" from the node ND 2 indicating utilizing that it is possible transition directly gives attitude transition information SI8 of "sit" to the control mechanism unit 43. On the other hand, when the action command information S16 of “walking” is supplied, the posture transition mechanism unit 42 searches for a route from the node ND 2 of “disabled” to the node ND 4 of “aruku” to thereby determine the posture. A transition plan is made, and as a result, action command information S18 that issues an instruction “walk” after issuing an instruction “vertical” is generated and transmitted to the control mechanism unit 43.

【0122】図10に戻って制御機構部43は、行動指
令情報S18を基にアクチュエータ23を駆動させるた
めの制御信号S5を生成し、これをアクチュエータ23
に送出して当該アクチュエー夕23を駆動させることに
より、ペットロボット1に所望の動作を行わせるように
なされている。
Returning to FIG. 10, the control mechanism section 43 generates a control signal S5 for driving the actuator 23 based on the action command information S18, and
To drive the actuator 23 to cause the pet robot 1 to perform a desired operation.

【0123】具体的には、制御機構部43が行うアクチ
ュエータ23の制御は、位置情報に基づいてなされる。
位置情報は、上述したように通過位置情報からなるもの
であり、制御機構部43は、この通過位置情報に基づい
て動作部を動作させることで、行動指令情報S18によ
り指令された動作を再生する。ここで、動作を再生する
ための位置情報は、予め記憶手段に記憶されているもの
であって、例えば、上述のアークに対応されて記憶され
ている。
Specifically, the control of the actuator 23 performed by the control mechanism 43 is performed based on the position information.
The position information is composed of the passing position information as described above, and the control mechanism unit 43 reproduces the operation commanded by the action command information S18 by operating the operation unit based on the passing position information. . Here, the position information for reproducing the operation is previously stored in the storage means, and is stored, for example, corresponding to the above-mentioned arc.

【0124】そして、制御機構部43は、動作の種類に
応じて、位置制御の制御特性を変更したり、すなわち制
御信号S5のPゲインを変更してアクチュエータ23の
動作を制御したり、或いは通過位置情報の変更により、
すなわち通過位置情報の数を変更した制御信号S5によ
りアクチュエータ23の動作を制御したりする。
The control mechanism 43 changes the control characteristics of the position control in accordance with the type of operation, that is, controls the operation of the actuator 23 by changing the P gain of the control signal S5, or controls the operation of the actuator 23. Due to changes in location information,
That is, the operation of the actuator 23 is controlled by the control signal S5 in which the number of the passing position information is changed.

【0125】すなわち、例えば、「少年期」における歩
行動作については、足の関節のアクチュエータの位置制
御を通常のPゲインにより行い、「幼年期」における歩
行動作においては、Pゲインを大きくする。これによ
り、ペットロボット1は、「幼年期」においては、生後
間もない犬のような歩行動作となり、年齢に応じた歩行
動作となる。
That is, for example, in the walking operation in the "childhood", the position control of the actuator of the ankle joint is performed by the ordinary P gain, and in the walking operation in the "childhood", the P gain is increased. As a result, the pet robot 1 performs a walking operation like a newborn dog in the “childhood”, and performs a walking operation according to the age.

【0126】また、「歩行動作」についてのオリジナル
の位置情報について、目標位置を増やすことで歩行速度
を遅くしたり、目標位置を減らすことで歩行速度を速く
したりする。
For the original position information on the “walking operation”, the walking speed is reduced by increasing the target position, and the walking speed is increased by decreasing the target position.

【0127】また、本能モデルに基づいても、制御特性
や通過位置情報を変更することもできる。例えば、バッ
テリ容量が低下により「お腹がすいた」を検出したり、
或いは内部の熱の上昇により「熱がある」を検出した場
合には、通過位置情報の数を増加させる。これにより、
緩慢な動作となり、空腹の状態や病気の状態を表現する
ことができるようになる。
Further, even based on the instinct model, control characteristics and passing position information can be changed. For example, detecting "hungry" due to low battery capacity,
Alternatively, when “there is heat” is detected due to an increase in internal heat, the number of passing position information is increased. This allows
It becomes a slow motion and can express a hungry state or a sick state.

【0128】このように、各モデルに応じてオリジナル
の位置情報について位置制御特性や通過位置情報を変更
することで、制御機構部43が姿勢遷移情報S18に基
づいて生成する動作を、オリジナルの位置情報を変更し
ただけで現実的なものにすることができるようになる。
As described above, by changing the position control characteristics and the passing position information for the original position information according to each model, the operation of the control mechanism 43 generating based on the posture transition information S18 can be changed to the original position information. Just changing the information will make it more realistic.

【0129】(4)動作及び効果 以上の構成において、コントローラ32の感情・本能モ
デル部40は、供給される入力情報S1〜S3に基づい
て、ペットロボット1の感情及び本能の状態を変化さ
せ、この感情及び本能の状態の変化をペットロボット1
の行動に反映させることにより、自分の感情や本能の状
態に基づいて自律的に行動させる。
(4) Operation and Effect In the above configuration, the emotion / instinct model unit 40 of the controller 32 changes the emotion and instinct of the pet robot 1 based on the supplied input information S1 to S3. This change in emotions and instinct states is
By reflecting on his / her behavior, he / she acts autonomously based on his / her emotions and instinct.

【0130】また、コントローラ32の成長モデルは、
ペットロボット1の成長度合いを変化させ、この成長度
合いの変化をペットロボット1の行動に反映させること
により、自分の成長度合いに基づいて自律的に行動させ
る。
The growth model of the controller 32 is as follows:
By changing the degree of growth of the pet robot 1 and reflecting the change in the degree of growth on the behavior of the pet robot 1, the pet robot 1 can behave autonomously based on its own degree of growth.

【0131】また、コントローラ32の行動決定機構部
41は、順次供給される入力情報S14の履歴に応じた
現在のステート及び次に供給される入力情報S14に基
づいて現在のステートに続く次のステートを決定するこ
とにより、自分の感情や本能の状態に基づいて自律的に
行動させる。
The action determining mechanism 41 of the controller 32 determines the current state according to the history of the sequentially supplied input information S14 and the next state following the current state based on the next supplied input information S14. Is determined to make the person act autonomously based on their emotions and instinct status.

【0132】コントローラ32の姿勢遷移機構部42
は、ペットロボット1の現在の姿勢から予め決められた
所定の経路を経て現在の姿勢を変化させて行動指令情報
S16に応じた姿勢に遷移させることにより、無理な姿
勢をとらせるような事態や転倒するような事態を回避す
る。
The posture transition mechanism 42 of the controller 32
Is a case where the current posture of the pet robot 1 is changed through a predetermined route and is changed to a posture corresponding to the action command information S16, so that an unreasonable posture is taken. Avoid falling over.

【0133】以上の構成によれば、コントローラ32に
対する入力情報S1〜S3に基づいてペットロボット1
の成長レベル毎に感情及び本能の状態を変化させ、この
感情及び本能の状態の変化を基にペットロボット1の行
動を決定し、当該決定した行動に応じて遷移可能な姿勢
を選択してペットロボット1を動作させることにより、
自分の感情や本能の状態或いは成長の度合いに基づいて
自律的に行動することができ、かくして本物のペットに
近い動作を行うペットロボット1を実現できる。
According to the above configuration, the pet robot 1 is controlled based on the input information S1 to S3 to the controller 32.
The state of the emotion and the instinct is changed for each growth level of the pet, and the behavior of the pet robot 1 is determined based on the change of the state of the emotion and the instinct. By operating the robot 1,
It is possible to autonomously act on the basis of one's own emotions, instinct status, or degree of growth, thus realizing a pet robot 1 that performs an action similar to a real pet.

【0134】そして、オリジナルの位置情報から、多く
の動作を生成することができるので、ペットロボット1
の動作を、保持する情報を少なくしながら、多彩なもの
として表現することできる。
Since many motions can be generated from the original position information, the pet robot 1
Can be expressed as a variety of operations while holding less information.

【0135】(5)他の実施の形態 上述の実施の形態においては、「うれしさ」、「悲し
さ」、「怒り」という情動を示す情動ユニット50A〜
50Cと、「食欲」、「睡眠欲」、「運動欲」という欲
求を示す欲求ユニット51A〜51Cとを用いて感情及
び本能の状態を決定するようにした場合について述べた
が、本発明はこれに限らず、例えば情動ユニット50A
〜50Cに「寂しさ」という情動を示す情動ユニットを
追加したり、欲求ユニット51A〜51Cに「愛情欲」
という欲求を示す欲求ユニットを追加しても良く、この
他種々の種類や個数の組合わせでなる情動ユニットや欲
求ユニットを使って感情や本能の状態を決定するように
しても良い。
(5) Other Embodiments In the above-described embodiment, the emotion units 50A to 50E exhibiting the emotions of "joy", "sadness", and "anger".
Although the case where the emotion and the instinct state are determined using 50C and the desire units 51A to 51C indicating the desires of “appetite”, “sleep desire” and “exercise desire” has been described, the present invention The emotion unit 50A
Add an emotion unit that shows the emotion of "loneliness" to 50C, and add "love lust" to the desire units 51A to 51C.
May be added, or emotional and instinct states may be determined using emotional units and desire units of various types and combinations.

【0136】また、上述の実施の形態においては、有限
オートマトン57と呼ばれるアルゴリズムを用いて次の
行動を決定した場合について述べたが、本発明はこれに
限らず、ステートの数が有限でないステートマシンと呼
ばれるアルゴリズムを用いて行動を決定するようにして
も良く、この場合、入力情報Sl4が供給される毎に新
たにステートを生成し、当該生成したステートに応じて
行動を決定すれば良い。
Further, in the above-described embodiment, the case where the next action is determined using an algorithm called finite automaton 57 has been described. However, the present invention is not limited to this, and the state machine in which the number of states is not finite is described. The action may be determined using an algorithm referred to as an algorithm. In this case, a new state may be generated each time the input information S14 is supplied, and the action may be determined according to the generated state.

【0137】また上述の実施の形態においては、有限オ
ートマトン57と呼ばれるアルゴリズムを用いて次の行
動を決定した場合について述ベたが、本発明はこれに限
らず、現在供給された入力情報S14とそのときのステ
ートとに基づいて複数のステートを遷移先の候補として
選定し、当該選定された複数のステートのうち遷移先の
ステートを乱数によってランダムに決定するような確率
有限オートマトンと呼ばれるアルゴリズムを用いて行動
を決定するようにしても良い。
In the above-described embodiment, the case where the next action is determined using an algorithm called finite automaton 57 has been described. However, the present invention is not limited to this. Based on the state at that time, a plurality of states are selected as transition destination candidates, and an algorithm called a stochastic finite state automaton is used in which a transition destination state among the selected plurality of states is randomly determined by a random number. The action may be determined by using

【0138】また、上述の実施の形態においては、「成
長」に伴って変更する項目を「歩行状態」、「モーショ
ン」、「行動」及び「サウンド」の4つにするようにし
た場合について述べたが、本発明はこれに限らず、これ
以外の項目を「成長」に伴って変化させるようにしても
良い。
Further, in the above-described embodiment, a case has been described in which four items of “walking state”, “motion”, “action”, and “sound” are changed according to “growth”. However, the present invention is not limited to this, and other items may be changed along with “growth”.

【0139】また、上述の実施の形態においては、成長
モデルにおいて「少年期」、「青年期」及び「成人期」
の各「成長段階」について1つの行動モデルを用意した
場合について述べたが、本発明はこれに限定されず、各
「成長段階」についてそれぞれ複数の行動モデルが用意
して、同一の成長段階において異なる性格の行動をする
ようにしても良い。
Further, in the above-described embodiment, the “childhood”, “adolescent”, and “adult”
Has been described for the case where one behavior model is prepared for each “growth stage”, but the present invention is not limited to this. A plurality of behavior models are prepared for each “growth stage”, and in the same growth stage, You may make it act differently.

【0140】例えば、図17に示すように、「少年期」
の行動モデルとして、動きが雑で速い「荒々しい」性格
の行動及び動作を行う行動モデル(Child 1 )と、これ
よりも動きが滑らかで遅い「おっとり」とした性格の行
動及び動作を行う行動モデル(Child 2 )とを設ける。
For example, as shown in FIG.
The behavior model (Child 1), which performs rough and fast movements and behaviors with rough movements, and the behavior and movements of "decorative" movements that are smoother and slower than this. An action model (Child 2) is provided.

【0141】また、「青年期」の行動モデルとして、
「少年期」の「荒々しい」性格よりもより動きが雑で速
い「いらいら」した性格の行動及び動作を行う行動モデ
ル(Young 1 )と、これよりも動きが遅くかつ滑らかな
「普通」の性格の行動を行う行動モデル(Young 2 )
と、これよりも一層動作が遅く、かつ行動量が少ない
「おっとり」した性格の行動及び動作を行う行動モデル
(Young 3 )とを設ける。
Further, as a behavior model of “adolescence”,
A behavior model (Young 1) that moves and moves with an annoyed character that moves more and more quickly than a "brute" character of "boyhood", and a "normal" that is slower and smoother than this Behavior model for behaviors of different personality (Young 2)
And an action model (Young 3) that performs an action and action of a “soft” character that is slower in operation and has a smaller amount of action.

【0142】さらに、「成人期」の行動モデルとして、
それぞれ「青年期」の「いらいら」した性格よりもより
動きが雑で速く、かつユーザからの指令に応じた動きを
行い難い「攻撃的」な性格の行動及び動作を行う行動モ
デル(Adult 1 )と、これよりも動きが滑らかで遅く、
かつユーザからの指令に応じた動きを行い易い「少し荒
々しい」性格の行動及び動作を行う行動モデル(Adult
2 )と、これによりも動きが滑らかで遅く、行動量が少
く、かつユーザからの指令に応じた動きを必ず行う「少
しおとなしい」性格の行動及び動作を行う行動モデル
(Adult 3 )と、これによりもさらに一層動きが遅く、
行動量が少なく、かつユーザからの指令に応じた動きを
必ず行う「おとなしい」性格の行動又は動作を行う行動
モデル(Adult 4 )とを設ける。
Further, as a behavior model of “adult period”,
The behavior model (Adult 1) that performs an action of "aggressive" character, which is slower and quicker than the "irritated" character of the "adolescent", and hard to move in response to a command from the user. And the movement is smoother and slower than this,
An action model (Adult) that performs actions and actions with a “slightly rough” character that is easy to move in response to commands from the user
2) and an action model (Adult 3) that performs actions and actions of a "slightly modest" character in which the movement is smoother and slower, the amount of action is smaller, and the action is always in response to a command from the user. Is even slower,
An action model (Adult 4) is provided that performs an action or action with a “quiet” character that has a small amount of action and always performs a motion according to a command from the user.

【0143】そして、コントローラ10は、「成長段
階」を上げる際、各成長要素の累積度数に基づいて次の
「成長段階」内の各行動モデルのなかから1つの行動モ
デルを選択して、使用する行動モデルを当該選択した行
動モデルに変更する。
When raising the “growth stage”, the controller 10 selects and uses one behavior model from the behavior models in the next “growth stage” based on the cumulative frequency of each growth element. The behavior model to be changed to the selected behavior model.

【0144】この場合「少年期」以降では、次の「成長
段階」に移る際、現在の「成長段階」の行動モデルから
遷移できる次の「成長段階」の行動モデルは決まってお
り、図17において矢印で結ばれた行動モデル間の遷移
しかできない。従って例えば「少年期」において「荒々
しい」行動及び動作を行う行動モデル(Child 1 )が選
択されている場合には、「青年期」において「おっと
り」と行動及び動作を行う行動モデル(Young 3 )に遷
移することができない。
In this case, after the “childhood”, when moving to the next “growth stage”, the next “growth stage” action model that can transition from the current “growth stage” action model is determined. Can only transition between the behavior models connected by arrows. Therefore, for example, when the behavior model (Child 1) that performs “violent” behavior and action in “boyhood” is selected, the behavior model (Young 3) The transition cannot be made.

【0145】このようにすることで、あたかも本物の動
物が飼い主の飼育の仕方等によって性格を形成してゆく
かのごとく、ユーザからの働きかけ及び指令の入力履歴
や自己の行動履歴に応じて、「成長」に伴って「性格」
をも変化させるようになされる。
In this manner, as if a real animal forms a character according to the owner's breeding method and the like, the action from the user, the input history of the command, and the history of his / her own action, Personality along with growth
Is also changed.

【0146】また、上述の実施の形態においては、本発
明をペットロボット1に適用した場合について述べた
が、本発明はこれに限らず、例えばゲームや展示等のエ
ンタテインメント分野で用いられるロボット装置のよう
に、他の種々のロボット装置に本発明を適用し得る。
Further, in the above-described embodiment, the case where the present invention is applied to the pet robot 1 has been described. However, the present invention is not limited to this, and for example, a robot device used in the entertainment field such as games and exhibitions. As described above, the present invention can be applied to various other robot devices.

【0147】また、上述の実施の形態においては、制御
特性をPゲインを変更して新たな動作を生成する場合に
ついて述べたが、本発明はこれに限らず、他の制御特性
を変更できる要素、例えば、IゲインやDゲインを変更
して新たな動作を生成することとしても良い。
Further, in the above-described embodiment, a case has been described in which a new operation is generated by changing the P gain of the control characteristic. However, the present invention is not limited to this, and other control characteristics can be changed. For example, a new operation may be generated by changing the I gain and the D gain.

【0148】また、本発明が適用されるペットロボット
1の外観は、図8に示すような構成をとることに限定さ
れず、図18に示すように、より現実の犬に類似の構成
とすることもできる。
Further, the appearance of the pet robot 1 to which the present invention is applied is not limited to the configuration shown in FIG. 8, but has a configuration more similar to a real dog as shown in FIG. You can also.

【0149】[0149]

【発明の効果】本発明に係るロボット装置は、入力情報
に基づいてモデルを変化させて、行動及び/又は動作を
行動及び/又は動作生成手段により生成し、位置情報に
基づいて動作部を制御して行動及び/又は動作生成手段
が生成した行動及び/又は動作を動作部制御手段により
実行し、生成された行動及び/又は動作に応じて、動作
部制御手段の制御特性を制御特性変更手段により変更す
ることにより、同一の位置情報に基づいて、異なる動作
を生成することができる。
The robot apparatus according to the present invention changes a model based on input information, generates an action and / or action by action and / or action generation means, and controls an operation unit based on position information. The action and / or action generated by the action and / or action generation means is executed by the action section control means, and the control characteristic of the action section control means is changed in accordance with the generated action and / or action. , Different actions can be generated based on the same position information.

【0150】また、本発明に係るロボット装置の動作制
御方法は、内部状態に応じて行動及び/又は動作を生成
するモデルを有し、入力情報に基づいてモデルを変化さ
せて、行動及び/又は動作を生成する行動及び/又は動
作生成工程と、位置情報に基づいて動作部制御手段によ
り動作部を制御して行動及び/又は動作生成工程にて決
定した行動及び/又は動作を実行する動作部制御工程と
を有し、動作部制御工程では、行動及び/又は動作生成
工程にて生成した行動及び/又は動作に応じて動作部制
御手段の制御特性を変更することにより、ロボット装置
は、同一の位置情報に基づいて、異なる動作を生成する
ことができる。
Further, the operation control method for a robot apparatus according to the present invention has a model for generating an action and / or an action in accordance with an internal state, and changes the model based on input information to change the action and / or the action. An action for generating an action and / or an action generating step, and an action section for controlling the action section by the action section control means based on the position information to execute the action and / or action determined in the action and / or action generating step. A control step, wherein in the operation unit control step, the robot device changes the control characteristic of the operation unit control unit in accordance with the action and / or the action generated in the action and / or the action generation step. , Different actions can be generated based on the location information.

【0151】また、本発明に係るロボット装置は、時系
列の複数の通過位置情報からなる位置情報に基づいて現
在位置から目標位置へ動作部の遷移動作をさせるロボッ
ト装置であって、通過位置情報に基づいて、動作部を現
在位置から目標位置へ動作部制御手段により遷移させ、
通過位置情報を通過位置情報変更手段にて変更すること
により、同一の位置情報に基づいて、異なる動作を生成
することができる。
Further, the robot apparatus according to the present invention is a robot apparatus for performing a transition operation of the operation unit from the current position to the target position based on position information including a plurality of pieces of time-series passing position information. Based on, the operating unit is caused to transition from the current position to the target position by the operating unit control means,
By changing the passing position information by the passing position information changing means, different operations can be generated based on the same position information.

【0152】また、本発明に係るロボット装置の動作制
御方法は、時系列の複数の通過位置情報からなる位置情
報に基づいて現在位置から目標位置へロボット装置の動
作部の遷移動作をさせるロボット装置の動作制御方法で
あって、位置情報に基づいて、動作部を現在位置から目
標位置へ遷移させる動作部制御工程を有し、動作部制御
工程では、遷移動作に応じて通過位置情報を変更するこ
とにより、ロボット装置は、同一の位置情報に基づい
て、異なる動作を生成することができる。
Further, the operation control method for a robot device according to the present invention provides a robot device for causing a transition operation of an operation unit of a robot device from a current position to a target position based on position information including a plurality of time-series passing position information. The operation control method according to the above, further comprising an operation unit control step of transitioning the operation unit from the current position to the target position based on the position information, and in the operation unit control step, changing the passing position information according to the transition operation. Thereby, the robot device can generate different actions based on the same position information.

【0153】また、本発明に係るロボット装置及びロボ
ット装置の動作制御方法は、内部状態に応じて行動及び
/又は動作を生成するモデルにより生成された行動及び
/又は動作を実行する動作部の動作遷移経過を制御する
ことにより、ロボット装置が多彩な動作をすることを可
能とする。
Further, the robot apparatus and the operation control method of the robot apparatus according to the present invention provide the operation of an operation unit that executes an action and / or an action generated by a model that generates an action and / or an action according to an internal state. By controlling the transition process, the robot device can perform various operations.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明によるペットロボットの一実施の形態を
示す斜視図である。
FIG. 1 is a perspective view showing an embodiment of a pet robot according to the present invention.

【図2】本発明によるペットロボットを示すものであっ
て、ペットロボットの足のアクチュエータの制御信号の
Pゲインが大きい場合を示す斜視図である。
FIG. 2 is a perspective view showing a pet robot according to the present invention, showing a case where a P gain of a control signal of a leg actuator of the pet robot is large.

【図3】位置情報における通過位置情報の数の変更を説
明するために用いた図である。
FIG. 3 is a diagram used to explain a change in the number of passing position information in position information.

【図4】位置情報における通過位置情報が通常の振幅の
際に再生された足の動作を説明するために用いた図であ
る。
FIG. 4 is a diagram used to explain the operation of the foot reproduced when the passage position information in the position information has a normal amplitude.

【図5】位置情報における通過位置情報の振幅が増加さ
れた際に再生された足の動作を説明するために用いた図
である。
FIG. 5 is a diagram used to explain the motion of the foot reproduced when the amplitude of the passage position information in the position information is increased.

【図6】センサー入力により最終的な動作が生成される
までの処理を説明するために用いた図である。
FIG. 6 is a diagram used to explain processing until a final operation is generated by a sensor input.

【図7】感情モデル、本能モデル、及び成長モデルが採
用され、センサー入力により最終的な動作が生成される
までの処理を説明するために用いた図である。
FIG. 7 is a diagram used to explain a process in which an emotion model, an instinct model, and a growth model are adopted and a final motion is generated by a sensor input.

【図8】ペットロボットの具体的な構成を示す斜視図で
ある。
FIG. 8 is a perspective view showing a specific configuration of the pet robot.

【図9】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 9 is a block diagram illustrating a circuit configuration of the pet robot.

【図10】コントローラの回路構成を示すブロック図で
ある。
FIG. 10 is a block diagram illustrating a circuit configuration of a controller.

【図11】感情・本能モデル部によるデータ処理を示す
ブロック図である。
FIG. 11 is a block diagram showing data processing by an emotion / instinct model unit.

【図12】行動決定機構部における有限オートマトンの
状態遷移図である。
FIG. 12 is a state transition diagram of the finite state automaton in the action determining mechanism unit.

【図13】コントローラにおいて成長モデルを実現する
回路構成を示すブロック図である。
FIG. 13 is a block diagram showing a circuit configuration for realizing a growth model in a controller.

【図14】成長モデルにおいて使用される第1の成長要
素リストと第1の成長要素カウンタテーブルとを示す図
である。
FIG. 14 is a diagram showing a first growth element list and a first growth element counter table used in the growth model.

【図15】成長モデルにおいて使用される第2の成長要
素リストと第2の成長要素カウンタテーブルとを示す図
である。
FIG. 15 is a diagram showing a second growth element list and a second growth element counter table used in the growth model.

【図16】姿勢遷移機構部における姿勢遷移図である。FIG. 16 is a posture transition diagram in the posture transition mechanism.

【図17】成長モデルにおいて、各「成長段階」に性格
によるモデルが構築した場合を説明するために用いた図
である。
FIG. 17 is a diagram used to explain a case where a model based on personality is constructed at each “growth stage” in the growth model.

【図18】ペットロボットの他の具体的な構成を示す斜
視図である。
FIG. 18 is a perspective view showing another specific configuration of the pet robot.

【符号の説明】[Explanation of symbols]

1 ペットロボット、23 アクチュエータ、32 コ
ントローラ、40 感情・本能モデル部、41 行動決
定機構部、42 姿勢遷移機構部、43 制御機構部、
71 成長段階制御機構部、72 状態認識機構部
1 pet robot, 23 actuators, 32 controllers, 40 emotion / instinct model unit, 41 action determination mechanism unit, 42 posture transition mechanism unit, 43 control mechanism unit,
71 growth stage control mechanism, 72 state recognition mechanism

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3F059 AA00 BA00 DA05 FB30 FC00 3F060 AA00 BA10 CA14 5H004 GA26 GB16 HA07 HB01 HB03 HB07 HB15 JA02 JA03 JB05 JB06 KA35 KB02 KB04 KB06 KC12 KC35 KC48 KD55 KD62 KD70 LA18 LB08 LB10 MA29 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 位置情報に基づいて動作部を遷移動作さ
せるロボット装置において、 内部状態に応じて行動及び/又は動作を生成するモデル
を有し、入力情報に基づいて上記モデルを変化させて、
行動及び/又は動作を生成する行動及び/又は動作生成
手段と、 上記位置情報に基づいて上記動作部を制御して上記行動
及び/又は動作生成手段が生成した動作及び/又は行動
を実行する動作部制御手段と、 上記動作部制御手段の制御特性を変更する制御特性変更
手段とを備えたことを特徴とするロボット装置。
1. A robot apparatus for performing a transition operation of an operation unit based on position information, comprising: a model for generating an action and / or an action according to an internal state, wherein the model is changed based on input information,
An action and / or action generation means for generating an action and / or action; and an action for controlling the action section based on the position information to execute the action and / or action generated by the action and / or action generation means. A robot apparatus comprising: a unit control unit; and a control characteristic changing unit that changes a control characteristic of the operation unit control unit.
【請求項2】 上記制御特性変更手段は、PIDゲイン
であるPゲイン、Iゲイン、又はDゲインのうちの少な
くとも1つを変更することを特徴とする請求項1記載の
ロボット装置。
2. The robot apparatus according to claim 1, wherein the control characteristic changing unit changes at least one of a P gain, a P gain, an I gain, and a D gain.
【請求項3】 上記行動及び/又は動作生成手段は、内
部状態に応じて行動及び/又は動作を生成するモデルと
して感情に起因した行動及び/又は動作を生成する感情
モデルを有していることを特徴とする請求項1記載のロ
ボット装置。
3. The action and / or action generation means has an emotion model that generates an action and / or action caused by emotion as a model that generates an action and / or action according to an internal state. The robot device according to claim 1, wherein:
【請求項4】 上記行動及び/又は動作生成手段は、内
部状態に応じて行動及び/又は動作を生成するモデルと
して本能に起因した行動及び/又は動作を生成する本能
モデルを有していることを特徴とする請求項1記載のロ
ボット装置。
4. The action and / or action generation means has an instinct model for generating an action and / or action due to instinct as a model for generating an action and / or action according to an internal state. The robot device according to claim 1, wherein:
【請求項5】 上記行動及び/又は動作生成手段は、内
部状態に応じて行動及び/又は動作を生成するモデルと
して成長に起因した行動及び/又は動作を生成する成長
モデルを有していることを特徴とする請求項1記載のロ
ボット装置。
5. The action and / or action generation means has a growth model for generating an action and / or action caused by growth as a model for generating an action and / or action according to an internal state. The robot device according to claim 1, wherein:
【請求項6】 位置情報に基づいてロボット装置の動作
部を遷移動作させるロボット装置の動作制御方法におい
て、 内部状態に応じて行動及び/又は動作を生成するモデル
を有し、入力情報に基づいて上記モデルを変化させて、
行動及び/又は動作を生成する行動及び/又は動作生成
工程と、 上記位置情報に基づいて動作部制御手段により上記動作
部を制御して上記行動及び/又は動作生成工程にて生成
した行動及び/又は動作を実行する動作部制御工程とを
有し、 上記動作部制御工程では、上記行動及び/又は動作制御
工程にて生成した行動及び/又は動作に応じて上記動作
部制御手段の制御特性を変更することを特徴とするロボ
ット装置の動作制御方法。
6. An operation control method for a robot apparatus for causing an operation section of a robot apparatus to perform a transition operation based on position information, comprising a model for generating an action and / or an action according to an internal state, and based on input information. By changing the above model,
An action and / or action generation step of generating an action and / or action; and an action and / or action generated by the action and / or action generation step by controlling the action section by action section control means based on the position information. Or an operation unit control step of executing the operation. In the operation unit control step, the control characteristic of the operation unit control unit is changed according to the action and / or the operation generated in the action and / or the operation control step. An operation control method of a robot device, wherein the operation control method is changed.
【請求項7】 上記動作部制御工程では、PIDゲイン
であるPゲイン、Iゲイン、又はDゲインのうちの少な
くとも1つを変更することにより制御特性を変更するこ
とを特徴とする請求項6記載のロボット装置の動作制御
方法。
7. The control unit according to claim 6, wherein in the operation unit control step, the control characteristic is changed by changing at least one of a P gain, a P gain, an I gain, and a D gain. Operation control method for a robot device.
【請求項8】 時系列の複数の通過位置情報からなる位
置情報に基づいて現在位置から目標位置へ動作部の遷移
動作をさせるロボット装置であって、 上記通過位置情報に基づいて、上記動作部を上記現在位
置から上記目標位置へ遷移させる動作部制御手段と、 上記通過位置情報を変更する通過位置情報変更手段とを
備えたことを特徴とするロボット装置。
8. A robot device for performing a transition operation of an operation unit from a current position to a target position based on position information including a plurality of time-series passing position information, wherein the operation unit is controlled based on the passing position information. A robot device comprising: an operation unit control unit that causes the current position to transition from the current position to the target position; and a passing position information changing unit that changes the passing position information.
【請求項9】 上記通過位置情報変更手段は、上記位置
情報において時系列とされる通過位置情報の数を増加又
は減少させることを特徴とする請求項8記載のロボット
装置。
9. The robot apparatus according to claim 8, wherein the passing position information changing unit increases or decreases the number of passing position information that is time-series in the position information.
【請求項10】 上記動作部制御手段は、上記複数の通
過位置情報の振幅量に応じて上記動作部を目標位置に遷
移させ、 上記通過位置情報変更手段は、上記通過位置情報の振幅
量を増加又は減少させることを特徴とする請求項8記載
のロボット装置。
10. The operating section control means causes the operating section to transition to a target position in accordance with the amplitude amount of the plurality of passing position information, and the passing position information changing means changes the amplitude amount of the passing position information. 9. The robot device according to claim 8, wherein the value is increased or decreased.
【請求項11】 上記動作部制御手段は、内部状態に応
じて行動及び/又は動作を生成するモデルにより変化さ
れる上記通過位置情報に基づいて、上記動作部を上記現
在位置から上記目標位置へ遷移させることを特徴とする
請求項8記載のロボット装置。
11. The operating unit control means moves the operating unit from the current position to the target position based on the passing position information changed by a model that generates an action and / or an action according to an internal state. The robot device according to claim 8, wherein the robot device makes a transition.
【請求項12】 時系列の複数の通過位置情報からなる
位置情報に基づいて現在位置から目標位置へロボット装
置の動作部の遷移動作をさせるロボット装置の動作制御
方法であって、 上記通過位置情報に基づいて、上記動作部を上記現在位
置から上記目標位置へ遷移させる動作部制御工程を有
し、 上記動作部制御工程では、遷移動作に応じて上記通過位
置情報を変更することを特徴とするロボット装置の動作
制御方法。
12. An operation control method of a robot device for causing an operation section of a robot device to perform a transition operation from a current position to a target position based on position information including a plurality of pieces of time-series passing position information, Based on the operation unit, the operating unit control step of transitioning the operating unit from the current position to the target position, wherein the operating unit control step changes the passing position information according to the transition operation. An operation control method for a robot device.
【請求項13】 内部状態に応じた行動及び/又は動作
をさせるロボット装置であって、 上記内部状態に応じて行動及び/又は動作を生成するモ
デルにより生成された行動及び/又は動作を実行する動
作部の動作遷移経過を制御する動作制部御手段を備えた
ことを特徴とするロボット装置。
13. A robot apparatus for performing an action and / or an action according to an internal state, wherein the robot apparatus executes an action and / or an action generated by a model that generates the action and / or an action according to the internal state. A robot apparatus comprising an operation control unit for controlling a progress of an operation transition of an operation unit.
【請求項14】 上記動作部制御手段は、上記動作部の
緩急を制御することを特徴とする請求項13記載のロボ
ット装置。
14. The robot apparatus according to claim 13, wherein the operating unit control means controls the speed of the operating unit.
【請求項15】 上記動作部制御手段は、上記動作部の
ストロークを制御することを特徴とする請求項13記載
のロボット装置。
15. The robot apparatus according to claim 13, wherein the operating section control means controls a stroke of the operating section.
【請求項16】 上記動作部制御手段は、内部状態に応
じて行動及び/又は動作を生成するモデルとされる、感
情に起因した行動及び/又は動作を生成する感情モデル
により生成された行動及び/又は動作を動作部により実
行することを特徴とする請求項13記載のロボット装
置。
16. The action unit control means according to claim 1, wherein the action and / or the action generated by the emotion model that generates the action and / or the action resulting from the emotion, which is a model that generates the action and / or the action according to the internal state, 14. The robot apparatus according to claim 13, wherein the operation is performed by an operation unit.
【請求項17】 上記動作部制御手段は、内部状態に応
じて行動及び/又は動作を生成するモデルとされる、本
能に起因した行動及び/又は動作を生成する本能モデル
により生成された行動及び/又は動作を動作部により実
行することを特徴とする請求項13記載のロボット装
置。
17. The operation unit control unit according to claim 1, wherein the behavior generated by the instinct model that generates the behavior and / or the behavior resulting from the instinct is a model that generates the behavior and / or the behavior according to the internal state. 14. The robot apparatus according to claim 13, wherein the operation is performed by an operation unit.
【請求項18】 上記動作部制御手段は、内部状態に応
じて行動及び/又は動作を生成するモデルとされる、成
長に起因した行動及び/又は動作を生成する成長モデル
により生成された行動及び/又は動作を動作部により実
行することを特徴とする請求項13記載のロボット装
置。
18. The operation unit control means according to claim 1, wherein the behavior and / or the action generated by the growth model that generates the action and / or the action resulting from the growth, which is a model that generates the action and / or the action according to the internal state. 14. The robot apparatus according to claim 13, wherein the operation is performed by an operation unit.
【請求項19】 内部状態に応じた行動及び/又は動作
をロボット装置にさせるロボット装置の動作制御方法で
あって、 上記内部状態に応じて行動及び/又は動作を生成するモ
デルにより生成された行動及び/又は動作を実行する動
作部の動作遷移経過を制御することを特徴とするロボッ
ト装置の動作制御方法。
19. An operation control method of a robot device for causing a robot device to perform an action and / or an action according to an internal state, wherein the action generated by a model that generates the action and / or the action according to the internal state. And / or controlling an operation transition progress of an operation unit that executes the operation.
JP34137699A 1999-11-30 1999-11-30 Robot device and action control method for robot device Withdrawn JP2001157984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34137699A JP2001157984A (en) 1999-11-30 1999-11-30 Robot device and action control method for robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34137699A JP2001157984A (en) 1999-11-30 1999-11-30 Robot device and action control method for robot device

Publications (1)

Publication Number Publication Date
JP2001157984A true JP2001157984A (en) 2001-06-12

Family

ID=18345590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34137699A Withdrawn JP2001157984A (en) 1999-11-30 1999-11-30 Robot device and action control method for robot device

Country Status (1)

Country Link
JP (1) JP2001157984A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074538A (en) * 2003-08-28 2005-03-24 Sony Corp Robot device, control method for robot device, and toy for robot device
KR102051217B1 (en) * 2018-05-29 2019-12-02 연세대학교 산학협력단 Apparatus and method for controlling emotional expression of biomimetics robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074538A (en) * 2003-08-28 2005-03-24 Sony Corp Robot device, control method for robot device, and toy for robot device
KR102051217B1 (en) * 2018-05-29 2019-12-02 연세대학교 산학협력단 Apparatus and method for controlling emotional expression of biomimetics robot

Similar Documents

Publication Publication Date Title
JP4696361B2 (en) Robot apparatus and operation control method
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
RU2559715C2 (en) Autonomous robotic life form
US6445978B1 (en) Robot device and method for controlling the same
EP1151779B1 (en) Robot and action deciding method for robot
EP1508409A1 (en) Robot device and robot control method
US6362589B1 (en) Robot apparatus
US7063591B2 (en) Edit device, edit method, and recorded medium
US20030014159A1 (en) Robot apparatus and its control method
JP2001157984A (en) Robot device and action control method for robot device
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP2003208161A (en) Robot apparatus and method of controlling the same
JP2002178282A (en) Robot device and its control method
JP2001157983A (en) Robot device and character determining method of robot device
JP2001157982A (en) Robot device and control method thereof
JP2004130428A (en) Robot device, action control method for robot device, recording medium and program
JP4419035B2 (en) Robot apparatus and control method thereof
JP2003071765A (en) Robot device and input method therefor
JP2002120179A (en) Robot device and control method for it
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program
WO2023037609A1 (en) Autonomous mobile body, information processing method, and program
JP2004130426A (en) Robot device and its operation control method
JP2001283019A (en) System/method for transmitting information, robot, information recording medium, system/method for online sales and sales server
JP2004338056A (en) Robot device and its controlling method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206