JP2001334482A - ロボット装置及びロボット装置の行動決定方法 - Google Patents

ロボット装置及びロボット装置の行動決定方法

Info

Publication number
JP2001334482A
JP2001334482A JP2001088725A JP2001088725A JP2001334482A JP 2001334482 A JP2001334482 A JP 2001334482A JP 2001088725 A JP2001088725 A JP 2001088725A JP 2001088725 A JP2001088725 A JP 2001088725A JP 2001334482 A JP2001334482 A JP 2001334482A
Authority
JP
Japan
Prior art keywords
action
behavior
tendency
appearance
causal factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001088725A
Other languages
English (en)
Inventor
Takeshi Takagi
剛 高木
Masahiro Fujita
雅博 藤田
Rika Hasegawa
里香 長谷川
Kotaro Sabe
浩太郎 佐部
Craig Ronald Arkin
クレッグ アーキン ロナルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001088725A priority Critical patent/JP2001334482A/ja
Publication of JP2001334482A publication Critical patent/JP2001334482A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 生物感が向上され、より動物らしく行動する
ロボット装置を提供する。 【解決手段】 行動決定システム70は、CCDカメラ
20、距離センサ22、マイクロホン23等が検出した
外部又は内部情報であって、行動に影響する情報とされ
る原因因子を取得し、その取得した原因因子に基づい
て、当該原因因子に影響される行動の出現傾向を取得す
る知覚情報取得部90及び動機情報取得部81と、知覚
情報取得部90及び動機情報取得部81が取得した2つ
以上の行動に対応する出現傾向であって、同一グループ
とされる出現傾向を比較し、その出現傾向の比較結果に
基づいて、一の行動を選択する行動選択演算部82と、
行動選択演算部82が選択した行動に基づいて、動作部
を制御して、当該選択された行動を出現させる出力セマ
ンティクスコンバータモジュール68とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自律的に行動する
ロボット装置及びそのようなロボット装置の行動を決定
するロボット装置の行動決定方法に関する。
【0002】
【従来の技術】近年、動物を模した形状とされたロボッ
ト装置、いわゆるペットロボットが提案されている。こ
のようなロボット装置は、一般家庭において飼育される
犬や猫に似た形状を有し、ユーザ(飼い主)からの「叩
く」や「撫でる」といった働きかけや、周囲の環境等に
応じて自律的に行動する。例えば、自律的な行動とし
て、実際の動物と同様に、「吠える」、「寝る」等とい
った行動をする。
【0003】ところで、ロボット装置が実際の動物のよ
うな行動に、より近づくことができれば、ロボット装置
の生物感が一層増し、ユーザ(飼い主)は、ロボット装
置に一層の親近感や満足感を感じる。これにより、ロボ
ット装置のアミューズメント性が向上する。
【0004】例えば、実際の動物のような行動に行動を
させるものとして、動物行動学的なアプローチからロボ
ット装置の行動決定をするようなことが考えられる。
【0005】動物行動的なアプローチからなされた行動
研究の成果として、例えば、物行動学者のSibly,Mcfarl
andらが動機付け空間表象の状態を1975年に論文で発表
している(“動物コミュニケーション”西村書店)。ま
た、Ludlowは1976年に行動の競合モデルについて発表し
ている。そして、これらの成果をBruce Mitchell Blumb
erg(Bruce of Arts,Amherst College,1977,Master of S
iencs,Sloan School ofManagement,MIT,1981)が「Old T
ricks,New Dogs:Ethology and Interactive Creature
s」(1997年4月)において検証している。Bruce Mitch
ell Blumbergは、3DのCG(コンピュータグラフィ
ク)の犬に対して上述した理論を適用し、行動選択メカ
ニズムとして検証している。
【0006】
【発明が解決しようとする課題】ところで、Bruce Mitc
hell Blumbergは、CGモデルにて動物の行動選択メカ
ニズムについて検証しており、実世界で存在するロボッ
ト装置に適応したものではない。
【0007】CGなどのコンピュータシステムのディス
プレイ等に表示される仮想生物では、行動選択と行動実
現とを直接結びつけること(行動選択=行動実現)が可
能であるため、行動の選択による動機へのフィードバッ
クが可能であるが、実際のロボットでは、行動選択と行
動実現とを直接結びつけることができるとは限らない
(すなわち、行動選択=行動実現となるとは限らな
い)。これは、以下のようなことが理由として挙げられ
る。
【0008】反射行動などの計画された行動とは無関係
に実行される行動によって、打ち消される可能性があ
る。
【0009】センサからの入力のフィードバックを使用
しないと、行動が真の意味で実現できたか分からない場
合がある。
【0010】このような理由において後者の具体的な例
としては“足でボールを蹴る"の行動を、ボールとの距
離が蹴ることが可能な距離に到達した時点で行動が選択
され、行動命令が出力されたとしても、ボールが置かれ
ているところに傾斜があったりすると、蹴れない場合が
存在する。“足でボールを蹴る"の行動結果としての"ボ
ールを蹴れた”を認識するためには、ボールとロボット
装置が接触し、ボールが前方に進んだことを認識して、
初めて“蹴れた”とできるのである。すなわち、ロボッ
ト装置が有するセンサのセンサ情報を使用して行動に対
する評価を行い、ロボット装置の内部状態を変化させる
ことが必要になる。
【0011】このように、上述したようなBruce Mitche
ll Blumbergが提唱する技術だけでは、実世界での存在
であるロボット装置の行動を決定することは不可能であ
る。
【0012】そこで、本発明は、上述の実情に鑑みてな
されたものであり、より生物感が向上されたロボット装
置及びロボット装置の行動決定方法の提供を目的として
いる。
【0013】
【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、動作部を制御して
行動を出現させるロボット装置であって、外部又は内部
情報を検出する検出手段と、検出手段が検出した外部又
は内部情報であって、行動に影響する情報とされる原因
因子を取得する原因因子取得手段と、原因因子取得手段
が取得した原因因子に基づいて、当該原因因子に影響さ
れる行動の出現傾向を取得する出現傾向取得手段と、出
現傾向取得手段が取得した2つ以上の行動に対応する出
現傾向であって、同一グループとされる出現傾向を比較
する出現傾向比較手段と、出現傾向比較手段による出現
傾向の比較結果に基づいて、一の行動を選択する行動選
択手段と、行動選択手段が選択した行動に基づいて、動
作部を制御して、当該選択された行動を出現させる動作
部制御手段とを備え、行動選択手段が選択した一の行動
の出現傾向が、当該行動の実際の出現により変化する原
因因子に応じて変化する。
【0014】このような構成を備えたロボット装置は、
外部又は内部情報を検出手段により検出し、検出手段が
検出した外部又は内部情報であって、行動に影響する情
報とされる原因因子を原因因子取得手段により取得し、
原因因子取得手段が取得した原因因子に基づいて、当該
原因因子に影響される行動の出現傾向を出現傾向取得手
段により取得する。
【0015】そして、ロボット装置は、出現傾向取得手
段が取得した2つ以上の行動に対応する出現傾向であっ
て、同一グループとされる出現傾向を出現傾向比較手段
により比較し、出現傾向比較手段による出現傾向の比較
結果に基づいて、一の行動を行動選択手段により選択
し、行動選択手段が選択した行動に基づいて、動作部を
動作部制御手段により制御して、当該選択された行動を
出現させる。そして、行動選択手段が選択した一の行動
の出現傾向は、当該行動の実際の出現により変化する原
因因子に応じて変化する。
【0016】このようなロボット装置は、原因因子に影
響されて決定される出現傾向について比較することで、
一の行動を選択しており、動物行動学的なアプローチと
しての行動を出現するようになる。
【0017】また、本発明に係るロボット装置の行動決
定方法は、上述の課題を解決するために、ロボット装置
の外部又は内部情報を検出手段により検出する情報検出
工程と、情報検出工程にて検出した外部又は内部情報の
ロボット装置の行動に影響する情報とされる原因因子を
取得する原因因子取得工程と、原因因子取得工程にて取
得した原因因子に基づいて、当該原因因子に影響される
行動の出現傾向を取得する出現傾向取得工程と、出現傾
向取得工程にて取得した2つ以上の行動に対応する出現
傾向であって、同一グループとされる出現傾向を比較す
る出現傾向比較工程と、出現傾向比較工程における出現
傾向の比較結果に基づいて、一の行動を選択する行動選
択工程と、行動選択工程にて選択された行動に基づい
て、ロボット装置の動作部を制御して、当該ロボット装
置に選択された行動を出現させる動作部制御工程とを有
し、行動選択工程にて選択された一の行動の出現傾向
が、当該行動の実際の出現により変化する原因因子に応
じて変化する。
【0018】このようなロボット装置の行動決定方法
は、ロボット装置の外部又は内部の情報とされる外部又
は内部情報を情報検出工程にて検出手段により検出し、
情報検出工程にて検出した外部又は内部情報のロボット
装置の行動に影響する情報とされる原因因子を原因因子
取得工程にて取得し、原因因子取得工程にて取得した原
因因子に基づいて、当該原因因子に影響される行動の出
現傾向を出現傾向取得工程にて取得する。
【0019】そして、ロボット装置の行動決定方法は、
出現傾向取得工程にて取得した2つ以上の行動に対応す
る出現傾向であって、同一グループとされる出現傾向を
出現傾向比較工程にて比較し、出現傾向比較工程におけ
る出現傾向の比較結果に基づいて、一の行動を行動選択
工程にて選択し、行動選択工程にて選択された行動に基
づいて、ロボット装置の動作部を動作部制御工程にて制
御して、当該ロボット装置に選択された行動を出現させ
る。そして、行動選択工程にて選択された一の行動の出
現傾向は、当該行動の実際の出現により変化する原因因
子に応じて変化する。
【0020】このようなロボット装置の行動決定方法に
より、ロボット装置は、原因因子に影響されて決定され
る出現傾向について比較することで、一の行動を選択し
ており、動物行動学的なアプローチとしての行動を出現
するようになる。
【0021】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、本
発明を、外的要因及び内的要因に基づいて本能及び感情
の状態を変化させて、この本能及び感情の状態に応じて
行動をするロボット装置に適用したものである。
【0022】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
【0023】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。
【0024】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また胴体部ユニット2には、ロボット装置1の向き
や動きの加速度を検出するための角速度センサ18及び
加速度センサ19なども収納されている。
【0025】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、ユーザからの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
【0026】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ2
,25,・・・及びポテンショメータ26,26
,・・・が配設されている。例えば、アクチュエータ
25,25,・・・はサーボモータを構成として有し
ている。サーボモータの駆動により、脚部ユニット3A
〜3Dが制御されて、目標の姿勢或いは動作に遷移す
る。
【0027】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
,26,・・・などの各種センサ並びにLED及び
各アクチュエータ25,25,・・・は、それぞれ対
応するハブ27〜27を介してコントロール部16
の信号処理回路14と接続され、CCDカメラ20及び
バッテリ17は、それぞれ信号処理回路14と直接接続
されている。
【0028】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0029】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0030】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
【0031】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、ユーザから
の指示及び働きかけの有無などを判断する。
【0032】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25,25,・・・を駆動させること
により、頭部ユニット4を上下左右に振らせたり、尻尾
部ユニット5の尻尾5Aを動かせたり、各脚部ユニット
3A〜3Dを駆動させて歩行させるなどの行動を行わせ
る。
【0033】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
【0034】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、ユーザからの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0035】(2)制御プログラムのソフトウェア構成 ここでロボット装置1における上述の制御プログラムの
ソフトウェア構成は、図3に示すようになる。この図3
において、デバイス・ドライバ・レイヤ30は、この制
御プログラムの最下位層に位置し、複数のデバイス・ド
ライバからなるデバイス・ドライバ・セット31から構
成されている。この場合各デバイス・ドライバは、CC
Dカメラ20(図2)やタイマ等の通常のコンピュータ
で用いられるハードウェアに直接アクセスするごとを許
されたオブジェクトであり、対応するハードウェアから
の割り込みを受けて処理を行う。
【0036】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
,25,・・・等のハードウェアにアクセスするた
めのインターフェースを提供するソフトウェア群でなる
バーチャル・ロボット33と、電源の切り換えなどを管
理するソフトウェア群でなるバワーマネージャ34と、
他の種々のデバイス・ドライバを管理するソフトウェア
群でなるデバイス・ドライバ・マネージャ35と、ロボ
ット装置1の機構を管理するソフトウェア群でなるデザ
インド・ロボット36とから構成されている。
【0037】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
【0038】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0039】なおミドル・ウェア・レイヤ40及びアプ
リケーション・レイヤ41の具体なソフトウェア構成を
それぞれ図4に示す。
【0040】ミドル・ウェア・レイヤ40においては、
図4に示すように、騒音検出用、温度検出用、明るさ検
出用、音階認識用、距離検出用、姿勢検出用、タッチセ
ンサ用、動き検出用及び色認識用の各信号処理モジュー
ル50〜58並びに入力セマンティクスコンバータモジ
ュール59などを有する認識系60と、出力セマンティ
クスコンバータモジュール68並びに姿勢管理用、トラ
ッキング用、モーション再生用、歩行用、転倒復帰用、
LED点灯用及び音再生用の各信号処理モジュール61
〜67などを有する認識系60とから構成されている。
【0041】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
【0042】入力セマンティクスコンパータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、ユーザか
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。なお、アプリ
ケーション・レイヤ41には、後述する行動決定のため
の行動決定システムが構築されている。
【0043】一方、出力系69では、出力セマンティク
スコンバータモジュール68が、行動情報に基づいて、
各信号処理モジュール61〜67を制御する。すなわ
ち、例えば、認識系60の認識結果に応じて、「うるさ
い」、「暑い」、「明るい」、「ボールを検出した」、
「転倒を検出した」、「撫でられた」、「叩かれた」、
「ドミソの音階が聞こえた」、「動く物体を検出した」
又は「障害物を検出した」などの自己及び周囲の状況
や、ユーザからの指令及び働きかけなどに対応して制御
情報(コマンド)を各信号処理モジュール61〜67に
出力する。
【0044】出力セマンティクスコンバータモジュール
68に入力される行動情報は、「前進」、「喜ぶ」、
「鳴く」又は「トラッキング(ボールを追いかける)」
といった抽象的な行動コマンドであって、出力セマンテ
ィクスコンバータモジュール68は、それらの行動コマ
ンドを対応する各信号処理モジュール61〜67に与え
る。そして、出力セマンティクスコンバータモジュール
68に入力される行動情報は、上位の情報処理部とされ
る行動決定システムからのものであるが、本発明に係る
要部であり、後で詳述するところである。
【0045】そして、各信号処理モジュール61〜67
は、出力セマンティクスコンバータモジュール68から
の行動コマンドに基づいて、各デバイスを制御する制御
信号を、バーチャル・ロボット33に出力する。具体的
には、信号処理モジュール61〜67は、行動コマンド
が与えられると当該行動コマンドに基づいて、その行動
を行うために対応するアクチュエータ25,25,・
・・(図2)に与えるべきサーボ指令値や、スピーカ2
4(図2)から出力する音の音声データ及び又は「目」
のLEDに与える駆動データを生成し、これらのデータ
をロボティック・サーバ・オブジェクト32のバーチャ
ルロボット33及び信号処理回路14(図2)を順次介
して対応するアクチュエータ25,25,・・・又は
スピーカ24又はLEDに順次送出する。
【0046】各デバイスがバーチャル・ロボット33か
らの信号(コマンド)に基づいて制御されることによ
り、ロボット装置1により、所定の行動の出現がなされ
るようになる。
【0047】次に、入力セマンティクスコンバータモジ
ュール59からの認識結果に基づいて次の行動(遷移す
る行動或いは目的の行動)を決定し、当該決定した行動
の情報を出力セマンティクスコンバータモジュール68
に出力する行動決定システムについて説明する。
【0048】(3)ロボット装置の行動決定システムの
構成 ロボット装置1は、図5に示すような行動決定システム
70により行動を決定している。行動決定システム70
は、入力セマンティクスコンバータモジュール59から
の認識結果に基づいて行動を決定し、その行動を出力セ
マンティクスコンバータモジュール68に出力してい
る。具体的には、ロボット装置1は、行動選択部80、
内的状態モデル部71及びモジュレータ72を備えてい
る。
【0049】行動選択部80は、複数の行動から所望の
行動を選択する。具体的には、行動選択部80は、入力
セマンティクスコンバータモジュール59の認識結果に
基づいて所望の行動を選択する。例えば、行動選択部8
0は、知覚情報取得部90、動機情報取得部81及び行
動選択演算部82を備え、行動の選択をする。
【0050】このような行動決定システム70におい
て、知覚情報取得部90及び動機情報取得部81は、C
CDカメラ20、距離センサ22、マイクロホン23等
の外部又は内部情報を検出する検出手段が検出した外部
又は内部情報であって、行動に影響する情報とされる原
因因子を取得する原因因子取得手段及び原因因子取得手
段として取得した原因因子に基づいて、当該原因因子に
影響される行動の出現傾向を取得する出現傾向取得手段
を構成し、行動選択演算部82は、知覚情報取得部90
及び動機情報取得部81が取得した2つ以上の行動に対
応する出現傾向であって、同一グループとされる出現傾
向を比較する出現傾向比較手段及び出現傾向比較手段に
よる出現傾向の比較結果に基づいて、一の行動を選択す
る行動選択手段を構成し、出力セマンティクスコンバー
タモジュール68は、行動選択演算部82が選択した行
動に基づいて、動作部を制御して、当該選択された行動
を出現させる動作部制御手段を構成する。
【0051】ここで、行動選択部80は、知覚情報取得
部90が認識結果から取得した知覚情報と、動機情報取
得部81が内的状態モデル部71からの内的状態情報か
ら取得した動機情報とに基づいて、行動選択演算部82
において行動を選択する。この行動選択部80について
は、後で詳述する。
【0052】一方、内的状態モデル部71は、外的要因
や内的要因に応じてロボット装置1の本能及び感情の状
態(内的状態)を変化させる内部状態モデルを有してい
る。ここで、外的要因とは、例えば、叩かれた情報、撫
でられた情報、或いはユーザからの命令などである。ま
た、内的要因は、バッテリ残量が少ないや体温が上昇し
ているなどの情報である。
【0053】具体的には、内的状態モデル部71は、入
力セマンティクスコンバータモジュール59の認識結果
に基づいて、内的状態を変化させており、内的状態の情
報を行動選択部80及びモジュレータ72に出力してい
る。
【0054】動機情報取得部81では、この内的状態情
報に基づいて動機情報を取得する。これについては、後
で詳述する。
【0055】一方、モジュレータ72は、最終的に出現
させる行動情報(行動コマンド)を生成する部分であ
る。具体的には、モジュレータ72は、行動選択部80
にて選択された行動と、内的状態モデル部71からの内
的状態の情報とから最終的に出現させる行動情報を生成
し、出力セマンティクスコンバータモジュール68に出
力する。
【0056】このモジュレータ72により、行動選択部
80により決定(選択)された行動に、内的状態モデル
部71により得られる本能や感情の状態を付加させたも
のとして、ロボット装置1に行動を出現させることがで
きるようになる。すなわち、例えば、行動選択部80で
は認識結果等から次の行動として「リンゴを食べる」と
いった行動が選択され、一方、内的状態モデル部71で
は、認識結果により現在のロボット装置1の内的状態と
して例えば「怒っている」が取得される。そして、モジ
ュレータ72では、それらの情報に基づいて、「リンゴ
を食べる」の行動に「怒っている」の内的状態を付加さ
せて、「不機嫌にリンゴを食べる」の行動の情報を生成
して、その情報を出力セマンティクスコンバータモジュ
ール68に出力する。出力セマンティクスコンバータモ
ジュール68は、各信号処理モジュール61〜67に信
号を送り、各デバイスを制御して動作部を制御するの
で、これにより、ロボット装置1は、次の行動(目的の
行動)として不機嫌にリンゴを食べる行動を出現させる
ようになる。
【0057】また、内的状態モデル部71において生成
される本能や感情の状態を示す内的状態情報にあって
は、ロボット装置1が行動を決定(選択)する際の情報
としても使用され、さらに、決定された行動に対しても
表出される(付加される)かたちで使用されている。
【0058】このように行動決定システム70は、認識
結果に基づいて行動を決定している。以下、この行動決
定システム70を構成する各部についてさらに詳しく説
明する。
【0059】(3−1)内的状態モデル部の構成 内的状態モデル部71は、外的要因及び内的要因に応じ
て本能及び感情といった内的状態を変化させている。そ
して、内的状態モデル部71によって得られる本能及び
感情の状態は、上述したように、ロボット装置1が行動
を決定する際の情報として使用され、さらに、決定され
た行動に対しても表出される(付加される)かたちでも
使用される。
【0060】この内的状態モデル部71は、外的要因や
内的要因に応じて変化する本能(欲求)や性格に関わる
要素を複数有して構成されている。
【0061】具体的には、内的状態モデル部71は、疲
れ(fatigue)、熱或いは体内温度(temperature)、痛
み(pain)、食欲或いは飢え(hunger)、乾き(thirs
t)、愛情(affection)、好奇心(curiosity)、***
(elimination)及び***(sexual)等といった9個の
本能的要素と、幸せ(happiness)、悲しみ(sadnes
s)、怒り(anger)、驚き(surprise)、嫌悪(disgus
t)、恐れ(fear)、苛立ち(frustration)、退屈(bo
redom)、睡眠(somnolence)、社交性(gregariousnes
s)、根気(patience)、緊張(tense)、リラックス
(relaxed)、警戒(alertness)、罪(guilt)、悪意
(spite)、誠実さ(loyalty)、服従性(submission)
及び嫉妬(jealousy)等といった18個の情動的要素と
を有し、全体として27個の内的状態を示す要素を持っ
ている。
【0062】情動的要素は、各情動毎にその情動の強さ
を表すパラメータを保持している。そして、内的状態モ
デル部71では、これらの各要素のパラメータ値を、そ
れぞれ入力セマンティクスコンバータモジュール59か
ら与えられる「叩かれた」及び「撫でられた」などの特
定の認識結果と、経過時間などに基づいて周期的に変更
する。
【0063】具体的には、情動的要素は、入力セマンテ
ィクスコンバータモジュール59から与えられる認識結
果と、そのときのロボット装置1の行動と、前回更新し
てからの経過時間となどに基づいて所定の演算式により
算出されるそのときのその情動の変動量を△E[t]、
現在のその情動のパラメータ値をE[t]、その情動の
感度を表す係数をkとして、(1)式によって次の周
期におけるその情動のパラメータ値E[t+1]を算出
し、これを現在のその情動のパラメータ値E[t]と置
き換えるようにしてその情動のパラメータ値を更新す
る。
【0064】
【数1】
【0065】内的状態モデル部71は、このように示さ
れる(1)式により上述の「幸せ」などの全て情動のパ
ラメータ値を更新する。
【0066】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0067】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、内的状態モデル部71は、このような情報
によっても感情を変化させる。なお、内的状態モデル部
71は、同様に、後述する本能も変化させる。
【0068】これは、例えば、「吠える」といった行動
により怒りの感情レベルが下がるといったようなことで
ある。なお、行動結果のフィードバックは、モジュレー
タ72の出力(感情が付加された行動)によりなされる
ものであってもよい。
【0069】一方、本能的要素は、欲求(本能)ごとに
その欲求の強さを表すパラメータを保持している。そし
て、本能的要素は、これら欲求のパラメータ値を、それ
ぞれ入力セマンティクスコンバータモジュール59から
与えられる認識結果や、経過時間及び出力セマンティク
スコンバータモジュール68からの通知などに基づいて
周期的に更新する。
【0070】具体的に本能的要素は、「疲れ」、「愛
情」、及び、「好奇心」、「***」、「***」の認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量を△I[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。
【0071】
【数2】
【0072】内的状態モデル部71は、この(2)式に
より上述の疲れなどの全て本能(欲求)のパラメータ値
を更新する。
【0073】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各本能的要素
の各欲求のパラメータ値の変動量△I[k]にどの程度
の影響を与えるかは予め決められており、例えば出力セ
マンティクスコンバータモジュール68からの通知は、
「疲れ」のパラメータ値の変動量△I[k]に大きな影
響を与えるようになっている。
【0074】また、以下に示すように、所定の欲求のパ
ラメータ値を決定することもできる。
【0075】本能的要素のうち、「痛み」については、
ミドル・ウェア・レイヤ40の姿勢検出用の信号処理モ
ジュール55と、入力セマンティクスコンバータモジュ
ール59を介して通知される異常姿勢の回数に基づい
て、回数をNとし、痛みの強さをKとし、痛みが減少
する速度の定数をKとし、(3)式により、「痛み」
のパラメータ値I[k]を算出し、この演算結果を現在
の痛みのパラメータ値I[k]と置き換えるようにして
当該「痛み」のパラメータ値を変更する。ただし、I
[k]<0のときはI[k]=0、t=0、N=0とす
る。
【0076】
【数3】
【0077】また、「熱」については、入力セマンティ
クスコンバータモジュール59を介して与えられる温度
検出用の信号処理モジュール51からの温度データに基
づいて、温度をTとし、外気温をTとし、温度上昇係
数Kとして、(4)式により、「熱」のパラメータ値
I[k]を算出し、この演算結果を現在の熱のパラメー
タ値I[k]と置き換えるようにして当該「熱」のパラ
メータ値を更新する。T−T<0のときには、I
[k]=0とする。
【0078】
【数4】
【0079】また、「食欲」については、入力セマンテ
ィクスコンバータモジュール59を介して与えられるバ
ッテリ残量データ(図示しないバッテリ残量検出用のモ
ジュールが得た情報)に基づいて、バッテリ残量をB
として、所定周期で、(5)式により、「食欲」のパラ
メータ値I[k]を算出し、この演算結果を現在の食欲
パラメータ値I[k]と置き換えることにようにして当
該「食欲」のパラメータ値を更新する。
【0080】
【数5】
【0081】また、「乾き」については、入力セマンテ
ィクスコンバータモジュール59を介して与えられるバ
ッテリ残量変化速度に基づいて、時刻tにおけるバッテ
リ残量をB(t)とし、今時刻tとtでバッテリ
残量データを取得したとすると、(6)式により、「乾
き」のパラメータ値I[k]を算出し、この演算結果を
現在の乾きパラメータ値I[k]と置き換えるようにし
て当該「乾き」のパラメータを更新する。
【0082】
【数6】
【0083】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
【0084】以上述べたように内的状態モデル部71が
構成され、ロボット装置1は、この内的状態モデル部7
1により、自己及び周囲の状況や、ユーザからの指示及
び働きかけに応じて、本能(欲求)や感情の状態(パラ
メータ)を変化させて自律的な行動を行うことができる
ようになされている。
【0085】(3−2)環境に応じた本能及び感情の変
化 かかる構成に加えてこのロボット装置1の場合、例え
ば、周囲が「明るい」ときには陽気になり、これに対し
て周囲が「暗い」ときには物静かになるなど、周囲の環
境のうちの「騒音」、「温度」及び「照度」の3つの条
件(以下、環境条件という。)の度合いに応じて感情・
本能を変化させるようになされている。
【0086】すなわち、このロボット装置1には、周囲
の状況を検出するための外部センサとして、上述したC
CDカメラ20、距離センサ22、タッチセンサ21及
びマイクロホン23などに加えて周囲の温度を検出する
ための温度センサ(図示せず)が所定位置に設けられて
いる。対応する構成として、ミドル・ウェア・レイヤ4
0の認識系60には、騒音検出用、温度検出用及び明る
さ検出用の各信号処理モジュール50〜52が設けられ
ている。
【0087】そして、騒音検出用の信号処理モジュール
50は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33を介して与えられるマイクロホ
ン23(図2)からの音声データに基づいて周囲の騒音
レベルを検出し、検出結果を入力セマンティクスコンバ
ータモジュール59に出力するようになされている。
【0088】また、温度検出用の信号処理モジュール5
1は、バーチャル・ロボット33を介して与えられる温
度センサからのセンサデータに基づいて周囲の温度を検
出し、検出結果を入力セマンティクスコンバータモジュ
ール59に出力する。
【0089】さらに、明るさ検出用の信号処理モジュー
ル52は、バーチャル・ロボット33を介して与えられ
るCCDカメラ20(図2)からの画像データに基づい
て周囲の照度を検出し、検出結果を入力セマンティクス
コンバータモジュール59に出力する。
【0090】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜52の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、当該認識結果を上述のようにアプリケー
ション・モジュール41(図5)の内的状態モデル部7
1に出力する。
【0091】具体的に、入力セマンティクスコンバータ
モジュール59は、騒音検出用の信号処理モジュール5
0の出力に基づいて周囲の「騒音」の度合いを認識し、
「うるさい」又は「静か」といった認識結果を内的状態
モデル部71に出力する。
【0092】また、入力セマンティクスコンバータモジ
ュール59は、温度検出用の信号処理モジュール51の
出力に基づいて周囲の「温度」の度合いを認識し、「暑
い」又は「寒い」といった認識結果を内的状態モデル部
71及び知覚情報取得部90に出力する。
【0093】さらに、入力セマンティクスコンバータモ
ジュール59は、明るさ検出用の信号処理モジュール5
2の出力に基づいて周囲の「照度」の度合いを認識し、
「明るい」又は「暗い」といった認識結果を、内的状態
モデル部71等に出力する。
【0094】内的状態モデル部71は、上述のように、
入力セマンティクスコンバータモジュール59から与え
られる各種認識結果に基づき(1)式に従って各パラメ
ータ値を周期的に変更する。
【0095】そして、内的状態モデル部71は、入力セ
マンティクスコンバータモジュール59から与えられる
「騒音」、「温度」及び「照度」についての認識結果に
基づいて、予め定められた対応する情動についての
(1)式の係数kの値を増減させる。
【0096】具体的には、内的状態モデル部71は、例
えば「うるさい」といった認識結果が与えられた場合に
は「怒り」の情動に対する係数kの値を所定数増加さ
せ、これに対して「静か」といった認識結果が与えられ
た場合には「怒り」の情動に対する係数kの値を所定
数減少させる。これにより、周囲の「騒音」に影響され
て「怒り」のパラメータ値が変化することになる。
【0097】また、内的状態モデル部71は、「暑い」
といった認識結果が与えられた場合には「喜び」の情動
に対する係数kの値を所定数減少させ、これに対して
「寒い」といった認識結果が与えられた場合には「悲し
み」の情動に対する係数kの値を所定数増加させる。
これにより、周囲の「温度」に影響されて「悲しみ」の
パラメータ値が変化することになる。
【0098】さらに、内的状態モデル部71は、「明る
い」といった認識結果が与えられた場合には「喜び」の
情動に対する係数kの値を所定数増加させ、これに対
して[暗い」といった認識結果が与えられた場合には
「恐れ」の情動に対する係数k の値を所定数増加させ
る。これにより、周囲の「照度」に影響されて「恐れ」
のパラメータ値が変化することになる。
【0099】これと同様にして、内的状態モデル部71
は、上述のように、入力セマンティクスコンバータモジ
ュール59から与えられる各種認識結果等に基づき
(2)式〜(6)式に従って各欲求のパラメータ値を周
期的に変更する。
【0100】また、内的状態モデル部71は、入力セマ
ンティクスコンバータモジュール59から与えられる
「騒音」、「温度」及び「照度」の度合いについての認
識結果に基づいて、予め定められた対応する欲求の
(2)式の係数kの値を増減させる。
【0101】具体的に内的状態モデル部71は、例えば
「うるさい」や「明るい」といった認識結果が与えられ
た場合には、「疲れ」に対する係数kの値を所定数減
少させ、これに対して「静か」や「暗い」といった認識
結果が与えられた場合には「疲れ」に対する係数k
値を所定数増加させる。また、内的状態モデル部71
は、「暑い」又は「寒い」といった認識結果が与えられ
た場合には「疲れ」に対する係数kの値を所定数増加
させる。
【0102】この結果このロボット装置1においては、
例えば周囲が「うるさい」ときには、「怒り」のパラメ
ータ値が増加しやすく、「疲れ」のパラメータ値が減少
しやすくなるために、全体として行動が「いらいら」し
たような行動となり、これに対して周囲が「静か」なと
きには、「怒り」のパラメータ値が減少しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「おちついた」行動となる。
【0103】また、周囲が「暑い」ときには、「喜び」
のパラメータ値が減少しやすく、「疲れ」のパラメータ
値が増加しやすくなるために、全体として行動が「だら
けた」ような行動となり、これに対して周囲が「寒い」
ときには、「悲しみ」のパラメータ値が増加しやすく、
「疲れ」のパラメータ値が増加しやすくなるために、全
体として行動が「寒がっている」行動となる。
【0104】また、周囲が「明るい」ときには、「喜
び」のパラメータ値が増加しやすく、「疲れ」のパラメ
ータ値が減少しやすくなるために、全体として行動が
「陽気」な行動となり、これに対して周囲が「暗い」と
きには、「喜び」のパラメータ値が増加しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「物静か」な行動となる。
【0105】このようにしてロボット装置1は、内的状
態モデル部71により、環境(外的要因や内的要因)に
応じて本能及び感情の状態を変化させることができ、こ
の本能や感情を行動に表出させることができる。さら
に、内的状態モデル部71によって得られる本能及び感
情の状態は、行動選択部80において行動を選択するた
めの情報としても使用される。
【0106】(3−3)行動選択部の構成 行動選択部80は、予め用意されている複数の行動から
一の行動を選択する。この行動選択部80は、動物行動
学的なアプローチにより行動選択(決定)をするように
構築されている。
【0107】一般的には、動物は、行動に影響する複数
の外的原因因子及び内的原因因子(以下、まとめて原因
因子という。)に基づいて行動を決定していると考えら
れ、さらにはそれら因子が複雑に絡み合った状態におい
て行動を決定している。ロボット装置1は、そのような
一般的な動物の行動決定のメカニズムを取り入れて、そ
の行動を決定するようになされている。
【0108】行動決定のメカニズムが動物行動学なアプ
ローチにより構築されたロボット装置1は、例えば、図
6中(A)に示すように、目の前に水たまりがあるとき
次のような手順により出現させる行動を決定する。
【0109】ロボット装置1は、「水を発見」、「水ま
では10cm」という外的原因因子(外的知覚要素、例
えば、知覚に基づくもの)を知覚し認識する(評価す
る)。一方で、ロボット装置1は、例えば、内的原因因
子(内的動機要素、例えば、本能や感情にもとづくも
の)としての動機が「のどの乾きが高く」、「中程度に
怒っている」の状態にある。なお、動機は、上述した内
的状態モデル部71のパラメータ値を使用して取得され
るものである。これは、後で詳述する。
【0110】ここで、動物行動学的なアプローチによれ
ばその行動決定において少なくとも次のような判断がな
される。
【0111】「のどの乾きが高い」の状態にあり、かつ
「水を発見」の場合にあっても、例えば、水への距離が
長いときには水をとる行動(摂水行動)を起こすとは限
らない。例えば、水までの距離が遠い場合には、体力も
それだけ消費することになり、のどが乾きがさらにひど
くなるといったことが本能的に処理されるからである。
【0112】逆に、「のどの乾きが低い」の状態にあ
り、かつ「水が目の前にある」のときは、摂水行動をす
ることもある。このように、「のどの乾き」といった内
的原因因子から一概に摂水行動がなされるか否かが判断
されるものではなく、「水がある」また「水が目の前に
ある」といった外的原因因子から行動決定の判断なされ
るものである。すなわち、行動は、複数の外的原因因子
及び内的原因因子に基づいて決定され、それら因子が複
雑に絡み合った状態において決定される。
【0113】また、この際、他の行動と比較して、最終
的に行動が決定される。例えば、「水を飲みたい」かつ
「食物を食べたい」の状態にある場合には、「水を飲み
たい」の度合い或いはその実現可能性と、「食物を食べ
たい」の度合い或いはその実現可能性とを比較して、一
の行動として例えば、摂水行動を選択する。
【0114】このような動物行動学的なアプローチによ
り、ロボット装置1は最終的に行動を決定している。す
なわち、ロボット装置1は、「のどの乾きが高い」とい
った状況下の「水の発見」、さらには「水までは10c
m」とあること等の情報から総合的に判断し、「摂食行
動」等の他の行動を排除して、「摂水行動」を出現させ
る。
【0115】また、ロボット装置1は、「中程度に怒っ
ている」の状態として、怒っている動作を伴い摂水行動
を出現させる。これは、上述したモジュレータ72によ
って実現されるものである。そして、例えば、ロボット
装置1は、内部状態として、水を発見したことにより、
その「怒り」のレベルを低下させる。これは、上述した
出力セマンティクスコンバータモジュール68から内的
状態モデル部71への行動完了情報のフィードバックに
より実現される。
【0116】図6中(B)には、上述したような動物行
動学的なアプローチにより、「摂水行動」の具体的な行
動として「前方へ歩く」を選択するまでの手順を示して
いる。
【0117】先ず、ロボット装置1は、上述の図6中
(A)に示すような状態におかれた場合、複数の行動か
ら「摂取行動」を選択する。選択されなかった他の行動
としては、例えば、「闘争行動」、「探索行動」等が挙
げられる。例えば、ロボット装置1は、このような「摂
取行動」、「闘争行動」及び「探索行動」等が選択可能
な行動グループとされて、サブシステム(サブシステム
層)として保持している。
【0118】ここで、行動グループは、上位の行動を具
現化する複数の下位の行動群からなり、例えば、下位の
行動は、互いに抑制しあう関係にある。以下、同様であ
る。
【0119】次に、ロボット装置1は、選択した摂取行
動内から一の行動として「摂水行動」を選択する。選択
されなかった他の摂取行動としては、例えば「摂食行
動」が挙げられる。例えば、ロボット装置1は、このよ
うな「摂水行動」や「摂食行動」等が選択可能な行動グ
ループとされて、モード(モード層)として保持してい
る。すなわち、「摂水行動」や「摂食行動」を行動グル
ープとし、「摂取行動」の下位行動として保持してい
る。
【0120】次に、選択した摂水行動内から一の行動と
して「水に近づく」を選択する。他の摂水行動として
は、例えば「水を口に入れる」が挙げられる。例えば、
ロボット装置1は、このような「水に近づく」や「水を
口に入れる」等が選択可能なグループとされて、モジュ
ール(モジュール層)として保持している。
【0121】次に、「水に近づく」の具体的行動として
「前進する」を選択して、実際の行動として出現させ
る。なお、選択されなかった他の「水に近づく」の行動
としては、例えば「後進する」、「右に曲がる」及び
「左に曲がる」が挙げられる。例えば、ロボット装置1
は、このような「前進する」、「後進する」、「右に曲
がる」及び「左に曲がる」等が選択可能なグループとさ
れて、モータコマンド(モータコマンド層)として保持
している。
【0122】このような手順により、ロボット装置1
は、動物行動学的なアプローチから「前方へ歩く」とい
った最下位層の行動を上位の行動を規定する「摂取行
動」の最終的な行動として出現させている。
【0123】図7には、ロボット装置1の有する行動決
定のために構築されている行動選択システムを示す。こ
の行動選択システムは、例えば、行動選択部80におい
て構築されている。
【0124】行動選択システムは、複数の行動が階層構
造(ツリー構造)とされて構築されている。この階層構
造とされる行動選択システムでは、下位の行動が複数個
からなる行動グループが、上位を具現化する行動群から
構成されている。例えば、上位の行動が「闘争行動」と
いった場合には、下位の行動が「戦い・捕食行動」、
「防御・逃避行動」といった行動からなるようにであ
る。
【0125】例えば、この行動選択システムは、各行動
の情報をデータ形態(例えば、データベース形態)とし
て保持することとしてもよく、オブジェクト指向として
設計されてもよい。例えば、オブジェクト指向として行
動選択部が設計された場合、行動選択システムは、各行
動が独立してオブジェクトの単位として構成され、各オ
ブジェクト単位で行動選択のための各種処理がなされる
ようになる。
【0126】この図7に示すように複数の行動が階層構
造とされ構築されている行動選択システムでは、より上
位層の行動が願望のような抽象的な行動とされ、下位層
の行動がそのような願望を実現するための具体的な行動
とされている。
【0127】このような行動選択システムでは、下位の
層に進みながら行動を選んでいき、すなわち、上位の行
動を実現化する行動を選んでいき、最終的な行動の選択
がなされる。すなわち、中間層における行動について言
えば、最上位の行動から最下位の行動が選択されるまで
の選択された経路上の情報を示すものとなる。
【0128】このように上位の層から下位の層に進むな
かで各層において行動の選択がなされていく際に、各層
では、上述したような外的原因因子や内的原因因子によ
って一の行動の選択がなされていくのである。
【0129】行動選択部80は、具体的には、図5に示
したように、知覚情報取得部90、動機情報取得部81
及び行動選択演算部82を有している。この行動選択部
80を構成する各部は、概略として、図8及び図9に示
すように機能する。
【0130】知覚情報取得部90は、行動ごとに、知覚
情報を取得する。例えば、知覚情報の取得として、後述
するリリースメカニズム(Release Mechanism)におけ
る知覚の評価を示すRM値を計算する。例えば、この知
覚情報取得部90により、水が発見され、水までの距離
が10cmであることの認識がなされる。これにより、
摂取行動(摂水行動)の値が高くなる、すなわち選択可
能性が高くなる。
【0131】動機情報取得部81は、内的状態に基づい
て、行動ごとの動機情報を取得する。例えば、行動ごと
の動機情報の取得として、上述本能値、感情値に基づい
て、行動ごとの動機を計算する。具体的には、後述する
モチベーションクリエータにおける動機の状態を示すM
ot値を計算する。例えば、動機情報取得部81によ
り、のどが乾きの状態が取得される。これにより、摂食
行動の動機値が高くなり、摂食行動のうち、摂水行動が
さらに高くなる。
【0132】行動選択演算部82は、行動ごとに、動機
情報取得部81からの動機情報(動機値)と、知覚情報
取得部90からの知覚情報(値)とから、所望の行動を
選択する。そして、行動選択演算部82は、所望の行動
の選択の際に、同一グループ(行動グループ)内の他の
行動を排他的に制御する。例えば、この行動選択演算部
82により、サブシステム層では摂取行動が選択され、
さらに摂取行動内の摂水行動が選択される。
【0133】また、行動選択演算部82は、選択された
行動に基づいて、実際の動作群の計画をする。例えば、
「前方へ移動(Move-forward)」を選択する、といった
ようにである。
【0134】なお、内的状態モデル部71は、上述した
ように、体内の本能や感情の状態等の内的状態について
の情報を取得する。例えば、内的状態の情報の取得とし
て、本能値や感情値を算出する。具体的には、上述した
本能(欲求)のパラメータ値や情動のパラメータ値、或
いは後述するIE値を算出する。例えば、この内的状態
モデル部71では、動いたため、のどが乾いているとい
った状態の情報が取得される。
【0135】また、出力セマンティクスコンバータモジ
ュール68は、図8に示すように、行動をロボット装置
1のタイプに応じた動作列に変換するモジュールであ
る。例えば、出力セマンティクスコンバータモジュール
68は、今、ロボット装置1のタイプが4足ロボットで
あることを認識し、入力されてくる行動及び感情状態に
応じて動作列に変換する。すなわち、出力セマンティク
スコンバータモジュール68は、上位の行動決定システ
ム70からの行動のコマンドから、対応する各信号処理
モジュール61〜67にコマンドを送る。
【0136】なお、図9に示すようなモジュレータ7
2、姿勢管理モジュール等については、後で詳述する。
なお、図9において、「input」の欄は入力されるコマ
ンドの形態を示し、「output」の欄は出力されるコマン
ドの形態を示す。
【0137】以上のように、行動選択部80が構成され
ている。次に、行動選択部80が行動選択のシステムと
して採用する動物行動学的なアプローチについてさらに
詳しく説明する。
【0138】(3−4)動物行動学的なアプローチによ
る行動選択 一般的には、動物の行動の決定(選択)は、上述のよう
に、複数の因子が複雑に絡み合ってなされるものであ
る。単純な例としては、図10に示すように、知覚と動
機とから行動が決定される。
【0139】ここで、知覚は、行動に影響する外部から
の情報であり、入力されてくる外界環境によって誘発若
しくは制約される条件と考えることができる。また、動
機は、「お腹がすいた」等の内部の情報であり、内的状
態を表現しており、その行動を起こしたいという内的意
図と考えることができる。このように、知覚や動機とい
ったものを原因として、その作用として行動の決定がな
されているとすることができる。
【0140】知覚及び動機に基づく行動決定は、具体的
には次のようにしてなされる。なお、次に説明する行動
決定(選択)のための原理は、SilbyとMcfarland(197
5)が提唱した状態空間アプローチによるものである。
【0141】SilbyとMcfarland(1975)は、まず動物は
最も出現傾向の高い活動(行動)を遂行する、との仮定
から理論を出発している。出現傾向の配列をはっきりと
表す1つの方向としてベクトル空間がある。そこで、ベ
クトルの大きさは、ある共通性をもった指標に基づいた
いわゆる出現傾向の強さを示している。出現傾向とは、
例えば、摂食行動が出現される傾向(度合い)や摂水行
動が出現される傾向(度合い)等がある。そして、全て
の出現傾向の状態は、この出現傾向空間上の点として表
される。
【0142】そして、この空間は、出現傾向の最も高い
行動がどれかという領域毎に分けられ、その境界線が
「切り換え境界線(スイッチングライン、switching li
ne)」となる。
【0143】一方、出現傾向はさまざまな原因因子に依
存している。例えば、摂食傾向は、食物制限、摂食機
会、補食の可能性等に依存しているのである。これら全
ての原因因子をはっきりと表す方法は、もう1つのベク
トル空間を用いることである。原因因子から出現傾向を
決めるというのは、次のような表現と同義になる。すな
わち、原因因子の状態空間から出現傾向空間への写像が
あり、そこで原因因子のいかなる状態に対しても対応す
る出現傾向の状態空間が存在するようになっている。そ
して、どの行動が行われるかの決定ができるようになっ
ているというものである。原因因子と出現傾向との関連
性を図11を用いて説明する。
【0144】図11中(A)及び(C)は、原因因子の
状態を示す原因因子状態空間を示すものである。この原
因因子状態空間は、ある行動が導かれることに影響する
原因因子によって構成される。原因因子としては、上述
した「知覚」、「動機」が挙げられる。なお、この図1
1では、単純化のために2次元空間だけを検討したもの
であるが、実際には、行動の出現傾向の多くは、3次元
以上の原因因子状態空間によって決定されるものであ
る。
【0145】図11中(A)は、具体的には、摂食の行
動が出現される傾向、すなわち「摂食行動」の出現傾向
(以下、摂食傾向という。)を示すもので、原因因子と
される「動機」として「空腹」を横軸にとり、原因因子
とされる「知覚」として「おいしさ」を縦軸にとってい
る。また、図11中(C)は、摂水の行動が出現される
傾向、すなわち「摂水行動」の出現傾向(以下、摂水傾
向という。)を示すもので、「動機」として「のどのか
わき」を横軸にとり、「知覚」として「水への距離」を
縦軸にとっている。
【0146】また、図11中(B)は、図11中(A)
及び(C)における原因因子の状態に基づく「摂食傾
向」及び「摂水傾向」の出現傾向の空間を示す。すなわ
ち、原因因子により影響される行動の出現傾向が写像さ
れ、これらの出現傾向の比較が可能とされる空間を示
す。
【0147】先ず、原因因子状態空間について、図12
を用いて具体的に説明する。この図12に示す原因因子
状態空間は、上述の図11中(A)に示す「摂食行動」
の原因因子状態空間である。
【0148】図12に示すように、すごくおいしいもの
があって(m状態)、でもそんなにお腹がすいていな
い状態(原因状態)にあるとき(n状態)、一方、も
のすごくお腹がすいているが(n(>n)状態)、
あまりおいしくない食物がある状態(原因状態)にある
とき(m(<m)状態)に、摂食行動が出現され
る。すなわち、一概に、動機とされる「空腹」にのみ依
存して摂食行動が出現されるのではなく、また、知覚と
される「おいしさ」にのみ依存して摂食行動が出現され
るものでもなく、「空腹」と「おいしさ」とが相互に作
用して、摂食行動が出現される。
【0149】言い換えれば、「空腹」の程度が異なって
いる場合であっても、摂食行動は出現され、「空腹」と
「おいしさ」との状態によっては、原因因子状態空間内
に摂食行動が出現される度合いが同じ原因状態、すなわ
ち摂食傾向を同程度とする原因状態が複数点に存在す
る。例えば、空腹でないときにとてもおいしい食物を与
えたりしたときに、或いは非常に空腹であるときにあま
りおいしくない食物を与えたりしたときに、同程度の摂
食傾向が存在するということである。
【0150】例えば、摂食行動では、「空腹」と「おい
しさ」とを原因因子としてみた場合、その出現傾向が同
程度とされるには、「空腹」が高い(多い)ときには
「おいしさ」が低く(少なく)、また、「空腹」が低い
(少ない)ときには「おいしさ」が高い(多い)。よっ
て、摂食傾向を同程度とすることを考えた場合、「空
腹」と「おいしさ」とは反比例の関係となり、摂食傾向
が同程度とされる点を結ぶと、図12において例えばそ
れが曲線として示される。すなわち、図12に示すよう
に、摂食傾向のいわゆる強さ(ベクトルの強さ)yを同
程度とするような原因因子の状態が複数存在して、それ
らは原因因子状態空間において曲線として示される。
【0151】さらに、原因因子状態空間には、異なる複
数の摂食傾向の強さy,y,・・・が存在し、図1
2に示すように、それが摂食傾向の強さの分布として、
いわゆる等高線として示される。
【0152】なお、図12において、原因因子状態空間
における右上方向に行くほど、摂食の強さは強くなるこ
とを示す。これは、すごくお腹がすいており、さらに目
の前にはすごくおいしい食物があれば、誰しもが摂食行
動をとるようになる、といったようなことをいうもので
ある。
【0153】このように、原因因子により摂食傾向の強
さを定義づけることができ、同様にして、摂水傾向の強
さを定義づけることができる。
【0154】すなわち、摂水行動は、のどのかわきが激
しいときには水(水のある場所)への距離が遠くても出
現され、また、のどのかわきが少ないときでも水への距
離が近い場合に出現され、「のどのかわき」と「水への
距離」とが相互に作用して、摂水行動が出現される。
【0155】言い換えれば、「のどのかわき」の程度が
異なっている場合であっても、摂水行動は出現され、
「のどのかわき」と「水への距離」との状態によって
は、原因因子状態空間内に摂水傾向を同程度とする原因
状態が複数点に存在する。例えば、水が欠乏していない
ときに水が目の前にあったり、或いは水が非常に欠乏し
ているときに水が遠くにあったりしたときに同程度とす
る摂水傾向が存在するということである。
【0156】そして、摂水傾向を同程度とすることを考
えた場合、「のどのかわき」と「水への距離」とは反比
例の関係にあり、摂水傾向が同程度とされる点を結ぶ
と、例えば図11中(C)において原因因子状態空間内
において曲線として示される。すなわち、図11中
(C)に示すように、摂水傾向のいわゆる強さxが同程
度とされるような原因因子の状態が複数存在して、それ
らは原因因子状態空間において曲線として示される。そ
して、図11中(C)に示すように、原因因子状態空間
には、異なる摂水傾向の強さx,x,・・・が等高
線として示される。
【0157】以上述べたように、「摂食傾向」の強さ
と、「摂水傾向」の強さとが、各原因因子の状態に基づ
いて求められ、これらの強さの基づいてその比較がなさ
れ、一の行動の決定(選択)がなされる。そして、その
ような出現傾向が比較されるのが、図11中(B)に示
す出現傾向空間においてである。出現傾向空間は、出現
可能な行動の傾向から構成されている。
【0158】例えば、ある原因状態において、ある摂食
傾向の強さyとある摂水傾向の強さxとが得られた
場合、図11中(B)に示すように、原因因子状態空間
から写像された摂食傾向の強さyと摂水傾向の強さx
とが出現傾向空間上において組み合わされて比較され
る。具体的には、次のようにして行動の選択がなされ
る。
【0159】図11中(B)に示すように、切り換え境
界線の設定によって、出現傾向空間が2つの領域に分割
される。y=0(摂水傾向を示すx軸)と切り換え境界
線とで囲まれる領域(以下、摂水行動選択領域とい
う。)と、x=0(摂食傾向を示すy軸)と切り換え境
界線とで囲まれる領域(以下、摂食行動選択領域とい
う。)とが形成される。
【0160】このように出現傾向空間にて切り換え境界
線の設定により形成される各領域に、原因因子状態空間
から写像された値(x,y)の位置によって一の行動が
決定される。すなわち、値(x,y)が摂水行動選択領
域内にある場合には、摂水行動が選択され、また、値
(x,y)が摂食行動選択領域内にある場合には、摂食
行動が選択されるようになる。よって、図11中(C)
に示す例では、値(x,y)が摂水行動選択領域に
なることから摂水行動が選択されることになる。
【0161】なお、単純化のため、原因因子の状態空間
を、摂食と摂水それぞれに関与する状態変数(原因因
子)に分けて示しているが、実際には1つの状態変数は
複数の行動の出現傾向に影響を及ぼす。原因因子空間の
曲線は、特定の行動の出現傾向と同一のレベルをもたら
す状態につながっている。
【0162】また、最終的に選択された行動によって、
それに関わる原因因子やそれ以外の複数の原因因子に影
響を及ぼす可能性がある。このようなことから、情報の
排他処理がなされている。
【0163】以上のような動物行動学的なアプローチと
して、原因因子を用いた行動決定(選択)の手法は、例
えばSilbyとMcfarland(1975の論文)やLudlow(競合モ
デルとして)が提唱している。
【0164】(3−5)動物行動学的なアプローチによ
る行動決定を実現する計算式 上述したような行動決定への動物行動学的なアプローチ
はあくまでも理論であり、実際のロボット装置1に適用
するためには、上述した動物行動学的なアプローチをデ
ータベース等としての情報化、或いは数式化する必要が
ある。そこで、本発明を実現するために、上述した動物
行動学的なアプローチからの行動決定を次のように数式
化した。
【0165】図13中(A)に示すように、「摂食行
動」の原因因子とされる「空腹」の状態(度合い)をM
ot[0]とおき、「おいしさ」の評価をRM[0]と
おく。そして、あるMot[0]及びRM[0]がある
値における摂食傾向(傾向の強さ)をBe[0]とお
く。
【0166】同様に、図13中(B)に示すように、摂
水行動の原因因子とされる「のどのかわき」の状態(度
合い)をMot[1]とおき、「水への距離」の評価を
RM[1]とおく。そして、Mot[1]及びRM
[1]がある値における摂水傾向(傾向の強さ)をBe
[0]とおく。これらの関係は、次に示す表のようにな
る。
【0167】
【表1】
【0168】なお、本例では、比較する出現傾向が「摂
食行動」及び「摂水行動」の2つなので、知覚について
はRM[0]、RM[1]の2値とし、動機については
Mot[0]、Mot[1]の2値としているが、多く
の出現傾向についても比較することは可能である。この
ようなことから、知覚(外的知的要素)をRM[i]、
動機(内的動機要素)をMot[i]及び出現傾向をB
e[i]とし、ここでiを整数として、一般化する。以
下、特に出現される行動の種類を言及しないときには、
これら一般化したものを示す。
【0169】なお、上述した例で、「摂食行動」につい
てみた場合、同程度の出現傾向は、「空腹」と「おいし
さ」とが反比例の関係の下で成立することについて述べ
ているが、同程度の出現傾向とされるためには、出現傾
向に作用する原因因子が必ず反比例の関係にあるとは限
らない。すなわち、Be[i]とRM[i]とMot
[i]とは(7)式のような関係として示すことができ
るが、RM[i]とMot[i]との関係が必ず反比例
の関係になるとは限らない。要は、出現傾向は、動機
(内的動機要素)にのみ影響を受けるのではなく、知覚
(外的知的要素)の影響をも受けるということである。
【0170】
【数7】
【0171】また、「おいしさ」や「水への距離」とい
った知覚評価RM[i]は、知覚情報取得部90におい
て取得されるものであり、また、「空腹」や「のどのか
わき」といった動機Mot[i]は、動機情報取得部8
1において取得されるものである。知覚情報取得部90
及び動機情報取得部81におけるこれらの情報の取得の
ための具体的な処理等については、後で詳述する。
【0172】そして、上述したように知覚(外的知的要
素)と動機(内的動機要素)とから得られた摂食傾向及
び摂水傾向は、図14に示すような出現傾向空間上に示
される。
【0173】ここで、この図14に示す出現傾向空間
は、第1の切り換え境界線(y=αx)と第2の切り換
え境界線(y=βx)といった2本の切り換え境界線が
設定されている。すなわち、出現傾向空間が3つの領域
に分割されている。一方、上述の図11中(B)に示し
た出現傾向空間では、切り換え線が1本であった。これ
は次のような理由からである。
【0174】理論的には、上述したように、切り換え境
界線が1本でも異なる行動の間で選択は可能である。し
かし、実際のロボット装置1にそのような理論をそのま
ま適用した場合、各行動の出現傾向が設定した切り換え
境界線付近に存在すると、今選択した行動と他方の行動
との選択の切り替わりがせわしくなり、ロボット装置1
の行動に落ち着きがなくなる。このような現象は、行動
が選択されて実施された場合に当該行動の出現傾向が他
の行動に対して相対的に小さくなるといったことが前提
とされて発生する。すなわち、動機(願望)が達成され
れば、その動機の程度が小さくなり、結果としてその動
機に影響される行動の出現傾向が小さくなるというよう
なことからである。
【0175】このように、2本の切り換え境界線により
領域を分割することで、「摂食行動」が選択される領域
(摂食行動選択領域)、「摂水行動」が選択される領域
(摂水行動選択領域)、「摂食行動」又は「摂水行動」
のいずれかが選択される領域(以下、摂食又は摂水行動
選択領域という。)の3つ行動選択の領域が形成され
る。これにより、ロボット装置1の行動に落ち着きがな
くなることを防止することができる。このように、2本
の切り換え境界線を設定することで、ロボット装置1の
行動に落ち着きがなくなることが防止される理由につい
ては、後で詳述する。
【0176】この図14に示す出現傾向空間において、
出現傾向の最も強い行動が次のような関係から選択され
る。
【0177】図14に示す出現傾向空間は、摂食傾向B
e[0]をx軸におき、摂水傾向Be[1]をy軸にお
き、摂食傾向Be[0]と摂水傾向Be[1]とから構
成されている。そして、このような出現傾向空間におい
て、第1及び第2の切り換え境界線をそれぞれy=αx
及びy=βxとして設定する。例えば、傾き係数α,β
は、任意の値として決定し、例えば、ロボット装置1の
成長などに応じて決定することができる。
【0178】ここで、摂食傾向Be[0]は、図13中
(A)に示す「空腹」Mot[0]及び「おいしさ」R
M[0]により決定される値であり、摂水傾向Be
[1]は、図13中(B)に示す「のどのかわき」Mo
t[1]、「水への距離」RM[1]により決定される
値である。
【0179】このような出現傾向空間において、図14
に示すように、原因因子状態空間から写像された値
(a,a’)が摂食行動選択領域にある場合(点C)に
は、一の行動として摂食行動が選択され、一方、値
(a,a’)が摂水行動選択領域にある場合(点D)に
は、一の行動として摂水行動が選択される。
【0180】そして、値(a,a’)は、例えば、図1
3中(A)に示すように、「空腹」がMot[0]=n
、「おいしさ」がRM[0]=mの状態にあり、こ
のとき「摂食傾向」Be[0]がaとされ、さらに、図
13中(B)に示すように、「のどのかわき」がMot
[1]=n、「水への距離」がRM[1]=mの状
態にあり、このとき「摂水傾向」Be[1]がa’とさ
れた場合である。
【0181】以上のような行動の選択は、次のような数
式化により実現することができる。
【0182】先ず、a’/a(Be[1]/Be
[0])の値として考える。x=0と第2の切り換え境
界線(y=βx)とによって囲まれる摂水行動選択領域
に値(a,a’)が位置される条件は、∞>a’/a>
βである。また、y=0と第1の切り換え境界線(y=
αx)とによって囲まれる摂食行動選択領域に値(a,
a’)が位置される条件は、α>a’/a>0である。
【0183】このような関係式から以下のような式が導
き出せる。α>a’/a>0の場合、すなわち値(a,
a’)が摂食行動選択領域にある場合には、図15中
(A)に示すようになり、(8)式及び(9)式が成り
立つ。
【0184】
【数8】
【0185】
【数9】
【0186】ここで、第1の切り換え境界線の傾きαは
(10)式のような関係のα’として示すことができ
る。なお、α’は、後述するように、摂水傾向Be
[1]から摂食傾向Be[0]に対する排他制御ゲイン
(>1)となる。
【0187】
【数10】
【0188】このような関係から、「摂食行動」が選択
されるための条件は(11)式を満たすものであること
が導き出される。
【0189】
【数11】
【0190】次に、図15中(B)は摂水行動の場合を
示しており、第2の切り換え境界線の傾きβは(12)
式として与えられる。なお、βは、後述するように、摂
食傾向Be[0]から摂水傾向Be[1]に対する排他
制御ゲイン(>1)となる。
【0191】
【数12】
【0192】このような関係から、「摂水行動」が選択
されるための条件は(13)式を満たすものであること
が導き出される。
【0193】
【数13】
【0194】なお、上述の条件を満たすのは、(14)
式かつ(15)式である場合である。したがって、摂食
行動をとるようになるときには、(14)式を満たし、
摂水行動をとるようになるときには、(15)式が満た
される。
【0195】
【数14】
【0196】
【数15】
【0197】ここで、上述のような(a−a’α’)及
び(a’−aβ)を行列として記述すると(16)式の
ようになる。
【0198】
【数16】
【0199】また、これを離散的に計算するものとする
と、時刻tにおける出現傾向Be[i]と時刻t−1
における出現傾向Be(t−1)[i]とを用いて記述
すると(17)式のようになる。
【0200】
【数17】
【0201】ここで、α’は、摂水傾向Be[1]から
摂食傾向Be[0]に対する排他制御ゲイン(>1)
を示し、また、βは、摂食傾向Be[0]から摂水傾
向Be[1]に対する排他制御ゲイン(>1)を示す
ものとなる。例えば、イメージ的には、図16に示すよ
うに、α’が摂食傾向Be[0]に対する排他制御ゲ
インとして働き、また、βが摂食傾向Be[1]に対
する排他制御ゲインとして働く。
【0202】このように、複数の行動についての出現傾
向を行列式として示すことができるようになる。そし
て、行列式の左辺における行列中に正となるBe
[i]があるとき、当該出現傾向Be[i]に対応
される行動が一の行動として選択される。
【0203】なお、上述のような行列式の場合には、一
方の出現傾向の値が負となっているので、負となってい
る当該出現傾向については、0を代入して、再帰的に計
算をする。
【0204】上述の(17)式を用いて排他制御を再帰
的に行うことにより、図17に示すような行動の選択が
なされるようになる。
【0205】ここで、前提として、選択された一の行動
が実行されると、当該一の行動に対する原因因子の影響
が少なくなり、当該実行された一の行動の出現傾向が小
さくなるとする。すなわち、例えば、「摂食行動」が一
の行動として選択された場合、摂食行動が実現されて摂
食に対する動機等が満たされるので、当該「摂食行動」
に対する原因因子(動機)の影響が少なくなり、その結
果、摂食傾向が小さく(弱く)なるということである。
(17)式を用いて排他制御を再帰的に行うことにより
次のように行動の選択がなされる。
【0206】図17に示すように、例えば、(摂食傾向
Be[0],摂水傾向[1])=(a,a’)が摂食行
動選択領域内(y=0とy=αxとで囲まれる領域)に
ある場合は、値(a,a’)が当該摂食行動選択領域に
ある限り、一の行動として摂食行動が選択される。ここ
で、値(a,a’)が摂食行動選択領域にある場合、上
述の(17)式の左辺の摂食傾向Be[0]は正を示
す。
【0207】そして、摂食行動が選択され続けると、上
述したように当該摂食行動の実現により原因因子の影響
が小さくなることから摂食傾向Be[0]は小さく
(弱く)なっていく。摂食傾向Beが小さくなってい
くと、値(a,a’)は摂食又は摂水選択領域に至る。
すなわち、図17に示すグラフ中において矢印Pに示
すように値(a,a’)が変化する。
【0208】摂食又は摂水行動選択領域では、摂食行動
が選択される。また、上述の(17)式にて左辺の摂食
傾向Be[0]も正を示す。そして、摂食行動が選択
され続けると、当該摂食行動の実現により原因因子の影
響が小さくなることから摂食傾向Be[0]は小さく
なっていく。そして、値(a,a’)は摂食又は摂水行
動選択領域から摂水領域(x=0とy=βxとで囲まれ
る領域)に至る。すなわち、図17に示すグラフ中にお
いて矢印Pに示すように値(a,a’)が変化する。
【0209】摂水選択領域では、摂水行動が選択され
る。ここで、値(a,a’)が摂水行動選択領域にある
場合、上述の(17)式の左辺の摂水傾向Be[1]
が今度は正を示す。
【0210】そして、摂水行動が選択され続けると、当
該摂水行動選択領域では、当該摂水行動の実現により原
因因子の影響が小さくなることから摂水傾向Be
[1]は小さくなっていく。そして、値(a,a’)
は摂水行動選択領域から摂食又は摂水行動選択領域に至
る。摂食又は摂水行動選択領域では、摂水行動が選択さ
れ、上述の(17)式にて左辺の摂食傾向Be[1]
も正を示す。さらに、摂水行動が選択され続けると、摂
水傾向Be[1]は減少し、値(a,a’)は摂食又
は摂水行動選択領域から摂食行動選択領域に至る。摂食
行動選択領域では再び摂食行動が選択されるようにな
る。すなわち、摂水行動選択領域から摂食行動選択領域
への値(a,a’)の変化は、図17に示すグラフ中に
おいて矢印Pに示すようになる。そして、以後、この
ように行動が選択されて、行動が切り換えられていく。
【0211】また、出現傾向空間において、2本の切り
換え境界線を設定することで、行動が頻繁に切り替わる
ことが防止されたものとなり、行動に落ち着きがなくな
ることが防止される。
【0212】以上のように、摂食傾向Be[0]と摂
水傾向Be[1]とが変化することにより、それらの
値の関係から値(a,a’)=(Be[0],Be
[1])が出現傾向空間上に特定されて、一の行動が選
択される。そして、このとき、(17)式においては、
摂食傾向Be[0]、摂水傾向Be[1]の何れか
が正の値を示し、正を示した出現傾向が選択される一の
行動となる。このような行動決定を図5に示す決定選択
部71により行っている。
【0213】なお、上述した実施の形態では、摂食傾向
Be[0]及び摂水傾向Be[1]により摂食行動
及び摂水行動の2つの行動が切り換えられる場合につい
て説明した。しかし、実際にはさらに多くの行動(n個
の行動)を出現傾向空間上において比較して一の行動を
選択する。すなわちn次元によって示される出現傾向空
間により一の行動の選択がなされる。n個の行動から一
の行動を選択する場合については、(18)式に示すよ
うな行列式になる。
【0214】
【数18】
【0215】ここで、G[i][j]は、ある行動の出
現傾向Be[j]に対するある行動の出現傾向Be
[i]の排他制御ゲインとなる。
【0216】以上のような数式化により、知覚や動機と
いった原因因子に基づいて各行動の出現傾向を求め、出
現傾向の強さ(大きさ)から一の行動の決定(或いは選
択)がなされるような動物行動学的なアプローチによる
行動決定が可能になる。
【0217】なお、例えば、上述の図17に示しように
行動が選択されていった場合には、最終的に出現傾向が
0、すなわち、摂食傾向Be[0]及び摂水傾向Be
[1]が0(原点)に収束してしまうようにも考えられ
る。これは、上述したように行動が実現されていくと、
そのままでは、当該行動に対しての原因因子(例えば、
動機)の影響が限りなく無に近づくからである。
【0218】しかし、選択された一の行動が実行されて
いる間に、選択されなかった他の行動に対しての原因因
子の影響が大きくなるので問題はないといえる。すなわ
ち、例えば、摂水行動が実行されている間に、選択され
ていない摂食行動についての原因因子である例えば「お
腹がすいた」の状態が変化して、これにより「空腹」の
評価が変化することで、摂食傾向が高くなるからであ
る。「寝る」或いは「歩く」ことなどにより、食欲が回
復するようにである。すなわち、選択された行動が実行
されている間に選択されなかった行動の出現傾向がいわ
ゆる回復され、これを図示すると、例えば、図18に示
すようになる。
【0219】また、第1及び第2の切り換え境界線の傾
きα、βについては、任意に決定することができる。こ
れにより、例えば、成長段階に合わせて、或いは性格に
合わせて設定することにより、そのような行動を適切に
示すことができるようになる。
【0220】例えば、ロボット装置1は成長段階に応じ
て出現させる行動を変化させる成長行動モデルを備えて
おり、その成長モデルにおける成長段階が「幼児」のと
きには、第1の切り換え境界線の傾きαと第2の切り換
え境界線の傾きβとを近い値として、摂食又は摂水行動
選択領域を狭める。また、成長段階が「成人」のときに
は、摂食又は摂水行動選択領域が広くなるように、第1
の切り換え境界線の傾きαと第2の切り換え境界線の傾
きβとを設定する。
【0221】これにより、ロボット装置1は、「幼児」
のときには、摂食行動と摂水行動との切り換えが頻繁に
行い、あまり落ち着きがない行動を出現するようにな
り、また、「成人」のときには、摂食行動と摂水行動と
の切り換えが適当な間隔で選択して、落ち着きのある行
動を出現するようになる。
【0222】また、出現傾向のいわゆる回復速度といっ
たものを可変にすることもできる。例えば、成長レベル
が低いときには回復速度を早くし、成長レベルが高いと
きには回復速度を遅くするといったように成長レベルに
応じて回復速度を設定する。このように設定した場合に
は、「幼児」のときには、摂食行動と摂水行動との切り
換えが頻繁に行われるようになり、「成人」のときに
は、摂食行動と摂水行動との切り換えが適当になされる
ようになり、前述の例と同様な効果を得ることができ
る。
【0223】なお、上述したように、出現傾向の回復を
利用して収束しないようになされるが、これを計算上で
操作して同様に収束を防止することとしてもよい。
【0224】以上、動物行動学的なアプローチによる行
動決定を現実のロボット装置1において実現するための
計算式について説明した。そして、行動選択部80がこ
のような計算式により行動の選択を行っている。
【0225】(3−6)行動選択部における具体的な処
理 以下、行動選択部80における具体的な処理について説
明する。行動選択部80は、図19に示すように、知覚
情報(RM)を取得する知覚情報取得部(Release Mech
anism、リリースメカニズム)90と、動機情報(Mo
t)を取得する動機情報取得部(モーションクリエー
タ、Motivation Creater)81と、知覚情報(RM)と
動機情報(Mot)とに基づいて一の行動を選択する行
動選択演算部82を備えている。
【0226】(3−6−1)出現傾向の取得手順 知覚評価(知覚情報)RM[i]と動機状態(動機情
報)Mot[i]とに基づいて、出現傾向Be[i]
を求める手順について説明する。出現傾向Be[i]
を求める手順は、排他制御前の値の算出と、排他制御を
した値の算出とに大別される。すなわち、上述した(1
8)式の右辺の第1項の出現傾向Be[i]の算出
と、(18)式の左辺の出現傾向Be[i]の算出と
に大別される。
【0227】前者の計算と後者の計算について、3つの
異なる行動の出現傾向Be[i]を取得する場合を例
として説明する。3つの異なる行動は、同一行動グルー
プである。例えば、図20に示すように、3つの各行動
について、3つの第1乃至第3の知覚評価RM[0],
RM[1],RM[2]と、3つの第1乃至第3の動機
状態Mot[0],Mot[1],Mot[2]とか
ら、対応される第1乃至第3の出現傾向Be[0],
Be[1],Be[2]を取得するというような場
合である。
【0228】例えば、比較対象となる3つの行動として
は、「摂食行動」、「摂水行動」及び「***行動」が挙
げられる。第1の行動とされる「摂食行動」について
は、第1の知覚評価RM[0]として「おいしさ」が挙
げられ、第1の動機状態Mot[0]として「空腹」が
挙げられる。また、第2の行動とされる「摂水行動」に
ついては、第2の知覚評価RM[1]として「水への距
離」が挙げられ、第2の動機状態Mot[1]として
「のどのかわき」が挙げられる。また、第3の行動とさ
れる「***行動」については、第3の知覚評価RM
[2]として「トイレへの距離」が挙げられ、第1の動
機状態Mot[2]として「糞又は尿がつまった」が挙
げられる。そして、出現傾向空間は、これら摂食傾向B
[0]、摂水傾向Be[1]、***傾向Be
[2]により構成される。
【0229】各知覚評価RM[i]及び動機状態Mot
[i]に基づく、「摂食行動」、「摂水行動」及び「排
泄行動」に対応される各出現傾向Be[i]の算出は
次のようになる。
【0230】知覚評価RM[i]と動機状態Mot
[i]とから、(19)式に示すように出現傾向Be
[i]を算出する。
【0231】
【数19】
【0232】ここで、知覚評価RM[i]と動機状態M
ot[i]との間に反比例の関係がある場合には、その
関係を例えば(20)式のように示すことができる。
【0233】
【数20】
【0234】この知覚評価RM[i]を、(19)式に
代入すると、A[i]がBe[i]として算出され
る。すなわち、知覚評価RM[i]と動機状態Mot
[i]との間に反比例の関係がある場合には、その係数
A[i]が出現傾向Be[i]として算出されるので
ある。
【0235】このような計算により、排他制御前の出現
傾向Be[i]を算出することができる。そして、排
他制御が考慮された出現傾向Be[i]については
(21)式により算出することができる。
【0236】
【数21】
【0237】イメージ的には、図21に示すように、排
他制御ゲインG[i][j](i=0,1,2、j=
0,1,2)により、第1乃至第3の行動の出現傾向B
[0],Be[1],Be[2]が排他制御と
して算出がなされる。
【0238】以上のように、排他制御前の出現傾向と、
その排他前の出現傾向を使用し、排他制御が考慮された
出現傾向との算出がなされる。
【0239】例えば、図22に示すような手順により、
これら一連の計算がなされる。
【0240】先ず、ステップS1に示すように、t=
0,Be(t−1)[i]=0として各値を初期化す
る。そして、ステップS2〜ステップS6において、B
[0]〜Bet[2]までの(21)式の右辺第1
項の値が算出される。すなわち、排他制御前の出現傾向
Be[i]が算出される。ステップS2〜ステップS
6の処理は具体的には次のようになる。
【0241】ステップS2では、i=0とされる。これ
により、Be[0]についての計算が開始される。
【0242】続く、ステップS3にて、知覚評価RM
[0]と、動機状態Mot[0]とが算出される。すな
わち、例えば「おいしさ」の評価RM[0]を取得し、
「空腹」の状態Mot[1]を取得する。
【0243】続く、ステップS4では、(21)式の右
辺第1項の値として、「摂食行動」の出現傾向Be
[0]を算出する。
【0244】そして、ステップS5において、i=3か
否かについての判別がなされる。すなわち、比較対象と
なる全ての出現傾向Be[0]〜Be[2]の値が
算出されたか否かの判別がなされる。
【0245】ここで、i=3ではないとき、ステップS
6においてi=i+1とされ、再び、ステップS3から
の処理を開始する。
【0246】このようなステップS1〜ステップS6の
処理により、排他制御前の値として、摂食傾向Be
[0]に続いて、摂水行動傾向Bet[1]及び***
傾向Bet[2]が算出されるようになる。
【0247】そして、ステップS5において、i=3と
されたとき、ステップS7の処理を実行する。ステップ
S7では、(21)式の左辺の出現傾向Be[i]
(i=0〜2)が算出される。すなわち、(21)式に
より、排他制御が考慮された出現傾向Be[i]が算
出される。
【0248】続く、ステップS8において、Be
[i]の何れかが正の値となっているか否か判断がな
される。ここで、Be[i]の何れもが正の値となっ
ていない場合には、ステップS9においてt=t+1と
して、再びステップS1からの処理を実行する。これに
より、(21)式に示すような再帰的な計算がなされよ
うになる。すなわち、前処理により得られたBe
[i]がBe(t−1)[i]とされて計算がなされ
る。
【0249】一方、ここで、出現傾向Be[i]の何
れかが正の値となっている場合には、当該出現傾向Be
[i]に対応される行動を実際に出現させる一の行動
として選択して、行動の選択処理を終了する。
【0250】以上のように、知覚評価(知覚情報)RM
[i]と動機状態(動機情報)Mot[i]とに基づい
て、出現傾向Be[i]を求めることができる。
【0251】(3−6−2)知覚情報取得部における処
理 次に、知覚評価RM[i]を取得する知覚情報取得部9
0と、動機状態Mot[i]を取得する動機情報取得部
81との具体的な構成について説明する。先ず、知覚情
報取得部90について説明する。
【0252】知覚情報取得部90は、外部又は内部の情
報(認識結果)に応じて、行動の原因因子とされる知覚
情報(評価)を取得する。この知覚情報取得部90は、
図23に示すように、行動記憶器91、対象物名記憶器
92、対象物決定器93、対象物情報記憶器94及び知
覚情報演算器95を備えている。
【0253】行動記憶器91は、選択可能とされる複数
の行動が記憶されている。例えば、複数の行動がデータ
ベースとして記憶されている。
【0254】そして、この行動記憶器91は、行動グル
ープ番号(信号)が入力されることにより、比較対象と
される複数の行動を1つの行動グループとして対象物決
定器93に出力する。
【0255】例えば、「リンゴを食べる(リンゴの摂食
行動)」について例を挙げると次のようになる。
【0256】「リンゴを食べる」の行動を具現化する行
動としては、例えば、「リンゴに近づく」、「リンゴの
においをかぐ」、「リンゴを口に入れる」、「リンゴに
触る」等が挙げられる。例えば、「近づく」は、対象物
との距離を短くする行動であり、また、「においをか
ぐ」は、対象物に対して例えば鼻を近づけるという行動
であり、「口に入れる」は、対象物を口の中に運ぶとい
う行動、「触る」は、対象物に手(脚)を接触させる行
動である。これら「近づく」、「においをかぐ」、「口
に入れる」及び「触る」等に対応する行動は、対象物一
般に適用可能な行動とされる。すなわち、対象物が「ミ
カン」の場合において、その距離を短くする行動は、
「ミカンに近づく」の行動になり、また、鼻を近づける
行動は、「ミカンのにおいをかぐ」の行動になり、口に
運ぶ行動は、「ミカンを口にいれる」の行動になり、ま
た、手を接触させる行動は、「ミカンに触る」の行動に
なる。
【0257】行動記憶器91は、このような「近づく」
等の対象物一般に適用可能な複数の行動情報を1つの行
動グループとして対象物決定器93に出力している。す
なわち、行動記憶器91は、このような「リンゴを食べ
る」等の上位の行動を具現化する下位の行動の対象物の
情報を抜いて規定された行動名情報を対象物決定器93
に出力している。そして、この行動記憶器91から出力
される行動名情報は、行動選択演算部82において出現
傾向が比較される行動に対応されるものである。よっ
て、互いに抑制する関係にある行動となる。
【0258】このように対象物一般に適用可能な情報と
しての行動名情報を保持しているのは、対象物が異なる
同じ動作について信号(コマンド)を複数定義する必要
をなくし、各対象物毎の行動を規定した場合の例えばデ
ータベース等のシステムの肥大を防止して、逆に同様な
行動を起こす場合に対象物毎に所作自体に大きな差異は
ないことによる。なお、特別の行動については、対象物
の情報を含めて改めて行動を規定すればよい。
【0259】一方、対象物名記憶器92には、対象物名
が記憶されている。この対象物名記憶器92に記憶され
る対象物名は、上位の行動において選択された対象物名
である。例えば、上位の行動として「リンゴを食べる
(リンゴの摂食行動)」が選択された場合には、ロボッ
ト装置1がリンゴの存在を認識した場合であり、この場
合、「リンゴ」が対象物名として対象物名記憶器92に
記憶される。そして、対象物名記憶器92は、対象物名
情報(対象物信号)を対象物決定器93に出力する。
【0260】上述の行動記憶器91では、下位の行動に
ついて対象物一般に適用可能な行動情報を対象物決定器
93に出力しており、この対象物名記憶器92は、その
対象物名を対象物決定器93に出力するものである。よ
って、対象物決定器93では、行動記憶器91から出力
される情報(行動名信号)と対象物名記憶器92から出
力される情報(対象物信号)とから、比較対象とされる
複数の行動が完全な情報として形成される。
【0261】対象物決定器93は、そのように比較可能
な形態として複数の行動情報(行動グループ信号)を知
覚情報演算器95に出力する。すなわち、対象物決定器
93は、行動記憶器91により取得した行動名と、対象
物名記憶器92により取得した対象物名とを対応した形
(ペア)として知覚情報演算器95に出力する。
【0262】なお、比較対象となる複数の行動の全てが
対象物を必要とする行動であるとは限らない。このよう
な場合には、対象物名記憶器92からは、そのような行
動に対応して「対象物はない」といった情報を対象物決
定器93に出力するようにする。これにより、対象物決
定器93では、対象物がない行動の情報として、行動記
憶器91から出力された行動の情報を知覚情報演算器9
5に出力する。
【0263】このように構成されている行動記憶器9
1、対象物名記憶器92及び対象物決定器93は例えば
次のように処理をする。例えば、行動記憶器91は、行
動グループ番号”1”が入力されると、行動グループ”
1”を構成する”行動(Behavior)0”、”行動
1”、”行動2”、”行動3”を対象物決定器93に出
力する。一方、対象物名記憶器92は、”行動0”に対
応して”食物”を出力し、”行動1”に対応して”水”
を出力し、行動グループ”2”に対応して”対象物な
し”を出力し、”行動3”に対応して”対象物なし”を
出力する。例えば、このような例は、上位の行動が「摂
取行動」である場合であり、上述したように、上位の行
動が「リンゴを食べる」であれば、この対象物名記憶器
92からは”リンゴ”のみが出力される。そして、対象
物決定器93では、行動記憶器91から出力された各”
行動”と、対象物名記憶器92から出力された”対象物
名”とをペアとして、意味のある行動情報として、知覚
情報演算器95に出力する。
【0264】入力セマンティクスコンバータモジュール
59は、対象物情報記憶器94に対して、ロボット装置
1に入力されてきた知覚に関する情報を出力しており、
対象物情報記憶器94では、入力セマンティクスコンバ
ータモジュール59から送られてくる知覚に関する情報
が記憶される。すなわち、例えば、対象物情報記憶器9
4には、対象物とされる「リンゴ」、「リンゴまでの距
離」、「リンゴのある方向」等といった、出現傾向の算
出に使用する知覚評価のためのパラメータが記憶され
る。
【0265】知覚情報演算器95は、対象物情報記憶器
94からの対象物情報(対象物情報信号)と、対象物決
定器93からの行動グループ情報(行動グループ情報信
号)とに基づいて、行動選択演算部82において出現傾
向が比較される各行動に対応した知覚評価RM[i]を
取得する。すなわち、例えば、「リンゴまでの距離」を
用いて、「リンゴを食べる(リンゴの摂食行動)」につ
いての知覚評価をしたり、「リンゴに近づく」について
知覚評価をしたりする。
【0266】そして、このように知覚情報演算器95に
より取得された知覚評価RM[i]が行動選択演算部8
2に出力される。例えば、知覚評価RM[i]は、図1
9に示すように、ベクトル量として知覚情報取得部90
から行動選択演算部82に出力される。
【0267】なお、対象物決定器93から同期信号を対
象物情報記憶器94に出力することもできる。同期信号
により対象物決定器93の出力と対象物情報記憶器94
の出力の同期を取ることができるようになり、これによ
り、知覚情報演算器95には、対象物決定器93からの
行動に対応されるパラメータが所定のタイミングで入力
させることができるようになる。
【0268】また、基本的には、ロボット装置1は、こ
の知覚情報取得部90を1つだけ備えるものである。し
かし、知覚情報取得部90を、各行動それぞれについて
それぞれに備えることもできる。このような場合には、
知覚情報取得部90が1つの行動で対象物一般に適用す
ることのみを考慮すればよいことになることから、行動
記憶器91を備える必要がなくなる。例えば、このよう
な例は、後述するような行動選択部を複数のオブジェク
トとして構成する場合である。
【0269】この知覚情報取得部90における処理の手
順について図24を用いて説明する。
【0270】先ず、ステップS11において、行動グル
ープ名の取得がなされる。行動グループ名の取得とは、
「リンゴを食べる」の下位行動である「リンゴに近づ
く」、「リンゴのにおいをかぐ」等を示す行動グループ
名の取得である。
【0271】続いて対象物選択ルーチンが実行される。
対象物選択ルーチンでは、ステップS12にて、計算す
る行動名群の取得がなされる。この行動名群の取得によ
り、行動記憶器91に複数の行動(対象物一般に適用可
能な形態の行動情報)が記憶される。例えば、「近づ
く」、「においをかぐ」等の行動名を規定する情報であ
る。
【0272】また、ステップS13にて、対象物名の取
得がなされる。この対象物名の取得により、対象物名記
憶器92に上位の行動において取得された対象物名称が
記憶される。例えば、「リンゴ」等の対象物の情報であ
る。
【0273】このように対象物選択ルーチンにおいて、
行動名群の取得及び対象物名の取得がなされる。続くス
テップS14において、選択された全ての行動に対し
て、知覚情報演算器95における知覚評価RM[i]の
計算を行ったか否かの判別がなされる。選択された全て
の行動に対して知覚評価RM[i]の計算が終了してい
る場合には、当該処理を終了して、選択された全ての行
動に対して知覚評価RM[i]の計算が終了していない
場合には、知覚評価算出ルーチンが実行される。
【0274】知覚評価算出ルーチンは、知覚情報演算器
95において実行されるもので次のような処理からな
る。
【0275】ステップS15において、対象物が存在す
るか否かについての判別がなされる。対象物が存在する
場合には、ステップS16に進み、対象物が存在しない
場合には、ステップS18に進む。
【0276】ステップS16において、知覚情報演算器
95は、対象物情報記憶器94からの対象物についての
距離及び方向(知覚評価取得のためのパラメータ)を取
得して、ステップS17で知覚評価(Value)RM
[i]を算出する。すなわち、例えば、リンゴまでの距
離」から、「リンゴに近づく」の評価RM[i]を算出
する。なお、距離は距離センサ22により検出し、方向
はCCDカメラ20の撮像画像等を利用して検出する。
【0277】一方、ステップS18において、知覚情報
取得器95は、対象物がない状態にて知覚評価(Valu
e)RM[i]を算出する。例えば、この処理は、知覚
評価をする行動が対象物を要しない場合に対応される。
【0278】このような知覚評価算出ルーチンは、上述
のステップS14の判別処理において、比較対象とされ
る全ての行動(行動グループを構成する複数の行動)に
ついて、知覚評価RM[i]の計算を行ったと判断され
るまで実行される。すなわち、ステップS14の処理と
知覚評価算出ルーチンとで、行動グループ内の全ての行
動についての知覚評価RM[i]が算出される。
【0279】ステップS14にて、行動グループ内の全
ての行動の知覚評価RM[i]が算出されたと判断され
ると、当該処理が終了する。
【0280】以上のように知覚情報取得部90が構成さ
れており、この知覚情報取得部90により、行動グルー
プにおける比較対象の複数の行動についての知覚評価R
M[i]を取得することができる。
【0281】(3−6−3)動機情報取得部における処
理 動機情報取得部81は、外部又は内部の情報(認識結
果)に応じて変化する本能及び感情の状態に基づいて、
行動の原因因子の1つである動機を取得する。この動機
情報取得部81は、図25に示すように、本能・感情パ
ラメータIE[p]を複個数(本能・感情パラメータ
群)を有し、これにより複数個の行動の動機Mot
[i]を取得している。具体的には、次のようにして行
動の動機を取得する。
【0282】本能・感情パラメータ群IE[p]は、本
能や感情に影響される情報によって構成されており、具
体的には、上述したような内的状態モデルによって決定
される複数のパラメータから構成されている。すなわ
ち、本能・感情パラメータとして、例えば、「疲れ」、
「体内温度」、「痛み」、「飢え」、「乾き」、「愛
情」、「服従性」、「好奇心」、「***」、「幸せ」、
「悲しみ」、「怒り」、「驚き」、「嫌悪」、「恐
れ」、「苛立ち」、「退屈」、「眠気」、「社交心」、
「根気」、「緊張・リラックス」、「警戒」、「罪」、
「悪意」、「誠実さ」、「***」、「嫉妬」等が挙げら
れる。
【0283】また、行動の動機群Mot[i]は、同一
の行動グループ内における複数の行動に対応される動機
群である。例えば、「摂食行動」についての「空腹」等
や「摂水行動」についての「のどのかわき」等である。
【0284】この動機情報取得部81は、このような本
能・感情パラメータIE[p]をマッピングして各行動
についての動機Mot[i]を算出する。具体的には、
(22)式により算出する。
【0285】
【数22】
【0286】この(22)式により、本能・感情パラメ
ータIE[p]に係数K[i][p]を掛け合わせて、
線形和としてのマッピングにより各行動の動機Mot
[i]を算出する。このような行列式として算出された
動機動機Mot[i]は、図19に示すように、ベクト
ル量として動機情報取得部81から行動選択演算部82
に出力される。
【0287】例えば、「探索」、「ねだる」、「休む」
の動機を例に挙げて具体的に説明する。「探索」の動機
Mot[0]、「ねだる」の動機Mot[1]及び「休
む」の動機Mot[2]は(23)式として与えられ
る。
【0288】
【数23】
【0289】また、K[i][p]を(24)式に示す
ように与える。
【0290】
【数24】
【0291】また、本能・感情パラメータIE[p]は
(25)式に示すように与える。
【0292】
【数25】
【0293】このような関係から、「探索」、「ねだ
る」、「休む」の各動機は、(26)式のように示され
る。
【0294】
【数26】
【0295】この(26)式では、「探索」は、「疲
れ」がマイナス因子として作用し、「好奇心」がプラス
因子として作用する本能・感情パラメータの関数となる
ことを示す。また、「ねだる」は、「愛情欲」がプラス
因子として作用する本能・感情パラメータの関数となる
ことを示す。また、「休む」は、「疲れ」がプラス因子
として作用し、「好奇心」がマイナス因子として作用す
る本能・感情パラメータの関数となることを示す。
【0296】ここで、第1の例として、本能・感情パラ
メータIE[p]が[10,50,20]の場合につい
て考えてみる。例えば、このようなような状態は、好奇
心が高い状態をいう。このような状態では、「探索」M
ot[0]が400(=−100+500+0)とな
り、「ねだる」Mot[1]が300(=0+0+30
0)となり、「休む」Mot[2]が−150(=10
0−250+0)となる。
【0297】第2の例として、本能・感情パラメータI
E[p]が[70,10,30]の場合について考えて
みる。例えば、このようなような状態は、探し疲れた状
態をいう。このような状態では、「探索」Mot[0]
が−600(=−700+100+0)となり、「ねだ
る」Mot[1]が450(=0+0+450)とな
り、「休む」Mot[2]が650(=700−50+
0)となる。
【0298】第3の例として、本能・感情パラメータI
E[p]が[30,20,60]の場合について考えて
みる。例えば、このようなような状態は、疲れがちょっ
と回復し、愛情欲が高い状態をいう。このような状態で
は、「探索」Mot[0]が−100(=−300+2
00+0)となり、「ねだる」Mot[1]が300
(=0+0+300)となり、「休む」Mot[2]が
200(=300−100+0)となる。
【0299】このようにして、本能・感情パラメータ群
IE[p]と係数K[i][m]とから、行動の動機M
ot[i]を取得することができる。そして、本能・感
情パラメータ群K[i][p]のマッピングを適切に設
定することにより、出現傾向RM[i]の取得のための
所望の動機Mot[i]を得ることができる。すなわ
ち、例えば、上述の例でいう「のどのかわき」、「空
腹」といった動機をも得ることができる。
【0300】以上のように動機情報取得部81が構成さ
れており、この動機情報取得部81により、各行動につ
いての動機Mot[i]を取得することができる。この
動機情報取得部81により得られる動機は、本能や感情
のパラメータ値の変化に応じて変化するものであって、
結果として、選択された行動に反映される。例えば、上
述の例では次のように、動機が行動に反映されることと
なる。
【0301】欲求は、基本的には、時間増加であるた
め、満たされないと増加する。好奇心が高くなると、ロ
ボット装置1は探索を始める(上述の第1の例)。探索
することで歩き回るため、歩いた分だけ疲れが蓄積され
る。また、好奇心自体も探索することによって減少して
くる。しばらく歩き回っても何も入力されないと、好奇
心が減少し、疲れが増大することによって、休む行動に
スイッチする(上述の第2の例)。しばらくして休むこ
とによって疲れが減少し、時間によって増加してきた愛
情欲によってロボット装置1の行動はねだるにスイッチ
される(上述の第3の例)。このように、動機が、選択
された行動に反映されることがわかる。
【0302】なお、上述した係数K[i][p]の値に
ついては、任意に設定することができる。例えば、任意
に設定することにより、動機Mot[i]の取得のため
の本能・感情パラメータIE[p]によるマッピングを
種々変化することができるようになる。これにより、係
数K[i][p]の設定によっては、ロボット装置1に
適用する動物の種類や成長レベル等に対応して、マッピ
ングすることができるようになる。
【0303】以上、知覚評価RM[i]を取得する知覚
情報取得部90及び動機状態Mot[i]を取得する動
機情報取得部81との具的な構成について説明した。以
上のような知覚情報取得部90及び動機情報取得部81
によって取得された知覚評価RM[i]及び動機状態M
ot[i]により、行動選択演算部82のおいて一の行
動の選択がなされる。
【0304】そして、このような行動の選択処理が、最
下位の行動層における行動の選択がなされるまで実行さ
れる。すなわち、上述の図7に示したように行動選択の
ためのシステムを階層構造として構築しており、最下位
の行動(実際に出力する行動)を決定するまで、各層に
おいて上述したように、知覚評価RM[i]と動機情報
Mot[i]とによる行動選択処理を実行する。すなわ
ち、図6中(B)に示すように、「摂取行動」はサブシ
ステム層においてした知覚評価RM[i]と動機情報M
ot[i]とに基づく行動選択の結果であり、「摂水行
動」は、さらに具現化した行動群からなるモード層にお
いてした知覚評価RM[i]と動機情報Mot[i]と
に基づく行動選択の結果であり、「水に近づく」は、ま
たさらに具現化した行動群からなるモジュール層におい
てした知覚評価RM[i]と動機情報Mot[i]とに
基づく行動選択の結果であり、「前進する」は、またさ
らに具現化した行動群からなるモータコマンド層におい
てした知覚評価RM[i]と動機情報Mot[i]とに
基づく行動選択の結果である。このような選択処理によ
り、抽象的な行動(願望としての行動)である「摂食行
動」が、「前進する」といった実際の行動によって実現
されることになる。
【0305】なお、各層における行動の選択において、
上述したように、知覚や動機等の原因因子によってその
出現傾向が算出されて、それに基づいて一の行動が選択
されているが、出現傾向を算出する際に使用する動機情
報を全ての層において一律のものを使用してもよい。す
なわち、例えば、「摂取行動」が上位の行動とされてい
る場合には、その下位の行動は全て「摂取行動」を実現
するためのものであることを考えれば、当該下位の行動
は、「飢え(乾き)」の状態を満たすための行動とな
る。よって、「摂取行動」を実現するための下位の行動
は、「飢え(乾き)」の状態が動機の情報(原因因子)
となる。
【0306】なお、知覚については、必ずしもそのよう
な関係にはならない。「水に近づく」の知覚情報(外部
知的要素)として「水への距離」が挙げられるが、その
「水に近づく」の下位の「前進する」の知覚情報として
は、「水のある方向」が最適である場合もあるからであ
る。
【0307】(3−7)モジュレータにおける処理 モジュレータ72及び後述する出力セマンティクスコン
バータモジュール68により、上述したように、行動選
択演算部82にて選択された一の行動を実際に出現する
ための処理がなされる。
【0308】モジュレータ72は、行動選択部80にお
いて選択された一の行動と、内的状態モデル部71から
出力された代表感情情報(代表感情信号)とから最終的
に出現させる行動を決定する。
【0309】ここで、内的感情モデル部71から出力さ
れる代表感情情報は、ロボット装置1の現在の感情状態
を示すものである。例えば、内的感情モデル部71は、
本能(欲求)又は感情のパラメータ値の一番大きい本能
又は感情を代表感情情報として出力する。
【0310】モジュレータ72は、このような代表感情
に基づいて、行動選択部80において選択された一の行
動をいわゆる変調するものである。すなわち、モジュレ
ータ72の処理により、行動において感情が表出される
ようになる。
【0311】これにより、例えば、現在の感情をロボッ
ト装置1の行動として直接出現させる必要はないが、感
情表現を含ませて行動を出現させる場合に有効なものと
なる。すなわち、例えば、本当に怒っていない状態であ
るが、少し怒っているような場合に、行動選択部80に
より選択された行動に「不機嫌さ」を伴わせる(付加さ
せる)ような場合である。
【0312】モジュレータ72は、上述のような感情に
より変調された選択された一の行動についての情報を、
出力セマンティクスコンバータモジュール68に出力す
る。例えば、モジュレータ72は、行動の情報を抽象的
な行動コマンドとして出力セマンティクスコンバータモ
ジュール68に出力する。
【0313】出力セマンティクスコンバータモジュール
68は、モジュレータ72からの行動情報に対応する出
力を信号処理モジュール61〜67に与える。これによ
り、ロボット装置1は、行動決定システム70において
決定された行動を実際のものとして出力する。
【0314】以上、行動決定システム70について説明
した。上述のような行動決定システム70により、入力
セマンティクスコンバータモジュール59における認識
結果に基づいて内的状態モデル部71では、ロボット装
置1の本能及び感情の状態などの内的状態を変化させる
ことができる。また、行動選択部80では、認識結果に
基づいて、複数の行動からロボット装置1が出現する一
の行動を選択することができる。
【0315】そして、モジュレータ72により、内的状
態モデル部71により得られた内的状態と行動選択部8
0により得られた一の行動とに基づいて、感情が付加さ
れた行動情報の生成がなされる。そしてモジュレータ7
2により、感情が付加された行動情報が出力セマンティ
クスコンバータモジュール68に出力される。
【0316】(4)出力セマンティクスコンバータモジ
ュールにおける処理 出力セマンティクスコンバータモジュール68は、ロボ
ット装置1のタイプ(例えば、二足歩行型や四足歩行型
等)や形状等の情報を保持しており、この情報に応じて
モジュレータ72からの行動情報を各信号処理モジュー
ル61〜67を制御する。例えば、4足により歩行する
本実施の形態のロボット装置1の場合には、出力セマン
ティクスコンバータモジュール68は、四足歩行型のロ
ボット装置1であることを把握していることから、「前
進する」といった行動情報がモジュレータ72から送ら
れてきたときには、その「前進する」を実現するために
4本の脚を制御する信号処理モジュールにコマンドを出
力する。ここで、出力セマンティクスコンバータモジュ
ール68は、モジュレータ72からの抽象的な行動コマ
ンドによりそのように対応される各信号処理モジュール
61〜67にコマンドを送る。
【0317】各信号処理モジュール61〜67は、出力
セマンティクスコンバータモジュール68からのコマン
ドに基づいて、対応するデバイスを制御する。これによ
り、上述のような行動決定システム70において決定
(選択)された行動が、実際のものとしてロボット装置
1の行動として出現されたことになる。
【0318】また、このようなロボット装置1の行動の
出現は、姿勢と動作の管理がされたもとにおいてなされ
ている。ロボット装置1の各部は原則的には独立として
動作することはできるが、姿勢と動作を管理することに
より所定の動作を独立して動作させることを禁止してい
る。
【0319】ロボット装置1は、図1に示したように、
胴体部ユニット2に対して、脚部ユニット3A〜3D、
頭部ユニット4及び尻尾部ユニット5が連結されて構成
されている。これにより、基本的には、ロボット装置1
は、選択された行動に応じて、各信号処理モジュールが
個別に制御することで各部が独立して動作することがで
きるようになされている。しかし、場合によっては、各
ユニットの動作の干渉により、不適切な動作となる場合
もある。また、目的とする姿勢或いは動作への遷移が、
現在の姿勢から無理なときもある。
【0320】そこで、ロボット装置1は、無理な姿勢
や、部位(各ユニット)同士の干渉が起こることを防止
すべく、各ユニット間の整合をとり、姿勢と動作の管理
をしている。ロボット装置1は、このような姿勢や動作
を、図4に示す姿勢管理モジュール61により管理して
いる。
【0321】具体的には、姿勢管理モジュール61は、
ロボット装置1は座っている場合において、”前へ歩
け”というような命令を受信したときには、「座り状
態」から「歩く状態」への遷移させる姿勢遷移経路を探
索する。例えば、複数の姿勢や動作を経由して、「座り
状態」から「歩く状態」への遷移経路を探索する。そし
て、「座り状態」から「歩く状態」への遷移経路探索の
結果に基づいて、そのような遷移経路上にある姿勢や動
作を実行すべく、遷移させる経路の順番に応じて命令
を、各信号処理モジュールに出力する。これにより、ロ
ボット装置1は、無理な姿勢や、部位同士の干渉を防止
して、目的とする所望の姿勢や動作、すなわち、上述し
た行動決定システム70において決定された行動に到達
することができる。
【0322】以上、ロボット装置1の構成及びその処理
について説明した。上述したような構成を備えることに
より、ロボット装置1は、動物行動学的なアプローチに
よって決定された行動を出現させることができるように
なる。これにより、ロボット装置1の生物感が一層増
し、ユーザ(飼い主)は、ロボット装置1に一層の親近
感や満足感を感じるようになる。
【0323】(4)他の実施の形態 以上、ロボット装置1について最良の実際の形態につい
て説明した。しかし、本発明は、次に述べるような他の
実施の形態としても実現することができる。
【0324】上述の実施の形態では、行動決定システム
70が最終段の行動の選択を、動機情報をも参照して決
定している。例えば、図6中(B)に示す例では、「前
進する」が動機情報が参照されて選択されているもので
ある。しかし、最終段の行動選択については、動機情報
を除いて決定してもよい。
【0325】すなわち、例えば,図26中(A)及び
(B)に示すように、「摂取行動」の下位の行動(動
作)となる「水に近づく」さらには、その下位の行動
(動作)の「前進する」の選択を、動機情報を除いた情
報、例えば対象物までの距離等の知覚情報を参照して選
択するものとする。例えば、ある行動(例えば、漠然と
した行動)をしようとする場合には、動機がその行動選
択に大きく作用し、そして、したい行動をある程度絞り
込んだ後は、動機とは切り離して、行動の選択処理(選
択思考)がそのような行動を実現するためのものにスイ
ッチするようなものである。すなわち、最終的に選択さ
れる動作は、動機の影響を受けることなく決定される点
がポイントとなる。そして、そのような最終的に動作を
決定する場合に、例えば、知覚情報を使用するというこ
とである。なお、モード層の階層は0階層以上であり、
モジュール層の階層は1階層であるものとして定義して
も良い。
【0326】例えば、上述したような動機情報に基づく
ことなく動作を決定する部分として、例えば図27及び
図28に示すように、動作生成部100を備える。動作
生成部100は、行動選択演算部によって選択された行
動から、知覚情報等に基づいて、「水に近づく」やその
下位の動作とされる「前進」を行動を実現する動作の選
択をする。そして、動作生成部100は、選択した動作
を、モジュレータ72に出力する。モジュレータ72で
は、先に説明したように、内的状態モデル部71から送
られてくる感情により変調した行動を出力する。
【0327】具体的には、動作生成部100は、図29
に示すように、知覚情報取得部90、行動選択演算部1
02を備えて構成する。例えば、出力セマンティクスコ
ンバータモジュール68からの各種情報が蓄積される対
象物情報記憶部94を利用して、行動選択演算部102
において動作の選択をする。これにより、動作生成部1
00は、例えば、「前進する」の際には、対象物情報記
憶器94に記憶されている情報である対象物まで距離
(例えば、対象物までの距離が10cmである情報)や
方向(例えば、対象物が右方向にある情報)の情報のみ
を利用して、行動選択演算部102において動作の選択
を行う。
【0328】また、上述の実施の形態では、行動選択部
80によって複数の行動から一の行動を選択している場
合について説明した。例えば、行動選択部80では複数
の行動の情報を保持しており、これら行動のデータに基
づいて一の行動を決定している。しかし、これに限定さ
れるものではない。
【0329】例えば、行動決定システム70は、行動決
定する部分をオブジェクト指向により設計することがで
きる。なお、オブジェクト指向として行動決定するシス
テムを構築する場合でも、上位の行動と下位の行動とい
ったような階層構造としての関係はそのまま用いる。そ
して、行動の選択は、オブジェクト単位として構成され
る行動グループから当該オブジェクト単位で一の行動を
選択するようにする。具体的には、図30に示すよう
に、行動システムにおいて行動の選択を複数の行動選択
部(オブジェクト或いはスレッド)80,80,8
を階層構造として備えるようにする。
【0330】本例では、図30に示すように、オブジェ
クトとされる行動選択部が2階層とされてシステムが構
築されているが、これに限定されないことはいうまでも
ない。
【0331】各行動選択部80,80,80は、
上述した行動決定システム70が唯一として備える行動
選択部80と同様に、知覚情報取得部90、動機情報取
得部81及び行動選択演算部82を備える。
【0332】このように構成した場合、上位の行動選択
部80が選択した行動に基づいて、下位の行動選択部
部80,80において行動の選択を行う。ここで、
上位の行動の選択は、下位層の一の行動選択部の選択と
なる。そして、選択された一の行動選択部は、更に下位
の行動の選択を行う。
【0333】そして、このような複数の行動選択部80
,80,80からなるシステムの最下位に位置さ
れる行動選択部が、選択した行動の情報を、上述したよ
うな動作生成部100に引き渡す。
【0334】このような、オブジェクト指向として行動
決定のためのシステムを構築することにより、行動選択
のために常にシステム全体についての処理或いは把握を
する必要がなくなり、行動選択の処理負担が軽減される
ようになる。また、後に新たな行動を加える場合であっ
ても、そのような新たなオブジェクトを加えるだけで済
み、行動選択のためのデータを全て書き換えるといった
ような手間もかからない。例えば、新たな行動を加える
場合とは、学習によって新たな行動を取得した場合や、
成長レベルの変化により新たな行動が加わる場合をい
う。
【0335】また、図6中(B)或いは図26中(B)
に示したサブシステム層(SUBSYSTEM)、モード層(MOD
E1,MODE2)、モジュール層(MODULE)における各行動
グループ構成の具体例は、図31及び図32に示すよう
になる。
【0336】
【発明の効果】ロボット装置は、外部又は内部情報を検
出手段により検出し、検出手段が検出した外部又は内部
情報であって、行動に影響する情報とされる原因因子を
原因因子取得手段により取得し、原因因子取得手段が取
得した原因因子に基づいて、当該原因因子に影響される
行動の出現傾向を出現傾向取得手段により取得し、出現
傾向取得手段が取得した2つ以上の行動に対応する出現
傾向であって、同一グループとされる出現傾向を出現傾
向比較手段により比較し、出現傾向比較手段による出現
傾向の比較結果に基づいて、一の行動を行動選択手段に
より選択し、行動選択手段が選択した行動に基づいて、
動作部を動作部制御手段により制御して、当該選択され
た行動を出現させることにより、原因因子に影響されて
決定される出現傾向について比較することで、一の行動
を選択しており、動物行動学的なアプローチとしての行
動を出現するようになる。
【0337】このようなロボット装置の行動決定方法
は、ロボット装置の外部又は内部情報を情報検出工程に
て検出手段により検出し、情報検出工程にて検出した外
部又は内部情報のロボット装置の行動に影響する情報と
される原因因子を原因因子取得工程にて取得し、原因因
子取得工程にて取得した原因因子に基づいて、当該原因
因子に影響される行動の出現傾向を出現傾向取得工程に
て取得し、出現傾向取得工程にて取得した2つ以上の行
動に対応する出現傾向であって、同一グループとされる
出現傾向を出現傾向比較工程にて比較し、出現傾向比較
工程における出現傾向の比較結果に基づいて、一の行動
を行動選択工程にて選択し、行動選択工程にて選択され
た行動に基づいて、ロボット装置の動作部を動作部制御
工程にて制御して、当該ロボット装置に選択された行動
を出現させることにより、ロボット装置は、原因因子に
影響されて決定される出現傾向について比較すること
で、一の行動を選択しており、動物行動学的なアプロー
チとしての行動を出現するようになる。
【図面の簡単な説明】
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図2】上述のロボット装置の回路構成を示すブロック
図である。
【図3】上述のロボット装置のソフトウェア構造を示す
ブロック図である。
【図4】上述のロボット装置のソフトウェアのミドル・
ウェア・レイヤの構成を示すブロックである。
【図5】上行動決定システムの構成を示すブロック図で
ある。
【図6】上記動物行動学的なアプローチによる行動決定
をするロボット装置を説明するために使用した図であ
る。
【図7】行動選択部における構築された、複数の行動が
階層構造とされた行動選システムを示す図である。
【図8】上述の行動決定システムを構成する各部の機能
を説明するために使用した前半の図である。
【図9】上述の行動決定システムを構成する各部の機能
を説明するために使用した後半の図である。
【図10】動物行動学的なアプローチによって、知覚及
び動機により行動を決定する場合について説明するため
に使用したブロック図である。
【図11】原因因子によって構成される原因因子状態空
間と、原因因子状態空間により規定された行動の出現傾
向が写像される出現傾向空間とを示す特性図である。
【図12】原因因子状態空間を説明するために使用した
図である。
【図13】動物行動学的なアプローチを数式化する説明
に使用した摂食行動及び摂水行動の原因因子状態空間を
示す特性図である。
【図14】動物行動学的なアプローチを数式化する説明
に使用した摂食傾向と摂食傾向とから構成される出現傾
向空間を示す特性図である。
【図15】原因因子状態空間から写像された値が摂食行
動選択領域にある場合(図中(A))と、原因因子状態
空間から写像された値が摂水行動選択領域にある場合
(図中(B))とを示す特性図である。
【図16】排他制御を説明するために使用した図であ
る。
【図17】動物行動学的なアプローチによる計算式によ
って実現される行動の選択を説明するために使用した出
現傾向空間を示す特性図である。
【図18】ロボット装置の実際の処理による行動の選択
を説明するために使用した出現傾向空間を示す特性図で
ある。
【図19】行動選択部を構成する知覚情報取得部と、動
機情報取得部と、行動情報選択部との間の情報の流れを
示すブロック図である。
【図20】排他制御前の出現傾向の算出を説明するため
に使用した図である。
【図21】排他制御によるの出現傾向の算出を説明する
ために使用した図である。
【図22】出現傾向の算出手順を示すフローチャートで
ある。
【図23】知覚情報取得部の構成を示すブロック図であ
る。
【図24】上述の知覚情報取得部における処理手順を示
すフローチャートである。
【図25】動機情報取得部を説明するために使用した図
である。
【図26】ロボット装置の他の実施の形態であって、階
層構造とされた行動選択システムにおいて下位層におけ
る行動の選択が動機によって影響されない場合を説明す
るために使用した図である。
【図27】上述の他の実施の形態のロボット装置の行動
選択演算部及び動作生成部の機能を説明するために使用
した図である。
【図28】上述の他の実際の形態のロボット装置の行動
決定システムの構成を示すブロック図である。
【図29】動作生成部の構成を示すブロック図である。
【図30】オブジェクトとされた複数の行動選択部を示
すブロック図である。
【図31】サブシステム層、モード層、モジュール層に
おける各行動グループ構成の前半の具体例を示す図であ
る。
【図32】サブシステム層、モード層、モジュール層に
おける各行動グループ構成の後半の具体例を示す図であ
る。
【符号の説明】 1 ロボット装置、70 行動決定システム、71 内
的状態モデル、72モジュレータ、80 行動選択部、
81 動機情報取得部、82 行動選択部、90 知覚
情報取得部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 長谷川 里香 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 佐部 浩太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ロナルド クレッグ アーキン アメリカ合衆国 ジョージア州 30332− 0280 アトランタ ジョージア工科大学内

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 動作部を制御して行動を出現させるロボ
    ット装置であって、 外部又は内部情報を検出する検出手段と、 上記検出手段が検出した外部又は内部情報であって、行
    動に影響する情報とされる原因因子を取得する原因因子
    取得手段と、 上記原因因子取得手段が取得した原因因子に基づいて、
    当該原因因子に影響される行動の出現傾向を取得する出
    現傾向取得手段と、 上記出現傾向取得手段が取得した2つ以上の行動に対応
    する出現傾向であって、同一グループとされる出現傾向
    を比較する出現傾向比較手段と、 上記出現傾向比較手段による出現傾向の比較結果に基づ
    いて、一の行動を選択する行動選択手段と、 上記行動選択手段が選択した行動に基づいて、動作部を
    制御して、当該選択された行動を出現させる動作部制御
    手段とを備え、 上記行動選択手段が選択した一の行動の出現傾向は、当
    該行動の実際の出現により変化する原因因子に応じて変
    化することを特徴とするロボット装置。
  2. 【請求項2】 上記原因因子取得手段は、少なくとも知
    覚に関する原因因子及び動機に関する原因因子を取得す
    ることを特徴とする請求項1記載のロボット装置。
  3. 【請求項3】 上記原因因子取得手段は、上記動機に関
    する原因因子として、少なくとも本能的要素又は情動的
    要素からなるものを取得することを特徴とする請求項2
    記載のロボット装置。
  4. 【請求項4】 上記本能的要素が、疲れ(fatigue)、
    熱或いは体内温度(temperature)、痛み(pain)、食
    欲或いは飢え(hunger)、乾き(thirst)、愛情(affe
    ction)、好奇心(curiosity)、***(elimination)
    又は***(sexual)のうちの少なくとも1つであり、上
    記情動的要素が、幸せ(happiness)、悲しみ(sadnes
    s)、怒り(anger)、驚き(surprise)、嫌悪(disgus
    t)、恐れ(fear)、苛立ち(frustration)、退屈(bo
    redom)、睡眠(somnolence)、社交性(gregariousnes
    s)、根気(patience)、緊張(tense)、リラックス
    (relaxed)、警戒(alertness)、罪(guilt)、悪意
    (spite)、誠実さ(loyalty)、服従性(submission)
    又は嫉妬(jealousy)の内の少なくとも1つであること
    を特徴とする請求項3記載のロボット装置。
  5. 【請求項5】 出現可能とされる複数の行動が階層構造
    として構築され、同一グループとされる複数の下位の行
    動が上位の行動の具体的な行動を示す行動選択システム
    を有し、 上記出現傾向比較手段は、上記上位の行動に対応される
    グループ内の複数の下位の行動について出現傾向を比較
    し、 上記行動選択手段は、上記出現傾向比較手段による出現
    傾向の比較結果に基づいて、一の下位の行動を選択し、 上記動作部制御手段は、上記行動選択手段が選択した行
    動が最下位の行動であるときに、当該最下位の行動に基
    づいて、動作部を制御することを特徴とする請求項1記
    載のロボット装置。
  6. 【請求項6】 上記原因因子取得手段は、知覚に関する
    原因因子及び動機に関する原因因子を取得していき、 上記出現傾向取得手段は、少なくとも最下位層の行動に
    ついては、上記知覚に関する原因因子に基づいて、当該
    最下位層の行動の出現傾向を取得することを特徴とする
    請求項5記載のロボット装置。
  7. 【請求項7】 各行動に対応して、行動選択のための複
    数のオブジェクトを有しており、 上記原因因子取得手段、上記出現傾向取得手段及び上記
    行動選択手段は、各オブジェクトにより実現しているこ
    とを特徴とする請求項1記載のロボット装置。
  8. 【請求項8】 上記出現傾向比較手段は、比較する行動
    の出現傾向の間で排他処理をして、複数の出現傾向を比
    較することを特徴とする請求項1記載のロボット装置。
  9. 【請求項9】 上記検出手段はセンサであることを特徴
    とする請求項1記載のロボット装置。
  10. 【請求項10】 上記原因因子取得手段は、上記センサ
    が検出した外部又は内部情報とされるセンサ情報から、
    行動を評価するための原因因子を取得することを特徴と
    する請求項9記載のロボット装置。
  11. 【請求項11】 ロボット装置の外部又は内部情報を検
    出手段により検出する情報検出工程と、 上記情報検出工程にて検出した外部又は内部情報のロボ
    ット装置の行動に影響する情報とされる原因因子を取得
    する原因因子取得工程と、 上記原因因子取得工程にて取得した原因因子に基づい
    て、当該原因因子に影響される行動の出現傾向を取得す
    る出現傾向取得工程と、 上記出現傾向取得工程にて取得した2つ以上の行動に対
    応する出現傾向であって、同一グループとされる出現傾
    向を比較する出現傾向比較工程と、 上記出現傾向比較工程における出現傾向の比較結果に基
    づいて、一の行動を選択する行動選択工程と、 上記行動選択工程にて選択された行動に基づいて、上記
    ロボット装置の動作部を制御して、当該ロボット装置に
    上記選択された行動を出現させる動作部制御工程とを有
    し、 上記行動選択工程にて選択された一の行動の出現傾向
    は、当該行動の実際の出現により変化する原因因子に応
    じて変化することを特徴とするロボット装置の行動決定
    方法。
  12. 【請求項12】 上記原因因子取得工程では、少なくと
    も知覚に関する原因因子及び動機に関する原因因子を取
    得することを特徴とする請求項11記載のロボット装置
    の行動決定方法。
  13. 【請求項13】 上記原因因子取得工程では、上記動機
    に関する原因因子として、少なくとも本能的要素又は情
    動的要素からなるものを取得することを特徴とする請求
    項12記載のロボット装置の行動決定方法。
  14. 【請求項14】 上記本能的要素が、疲れ(fatigu
    e)、熱或いは体内温度(temperature)、痛み(pai
    n)、食欲或いは飢え(hunger)、乾き(thirst)、愛
    情(affection)、好奇心(curiosity)、***(elimin
    ation)又は***(sexual)のうちの少なくとも1つで
    あり、上記情動的要素が、幸せ(happiness)、悲しみ
    (sadness)、怒り(anger)、驚き(surprise)、嫌悪
    (disgust)、恐れ(fear)、苛立ち(frustration)、
    退屈(boredom)、睡眠(somnolence)、社交性(grega
    riousness)、根気(patience)、緊張(tense)、リラ
    ックス(relaxed)、警戒(alertness)、罪(guil
    t)、悪意(spite)、誠実さ(loyalty)、服従性(sub
    mission)又は嫉妬(jealousy)の内の少なくとも1つ
    であることを特徴とする請求項13記載のロボット装置
    の行動決定方法。
  15. 【請求項15】 上記ロボット装置が、出現可能とされ
    る複数の行動の情報を階層構造として構築され、同一グ
    ループとされる複数の下位の行動が上位の行動の具体的
    な行動を示す行動選択システムを有し、 上記出現傾向取得工程では、上記上位の行動に対応され
    るグループ内の複数の下位の行動について出現傾向を比
    較し、 上記行動選択工程では、下位の行動の出現傾向の比較結
    果に基づいて、一の下位の行動を選択し、 上記動作部制御工程では、上記行動選択工程にて選択さ
    れた行動が最下位の行動であるときに、当該最下位の行
    動に基づいて、ロボット装置の動作部を制御することを
    特徴とする請求項11記載のロボット装置の行動決定方
    法。
  16. 【請求項16】 上記原因因子取得工程では、知覚に関
    する原因因子及び動機に関する原因因子を取得し、 上記出現傾向取得工程では、少なくとも最下位層の行動
    については、上記知覚に関する原因因子に基づいて、当
    該最下位層の行動の出現傾向を取得することを特徴とす
    る請求項15記載のロボット装置の行動決定方法。
  17. 【請求項17】 ロボット装置が、各行動に対応して、
    行動選択のための複数のオブジェクトを有しており、 上記原因因子取得工程、上記出現傾向取得工程及び上記
    行動選択工程は、各オブジェクトにより実行されること
    を特徴とする請求項11記載のロボット装置の行動決定
    方法。
  18. 【請求項18】 上記出現傾向比較工程では、比較する
    行動の出現傾向の間で排他処理をして、複数の出現傾向
    を比較することを特徴とする請求項11記載のロボット
    装置の行動決定方法。
  19. 【請求項19】 上記検出手段がセンサであることを特
    徴とする請求項11記載のロボット装置の行動決定方
    法。
  20. 【請求項20】 上記原因因子取得工程では、上記セン
    サが検出した外部又は内部情報とされるセンサ情報か
    ら、行動を評価するための原因因子を取得することを特
    徴とする請求項19記載のロボット装置の行動決定方
    法。
JP2001088725A 2000-03-24 2001-03-26 ロボット装置及びロボット装置の行動決定方法 Withdrawn JP2001334482A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001088725A JP2001334482A (ja) 2000-03-24 2001-03-26 ロボット装置及びロボット装置の行動決定方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000088596 2000-03-24
JP2000-88596 2000-03-24
JP2001088725A JP2001334482A (ja) 2000-03-24 2001-03-26 ロボット装置及びロボット装置の行動決定方法

Publications (1)

Publication Number Publication Date
JP2001334482A true JP2001334482A (ja) 2001-12-04

Family

ID=26588559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001088725A Withdrawn JP2001334482A (ja) 2000-03-24 2001-03-26 ロボット装置及びロボット装置の行動決定方法

Country Status (1)

Country Link
JP (1) JP2001334482A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003078113A1 (fr) * 2002-03-15 2003-09-25 Sony Corporation Systeme de commande de robot, procede correspondant, et robot
JP2004114285A (ja) * 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
WO2004080665A1 (ja) * 2003-03-11 2004-09-23 Sony Corporation ロボット装置、その行動制御方法及びプログラム
US7415321B2 (en) 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
KR101049743B1 (ko) 2008-12-18 2011-07-19 한양대학교 산학협력단 로봇의 행동 선택 방법
CN114303365A (zh) * 2019-10-16 2022-04-08 松下电器(美国)知识产权公司 机器人、控制处理方法以及控制处理程序
EP4342558A1 (en) 2022-09-21 2024-03-27 Casio Computer Co., Ltd. Apparatus, control method for apparatus, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003078113A1 (fr) * 2002-03-15 2003-09-25 Sony Corporation Systeme de commande de robot, procede correspondant, et robot
US7813835B2 (en) 2002-03-15 2010-10-12 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2004114285A (ja) * 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
US7415321B2 (en) 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
WO2004080665A1 (ja) * 2003-03-11 2004-09-23 Sony Corporation ロボット装置、その行動制御方法及びプログラム
US7853357B2 (en) 2003-03-11 2010-12-14 Sony Corporation Robot behavior control based on current and predictive internal, external condition and states with levels of activations
KR101049743B1 (ko) 2008-12-18 2011-07-19 한양대학교 산학협력단 로봇의 행동 선택 방법
CN114303365A (zh) * 2019-10-16 2022-04-08 松下电器(美国)知识产权公司 机器人、控制处理方法以及控制处理程序
EP4342558A1 (en) 2022-09-21 2024-03-27 Casio Computer Co., Ltd. Apparatus, control method for apparatus, and program

Similar Documents

Publication Publication Date Title
KR20020026165A (ko) 로봇 장치의 행동 결정 방법 및 로봇 장치
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US20060041332A1 (en) Robot apparatus and control method therefor, and robot character discriminating method
JP4244812B2 (ja) 行動制御システム及びロボット装置の行動制御方法
US8483873B2 (en) Autonomous robotic life form
JP2011115944A (ja) ロボット装置、ロボット装置の行動制御方法及びプログラム
US6362589B1 (en) Robot apparatus
JP2005193331A (ja) ロボット装置及びその情動表出方法
EP1508409A1 (en) Robot device and robot control method
KR20010031909A (ko) 로봇 장치, 로봇 장치의 제어 방법, 표시 방법 및 제공 매체
JP5227362B2 (ja) エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP2001191281A (ja) 編集装置、編集方法及び記録媒体
JP2006110707A (ja) ロボット装置
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP2001334482A (ja) ロボット装置及びロボット装置の行動決定方法
JP4296736B2 (ja) ロボット装置
WO2022227290A1 (zh) 一种控制虚拟宠物的方法及智能投影设备
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2001157980A (ja) ロボット装置及びその制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001154707A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603