JP2002239960A - ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 - Google Patents

ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置

Info

Publication number
JP2002239960A
JP2002239960A JP2001045691A JP2001045691A JP2002239960A JP 2002239960 A JP2002239960 A JP 2002239960A JP 2001045691 A JP2001045691 A JP 2001045691A JP 2001045691 A JP2001045691 A JP 2001045691A JP 2002239960 A JP2002239960 A JP 2002239960A
Authority
JP
Japan
Prior art keywords
learning
unit
time
operation unit
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001045691A
Other languages
English (en)
Inventor
Jun Yokono
順 横野
Kotaro Sabe
浩太郎 佐部
Gabriel Costa
コスタ ガブリエル
Takeshi Ohashi
武史 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001045691A priority Critical patent/JP2002239960A/ja
Priority to US10/258,110 priority patent/US6697711B2/en
Priority to CN02800361A priority patent/CN1457287A/zh
Priority to KR1020027013996A priority patent/KR20030007533A/ko
Priority to PCT/JP2002/001573 priority patent/WO2002066211A1/ja
Publication of JP2002239960A publication Critical patent/JP2002239960A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 ロボット装置が、容易にかつ、より現実に近
い形で、動作を学習することを実現する。 【解決手段】 ロボット装置は、脚部等の動作を出現さ
せるための動作部106が操作され、その操作に応じて
当該動作部106において得られる時系列の信号の学習
をする学習部103と、学習後に動作部106への外力
により当該動作部106において得られる初期の信号か
ら予測する予測部104と、予測部104の予測値と学
習部103が学習した時系列の信号とを比較し、その比
較結果に基づいて動作部106を制御する動作制御部1
02とを備える。これにより、ロボット装置は、学習
後、外力の入力から動作を想起し、その動作を出現させ
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置、ロ
ボット装置の動作制御方法、ロボット装置の動作を制御
すためのプログラム、及びそのようなプログラムが記録
された記録媒体に関し、詳しくは、ロボット装置が動作
を学習するのに好適なものに関する。
【0002】
【従来の技術】近年、外観形状が犬や猫等の動物に模し
て形成されたロボット装置が提供されている。そのよう
なロボット装置には、外部からの情報や内部の状態に応
じて自律的に動作するものがある。
【0003】このようなロボット装置を思い通りの動作
を学習せるためには、コントローラ等を使用していた。
例えば、コントローラとしてはいわゆるジョイスティッ
クが挙げられる。
【0004】
【発明が解決しようとする課題】ところで、上述したよ
うにロボット装置に動作を、コントローラ等によって学
習させるには、ある程度の習熟が必要である。さらに、
4足歩行のロボット装置等の場合には、動作部のリンク
構造が複雑になり、制御がさらに難しくなる。
【0005】また、ペットとして飼われているようなロ
ボット装置の場合には、実際のペットに対してなすよう
に、より現実に近い形で動作の教示をできれば娯楽性は
さらに向上する。
【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、容易にかつ、より現実に近い形で、
動作を学習することを実現するロボット装置の動作制御
方法、プログラム、記録媒体及びロボット装置の提供を
目的としている。
【0007】
【課題を解決するための手段】本発明に係るロボット装
置の動作制御方法は、動作部を有するロボット装置の動
作を制御するロボット装置の動作制御方法である。この
ロボット装置の動作制御方法は、上述の課題を解決する
ために、動作部を操作し、その操作に応じて動作部にお
いて得られる時系列の信号の学習をする学習工程と、学
習後に動作部への外力により動作部において得られる信
号と、学習工程にて学習した時系列の信号とに基づい
て、動作部を制御する動作制御工程とを有する。
【0008】このようなロボット装置の動作制御方法
は、動作部を操作して、その操作に応じて動作部におい
て得られる時系列の信号の学習をし、学習後に動作部へ
の外力により動作部において得られる信号と、学習した
時系列の信号とに基づいて、動作部を制御する。
【0009】このようなロボット装置の動作制御方法に
より、ロボット装置は、ユーザによる動作部の操作を学
習して、学習後においては、動作部への外力に基づいて
学習した動作を想起し、自律的に動作する。
【0010】また、本発明に係るプログラムは、動作部
を有するロボット装置の動作を制御するためのプログラ
ムである。このプログラムは、上述の課題を解決するた
めに、動作部が操作され、その操作に応じて動作部にお
いて得られる時系列の信号の学習をする学習工程と、学
習後に動作部への外力により動作部において得られる信
号と、学習工程にて学習した時系列の信号とに基づい
て、動作部を制御する動作制御工程とをロボット装置に
実行させる。
【0011】このようなプログラムにより、ロボット装
置は、動作部が操作され、その操作に応じて動作部にお
いて得られる時系列の信号の学習をし、学習後に動作部
への外力により動作部において得られる信号と、学習し
た時系列の信号とに基づいて、動作部を制御する。これ
により、ロボット装置は、ユーザによる動作部の操作を
学習して、学習後においては、動作部への外力に基づい
て学習した動作を想起し、自律的に動作する。
【0012】また、本発明に係る記録媒体は、動作部を
有するロボット装置の動作を制御するためのプログラム
が記録された記録媒体である。この記録媒体は、上述の
課題を解決するために、動作部を操作し、その操作に応
じて動作部において得られる時系列の信号の学習をする
学習工程と、学習後に動作部への外力により動作部にお
いて得られる信号と、学習工程にて学習した時系列の信
号とに基づいて、動作部を制御する動作制御工程とをロ
ボット装置に実行させるプログラムが記録されている。
【0013】このような記録媒体に記録されたプログラ
ムにより、ロボット装置は、動作部が操作され、その操
作に応じて動作部において得られる時系列の信号の学習
をし、学習後に動作部への外力により動作部において得
られる信号と、学習した時系列の信号とに基づいて、動
作部を制御する。これにより、ロボット装置は、ユーザ
による動作部の操作を学習して、学習後においては、動
作部への外力に基づいて学習した動作を想起し、自律的
に動作する。
【0014】また、本発明に係るロボット装置は、動作
部を有するロボット装置である。このロボット装置は、
上述の課題を解決するために、動作部が操作され、その
操作に応じて動作部において得られる時系列の信号の学
習をする学習手段と、学習後に動作部への外力により動
作部において得られる信号と、学習手段が学習した時系
列の信号とに基づいて、動作部を制御する動作制御手段
とを備える。
【0015】このような構成を備えたロボット装置は、
動作部が操作され、その操作に応じて動作部において得
られる時系列の信号の学習をし、学習後に動作部への外
力により動作部において得られる信号と、学習した時系
列の信号とに基づいて、動作部を制御する。これによ
り、ロボット装置は、ユーザによる動作部の操作を学習
して、学習後においては、動作部への外力に基づいて学
習した動作を想起し、自律的に動作する。
【0016】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳細に説明する。この実施の形態は、周
囲の環境(外的要因)や内部の状態(内的要因)に応じ
て自律的に行動をする自律型のロボット装置である。
【0017】図1には、ロボット装置1の具体例を示し
ている。このロボット装置1は、「犬」等の動物を模し
た形状の、いわゆるペット型ロボットとされ、胴体部ユ
ニット2の前後左右にそれぞれ脚部ユニット3A,3
B,3C,3Dが連結されると共に、胴体部ユニット2
の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾
部ユニット5が連結されて構成されている。このように
構成されるロボット装置1は、制御プログラムに基づい
て、自己(内部)及び周囲(外部)の状況や、使用者か
らの指示及び働きかけに応じて、脚部ユニット3A,3
B,3C,3D等の動作部を動作させて、自律的に行動
するようになされている。
【0018】そして、このロボット装置1は、ユーザに
教示された動作を、学習することができるようになされ
ている。ロボット装置1がする学習とは、後で詳述する
ように、例えば、尻部を一瞬押すだけで、予め教示され
た動作を表出するようなものである。図2には、そのよ
うな学習をするためのロボット装置1の構成を示してい
る。ロボット装置1は、図2に示すように、センサー1
1、運動制御部12、学習部13、予測部14及び駆動
部15を有している。
【0019】このような構成において、学習部103
は、脚部ユニットユニット3A,3B,3C,3Dや頭
部ユニット4等の動作を出現させるための動作部106
が操作され、その操作に応じて当該動作部106におい
て得られる時系列の信号の学習をする学習手段として機
能し、動作制御部102及び駆動部105は、学習後に
動作部106への外力により動作部106において得ら
れる信号と、学習部103が学習した時系列の信号とに
基づいて、動作部106を制御する動作制御手段として
機能し、予測部104は、学習後に動作部106への外
力により当該動作部106において得られる初期の信号
から予測する予測手段として機能する。
【0020】以下、上述のロボット装置1の各構成部に
ついて詳細に説明する。センサー11は、動作部106
の変位を検出する。例えば、センサー11は、ポテンシ
ョメータやエンコーダ等である。なお、センサー11は
これに限定されないことはいうまでもなく、ロボット装
置1の動作部106が駆動された際の変位を検出するも
のであれば良い。また、このセンサー11は、ロボット
装置1が自らの動作として駆動した際の動作部106の
変位の検出をする他に、ユーザ等によって付与される外
力によって操作された際の動作部106の変位を検出し
ている。
【0021】例えば、動作部106が上述したような脚
部ユニット3A,3B,3C,3Dである場合には、ポ
テンショメータとされた場合のセンサー11は、変位し
た際の脚部ユニット3A,3B,3C,3Dの移動位置
とされる回転角度を検出する。このセンサー101が検
出したセンサー検出信号は、動作制御部102に出力さ
れる。
【0022】動作制御部102は、動作部106を制御
する制御手段である。具体的には、上述したセンサー1
01からのセンサー検出信号等の各種情報に基づいて動
作部106を制御している。この動作制御部102は、
動作部106の制御を、駆動部105を介して実行して
いる。すなわち、動作制御部102は、センサー検出信
号等の各種情報に応じた制御信号を、駆動部105に出
力している。また、動作制御部102は、センサー10
1からのセンサー検出信号を、学習部103にも出力し
ている。学習部103については後で詳述する。
【0023】駆動部105では、動作制御部102から
の制御信号に基づいて、動作部106を制御している。
すなわち例えば、駆動部105は、制御信号に基づい
て、動作部106とされる脚部ユニット3A,3B,3
C,3D、頭部ユニット4或いは尻尾部ユニット5等を
駆動させている。
【0024】学習部103は、動作部106が操作さ
れ、その操作に応じて動作部106において得られる時
系列の信号(センサー検出信号)を学習するものとして
構成されている。学習部103は、学習時の際にセンサ
ー101において検出される信号であって、例えば、動
作の学習としてユーザ等により外力が付与されて姿勢が
強制的に変化された際にセンサー101が検出するセン
サー検出信号である。
【0025】ここで、時系列の信号は、具体的には、動
作部106の一連の変位或いは移動によりセンサー11
が検出したセンサー検出信号である。センサー検出信号
としては、例えば、上述したように、脚部3A,3B,
3C,3Dの変位としてポテンショメータが検出する回
転角度(間接角度)が挙げられる。
【0026】一方、予測部104は、学習部103がそ
のようなセンサー検出信号から得た学習結果に基づい
て、動作を予測(或いは起想)する。例えば、予測部1
04は、行動やロボット装置に付与される外力と予測対
象とされる動作とを関連付けておき、そのような行動や
外力が付与された際に、動作を表出する(すなわち、動
作制御部102にそれに対応する情報を出力する)よう
な情報を動作制御部102に出力する。
【0027】例えば、上述した学習部103と予測部1
04とにより次のような動作の学習が可能になる。ユー
ザは、ロボット装置1へのある動作の教示として、例え
ば、ロボット装置1の尻部を下方向に押し下げる操作を
行う。例えば、同様な操作を何度か繰り返して動作の教
示を行う。この際、ロボット装置1において、脚部ユニ
ット3A,3B,3C,3Dの回転角度が学習対象とさ
れて、学習部103によって学習される。
【0028】ロボット装置1は、予測部104により、
そのような学習部103による学習結果に基づいて動作
の予測を行う。具体的には、ロボット装置1は、学習後
において再び、ユーザ等によって尻部が下方向に押し下
げられる操作がなされると、先に学習した動作であるこ
とを予測して、動作を表出するようにする。具体的に
は、ロボット装置1は、尻部への下方向への一瞬の負荷
から、予め得ている学習結果に基づいてそれが予め教示
された動作になるであろうことを予測して、その動作を
自律動作として出現させる。
【0029】具体的には、このような動作をする際のロ
ボット装置1における処理は、学習部103による学習
結果に基づいて力が加えられた大きさと方向を検出し
て、予測部104により、その大きさと方向から、各関
節の運動、必要なトルクを計算し、アクチュエータを駆
動するような情報を出力する、といったようなものであ
る。このような場合において、予測部104は、例え
ば、学習結果に基づいて力の大きさ及び方向から動作を
予測して(想起して)、そのような動作を実現させるた
めの制御情報としてトルク情報を動作制御部102にフ
ィードバックさせる。
【0030】これにより、ユーザは、学習後に、図3中
(A)に示すように、ロボット装置1の尻部を一瞬押す
だけで、ロボット装置1は、図3中(B)に示すよう
に、対応する学習動作を自律的に出現するようになる。
このような応用としては、ユーザがロボット装置1の手
の取るだけで、ロボット装置が自律行動としてお手の動
作を出現するような動作が挙げられる。
【0031】以下に、このような動作を可能にする学習
部103及び予測部104の構成について具体的に説明
する。
【0032】学習部103は、ニューラルネットワーク
により構成されている。学習部13が採用するニューラ
ルネットワークは、例えば図4に示すように、入力層1
03 、隠れ層(或いは中間層)103及び出力層1
03に階層化されている。このニューラルネットワー
クは、具体的には、出力層103から入力層103
に向かってフィードバックするループを有するリカレン
ト型ニューラルネットワーク(以下、RNNという。)
である。
【0033】RNNを構成する入力層103、隠れ層
103及び出力層103はそれぞれ、所定の数のニ
ューロンを有し、各層間で各ニューロンが結合されてい
る。そして、このニューロンは、各層間でランダムに結
合されている。そして、出力層103の一部のニュー
ロンは、フィードバックニューロンとされるコンテキス
ト(context)として、入力層103に結合されてい
る。例えば、出力層103のニューロンの数が14の
ニューロンである場合において、出力層103 の2つ
のニューロンがコンテキストとして入力層103に結
合されている。そして、各層間のニューロンの結合は重
み係数として観念されるものである。このようなRNN
において、学習は次のようにしてなされる。なお、学習
とは、このような各層間のニューロンを結合している重
み係数をチューニングし、記憶していくことである。
【0034】RNNでは、学習対象として入力された情
報が入力層103から出力層103に向かって入力
されることで学習が行われる。例えば、学習対象とされ
る情報はベクトル値として入力される。各層では、その
ような入力ベクトルに対して、各ニューロンにて重み係
数を乗算して、後の層の他のニューロンに出力する。
【0035】具体的には、RNNの学習は、大別して、
リハースシーケンス、実際の学習の順番で実行される。
ここで、リハースシーケンスは、大別して2つのステッ
プのプロセスからなり、実際の学習は大別し2つステッ
プのプロセスからなる。
【0036】リハースシーケンスの第1のステップで
は、図5に示すように、ステップS1において、RNN
の入力ユニット、コンテキストユニットを初期化する。
例えば、ランダムに初期化する。
【0037】第2のステップでは、ステップS2におい
て、出力を、入力に自己フィードバックをかける閉ルー
プモードにして、初期化後の初期値からNステップのシ
ーケンスを生成する。
【0038】そして、上述の第1及び第2のステップの
プロセスを、所定回数(例えば、ここでは、L回とす
る。)繰り返すことにより、L列のリハースシーケンス
を得る。
【0039】このように実行され、L列のリハースシー
ケンスを得て、実際の学習を実行する。学習の第1のス
テップでは、上述のリハースシーケンスにより得たL列
のリハースシーケンスと最新の1列の経験シーケンスと
を足して、(L+1)列の学習用シーケンスを得る。
【0040】第2のステップでは、ステップS3におい
て、第1のステップにより得た学習用シーケンスを、例
えば誤算逆伝播法とされる、いわゆるバックプロパゲー
ション法により、M回行って、重み係数(例えば、重み
マトリックスともいう。)を更新する。
【0041】ここで、誤算逆伝播法とは、概略として
は、出力層103から出力された値(例えば、センサ
ーの予測値)と、実際に次時刻で得られた値(例えば、
センサーの予測値)の誤差を、出力層103から入力
層103にフィードバックさせる、といったものであ
る。
【0042】このような学習のステップにより、各層間
の結合とされる重み係数が得られる。例えば、学習の終
了については、入力層103により出力されたものと
要求されるパターンとの誤差がある一定値以上になるこ
とで決定したり、所定回数の学習を繰り返すことで決定
する。
【0043】以上のようなRNNにより学習部103が
構成されている。一方、予測部104は、このような学
習部103の学習結果に基づいて予測する部分として構
成されており、いわゆるインバースダイナミクスにより
処理を行う部分として構成されている。学習部103
は、このような予測部104に対していわゆるフォワー
ドダイナミクスにより処理を行う部分として構成されて
いると言える。
【0044】予測部104は、上述のRNNの逆変換と
して位置付けられる、いわゆるインバースRNN(或い
はRNN−1)を基礎とし、RNNの学習結果に基づい
て予測するように構成されている。例えば、インバース
RNNは、図4に示したRNNに対応して図示すると、
図6に示すようになり、入力層103、隠れ層103
及び出力層103によって構成されている。
【0045】このようなインバースRNNにより予測部
104が構成されている。次に上述したRNNによる処
理、インバースRNNによる処理について、具体例を挙
げて説明する。ここで、RNNで考えた場合、入力され
る値はセンサーの状態を示すセンサー出力とモータの状
態を示すモータ出力になり、それに対応した出力値は、
予測値(以下、センサー予測値という。)になる。
【0046】RNNには、図4に示すように、入力層1
03に、センサー出力Sとモータ出力mとが入力
され、出力層103は、この入力に対応するセンサー
の状態に対する出力St+1とモータの状態に対する出
力mt+1とをする。そして、RNNでは、その出力の
一部が、コンテキスト(context)Cとして、入力層
103にフィードバックされる。また、RNNでは、
例えば、出力されたセンサー予測値St+1と実際に次
時刻で計測されたセンサーの値St+1の誤差に基づい
てバックプロパゲーション法により実行される。
【0047】RNNでは、このような入力層103
の情報の入力により、学習結果として、各層における重
み係数が決定される。すなわち例えば、このようなRN
Nにより、ロボット装置1は、尻部を下方向に押された
際の各脚部ユニット3A,3B,3C,3Dからのポテ
ンショメータの検出値とされるセンサー出力Sに基づ
いて、学習結果としての重み係数の決定を行う。
【0048】一方、インバースRNNでは、そのような
RNNの逆変換として、学習結果に基づいて予測値を得
ることができる。具体的には、インバースRNNは、図
6に示すように、時刻nのセンサー予測出力Sとコン
テキストCが与えられる。これにより、インバースR
NNは、時刻n−1のセンサー入力とモータの状態入力
とコンテキストCn−1とを出力するようになる。そし
て、インバースRNNでは、上述のRNNと同様にバッ
クプロパゲーション法により、フォーワードダイナミク
スへの入力と、出力結果との誤差を使用した処理を行
う。
【0049】インバースRNNは、以上のような処理結
果として、センサー入力とコンテキストとを順次入力に
フォードバックすることで、時間をさかのぼってモータ
の状態の順を予測値として出力する。そして、最終的に
は、時刻nのセンサー出力S を得るためのアクション
の時系列A,A,・・・,An−1或いはモータの
時系列m,m,・・・,mn−1を得ることができ
るようになる。このようなインバースRNNにより構成
される予測部104は、このようなモータの時系列
,m,・・・,mn−1を、動作制御部102に
出力する。動作制御部102では、モータの時系列から
時系列のトルク情報を得て、駆動部105に出力する。
駆動部105は、時系列のトルク情報に基づいて、動作
部105を制御する。
【0050】このようなインバースRNNにより、ロボ
ット装置1は、学習後において再び、尻部への下方向へ
の一瞬の負荷から、予め得ている学習結果に基づいてそ
れが予め教示された動作になるであろうことを予測し
て、動作を自律動作として出現させる。
【0051】以上のようなRNNによって学習部103
が構成されており、また、インバースRNNにより予測
部104が構成されている。ロボット装置1は、以上の
ように、RNNによって構成される学習部13やインバ
ースRNNによって構成される予測部14により、セン
サー情報から教示された動作を学習して、学習後におい
ては、入力されたセンサー情報から次の時間での出力す
べきトルクを予測することで、希望の姿勢(起想した姿
勢)に遷移することができるようになる。
【0052】(1)本実施の形態によるロボット装置の
構成 上述の実施の形態の説明では、ロボット装置1に本発明
を適用した場合について説明した。以下では、そのよう
なロボット装置1についての、より具体的な構成を説明
する。
【0053】ロボット装置1は、図1に示すように、
「犬」を模した形状のいわゆるペットロボットとされ、
胴体部ユニット2の前後左右にそれぞれ脚部ユニット3
A,3B,3C,3Dが連結されると共に、胴体部ユニ
ット2の前端部及び後端部にそれぞれ頭部ユニット4及
び尻尾部ユニット5が連結されて構成されている。
【0054】胴体部ユニット2には、図7に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサー18
及び加速度センサー19なども収納されている。
【0055】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサー21と、前方に位置する物体までの距離を
測定するための距離センサー22と、外部音を集音する
ためのマイクロホン23と、鳴き声等の音声を出力する
ためのスピーカ24と、ロボット装置1の「目」に相当
するLED(Light Emitting Diode)(図示せず)とな
どがそれぞれ所定位置に配置されている。
【0056】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。ここで、ポテンショメー
タ26〜26 は、上述の図2に示したセンサー10
1を構成している。
【0057】そして、これら角速度センサー18、加速
度センサー19、タッチセンサー21、距離センサー2
2、マイクロホン23、スピーカ24及び各ポテンショ
メータ26〜26などの各種センサー並びにLED
及び各アクチュエータ25〜25は、それぞれ対応
するハブ27〜27を介してコントロール部16の
信号処理回路14と接続され、CCDカメラ20及びバ
ッテリ17は、それぞれ信号処理回路14と直接接続さ
れている。
【0058】信号処理回路l4は、上述の各センサーか
ら供給されるセンサーデータや画像データ及び音声デー
タを順次取り込み、これらをそれぞれ内部バス15を介
してDRAM11内の所定位置に順次格納する。また信
号処理回路14は、これと共にバッテリ17から供給さ
れるバッテリ残量を表すバッテリ残量データを順次取り
込み、これをDRAM11内の所定位置に格納する。
【0059】このようにしてDRAM11に格納された
各センサーデータ、画像データ、音声データ及びバッテ
リ残量データは、この後CPU10がこのロボット装置
1の動作制御を行う際に利用される。
【0060】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。なお、このC
PU10が、上述の図2に示した動作制御部10として
の機能を併有している。
【0061】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサーデータ、画像データ、音声データ及びバッテリ
残量データに基づいて自己及び周囲の状況や、使用者か
らの指示及び働きかけの有無などを判断する。
【0062】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
【0063】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
【0064】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0065】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図8に示すようになる。この図
8において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図7)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスするごと
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0066】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサーやアクチュエータ
25 〜25等のハードウェアにアクセスするための
インターフェースを提供するソフトウェア群でなるバー
チャル・ロボット33と、電源の切換えなどを管理する
ソフトウェア群でなるパワーマネージャ34と、他の種
々のデバイス・ドライバを管理するソフトウェア群でな
るデバイス・ドライバ・マネージャ35と、ロボット装
置1の機構を管理するソフトウェア群でなるデザインド
・ロボット36とから構成されている。
【0067】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図7)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
【0068】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0069】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図9に示す。
【0070】ミドル・ウェア・レイヤ40は、図9に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサー
用、動き検出用及び色認識用の各信号処理モジュール5
0〜58並びに入力セマンティクスコンバータモジュー
ル59などを有する認識系60と、出力セマンティクス
コンバータモジュール68並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール61〜6
7などを有する出力系69とから構成されている。
【0071】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図7)か
ら読み出される各センサーデータや画像データ及び音声
データのうちの対応するデータを取り込み、当該データ
に基づいて所定の処理を施して、処理結果を入力セマン
ティクスコンバータモジュール59に与える。ここで、
例えば、バーチャル・ロボット33は、所定の通信規約
によって、信号の授受或いは変換をする部分として構成
されている。
【0072】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図7)に出力する。
【0073】アプリケーション・レイヤ4lは、図10
に示すように、行動モデルライブラリ70、行動切換え
モジュール71、学習モジュール72、感情モデル73
及び本能モデル74の5つのモジュールから構成されて
いる。
【0074】行動モデルライブラリ70には、図11に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデル70〜70が設け
られている。
【0075】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換えモジ
ュール71に出力する。
【0076】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図12に示すような1つのノード(状態)NODE
NODEから他のどのノードNODE〜NODE
に遷移するかを各ノードNODE〜NODEに間を
接続するアークARC〜ARCn1に対してそれぞれ
設定された遷移確率P〜Pに基づいて確率的に決定
する有限確率オートマトンと呼ばれるアルゴリズムを用
いる。
【0077】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図13
に示すような状態遷移表80を有している。
【0078】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
【0079】したがって、図13の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0080】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
【0081】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0082】したがって、図13の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0083】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換えモジュ
ール71に出力するようになされている。
【0084】図10に示す行動切換えモジュール71
は、行動モデルライブラリ70の各行動モデル70
70からそれぞれ出力される行動のうち、予め定めら
れた優先順位の高い行動モデル70〜70から出力
された行動を選択し、当該行動を実行すべき旨のコマン
ド(以下、これを行動コマンドという。)をミドル・ウ
ェア・レイヤ40の出力セマンティクスコンバータモジ
ュール68に送出する。なお、この実施の形態において
は、図11において下側に表記された行動モデル70
〜70ほど優先順位が高く設定されている。
【0085】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
【0086】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0087】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(褒められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
【0088】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
【0089】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0090】
【数1】
【0091】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0092】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
【0093】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであっても良い。
【0094】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。
【0095】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0096】
【数2】
【0097】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0098】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
【0099】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図9に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0100】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図7)に与えるべきサーボ指令値
や、スピーカ24(図7)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図7)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
【0101】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
【0102】(3)ロボット装置への適用 以上がロボット装置1の具体的な構成についての説明で
ある。次のこの具体的な構成とされるロボット装置1に
おける学習について具体的に説明する。
【0103】ロボット装置1は、図14に示すように、
上述のバーチャルロボット33、並びに姿勢管理用トラ
ッキングモジュールモジュール用、モーション再生用、
転倒復帰用及び歩行用の信号処理モジュール61〜64
の他に、行動計画モジュール111、RNNモジュール
112及び特徴量抽出モジュール113を備えている。
例えば、このような各構成部分は、制御プログラムとし
て構成されている。具体的には、上述の図8に示したミ
ドル・ウェア・レイヤ40を構成しており、上述したよ
うに姿勢管理用トラッキングモジュールモジュール用、
モーション再生用、転倒復帰用及び歩行用の各信号処理
モジュール61〜64については、出力系69において
構成されており、特徴量抽出モジュール113について
は、認識系60において構成されている。
【0104】図15のように示される構成において、ロ
ボット装置1において検出された各種センサー情報は、
特徴量抽出モジュール113に入力される。
【0105】特徴量抽出モジュール113では、各種セ
ンサー情報を処理して、センサー情報から特徴量を抽出
し、センサー特徴量を得る。そして、特徴量抽出モジュ
ール113は、センサー特徴量を、RNNモジュール1
12に出力する。
【0106】RNNモジュール112は、上述の図2に
示した学習部103及び予測部104の機能を併有して
おり、情報の学習と、その学習結果を利用した情報の予
測を行う機能を有している。例えば、RNNモジュール
112は、図15に示すように構成されている。また、
例えば、このRNNモジュール112は、図10に示し
た学習モジュール72として制御プログラムによって構
成されている。
【0107】このようなRNNモジュール112には、
センサー情報が入力として与えられると同時に、行動計
画モジュール111から出力されるコマンドAも入力
として与えられる。RNNモジュール112では、入力
されるセンサー特徴量とコマンドとを使用して、RNN
としてのフォワードモデル112とインバースRNN
としてのインバースモデル112とによる学習を行
う。
【0108】学習の際には、RNNモジュール112
は、フォワードモデル112により、入力されてくる
センサー情報S等から次時刻のセンサー情報(センサ
ー予測値)St+1及びコンテキストCt+1を得る。
RNNモジュール112において得られた次時刻のセン
サー情報St+1及びコンテキストCt+1は、行動計
画モジュール111において記憶される。例えば、行動
計画モジュール111は、必要に応じて内部状態に関連
付けて記憶する。例えば、内部状態とは、感情等であ
る。
【0109】行動計画モジュール111は、ロボット装
置1の行動の計画を決定する部分である。行動計画モジ
ュール111は、例えば、図10に示した行動モデルラ
イブラリ70として構成されている。学習(学習フェイ
ズ)の際(すなわち、未だ完全に学習されていない場
合)には、行動計画モジュール111は、上述したよう
な行動モデルライブラリ70の行動モデル70〜70
のうちの一の所望の行動モデルに基づいてロボット装
置1の行動を決定するようにしている。行動計画モジュ
ール111は、図14に示すように、行動計画に応じた
行動情報Aを、姿勢管理モジュール61に出力してい
る。そして、姿勢管理モジュール61以降の処理によ
り、そのような行動情報Aに基づいて動作の制御がな
されるようになる。
【0110】また、行動計画モジュール111は、RN
Nモジュール112の学習が進んだ状態(すなわち、あ
る程度学習をした後)で、行動計画モジュール111の
内部にて記憶されたセンサー情報とコンテキストを起想
させる必要が起こったときに、起想させたいセンサー情
報SとコンテキストCとを取り出し、それをインバース
RNNとされるフォワードモデル112の入力として
RNNモジュール112に与える。
【0111】RNNモジュール112では、この入力か
ら、インバースRNNにより、実現する(想起する)ア
クションの時系列A,A,・・・,Aを順次計算
し、姿勢管理モジュール61に対して送信する。これに
より、行動計画モジュール111の期待する入力が得ら
れるようにロボット装置1の行動が実行されるするよう
になる。
【0112】以上のように、ロボット装置1によれば、
ユーザが直接ロボット装置1に対して力を加えること
で、ユーザとロボット装置1との間で直感的なインター
フェースを形成することができ、しかも、繰り返して同
じ操作を教えることによって、後に、ロボット装置1自
身が採るべき動作を予測し、最後まで操作しなくても自
律的に動作するようになる。
【0113】なお、上述の実施の形態では、学習後に、
ロボット装置1が再び同様な外力を検出することによ
り、対応される動作を自律的に出現させる場合を説明し
た。しかし、これに限定されるものではなく、ロボット
装置1が、外力の付与をトリガとすることなく、最初か
ら自律的に、学習後の動作を表出することもできる。こ
の場合、ロボット装置1は、感情等と学習後の動作とを
関連付けておくことで、所定の感情になったときに関連
付けされた学習後の動作を出現させることができるよう
になる。この場合、ロボット装置1は、学習したフォワ
ードモデルを用いて、ある姿勢をとりたいときに、イン
バースダイナミックスを解いて出力すべきトルクを算出
して、そのトルクを用いて、目標姿勢に到達するように
動作部をする。
【0114】また、上述の実施の形態では、学習部をR
NNとし、予測部をインバースRNNとして、説明し
た。しかし、学習部がそのようなニューラルネットに限
定されないことはいうまでもない。
【0115】また、上述の実施の形態では、本発明を、
ロボット装置1自体に適用した場合について説明した
が、これに限定されるものではない。例えば、上述した
ようなロボット装置1に実行させるプログラムやそのよ
うなプログラムが記録された記録媒体に適用することも
できる。
【0116】
【発明の効果】本発明に係るロボット装置の動作制御方
法は、動作部を操作し、その操作に応じて動作部におい
て得られる時系列の信号の学習をする学習工程と、学習
後に動作部への外力により動作部において得られる信号
と、学習工程にて学習した時系列の信号とに基づいて、
動作部を制御する動作制御工程とを有することにより、
ロボット装置は、ユーザによる動作部の操作を学習し
て、学習後においては、動作部への外力に基づいて学習
した動作を想起し、自律的に動作することができるよう
になる。
【0117】また、本発明に係るプログラムは、動作部
が操作され、その操作に応じて動作部において得られる
時系列の信号の学習をする学習工程と、学習後に動作部
への外力により動作部において得られる信号と、学習工
程にて学習した時系列の信号とに基づいて、動作部を制
御する動作制御工程とをロボット装置に実行させること
により、ロボット装置は、ユーザによる動作部の操作を
学習して、学習後においては、動作部への外力に基づい
て学習した動作を想起し、自律的に動作することができ
る。
【0118】また、本発明に係る記録媒体は、動作部が
操作され、その操作に応じて動作部において得られる時
系列の信号の学習をする学習工程と、学習後に動作部へ
の外力により動作部において得られる信号と、学習工程
にて学習した時系列の信号とに基づいて、動作部を制御
する動作制御工程とをロボット装置に実行させるプログ
ラムが記録されており、このプログラムを実行するロボ
ット装置は、ユーザによる動作部の操作を学習して、学
習後においては、動作部への外力に基づいて学習した動
作を想起し、自律的に動作することができる。
【0119】また、本発明に係るロボット装置は、動作
部が操作され、その操作に応じて動作部において得られ
る時系列の信号の学習をする学習手段と、学習後に動作
部への外力により動作部において得られる信号と、学習
手段が学習した時系列の信号とに基づいて、動作部を制
御する動作制御手段とを備えることにより、ユーザによ
る動作部の操作を学習して、学習後においては、動作部
への外力に基づいて学習した動作を想起し、自律的に動
作することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図2】上述のロボット装置における動作の学習等をす
る要部を示すブロック図である。
【図3】学習によって実現されるロボット装置の動作の
説明に使用した図である。
【図4】上述のロボット装置の学習部を構成するRNN
を示す図である。
【図5】学習の際のロボット装置における処理を示すフ
ローチャートである。
【図6】上述のロボット装置の予測部を構成するインバ
ースRNNを示す図である。
【図7】上述のロボット装置の回路構成を示すブロック
図である。
【図8】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
【図9】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
【図10】上述のロボット装置のソフトウェア構成にお
けるアプリケーション・レイヤの構成を示すブロック図
である。
【図11】上述のアプリケーション・レイヤの行動モデ
ルライブラリの構成を示すブロック図である。
【図12】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明するために使用した図であ
る。
【図13】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【図14】上述のロボット装置の学習部等のより具体的
な構成を示すブロックである。
【図15】RNNモジュールの構成を示すブロック図で
ある。
【符号の説明】
1 ロボット装置、101 センサー、102 動作制
御部、103 学習部、104 予測部、105 駆動
部、106 動作部、112 RNNモジュール
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ガブリエル コスタ 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大橋 武史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED52 EF03 EF07 EF09 EF13 EF16 EF23 EF29 EF34 EF36 3C007 AS36 CS08 HS09 KS16 KS28 KS35 LV12 LW03 LW12 LW15 WA04 WA14 WB18 WB21 WB22 WB25 WC01

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 動作部を有するロボット装置の動作を制
    御するロボット装置の動作制御方法であって、 上記動作部を操作し、その操作に応じて動作部において
    得られる時系列の信号の学習をする学習工程と、 学習後に上記動作部への外力により上記動作部において
    得られる信号と、上記学習工程にて学習した上記時系列
    の信号とに基づいて、上記動作部を制御する動作制御工
    程とを有することを特徴とするロボット装置の動作制御
    方法。
  2. 【請求項2】 上記信号が上記動作部の位置を示すこと
    を特徴とする請求項1記載のロボット装置の動作制御方
    法。
  3. 【請求項3】 上記ロボット装置は、上記動作部の動作
    を制御する際の当該動作部の移動位置検出をする位置検
    出手段を備えており、 上記信号が、上記位置検出手段の検出信号であることを
    特徴とする請求項2記載のロボット装置の動作制御方
    法。
  4. 【請求項4】 上記動作制御工程では、上記学習後に上
    記動作部への外力により上記動作部において得られる初
    期の信号から予測し、その予測値と上記学習工程にて学
    習した時系列の信号とを比較し、その比較結果に基づい
    て上記動作部を制御することを特徴とする請求項1記載
    のロボット装置の動作制御方法。
  5. 【請求項5】 上記学習工程では、上記時系列の信号
    が、入力層、隠れ層及び出力層に向かって入力されるニ
    ューラルネットワークにより学習をすることを特徴とす
    る請求項1記載のロボット装置の動作制御方法。
  6. 【請求項6】 上記ニューラルネットワークが、上記出
    力層から上記入力層に向かってフィードバックするルー
    プを有するリカレントニューラルネットワークであるこ
    とを特徴とする請求項5記載のロボット装置の動作制御
    方法。
  7. 【請求項7】 動作部を有するロボット装置の動作を制
    御するためのプログラムであって、 上記動作部が操作され、その操作に応じて動作部におい
    て得られる時系列の信号の学習をする学習工程と、 学習後に上記動作部への外力により上記動作部において
    得られる信号と、上記学習工程にて学習した上記時系列
    の信号とに基づいて、上記動作部を制御する動作制御工
    程とをロボット装置に実行させることを特徴とするプロ
    グラム。
  8. 【請求項8】 動作部を有するロボット装置の動作を制
    御するためのプログラムが記録された記録媒体であっ
    て、 上記動作部が操作され、その操作に応じて動作部におい
    て得られる時系列の信号の学習をする学習工程と、 学習後に上記動作部への外力により上記動作部において
    得られる信号と、上記学習工程にて学習した上記時系列
    の信号とに基づいて、上記動作部を制御する動作制御工
    程とをロボット装置に実行させるプログラムが記録され
    たことを特徴とする記録媒体。
  9. 【請求項9】 動作部を有するロボット装置であって、 上記動作部が操作され、その操作に応じて動作部におい
    て得られる時系列の信号の学習をする学習手段と、 学習後に上記動作部への外力により上記動作部において
    得られる信号と、上記学習手段が学習した上記時系列の
    信号とに基づいて、上記動作部を制御する動作制御手段
    とを備えることを特徴とするロボット装置。
  10. 【請求項10】 上記信号が上記動作部の位置を示すこ
    とを特徴とする請求項9記載のロボット装置。
  11. 【請求項11】 上記動作部の動作を制御する際の当該
    動作部の移動位置検出をする位置検出手段を備えてお
    り、 上記信号が、上記位置検出手段の検出信号であることを
    特徴とする請求項10記載のロボット装置。
  12. 【請求項12】 上記学習後に上記動作部への外力によ
    り上記動作部において得られる初期の信号から予測する
    予測手段を備え、 上記動作制御手段は、上記予測手段の予測値と上記学習
    手段にて学習した時系列の信号とを比較し、その比較結
    果に基づいて上記動作部を制御することを特徴とする請
    求項9記載のロボット装置。
  13. 【請求項13】 上記学習手段では、上記時系列の信号
    が、入力層、隠れ層及び出力層に向かって入力されるニ
    ューラルネットワークにより学習をすることを特徴とす
    る請求項9記載のロボット装置。
  14. 【請求項14】 上記ニューラルネットワークが、上記
    出力層から上記入力層に向かってフィードバックするル
    ープを有するリカレントニューラルネットワークである
    ことを特徴とする請求項13記載のロボット装置。
JP2001045691A 2001-02-21 2001-02-21 ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 Withdrawn JP2002239960A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001045691A JP2002239960A (ja) 2001-02-21 2001-02-21 ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US10/258,110 US6697711B2 (en) 2001-02-21 2002-02-21 Operational control method, program, and recording media for robot device, and robot device
CN02800361A CN1457287A (zh) 2001-02-21 2002-02-21 用于机器人装置的操作控制的方法、程序、和记录介质、以及机器人装置
KR1020027013996A KR20030007533A (ko) 2001-02-21 2002-02-21 로봇 장치의 동작 제어 방법, 프로그램, 기록 매체 및로봇 장치
PCT/JP2002/001573 WO2002066211A1 (fr) 2001-02-21 2002-02-21 Procede de commande de fonctionnement, programme, et support d'enregistrement pour dispositif robotise, et dispositif robotise correspondant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001045691A JP2002239960A (ja) 2001-02-21 2001-02-21 ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置

Publications (1)

Publication Number Publication Date
JP2002239960A true JP2002239960A (ja) 2002-08-28

Family

ID=18907431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001045691A Withdrawn JP2002239960A (ja) 2001-02-21 2001-02-21 ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置

Country Status (5)

Country Link
US (1) US6697711B2 (ja)
JP (1) JP2002239960A (ja)
KR (1) KR20030007533A (ja)
CN (1) CN1457287A (ja)
WO (1) WO2002066211A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107035A (ja) * 2007-10-26 2009-05-21 Ihi Corp 脚式移動体の操縦方法及び脚式移動体
KR101189772B1 (ko) * 2009-12-30 2012-10-10 한국생산기술연구원 쇼 윈도우용 인조물의 제어 장치 및 그 제어 방법
JP2013169644A (ja) * 2012-02-21 2013-09-02 GM Global Technology Operations LLC 手続き記憶学習およびロボット制御
US9687301B2 (en) 2012-08-07 2017-06-27 Samsung Elecronics Co., Ltd. Surgical robot system and control method thereof
WO2019087490A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102169879B1 (ko) 2019-06-03 2020-10-27 한국기계연구원 학습을 이용한 로봇의 충돌 감지 시스템 및 방법
US11786831B2 (en) 2019-10-31 2023-10-17 Casio Computer Co., Ltd. Robot
EP4342642A1 (en) 2022-09-26 2024-03-27 Casio Computer Co., Ltd. Apparatus, apparatus control method and program

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100451159B1 (ko) * 2001-12-18 2004-10-02 엘지전자 주식회사 로봇의 동작편집장치 및 방법
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP2004227163A (ja) * 2003-01-21 2004-08-12 Fanuc Ltd サーボ制御装置
JP3898686B2 (ja) * 2003-10-20 2007-03-28 ファナック株式会社 数値制御装置
US7848850B2 (en) * 2003-11-13 2010-12-07 Japan Science And Technology Agency Method for driving robot
ATE374064T1 (de) * 2004-03-12 2007-10-15 Koninkl Philips Electronics Nv Elektronische vorrichtung und verfahren zur belebung eines gegenstands
JP4818716B2 (ja) * 2005-12-27 2011-11-16 富士通株式会社 ロボット制御装置
JP4812426B2 (ja) * 2005-12-27 2011-11-09 富士通株式会社 ロボット制御装置
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
JP5632609B2 (ja) * 2007-08-21 2014-11-26 富士通株式会社 ロボット制御装置およびロボット制御方法
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
US20140288704A1 (en) * 2013-03-14 2014-09-25 Hanson Robokind And Intelligent Bots, Llc System and Method for Controlling Behavior of a Robotic Character
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9384443B2 (en) * 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9364950B2 (en) 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9533413B2 (en) * 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
WO2016011590A1 (zh) * 2014-07-21 2016-01-28 深圳市大疆创新科技有限公司 一种数据处理方法、装置及飞行器
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US9592608B1 (en) * 2014-12-15 2017-03-14 X Development Llc Methods and systems for providing feedback during teach mode
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US9652712B2 (en) 2015-07-27 2017-05-16 Google Inc. Analyzing health events using recurrent neural networks
JP2017091431A (ja) * 2015-11-17 2017-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6544219B2 (ja) * 2015-11-30 2019-07-17 オムロン株式会社 制御装置
US9919422B1 (en) 2016-01-06 2018-03-20 X Development Llc Methods and systems to provide mechanical feedback during movement of a robotic system
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
EP3689557A1 (en) * 2016-05-20 2020-08-05 Google LLC Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
KR101980603B1 (ko) 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
DE102016215587A1 (de) * 2016-08-19 2018-02-22 Audi Ag Verfahren zum Betreiben eines zumindest teilautonom betriebenen Kraftfahrzeugs und Kraftfahrzeug
US10183590B2 (en) * 2016-09-23 2019-01-22 Faraday&Future Inc. Electric vehicle battery monitoring system
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
JP6951659B2 (ja) * 2017-05-09 2021-10-20 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
CN108621159B (zh) * 2018-04-28 2020-05-19 首都师范大学 一种基于深度学习的机器人动力学建模方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1177560A (ja) 1997-09-03 1999-03-23 Sony Corp 多関節型ロボット及び多関節型ロボットの位置教示方法
JPH11198075A (ja) 1998-01-08 1999-07-27 Mitsubishi Electric Corp 行動支援装置
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
WO2001059703A1 (fr) * 2000-02-09 2001-08-16 Sony Corporation Dispositif et procede de traitement de l'information, dispositif de stockage de donnees et programme
WO2001058649A1 (fr) * 2000-02-14 2001-08-16 Sony Corporation Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees
CN1398214A (zh) * 2000-10-23 2003-02-19 索尼公司 有足机器人、用于有足机器人的动作控制方法、和存储介质
US6680753B2 (en) * 2001-03-07 2004-01-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for skipping and repeating audio frames
KR100940630B1 (ko) * 2001-05-02 2010-02-05 소니 주식회사 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009107035A (ja) * 2007-10-26 2009-05-21 Ihi Corp 脚式移動体の操縦方法及び脚式移動体
KR101189772B1 (ko) * 2009-12-30 2012-10-10 한국생산기술연구원 쇼 윈도우용 인조물의 제어 장치 및 그 제어 방법
JP2013169644A (ja) * 2012-02-21 2013-09-02 GM Global Technology Operations LLC 手続き記憶学習およびロボット制御
US9687301B2 (en) 2012-08-07 2017-06-27 Samsung Elecronics Co., Ltd. Surgical robot system and control method thereof
WO2019087490A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019087490A1 (ja) * 2017-10-30 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11446813B2 (en) 2017-10-30 2022-09-20 Sony Group Corporation Information processing apparatus, information processing method, and program
JP7156300B2 (ja) 2017-10-30 2022-10-19 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11938625B2 (en) 2017-10-30 2024-03-26 Sony Group Corporation Information processing apparatus, information processing method, and program
KR102169879B1 (ko) 2019-06-03 2020-10-27 한국기계연구원 학습을 이용한 로봇의 충돌 감지 시스템 및 방법
US11786831B2 (en) 2019-10-31 2023-10-17 Casio Computer Co., Ltd. Robot
EP4342642A1 (en) 2022-09-26 2024-03-27 Casio Computer Co., Ltd. Apparatus, apparatus control method and program

Also Published As

Publication number Publication date
US6697711B2 (en) 2004-02-24
CN1457287A (zh) 2003-11-19
WO2002066211A1 (fr) 2002-08-29
KR20030007533A (ko) 2003-01-23
US20030144764A1 (en) 2003-07-31

Similar Documents

Publication Publication Date Title
JP2002239960A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US11224971B2 (en) Predictive robotic controller apparatus and methods
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
Al-Yacoub et al. Improving human robot collaboration through Force/Torque based learning for object manipulation
US7515992B2 (en) Robot apparatus and emotion representing method therefor
US6718232B2 (en) Robot device and behavior control method for robot device
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US20050240412A1 (en) Robot behavior control system and method, and robot apparatus
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
US20080058988A1 (en) Robots with autonomous behavior
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2005342873A (ja) ロボット装置及びその動作制御方法
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
WO2002065825A2 (fr) Robot et procede de commande du fonctionnement dudit robot
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置
JP2001154707A (ja) ロボット装置及びその制御方法
JP2002264057A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513