JP4316819B2 - ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体 - Google Patents

ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP4316819B2
JP4316819B2 JP2001075854A JP2001075854A JP4316819B2 JP 4316819 B2 JP4316819 B2 JP 4316819B2 JP 2001075854 A JP2001075854 A JP 2001075854A JP 2001075854 A JP2001075854 A JP 2001075854A JP 4316819 B2 JP4316819 B2 JP 4316819B2
Authority
JP
Japan
Prior art keywords
panel
candidate information
robot
condition
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001075854A
Other languages
English (en)
Other versions
JP2002273674A5 (ja
JP2002273674A (ja
Inventor
雄二 澤尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2001075854A priority Critical patent/JP4316819B2/ja
Publication of JP2002273674A publication Critical patent/JP2002273674A/ja
Publication of JP2002273674A5 publication Critical patent/JP2002273674A5/ja
Application granted granted Critical
Publication of JP4316819B2 publication Critical patent/JP4316819B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ロボットの制御装置及びその方法並びにプログラムコード、記憶媒体に関するものである。
【0002】
【従来の技術】
近年のロボット技術の分野では、ユーザと仮想のコミュニケーションを図るためのロボット(コミュニケーションロボット)が存在する。コミュニケーションロボットには、単純に外観や、生き物としてのリアリティ等が異なる複数種類のものがある。
【0003】
単純な外観としては、猫型や犬型といった身近なペット型のものが多い。また、その生き物としてのリアリティ等については、ロボットがとる行動パターンの数によるところがある。つまり、状況に応じてロボットのとる行動の数が多ければ多いほど、そのロボットはより生き物らしくなる。
【0004】
そのためにコミュニケーションロボットには予めいくつかの行動パターン、例えば手足や体の動き、顔や目の表情、鳴き声などのサウンドが登録されている。そしてユーザのロボットへのアクション(例えばロボットをなでたり、たたいたりする)やロボットの状況(例えばロボットが何かにぶつかったり、姿勢を崩したり)に応じて、とるべきロボットの行動パターンが上記の予め保持しておいた行動パターンから選択され、ロボットは選択された行動パターンに応じた行動をとる。
【0005】
【発明が解決しようとする課題】
しかしコミュニケーションロボットをより生き物らしくするためには、より多くの行動パターンをロボットに登録する必要がある。又、生き物には「学習能力」があり、過去の状況を参考にしてその行動パターンを自発的に変更しようとする。この「学習能力」をコミュニケーションロボットに備える場合、その機能を実現するための装置を上述の行動パターンを選択する機能とは別に設ける必要があり、コミュニケーションロボットの装置としての複雑性やコストの向上といった問題があった。
【0006】
本発明は以上の問題に鑑みてなされたものであり、簡単な構成で学習機能、特に性格付けを実現することを目的とする。
【0007】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明のロボットの制御装置は以下の構成を備える。
【0008】
即ち、条件を示す条件情報と、当該条件が満たされた場合に実行される処理を示す処理情報のセットをパネルとして、複数記憶保持する記憶保持手段と、
前記記憶保持手段が記憶保持している複数のパネルのうち、1つを選択するパネル選択手段と、
前記パネル選択手段が選択したパネルを用いてロボットの制御を行う制御手段とを備え、
前記パネル選択手段は、
前記パネル選択手段が次に選択するパネルの候補を示す候補情報を所定個数分、記憶保持する為の候補情報記憶手段と、
前記候補情報記憶手段に記憶保持されている候補情報から1つを選択し、選択した候補情報が示すパネルを、前記選択手段が次に選択するパネルとして決定するパネル決定手段とを備え、
前記制御手段は、
使用中のパネル内に、着目候補情報を前記候補情報記憶手段に格納する処理を示す処理情報が含まれており、且つ、当該処理情報とセットになって前記使用中のパネルに含まれている条件情報が示す条件が満たされたことを検知した場合には、前記着目候補情報を前記候補情報記憶手段に格納する
ことを特徴とする。
【0009】
本発明の目的を達成するために、例えば本発明のロボットの制御方法は以下の構成を備える。
【0010】
即ち、条件を示す条件情報と、当該条件が満たされた場合に実行される処理を示す処理情報のセットをパネルとして複数記憶保持する記憶保持手段、が記憶保持している複数のパネルのうち、1つを選択するパネル選択工程と、
前記パネル選択工程で選択したパネルを用いてロボットの制御を行う制御工程とを備え、
前記パネル選択工程では、
前記パネル選択工程で次に選択するパネルの候補を示す候補情報を所定個数分記憶保持する為の候補情報記憶手段、に記憶保持されている候補情報から1つを選択し、選択した候補情報が示すパネルを、前記選択手段が次に選択するパネルとして決定し、
前記制御工程では、
使用中のパネル内に、着目候補情報を前記候補情報記憶手段に格納する処理を示す処理情報が含まれており、且つ、当該処理情報とセットになって前記使用中のパネルに含まれている条件情報が示す条件が満たされたことを検知した場合には、前記着目候補情報を前記候補情報記憶手段に格納する
ことを特徴とする。
【0011】
【発明の実施の形態】
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
【0012】
[第1の実施形態]
本実施形態では、外界の状況、及び/又は自身の状況に応じて行動するコミュニケーションロボット(以下単にロボットと呼ぶこともある)を制御する装置(以下単に制御装置と呼ぶこともある)及びその方法について説明する。
【0013】
<制御装置の構成>
図1に本実施形態における制御装置の構成を示す。
【0014】
101は物理センサ部で、ロボットの外界の状況や自身の状況を検知する。ロボットの外界の状況を検知するセンサとして物理センサ部101は、明るさを検知する光センサ(例えばcdsセルなど)、音を検知する音センサ、ロボットが何かにぶつかった場合にその状況を検知するタッチセンサ、ロボットの周囲に物体(例えば障害物など)が存在するか否かを赤外線で検知する赤外線対物センサ等により構成されている。又、ロボット自身の状況をセンスするセンサとして物理センサ部101は、ロボットの姿勢を検知する姿勢センサなどにより構成されている。以上のセンサは本実施形態における一例であってこれに限定されるものではない。又、各センサの仕組みやその動作則に関しては本実施形態で説明する範疇ではないのでここでの説明は省略する。
【0015】
102は内部センサ部で、ロボットの内部の状況を検知する。内部センサ部102としては、ロボットの内部における時計として機能する体内時計や、カウンタ等により構成されている。
【0016】
103はセンサ処理部で、物理センサ部101や内部センサ部102からの検知結果に基づいて、具体的に「ぶつかった」、「明るくなった」等の結果を出力する。
【0017】
104はアクション演算処理部で、センサ処理部103からの入力に応じた行動パターンを後述のデータ格納部105に格納されたパネル105aを用いて決定する。この決定方法については後述する。また、用いるパネルをデータ格納部105から読み込むためのワークエリア104aを内部に備える。
【0018】
105はデータ格納部で、ロボットの行動の因果関係(この行動の因果関係を以下、ロボットの性格と呼ぶことがある)を示すパネル105a(詳細は後述する)、ロボットがとる各種のモーションデータ105b、ロボットの目の部分(LEDなどにより構成されていて、様々なパターンが表示可能)に表示されるパターンのデータ(目のパターンデータ)105c、ロボットが発する鳴き声や効果音などのデータ(サウンドデータ)105d、リンクテーブル105f(詳細は後述する)を格納する。
【0019】
106はアクション処理部で、アクション演算処理部104で決定した行動パターンに基づいてロボットの各部(手、足、首、目の部分など)を制御する。アクション処理部106はロボットのモーションを再生を再生するモーション再生部(アクチュエータや走行車輪などにより構成されている)、上述の目の表示部、ロボットの鳴き声や効果音を発する発音部(スピーカやD/A変換器などにより構成されている)、そして各種演算などを行う演算部などにより構成されている。
【0020】
<パネルとユニット>
図2にパネルの一例を示す。パネルにはユニットが設けてあり、その種類はセンサユニット201とアクションユニット202に大別される。センサユニット201は、パネルにおいて同じ行のアクションユニットが示す行動をロボットがとるための条件を示すものである。例えばロボットの右手に対応するタッチセンサがロボットの右手に何か当たったことを検知した場合、「右手に当たる」を示すセンサユニットに対応するアクションユニット、つまり、「表情 痛っ!」、「サウンド 驚き」、「歩行後退 1秒、割込禁」、「左歩行回転 1秒、割込禁」の4つのアクションユニットがこの順に実行される。つまり、アクションユニットは常に左から実行される。
【0021】
そして「表情 痛っ!」を示すアクションユニットが実行されると、データ格納部105に格納されている目のパターンデータ105cから「痛い」表情を示す目のパターンがアクション演算処理部104により選択され、選択された目のパターンはアクション処理部106(目の表示部)に表示される。
【0022】
また、「サウンド 驚き」を示すアクションユニットが実行されると、データ格納部105に格納されているサウンドデータ105dから「驚き」を示すサウンドデータがアクション演算処理部104により選択され、選択されたサウンドデータはアクション処理部106(サウンド発音部)でサウンドとして再生される。
【0023】
また、「歩行後退 1秒、割込禁」を示すアクションユニットが実行されると、データ格納部105に格納されているモーションデータ105bから「歩行後退」を示すモーションデータがアクション演算処理部104により選択され、選択されたモーションデータは1秒間だけ(内部センサ102の体内時計により計時)アクション処理部106(モーション再生部)でモーションとして再生される。つまり、ロボットは歩行後退の行動をとる。このとき「割込禁」の指示があるので、歩行後退中に他の処理の割込を禁止する。しかし、この割込を有りとするアクションユニットを設けることもでき、その場合、より優先順位の高い処理の割込を許可する。
【0024】
また、「左歩行回転 1秒、割込禁」を示すアクションユニットが実行されると、データ格納部105に格納されているモーションデータ105bから「左歩行回転」を示すモーションデータがアクション演算処理部104により選択され、選択されたモーションデータは1秒間だけ(内部センサ102の体内時計により計時)アクション処理部106(モーション再生部)でモーションとして再生される。つまり、ロボットは左歩行回転の行動をとる。このとき「割込禁」の指示があるので、左歩行回転中に他の処理の割込を禁止する。
【0025】
以上のようにして、条件が満たされたセンサニットに対応するアクションユニットが実行される。そして、アクション処理部106は実行されるアクションユニットに応じた処理を行う。実際には、アクション演算処理部104はワークエリア104aに読み込まれたパネルに設けられた各センサニットを上から下まで繰り返し、周期的にスキャンする(例えばパネルの最上部のユニットから最下部のユニットまでのスキャンの繰り返し周期が0.1秒)。そして、センサ処理部103から入力されるセンサ結果に該当するセンサユニットが無いかを調べる。そして該当するセンサユニットがある場合には、上述の通り、該当するセンサユニットに対応するアクションユニットを実行する。
【0026】
又、パネルにおいて実行されるユニットの優先順位(センサ処理部103からの入力が複数のセンサユニットに該当する場合)は本実施形態では、より上に設けられたユニット程優先順位は低く、より下に設けられたユニット程優先順位は高いものとするが、これに限定されるものではない。
【0027】
尚、図2において「パネルジャンプ パネルNo.2」を示すアクションユニットがあるが、これは各パネルに付けられた固有番号のうち、No.2に対応するパネルをワークエリア104aにロードすることを示す。具体的には、データ格納部105に格納されたパネル105aからNo.2のパネルを選択し、ワークエリア104aを選択したパネルに書き換える。このようにすることで、ロボットの行動にバリエーションができ、更により多くのパネルを備えることでより多くの性格を有することができる。
【0028】
<リンクテーブル>
図3にリンクテーブルを示す。リンクテーブルは、コール先のパネルを特定するデータ(例えばパネルが格納されているアドレスを指すポインタなど)を格納し、複数のリンクテーブル105fがデータ格納部105に格納されている。本実施形態では1つのリンクテーブルで最大16個のコール先を格納することができる(16個の箱が設けられている)ものとするが、これに限定されるものではない。
【0029】
図4にリンクテーブルに関するアクションユニットを示す。
【0030】
401は指定したリンクテーブル(同図の例ではリンクテーブルNo.1)の16個の箱のうち、ランダムに1つを選択することを示すアクションユニットである。そして選択した箱に記憶されているコール先が例えばパネルNo.5であった場合、パネルNo.5がデータ格納部105から選択され、ワークエリア104aにロードされる。尚、選択された箱にコール先が格納されていなかった場合(例えばコール先としてNULLコードが格納されている場合)、このアクションユニットは無視され、次のアクションユニットが実行される。
【0031】
402は指定したパネル(同図ではパネルNo.5)を指定したリンクテーブル(同図ではリンクテーブルNo.1)に格納することを示すアクションユニットである。指定したリンクテーブルにパネルを格納する際、図5に示すとおり、順次空の箱に格納する。しかし指定したリンクテーブルが有する箱が全て空ではない場合、図6に示すとおり、常に古い箱(同図では下の箱程古い)から押し出されて消える。
【0032】
403は指定したリンクテーブル(同図ではテーブルNo.1)の箱から古いもの順に消去することを示すアクションユニットである。
【0033】
404は指定したリンクテーブル(同図ではテーブルNo.1)の全ての箱を消去することを示すアクションユニットである。
【0034】
以上のリンクテーブルに関するアクションユニット及びリンクテーブルを用いて以下、ロボットの学習の方法について説明する。
【0035】
<リンクテーブルを用いた学習方法>
本学習例では、何度も叩かれるとだんだん叩かれる前(手が目の前に来たとき)に叩かれれるのを察知して後ろに逃げるように学習する方法について説明する。
【0036】
図7に本学習例に用いるパネル1,2を示す。パネル1にはセンサユニット711,713,716,718と、夫々のセンサユニットに対応するアクションユニット712,714,715,717,719,720が設けられている。一方、パネル2にはセンサユニット751と、それに対応するアクションユニット752,753が設けられている。尚、以下では予めワークエリア104aにパネル1がロードされているものとする。
【0037】
上の状態において、ロボットは、基本的には何もない(どのセンサも反応していないか、もしくはセンサの検出した値が所定値(センサが何かを検知したとセンサ処理部103が見なせるだけの値(閾値))以下であった場合)とセンサユニット711に対応するアクションユニット712が実行され、アクション演算処理部104はデータ格納部105から「お座り」のモーションデータを特定し、アクション処理部106は特定した「お座り」のモーションデータを再生する。
【0038】
ロボットが叩かれた場合(所定時間内(例えば1秒以内)に急に暗くなり(光センサが検知する明るさが所定時間内に暗くなった)、一回(内部センサ102のカウンタによるカウント)の音(物理センサ部101の音センサによる)を検知した場合)、センサユニット713に対応するアクションユニット714,715がこの順に実行される。まずアクションユニット714が実行され、リンクテーブルNo.1(本学習例の説明ではリンクテーブルはリンクテーブルNo.1しか用いないために、単にリンクテーブルと呼ぶことがある)の空の箱にパネル2をコール先とするためのデータ(例えばパネル2の格納されているアドレスを指すポインタなど)を1つ格納する。そして次にアクションユニット715が実行され、痛いアクションに対応するモーションデータをデータ格納部105から特定し、アクション処理部106は特定した「痛いアクション」に対応するモーションデータを再生する。このようにすることで、ロボットを叩く度にリンクテーブルにはコール先をパネル2とするデータが格納されていく(もちろん16回叩けば、リンクテーブルの有するすべての箱の中にパネル2をコール先とするデータが格納されることになる)。
【0039】
次にロボットが(物理センサ部101が)前に何かあると検知(例えば赤外線対物センサにより検知)した場合、センサユニット716に対応するアクションユニット717が実行される。具体的にはリンクテーブルの箱(16個の箱)の中からランダムに一つを選択し、選択した箱の中に格納されたコール先に基づいてパネルをコールする。箱が空であればそのまま何もせずに処理は次に進む。しかし、上述の処理によると何度もロボットを叩いていると、パネル2をコール先とする箱を選択する確率が高くなる。よって、ロボットを何度も叩いていると、ロボットの前に何かあるだけで、アクションユニット717の実行により、パネル2をコールする確率が高くなる。
【0040】
パネル2にはセンサユニット751と、アクションユニット752,753が設けられている。アクションユニット717の実行によりパネル2をコールすると、ワークエリア104aにパネル1とは別の領域にパネル2がロードされる。そしてパネル2をコールした時点ではロボットには何もないので、センサユニット751に対応するアクションユニット752,753がこの順に実行される。まずアクションユニット752を実行すると、高速後退のモーションがデータ格納部105から選択され、アクション処理部106により高速後退のモーションが再生される。そして次にアクションユニット753が実行され、パネルリターン、すなわち、パネル2をコールしたユニットの次のユニットに処理対象を移す。
【0041】
このようにすることでパネル2における処理、つまり、高速後退する処理の頻度が上述の通り、ロボットの頭を叩く回数の頻度に応じて高くなる。
【0042】
更にパネル1において、なでられる(所定時間内(例えば5秒以内)に急に明るくなったり暗くなったりを5回以上検知した(上述した各センサにより検知可能))と、センサユニット718に対応するアクションユニット719,720が実行される。まずアクションユニット719を実行することで、リンクテーブルに格納されている箱の中から最も古い箱を削除する。つまり、リンクテーブルにおいて「パネル2をコール先とするためのデータ」を格納する箱が一つ減ることになる(リンクテーブルに1つ以上、パネル2をコール先とするデータが格納されていることが前提)。言い換えれば、アクションユニット717を実行した際に、パネル2をコールする確率を減ずることになる。その結果、高速後退する確率が低くなり、擬人的に見れば「少し機嫌を良くした」と見ることができる。そしてアクションユニット720を実行することで、喜びのアクションに対応するモーションデータがデータ格納部105から選択され、選択されたモーションデータがアクション処理部106で再生される。
【0043】
以上のパネル1,2とリンクテーブルを用いた学習方法を説明する図を図8に示す。同図は同じ一つのリンクテーブルに格納されるパネル2の数の変化を示したものであり、800の状態でコール先をパネル2とするためのデータ(同図では単にパネル2としている)が一つ格納されている。そこでアクションユニット810を実行することで更にもう一つ同データが追加され、状態801となる。ここで、アクションユニット820が実行されると、更にもう一つ同データが追加され、状態802となる。一方、アクションユニット830が実行されると、格納された順番が古い順に削除され、801の状態から一つ同データが削除され、803の状態となる。
【0044】
また、上述の処理では、ロボットはなでられる毎に少しづつ機嫌を良くしていくが、例えばアクションユニット719の代わりに図4に示したアクションユニット404を用いることで、一回でもなでられると、リンクテーブル内の箱を全部消去するので、コール先のパネルを特定するデータ(パネル2)は消去され、一気に機嫌をよくする性格となる。
【0045】
また、アクションユニット719の代わりに図4に示したアクションユニット403を用い、所定時間(例えば1分)毎(内部センサ102の体内時計により時間計測)にアクションニット403を実行することで、所定時間が経過する度にリンクテーブル内の箱が1つずつ消去されるので、ロボットは所定時間が経過する毎に機嫌を良くするようになる。
【0046】
以上のように、学習対象をパネルとして表現し(上述の例ではパネル2)、学習をパネルをリンクテーブルに格納する処理とし、学習度をリンクテーブルに格納されたパネルの数として表現することで、パネル、ユニットを用いたロボットの行動プログラムの延長で学習機能(性格付けを含む)を実現することができる。
【0047】
以上の学習の処理のフローチャートを図9に示し、説明する。まずワークエリア104aにパネル1をロードする(ステップS901)。そしてセンサ処理部103からの入力を受け付ける(ステップS902)。そしてセンサ処理部103からの入力において、センサユニットに該当する入力があったか否かの判断を行い(ステップS903)、あった場合、処理をステップS904に移行する。ステップS904における具体的な処理のフローチャートを図10に示す。
【0048】
センサ処理部103からの入力が「叩かれた」ことを示すものであった場合(ステップS1001)、処理をステップS1002に移行し、リンクテーブルにパネル2をコール先として格納する(ステップS1002)。そして「痛いアクション」に基づいたモーションデータを再生する(ステップS1003)。
【0049】
センサ処理部103からの入力が「前に何かある」ことを示すものであった場合(ステップS1004)、処理をステップS1005に移行し、リンクテーブルが有する箱の中からランダムに一つを選択する(ステップS1005)。そして選択した箱が空である場合には処理はステップS1009に移行する。選択した箱がパネル2をコール先とするためのデータを格納している場合、処理をステップS1007に移行し、パネル2をコールして(ステップS1007)、高速後退を行う(ステップS1008)。
【0050】
センサ処理部103からの入力が「なでられた」ことを示すものであった場合(ステップS1009)、リンクテーブルが有する箱の中から最も古い箱を削除し(ステップS1010)、「喜びのアクション」に基づいたモーションデータを再生する(ステップS1011)。
【0051】
センサ処理部103からの入力が無い場合、もしくは所定の値以下である場合には(ステップS1012)、「お座り」のモーションデータを再生する(ステップS1013)。
【0052】
そして図9のステップS905に戻る。
【0053】
尚本実施形態では、リンクテーブルにコール先としてどのパネルも登録されていない場合(本学習例ではパネル2をコール先とする確率が0の場合)には、ロボットはずっとお座りのモーションデータを再生することになるが、これに限定されるものではなく、最低一つはコール先(本学習例ではパネル2)を登録するようにしても良い。
【0054】
[第2の実施形態]
本実施形態では、ロボットが学習することで、中性的なセンサ(ロボットが感情表現しにくいセンサ)を、ロボットにとって意味のある(感情表現しやすい)センサにする学習例を示す。
【0055】
例えば一般の生き物としてのペットにおいて、「叩かれる」、「ぶつかる」等の入力は、ペットにとって良い入力とはいえない。そして感情としては嫌な感情になり、その感情は表情や行動として出力される。しかし、例えば、「ハンドクラップの音を1回鳴らす」などの入力に対しては、ペットの感情は一意ではない。よってこのような中性的な入力に対する感情表現を学習する例を3つ本実施形態で説明する。尚、学習を行うためのパネル(センサユニット、アクションユニットを含む)やリンクテーブルの使用方法は第1の実施形態において説明した通りである。
【0056】
<学習例1>
例えばハンドクラップを1回鳴らし、その後にロボットをほめると(例えばロボットをなでると)、ロボットに「ノリノリで喜ぶ」モーションを再生させるようにパネル(パネル内に配置するセンサユニットとアクションユニットも含む)を構成する。その結果、ハンドクラップを鳴らす毎に、ロボットは「ノリノリで喜ぶ」モーションを再生することを学習する。
【0057】
上述の学習を実現するために、パネル1にはハンドクラップの音を1回検知すると後述のパネル2をリンクテーブルに1つ格納し、ほめられるとリンクテーブルからランダムに一つ箱を選択して箱に格納されているコール先で特定されるパネルを読み込んで実行するようにセンサユニットとアクションユニットを配置する。一方、パネル2には、何もないと「ノリノリで喜ぶ」モーションを再生するようにセンサユニットとアクションユニットを配置する。
【0058】
<学習例2>
例えばロボットの前に何かある場合に(ロボットが前に何かあると検知した場合に)、ロボットを叩くと、ロボットに「痛がる」モーションを再生させるようにパネル(パネル内に配置するセンサユニットとアクションユニットも含む)を構成する。その結果、ロボットは前に何かあることを検知する毎に、「痛がる」モーションを再生することを学習する。
【0059】
上述の学習を実現するために、パネル1には前に何かあることを検知すると後述のパネル2をリンクテーブルに1つ格納し、叩かれるとリンクテーブルからランダムに一つ箱を選択して箱に格納されているコール先で特定されるパネルを読み込んで実行するようにセンサユニットとアクションユニットを配置する。一方、パネル2には、何もないと「痛がる」モーションを再生するようにセンサユニットとアクションユニットを配置する。
【0060】
<学習例3>
例えば急に明るくなった場合に(ロボットが急に明るくなったことを検知した場合に)、のどをゴロゴロすると(ロボットののどにタッチセンサなどを設け、「ゴロゴロされた」ことを検知可能とした場合)、ロボットに「気持ちいい」モーションを再生させるようにパネル(パネル内に配置するセンサユニットとアクションユニットも含む)を構成する。その結果、ロボットは急に明るくなったことを検知する毎に、「気持ちいい」モーションを再生することを学習する。
【0061】
上述の学習を実現するために、パネル1には急に明るくなったことを検知すると後述のパネル2をリンクテーブルに1つ格納し、のどをゴロゴロされると、リンクテーブルからランダムに一つ箱を選択して箱に格納されているコール先で特定されるパネルを読み込んで実行するようにセンサユニットとアクションユニットを配置する。一方、パネル2には、何もないと「気持ちいい」モーションを再生するようにセンサユニットとアクションユニットを配置する。
【0062】
以上の学習の結果、ロボットは中性的な入力に応じた感情を学習することができ、学習した感情に応じた行動や表情を学習することができる。
【0063】
[第3の実施形態]
第1、2の実施形態におけるロボットの行動の因果関係(すなわちロボットの性格)は、パネルとそこに設けられるユニットの組み合わせにより実現した。このユニットの組み合わせは外部からプログラミング可能である。例えば、パーソナルコンピュータ上で動作するGUIを用いて、パネル内にユニットを自由に配置することを可能にする。その結果、オリジナルのパネルが作成されるので、この作成したパネルをロボットに転送する。転送は、パーソナルコンピュータとロボットとを所定の規格の端子(例えばUBS端子など)で接続することで、可能となる。もちろん上述のパーソナルコンピュータに、上述のGUIのプログラムコードやデータ、ロボットにデータを転送するためのドライバがインストールされていることは自明である。
【0064】
【発明の効果】
以上の説明により、本発明によって、簡単な構成で学習機能、特に性格付けを実現することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における制御装置の構成を示す図である。
【図2】パネルの一例を示す図である。
【図3】リンクテーブルを示す図である。
【図4】リンクテーブルに関するアクションユニットを示す図である。
【図5】指定したリンクテーブルにパネルを格納する際を説明する図である。
【図6】指定したリンクテーブルにパネルを格納する際、このリンクテーブルが有する箱が全て空ではない場合を説明する図である。
【図7】学習例に用いるパネル1,2を示す図である。
【図8】図7に示したパネル1,2を用いた学習方法を説明する図である。
【図9】学習の処理のフローチャートである。
【図10】ステップS904における具体的な処理のフローチャートである。

Claims (8)

  1. 条件を示す条件情報と、当該条件が満たされた場合に実行される処理を示す処理情報のセットをパネルとして、複数記憶保持する記憶保持手段と、
    前記記憶保持手段が記憶保持している複数のパネルのうち、1つを選択するパネル選択手段と、
    前記パネル選択手段が選択したパネルを用いてロボットの制御を行う制御手段とを備え、
    前記パネル選択手段は、
    前記パネル選択手段が次に選択するパネルの候補を示す候補情報を所定個数分、記憶保持する為の候補情報記憶手段と、
    前記候補情報記憶手段に記憶保持されている候補情報から1つを選択し、選択した候補情報が示すパネルを、前記選択手段が次に選択するパネルとして決定するパネル決定手段とを備え、
    前記制御手段は、
    使用中のパネル内に、着目候補情報を前記候補情報記憶手段に格納する処理を示す処理情報が含まれており、且つ、当該処理情報とセットになって前記使用中のパネルに含まれている条件情報が示す条件が満たされたことを検知した場合には、前記着目候補情報を前記候補情報記憶手段に格納する
    ことを特徴とするロボットの制御装置。
  2. 前記候補情報記憶手段は、同じパネルを示す候補情報を複数個記憶保持可能であることを特徴とする請求項1に記載のロボットの制御装置。
  3. 前記候補情報記憶手段は、前記所定数の候補情報を記憶保持している状態で新たな候補情報を受け付けると、最も過去に記憶保持した候補情報の替わりに前記新たな候補情報を記憶保持することを特徴とする請求項1又は2に記載のロボットの制御装置。
  4. 前記候補情報記憶手段は、少なくとも1つ以上の候補情報を記憶することを特徴とする請求項1乃至3の何れか1項に記載のロボットの制御装置。
  5. 前記パネルに含まれる条件情報のそれぞれが優先順位を有し、
    前記制御手段は、前記パネルに含まれる複数の条件情報のうち、2以上の条件情報のそれぞれが示す条件が満たされたことを検知した場合、前記2以上の条件情報のうち、優先順位が最も高い条件情報を特定し、特定した条件情報とセットになっている処理情報が示す処理を実行することを特徴とする請求項1乃至4のいずれか1項に記載のロボットの制御装置。
  6. 条件を示す条件情報と、当該条件が満たされた場合に実行される処理を示す処理情報のセットをパネルとして複数記憶保持する記憶保持手段、が記憶保持している複数のパネルのうち、1つを選択するパネル選択工程と、
    前記パネル選択工程で選択したパネルを用いてロボットの制御を行う制御工程とを備え、
    前記パネル選択工程では、
    前記パネル選択工程で次に選択するパネルの候補を示す候補情報を所定個数分記憶保持する為の候補情報記憶手段、に記憶保持されている候補情報から1つを選択し、選択した候補情報が示すパネルを、前記選択手段が次に選択するパネルとして決定し、
    前記制御工程では、
    使用中のパネル内に、着目候補情報を前記候補情報記憶手段に格納する処理を示す処理情報が含まれており、且つ、当該処理情報とセットになって前記使用中のパネルに含まれている条件情報が示す条件が満たされたことを検知した場合には、前記着目候補情報を前記候補情報記憶手段に格納する
    ことを特徴とするロボットの制御方法。
  7. コンピュータに請求項6に記載のロボットの制御方法を実行させるためのプログラム。
  8. 請求項7に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2001075854A 2001-03-16 2001-03-16 ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体 Expired - Fee Related JP4316819B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001075854A JP4316819B2 (ja) 2001-03-16 2001-03-16 ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001075854A JP4316819B2 (ja) 2001-03-16 2001-03-16 ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2002273674A JP2002273674A (ja) 2002-09-25
JP2002273674A5 JP2002273674A5 (ja) 2008-01-17
JP4316819B2 true JP4316819B2 (ja) 2009-08-19

Family

ID=18932874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001075854A Expired - Fee Related JP4316819B2 (ja) 2001-03-16 2001-03-16 ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP4316819B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109911645A (zh) * 2019-03-22 2019-06-21 深圳蓝胖子机器人有限公司 倒包控制方法、装置及机器人

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689319B2 (en) 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
JP5162852B2 (ja) * 2006-07-18 2013-03-13 株式会社国際電気通信基礎技術研究所 アンドロイド制御システム
KR102189856B1 (ko) * 2020-08-10 2020-12-11 주식회사 로보메이션 코딩 블록을 이용한 코딩 로봇 시스템 및 이 시스템의 코딩 편집 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109911645A (zh) * 2019-03-22 2019-06-21 深圳蓝胖子机器人有限公司 倒包控制方法、装置及机器人

Also Published As

Publication number Publication date
JP2002273674A (ja) 2002-09-25

Similar Documents

Publication Publication Date Title
AU2003288790B2 (en) Proactive user interface
US8990688B2 (en) Proactive user interface including evolving agent
Maes Artificial life meets entertainment: lifelike autonomous agents
Duffy Anthropomorphism and the social robot
RU2331918C2 (ru) Проактивный интерфейс пользователя, содержащий эволюционирующий агент
Nacher et al. Interactive technologies for preschool game-based instruction: Experiences and future challenges
CN108363492A (zh) 一种人机交互方法及交互机器人
Brock et al. Developing a lightweight rock-paper-scissors framework for human-robot collaborative gaming
Johnson et al. Constructing the meaning of humanoid sex robots
JP4316819B2 (ja) ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体
CN114712862A (zh) 虚拟宠物交互方法、电子设备及计算机可读存储介质
JP2009026125A (ja) 感情分析デバイス、感情分析方法およびプログラム
Barendregt et al. Towards a framework for design guidelines for young children’s computer games
JP2009207730A (ja) 表示玩具
Butz et al. Benefits of anticipations in cognitive agents
Wittmann et al. What do games teach us about designing effective human-AI cooperation?-A systematic literature review and thematic synthesis on design patterns of non-player characters.
KR20100070773A (ko) 성격 변화 장치 및 그 방법과, 그를 이용한 행동 다양화 장치 및 그 방법과, 그 로봇 시스템
Villareale et al. Integrating players’ perspectives in ai-based games: Case studies of player-ai interaction design
WO2002074502A1 (fr) Dispositif de commande de robot et son procede
JPH11119641A (ja) 生物画像表示制御装置、生物画像表示制御方法、及び生物画像表示処理プログラムを記録した記録媒体
Nguyen Human computer interaction in game design
Kanervisto Advances in deep learning for playing video games
AU2004271482B2 (en) Proactive user interface including evolving agent
Hoffman Hri: Four lessons from acting method
Watkiss Beginning Game Programming with Pygame Zero: Coding Interactive Games on Raspberry Pi Using Python

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090521

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150529

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees