JP5910249B2 - インタラクション装置およびインタラクション制御プログラム - Google Patents

インタラクション装置およびインタラクション制御プログラム Download PDF

Info

Publication number
JP5910249B2
JP5910249B2 JP2012080610A JP2012080610A JP5910249B2 JP 5910249 B2 JP5910249 B2 JP 5910249B2 JP 2012080610 A JP2012080610 A JP 2012080610A JP 2012080610 A JP2012080610 A JP 2012080610A JP 5910249 B2 JP5910249 B2 JP 5910249B2
Authority
JP
Japan
Prior art keywords
behavior
interaction
definition information
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012080610A
Other languages
English (en)
Other versions
JP2013208681A (ja
Inventor
渡辺 一郎
一郎 渡辺
岳 今井
岳 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012080610A priority Critical patent/JP5910249B2/ja
Publication of JP2013208681A publication Critical patent/JP2013208681A/ja
Application granted granted Critical
Publication of JP5910249B2 publication Critical patent/JP5910249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Description

本件開示は、人物との間で言語および非言語によるコミュニケーションを行うインタラクション装置およびインタラクション制御プログラムに関する。
インタラクション装置の一つであるコミュニケーションロボットは、音声と身振りなどのジェスチャーとの少なくとも一方を含む様々なふるまいを実行することにより、人物との間でコミュニケーションを行う機能を有する。このようなコミュニケーションロボットを、例えば、高齢者などの見守りに利用する技術が提案されている。
コミュニケーションロボットが人物との交流を進める過程で、時々刻々と変化する状況に合ったふるまいを実行させる手法として、例えば、様々な状況を想定したシナリオに従って、複数のふるまいを組み合わせる手法が提案されている(特許文献1参照)。
特開2002−120174号公報
上述した特許文献1の技法によれば、生き物の形態を模したコミュニケーションロボットに、生き物らしいふるまいをさせながら、見守り対象の人物に対して目的を持った働きかけをするインタラクションサービスのためのシナリオを作成することが可能である。
しかしながら、予め作成されたシナリオに基づいてコミュニケーションロボットが動作する場合には、互いに類似した状況において、互いに類似したサービスを実行させようとすれば、コミュニケーションロボットが実行するふるまいは同じになってしまう。コミュニケーションロボットが、このような画一化したふるまいを繰り返すと、コミュニケーションロボット自体が、見守り対象の人物に飽きられてしまう可能性がある。そして、その場合には、見守り対象の人物とコミュニケーションロボットとのインタラクションである相互作用が成り立たなくなってしまうおそれがある。
類似した複数の状況を互いに区別するとともにコミュニケーションロボットが実行するふるまいに変化を持たせるために、膨大な場合分けを含む緻密なシナリオを予め作成しておけば、上述したような画一化を避けることが可能である。しかしながら、そのような緻密なシナリオを作成することは非常に困難である。
本件開示は、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現可能なインタラクション装置およびインタラクション制御プログラムを提供することを目的とする。
一つの観点によるインタラクション装置は、音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報と、前記種類情報で示された種類の状態変化を発生させる可能性の高さを示す期待度とを含むふるまい定義情報を登録するデータベースと、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つを選択する選択部と、前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部とを備える。
また、別の観点によるインタラクション制御プログラムは、出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と、前記出力装置との間の相互作用に関する状況を検知し、前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報と、前記種類情報で示された種類の状態変化を発生させる可能性の高さを示す期待度とを含むふるまい定義情報を登録するデータベースから、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、検知した状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として検索し、前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つを選択し、選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる処理をコンピュータに実行させる。
本件開示のインタラクション装置およびインタラクション制御プログラムによれば、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現することができる。
インタラクション装置の一実施形態を示す図である。 ふるまい定義情報の例を示す図である。 目的の達成に寄与するふるまいの例を示す図である。 インタラクション装置の別実施形態を示す図である。 インタラクション装置の別実施形態を示す図である。 各ふるまい候補について算出される合成期待度の例を示す図である。 インタラクション装置の別実施形態を示す図である。 状況テーブルの例を示す図である。 ふるまい定義情報の別例を示す図である。 興味度UILの時間変化の例を示す図である。 インタラクション装置の別実施形態を示す図である。 インタラクション装置のハードウェア構成例を示す図である。 状況を検知する処理のフローチャートの例を示す図である。 ふるまいを制御する処理のフローチャートの例を示す図である。 ふるまいを選択する処理のフローチャートの例を示す図である。 期待度を更新する処理のフローチャートの例を示す図である。
以下、図面に基づいて、本発明の実施形態について詳細に説明する。
図1は、インタラクション装置の一実施形態を示している。図1に例示したインタラクション装置10は、別の場所にあるコンピュータ装置などの上位装置(図示せず)から受け取った指示Dirに応じて、利用者Uに対する働きかけを行う。
このインタラクション装置10は、出力装置11と、検知部12と、データベース13と、検索部14と、選択部15と、制御部16とを含んでいる。検索部14は、指示Dirで指定された目的と、検知部12が後述するようにして検知する状況とに基づいて、データベース13を検索する。検索によって検索部14が得たふるまいは、インタラクション装置10と利用者Uとの間のインタラクションのために、インタラクション装置10が利用者Uに対する働きかけとして実行するふるまいの候補となる。選択部15は、検索部14によって得られたふるまい候補の中から一つを選択し、制御部16を介して出力装置11に、選択したふるまいを出力させる。
また、図1に示したセンサ部SDは、例えば、温度センサや湿度センサおよび明るさセンサを含んでいる。このセンサ部SDは、出力装置11および利用者Uの周囲の気温や湿度、明るさなど、出力装置11と利用者Uとの相互作用がどのような環境において行われているかを示す様々な要素に関する計測値を取得する。
出力装置11は、音声と動作との少なくとも一方を含む複数のふるまいを、利用者Uに対する働きかけとして出力する機能を有する。この出力装置11は、例えば、熊などの生き物の形態を模したコミュニケーションロボットのように、利用者Uによって、自律的な個体として認識される存在であることが望ましい。また、出力装置11は、CG(Computer Graphics)キャラクタなどを表示する表示装置でもよい。なお、以下の説明では、コミュニケーションロボットを単にロボットと称する。また、出力装置11がロボットである場合に、出力装置11は、働きかけの相手である利用者Uの様子を観測するための観測機器として、カメラやマイクロホンおよび接触センサなどを搭載していることが望ましい。
検知部12は、出力装置11と利用者Uとの間の相互作用に関する状況を検知する。検知部12は、相互作用に関する状況を表すインタラクション情報の一部として、例えば、出力装置11に搭載された観測機器で得られた利用者Uの状況に関する計測値とともに、上述したセンサ部SDで得られた各計測値を取得する。また、検知部12は、インタラクション情報の一部として、出力装置11から、この出力装置11の内部状態を示す情報を取得する。出力装置11の内部状態とは、出力装置11が個々のふるまいを実行する過程で集積されるパラメータの集まりで表される。例えば、出力装置11が生き物を模したロボットである場合に、出力装置11の内部状態は、このロボットの感情や利用者Uへのなつき度合いなど、このロボットの個性や自律性を示すパラメータ群によって表すことができる。
データベース13は、出力装置11によって出力可能な各ふるまいを定義するふるまい定義情報を、例えば、個々のふるまいに与えた識別番号に対応して登録している。各ふるまい定義情報は、当該ふるまいを出力装置11に出力させる条件を示す契機条件を含んでいる。また、各ふるまい定義情報は、ふるまいの出力によって引き出すことが可能な利用者Uの状態変化の種類を示す種類情報と、各状態変化が発生する可能性の高さを示す期待度を含んでいる。
ここで、利用者Uの状態は、例えば、他者に対して興味を持っている度合いを示す興味度や、利用者Uが活動的である度合いを示す活動度や、利用者Uの感情表現の豊かさを示す情動度などを含む複数の指標値によって表すことが可能である。また、利用者Uが他者に対して示す興味度は、例えば、利用者Uが出力装置11として機能するロボットに対してどの程度興味を持っているかに基づいて推定することが可能である。そして、利用者Uの状態変化は、例えば、これらの指標値の少なくとも一つの値が変化することとして表れる。つまり、上述した興味度、活動度、情動度を含む各指標値の変化は、それぞれ利用者Uの状態変化の一例である。
また、出力装置11によって実行させる個々のふるまいを設計する設計者は、それぞれのふるまいの実行により、上述した指標値の少なくとも一つについて、好ましい方向への変化を起こさせることを狙って、個々のふるまいを設定することもできる。なお、指標値の好ましい方向への変化とは、例えば、上述した活動度、興味度および情動度では、これらの指標値の値を上昇させる方向の変化である。したがって、ふるまいの設計者は、個々のふるまいをデータベース13に登録する際に、当該ふるまいによって変化することが期待できる指標値の種類を示す指標値名を、当該ふるまいの種類情報として、対応するふるまい定義情報に設定してもよい。
なお、データベース13への種類情報の設定は、後述するような実験結果に基づいて行うこともできる。例えば、個々のふるまいによる働きかけを様々な人物に対して行った際に、例えば、上述した興味度、活動度および情動度を上昇させるような変化が発生した回数や、各指標値の上昇幅などを調べる実験を行うことにより、各ふるまいによって変化することが期待できる指標値を高い精度で特定することができる。また、このような実験結果に基づいて、個々のふるまいの実行によって利用者Uに働きかけを行った際に、各指標値が上昇する可能性の高さを見積もることができる。各ふるまい定義情報において、種類情報ごとに設定される期待度の値は、上述したような実験結果に基づいて例えば数値「0」〜数値「1」の範囲で特定してもよいし、また、ふるまいの設計者が経験に基づいて予想した値を設定してもよい。
また、各ふるまい定義情報において、利用者Uの状態を示す各指標値に対応して、当該ふるまいの実行によって各指標値を変化させる可能性の高さを示す期待度を設定してもよい。この場合に、期待度が「0」である場合は、対応する指標値を変化させる可能性がないことを示し、期待度が数値「1」に近づくほど、対応する指標値が高い確度で変化することを示す。
また、上述した指示Dirによって指定された目的が、上述した興味度、活動度および情動度を含む各指標値の好ましい方向への変化で示される利用者Uの状態変化である場合に、上述した種類情報は、個々のふるまいが達成可能な目的を示している。また、各ふるまい定義情報において、各指標値に対応する期待度は、当該ふるまいを実行することによって、それぞれの指標値についての目的が達成される度合いを示している。
図2は、ふるまい定義情報の一例を示している。図2に例示したふるまい定義情報は、識別番号「13」およびふるまい名「さわやかな挨拶」で特定されるふるまいについてのふるまい定義情報である。
このふるまい定義情報は、ふるまい「さわやかな挨拶」として、図1に示した出力装置11が出力する音声メッセージや動作を示すふるまい内容「Def13」を含んでいる。ふるまい内容「Def13」は、例えば、音声メッセージの内容あるいは音声データのファイル名や、身振りを実現するための個々の動作を記述した情報を含んでいる。
また、ふるまい定義情報は、ふるまい「さわやかな挨拶」を出力する契機を指定する契機条件「C1 AND C2 AND C3」を含んでいる。なお、図2に示した符号C1,C2,C3のそれぞれは、例えば、図1に示した検知部12によって検知可能なパラメータの値の範囲を示し、演算子「AND」は、論理積演算を示している。このように、各ふるまいに対応する契機条件は、一つのパラメータの範囲あるいは複数のパラメータの範囲相互についての関係を示す論理式として示すことができる。このような論理式により、例えば、「利用者Uが出力装置11からの働きかけが可能な位置におり、気温および湿度から算出される不快指数が閾値以下であり、周囲の明るさが閾値以上である」ときのように、複雑な契機条件を示すことができる。
更に、図2に示したふるまい定義情報は、ふるまい「さわやかな挨拶」によって引き出すことが可能な利用者Uの状態変化の種類と、それぞれに対応する期待度を含んでいる。図2において、符号AILは、状態変化「利用者Uの活動度を上昇させる」の達成についての期待度を示し、符号EILは、状態変化「利用者Uの情動度を上昇させる」の達成についての期待度を示す。また、符号IILは、状態変化「利用者Uの興味度を上昇させる」の達成についての期待度を示している。
各ふるまい定義情報は、上述した3種類の期待度AIL,EIL,IILに加えて、他の種類の状態変化についての期待度を含んでいてもよい。各目的についての期待度の値は、例えば、個々のふるまいをデータベース13に登録する際などに、数値「0」〜数値「1」の範囲内でそれぞれ設定することができる。なお、以下の説明において、3種類の期待度AIL,EIL,IILを含む各種の期待度を互いに区別しない場合は、期待度XILと称する。
図2に示したふるまい「さわやかな挨拶」は、利用者Uの活動度、情動度および興味度をそれぞれ変化させる可能性を持っているので、期待度AIL,EIL,IILについてそれぞれ数値「0」以外の値「0.3」、「0.5」、「0.3」が設定されている。データベース13は、図2の例のように、複数の目的についての期待度として「0」以外の値が設定されるふるまいを含む一方で、全ての目的についての期待度が「0」であるふるまいを含んでいてもよい。また、データベース13は、一部又は全ての目的について期待度が設定されていないふるまい定義情報を含んでいてもよい。なお、ふるまい定義情報において、一部又は全ての目的について期待度が設定されていない場合は、それらの目的についての期待度が値「0」であるとして扱うことができる。
また、各ふるまい定義情報は、図2に示すように、個々のふるまいの実行についての優先度を含んでいてもよい。優先度は、例えば、個々のふるまいをデータベース13に登録する際に、ふるまいそれぞれの性質などに応じて、複数段階の優先度の一つを設定すればよい。例えば、呼吸動作のように、継続的に実行されるふるまいについては、他のふるまいを優先的に実行させるために、低い優先度を設定することが望ましい。逆に、利用者Uからの働きかけに反応するためのふるまいについては高い優先度を設定することにより、継続的なふるまいよりも優先して実行されるようにすることが望ましい。なお、図2の例では、ふるまい「さわやかな挨拶」について、3段階の優先度「高」、「中」、「低」のうち、中程度の優先度「中」が設定されている。
図1に示したインタラクション装置10において、検索部14は、上述したような各ふるまいが登録されたデータベース13から、次に述べるようにして、ふるまい候補を検索する。
検索部14は、例えば、検知部12で収集されたインタラクション情報と、各ふるまいに対応してデータベース13に登録されたふるまい定義情報に含まれる契機条件とを照合することで、契機条件が満たされているふるまいを判別する。このようにして判別されたふるまいは、いずれも、検知部12で収集されたインタラクション条件で示される現在の状況において、出力装置11が実行することがふさわしいふるまいである。更に、検索部14は、このようにして判別した各ふるまいに対応するふるまい定義情報を参照し、指示Dirで目的として指定された状態変化の種類を示す指標値名に対応して数値「0」以外の値を持つ期待度が設定されているふるまいを検出する。例えば、検索部14は、指示Dirで状態変化「興味度を上昇させる」が働きかけの目的として指定された場合に、照合結果に基づいて判別された各ふるまいのふるまい定義情報の興味度に対応する期待度を参照する。そして、検索部14は、数値「0」以外の値を持つ期待度が設定されているふるまい定義情報に対応するふるまいを、ふるまい候補の一つとして抽出する。なお、検索部14は、ふるまい候補を抽出する際に、指示Dirで指定された指標値に対応する期待度について所定の閾値を設定し、期待度がこの閾値以上であることを抽出の条件としてもよい。また、検索部14は、指示Dirで指定された目的に対応する期待度に基づく抽出を先に行い、この抽出で得られた各ふるまいに対応するふるまい定義情報に設定された契機条件と、上述したインタラクション情報との照合に基づく抽出を行ってもよい。
図1に示した選択部15は、このようにしてデータベース13から検索されたふるまい候補の中から一つを選択する。選択部15は、複数のふるまい候補の中からランダムに一つのふるまい候補を選択してもよいし、また、ラウンドロビンなどの手法を用いて選択するふるまい候補を決定してもよい。なお、選択部15において、複数のふるまい候補から一つを選択する手法として、より好適な例については後述する。また、選択部15は、このようにして選択したふるまいを示す識別番号を制御部16に渡すことにより、選択結果を通知する。
図1に示した制御部16は、選択部15から通知された識別番号に基づいて、データベース13にこの識別番号に対応して登録されたふるまい定義情報を参照し、このふるまい定義情報に含まれるふるまい内容を取得する。そして、制御部16は、このふるまい内容を出力装置11に渡すとともに、このふるまい内容の実行を出力装置11に対して指示することにより、選択部15が選択したふるまいを出力装置11に実行させる。なお、制御部16は、利用者Uへの働きかけのためのふるまいのほかに、例えば、生き物らしさを演出するための呼吸動作などを継続的に出力装置11が出力するための制御を行ってもよい。
ここで、上述した検索部14で得られらふるまい候補は、ふるまい定義情報に含まれる契機条件が検知部12によって取得された現在の状況に適合しており、かつ、指示Dirで指定された目的の達成に有用なふるまいである。つまり、これらのふるまい候補のどれが選択された場合でも、選択されたふるまいは、現在の状況に適合しており、指示Dirで指定された目的の達成に有用である。したがって、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいである。
選択部15に渡されるふるまい候補の数は、検知部12によって検知された状況によって増減があるものの、多くの場合には複数である。例えば、出力装置11としてロボットを用いる場合に、多数のふるまいに対応するふるまい定義情報に、このロボットと利用者Uとの視線が合っていることが契機条件として設定されている。そして、契機条件「ロボットと利用者Uの視線が合っている」がふるまい定義情報に設定されているふるまいの中から、各指標値を変化させる目的の達成に寄与するふるまいとして、検索部14は、図3に示すように、それぞれ複数個ずつのふるまい候補を抽出可能である。
図3は、目的の達成に寄与するふるまいの例を示している。なお、図3に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図3に例示した目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号15のふるまい「地味にかまって欲しがる」とを含んでいる。更に、目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号22のふるまい「派手にかまって欲しがる」と、識別番号11のふるまい「はしゃいで喜ぶ」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「地味にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.2が設定されていることを示している。また、この例は、ふるまい「派手にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.6が設定されていることを示している。同様に、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.7が設定されていることを示している。
また、図3に例示した目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号8のふるまい「手を振る」とを含んでいる。更に、目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号34のふるまい「くしゃみをする」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.5が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。同様に、この例は、ふるまい「くしゃみをする」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。
また、図3に例示した目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号35のふるまい「ゲップをする」とを含んでいる。更に、目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号121のふるまい「ギャグを言う」と、識別番号8のふるまい「手を振る」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.5が設定されていることを示している。同様に、この例は、ふるまい「ゲップをする」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.8が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.9が設定されていることを示している。同様に、この例は、ふるまい「ギャグを言う」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.7が設定されていることを示している。更に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.6が設定されていることを示している。
なお、図3に示した符号UILは、利用者Uの状態を表す指標値の一つであるロボットに対する興味度を示している。また、符号UALは、利用者Uの状態を表す指標値の一つである活動度を示し、符号UELは、同じく情動度を示している。これらの各指標値については、後述する。
図3に示した例から分かるように、現在の状況によって契機条件が満たされており、かつ、指定された目的の達成に寄与することを条件として抽出されたふるまい候補の集合は、利用者Uに対して多様な働きかけを実行する複数のふるまいを含んでいる。したがって、選択部15によって選択されるふるまいは、検知部12によって検知された状況および指示Dirで指定された目的が同じであっても、一つのふるまいに固定されることはなく、ふるまい候補の集合の中でばらつきを持つ。
つまり、上述したような選択部15によって選択されたふるまいを、制御部16が出力装置11に実行させることにより、同一の状況においても、出力装置11が実行するふるまいに変化を持たせることができる。選択部15は、単に、複数のふるまい候補の中から一つを選択すればよいので、複雑に分岐したシナリオを必要としない。その一方で、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいであることは上述したとおりである。故に、この検索部14および選択部15を有するインタラクション装置10は、利用者Uと出力装置11との間の相互作用の雰囲気を損なうことなく、指定された目的を達成可能な多様なふるまいを出力装置11によって出力させることができる。
このように、本件開示のインタラクション装置10によれば、固定したシナリオを用いることなく、利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しながら目的を持った働きかけを継続的に実現することができる。なぜなら、このようなインタラクション装置10は、互いに類似した状況において互いに類似した目的が指示された場合であっても、利用者Uに対して多様な働きかけを提示することにより、利用者Uを飽きさせるおそれが少ないからである。したがって、本件開示のインタラクション装置10によれば、利用者Uと出力装置11との間で自然な交流を持続させることが可能である。
本件開示のインタラクション装置10は、例えば、出力装置11として生き物の形態を模したロボットを用いて、利用者Uに癒しの感覚を与えるサービスを提供しつつ、この利用者Uの見守りに有用な目的を達成するサービスの実現において有用である。
例えば、各ふるまいについて、このロボットが模している生き物の生態を反映した契機条件や個々のロボットに特有の性格を反映した契機条件を設定しておくことにより、生き物らしい自律的な個体として、利用者Uに対して、より自然に働きかけることができる。
図4は、インタラクション装置10の別実施形態を示している。なお、図4に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図4に示した選択部15は、算出部151と、決定部152とを含んでいる。図4に示した算出部151は、検索部14によってデータベース13から抽出されたふるまい候補ごとに、指示Dirで指定された種類の状態変化についての期待度の高さに相関を持つ確率を算出する。また、決定部152は、算出部151で各ふるまい候補について求めた確率に従って、ふるまい候補の中から選択するふるまいを決定する。このように、算出部151と決定部152とにより、期待度で重み付けした確率に従って複数のふるまい候補の一つを選択する、重み付きランダム選択を実現してもよい。
算出部151は、例えば、N個のふるまい候補の中でj番目のふるまい候補が選択される確率Pjとして、各ふるまい候補について設定された目的に対応する期待度XIL(j)を、これらの期待度の総和Sで除算した値として算出してもよい。この場合に、確率Pjは、各ふるまい候補の指定された目的についての期待度XIL(j)を用いて、式(1)のように表すことができる。
Figure 0005910249
指示Dirによって目的「利用者Uの興味度を上昇させる」が与えられた場合について、図3に示した例に基づいて説明すれば、各ふるまいが選択される確率は、次のように計算することができる。ふるまい「さわやかな挨拶」が選択される確率は、ふるまい「さわやかな挨拶」の期待度0.3を、4つのふるまいに対応する期待度の総和1.8で除算した値0.18となる。同様にして、ふるまい「地味にかまって欲しがる」が選択される確率は、ふるまい「地味にかまって欲しがる」の期待度0.2を上述した期待度の総和1.8で除算した値0.11となる。また、ふるまい「派手にかまって欲しがる」が選択される確率は、ふるまい「派手にかまって欲しがる」の期待度0.6を上述した期待度の総和1.8で除算した値0.33となる。そして、ふるまい「はしゃいで喜ぶ」が選択される確率は、ふるまい「はしゃいで喜ぶ」の期待度0.7を上述した期待度の総和1.8で除算した値0.39となる。
図4に示した決定部152は、例えば、所定の範囲の乱数を発生させるような確率的試行を実行し、得られた乱数の値と、上述したようにして決定した確率とに基づいて、ふるまい候補の中から選択するふるまいを決定する。決定部152は、上述した乱数の範囲を、各ふるまい候補について得られた確率の大きさに対応する幅を持つN個の区分に分割しておき、発生させた乱数がどの区分に含まれるかによって、選択するふるまいを決定してもよい。
上述した算出部151と決定部152とを有する選択部15は、ふるまい候補の中から、各ふるまいによって指示Dirで指定された目的が達成される可能性の高さである期待度の高さを反映した重み付きランダム選択により、実行するふるまいを選択する。したがって、図4に示した選択部15による選択結果は、検索部14による検索で得られたふるまい候補の範囲内での多様性を保ちながらも、指示Dirで指定された目的の達成に関する期待度の高さを反映している。
このような選択部15を有するインタラクション装置10によれば、出力装置11によって出力されるふるまいの多様性を保ちつつ、指示Dirで指定された目的を達成する可能性が高いふるまいを優先的に出力させることができる。これにより、出力装置11が利用者Uに対して実行する働きかけが画一化することを避けながら、出力装置11により、目的を達成する可能性の高い働きかけを実行することができる。
なお、本件開示のインタラクション装置10は、図5に示すような選択部15を設けることにより、指示Dirにより、複数の目的が指定された場合にも対応することができる。
図5は、インタラクション装置10の別実施形態を示している。なお、図5に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図5に示した選択部15は、図4と同様の算出部151および決定部152に加えて、集計部153を有している。
図5に示した集計部153は、データベース13を参照することにより、検索部14による検索結果として得られた各ふるまい候補に対応するふるまい定義情報において、指示Dirで指定されたM個の目的それぞれに対応する期待度を取得する。また、集計部153は、各ふるまい候補について取得した各目的に対応する期待度を集計することにより、各ふるまい候補が、上述したM個の目的の達成に寄与する度合いを示す合成期待度を算出する。
集計部153は、例えば、式(2)を用いて、N個のふるまい候補の中のj番目のふるまい候補についての合成期待度XILs(j)を算出してもよい。なお、式(2)において、合成期待度XILs(j)は、m番目の目的に対応する期待度XIL(m,j)と、m番目の目的について指定された重みc(m)との積の総和である。
Figure 0005910249
各目的に対応する重みc(m)の値は、指示Dirによって指定してもよいし、集計部153の内部に、目的ごとに予め設定しておいてもよい。また、集計部153は、全ての目的について、同一の重みを設定してもよい。いずれの場合にも、各目的に対応する重みc(m)は、それぞれ正の値であり、重みc(m)の総和は数値「1」となるように設定することが望ましい。
例えば、指示Dirで指定された2つの目的「興味度を上昇させる」および「情動度を上昇させる」に応じて、図2に示したふるまい「さわやかな挨拶」がj番目のふるまい候補として抽出されたときの合成期待度XILs(j)は、式(3)のように求めることができる。
XILs(j)=0.3×0.5+0.5×0.5=0.4 ・・・(3)
なお、式(3)の例は、集計部153において、上述した二つの目的に同一の重み0.5を設定した場合を示している。また、式(3)は、式(2)において、目的の数M=2とし、第1の目的の期待度XIL(1,j)および第2の目的の期待度XIL(2、j)として、ふるまい「さわやかな挨拶」の期待度IIL=0.3および期待度EIL=0.5を設定した例である。
同様にして、図3において、上述した2つの目的の達成にそれぞれに寄与するふるまいの例として挙げた各ふるまいがふるまい候補として抽出された場合に、各ふるまいについて集計部153が算出する合成期待度を、図6に示す。
図6は、各ふるまい候補について算出される合成期待度の例を示している。なお、図6に示した各要素のうち、図3と同等のものについては、同一の符号を付して示し、その説明は省略する。
図6の例では、ふるまい「地味にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.2に重み0.5を乗じた値0.1となる。同様に、ふるまい「派手にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.6に重み0.5を乗じた値0.3となる。一方、ふるまい「はしゃいで喜ぶ」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度および情動度に対応してそれぞれ設定された期待度IIL=0.7、EIL=0.9にそれそれ重み0.5を乗じて加算した値0.8となる。また、ふるまい「ゲップをする」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.8に重み0.5を乗じた値0.4となる。同様に、ふるまい「ギャグを言う」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.7に重み0.5を乗じた値0.35となる。そして、ふるまい「手を振る」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.6に重み0.5を乗じて得られる値0.3となる。
このようにして得られた合成期待度XILs(j)に基づいて、算出部151は、上述した式(1)に含まれる期待度X(j)を、上述した合成期待度XILs(j)で置き換えた式(4)を用いることにより、各ふるまい候補が選択される確率Pjを算出する。
Figure 0005910249
このようにして得られた確率Pjは、各ふるまい候補がM個の目的の達成に寄与する度合いを示す合成期待度を反映している。つまり、図5に示した算出部151で得られた確率に従って、決定部152が、N個のふるまい候補から選択するふるまいを決定することにより、複数の目的を達成する可能性の高さを考慮してふるまいを選択することができる。
ところで、図3に例示したふるまいの中には、ふるまいの実行による効果が、インタラクション装置10から働きかけを受ける利用者Uの状態に依存して変化するものが含まれている。例えば、ふるまい「はしゃいで喜ぶ」のように、出力装置11として機能するロボットの派手な動きを伴うふるまいの効果は、利用者Uがこのロボットとの相互作用に乗り気になっているときには、大きな効果を発揮する。このため、このような派手な動きをロボットに実行させるふるまいのふるまい定義情報には、利用者Uの状態に関する各指標値を上昇させる目的に対応して、比較的大きい値を持つ期待度が設定される場合が多い。したがって、期待度を反映した確率に従って、ロボットが実行するふるまいを選択する場合には、上述したような派手な動きを伴うふるまいが、他のふるまいよりも高い確率で選択される。しかしながら、利用者Uがロボットに対してあまり興味を示していないときに、ふるまい「はしゃいで喜ぶ」のような派手な動きを伴うふるまいを実行すると、期待した効果が得られず、かえって逆効果になる場合もある。
したがって、インタラクション装置10は、働きかけを行う相手である利用者Uの状態に応じて、働きかけとして出力するふるまいの選択を制御する仕組みを有することが望ましい。
図7は、インタラクション装置10の別実施形態を示している。なお、図7に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図7に示したインタラクション装置10は、熊の形態を模したロボットCRの機能の一部を利用することによって、出力装置11を実現する形態の一例である。
図7に示した出力装置11は、ロボットCRに含まれるモータ部31とスピーカ32と駆動処理部33とを含んでいる。駆動処理部33は、制御部15から受け取ったふるまい内容に基づいて、モータ部31に含まれる複数のモータをそれぞれ駆動し、ロボットCRの手足や首などの稼動部分を動かすことにより、ふるまい内容で定義された動作をさせる。また、駆動処理部33は、制御部15から受け取ったふるまい内容で指定された音声をスピーカ32に出力させることにより、ふるまい内容で定義された音声メッセージを利用者Uに提示する。
図7に示したロボットCRは、上述したモータ部31とスピーカ32と駆動処理部33とに加えて、更に、観測部34と、内部状態判定部35とを含んでいる。
この観測部34は、例えば、カメラやマイクロホン、接触センサなどを含んでおり、利用者Uを含む周囲の映像や利用者Uの音声と、利用者UからロボットCRへの物理的な接触に関する情報とを、利用者Uからの反応を表す情報として取得する。また、観測部34は、例えば、カメラで得られた映像から、利用者Uの体の動きや表情の変化の大きさを示す計測値を取得してもよい。同様に、観測部34は、例えば、マイクロホンで得られた音声から、利用者Uの声の大きさや声の変動の大きさなどを示す計測値を取得してもよい。また、観測部34は、接触センサで得られた情報から、利用者UがロボットCRに物理的に接触した回数や強さなどを示す計測値を取得してもよい。
内部状態判定部35は、駆動処理部33が制御部15から受け取ったふるまい内容と観測部34で得られる情報とに基づいて、ロボットCRの内部状態を示す各パラメータを算出する。内部状態判定部35は、例えば、制御部15から受け取った個々のふるまい内容に基づいて、ロボットCRの短期的な感情を示すパラメータを、ロボットCRの内部状態を示すパラメータの一つとして求めてもよい。なお、内部状態判定部35は、ロボットCRの短期的な感情を示すパラメータは、観測部34で得られる利用者Uからの反応に基づいて調整してもよい。例えば、内部状態判定部35は、接触センサによって利用者UがロボットCRを撫でたことを検知したときにうれしい感情を示すパラメータの値を上昇させ、たたかれたことを検知したときに悲しい感情を示すパラメータを上昇させるなどの調整を行ってもよい。また、内部状態判定部35は、例えば、時系列に従って受け取った複数のふるまい内容の履歴などに基づいて、上述したような感情の蓄積によって変化するロボットCRの機嫌や利用者Uに対するなつき度合いを示すパラメータを求めてもよい。更に、内部状態判定部35は、例えば、観測部34から受け取った利用者Uの映像に基づいて、利用者UとロボットCRとが目と目とを合わせたアイコンタクト状態であるか否かを示すパラメータを求めてもよい。
図7に示した検知部12は、上述した観測部34および内部状態判定部35に加えて、収集部121と、解析部122と、状況テーブル123とを含んでいる。
収集部121は、例えば、センサ部SDに含まれる温度センサ、湿度センサや明るさセンサなどによって得られる計測値を定期的に収集する。また、収集部121は、収集した計測値を出力装置11および利用者Uの周囲の環境に関する状況を示す環境情報として状況テーブル123に保持させる。
また、解析部122は、観測部34で得られた計測値を解析することにより、図3に示した活動度UAL、情動度UELおよび興味度UILを含む、利用者Uの状態を示す各指標値を算出する。解析部122は、活動度UAL、情動度UELおよび興味度UILを算出する処理に、例えば、本出願人により先に出願された特願2011−243573「非言語情報解析装置および非言語情報解析プログラム並びに非言語情報解析方法」の技法を用いてもよい。この技法は、観測部34に含まれるカメラや接触センサから得られる情報から、利用者Uが表出する非言語反応の強さを示す複数の計測値を取得し、これらの計測値の時間変化を解析することにより、活動度UAL,興味度UILおよび情動度UELを算出する。
解析部122は、観測部34から利用者Uの動きの大きさや動きの頻度および利用者Uの表情の変化を示す計測値を受け取り、これらの計測値に対して上述した技法に基づく解析処理を行う。解析部122は、例えば、上述した解析処理を所定の時間間隔で行うことにより、活動度UAL、情動度UELおよび興味度UILを含む各指標値を、これらの指標値の算出に用いた計測値をサンプリングした時刻ごとに算出してもよい。また、解析部122は、各サンプリング時刻において得られた計測値からそれぞれ算出した各指標値を、利用者Uの状態を示すユーザ情報として、状況テーブル123にサンプリング時刻に対応して保持させてもよい。
状況テーブル123は、例えば、図8に示すように、収集部121から受け取った環境情報と内部状態判定部35から受け取ったロボットCRの内部状態を示すロボット情報とを、上述したユーザ情報とともに、それぞれを取得した時刻に対応して格納する。
図8は、状況テーブル123の例を示している。なお、図8に示した要素のうち、図3に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図8に示した状況テーブル123は、時刻Tiに対応して、明るさセンサによる計測値Liを含む環境情報を格納しており、時刻Tjに対応して、明るさセンサによる計測値Ljを含む環境情報を格納している。また、この状況テーブル123は、時刻Tpに対応して、同様に、明るさセンサによる計測値Lpを含む環境情報を格納している。
また、この状況テーブル123は、時刻Tiに対応して、アイコンタクト「あり」および機嫌「上機嫌」を含むロボット情報を格納しており、また、時刻Tjに対応して、アイコンタクト「あり」および機嫌「ごきげん」を含むロボット情報を格納している。一方、この状況テーブル123は、時刻Tpに対応して、アイコンタクト「なし」および機嫌「ぼんやり」を含むロボット情報を格納している。
また、図8に示した状況テーブル123は、時刻Tiに対応して、興味度UIL(i)、活動度UAL(i)、情動度UEL(i)を含むユーザ情報を格納している。この状況テーブル123は、時刻Tjに対応して、興味度UIL(j)、活動度UAL(j)、情動度UEL(j)を含むユーザ情報を格納している。なお、図5に示した状況テーブル123において、時刻Tpに対応するユーザ情報の欄に示した符号「−」は、時刻Tpにおいて、解析部122が、興味度、活動度および情動度の算出を行わなかったことを示している。
ここで、特願2011−243573の技法は、利用者Uの状態を忠実に反映する興味度、活動度および情動度を算出するために、ロボットCRが利用者Uとの間でアイコンタクトを確立している状態で得られる高い精度の計測値を利用することを前提としている。したがって、図8において、時刻Tpに対応するロボット情報で示したように、アイコンタクトが確立されていない場合には、特願2011−243573の技法によって算出した興味度、活動度および情動度は不確かな値となる可能性がある。このような不確かな値を格納する代わりに、解析部122は、図8に示した例のように、興味度、活動度および情動度の算出を行わなかったことを示す符号「−」を格納してもよい。
なお、状況テーブル123は、図8に示した例に限らず、最新の環境情報と最新のロボット情報と最新のユーザ情報とを、出力装置11と利用者Uとの間の相互作用に関する状況を表す最新のインタラクション情報として保持してもよい。
上述したように、図7に示した解析部122を有する検知部12によれば、利用者Uの状態を示す各指標値を、出力装置11と利用者Uとの間の相互作用に関する状況を表すインタラクション情報の一部として、検索部14に渡すことができる。
また、上述した解析部122を含む検知部12を有するインタラクション装置10においては、各ふるまい定義情報に、利用者Uの状態を示す各指標値の範囲を示す条件を含む契機条件を設定してもよい。
図9は、ふるまい定義情報の別例を示している。なお、図9に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図9に例示したふるまい定義情報は、識別番号「11」およびふるまい名「はしゃいで喜ぶ」で特定されるふるまいについてのふるまい定義情報である。
このふるまい定義情報は、図7に示した出力装置11が、ふるまい「はしゃいでよろこぶ」として出力する音声メッセージや動作を示すふるまい内容「Def11」を含んでいる。このふるまい内容「Def11」は、例えば、図7に示したロボットCRの手足を大きくしかも激しく動かすことや、くだけた調子の音声メッセージを大きな音量で出力することを記述している。
利用者UがロボットCRとの相互作用に乗り気になっているときに、このような派手なふるまいをロボットCRが実行すれば、高い確率で、利用者Uの興味度、活動度および情動度を上昇させることができることは上述したとおりである。このため、図9に示したふるまい定義情報は、利用者Uの活動度、情動度および興味度をそれぞれ変化させることの期待度AIL,EIL,IILとして、それぞれ値「0.8」、「0.9」、「0.7」のように最大値「1」に近い値を含んでいる。
その反面、利用者UがロボットCRとの相互作用にあまり乗り気になっていないときに、ロボットCRが上述したような派手なふるまいによる働きかけを利用者Uに対して実行すると、相互作用の継続を困難にさせるリスクがあることも上述したとおりである。
図9に示したふるまい定義情報は、このようなリスクが想定されるケースにおいて当該ふるまいの出力を抑止するために、契機条件の一部として、利用者Uの状態を示す指標の一つである興味度UILについての範囲を示す条件を含んでいる。
図9に示したふるまい定義情報に設定された契機条件「C1 AND C4」において、条件C4は、図7に示した解析部122によって得られる利用者Uの興味度UILの範囲を示す条件を示している。図9の例では、この条件C4は、利用者UのロボットCRに対する興味度UILが数値「0.8」を超えていることである。
このような契機条件に基づいて、図7に示した検索部14がふるまい候補の検索を行うことにより、利用者UがロボットCRとの相互作用に大きな関心を示しているときに限って、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出することが可能である。
上述したように、図7に示した検索部14は、状況テーブル123に含まれる最新のインタラクション情報と、データベース13内の各ふるまい定義情報に含まれる契機条件とを照合することにより、まず、契機条件が満たされているふるまいを抽出する。次いで、検索部14は、このようにして抽出したふるまいそれぞれについて、指示Dirで指定された目的に対応する期待度として、「0」以外の値が設定されているか否かによって、目的の達成に有効なふるまいをふるまい候補として判別する。
したがって、検索部14がふるまい候補として抽出するふるまいは、利用者Uの状態を示す各指標値を含む最新のインタラクション情報によって契機条件が満たされているふるまいに限られている。つまり、図9に示した契機条件が設定されたふるまい「はしゃいで喜ぶ」は、状況テーブル123に保持された最新のインタラクション情報により、利用者Uの興味度が数値「0.8」を超えたことが示されない限り、ふるまい候補として抽出されることはない。
ここで、利用者UのロボットCRに対する興味度UILを含む各指標値は、例えば、図10に示すように、ロボットCRからの働きかけの積み重ねなどに応じて時間的に変化する。
図10は、興味度UILの時間変化の例を示している。なお、図10に示した要素のうち、図8に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図10に示した例では、利用者UのロボットCRに対する興味度UILは、概ね時間の経過に従って上昇している。この興味度UILのグラフにおいて、時刻Ti,Tjにおける興味度UILの値は、いずれも数値「0.8」未満であるが、その後の時刻Tkにおいて、興味度UILの値は数値「0.8」に到達している。
このような指標値の変化に応じて、検索部14がデータベース13から検索するふるまい候補に、ふるまい「はしゃいで喜ぶ」のようなリスクを持つふるまいが含まれるか否かが変わってくる。例えば、目的「活動度を上昇させる」に寄与するふるまいの例として図3に示した各ふるまいの契機条件が、利用者Uの興味度UILに関する条件を除いて全て満たされている場合に、ふるまい候補は、興味度UILの変化に応じて次のように変化する。
利用者UのロボットCRに対する興味度UILが図10に示したように変動する場合に、上述したふるまい「はしゃいで喜ぶ」の契機条件は、時刻Tk以前の時刻Tiおよび時刻Tjにおいては満たされない。
したがって、例えば、時刻Tiにおいて、指示Dirで指定された目的がふるまい「はしゃいで喜ぶ」が寄与する目的であっても、図7に示した検索部14が、ふるまい「はしゃいで喜ぶ」をふるまい候補として抽出することはない。なぜなら、インタラクション情報と各ふるまい定義情報内の契機条件を照合する過程で、検索部14は、ふるまい「はしゃいで喜ぶ」は契機条件が満たされていないと判断し、ふるまい候補から除外するからである。この場合に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、ふるまい「さわやかな挨拶」、ふるまい「手を振る」およびふるまい「くしゃみをする」の3つである。
一方、図10に示した時刻Tk以降に、ふるまい「はしゃいで喜ぶ」が寄与する目的の一つを指定する指示Dirが入力されれば、図7に示した検索部14は、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出する。したがって、時刻Tk以降に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、上述した3つのふるまいに、ふるまい「はしゃいで喜ぶ」を加えた4つである。
このように、図7に示したインタラクション装置10によれば、緻密に構築された固定的なシナリオによらずに、相互作用の対象となる利用者Uの状態を含めたインタラクション状況の変化に応じて、多彩に変化する働きかけを実行することができる。これにより、ふるまい「はしゃいで喜ぶ」のようなふるまいのために、利用者UにとってロボットCRが煩わしい存在となるリスクを低減し、ロボットCRと利用者Uとの相互作用を安定的に継続させることができる。
なお、データベース13に登録する各ふるまいが、上述したようなリスクを持つふるまいであるか否かは、様々な状況において、個々のふるまいを様々な人物に対して提示した際に得られる反応を集積する実験などによって予め見極めることができる。また、当該ふるまいの効果を左右する要因についても、同様の実験結果に基づいて、予め判別することができる。
そして、上述したふるまい「はしゃいで喜ぶ」と同様に、上述したようにして見極めたリスクを持つふるまいについて、目的達成の効果を左右する利用者Uの状態を示す指標値についての条件を含む契機条件を設定することができる。これにより、これらのふるまいが利用者Uに対して効果的に働く場面に限って、これらのふるまいをふるまい候補に含めることができるので、上述したようなふるまいをロボットCRによって出力させる際のリスクを避けることができる。
このように、図7に示したインタラクション装置10によれば、利用者Uの状態に関する条件を含む契機条件を一部のふるまいについて設定することにより、ロボットCRと利用者Uとの相互作用を高い確度で継続させつつ、目的に応じた働きかけを実現できる。
ところで、指示Dirで利用者Uへの働きかけの目的として指定される状態変化は、いずれも、上述した興味度UIL,活動度UAL,情動度UELを含む各指標値の変化として表れる。したがって、指示Dirで指定された指標値の変化を引き出すためにロボットCRがあるふるまいを実行した後に、解析部122の解析結果として得られる当該指標値は、そのまま目的の達成度を示している。したがって、解析部122によって得られる各指標値の変化に基づいて、その指標値に関する目的の指定に応じて、出力装置11が利用者Uに対して提示したふるまいの効果を評価し、評価結果に基づいて期待度を最適化することが可能である。
図11は、インタラクション装置10の別実施形態を示している。なお、図11に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
図11に示したインタラクション装置10は、図7に示した出力装置11、検知部12、データベース13、検索部14、選択部15、制御部16に加えて、更新部17を含んでいる。
更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化に基づいて、ロボットCRが出力したふるまいに対応するふるまい定義情報について、指示Dirで働きかけの目的として指定された種類の状態変化についての期待度を更新する。
例えば、更新部17は、まず、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングにおいて状況テーブル123を参照することで、指定された目的に対応する達成度を示す指標値を、ふるまいの出力前後についてそれぞれ取得する。次いで、更新部17は、上述したふるまいの出力後に対応して取得した達成度から、ふるまいの出力前に対応して取得した達成度を差し引くことにより、このふるまいを出力したことによる達成度の変化分δを求める。なお、更新部17は、例えば、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングを示す通知を制御部15から受け取り、この通知に応じて、状況テーブル123を参照してもよい。
例えば、図10に示したように興味度UILが変化した場合に、時刻Tiから時刻Tjの期間に提示されたふるまいについて、更新部17は、目的「興味度を上昇させる」の達成度の変化分として、上述した期間における興味度UILの変化分δを得る。
また、図11に示した更新部17は、上述したようにして得られた達成度の変化分δに基づいて、上述したふるまいに対応するふるまい定義情報において、指示Dirで指定された目的に関する新たな期待度を算出する。更新部17は、上述した達成度の変化分δと、所定の係数kと、ふるまいの実行前の期待度XILbとに基づいて、例えば、次に示す式(5)で表される新たな期待度XILnを算出してもよい。
XILn=XILb+k×δ ・・・(5)
更新部17は、式(5)に示した係数kの値を適切に設定することにより、個々のふるまいを提示した際の利用者Uの反応に基づく学習結果を、対応する期待度に反映する程度を調節することができる。なお、更新部17は、上述した係数kの値としては比較的小さい値を設定し、個々のふるまいを実行した際に求めた達成度の変化分δによって、新たな期待度が前の期待度から過度に大きく変化しないように、また、日々のふれあいによって徐々に変動していくように調整することが望ましい。また、更新部17は、上述したようにして算出した新たな期待度XILnの値を、期待度としての値の範囲である数値「0」から数値「1」までの範囲に制限することが望ましい。
また、更新部17は、上述したようにして算出した新たな期待度XILnを用いて、出力装置11によって出力されたふるまいについてデータベース13に登録されたふるまい定義情報に対して、指定された目的に対応する期待度を書き換える処理を行う。
このようにして、更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化分δを反映する新たな期待度を算出し、この新たな期待度を用いて、データベース13内の情報を更新することで、期待度の最適化を図ることができる。
このように、利用者Uとの相互作用を積み重ねる過程で、個々のふるまいが利用者Uの各指標値の変化を引き出すことについての期待度を変化させることにより、検索部14および選択部15が指定された目的に応じて選択するふるまいの傾向もまた変化する。この変化は、検索部14および選択部15が、指定された目的を達成する上で、利用者Uにより有効に働くふるまいを選択する方向への変化である。つまり、上述したようにして、検知部12によって検知した状況の変化に応じて、更新部17が対応する期待度を更新することにより、検索部14および選択部15によって利用者Uにより有効に働くふるまいを選択させるための学習を実現することができる。
つまり、図11に示した更新部17を有するインタラクション装置10によれば、利用者Uとのふれあいを継続する中で、この利用者Uの個性に適合するふるまいを選択するためのカスタマイズを実現することができる。
図11に示した更新部17を有するインタラクション装置10によって実現可能なカスタマイズは、利用者Uが個別のふるまいに飽きてしまった場合などにも対処することが可能である。
なぜなら、利用者Uが、あるふるまいAに飽きてしまった場合に、この利用者Uが当該ふるまいAの提示の前後で示す反応に基づいて、解析部122によって得られる指標値の変化分δは、負の値を持っている可能性が高いからである。式(5)から明らかなように、変化分δが負の値である場合、新たな期待度XILnの値は、ふるまいAの実行前の期待度XILbよりも小さくなる。これにより、ふるまいAが再び選択される確率に比べて、他のふるまいが選択される確率が相対的に大きくなるので、利用者Uに対して新鮮な刺激を与えることが可能となる。
なお、更新部17が新たな期待度XILnを算出する手法は、式(5)に限らず、指標値の変化分δを新たな期待度に反映する手法であれば、他のどんな手法でもよい。例えば、上述した変化分δについて設けた複数の区分ごとに、期待度XILの更新の際に適用する期待度XILの増分を予め設定しておき、指標値の変化分δが属する区分に応じた期待度XILの増分を適用することで、新たな期待度XILnを算出してもよい。
このように、本件開示のインタラクション装置10は、相互作用の対象となる利用者Uごとの自動的なカスタマイズも容易に実現可能である。また、本件開示のインタラクション装置10は、データベース13に、適切な契機条件および各目的に対応する期待度を設定した新たなふるまい定義情報を追加することにより、利用者Uに対して提示可能なふるまいを容易に拡大することができる。これにより、ロボットCRを媒介とする相互作用に対して、利用者Uが飽きてしまう事態の発生をより高い確度で防ぐことができるので、長期間にわたって、安定的に相互作用を持続させることが可能である。
以上に説明した本件開示のインタラクション装置10は、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。
図12は、画像処理装置10のハードウェア構成の一例を示している。なお、図12に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
コンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置(HDD)23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。更に、このコンピュータ装置20は、周辺機器インタフェース29と、ロボットインタフェース30とを含んでいる。また、図12において、インタラクション装置10は、プロセッサ21と、メモリ22と、ハードディスク装置23と、周辺機器インタフェース29と、ロボットインタフェース30と、ロボットCRとを含んでいる。
図12に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、このプロセッサ21と、周辺機器インタフェース29と、ロボットインタフェース30とも、上述したバスを介して互いに接続されている。図12に示した周辺機器インタフェース29には、センサ部SDが接続されており、プロセッサ21は、このセンサ部SDで得られた計測結果を、周辺機器インタフェース29を介して取得する。また、図12に示したロボットインタフェース30は、クマ型のロボットCRに接続されており、プロセッサ21は、このロボットインタフェース30を介してロボットCRとの間で情報の授受を行う。
上述した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。また、図12に例示した入力装置25は、例えば、キーボードやマウスなどである。インタラクション装置10の操作者は、入力装置25を操作することにより、インタラクション装置10に対して、例えば、利用者Uに対するふるまいの提示によって達成すべき目的を指定する指示などを入力することができる。なお、インタラクション装置10の操作者は、例えば、上述した利用者Uの見守りサービスを依頼した人物などである。このインタラクション装置10の操作者は、インタラクション装置10が設置された場所から離れた場所に居住していてもよい。インタラクション装置10から離れた場所にいる操作者は、例えば、ネットワークNWおよびネットワークインタフェース28を介して、インタラクション装置10に対する指示を入力してもよい。
図12に例示したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が上述したようにして利用者Uと相互作用を行うためのインタラクション処理を実行するためのアプリケーションプログラムを格納している。なお、インタラクション処理を実行するためのアプリケーションプログラムおよび図7に示したデータベース13を構築するための情報は、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、インタラクション処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、インタラクション処理を実行するためのアプリケーションプログラムのインストール作業とともに、上述したデータベース13を構築するための情報に基づいて、ハードディスク装置23内にデータベース13を生成してもよい。インタラクション処理を実行するためのアプリケーションプログラムおよびデータベース13を構築するための情報は、ネットワークインタフェース28を介して取得することもできる。
インタラクション処理のためのアプリケーションプログラムは、ロボットCRと利用者Uとの間の相互作用に関する状況を検知する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。
プロセッサ21は、ロボットCRを介して利用者Uに対する働きかけを行っている期間に亘って、状況を検知する処理のためのアプリケーションプログラムを定期的に実行することによって、検知部12の機能を実現してもよい。
図13は、状況を検知する処理のフローチャートの一例を示している。図13に示したステップ201〜ステップ205の各処理は、状況を検知する処理のためのアプリケーションプログラムをプロセッサ21が実行することによって実現することができる。
プロセッサ21は、まず、図12に示したセンサ部SDおよびロボットCRに設けられた各種のセンサによって取得された計測値を収集する(ステップ201)。このステップ201で、プロセッサ21は、周辺機器インタフェース29を介して、センサ部SDで得られた明るさや気温など環境に関する各種の計測値を収集する。また、プロセッサ21は、ロボットインタフェース30を介して、ロボットCRに設けられたカメラやマイクロホンなどによって得られた利用者Uの反応を示す計測値を収集する。
次いで、プロセッサ21は、ステップ201の処理で得られた利用者Uの反応を示す計測値に基づいて、この利用者Uの状態を示す各指標値を算出する(ステップ202)。このステップ202において、プロセッサ21は、上述した特願2011−243573の技法を利用可能であることは、上述したとおりである。
次に、プロセッサ21は、ステップ201で収集した環境に関する各種の計測値と、ステップ202で算出した各指標値とを含むインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に、現在時刻に対応して格納する(ステップ203)。
次いで、プロセッサ21は、ステップ204において、次の検知タイミングまで待機した後に、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する(ステップ205)。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ205の否定判定ルートに従ってステップ201の処理に戻り、ステップ201〜ステップ205の処理を繰り返す。
このようにして、プロセッサ21は、ロボットCRと利用者Uとの間の相互作用に関する状況を所定期間ごとに検知し、この検知処理で得られるインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に保持させることができる。また、上述した状況を検知する処理の過程において、プロセッサ21が、ステップ202の処理を実行することにより、図7に示した解析部122の機能を実現することができる。これにより、プロセッサ21は、上述した状況テーブル123に、利用者Uの状態を示す各指標値を含むインタラクション情報を保持させることができる。
なお、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、上述したステップ205の肯定判定ルートに従って、状況を検知する処理を終了する。
また、インタラクション処理のためのアプリケーションプログラムは、ロボットCRによって利用者Uに提示するふるまいを制御する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。
図14は、ふるまいを制御する処理のフローチャートの一例を示している。図14に示したステップ301〜ステップ306の各処理は、ふるまいを制御する処理のためのアプリケーションプログラムに含まれる各アプリケーションプログラムをプロセッサ21が実行することによって実現することができる。
ふるまいを制御する処理のためのアプリケーションプログラムは、インタラクションの目的を指定する指示に応じて、データベース13からふるまいを選択する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ301でインタラクションの目的を指定する指示を待ち受けた後に、ステップ302において、このアプリケーションプログラムを実行する。そして、このステップ302の処理により、ハードディスク装置23内に設けられたデータベース13から、ステップ301の処理で受け取った指示が指定する目的を達成可能なふるまいを選択する。つまり、プロセッサ21がステップ302の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した検索部14および選択部15を実現する手法の一例である。
また、ふるまいを制御する処理のためのアプリケーションプログラムは、選択されたふるまいをロボットCRに設けられた機能を利用して利用者Uに対して提示する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ303において、このアプリケーションプログラムを実行する。そして、このステップ303の処理により、ステップ302の処理で選択したふるまいを、ロボットCRによって実現される出力装置11に実行させる。つまり、プロセッサ21がステップ303の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した制御部16を実現する手法の一例である。
更に、ふるまいを制御する処理のためのアプリケーションプログラムは、検知された状況の変化に基づいて、出力されたふるまいの目的に対する期待度を更新する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでもよい。図14に示したフローチャートのステップ304において、目的の指定があったと判定された場合に、プロセッサ21は、ステップ305において、このアプリケーションプログラムを実行する。そして、このステップ305の処理により、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けた状況テーブル123内のインタラクション情報に基づいて、ステップ303の処理で実行されたふるまいが目的について持つ期待度を更新する。つまり、プロセッサ21がステップ305の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図7に例示した更新部17を実現する手法の一例である。
また、図14に示したフローチャートのステップ306において、プロセッサ21は、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ306の否定判定ルートに従ってステップ301の処理に戻り、ステップ301〜ステップ306の処理を繰り返す。このようにして、目的を指定する指示の有無にかかわらず、ロボットCRにより、利用者Uに対する働きかけを継続的に実行させることができる。そして、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、ステップ306の肯定判定ルートに従って処理を終了する。
次に、ロボットCRに実行させるふるまいを選択する処理について、図15のフローチャートを用いて説明する。
図15は、ふるまいを選択する処理のフローチャートの一例を示している。図15に示したステップ311〜ステップ317の各処理は、ふるまいを選択する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ311〜ステップ317の各処理は、プロセッサ21によって実行される。
まず、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けられた状況テーブル123を参照することにより、最新のインタラクション情報を取得する(ステップ311)。
次に、プロセッサ21は、ステップ311で取得した最新のインタラクション情報とデータベース13に登録された各ふるまい定義情報に含まれる契機条件とを照合することにより、契機条件が満たされているふるまいを抽出する(ステップ312)。上述したように、状況テーブル123に保持されるインタラクション情報は、利用者Uの状態を示す各指標値を含んでいる。したがって、プロセッサ21は、ステップ312の処理を実行することにより、利用者Uの状態に関する条件を含む契機条件に基づいて、抽出するふるまい定義情報を取捨選択することができる。
次いで、プロセッサ21は、図14に示したステップ301の処理で目的を指定する指示が入力されたか否かを判定する(ステップ313)。
インタラクション装置10の操作者によってインタラクションの目的を指定する指示が入力されている場合に、プロセッサ21は、ステップ313の肯定判定ルートに従って、ステップ314〜ステップ316の処理を実行する。
ステップ314において、プロセッサ21は、ステップ312で抽出したふるまいの中から、指定された目的に対応する期待度がふるまい定義情報に設定されているか否かに基づいて、ふるまい候補を絞り込む。なお、複数の目的が指定されている場合に、プロセッサ21は、これらの目的の少なくとも一方についての期待度が設定されているふるまい定義情報に対応するふるまいをふるまい候補に含める。このように、プロセッサ21が、上述したステップ312に続いて、このステップ314の処理を実行することにより、図1に示した検索部14の機能を果たすことができる。
次いで、プロセッサ21は、各ふるまい候補に対応するふるまい定義情報において、指定された目的に対応して設定された期待度に基づいて、上述した式(1)を用いて、個々のふるまい候補が選択される確率を算出する(ステップ315)。プロセッサ21が、このステップ315の処理を実行することにより、図4に示した算出部151の機能を果たすことができる。なお、図14に示したステップ301において、複数の目的を指定する指示が入力された場合に、プロセッサ21は、ステップ315の処理の過程で、上述した式(2)を用いて、これらの目的に対応する期待度に基づいて合成期待度を算出する。また、この場合に、プロセッサ21は、この合成期待度を用いて、式(4)で表される確率を算出する。
そして、プロセッサ21は、個々のふるまいについて算出した確率に従って、これらのいずれかを選択することにより、ロボットCRに出力させるふるまいを決定する(ステップ316)。このステップ316の処理で、プロセッサ21は、図4に示した決定部152の機能を実現し、期待度を反映した確率に従って、複数のふるまい候補の中から選択するふるまいを決定する。これにより、目的を達成する可能性が高いふるまいが選択される可能性を大きくしつつ、ロボットCRが出力するふるまいの多様性を維持することができる。
このように、ステップ313の肯定判定ルートでは、プロセッサ21が、ステップ314〜ステップ316の処理を実行することにより、指定された目的を達成するためにロボットCRに出力させるふるまいを選択することができる。
一方、ステップ313の否定判定ルートにおいて、プロセッサ21は、ステップ312の処理で抽出した各ふるまいに対応する優先度を参照し、例えば、最も優先度の高いふるまいをロボットCRに出力させるふるまいとして選択する(ステップ317)。図2を用いて説明したように、各ふるまいに対応するふるまい定義情報は、そのふるまいの性質などに応じた優先度を含んでいる。ステップ317の処理において、プロセッサ21は、この優先度に応じてふるまいを選択することにより、例えば、呼吸動作のように継続的に実行されるふるまいよりも、利用者Uからの働きかけに反応するためのふるまいを優先的に選択する。
このように、ステップ313の否定判定ルートでは、プロセッサ21が、ステップ317の処理を実行することにより、ロボットCRを生き物らしく見せるために、このロボットCRに実行させるふるまいを選択することができる。
このようにして選択されたふるまいに対応するふるまい定義情報に基づいて、プロセッサ21は、図14に示したステップ303において、ロボットCRに選択されたふるまいを実行させる。このステップ303において、プロセッサ21は、ふるまい定義情報に含まれるふるまい内容を、図12に示したロボットインタフェース30を介してロボットCRに渡すことにより、このふるまい内容に基づくふるまいをロボットCRに実行させる。また、このステップ303において、プロセッサ21は、例えば、ロボットCRにふるまい内容を渡した時刻と、ロボットCRからふるまいの出力が完了した旨の通知を受けた時刻とを、このふるまいの実行前後の時刻としてメモリ22などに保持しておいてもよい。
このステップ303でロボットCRに実行させたふるまいが、指定された目的を達成するためのふるまいである場合に、プロセッサ21は、ステップ304の肯定判定ルートに進み、ステップ305において、期待度を更新する処理を実行する。
図16は、期待度を更新する処理のフローチャートの一例を示している。図16に示したステップ321〜ステップ324の各処理は、期待度を更新する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ321〜ステップ324の各処理は、プロセッサ21によって実行される。
まず、プロセッサ21は、上述した状況テーブル123を参照し、ふるまいの実行前後の時刻に対応して保持されたインタラクション情報をそれぞれ取得する(ステップ321)。ふるまい実行前後の時刻は、例えば、上述したステップ303の処理の過程でメモリ22などに保持しておくことで得られる。また、プロセッサ21は、ステップ303の処理で、指定された目的を達成するためのふるまいをロボットCRに実行させる際に、ふるまい内容の転送に先立って状況テーブル123を参照することで、ふるまいの実行前のインタラクション情報を取得してもよい。
次いで、プロセッサ21は、ふるまいの実行前後のインタラクション情報にそれぞれ含まれる指定された目的に対応する指標値を比較することにより、この指標値の変化分δで示される目的の達成度の変化分を算出する(ステップ322)。
次に、プロセッサ21は、ステップ322の処理で算出した指標値の変化分δと、当該指標値に対応する期待度とに基づいて、上述した式(5)を用いて、新たな期待度を算出する(ステップ323)。なお、このステップ323において、プロセッサ21が新たな期待度を算出する手法が、式(5)を用いる手法に限られないことは、上述したとおりである。
そして、プロセッサ21は、ステップ323で算出した新たな期待度を用いて、ステップ303で実行されたふるまいに対応するふるまい定義情報について、このふるまい定義情報に含まれる期待度を書き換える処理を行う(ステップ324)。
プロセッサ21が、上述したステップ321からステップ324の処理を実行することにより、図11に示した更新部17の機能を実現することができる。そして、上述したような期待度の更新処理を行うことにより、ロボットCRと利用者Uとの間の相互作用の過程において、利用者Uの個性に合わせたカスタマイズをインタラクション装置10に対して適用可能であることは、上述したとおりである。
以上に説明した各実施形態は、いずれも、本件開示のインタラクション装置の実施形態の一例であり、例えば、図4、図7および図11を用いて説明した個々の技術的要素を別の組み合わせで適用することで、更に別の実施形態とすることも可能である。
例えば、データベース13に、利用者Uの状態に関する条件を含む契機条件が設定されたふるまい定義情報が登録されていない場合に、検知部12に設けた解析部122は、必ずしも定期的に利用者Uの状態に関する指標値を算出しなくてもよい。そして、例えば、更新部17あるいは制御部16からの要求に応じて、ふるまいの実行前後のタイミングで、利用者Uの状態に関する指標値の算出を行い、得られた指標値を更新部17に渡してもよい。
以上の説明に関して、更に、以下の各項を開示する。
(付記1) 音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、
前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
前記ふるまい候補の中から一つを選択する選択部と、
前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
備えたことを特徴とするインタラクション装置。
(付記2) 付記1に記載のインタラクション装置において、
前記各ふるまいに対応するふるまい定義情報は、前記種類情報で示された各種類の状態変化を発生させる可能性の高さを示す期待度を含んでおり、
前記選択部は、
前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つのふるまいを選択する
ことを特徴とするインタラクション装置。
(付記3) 付記2に記載のインタラクション装置において、
前記選択部は、前記各ふるまい定義情報に含まれる前記期待度に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記4) 付記2に記載のインタラクション装置において、
前記選択部は、
前記指示で複数の目的が指定された場合に、前記各ふるまい定義情報にそれぞれ含まれる前記複数の目的についての期待度を集計する集計部を有し、
前記集計部で得られた集計結果に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記5) 付記1から付記4のいずれか1つに記載のインタラクション装置において、
前記検知部は、
前記人物Uを観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
ことを特徴とするインタラクション装置。
(付記6) 付記5に記載のインタラクション装置において、
前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
を備えたことを特徴とするインタラクション装置。
(付記7) 出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知し、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索し、
前記ふるまい候補の中から一つを選択し、
選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
処理を実行させることを特徴とするインタラクション制御プログラム。
(付記8) 付記7に記載のインタラクション制御プログラムにおいて、
前記ふるまいの出力に応じて検知された状況の変化に基づいて、前記ふるまいに対応するふるまい定義情報に含まれる前記指定された目的に関する期待度を更新する
処理を実行させることを特徴とするインタラクション制御プログラム。
10…インタラクション装置;11…出力装置;12…検知部;13…データベース;14…選択部;15…制御部;17…更新部;121…収集部;122…解析部;123…状況テーブル;151…算出部;152…決定部;153…集計部;20…コンピュータ装置;21…プロセッサ;22…メモリ;23…ハードディスク装置(HDD);24…表示装置;25…入力装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;29…周辺機器インタフェース;30…ロボットインタフェース;31…駆動処理部;32…モータ;33…スピーカ;34…観測部;35…内部状態判定部;CR…ロボット;U…利用者;SD…センサ部;NW…ネットワーク

Claims (4)

  1. 音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、
    前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
    前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報と、前記種類情報で示された種類の状態変化を発生させる可能性の高さを示す期待度とを含むふるまい定義情報を登録するデータベースと、
    前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
    前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つを選択する選択部と、
    前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
    備えたことを特徴とするインタラクション装置。
  2. 請求項1に記載のインタラクション装置において、
    前記検知部は、
    前記人物を観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
    前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
    前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
    ことを特徴とするインタラクション装置。
  3. 請求項2に記載のインタラクション装置において、
    前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
    を備えたことを特徴とするインタラクション装置。
  4. 出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と、前記出力装置との間の相互作用に関する状況を検知し、
    前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報と、前記種類情報で示された種類の状態変化を発生させる可能性の高さを示す期待度とを含むふるまい定義情報を登録するデータベースから、
    前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、検知した状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として検索し、
    前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つを選択し、
    選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
    処理をコンピュータに実行させることを特徴とするインタラクション制御プログラム。
JP2012080610A 2012-03-30 2012-03-30 インタラクション装置およびインタラクション制御プログラム Active JP5910249B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012080610A JP5910249B2 (ja) 2012-03-30 2012-03-30 インタラクション装置およびインタラクション制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012080610A JP5910249B2 (ja) 2012-03-30 2012-03-30 インタラクション装置およびインタラクション制御プログラム

Publications (2)

Publication Number Publication Date
JP2013208681A JP2013208681A (ja) 2013-10-10
JP5910249B2 true JP5910249B2 (ja) 2016-04-27

Family

ID=49527063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012080610A Active JP5910249B2 (ja) 2012-03-30 2012-03-30 インタラクション装置およびインタラクション制御プログラム

Country Status (1)

Country Link
JP (1) JP5910249B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107174829A (zh) * 2017-06-14 2017-09-19 郝允志 一种可编程具有自主学习能力的智能积木机器人

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6507807B2 (ja) * 2015-04-09 2019-05-08 富士通株式会社 制御方法、制御装置、及びプログラム
JP7051556B2 (ja) * 2018-04-25 2022-04-11 株式会社日立製作所 サービス提供システム、情報処理装置、及びサービス提供システムの制御方法
EP3795225A4 (en) 2018-05-15 2022-03-30 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP2021074202A (ja) * 2019-11-07 2021-05-20 ソニー株式会社 自律移動体、情報処理方法、プログラム、及び、情報処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121455A (ja) * 1999-10-29 2001-05-08 Sony Corp 移動ロボットのための充電システム及び充電制御方法、充電ステーション、移動ロボット及びその制御方法
JP4670136B2 (ja) * 2000-10-11 2011-04-13 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2003225228A (ja) * 2002-01-31 2003-08-12 Sanyo Electric Co Ltd 健康管理端末装置,コンピュータプログラム及び記録媒体
JP4552465B2 (ja) * 2003-03-11 2010-09-29 ソニー株式会社 情報処理装置、ロボット装置の行動制御方法、ロボット装置及びコンピュータ・プログラム
JP4815940B2 (ja) * 2005-08-17 2011-11-16 日本電気株式会社 ロボット制御システム、ロボット装置、およびロボット制御方法
JP4560078B2 (ja) * 2007-12-06 2010-10-13 本田技研工業株式会社 コミュニケーションロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107174829A (zh) * 2017-06-14 2017-09-19 郝允志 一种可编程具有自主学习能力的智能积木机器人

Also Published As

Publication number Publication date
JP2013208681A (ja) 2013-10-10

Similar Documents

Publication Publication Date Title
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
JP6569452B2 (ja) 画像生成システム、画像生成プログラム及び画像生成方法
JP5910249B2 (ja) インタラクション装置およびインタラクション制御プログラム
KR20180072978A (ko) 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
CN104520849A (zh) 使用外在物理表达的搜索用户界面
CN109765991A (zh) 社交互动***、用于帮助用户进行社交互动的***及非暂时性计算机可读存储介质
WO2018168369A1 (ja) 機械学習装置および機械学習プログラム
US10836044B2 (en) Robot control device and robot control method
JP6969859B2 (ja) アソシエーティブメモリに連結された動作検知装置を用いた運動の識別
JP6886651B2 (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
JP2019185201A (ja) 強化学習システム
JP7071717B2 (ja) イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム
CN106951433A (zh) 一种检索方法及装置
JP7306152B2 (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
WO2020174537A1 (ja) 情報処理システムおよび情報処理方法
JP6972526B2 (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
JP2004280673A (ja) 情報提供装置
KR20210028375A (ko) 로봇의 사용자 적응형 행동 인식 방법 및 이를 위한 장치
Nour et al. Real-time detection of eating activity in elderly people with dementia using face alignment and facial landmarks
KR20200075256A (ko) 라이프로그 빅데이터 기반의 지능형 캐릭터 저작 장치 및 방법
KR102643720B1 (ko) 로봇용 인공지능 인터페이스 시스템
JP5858228B2 (ja) 同定装置、同定方法および同定プログラム
Faiyaz et al. Dominance of Deep LSTM in Smartphone Sensor based Human Activity Classification
JP6202882B2 (ja) 表情検出システム及び表情検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150