JP2004283943A - コンテンツ選択装置及び方法並びにロボット装置 - Google Patents

コンテンツ選択装置及び方法並びにロボット装置 Download PDF

Info

Publication number
JP2004283943A
JP2004283943A JP2003078085A JP2003078085A JP2004283943A JP 2004283943 A JP2004283943 A JP 2004283943A JP 2003078085 A JP2003078085 A JP 2003078085A JP 2003078085 A JP2003078085 A JP 2003078085A JP 2004283943 A JP2004283943 A JP 2004283943A
Authority
JP
Japan
Prior art keywords
content
user
selection
contents
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003078085A
Other languages
English (en)
Inventor
Tatsunori Kato
龍憲 加藤
Ryoichi Tsuzaki
亮一 津崎
Yoshinori Kurata
宜典 倉田
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003078085A priority Critical patent/JP2004283943A/ja
Publication of JP2004283943A publication Critical patent/JP2004283943A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】従来のロボットでは、個々のユーザに適したコンテンツを切り換えて提供することができなかった。
【解決手段】ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶したコンテンツの中から当該グループに対応付けられたコンテンツを選択するようにした。
【選択図】 図9

Description

【0001】
【発明の属する技術分野】
本発明は、コンテンツ選択装置及び方法並びにロボット装置に関し、例えばエンターテインメントロボットに適用して好適なものである。
【0002】
【従来の技術】
近年、ロボットとして、搭載されたCCDカメラ等の外部センサ及びバッテリセンサ等の内部センサのセンサ出力に基づいて外部及び内部の状況を認識し、認識結果に基づいて自律的に行動し得るようになされたものが多くの企業や研究機関から発表されている(例えば、非特許文献1参照)。
【0003】
【非特許文献1】
特願2002−350137
【0004】
【発明が解決しようとする課題】
ここで図18は、このような従来のロボットにおけるユーザに提供するコンテンツ(発話や動作等)の選択を行うコンテンツ選択部の概略構成を示すものである。
【0005】
この図18からも明らかなように、かかる従来のロボットでは、状態監視部80が、外部センサ及び内部センサのセンサ出力に基づいてロボットの外部及び内部の状態を監視し、そのときの当該状態に応じたコンテンツの実行命令を選択・実行部81にコンテンツの実行命令を与え、当該選択・実行部81が指定されたコンテンツを再生するようにして、各種コンテンツをユーザに提供するように構築されている。
【0006】
この場合、状態監視部80は、コンテンツを提供するユーザがだれであるかによらず、ロボットの外部又は内部の状態に応じて予め対応付けられたコンテンツの実行指令を選択・実行部81に与えるだけであり、ユーザごとにそのユーザに適したコンテンツを提供するものではなかった。
【0007】
しかしながら、かかるロボットにおいて、例えばユーザごとにそのユーザに適したコンテンツを選択して提供することができれば、ロボットのエンターテインメント性を格段的に向上させて、ユーザのそのロボットに対する愛着心やロボット自体の価値を高めることができるものと考えられる。
【0008】
ところが、現実問題として、どのようなユーザが現れた場合にもそのユーザに適したコンテンツを提供できるように予め膨大な数のコンテンツを用意しておくことは困難であり、ある程度限られた範囲のコンテンツ数で対応できるような工夫が必要とされる。
【0009】
本発明は以上の点を考慮してなされたもので、エンターテインメント性を向上させ得るコンテンツ選択装置及び方法並びにロボット装置を提案しようとするものである。
【0010】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、複数のコンテンツの中からユーザに提供するコンテンツを選択するコンテンツ選択装置において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶手段に記憶されたコンテンツの中から当該グループに対応付けられたコンテンツを選択する選択手段を設けるようにした。
【0011】
この結果このコンテンツ選択装置では、ユーザごとに当該ユーザに適したコンテンツを提供することができる。またこのようにユーザをグループ化し、グループに対応付けられたコンテンツを選択するようにすることで、個々のユーザ用にコンテンツを作成する手間を省いて、予め用意すべきコンテンツの種類を削減させることもできる。
【0012】
また本発明においては、複数のコンテンツの中からユーザに提供するコンテンツを選択するコンテンツ選択方法において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶したコンテンツの中から当該グループに対応付けられたコンテンツを選択するようにした。
【0013】
この結果このコンテンツ選択方法によれば、ユーザごとに当該ユーザに適したコンテンツを提供することができる。またこのようにユーザをグループ化し、グループに対応付けられたコンテンツを選択するようにすることで、個々のユーザ用にコンテンツを作成する手間を省いて、予め用意すべきコンテンツの種類を削減させることもできる。
【0014】
さらに本発明においては、複数のコンテンツの中から1つのコンテンツを選択してユーザに提供するロボット装置において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶手段に記憶されたコンテンツの中から当該グループに対応付けられたコンテンツを選択する選択手段を設けるようにした。
【0015】
この結果このロボット装置では、ユーザごとに当該ユーザに適したコンテンツを提供することができる。またこのようにユーザをグループ化し、グループに対応付けられたコンテンツを選択するようにすることで、個々のユーザ用にコンテンツを作成する手間を省いて、予め用意すべきコンテンツの種類を削減させることもできる。
【0016】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0017】
(1)本実施の形態によるロボットの全体構成
図1及び図2において、1は全体として本実施の形態による2足歩行型のロボットを示し、胴体部ユニット2の上部に頭部ユニット3が配設されると共に、当該胴体部ユニット2の上部左右にそれぞれ同じ構成の腕部ユニット4A、4Bがそれぞれ配設され、かつ胴体部ユニット2の下部左右にそれぞれ同じ構成の脚部ユニット5A、5Bがそれぞれ所定位置に取り付けられることにより構成されている。
【0018】
胴体部ユニット2においては、体幹上部を形成するフレーム10及び体幹下部を形成する腰ベース11が腰関節機構12を介して連結することにより構成されており、体幹下部の腰ベース11に固定された腰関節機構12の各アクチュエータA、Aをそれぞれ駆動することによって、体幹上部を図3に示す直交するロール軸13及びピッチ軸14の回りにそれぞれ独立に回転させ得るようになされている。
【0019】
また頭部ユニット3は、フレーム10の上端に固定された肩ベース15の上面中央部に首関節機構16を介して取り付けられており、当該首関節機構16の各アクチュエータA、Aをそれぞれ駆動することによって、図3に示す直交するピッチ軸17及びヨー軸18の回りにそれぞれ独立に回転させ得るようになされている。
【0020】
さらに各腕部ユニット4A、4Bは、それぞれ肩関節機構19を介して肩ベース15の左右に取り付けられており、対応する肩関節機構19の各アクチュエータA、Aをそれぞれ駆動することによって図3に示す直交するピッチ軸20及びロール軸21の回りにそれぞれ独立に回転させ得るようになされている。
【0021】
この場合、各腕部ユニット4A、4Bは、それぞれ上腕部を形成するアクチュエータAの出力軸に肘関節機構22を介して前腕部を形成するアクチュエータAが連結され、当該前腕部の先端に手部23が取り付けられることにより構成されている。
【0022】
そして各腕部ユニット4A、4Bでは、アクチュエータAを駆動することによって前腕部を図3に示すヨー軸24の回りに回転させ、アクチュエータAを駆動することによって前腕部を図3に示すピッチ軸25の回りにそれぞれ回転させることができるようになされている。
【0023】
これに対して各脚部ユニット5A、5Bにおいては、それぞれ股関節機構26を介して体幹下部の腰ベース11にそれぞれ取り付けられており、それぞれ対応する股関節機構26の各アクチュエータA〜A11をそれぞれ駆動することによって、図3に示す互いに直交するヨー軸27、ロール軸28及びピッチ軸29の回りにそれぞれ独立に回転させ得るようになされている。
【0024】
この場合各脚部ユニット5A、5Bは、それぞれ大腿部を形成するフレーム30の下端に膝関節機構31を介して下腿部を形成するフレーム32が連結されると共に、当該フレーム32の下端に足首関節機構33を介して足部34が連結されることにより構成されている。
【0025】
これにより各脚部ユニット5A、5Bにおいては、膝関節機構31を形成するアクチュエータA12を駆動することによって、下腿部を図3に示すピッチ軸35の回りに回転させることができ、また足首関節機構33のアクチュエータA13、A14をそれぞれ駆動することによって、足部34を図3に示す直交するピッチ軸36及びロール軸37の回りにそれぞれ独立に回転させ得るようになされている。
【0026】
一方、胴体部ユニット2の体幹下部を形成する腰ベース11の背面側には、図4に示すように、当該ロボット1全体の動作制御を司るメイン制御部40と、電源回路及び通信回路などの周辺回路41と、バッテリ45(図5)となどがボックスに収納されてなる制御ユニット42が配設されている。
【0027】
そしてこの制御ユニット42は、各構成ユニット(胴体部ユニット2、頭部ユニット3、各腕部ユニット4A、4B及び各脚部ユニット5A、5B)内にそれぞれ配設された各サブ制御部43A〜43Dと接続されており、これらサブ制御部43A〜43Dに対して必要な電源電圧を供給したり、これらサブ制御部43A〜43Dと通信を行うことができるようになされている。
【0028】
また各サブ制御部43A〜43Dは、それぞれ対応する構成ユニット内の各アクチュエータA〜A14と接続されており、当該構成ユニット内の各アクチュエータA〜A14をメイン制御部40から与えられる各種制御コマンドに基づいて指定された状態に駆動し得るようになされている。
【0029】
さらに頭部ユニット3には、図5に示すように、このロボット1の「目」として機能するCCD(Charge Coupled Device )カメラ50及び「耳」として機能するマイクロホン51などの各種外部センサと、「口」として機能するスピーカ52となどがそれぞれ所定位置に配設され、手部23や足部34等には、それぞれ外部センサとしてのタッチセンサ53が配設されている。さらに制御ユニット42には、バッテリセンサ54及び加速度センサ55等の内部センサが収納されている。
【0030】
そしてCCDカメラ50は、周囲の状況を撮像し、得られた画像信号S1Aをメイン制御部40に送出する一方、マイクロホン51は、各種外部音を集音し、かくして得られた音声信号S1Bをメイン制御部40に送出する。またタッチセンサ53は、外部との物理的な接触を検出し、検出結果を圧力検出信号S1Cとしてメイン制御部40に送出するようになされている。
【0031】
またバッテリセンサ54は、バッテリ45のバッテリ残量を所定周期で検出し、検出結果をバッテリ残量検出信号S2Aとしてメイン制御部40に送出する一方、加速度センサ56は、3軸方向(x軸、y軸及びz軸)の加速度を所定周期で検出し、検出結果を加速度検出信号S2Bとしてメイン制御部40に送出する。
【0032】
メイン制御部部40は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)としての内部メモリ40A等を有するマイクロコンピュータ構成でなり、カメラ50、マイクロホン51及びタッチセンサ53等の各外部センサからそれぞれ与えられる画像信号S1A、音声信号S1B及び圧力検出信号S1C等の外部センサ信号S1と、バッテリセンサ54及び加速度センサ55等の各内部センサからそれぞれ与えられるバッテリ残量検出信号S2A及び加速度検出信号S2B等の内部センサ信号S2とに基づいて、ロボット1の周囲及び内部の状況や、外部との接触の有無などを判断する。
【0033】
そしてメイン制御部40は、この判断結果と、予め内部メモリ40Aに格納されている制御プログラムと、そのとき装填されている外部メモリ56に格納されている各種制御パラメータとに基づいて続く行動を決定し、決定結果に基づく制御コマンドを対応するサブ制御部43A〜43Dに送出する。この結果、この制御コマンドに基づき、そのサブ制御部43A〜43Dの制御のもとに、対応するアクチュエータA〜A14が駆動され、かくして頭部ユニット3を上下左右に揺動させたり、腕部ユニット4A、4Bを上にあげたり、歩行するなどの行動がロボット1により発現されることとなる。
【0034】
またメイン制御部40は、かかるマイクロホン51から与えられる音声信号S1Bに対する所定の音声認識処理によりユーザの発話内容を認識し、当該認識に応じた音声信号S3をスピーカ52に与えることにより、ユーザと対話するための合成音声を外部に出力させる。
【0035】
このようにしてこのロボット1においては、周囲及び内部の状況等に基づいて自律的に行動することができ、またユーザと対話することもできるようになされている。
【0036】
(2)対話制御に関するメイン制御部40の処理
(2−1)対話制御に関するメイン制御部40の処理内容
次に、対話制御に関するメイン制御部40の処理内容について説明する。
【0037】
このロボット1の対話制御に関するメイン制御部40の処理内容を機能的に分類すると、図7に示すように、認識部60、タイマ部61、稼動日数カウンタ62、対話制御部63及び音声合成部64に分けることができる。
【0038】
この場合、認識部60は、CCDカメラ50(図5)等の外部センサから与えられる外部センサ信号S1に基づいて、対話相手となるユーザの認識及び識別と、当該ユーザの発話内容の音声認識とを含む各種認識処理を実行し、認識結果を認識信号S10として対話制御部63に送出する。
【0039】
またタイマ部61は、日にちや時刻を秒又は分単位でカウントし、カウント結果をタイマ信号S11として対話制御部63に送出する。さらに稼動日数カウンタ部62は、このロボット1の電源が最初に投入されてからの日数をカウントし、カウント結果を稼動日数カウント信号S12として対話制御部63に送出する。
【0040】
対話制御部63は、ユーザとの一連の対話の過程において当該ロボット1が発話すべき発話内容を予め規定したシナリオでなるシナリオコンテンツのデータを内部メモリ40Aにおいて複数種類保持している。
【0041】
そして対話制御部63は、ユーザと対話する際には、認識部60、タイマ部61及び稼動日数カウンタ部62からそれぞれ与えられる認識信号S10、タイマ信号S11及び稼動日数カウント信号S12に基づいて、まずそのとき使用すべきシナリオコンテンツを選択する。
【0042】
また対話制御部63は、このように選択したシナリオコンテンツのシナリオに従い、認識部60からの認識信号S10に基づき得られる対話相手の発話内容についての音声認識結果等に基づいて、ロボット1が発話すべき内容に応じた文字列信号S13を順次音声合成部64に送出する。
【0043】
そして音声合成部64は、対話制御部63から与えられる文字列信号S13を音声信号S3に変換し、この音声信号S3をスピーカ54(図5)に送出する。この結果、この音声信号S3に基づく音声がスピーカ54から出力される。
【0044】
このようにしてこのロボット1においては、予め定められたシナリオコンテンツに従った対話をユーザと行い得るようになされている。
【0045】
(2−2)対話制御部63の具体的処理
ここで対話制御部63は、図7に示すように、そのときの状態を監視し、当該監視結果に応じて使用すべきシナリオコンテンツを選択する選択・状態監視部70と、選択・状態監視部70により選択されたシナリオコンテンツを実行する実行部71とから構成される。
【0046】
この場合、選択・状態監視部70は、各シナリオコンテンツに付随して与えられる管理情報に基づいて、例えば図8に示すようなフォーマットの管理情報データベース72(図7)を作成する。
【0047】
すなわちこのロボット1の場合、各シナリオコンテンツは、図9に示すように、ロボット1のオーナであるマスタオーナ用のものと、例えばマスタオーナの家族等であるサブオーナ用のものと、始めての見るユーザであるビジタ用のものと、これらマスタオーナ、サブオーナ及びビジタのいずれに対しても使用可能な共通用のものとの4つのカテゴリに分けて作成されている。
【0048】
また各シナリオコンテンツは、同じカテゴリに属するものであっても、その内容に応じてさらに日にちや時間に関する事象を話題とするイベント型と、相互に連続した流れがある事象を話題とするスレッド型と、イベント型及びスレッド型のいずれにも属さない事象を話題とする通常型の3つのタイプに分けられて作成されている。
【0049】
そしてこれらシナリオコンテンツは、そのカテゴリ、タイプ及びその他の当該シナリオコンテンツを使用するための日にちや曜日などの各種使用条件と、後述のようにそのシナリオコンテンツを再使用できるか否かを表す再使用可否情報となどの管理情報と共に外部メモリ56に格納されてロボット1に与えられる。
【0050】
かくして選択・状態監視部70は、外部メモリ56に格納された各シナリオコンテンツのデータとその管理情報のデータとを当該外部メモリ56から読み出し、これらを図10のようにシナリオコンテンツのデータと管理情報のデータとに分けて内部メモリ40Aに格納する一方、この際各シナリオコンテンツの管理情報について図8に示すような管理情報データベース72(図7)を作成する。
【0051】
また選択・状態監視部70は、その後、認識部60から与えられる認識信号S10に基づいて、ユーザと対話すべき事態の発生の有無を常時監視する。
【0052】
そして選択・状態監視部70は、例えばユーザに話し掛けられるなど、ユーザと対話すべき事態が発生したことを確認すると、上述のように認識部60から与えられる認識信号S10に基づき対話相手のユーザが属するグループを検出する。
【0053】
すなわち選択・状態監視部70は、ユーザを、自己にとっての重要度に基づいて、予め登録されたマスタオーナと、認識部60により高い頻度で認識される(出現頻度が高い)サブオーナと、マスタオーナ及びサブオーナ以外のビジタとの3つのグループに分けて管理している。
【0054】
そして選択・状態監視部70は、ユーザと対話すべき事態が発生したことを確認すると、上述のように認識部60から与えられる認識信号S10に基づきそのユーザが属するグループを検出し、当該検出結果と管理情報データベースに登録されている各シナリオコンテンツの管理情報と、そのときタイマ部61から与えられるタイマ信号S11と基づいて、内部メモリ40Aに保持した複数のシナリオコンテンツの中から1つのシナリオコンテンツを選択する。
【0055】
具体的に、選択・状態監視部70は、対話相手がマスタオーナである場合には、内部メモリ40Aに保持した複数のシナリオコンテンツの中からマスタオーナ用(図8において『Target』の欄が『M』のシナリオコンテンツ)及び共通用(図8において『Target』の欄が『A』のシナリオコンテンツ)のうちのいずれか1つを、このときタイマ部61から与えられるタイマ信号S11に基づき得られる現在の日付や日時と、該当する各シナリオコンテンツの管理情報となどに基づいて選択し、その実行命令を実行部71に与える。
【0056】
また選択・状態監視部70は、対話相手がサブオーナである場合には、内部メモリ40Aに保持した複数のシナリオコンテンツの中からサブオーナ用(図8において『Target』の欄が『S』のシナリオコンテンツ)及び共通用のうちのいずれか1つを、このときタイマ部61から与えられるタイマ信号S11に基づき得られる現在の日付や日時と、該当する各シナリオコンテンツの管理情報となどに基づいて選択し、その実行命令を実行部71に与える。
【0057】
さらに選択・状態監視部70は、対話相手がビジタである場合には、内部メモリ40Aに保持した複数のシナリオコンテンツの中からビジタ用(図8において『Target』の欄が『V』のシナリオコンテンツ)及び共通用のうちのいずれか1つを、このときタイマ部61から与えられるタイマ信号S11に基づき得られる現在の日付や日時と、該当する各シナリオコンテンツの管理情報となどに基づいて選択し、その実行命令を実行部71に与える。
【0058】
ただし、このようにしてシナリオコンテンツを選択する場合、選択可能なシナリオコンテンツがそのユーザの属するグループと対応するカテゴリ及び共通のカテゴリのいずれにも存在する場合(カテゴリ間で競合する場合)や、同じカテゴリ内でもイベント型及び通常型のいずれにも存在する場合(タイプ間で競合する場合)もあり得る。
【0059】
そこでこのロボット1の場合、図11に示すように、選択・状態監視部70がシナリオコンテンツを選択する際にカテゴリ間やタイプ間で候補が競合した場合の調整を図るべく、タイプを単位として各カテゴリのタイプに優先度が予め決められている。
【0060】
具体的には、マスタオーナの場合には、マスタオーナのカテゴリに属するイベント型(図8において『Type』の欄が『E』のシナリオコンテンツ)、共通のカテゴリに属するイベント型、マスタオーナのカテゴリに属するスレッド型(図8において『Type』の欄が『T』のシナリオコンテンツ)、マスタオーナ又は共通のカテゴリに属する共通型(図8において『Type』の欄が『N』のシナリオコンテンツ)の順番に優先度が定められ、サブオーナの場合には、サブオーナのカテゴリに属するイベント型、共通のカテゴリに属するイベント型、サブオーナのカテゴリに属するスレッド型、サブオーナ又は共通のカテゴリに属する共通型の順番に優先度が定められ、ビジタの場合には、共通のカテゴリに属するイベント型、ビジタ又は共通のカテゴリに属する通常型という順番に優先度が定められている。
【0061】
かくして選択・状態監視部70は、シナリオコンテンツを選択する際に複数の候補がある場合には、かかる優先度に従って、優先度が高いタイプから順番に候補となるシナリオコンテンツの有無を検索し、当該シナリオコンテンツがあった場合にその実行命令を実行部71に与えるようになされている。なお、この際選択・状態監視部70は、同じタイプ(イベント型、スレッド型又は通常型)内においていくつかのシナリオコンテンツの候補がある場合には、そのうちの1つをランダムに選択する。
【0062】
一方、選択・状態監視部70は、上述の管理情報データベース72と併せて、例えば図13に示すような使用履歴リスト75をユーザごとに作成してこれを内部メモリ40Aに保持し、シナリオコンテンツを使用するごとに当該シナリオコンテンツのIDを、そのときの対話相手であるユーザと対応する使用履歴リスト75に順次登録するようになされている。
【0063】
そして選択・状態監視部70は、シナリオコンテンツを選択する際には、この使用履歴リスト75を参照して、そのときの使用条件を満たすいくつかのシナリオコンテンツの中から当該使用履歴リスト75に登録されたシナリオコンテンツ以外のシナリオコンテンツを選択し、そのシナリオコンテンツの実行命令を実行部71に与える。
【0064】
ただし、このようにしてシナリオコンテンツの使用履歴を管理した場合、そのユーザに使用できるシナリオコンテンツが順次減少し、最終的には選択可能なシナリオコンテンツがなくなり、ロボット1がユーザと対話できなくなるおそれがある。
【0065】
そこでこのロボット1の場合、各シナリオコンテンツの管理情報には、そのシナリオコンテンツが再使用可能なものであるか否かを表す再使用可否情報(図8における『Reuse』の欄)が含まれている。
【0066】
そして選択・状態監視部70は、例えばロボット1が起動された時などに管理情報データベース72を参照して、使用履歴リスト75に登録されたシナリオコンテンツの中から再使用可能なシナリオコンテンツを当該使用履歴リスト75から削除するようになされている。
【0067】
さらにこのロボットの場合、シナリオコンテンツの枯渇を防止する手段として、例えばスレッド型のものなど、一部のシナリオコンテンツの管理情報には、稼動日から指定された日数が経過しないとそのシナリオコンテンツを使用できない旨を表す使用可能条件情報(図8における『Condition』の欄における上から11行目の『%BOOT DAY%>3』)が含まれている。
【0068】
そして選択・状態監視部70は、シナリオコンテンツを選択する際には、稼働日カウンタ部62のカウント値を参照してかかる条件を満たしているか否かを判断し、満たしていない場合にはそのシナリオコンテンツを選択対象とせず、満たしている場合にはそのシナリオコンテンツを選択対象とする。このようにしてこのロボット1では、シナリオコンテンツを長期的に使用できるようになされている。
【0069】
これに対して実行部71は、選択・状態監視部70からシナリオコンテンツの実行命令が与えられると、認識部60からの音声認識信号S10に基づき得られるユーザの受け答えの音声認識結果を参照しながら、指定されたシナリオコンテンツを再生し、対応する文字列信号S13を順次音声合成部64に与えることにより、そのシナリオに従った音声を順次スピーカ52から出力させる。
【0070】
なお、図13及び図14にシナリオコンテンツのデータ構成例を示す。この図13及び図14において、一番左の列の数値は対応する発話内容の番号(0から始まっている)を示す。またその右側の数値や文字列は、その発話内容を音声するための条件を表すもので、『1』のときにはその発話内容を必ず音声出力し、『%VSEM%==“positive”』や『%VSEM%==“negative”』のときには先行する質問に対するユーザの応答の音声認識結果が肯定的(positive)又は否定的(negative)であった場合にその発話内容の音声を出力することを意味する。
【0071】
また中央の『“こんにちは”』等の文字はロボットが発話すべき発話内容を表しており、その右横の『話し掛ける』等の文字はそのときのロボットが発現すべき動作を表している。さらに一番右の数値は、次に再生すべき発話内容の番号(一番左の数値)を示す。
【0072】
また実行部71は、このようなシナリオコンテンツの再生時において、予め定められた所定の質問等に対するその対話相手の受け答え結果を、例えば図15に示すようなリスト(以下、これを詳細実行結果リスト76と呼ぶ)に登録して 内部メモリ40Aに保持する。
【0073】
そして実行部71は、その後のシナリオコンテンツの実行時に、この詳細実行結果リスト76を必要に応じて利用しながら、例えばシナリオの分岐(例えば図13における『%VSEM%==“positive”』、『%VSEM%==“negative”』のようにユーザの受け答え次第等によってロボット1の発話内容が変わる場合の選択肢)を選択したり、発話内容を変更する。
【0074】
因みに、シナリオのどの部分で詳細実行結果リスト76を参照するかは、図13及び図14について上述したシナリオコンテンツのデータにおける左から2行目に、詳細実行結果リスト76の何番目のデータを参照すべき旨のコマンドが記述される。
【0075】
なお、選択・状態監視部70から実行部71に対してあるシナリオコンテンツの実行命令が与えられた後に、対話相手のユーザが立ち去るなどしてそのシナリオコンテンツを最後まで実行できない場合もある。
【0076】
そこで実行部71は、選択・状態監視部70から実行部71に対してあるシナリオコンテンツの実行命令が与えられた場合には、その指定されたシナリオコンテンツの終了後又は中断後に当該シナリオコンテンツを最後まで実行できたか否かを通知(以下、これを成否通知と呼ぶ)する。
【0077】
そしてこのとき選択・状態監視部70は、シナリオコンテンツの実行指令を実行部に送出後、この成否通知が与えられるのを待って、『成功』であった場合にはそのシナリオコンテンツを使用履歴リスト75に登録し、『失敗』であった場合にはそのシナリオコンテンツを使用履歴リスト75に登録しないようになされている。
【0078】
(2−3)シナリオコンテンツ選択処理手順RT1
ここで、選択・状態監視部70による上述のようなシナリオコンテンツの選択処理は、図16に示すシナリオコンテンツ選択処理手順RT1に従って行われる。
【0079】
すなわち選択・状態監視部70は、認識部60からそれぞれ与えられる認識信号S10に基づきユーザと対話すべき事態が発生したことを認識すると、このシナリオコンテンツ選択処理手順RT1をステップSP0において開始する。
【0080】
そして選択・状態監視部70は、続くステップSP1において、管理情報データベース72に格納された各シナリオコンテンツの使用条件と、タイマ部61から与えられるタイマ信号S11に基づき得られる現在の日にち及び時間と、稼働日カウンタ部62から与えられる稼働日カウント信号S62と、使用履歴リスト75とに基づいて、まず図11について上述した優先順位の最も高いタイプ(イベント型、スレッド型又は通常型)のシナリオコンテンツの中に選択可能なものがあるか否かを判断する。
【0081】
そして選択・状態監視部70は、このステップSP1において否定結果を得ると、ステップSP2に進んで、次に優先順位が高いタイプがあるか否かを判断する。
【0082】
選択・状態監視部70は、このステップSP2において否定結果を得ると、ステップSP3に進んで、所定のエラー処理、例えば『ごめん。今は話す気分じゃないんだ。』等のそのユーザとの対話を否定する音声を出力するための文字列信号S13を音声合成部64に送出した後、ステップSP8に進んでこのシナリオコンテンツ選択処理手順を終了する。
【0083】
これに対して選択・状態監視部70は、ステップSP2において肯定結果を得ると、ステップSP1に戻って、この後ステップSP1−SP2−SP1のループを繰り返す。
【0084】
そして選択・状態監視部70は、やがて選択可能なシナリオコンテンツを検出することによりステップSP3において肯定結果を得ると、ステップSP4に進んで、その選択可能なシナリオコンテンツの中から1つのシナリオコンテンツを選択し、この後ステップSP5に進んで、そのシナリオコンテンツの実行指令を実行部71に与える。
【0085】
さらに選択・状態監視部70は、この後ステップSP6に進んで実行部71からの成否通知を待ち受け、やがて当該成否通知が与えられるとステップSP7に進んで、そのシナリオコンテンツの実行が成功したか否かを判断する。
【0086】
そして選択・状態監視部70は、このステップSP7において肯定結果を得ると、ステップSP8に進んで、そのシナリオコンテンツを使用履歴リスト75に登録した後、ステップSP9に進んでこのシナリオコンテンツ選択処理手順RT1を終了する。
【0087】
これに対して選択・状態監視部70は、ステップSP7において否定結果を得ると、ステップSP9に進んでこのシナリオコンテンツ選択処理手順RT1を終了する。
【0088】
このようにして選択・状態監視部70は、そのときの各種条件に最適なシナリオコンテンツを選択する。
【0089】
(2−4)実行部71によるシナリオコンテンツの再生処理
一方、実行部71は、選択・状態監視部70により選択されたシナリオコンテンツを再生し、対応する文字列信号13を音声合成部64に与えることにより、予め定められた音声をスピーカ52から出力する。ここではこの処理を、図14について上述したシナリオコンテンツが選択された場合を例に、図17を参照しながら説明する。
【0090】
実行部71は、選択・状態監視部70からこのシナリオコンテンツの実行指令が与えられると、当該シナリオコンテンツの再生を開始し(ステップSP10)、まず発話番号60番を再生することにより『本機は、診断モードとして起動しました。』という発話内容の文字列信号S13を音声合成部64に与える(ステップSP11)。
【0091】
続いて実行部71は、『診断開始前に、LED・サウンドが正常であるかを確認します。』という発話内容の文字列信号S13を音声合成部64に与えると共に(ステップSP12)、頭部ユニット3の『目』の位置及び『耳』の位置にそれぞれ配設された図示しないLEDを点灯させる(ステップSP13)。
【0092】
次いで実行部71は、『音声発話とともに、目LEDが白に、耳LEDが緑に点灯していましたか?』という発話内容の文字列信号S13を音声合成部64に与えると共に(ステップSP14)、再度、頭部ユニット3の『目』の位置及び『耳』の位置にそれぞれ配設された図示しないLEDを点灯させる(ステップSP15)。
【0093】
そして実行部71は、この後『正常であれば肩接触センサに触れてください。』という発話内容の文字列信号S13を音声合成部64に与え、この後20秒だけ待つ(ステップSP16)。
【0094】
そして実行部71は、その間に肩接触センサが押圧操作された場合には、『サウンド、正常動作。診断モードの実行を承認します。』という発話内容の文字列信号S13を音声合成部64に与え(ステップSP17)、この後このシナリオコンテンツの実行を終了する(ステップSP19)。
【0095】
これに対して実行部71は、かかる20秒以内に肩接触センサが押圧操作されなかった場合には、『安全に診断を進めることができないため終了処理を行います。』という発話内容の文字列信号S13を音声合成部64に与えると共に(ステップSP18)、当該診断が失敗した旨を詳細実行結果リスト76に登録した後、このシナリオコンテンツの実行を終了する(ステップSP19)。
【0096】
このようにして実行部71は、選択・状態監視部70により指定されたシナリオコンテンツを実行処理する。
【0097】
(3)本実施の形態の動作及び効果
以上の構成において、このロボット1は、ユーザをマスタオーナ、サブオーナ及びビジタの3つのグループにグループ化し、ユーザと対話するに際しては、管理情報データベース72に格納された各シナリオコンテンツの管理情報等に基づいて、そのユーザと対応付けられたシナリオコンテンツを選択し実行する。
【0098】
従って、このロボット1では、対話相手のユーザに適したシナリオコンテンツを選択することができる。またユーザのグループの1つとてして、ロボット1のオーナのみが属するマスタオーナというグループを設けたことにより、当該オーナに優越感を与えることができる。
【0099】
さらにこのロボット1では、シナリオコンテンツのカテゴリとして共通用というカテゴリを設け、これをマスタオーナ、サブオーナ及びビジタのいずれに対しても使用できるようにしているため、マスタオーナやサブオーナとの対話時における話題の偏りを防止でき、これらのグループに属するユーザとも自然な対話を行うことができる。
【0100】
さらにこのロボット1では、シナリオコンテンツをいくつかのタイプ(イベント型、スレッド型及び通常型)に分けて管理するようにしているため、シナリオコンテンツを短時間での選択することができ、その分コンテンツ提供の応答時間を短縮させてユーザのストレスを従来に比べて低減させることができる。
【0101】
以上の構成によれば、ユーザをグループ化し、対話相手のユーザが属するグループと対応付けられたシナリオコンテンツを選択し実行するようにしたことにより、対話相手のユーザに適したシナリオコンテンツを選択することができ、かくしてエンターテインメント性を向上させ得るロボットを実現できる。
【0102】
(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1〜図5のように構成された2足歩行型のロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成のロボット装置に広く適用することができる。
【0103】
また上述の実施の形態においては、コンテンツをする選択手段としての選択・状態監視部70が、ユーザをマスタオーナ、サブオーナ及びビジタの3つのグループに区分するようにした場合について述べたが、本発明はこれに限らず、2又は4以上のグループに分けるようにしても良い。このようにユーザをより多くのグループ数に区分することによって、対話相手のユーザにより適したシナリオコンテンツを提供することができる。
【0104】
さらに上述の実施の形態においては、対話制御部63が、ユーザのサブオーナ及びビジタのグループ分けを、そのユーザの出現頻度に基づいて行うようにした場合について述べたが、本発明はこれに限らず、これ以外のルールに基づいてユーザをグループ分けするようにロボット1を構築するようにしても良い。
【0105】
さらに上述の実施の形態においては、シナリオコンテンツをイベント型、スレッド型及び通常型の3つのタイプに区分するようにした場合について述べたが、本発明はこれに限らず、これ以外のタイプ数に区分するようにしても良い。
【0106】
さらに上述の実施の形態においては、再使用可能なシナリオコンテンツをロボット1の起動時に使用履歴リスト75から削除するようにした場合について述べたが、本発明はこれに限らず、例えばシナリオコンテンツを選択する際など、起動時以外のタイミングで再使用可能なシナリオコンテンツを使用履歴リスト75から削除するようにしても良い。
【0107】
さらに上述の実施の形態においては、選択すべきコンテンツが、ユーザとの一連の対話の過程においてロボット1が発話すべき発話内容を予め規定したシナリオでなるシナリオコンテンツである場合について述べたが、本発明はこれに限らず、これ以外コンテンツ(音楽や動作など)を選択するこの他種々のコンテンツ選択装置に広く適用することができる。
【0108】
さらに上述の実施の形態においては、シナリオコンテンツのデータを記憶する記憶手段として内部メモリ40Aを適用するようにした場合について述べたが、本発明はこれに限らず、ディスク状記録媒体等、この他種々の記憶手段を広く適用することができる。
【0109】
さらに上述の実施の形態においては、対話相手がマスタオーナ、サブオーナ及びビジタの場合それぞれについて、図11のように優先度を設定するようにした場合について述べたが、本発明はこれに限らず、優先度の設定の仕方としては、この他種々の設定を広く適用することができる。
【0110】
さらに上述の実施の形態においては、所定日数をカウントするカウント手段としての稼働日カウンタ部62が最初の稼働日からの経過日数をカウントするようにした場合について述べたが、本発明はこれに限らず、かかるカウント手段が最初の稼動日以外の基準日を基準として、その日からの日数をカウントするようにしても良い。
【0111】
さらに上述の実施の形態においては、選択・状態監視部70により選択されたシナリオコンテンツを実行する実行手段としての実行部70が当該シナリオコンテンツを実行する際に参照する詳細実行結果リスト76を記憶する記憶手段として内部メモリ40Aを適用するようにした場合について述べたが、本発明はこれに限らず、内部メモリ40A以外の例えばディスク状記録媒体等、この他種々の記憶手段を広く適用することができる。
【0112】
【発明の効果】
上述のように本発明によれば、複数のコンテンツの中からユーザに提供するコンテンツを選択するコンテンツ選択装置において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶手段に記憶されたコンテンツの中から当該グループに対応付けられたコンテンツを選択する選択手段を設けるようにしたことにより、ユーザごとに当該ユーザに適したコンテンツを提供することができ、かくしてエンターテインメント性を格段的に向上させ得るコンテンツ選択装置を実現できる。
【0113】
また本発明によれば、複数のコンテンツの中からユーザに提供するコンテンツを選択するコンテンツ選択方法において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶したコンテンツの中から当該グループに対応付けられたコンテンツを選択するようにしたことにより、ユーザごとに当該ユーザに適したコンテンツを提供することができ、かくしてエンターテインメント性を格段的に向上させ得るコンテンツ選択方法を実現できる。
【0114】
さらに本発明によれば、複数のコンテンツの中から1つのコンテンツを選択してユーザに提供するロボット装置において、ユーザをグループ化し、所定のセンサ出力に基づき検出されるコンテンツを提供すべきユーザのグループに基づいて、記憶手段に記憶されたコンテンツの中から当該グループに対応付けられたコンテンツを選択する選択手段を設けるようにしたことにより、ユーザごとに当該ユーザに適したコンテンツを提供することができ、かくしてエンターテインメント性を格段的に向上させ得るロボット装置を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるロボットの外観構成を示す斜視図である。
【図2】本実施の形態によるロボットの外観構成を示す斜視図である。
【図3】本実施の形態によるロボットの外観構成の説明に供する概念図である。
【図4】本実施の形態によるロボットの内部構成の説明に供する概念図である。
【図5】本実施の形態によるロボットの内部構成の説明に供するブロック図である。
【図6】対話制御に関するメイン制御部の処理内容の説明に供するブロック図である。
【図7】対話制御部の具体的処理の説明に供する概念図である。
【図8】管理情報データベースの説明に供する概念図である。
【図9】管理情報データベースの説明に供する概念図である。
【図10】シナリオコンテンツの種類の説明に供する図表である。
【図11】シナリオコンテンツ及びその管理情報の分離の説明に供する概念図である。
【図12】使用履歴リストを示す概念図である。
【図13】シナリオコンテンツデータの構成例を示す概念図である。
【図14】シナリオコンテンツデータの構成例を示す概念図である。
【図15】詳細実行結果リストを示す概念図である。
【図16】シナリオコンテンツ選択処理手順を示すフローチャートである。
【図17】シナリオコンテンツの実行処理例の説明に供するフローチャートである。
【図18】従来のロボットにおけるコンテンツの選択及び実行についての説明に供する概念図である。
【符号の説明】
1……ロボット、40……メイン制御部、40A……内部メモリ、50……CCDカメラ、51……マイクロホン、52……スピーカ、53……タッチセンサ、60……認識部、61……タイマ部、62……稼動日数カウンタ、63……対話制御部、64……音声合成部、70……選択・状態監視部、71……実行部、75……使用履歴リスト、76……詳細実行結果リスト、S10……認識信号、S11……タイマ信号、S12……稼動日数カウント信号、S13……文字列信号、RT1……シナリオコンテンツ選択実行処理手順。

Claims (17)

  1. 複数のコンテンツの中からユーザに提供する上記コンテンツを選択するコンテンツ選択装置において、
    上記複数のコンテンツのデータを記憶する第1の記憶手段と、
    上記ユーザをグループ化し、所定のセンサ出力に基づき検出される上記コンテンツを提供すべき上記ユーザのグループに基づいて、上記記憶手段に記憶された上記コンテンツの中から当該グループに対応付けられた上記コンテンツを選択する選択手段と
    を具えることを特徴とするコンテンツ選択装置。
  2. 上記選択手段は、
    自己にとっての上記ユーザの重要度に基づいて当該ユーザを上記グループ化する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  3. 上記コンテンツは、
    内容に応じて複数のタイプに分類され、
    上記選択手段は、
    タイプ単位で選択対象の上記コンテンツの有無を検索する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  4. 上記選択手段は、
    上記ユーザごとの上記コンテンツの使用履歴を記憶し、当該使用履歴を参照して上記ユーザに提供する上記コンテンツを選択する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  5. 所定日数をカウントするカウント手段を具え、
    上記選択手段は、
    上記カウント手段のカウント結果を参照して、上記ユーザに提供する上記コンテンツを選択する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  6. 上記選択手段により選択された上記コンテンツを実行する実行手段と、
    当該コンテンツの実行時に得られた情報を記憶する第2の記憶手段と
    を具え、
    上記実行手段は、
    その後の上記コンテンツの実行時に、上記記第2の憶手段に記憶された上記情報を利用しながら、当該コンテンツを上記ユーザに提供する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  7. 上記選択手段は、
    上記コンテンツと共に与えられる各上記コンテンツの管理情報を保持し、当該管理情報に基づいて上記コンテンツを選択する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  8. 上記管理情報は、上記コンテンツを再使用できるか否かの再使用可否情報を含み、
    上記選択手段は、
    上記再使用可否情報に基づいて、該当する上記コンテンツを再使用する
    ことを特徴とする請求項1に記載のコンテンツ選択装置。
  9. 複数のコンテンツの中からユーザに提供する上記コンテンツを選択するコンテンツ選択方法において、
    上記複数のコンテンツのデータを記憶する第1のステップと、
    上記ユーザをグループ化し、所定のセンサ出力に基づき検出される上記コンテンツを提供すべき上記ユーザのグループに基づいて、記憶した上記コンテンツの中から当該グループに対応付けられた上記コンテンツを選択する第2のステップと
    を具えることを特徴とするコンテンツ選択方法。
  10. 上記第2のステップでは、
    自己にとっての上記ユーザの重要度に基づいて当該ユーザを上記グループ化する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  11. 上記コンテンツは、
    内容に応じて複数のタイプに分類され、
    上記第2のステップでは、
    タイプ単位で選択対象の上記コンテンツの有無を検索する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  12. 上記第2のステップでは、
    上記ユーザごとの上記コンテンツの使用履歴を記憶し、当該使用履歴を参照して上記ユーザに提供する上記コンテンツを選択する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  13. 上記第2のステップでは、
    所定日数をカウント結果を参照して、上記ユーザに提供する上記コンテンツを選択する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  14. 上記第2のステップにおいて選択した上記コンテンツを実行しながら、当該コンテンツの実行により得られた情報を記憶する第3のステップと、
    を具え、
    上記第3のステップでは、
    先行する上記コンテンツの実行時に得られた上記情報を利用しながら、上記コンテンツを上記ユーザに提供する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  15. 上記選択手段は、
    上記第1のステップでは、
    上記コンテンツと共に与えられる各上記コンテンツの管理情報を保持し、
    上記第2のステップでは、
    当該管理情報に基づいて上記コンテンツを選択する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  16. 上記管理情報は、上記コンテンツを再使用できるか否かの再使用可否情報を含み、
    上記第2のステップでは、
    上記再使用可否情報に基づいて、該当する上記コンテンツを再使用する
    ことを特徴とする請求項9に記載のコンテンツ選択方法。
  17. 複数のコンテンツの中から1つの上記コンテンツを選択してユーザに提供するロボット装置において、
    上記複数のコンテンツのデータを記憶する記憶手段と、
    上記ユーザをグループ化し、所定のセンサ出力に基づき検出される上記コンテンツを提供すべき上記ユーザのグループに基づいて、上記記憶手段に記憶された上記コンテンツの中から当該グループに対応付けられた上記コンテンツを選択する選択手段と
    を具えることを特徴とするロボット装置。
JP2003078085A 2003-03-20 2003-03-20 コンテンツ選択装置及び方法並びにロボット装置 Pending JP2004283943A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003078085A JP2004283943A (ja) 2003-03-20 2003-03-20 コンテンツ選択装置及び方法並びにロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003078085A JP2004283943A (ja) 2003-03-20 2003-03-20 コンテンツ選択装置及び方法並びにロボット装置

Publications (1)

Publication Number Publication Date
JP2004283943A true JP2004283943A (ja) 2004-10-14

Family

ID=33292671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003078085A Pending JP2004283943A (ja) 2003-03-20 2003-03-20 コンテンツ選択装置及び方法並びにロボット装置

Country Status (1)

Country Link
JP (1) JP2004283943A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008087101A (ja) * 2006-10-02 2008-04-17 Honda Motor Co Ltd ロボットの制御装置
JP2011118897A (ja) * 2009-12-04 2011-06-16 Jin Hyuk Jang マルチメディア再生システム、装置及び方法
US8180486B2 (en) 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
JP2017041260A (ja) * 2010-07-23 2017-02-23 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008087101A (ja) * 2006-10-02 2008-04-17 Honda Motor Co Ltd ロボットの制御装置
JP4658891B2 (ja) * 2006-10-02 2011-03-23 本田技研工業株式会社 ロボットの制御装置
US8180486B2 (en) 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
JP2011118897A (ja) * 2009-12-04 2011-06-16 Jin Hyuk Jang マルチメディア再生システム、装置及び方法
JP2017041260A (ja) * 2010-07-23 2017-02-23 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 自然な対話インターフェースを備えたヒューマノイドロボット、同ロボットを制御する方法、および対応プログラム

Similar Documents

Publication Publication Date Title
WO2017215297A1 (zh) 云端互动***及其多感知型智能机器人和感知互动方法
US7152050B2 (en) Learning system capable of performing additional learning and robot apparatus
US7987091B2 (en) Dialog control device and method, and robot device
JP2019164352A (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
US7526363B2 (en) Robot for participating in a joint performance with a human partner
CN108717852B (zh) 一种基于白光通信和类脑认知的智能机器人语义交互***和方法
JP7173031B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20060177802A1 (en) Audio conversation device, method, and robot device
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
CN201163417Y (zh) 具有人脸识别的智能机器人
CN108319171A (zh) 一种基于语音控制的动向投影方法、装置及动向投影***
CN109241924A (zh) 基于互联网的多平台信息交互***
WO2019087478A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN106503786A (zh) 用于智能机器人的多模态交互方法和装置
CN108615537A (zh) 一种多信道录音方法、装置及***
CN112207811B (zh) 一种机器人控制方法、装置、机器人及存储介质
JP2004283943A (ja) コンテンツ選択装置及び方法並びにロボット装置
JP4042108B2 (ja) ロボット装置及びその制御方法
WO2019133615A1 (en) A method for personalized social robot interaction
KR102051217B1 (ko) 생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법
JP2005202075A (ja) 対話制御システム及びその方法並びにロボット装置
JP2007021719A (ja) 学習装置及び学習方法並びにロボット装置
JP2003255990A (ja) 対話処理装置及び方法並びにロボット装置
CN106251717A (zh) 智能机器人语言跟读学习方法和装置
US20110295425A1 (en) Automatic machine and method for controlling the same