JP2005202075A - 対話制御システム及びその方法並びにロボット装置 - Google Patents

対話制御システム及びその方法並びにロボット装置 Download PDF

Info

Publication number
JP2005202075A
JP2005202075A JP2004007305A JP2004007305A JP2005202075A JP 2005202075 A JP2005202075 A JP 2005202075A JP 2004007305 A JP2004007305 A JP 2004007305A JP 2004007305 A JP2004007305 A JP 2004007305A JP 2005202075 A JP2005202075 A JP 2005202075A
Authority
JP
Japan
Prior art keywords
robot
external microphone
microphone device
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004007305A
Other languages
English (en)
Inventor
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004007305A priority Critical patent/JP2005202075A/ja
Publication of JP2005202075A publication Critical patent/JP2005202075A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】
本発明は、対話機能を有するロボットのエンターテインメント性を向上させ得る対話制御システム及びその方法並びにロボット装置を実現しようとするものである。
【解決手段】
ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボットに送信するようになされた対話制御システムにおいて、外部マイク機器から入力される発話内容を表す音声情報をロボットに送信する送信手段を設け、ロボットは、送信手段から送信される音声情報を受信する受信手段と、ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する音声認識手段とを設けるようにした。
【選択図】 図4

Description

本発明は対話制御システム及び方法並びにロボット装置に関し、例えばエンターテインメントロボットに適用して好適なものである。
近年、多くの企業や大学等の研究機関においてヒューマノイド型ロボットの開発が進められている。かかるヒューマノイド型ロボットは、CCD(Charge Coupled Device)カメラ、マイクロホン及びタッチセンサ等の外部センサと、バッテリセンサ及び加速度センサ等の内部センサとが搭載され、これら外部センサ及び内部センサの出力に基づいて外部及び内部の状態を認識し、認識結果に基づいて自律的に行動し得るようになされたものである(例えば非特許文献1参照)。
また近年では、音声認識機能及び対話制御機能が搭載され、ユーザとの間で簡単な日常会話を行い得るようになされたエンターテインメントロボットも多く見受けられるようになってきた。
特願2003−270835
ところで、かかる音声認識及び対話制御機能が搭載された従来のロボットでは、ユーザとの距離が離れるにつれて、ユーザの発話内容が環境のノイズや反響等の影響を受け易くなることとなり聞き取り難い場合がある。
通常、ロボットに搭載されたマイクとの距離をユーザに近づければ音声認識の性能が向上するが、ユーザがロボットとの距離を近づけられない場合や近づけたくない場合がある。例えば、例えば、ロボットがテレビの傍にいて、かつユーザがそこから離れたソファでくつろぎながらロボットに話しかける場合などが該当する。
このような場合には、ユーザがリモートコントローラを操作してロボットに指示を与える手法も考えられるが、複雑な内容の指示をボタン操作等で行うことは非常に煩雑で困難となり、ロボットとのインタラクティブなやり取りを行う際の自然性が大きく損なわれるという問題がある。
またロボットに内蔵されている組み込みマイクとは別体に、外部マイクを設けるようにして、当該外部マイクを用いてユーザがロボットに対して発話内容を伝達する手法も考えられる。しかしロボット自体が内蔵された組み込みマイクと外部マイクとを選択的に切り替えて使用すると、ユーザとロボットとのスムーズかつ自然な対話を阻害して、アプリケーションとしての自由度が低減する問題があった。
さらにロボットは、現状のままで複数の外部マイクからの入力を選択的に受け付けることは非常に困難である上、1本の外部マイクを使用してもその方向検出を行うことも非常に困難であるなど、実用上未だ困難な問題が多くあった。
本発明は以上の点を考慮してなされたもので、対話機能を有するロボットのエンターテインメント性を向上させ得る対話制御システム及びその方法並びにロボット装置を提案しようとするものである。
かかる課題を解決するため本発明においては、ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボットに送信するようになされた対話制御システムにおいて、外部マイク機器から入力される発話内容を表す音声情報をロボットに送信する送信手段を設け、ロボットは、送信手段から送信される音声情報を受信する受信手段と、ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する音声認識手段とを設けるようにした。この結果この対話制御システムでは、ロボットがユーザとスムーズにかつ自然にインタラクティブな対話をすることができる。
また本発明においては、ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボットに送信するようになされた対話制御方法において、外部マイク機器から入力される発話内容を表す音声情報をロボットに送信する第1のステップと、送信される音声情報をロボットにおいて受信する第2のステップと、ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する第3のステップとを設けるようにした。この結果この対話制御方法では、ロボットがユーザとスムーズにかつ自然にインタラクティブな対話をすることができる。
さらに本発明においては、ユーザとの対話機能を有するロボット装置において、無線通信を介して送信されるユーザの発話内容を受信する受信手段と、ロボット装置に組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する音声認識手段とを設けるようにした。この結果このロボット装置では、ユーザとスムーズにかつ自然にインタラクティブな対話をすることができる。
上述のように本発明によれば、ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボットに送信するようになされた対話制御システムにおいて、外部マイク機器から入力される発話内容を表す音声情報をロボットに送信する送信手段を設け、ロボットは、送信手段から送信される音声情報を受信する受信手段と、ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する音声認識手段とを設けたことにより、ロボットがユーザとスムーズにかつ自然にインタラクティブな対話をすることができ、かくして対話機能を有するロボットのエンターテインメント性を向上させ得る対話制御システムを実現できる。
また本発明によれば、ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボットに送信するようになされた対話制御方法において、外部マイク機器から入力される発話内容を表す音声情報をロボットに送信する第1のステップと、送信される音声情報をロボットにおいて受信する第2のステップと、ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する第3のステップとを設けたことにより、ロボットがユーザとスムーズにかつ自然にインタラクティブな対話をすることができ、かくして対話機能を有するロボットのエンターテインメント性を向上させ得る対話制御方法を実現できる。
さらに本発明によれば、ユーザとの対話機能を有するロボット装置において、無線通信を介して送信されるユーザの発話内容を受信する受信手段と、ロボット装置に組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、受信手段から受信した音声情報に基づく発話内容を認識する音声認識手段とを設けたことにより、ユーザとスムーズにかつ自然にインタラクティブな対話をすることができ、かくしてエンターテインメント性を向上させ得るロボット装置を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態によるロボットのハードウェア構成
図1において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首関節3を介して頭部ユニット4が取り付けられると共に、当該胴体部ユニット2の左右上部にそれぞれ肩関節4A、4Bを介して腕部ユニット5A、5Bが取り付けられ、かつ胴体部ユニット2の下部にそれぞれ股関節6A、6Bを介して一対の脚部ユニット7A、7Bが取り付けられることにより構成されている。
図2は、このロボット1の機能構成を模式的に示したものである。この図2に示すように、ロボット1は、全体の動作の統括的制御やその他のデータ処理を行う制御ユニット10と、入出力部11と、駆動部12と、電源部13とで構成される。
入出力部11は、入力部としてロボット1の目に相当する一対のCCD(Charge Coupled Device)カメラ20や、耳に相当する一対のマイクロホン(以下、これを内蔵マイクと呼ぶ)21、頭部や手及び足裏などの部位に配設されてユーザからの物理的な働きかけや、手と外部物体との接触、足裏面の接地等を感知するタッチセンサ22、あるいは五感に相当するその他の各種のセンサを含む。
また入出力部11は、出力部としてロボット1の口に相当するスピーカ(以下、これを内蔵スピーカと呼ぶ)23、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLED(目ランプ)24などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット1からのユーザ・フィードバックを表現することができる。
駆動部12は、制御ユニット10が指令する所定の運動パターンに従ってロボット1の機体動作を実現する機能ブロックであり、行動制御による制御対象物である。駆動部12は、ロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた複数の駆動ユニット25〜25で構成される。各駆動ユニット25〜25は、所定軸回りの回転動作を行うモータ26〜26と、モータ26〜26の回転位置を検出するエンコーダ27〜27と、エンコーダ27〜27の出力に基づいてモータ26〜26の回転位置や回転速度を適応的に制御するドライバ28〜28の組み合わせで構成される。
電源部13は、その字句通り、ロボット1内に各電気回路などに対して給電を行う機能モジュールである。本実施の形態に係るロボット1は、バッテリを用いた自律駆動式であり、電源部13は、充電バッテリ29と、充電バッテリ30の充放電状態を管理する充放電制御部31とで構成される。
充電バッテリ29は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。
また、充放電制御部30は、バッテリ29の端子電圧や充電/放電電流量、バッテリ29の周囲温度などを測定することでバッテリ29の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部30が決定する充電の開始及び終了時期は制御ユニット10に通知され、ロボット1が充電オペレーションを開始及び終了するためのトリガとなる。
制御ユニット10は、ロボット1の「頭脳」に相当し、例えば頭部ユニット4又は胴体部ユニット2内に搭載されている。この制御ユニット10は、図3に示すように、メイン・コントローラとしてのCPU(Central Processing Unit)31が、メモリやその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス37は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス37上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU31は、アドレスを指定することによってバス37上の特定の装置と通信することができる。
RAM(Read Access Memory)32は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU31が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存のために使用される。
ROM(Read Only Memory)33は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM33に格納されるプログラム・コードには、ロボット1の電源投入時に実行する自己診断テスト・プログラムや、ロボット1の動作を規定する制御プログラムなどが挙げられる。
ロボット1の制御プログラムには、CCDカメラ20や内蔵マイク21などの各種センサからの入力を処理してシンボルとして認識する「センサ入力・認識処理プログラム」、短期記憶などの記憶動作を司りながらセンサ入力と所定の行動制御モデルとに基づいてロボット1の行動を制御する「行動制御プログラム」、行動制御モデルに従って各関節モータの駆動や内蔵スピーカ22の音声出力などを制御する「駆動制御プログラム」などが含まれる。
不揮発性メモリ34は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、暗記鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラムなどが挙げられる。
インターフェース35は、制御ユニット10外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース35は、例えば、入出力部11内のCCDカメラ20や内蔵マイク21及び内蔵スピーカ22との間でデータ入出力を行う。また、インターフェース35は、駆動部12内の各ドライバ28〜28との間でデータやコマンドの入出力を行う。
また、インターフェース35は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and Electronics Engineers )1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、PCカードやメモリ・スティックを受容するメモリ・カードインターフェース(カードスロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行い得るようにしてもよい。また、インターフェース35の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行うようにしてもよい。
さらに、制御ユニット10は、無線通信インターフェース36やネットワーク・インターフェース・カード(NIC)38などを含み、Bluetoothのような近接無線データ通信や、IEEE802.11bのような無線ネットワーク、あるいはインターネットなどの高域ネットワークを経由して、外部のさまざまなホスト・コンピュータとデータ通信を行うことができる。
このようなロボット1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、ロボット1の複雑な動作制御を演算したり、リモート・コントロールすることができる。
(2)本実施の形態における遠隔対話システムの構成
かかる図3に示す構成において、ロボット1は、無線通信インターフェース36を介して無線管理コンピュータ40とデータ通信を行うことにより、当該無線管理コンピュータ40との間で無線接続により外部のヘッドセット41と通信したり、この無線管理コンピュータ40に接続された複数の電波通信機42A〜42Dから得られる受信結果に基づいてロボット1やユーザの現在位置を特定したりし得るようになされている(以下、かかる機能を遠隔対話制御機能と呼ぶ)。
この遠隔対話制御機能は、ロボット1と、無線管理コンピュータ40及びこれに付随する複数の電波通信機と、ヘッドセット41とから構成された遠隔対話システム45(図4)により実現されるようになされている。このうちヘッドセット41は、ユーザが頭部に装着した際に両耳に当接する一対のヘッドホン(以下、これを外部スピーカと呼ぶ)41Aと、当該外部スピーカの一方に接続されたマイクロホン(以下、これを外部マイクと呼ぶ)41Bとから構成されている。
具体的に遠隔対話システム45は、図4に示すように、部屋RMの各隅部にそれぞれ配置された電波通信機42A〜42Dが有線ネットワークLNを通じて単一の無線管理コンピュータ40にそれぞれ接続されており、この部屋RMの中にロボット1とヘッドセット41を装着してユーザとが同時に居る状態で構成される。
この無線管理コンピュータ40は、図5に示すように、全体の制御を司るCPU43と、各種ソフトウェアが格納されたROM44と、CPU43のワークメモリとしてのRAM45、各種データが格納されたハードディスク装置46と、CPU43が各電波通信機42A〜42Dとの間でデータのやり取りをするためのインターフェースであるインターフェース部47とがバス48を介して相互に接続されることにより構成されている。
図4において、まずユーザの発話内容がヘッドセット41の外部マイク41Bを介して電波として発信されると、当該電波が各電波通信機42A〜42Dをアンテナとして無線管理コンピュータ40に与えられる。この無線管理コンピュータ40では、CPU43は、各電波通信機42A〜42Dを介して受信した外部マイク41Bからの電波に基づいてユーザの発話内容を表す音声信号S1を生成すると共に、当該各電波通信機42A〜42Dごとに外部マイク41Bからの電波の強度をそれぞれ測定する。
この結果、無線管理コンピュータ40のCPU43は、各電波通信機42A〜42Dについて測定した電波強度に基づいて、部屋RM内におけるヘッドセット41の位置を特定することができ、かかる位置情報(以下、これを音源位置情報と呼ぶ)をエンコードして音声信号S1に付加した後、当該音声信号S1を各電波通信機42A〜42Dを介してロボット1に送信する。
ロボット1は、無線管理コンピュータ40から各電波通信機42A〜42Dを介して受信した音声信号S1に付加された音源位置情報をデコードすることにより、部屋RM内におけるユーザの位置を特定することができると共に、内蔵マイク21では聞き取り難いユーザの発話内容をも当該音声信号S1に基づく発話内容として認識することができる。
一方、ロボット1が生成した発話内容が内蔵スピーカ23を介して放音される以外に、必要に応じて当該発話内容が電波として無線通信インターフェース36を介して発信されると、当該電波が各電波通信機42A〜42Dをアンテナとして無線管理コンピュータ40に与えられる。この無線管理コンピュータ40のCPU43は、各電波通信機42A〜42Dを介して受信したロボット1からの電波に基づいてその発話内容を表す音声信号S2を生成すると共に、当該各電波通信機42A〜42Dごとにロボット1からの電波の強度をそれぞれ測定する。
この結果、無線管理コンピュータ40では、CPU43は、ロボット1の発話内容を表す音声信号S5を各無線受信機42A〜42Dを介してヘッドセット41に送信すると共に、各電波通信機42A〜42Dについて測定した電波強度に基づいて、部屋RM内におけるロボット1の位置を特定した後にその位置情報(以下、これを自己位置情報と呼ぶ)を表す位置信号S3を各電波通信機42A〜42Dを介してロボット1に送信する。
これにより遠隔対話システム45においては、ユーザは装着しているヘッドセット41の外部スピーカ41Aを通じてロボット1の発話内容を音声として聞き取ることができる一方、ロボット1は無線管理コンピュータ40から各電波通信機42A〜42Dを介して受信した位置信号S3の自己位置情報に基づいて、部屋RM内における自己の位置を特定して、上述した音源位置情報と相俟ってロボット1から見たユーザとの相対位置を認識することができる。
なお、無線管理コンピュータ40は、ロボット1の現在位置を定期的(例えば1分ごと)に測定しながら、ユーザからヘッドセット41の外部マイク41Bを用いて発話内容を表す電波を受信したとき、当該ヘッドセット41の現在位置を測定すると共に現在記憶しているロボット1の現在位置を読み出すことにより、ロボット1から見たユーザとの相対位置を認識するようにしても良い。
すなわち無線管理コンピュータ40のCPU43は、図6に示す音源位置特定処理手順RT1をステップSP0において開始し、続くステップSP1においてロボット1からの各種電波(発話内容も含む)を受信するのを待った後、受信した場合のみステップSP2に進んで、当該受信した電波強度に基づいてロボット1の現在位置を特定して、自己位置情報をハードディスク装置46に格納する。
続いてCPU43は、ヘッドユニット41の外部マイク41Bからの電波を受信するのを待った後、受信した場合のみステップSP4に進んで、当該受信した電波強度に基づいてヘッドユニット41を装着しているユーザの現在位置を特定して、音源位置情報をハードディスク装置46に格納する。
この後、CPU43は、ステップSP5に進んで、自己位置情報及び音源位置情報をハードディスク装置46から読み出して、これを無線通信を介して(上述の場合には自己位置情報を表す位置信号S3及び音源位置情報を付加した音声信号S1として)ロボット1に送信した後、再度ステップSP1に戻ってロボット1からの次の電波を受けるときまで待つ。
このようにしてロボット1は、定期的に自己の電波を無線管理コンピュータ40に送信しておけば、ヘッドユニット41の外部マイク41Bから発話内容を表す電波が発信されたときに、常にヘッドユニット41に対する自己の現在位置を認識することができる。
(3)ロボット1のソフトウェア構成
図7は、ROM33(図2)に格納された制御プログラム群により構成されるロボット1の行動制御システム50の機能構成を模式的に示したものである。
この行動制御システム50は、オブジェクト指向プログラミングを採り入れて実装されている。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行うことができる。
ここで行動制御システム50は、CCDカメラ20(図2)、内蔵マイク(マイクロホン)21(図2)及びタッチセンサ22(図2)などの各種センサからのセンサ出力に基づいて外部環境を認識するための画像認識部51、音声認識部52及び接触認識部53を有している。
画像認識部51は、CCDカメラ20から与えられる画像信号S4に基づいて顔認識や色認識などの画像認識処理や特徴抽出を実行する。そして画像認識部51は、かかる顔認識結果であるその人物に固有の顔ID(識別子)、顔画像領域の位置及び大きさといった顔認識情報や、色認識結果である色領域の位置や大きさ及び特徴量といった色認識情報などの各種画像認識結果と、画像信号S4とを短期記憶部55に送出する。また画像認識部51は、CCDカメラ20からの画像信号S4に基づいて、いわゆるステレオビジョン法によって撮像対象までの距離を検出し、検出結果を短期記憶部55に送出する。
音声認識部52の前段には入力選択部54が設けられ、当該入力選択部54は、通常はデフォルトとして内蔵マイク21から与えられる音声信号S5を音声認識部52に供給するが、上述したヘッドセット41の外部マイク41Bから音声信号S1が与えられたときには、当該外部マイク41Bからの音声信号S1を優先して音声認識部52に供給するように入力を切り替える。
かかる入力選択部54は、外部から何らかの音声信号を受信すると、図8に示す音声信号選択処理手順RT2をステップSP10において開始し、続くステップSP11においてデフォルト設定された既定のマイク(本実施の形態では内蔵マイク21)と同じマイクからの入力であるか否かを判断し、肯定結果が得られた場合のみステップSP12に進む。
このステップSP12において、入力選択部54は、既定のマイクよりも優先度が高いマイク(本実施の形態では外部マイク41B)からの入力であるか否かを判断し、肯定結果が得られた場合のみステップSP13に進んで、入力の既定値をその優先度の高いマイクからの入力に設定変更した後にステップSP14に進んで当該音声信号選択処理手順RT2を終了する。一方、上述したステップSP11及びSP12において否定結果が得られた場合には、入力選択部54は何もすることなくそのままステップSP14に進んで当該処理手順を終了する。
この音声認識部52は、入力選択部54を介して内蔵マイク21から与えられる音声信号S5を受け取ると、当該音声信号S5に基づいて音声認識や話者認識、音源方向認識などの各種音に関する認識処理を実行する。そして音声認識部52は、かかる音声認識結果である認識した単語の文字列情報と、音響的特徴等に基づく話者認識処理結果であるその話者に固有の話者ID情報と、音源方向認識結果である音源方向情報となどの各種音声認識結果を短期記憶部55に送出する。また音声認識部52は、これら各種音声認識結果と併せて、これら音声信号S5を短期記憶部55に送出する。
また音声認識部52は、入力選択部54を介してヘッドセット41の外部マイク41Bから与えられる音声信号S1を受け取ると、当該音声信号S1に基づいて音声認識や話者認識などの各種音に関する認識処理を実行すると共に、当該音声信号S1から抽出した音源位置情報を短期記憶部55に送出する。また音声認識部52は、これら各種音声認識結果と併せて、これら音声信号S1を短期記憶部55に送出する。
さらに接触認識部53は、頭部ユニット4(図1)の上部や腕部ユニット5A、5B(図1)の先端部である手、脚部ユニット7A、7B(図1)の底部である足底等に配設されたタッチセンサ22からそれぞれ与えられる圧力検出信号S6に基づいて「撫でられた」、「叩かれた」、「物を把持した」、「足裏面が接地した」という外部との物理的な接触を認識し、得られたこれら接触認識結果を短期記憶部55に送出する。また接触認識部44は、これら接触認識結果と併せて、各タッチセンサ22からの圧力検出信号S6を短期記憶部55に送出する。
短期記憶部55は、ロボット1の外部環境に関する情報を比較的短い時間だけ保持するオブジェクトであり、画像認識部51から与えられる各種画像認識結果及び画像信号S4と、音声認識部52から与えられる各種音声認識結果、音源位置情報及び音声信号S5、S1と、接触認識部53から与えられる各種接触認識結果及び圧力検出信号S6とを受け取り、これらを短期間だけ記憶する。
また行動制御システム50では、ロボット1が自己の発話内容に応じた電波をリアルタイムで又は直前に発信した結果、外部の無線管理コンピュータ40から折り返して自己位置情報を表す位置信号S3が与えられ、当該位置信号S3を短期記憶部55に短期間だけ記憶するようになされている。
また短期記憶部55は、これら受け取った画像認識結果、音声認識結果及び接触認識結果と、画像信号S4、音声信号S5、S1、音源位置情報、自己位置情報及び各圧力検出信号S6とを統合的に用いて顔画像領域、人物ID、話者ID及び文字列情報等の対応付けを行うことにより、現在どこにどの人物がいて、発した言葉がどの人物のものであり、その人物とはこれまでにどのような対話を行ったかというターゲット情報及びイベント情報を生成し、これを行動選択制御部56に送出する。
行動選択制御部56は、短期記憶部55から与えられるターゲット情報及びイベント情報と、短期記憶部55の記憶内容とに基づいて、予め複数用意されている行動の中からロボット1が現在置かれている状況及び以前の行動に依存して選択した行動(状況依存行動)や、外部刺激に応じた反射的な行動(反射行動)、又は与えられた状況若しくはユーザからの命令に応じた比較的長期に渡る行動計画に基づく行動(熟考行動)などを次のロボット1の行動として決定する。そして行動選択制御部56は、このようにして決定した行動を出力管理部57に通知する。
出力管理部57は、行動選択制御部56からの通知に応じて、状況依存行動及び反射行動などの複数の行動が競合した場合の調停処理や、動作、音声及びLED24の点滅の同期をとる処理を行いながら、対応する駆動ユニット25〜25のモータ26〜26を駆動したり、LED24を所定パターンで点滅駆動させる。
また行動選択制御部56は、次の行動としてユーザとの対話を決定した場合には、この後音声認識部52により短期記憶部55に順次格納されるユーザの発話の音声認識結果を常時監視し、この音声認識結果に基づいて、ロボット1に発話させるべき内容を順次決定する。
そして行動選択制御部56は、この決定結果に基づいて必要な発話内容を予めROM33(図3)に格納されたデータベース(図示せず)から読み出し、これを出力管理部57に送出する。このとき出力管理部57は、行動選択制御部56から与えられる発話内容を表す音声信号S7又はS2を出力選択部58に送出する。
出力管理部57の後段には出力選択部58が設けられ、当該出力選択部58は、上述した入力選択部と連動して切替制御を行うようになされ、入力選択部54が内蔵マイク21からの入力を選択した場合には内蔵スピーカ23から音声信号S7を出力するように切り替える一方、入力選択部が外部マイク41Bからの入力を選択した場合には出力選択部58においても外部スピーカ41Aから音声信号S2を出力するように切り替える。
このようにしてこのロボット1においては、CCDカメラ20、内蔵マイク21及びタッチセンサ23などの各種センサのセンサ出力に基づき認識される外部状況等に基づいて自律的に行動し得るようになされている。さらにロボット1は、必要に応じて外部に設けられた無線管理コンピュータ40(図3)及びこれに付随する各電波通信機42A〜42Dを介してヘッドセット41を装着したユーザとの間で互いに居場所を認識しながら対話し得るようになされている。
(4)ロボットにおける遠隔対話制御機能
次に、このロボット1に搭載された遠隔対話制御機能について説明する。
このロボット1には、このロボット1には、対話相手との間に距離が長い場合や、比較的短くてもその間に環境のノイズや反響等の影響を受け易い場合には、内蔵スピーカ23から出力した自己の発話内容を対話相手に伝達するのが困難となったり、逆に対話相手からの発話内容を内蔵マイク21では聞き取り困難となるおそれがあることから、無線通信を介して対話相手であるユーザとの間で対話し、かつロボット1やユーザの現在位置を特定する遠隔対話制御機能も搭載されている。
実際上、このロボット1の場合、ヘッドセット41を装着したユーザと無線通信を介して互いの位置を確認しながら対話制御する手段として、行動制御システム50には、上述した入力選択部54及び出力選択部58が設けられている。因みに、これら入力選択部54及び出力選択部58は、CPU31(図3)により構成されるものである。
ここで行動制御システム50において、ユーザが装着するヘッドセット41の外部マイク41Bから無線管理コンピュータ40(図3)及びこれに付随する各電波通信機42A〜42Dを用いた無線通信を介して音声信号S1が供給されると、図9に示す遠隔対話制御処理手順RT3をステップSP20から開始し、入力選択部54において優先的に当該音声信号S1を音声認識部52に供給する(ステップSP21)。
このとき音声認識部52は、音声信号S1に基づく音声認識処理を行うと共に、当該音声信号S1から抽出した音源位置情報に基づくヘッドセット41の位置認識処理を行った後、これら音源位置情報及び音声認識結果を短期記憶部55に記憶保持させる(ステップSP22)。
また行動制御システム50においては、ロボット1が自己の発話内容をリアルタイムで又は直前に電波として発信すると、当該電波が各電波通信機42A〜42Dをアンテナとして無線管理コンピュータ40に与えられ、この無線管理コンピュータ40において各電波通信機42A〜42Dについて測定した電波強度に基づいてロボット1自体の位置を特定した後にその自己位置情報を表す位置信号S3を各電波通信機42A〜42Dを介して再度ロボット1に送信する。この結果、行動制御システム50は、かかるロボット1の自己位置情報を短期記憶部55に記憶保持させる。
続いて行動選択制御部56は、短期記憶部55に記憶保持された音声認識結果に基づいてユーザの発話内容を認識すると共に、当該短期記憶部55に記憶保持された音源位置情報及び自己位置情報に基づいて、ロボット1から見たヘッドセット41を装着しているユーザの相対位置を認識する(ステップSP23及びSP24)。これに対して外部マイク41Bではなく内蔵マイク21により音声信号S5を受信した場合には、当該音声信号S5に基づいて直接音源方向を認識する(ステップSP23及びSP25)。
行動選択制御部56は、ユーザの発話内容及び位置に基づいて、必要な発話内容を決定した後、出力管理部57を介して当該発話内容を表す音声信号S2として出力すると共に、ロボット1の目に相当するCCDカメラ20を装着しているユーザの方向に向けるような行動を決定した後、出力管理部58を介して、頭部ユニット4をユーザの居る方向に振り向かせるように当該頭部ユニット4に対応する駆動ユニット25〜25を駆動制御させる(ステップSP26)。
このとき出力選択部58は、入力選択部54と連動して切替制御を行い、入力選択部54において外部マイク41Bからの入力が優先されていることから、外部スピーカ41Aから音声信号S2を出力するように切り替える(ステップSP27及びSP28)。
このようにしてこのロボット1においては、ユーザの発話内容をヘッドセット41を用いた無線通信を介して音声として認識することができる一方、当該ヘッドセット41の位置と自己の位置とを特定するようにして、ロボット1から見たユーザとの相対位置を認識することができるようになされている。
(5)具体的な状況設定
(5−1)第1の状況設定
上述した図4に示すような部屋の中において、ユーザがソファに座ってテレビを観ており、そのテレビの傍らにロボット1が立っている状態において、ユーザがロボット1に向かってテレビ番組の内容について質問しようと思って話しかけてみるが、ロボット1との距離が遠く離れている上にテレビの音声がノイズとなってロボット1から何も反応がない状況が想定される。
このときユーザがヘッドセット41を装着して外部マイク41Bをオン状態にして「ねえ、ロボット1君」と話しかけると、無線管理コンピュータ40は、各電波通信機42A〜42Dの受信結果に基づいて、ヘッドセット41の位置である音源位置情報をその発話内容を表す音声信号S1に付加してロボット1に送信する。
ロボット1は、ヘッドセット41から無線管理コンピュータ40を介して送信される音声信号S1から音源位置情報を抽出してユーザの位置を認識すると共に、当該音声信号S1に基づく発話内容を認識することができる。そしてロボット1は、その応答として「なんですか?」という発話内容を表す音声信号S2を送信すると、無線管理コンピュータ40は、各電波通信機42A〜42Dの受信結果に基づいて、ロボット1の位置である自己位置情報を表す位置信号S3をロボット1に送信すると共に、当該音声信号S2に基づく発話内容をヘッドセット41の外部スピーカ41Aを介して放音させる。
この結果、ロボット1は、自己から見たヘッドセット41との相対位置を認識することができることから、ユーザの顔が見えない場合でも、ヘッドユニットの存在からユーザの位置を仮定してその方向に振り向くことができる。
続いてユーザはヘッドセット41の外部マイク41Bを用いて、「この番組の後に何があるの?」とロボット1に質問すると、ロボット1は、現在時刻及び現在選択されているテレビチャンネルを見ながら、予めネットワーク等を介して入手しておいた電子番組表を不揮発性メモリ34から読み出して、当該電子番組表を参照する。
その結果ロボット1は、次の番組に応じた番組内容を確認して、「プロ野球中継だよ」という発話内容を表す音声信号S2を送信することにより、ユーザは当該音声信号S2に基づく発話内容をヘッドセット41の外部スピーカ41Aを介して聞くことができる。
さらにユーザが外部マイク41Bを用いて「こっちに来て」という要求を出したとき、ロボット1は、その外部マイク41Bの位置を認識していることから、その位置に向かって歩行動作することができる。そして歩いている途中でヘッドセット41の近くに人間の顔を認識することができれば、その人物が自分の対話相手と認識することができる。
なおロボット1がユーザにある程度まで近づいてきたら、ユーザは外部マイク41Bをオフ状態にしても、ロボット1は、ユーザの発話内容を内蔵マイク21を用いて聞き取ることができる。またユーザは外部マイク41Bを使用したままロボット1に対して話しかけるようにしても良い。いずれにしても、ロボット1はユーザの顔を認識しているため、そのユーザに対して視線を外すことなく対話することができ、さらに外部マイク41Bを使用しなくても、ロボット1の内蔵スピーカ23又はヘッドセット41の外部スピーカ41Aを選択的に切り替えて、適切に応答内容をユーザに伝達することができる。
(5−2)第2の状況設定
ユーザがロボット1の位置を認識していない状態で、ヘッドセット41の外部マイク41Bを使用して、ロボット1に対して「こっちに来て」と話しかけると、無線管理コンピュータ40は、各電波通信機42A〜42Dの受信結果に基づいて、ヘッドセット41の位置である音源位置情報をその発話内容を表す音声信号S1に付加してロボット1に送信する。
ロボット1は、ヘッドセット41から無線管理コンピュータ40を介して送信される音声信号S1から音源位置情報を抽出してユーザの位置を認識すると共に、当該音声信号S1に基づく発話内容を認識することができる。
そしてロボット1は、その応答内容を表す音声信号S2を送信するようにして、無線管理コンピュータ40から自己の位置である自己位置情報を表す位置信号S3を受信すると、自己から見たヘッドセット41との相対位置を認識することができることから、ユーザのいる位置まで歩行動作することができる。そのときロボット1は、移動中にも、現在速度とユーザとの距離に基づいて、「あと1分ほどかかるよ」などの発話をユーザに対して出力することができる。
(5−3)第3の状況設定
ある部屋内において、人物Aと一緒にいるロボット1に対して、その部屋とは別の部屋にいる人物Bがヘッドセット41の外部マイク41Bを用いて話しかける。例えば人物Bがその部屋に人物Aさんが居るか否かを知るために「Aさんは部屋にいますか?」という問い合わせをすると、無線管理コンピュータ40は、各電波通信機42A〜42Dの受信結果に基づいて、その発話内容を表す音声信号S1をロボット1に送信する。
ロボット1は、ヘッドセット41から送信される音声信号S1に基づく発話内容を認識して、人物Aの顔を画像認識した結果、人物Aの存在を確認すると、その答えである「いる」という発話内容を表す音声信号S2を送信することにより、無線管理コンピュータ40を介してヘッドセット41の外部スピーカ41Aから発話内容を放音させることができる。
その際、ロボット1は天井方向を向きながら内蔵スピーカ23を介して「いる」と発話する。すると人物Aは何が起こったのかわからないのでロボット1に「どうしたの?」と質問すると、ロボット1は「今Aさんがいる?って聞かれたから答えたよ」と、内蔵スピーカ23から出力する。
(6)本実施の形態による動作及び効果
以上の構成において、この遠隔対話システム45では、ユーザがヘッドセット41の外部マイク41Bを用いて発話すると、ロボット1は、その発話内容を無線通信を介して音声として認識することができると共に、当該ヘッドセット41の位置を認識することができる。
その際、ロボット1は、リアルタイムで又は直前に自己の位置を特定することにより、当該自己の位置とヘッドセット41との位置とに基づいて、ロボット1から見たユーザとの相対位置を認識することができる。
従って、ロボット1は、ユーザとの距離が離れるにつれて、ユーザの発話内容が環境のノイズや反響等の影響を受けて聞き取り難い場合でも、ユーザの現在位置を認識しながらユーザとスムーズにかつ自然にインタラクティブな対話をすることができる。
以上の構成によれば、この遠隔対話システム45において、無線管理コンピュータ40を用いてユーザが装着しているヘッドセット41及びロボット1間において双方の発話内容を互いに送受信すると共に、ロボット1自身に自己の位置から見たヘッドセット41の相対位置を認識させるようにしたことにより、ロボット1がユーザの現在位置を認識しながらユーザとスムーズにかつ自然にインタラクティブな対話をすることができ、かくして対話制御機能を有するロボットのエンターテインメント性を向上させ得る遠隔対話システム45を実現できる。
(7)他の実施の形態
なお上述の実施の形態においては、本発明を図4のようなユーザの発話内容を入力するための外部マイク(外部マイク機器)41Bを用いて、当該発話内容を無線通信を介してユーザとの対話機能を有するロボット1に送信するようになされた遠隔対話システム(対話制御システム)45に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成の装置に広く適用することができる。また本発明のロボット装置を図1〜図3のようなヒューマノイド型のロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成の装置に広く適用することができる。
また上述の実施の形態においては、外部マイク(外部マイク機器)41Bから入力される発話内容を表す音声情報をロボット1に送信する送信手段として、無線管理コンピュータ40及びこれに付随する複数の無線通信機42A〜42D(図3及び図4)を適用するようにした場合について述べたが、本発明はこれに限らず、無線通信機の数は3個以下又は5個以上でも良く、この他種々の構成のものを適用するようにしても良い。また
さらに上述の実施の形態においては、ロボット1では、送信される音声信号(音声情報)S1を受信する無線通信インターフェース(受信手段)36と、ロボット1に組み込まれた内蔵マイク(内蔵マイク機器)21から入力した音声内容に代えて又は当該音声内容と共に、CPU31及び無線通信インターフェース36からなる受信手段から受信した音声信号(音声情報)S1に基づく発話内容を認識するCPU31(特に音声認識部52)からなる音声認識手段とを設けるようにした場合について述べたが、本発明はこれに限らず、要は、ロボット1がユーザとスムーズにかつ自然にインタラクティブな対話をすることができれば、これ以外にも種々の構成に広く適用するようにしても良い。
さらに上述の実施の形態においては、CPU31及び無線通信インターフェース36からなる受信手段は、外部マイク(外部マイク機器)41Bを常に内蔵マイク21より優先させるようにした場合について述べたが、本発明はこれに限らず、複数の外部マイク(外部マイク機器)41Bに優先度を設定しておき、送信手段から送信された複数の音声信号(音声情報)S1を受信したとき、各外部マイク(外部マイク機器)41Bのうち優先度の高い外部マイク(外部マイク機器)41Bからの音声情報を選択するようにしても良い。この結果、ロボット1は、優先度に応じた外部マイク(外部マイク機器)41Bから入力された発話内容を自動的に選択して聞き取ることができる。
さらに上述の実施の形態においては、外部マイク(外部マイク機器)41Bから入力される発話内容を表す音声信号(音声情報)S1に基づいて、当該外部マイク(外部マイク機器)41Bの位置を測定する位置測定手段と、外部マイク(外部マイク機器)41Bの位置を表す音源位置情報(第1の位置情報)を音声信号(音声情報)S1と共にロボット1に送信する送信手段とを、無線管理コンピュータ40及びこれに付随する複数の無線通信機42A〜42D(図3及び図4)から構成するようにした場合について述べたが、本発明はこれに限らず、要は、外部マイク(外部マイク機器)41Bからの出力に基づいてその位置を特定することができれば、この他種々の構成のものを適用するようにしても良い。
なお本実施の形態では、外部マイク(外部マイク機器)41Bを、ヘッドセット41の一部として設けられたものを適用したが、ヘッドセット41の外部スピーカ41Aと別体に設けるようにしても良い。
さらに上述の実施の形態においては、ロボット1に設けられ、送信される音源位置情報(第1の位置情報)に基づいて、外部マイク(外部マイク機器)41Bの位置を認識する位置認識手段をCPU31(特に行動選択部56)から構成するようにした場合について述べたが、本発明これに限らず、この他種々の構成のものに広く適用するようにしても良い。
さらに上述の実施の形態においては、位置測定手段としての無線管理コンピュータ40及びこれに付随する複数の無線通信機42A〜42D(図3及び図4)は、ロボット1から必要に応じて発信される電波に基づいて、当該ロボット1の位置を測定した後、ロボット1の位置を表す自己位置情報(第2の位置情報)を当該ロボット1に送信し、ロボット1のCPU(位置認識手段)31は、音源位置情報(第1の位置情報)及び自己位置情報(第2の位置情報)に基づいて、当該ロボット1の位置から見た外部マイク(外部マイク機器)41Bの相対位置を認識するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成のものに広く適用するようにしても良い。
本発明は、エンターテインメントロボットの他、対話機能を有する他の用途のロボット装置やロボット装置以外の他の機器に広く適用することができる。
本実施の形態によるロボットの外観構成を示す斜視図である。 本実施の形態によるロボットの内部構成を示すブロック図である。 制御ユニットの構成を示すブロック図である。 本実施の形態による遠隔対話システムの具体的構成を示す略線図である。 無線管理コンピュータの構成を示すブロック図である。 音源位置特定処理手順を示すフローチャートである。 本実施の形態によるロボットの行動制御システムの具体的構成を示すブロック図である。 音声信号選択処理手順を示すフローチャートである。 遠隔対話制御処理手順を示すフローチャートである。
符号の説明
1……ロボット、21……内蔵マイク、23……内蔵スピーカ、31……CPU、36……無線通信インターフェース、40……無線管理コンピュータ、41……ヘッドセット、41A……外部スピーカ、41B……外部マイク、42A〜42D……電波通信機、50……行動制御システム、52……音声認識部、54……入力選択部、55……短期記憶部、56……行動選択制御部、58……出力選択部、S1、S2、S5……音声信号、S3……位置信号、RT1……音源位置特定処理手順、RT2……音声信号選択処理手順、RT3……遠隔対話制御処理手順。

Claims (11)

  1. ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介して上記ユーザとの対話機能を有するロボットに送信するようになされた対話制御システムにおいて、
    上記外部マイク機器から入力される上記発話内容を表す音声情報を上記ロボットに送信する送信手段
    を具え、
    上記ロボットは、
    上記送信手段から送信される上記音声情報を受信する受信手段と、
    上記ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、上記受信手段から受信した上記音声情報に基づく上記発話内容を認識する音声認識手段と
    を具えることを特徴とする対話制御システム。
  2. 上記受信手段は、
    複数の上記外部マイク機器に優先度を設定しておき、
    上記送信手段から送信された複数の上記音声情報を受信したとき、各上記外部マイク機器のうち上記優先度の高い上記外部マイク機器からの上記音声情報を選択する
    ことを特徴とする請求項1に記載の対話制御システム。
  3. 上記外部マイク機器から入力される上記発話内容を表す音声情報に基づいて、当該外部マイク機器の位置を測定する位置測定手段と、
    上記外部マイク機器の位置を表す第1の位置情報を上記音声情報と共に上記ロボットに送信する送信手段と
    を具え、
    上記ロボットは、
    上記送信手段から送信される上記第1の位置情報に基づいて、上記外部マイク機器の位置を認識する位置認識手段を有する
    ことを特徴とする請求項1に記載の対話制御システム。
  4. 上記位置測定手段は、上記ロボットから必要に応じて発信される電波に基づいて、当該ロボットの位置を測定し、
    上記送信手段は、上記ロボットの位置を表す第2の位置情報を当該ロボットに送信し、
    上記ロボットの上記位置認識手段は、
    上記送信手段から送信される上記第1及び第2の位置情報に基づいて、当該ロボットの位置から見た上記外部マイク機器の相対位置を認識する
    ことを特徴とする請求項3に記載の対話制御システム。
  5. ユーザの発話内容を入力するための外部マイク機器を用いて、当該発話内容を無線通信を介して上記ユーザとの対話機能を有するロボットに送信するようになされた対話制御方法において、
    上記外部マイク機器から入力される上記発話内容を表す音声情報を上記ロボットに送信する第1のステップと、
    送信される上記音声情報を上記ロボットにおいて受信する第2のステップと、
    上記ロボットに組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、上記受信手段から受信した上記音声情報に基づく上記発話内容を認識する第3のステップと
    を具えることを特徴とする対話制御方法。
  6. 上記第2のステップでは、
    複数の上記外部マイク機器に優先度を設定しておき、
    送信された複数の上記音声情報を受信したとき、各上記外部マイク機器のうち上記優先度の高い上記外部マイク機器からの上記音声情報を選択する
    ことを特徴とする請求項5に記載の対話制御方法。
  7. 上記第1のステップでは、
    上記外部マイク機器から入力される上記発話内容を表す音声情報に基づいて、当該外部マイク機器の位置を測定した後、上記外部マイク機器の位置を表す第1の位置情報を上記音声情報と共に上記ロボットに送信し、
    上記第2のステップでは、
    送信される上記第1の位置情報に基づいて、上記外部マイク機器の位置を認識する
    ことを特徴とする請求項5に記載の対話制御方法。
  8. 上記第1のステップでは、
    上記ロボットから必要に応じて発信される電波に基づいて、上記ロボットの位置を測定した後、上記ロボットの位置を表す第2の位置情報を当該ロボットに送信し、
    上記第2のステップでは、
    送信される上記第1及び第2の位置情報に基づいて、当該ロボットの位置から見た上記外部マイク機器の相対位置を認識する
    ことを特徴とする請求項7に記載の対話制御方法。
  9. ユーザとの対話機能を有するロボット装置において、
    無線通信を介して送信される上記ユーザの発話内容を受信する受信手段と、
    上記ロボット装置に組み込まれた内蔵マイク機器から入力した音声内容に代えて又は当該音声内容と共に、上記受信手段から受信した上記音声情報に基づく上記発話内容を認識する音声認識手段と
    を具えることを特徴とするロボット装置。
  10. 上記受信手段は、
    複数の上記外部マイク機器に優先度を設定しておき、
    上記送信手段から送信された複数の上記音声情報を受信したとき、各上記外部マイク機器のうち上記優先度の高い上記外部マイク機器からの上記音声情報を選択する
    ことを特徴とする請求項9に記載のロボット装置。
  11. 上記受信手段により受信した上記ユーザの位置を表す第1の位置情報に基づいて、上記外部マイク機器の位置を認識する位置認識手段
    を具えることを特徴とする請求項9に記載のロボット装置。
JP2004007305A 2004-01-14 2004-01-14 対話制御システム及びその方法並びにロボット装置 Pending JP2005202075A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004007305A JP2005202075A (ja) 2004-01-14 2004-01-14 対話制御システム及びその方法並びにロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004007305A JP2005202075A (ja) 2004-01-14 2004-01-14 対話制御システム及びその方法並びにロボット装置

Publications (1)

Publication Number Publication Date
JP2005202075A true JP2005202075A (ja) 2005-07-28

Family

ID=34820993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004007305A Pending JP2005202075A (ja) 2004-01-14 2004-01-14 対話制御システム及びその方法並びにロボット装置

Country Status (1)

Country Link
JP (1) JP2005202075A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP2007241157A (ja) * 2006-03-13 2007-09-20 Nec Access Technica Ltd 雑音除去機能を有する音声入力装置および方法
JP2008040075A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp ロボット装置及びロボット装置の制御方法
WO2009031486A1 (ja) * 2007-09-06 2009-03-12 Olympus Corporation ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2015144398A (ja) * 2014-01-31 2015-08-06 シャープ株式会社 発話制御装置、発話装置、発話制御システム、発話制御方法、発話装置の制御方法、および制御プログラム
CN105489219A (zh) * 2016-01-06 2016-04-13 广州零号软件科技有限公司 室内空间服务机器人分布式语音识别***与产品
CN106023988A (zh) * 2016-02-29 2016-10-12 深圳前海勇艺达机器人有限公司 一种用终端发送语音控制命令的方法
CN109719738A (zh) * 2017-10-30 2019-05-07 索尼公司 信息处理装置、信息处理方法以及程序
WO2021104085A1 (zh) * 2019-11-29 2021-06-03 中国科学院深圳先进技术研究院 语音交互控制器、***以及机器人

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP2007241157A (ja) * 2006-03-13 2007-09-20 Nec Access Technica Ltd 雑音除去機能を有する音声入力装置および方法
JP4536020B2 (ja) * 2006-03-13 2010-09-01 Necアクセステクニカ株式会社 雑音除去機能を有する音声入力装置および方法
JP2008040075A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp ロボット装置及びロボット装置の制御方法
WO2009031486A1 (ja) * 2007-09-06 2009-03-12 Olympus Corporation ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2015144398A (ja) * 2014-01-31 2015-08-06 シャープ株式会社 発話制御装置、発話装置、発話制御システム、発話制御方法、発話装置の制御方法、および制御プログラム
CN105489219A (zh) * 2016-01-06 2016-04-13 广州零号软件科技有限公司 室内空间服务机器人分布式语音识别***与产品
CN106023988A (zh) * 2016-02-29 2016-10-12 深圳前海勇艺达机器人有限公司 一种用终端发送语音控制命令的方法
CN109719738A (zh) * 2017-10-30 2019-05-07 索尼公司 信息处理装置、信息处理方法以及程序
WO2019087484A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019087484A1 (ja) * 2017-10-30 2020-11-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7173031B2 (ja) 2017-10-30 2022-11-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11709476B2 (en) 2017-10-30 2023-07-25 Sony Corporation Information processing apparatus, information processing method and program
WO2021104085A1 (zh) * 2019-11-29 2021-06-03 中国科学院深圳先进技术研究院 语音交互控制器、***以及机器人

Similar Documents

Publication Publication Date Title
JP4048492B2 (ja) 音声対話装置及び方法並びにロボット装置
JP5429462B2 (ja) コミュニケーションロボット
US7987091B2 (en) Dialog control device and method, and robot device
US7519537B2 (en) Method and apparatus for a verbo-manual gesture interface
JP7400923B2 (ja) 情報処理装置および情報処理方法
CN106328132A (zh) 一种智能设备的语音交互控制方法和装置
JP5070441B2 (ja) ロボット遠隔操作システム
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
US20190389075A1 (en) Robot system and robot dialogue method
US20230266767A1 (en) Information processing apparatus, information processing method, and program
CN111002303B (zh) 识别装置、机器人、识别方法和存储介质
JP2024023193A (ja) 情報処理装置及び情報処理方法
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2005202075A (ja) 対話制御システム及びその方法並びにロボット装置
JP7102169B2 (ja) 装置、ロボット、方法、及びプログラム
JP2005202076A (ja) 発話制御装置及び方並びにロボット装置
JP4617428B2 (ja) 動作生成システム
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP2005059186A (ja) ロボット装置及びその制御方法
KR100901483B1 (ko) 네트워크 기반의 로봇용 음성 처리 방법 및 시스템
JP5610283B2 (ja) 外部機器制御装置、その外部機器制御方法及びプログラム
CN210488288U (zh) 一种控制机器人用的头部传感控制装置
CN107708013B (zh) 一种基于vr技术的沉浸式体验耳机***
US10398374B2 (en) Manual operation assistance with earpiece with 3D sound cues
CN110824989A (zh) 一种控制机器人用的头部传感控制装置