JP2005202076A - 発話制御装置及び方並びにロボット装置 - Google Patents

発話制御装置及び方並びにロボット装置 Download PDF

Info

Publication number
JP2005202076A
JP2005202076A JP2004007306A JP2004007306A JP2005202076A JP 2005202076 A JP2005202076 A JP 2005202076A JP 2004007306 A JP2004007306 A JP 2004007306A JP 2004007306 A JP2004007306 A JP 2004007306A JP 2005202076 A JP2005202076 A JP 2005202076A
Authority
JP
Japan
Prior art keywords
utterance
user
character string
volume
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004007306A
Other languages
English (en)
Inventor
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004007306A priority Critical patent/JP2005202076A/ja
Publication of JP2005202076A publication Critical patent/JP2005202076A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】
機器又はロボット装置から対話相手までの距離によっては、機器又はロボット装置の発話が対話相手に聞き取り難い場合があった。
【解決手段】
機器又はロボット装置とユーザと間の距離に応じて、ユーザとの対話時における機器又はロボット装置の発話形態を必要に応じて変更させるようにしたことにより、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができ、かくしてエンターテインメント性を向上させ得る発話制御装置及び方法並びにロボット装置を実現できる。
【選択図】 図13

Description

本発明は、発話制御装置及び方法並びにロボット装置に関し、例えばインターテインメイントロボットに適用して好適なものである。
近年、多くの企業や大学等の研究機関においてヒューマノイド型ロボットの開発が進められている。かかるヒューマノイド型ロボットは、CCD(Charge Coupled Device)カメラ、マイクロホン及びタッチセンサ等の外部センサと、バッテリセンサ及び加速度センサ等の内部センサとが搭載され、これら外部センサ及び内部センサの出力に基づいて外部及び内部の状態を認識し、認識結果に基づいて自律的に行動し得るようになされたものである(例えば非特許文献1参照)。
また近年では、音声認識機能及び対話制御機能が搭載され、ユーザとの間で簡単な日常会話を行い得るようになされたエンターテインメントロボットも多く見受けられるようになってきた。
特願2003−270835
ところで、かかる音声認識及び対話制御機能が搭載された従来のロボットでは、ロボットとユーザとの物理的な距離にかかわりなく、常に予め設定された一定の発話音量でユーザと対話するように構築されている。
このため発話音量の設定によっては、ロボットの近くにいるユーザにとっては適切であったとしても、ロボットから少し離れた場所にいるユーザにとっては音が小さ過ぎて発話内容が聞き取り難かったり、逆にロボットから少し離れた場所にいるユーザにとっては適切であったとしても、ロボットの近くにいるユーザにとっては音が大き過ぎて発話内容が聞き取り難い場合がある問題があった。
かかる問題点を解決するための1つの方法として、スイッチ操作によりエンターテインメントロボットの発話音量を自在に変更し得るようにすることも考えられる。しかしながらこの方法によると、ユーザとロボットとのインタラクションの自然性が損なわれる問題があり、さらに発話音量の設定をその都度行わなければならないとすることは、ユーザにとって不便極まりない問題がある。
また残響が多い部屋など、周囲の環境を考慮した場合、単にロボットの発話音量を上げるだけでは、ロボットから離れた場所にいるユーザに対して常にロボットの発話を聞き取り易くさせ得ることになるとは限らない。
そしてこのようにロボットの発話内容がユーザに聞き取り難いという状況は、ユーザとロボットとのスムーズかつ自然な対話を阻害する要因となって、対話制御機能を有するロボットのエンターテインメント性を損なうものであり、何らかの解決策が望まれる。
本発明は以上の点を考慮してなされたもので、対話制御機能を有するロボットのエンターテインメント性を向上させ得る発話制御装置及び方法並びにロボット装置を提案しようとするものである。
かかる課題を解決するため本発明においては、機器とユーザとの対話時における当該機器の発話を制御する発話制御装置において、機器及びユーザ間の距離に応じて、ユーザとの対話時における機器の発話形態を必要に応じて変更させる発話形態変更手段を設けるようにした。
この結果この発話制御装置は、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができる。
また本発明においては、機器とユーザとの対話時における当該機器の発話を制御する発話制御方法において、機器及びユーザ間の距離に応じて、ユーザとの対話時における機器の発話形態を必要に応じて変更するようにした。
この結果この発話制御方法によれば、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができる。
さらに本発明においては、ロボット装置において、ユーザまでの距離に応じて、ユーザとの対話時における発話形態を必要に応じて変更する発話形態変更手段を設けるようにした。
この結果このロボット装置は、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができる。
本発明によれば、機器とユーザとの対話時における当該機器の発話を制御する発話制御装置及び方法において、機器及びユーザ間の距離に応じて、ユーザとの対話時における機器の発話形態を必要に応じて変更させるようにしたことにより、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができ、かくしてエンターテインメント性を向上させ得る発話制御装置及び方法を実現できる。
また本発明によれば、ロボット装置において、ユーザまでの距離に応じて、ユーザとの対話時における発話形態を必要に応じて変更する発話形態変更手段を設けるようにしたことにより、常にユーザに聞き取り易い発話形態で発話することができるため、ユーザとスムーズな対話を行うことができ、かくしてエンターテインメント性を向上させ得るロボット装置を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態によるロボットの構成
(1−1)ロボット1のハードウェア構成
図1において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首関節3を介して頭部ユニット4が取り付けられると共に、当該胴体部ユニット2の左右上部にそれぞれ肩関節4A、4Bを介して腕部ユニット5A、5Bが取り付けられ、かつ胴体部ユニット2の下部にそれぞれ股関節6A、6Bを介して一対の脚部ユニット7A、7Bが取り付けられることにより構成されている。
図2は、このロボット1の機能構成を模式的に示したものである。この図2に示すように、ロボット1は、全体の動作の統括的制御やその他のデータ処理を行う制御ユニット10と、入出力部11と、駆動部12と、電源部13とで構成される。
入出力部11は、入力部としてロボット1の目に相当する一対のCCD(Charge Coupled Device)カメラ20や、耳に相当する一対のマイクロホン21、頭部や手及び足裏などの部位に配設されてユーザからの物理的な働きかけや、手と外部物体との接触、足裏面の接地等を感知するタッチセンサ22、あるいは五感に相当するその他の各種のセンサを含む。
また入出力部11は、出力部としてロボット1の口に相当するスピーカ23、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLED(目ランプ)24などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット1からのユーザ・フィードバックを表現することができる。
駆動部12は、制御ユニット10が指令する所定の運動パターンに従ってロボット1の機体動作を実現する機能ブロックであり、行動制御による制御対象物である。駆動部12は、ロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた複数の駆動ユニット25〜25で構成される。各駆動ユニット25〜25は、所定軸回りの回転動作を行うモータ26〜26と、モータ26〜26の回転位置を検出するエンコーダ27〜27と、エンコーダ27〜27の出力に基づいてモータ26〜26の回転位置や回転速度を適応的に制御するドライバ28〜28の組み合わせで構成される。
電源部13は、その字句通り、ロボット1内に各電気回路などに対して給電を行う機能モジュールである。本実施の形態に係るロボット1は、バッテリを用いた自律駆動式であり、電源部13は、充電バッテリ29と、充電バッテリ30の充放電状態を管理する充放電制御部31とで構成される。
充電バッテリ29は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。
また、充放電制御部30は、バッテリ29の端子電圧や充電/放電電流量、バッテリ29の周囲温度などを測定することでバッテリ29の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部30が決定する充電の開始及び終了時期は制御ユニット10に通知され、ロボット1が充電オペレーションを開始及び終了するためのトリガとなる。
制御ユニット10は、ロボット1の「頭脳」に相当し、例えば頭部ユニット4又は胴体部ユニット2内に搭載されている。この制御ユニット10は、図3に示すように、メイン・コントローラとしてのCPU(Central Processing Unit)31が、メモリやその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス37は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス37上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU31は、アドレスを指定することによってバス37上の特定の装置と通信することができる。
RAM(Read Access Memory)32は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU31が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存のために使用される。
ROM(Read Only Memory)33は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM33に格納されるプログラム・コードには、ロボット1の電源投入時に実行する自己診断テスト・プログラムや、ロボット1の動作を規定する制御プログラムなどが挙げられる。
ロボット1の制御プログラムには、CCDカメラ20やマイクロホン21などの各種センサからの入力を処理してシンボルとして認識する「センサ入力・認識処理プログラム」、短期記憶などの記憶動作を司りながらセンサ入力と所定の行動制御モデルとに基づいてロボット1の行動を制御する「行動制御プログラム」、行動制御モデルに従って各関節モータの駆動やスピーカ22の音声出力などを制御する「駆動制御プログラム」などが含まれる。
不揮発性メモリ34は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、暗記鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラムなどが挙げられる。
インターフェース35は、制御ユニット10外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース35は、例えば、入出力部11内のCCDカメラ20やマイクロホン21及びスピーカ22との間でデータ入出力を行う。また、インターフェース35は、駆動部12内の各ドライバ28〜28との間でデータやコマンドの入出力を行う。
また、インターフェース35は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and Electronics Engineers )1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface )インターフェース、PCカードやメモリ・スティックを受容するメモリ・カードインターフェース(カードスロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行い得るようにしてもよい。また、インターフェース35の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行うようにしてもよい。
さらに、制御ユニット10は、無線通信インターフェース36やネットワーク・インターフェース・カード(NIC)38などを含み、Bluetoothのような近接無線データ通信や、IEEE802.11bのような無線ネットワーク、あるいはインターネットなどの高域ネットワークを経由して、外部のさまざまなホスト・コンピュータとデータ通信を行うことができる。
このようなロボット1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、ロボット1の複雑な動作制御を演算したり、リモート・コントロールすることができる。
(1−2)ロボット1のソフトウェア構成
図4は、ROMに格納された制御プログラム群により構成されるロボット1の行動制御システム40の機能構成を模式的に示したものである。
この行動制御システム40は、オブジェクト指向プログラミングを採り入れて実装されている。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行うことができる。
ここで行動制御システム40は、CCDカメラ20(図2)、マイクロホン21(図2)及びタッチセンサ22(図2)などの各種センサからのセンサ出力に基づいて外部環境を認識するための画像認識部41、音声認識部42及び接触認識部43を有している。
画像認識部41は、CCDカメラ20から与えられる画像信号S1に基づいて顔認識や色認識などの画像認識処理や特徴抽出を実行する。そして画像認識部41は、かかる顔認識結果であるその人物に固有の顔ID(識別子)、顔画像領域の位置及び大きさといった顔認識情報や、色認識結果である色領域の位置や大きさ及び特徴量といった色認識情報などの各種画像認識結果と、画像信号S1とを短期記憶部44に送出する。また画像認識部41は、CCDカメラカメラ20からの画像信号S1に基づいて、いわゆるステレオビジョン法によって撮像対象までの距離を検出し、検出結果を短期記憶部44に送出する。
音声認識部42は、マイクロホン21から与えられる音声信号S2に基づいて音声認識や話者認識、音源方向認識などの各種音に関する認識処理を実行する。そして音声認識部42は、かかる音声認識結果である認識した単語の文字列情報と、音響的特徴等に基づく話者認識処理結果であるその話者に固有の話者ID情報と、音源方向認識結果である音源方向情報となどの各種音声認識結果を短期記憶部44に送出する。また音声認識部42は、これら各種音声認識結果と併せて、これら音声信号S2を短期記憶部44に送出する。
さらに接触認識部43は、頭部ユニット4(図1)の上部や腕部ユニット5A、5B(図1)の先端部である手、脚部ユニット7A、7B(図1)の底部である足底等に配設されたタッチセンサ22からそれぞれ与えられる圧力検出信号S3に基づいて「撫でられた」、「叩かれた」、「物を把持した」、「足裏面が接地した」という外部との物理的な接触を認識し、得られたこれら接触認識結果を短期記憶部44に送出する。また接触認識部44は、これら接触認識結果と併せて、各タッチセンサ22からの圧力検出信号S3を短期記憶部44に送出する。
短期記憶部44は、ロボット1の外部環境に関する情報を比較的短い時間だけ保持するオブジェクトであり、画像認識部41から与えられる各種画像認識結果及び画像信号S1と、音声認識部42から与えられる各種音声認識結果及び音声信号S2と、接触認識部43から与えられる各種接触認識結果及び圧力検出信号S3とを受け取り、これらを短期間だけ記憶する。
また短期記憶部44は、これら受け取った画像認識結果、音声認識結果及び接触認識結果と、画像信号S1、音声信号S2及び各圧力検出信号S3とを統合的に用いて顔画像領域、人物ID、話者ID及び文字列情報等の対応付けを行うことにより、現在どこにどの人物がいて、発した言葉がどの人物のものであり、その人物とはこれまでにどのような対話を行ったかというターゲット情報及びイベント情報を生成し、これを行動選択制御部45に送出する。
行動選択制御部45は、短期記憶部44から与えられるターゲット情報及びイベント情報と、短期記憶部44の記憶内容とに基づいて、予め複数用意されている行動の中からロボット1が現在置かれている状況及び以前の行動に依存して選択した行動(状況依存行動)や、外部刺激に応じた反射的な行動(反射行動)、又は与えられた状況若しくはユーザからの命令に応じた比較的長期に渡る行動計画に基づく行動(熟考行動)などを次のロボット1の行動として決定する。そして行動選択制御部45は、このようにして決定した行動を出力管理部46に通知する。
出力管理部46は、行動選択制御部45からの通知に応じて、状況依存行動及び反射行動などの複数の行動が競合した場合の調停処理や、動作、音声及びLED24の点滅の同期をとる処理を行いながら、対応する駆動ユニット25〜25のモータ26〜26を駆動したり、LED24を所定パターンで点滅駆動させる。
また行動選択制御部45は、次の行動としてユーザとの対話を決定した場合には、この後音声認識部42により短期記憶部44に順次格納されるユーザの発話の音声認識結果を常時監視し、この音声認識結果に基づいて、ロボット1に発話させるべき内容を順次決定する。そして行動選択制御部45は、この決定結果に基づいて必要な文字列を予めROM33(図3)に格納された発話文字列データベース47から読み出し、これを出力管理部46に送出する。
このとき出力管理部46は、行動選択制御部45から与えられる文字列を音声合成部48に送出する一方、音声合成部48は、供給される文字列に基づいて合成音声の音声信号S4を生成し、これをスピーカ23(図2)に送出する。この結果この音声信号S4に基づく音声がスピーカ23から出力される。
このようにしてこのロボット1においては、CCDカメラ20、マイクロホン21及びタッチセンサ23などの各種センサのセンサ出力に基づき認識される外部状況等に基づいて自律的に行動し得るようになされている。
(2)ロボット1における発話制御機能
次に、このロボット1に搭載された発話制御機能について説明する。
このロボット1には、対話相手までの物理的な距離に応じて、発話音量や、発話スピード、イントネーション及び文節間の間などの発話形態を制御する発話制御機能が搭載されている。またこのロボット1には、このような発話形態のうちの特に発話音量に関する感じ方の個人差が大きいことを考慮して、ユーザからの要求に応じて基準とすべき発話音量(以下、これを基準音量と呼ぶ)をユーザごとに変更する発話制御機能も搭載されている。
実際上、このロボット1の場合、基準音量をユーザごとに変更する発話制御を行うための手段として、行動制御システム40には、ユーザごとの基準音量を記憶保持するための基準音量記憶部49が設けられている。因みに、この基準音量記憶部49は、不揮発性メモリ34(図3)により構成されるものである。
そして行動選択制御部45は、画像認識処理部41の画像認識結果に基づいて短期記憶部44が新たなユーザを検出するごとに、図5に示すように、そのユーザの人物IDと当該ユーザに対する基準音量(初期設定値は「3」)とを対応付けて、これら人物ID及び基準音量を基準音量記憶部49に格納する一方、この後そのユーザとの対話時に図6に示す基準音量変更処理手順RT1に従って、基準音量記憶部49に記憶保持されたそのユーザの基準音量を必要に応じて変更するようになされている。
すなわち行動選択制御部45は、ユーザとの対話を開始するとこの基準音量変更処理手順RT1をステップSP0において開始し、続くステップSP1において、「もう少し大きな声で話して」又は「聞こえない」などといった、ロボットの発話音量を上げることを要求する意味合いの言葉や、「もう少し小さな声で話して」又は「うるさい」などといった、ロボットの発話音量を下げることを要求する意味合いの言葉が与えられるのを待ち受ける。
そして行動選択制御部45は、この後上述のようなロボット1の発話音量を上げ又は下げることを要求する意味合いの言葉がユーザから発せられたことを短期記憶部44に記憶保持された音声認識部42の音声認識結果に基づいて認識すると、ステップSP2に進んで、短期記憶部44から与えられるターゲット情報及びイベント情報に基づいて、その言葉が現在の対話相手から発せられたものであるとの特定ができているか否かを判断する。
行動選択制御部45は、このステップSP2において否定結果を得るとステップSP1に戻り、これに対して肯定結果を得るとステップSP3に進んで、基準音量記憶部49に記憶保持されたそのユーザの基準音量を、そのユーザが発した言葉の意味内容に応じて、発話音量を上げることを要求する意味合いの言葉であった場合には規定値(例えば「1」)だけ上げ、これに対して発話音量を下げることを要求する意味合いの言葉であった場合には規定値だけ下げる。なお、音量の数値はロボット1の発話音量の音量レベルの大小を表すものであり、数値が大きくなるほど大きな所定の音量レベルがそれぞれ対応付けられている。
そして行動選択制御部45は、その後ステップSP1に戻り、この後ステップSP1〜ステップSP3について同様の処理を繰り返す。このようにして行動選択制御部45は、ユーザからの発話音量の変更要求に応じて、ユーザごとに基準音量を変更する。
一方、このロボット1では、対話相手までの物理的な距離に応じて、意味内容の区切りがはっきりと分かるように文節間の間を変更するための手法として、必要に応じて各文節の後ろに「ね」を入れるように発話制御を行うようになされ、そのための手段として行動制御システム45に発話文字列変形部51が設けられている。
この場合、発話文字列変形部51は、図7に示すように、対話相手までの距離に対して各文節の後ろに「ね」を入れるように文字列を変形するか否かを規定した文字列変形判断テーブル50をROM33(図3)に記憶保持している。
そして行動選択制御部45は、ユーザとの対話時、ロボット1が発話すべき内容(言葉)に対応した文字列を発話文字列データベース47から読み出し、これを文字列情報として発話文字列変形部51に順次送出する一方、これと併せて短期記憶部44に記憶保持された画像認識部41により検出された対話相手までの距離を表す距離情報を発話文字列変形部51に送出する。
発話文字列変形部51は、行動選択制御部45から文字列及び距離情報が与えられると、当該距離情報及び文字列変形判断テーブル50に基づき、図8に示す文字変形処理手順RT2に従って、その文字列情報に基づく文字列を変形すべきか否かを判断し、必要時にはこの文字列を変形する。
すなわち発話文字列変形部49は、行動選択制御部45から文字列情報及び距離情報が与えられると、この文字列変形処理手順RT2をステップSP10において開始し、続くステップSP11において行動選択制御部45からの距離情報に基づき認識される対話相手までの距離と、文字列変形判断テーブル50(図7)とに基づいて、この文字列情報に基づく文字列を変形すべきか否かを判断する。
具体的に発話文字列変形部49は、文字列変形判断テーブル50に従って、画像認識部41が認識した対話相手までの距離が350〔cm〕未満である場合には文字列を変形すべきでないと判断し、これに対して対話相手までの距離が350〔cm〕以上である場合には文字列を変形すべきと判断する。
発話文字列変形部49は、この判断結果としてこのステップSP11において否定結果を得ると、その文字列に対して変形処理を施すことなくステップSP14に進んでこの文字列変形処理手順RT2を終了し、この後この文字列の文字列情報をそのまま行動選択制御部45、出力管理部46を順次介して音声合成部48に送出する。
これに対して発話文字列変形部49は、ステップSP11において肯定結果を得ると、ステップSP12に進んでその文字列に対して形態素解析処理を行ってその文字列に含まれる各文節末助動詞をそれぞれ検出する。
さらに発話文字列変形部49は、この後ステップSP13に進んで、ステップSP12において検出したこれら文節末助動詞の後ろに順次「ね」の文字を付加する。従って、発話文字列変形部49は、例えば行動選択制御部45から「今日の東京の天気は晴れだよ」という文字列を与えられた場合、「今日の」、「東京の」及び「天気は」という各文節末助動詞の後ろにそれぞれ「ね」の文字を付加した「今日のね、東京のね、天気はね、晴れだよ」といった文字列を生成することとなる。
そして発話文字列変形部49は、この後ステップSP14に進んでこの文字列変形処理手順RT2を終了し、この後このようにして得られた変形した新たな文字列を表す文字列情報を行動選択制御部45、出力管理部46を順次介して音声合成部48に送出する。
このとき音声合成部48は、図9に示すように、対話相手までの距離に対するロボット1の発話音量の変更量を規定した音量変更量規定テーブル52と、図10に示すように、当該距離に対するロボット1の発話スピードの変更量を規定したスピード変更量規定テーブル53と、図11に示すように、当該距離に対する文節間の間(ポーズ長)の変更量を規定したポーズ長変更量規定テーブル54と、図12に示すように、当該距離に対して発話のイントネーションを変えて文節末を強調するか否かを規定した文節末強調判断テーブル55とをROM33(図3)に記憶保持している。また音声合成部48には、短期記憶部44からそのときの対話相手の人物IDが人物ID情報として与えられる一方、当該対話相手までの距離が距離情報として順次与えられる。
そして音声合成部48は、出力管理部46を介してロボット1が発話すべき内容の文字列情報が与えられると、短期記憶部44から与えられる人物ID情報及び距離情報と、ROM33に格納された各テーブル52〜55と、基準音量記憶部49に記憶保持されたそのユーザの基準音量とに基づき、図13に示す発話変更処理手順RT3に従って、ロボット1の発話音量や、発話スピード等を必要に応じて変更する。
すなわち音声合成部48は、かかる文字列情報が与えられるとこの文字列変形処理手順RT3をステップSP20において開始し、続くステップSP21において、短期記憶部44から与えられた人物ID情報に基づいて、基準音量記憶部49から対応する対話相手の基準音量を読み出し、この後ステップSP22に進んで距離情報から認識される対話相手までの距離に基づき、音量変更量規定テーブル52(図9)を参照して、ロボット1の発話音量を規定する音量パラメータのパラメータ値を必要に応じて変更する。
具体的に音声合成部48は、距離情報として与えられた対話相手までの距離が例えば50〔cm〕未満である場合には、基準音量記憶部49から読み出した基準音量をそのときの発話音量として決定し、対話相手までの距離が50〜80〔cm〕の範囲である場合には、基準音量よりも所定の規定値(例えば「1」)だけ大きい音量をそのときの発話音量として決定し、以降同様にして、当該ユーザまでの距離が80〜150〔cm〕、150〜250〔cm〕又は250〔cm〕以上の場合には、それぞれ基準音量よりも「2」、「3」又は「5」だけ大きい音量をそのときの発話音量として決定する。そして音声合成部48は、この後この決定結果に応じて音量パラメータのパラメータ値を必要に応じて変更する。
続いて音声合成部48は、ステップSP23に進んで、ステップSP22において上述のように決定した音量が予め設定された閾値を超えたか否かを判断する。
すなわちロボット1の発話音量には一定の限界があるため、例えば基準音量が既に限界値やこれに近い値に設定されている場合には、ステップSP22において音量を決定する際に、そのユーザとの距離に応じて本来的には発話音量をもっと大きな音量に決定すべき場合においてもできないことがある。そしてこのような場合、かかるユーザにとって、ロボット1の発話の内容が聞き取り難く感じられるおそれがある。
そこで音声合成部48は、このステップSP23において肯定結果を得た場合には、ステップSP24〜ステップSP26において発話音量以外の発話スピード等の他の発話形態について通常の変更処理を行い、これに対してステップSP23において否定結果を得た場合には、ステップSP27〜ステップSP29においてかかる他の発話形態について特殊な変更処理を行うようになされている。
実際上、音声合成部48は、ステップSP23において肯定結果を得ると、ステップSP24に進んで、短期記憶部44から与えられる距離情報により認識される対話相手までの距離に基づき、ROM33に格納されたスピード変更量規定テーブル53(図10)を参照して、ロボット1の発話スピードを規定するスピードパラメータのパラメータ値を必要に応じて変更する。
具体的に音声合成部48は、距離情報として与えられた対話相手までの距離が例えば200〔cm〕未満である場合には、予め定められた所定の初期設定値を発話時のスピードとして決定し、対話相手までの距離が200〜350〔cm〕の範囲である場合には、初期設定値よりも20〔%〕だけ遅いスピードをそのときの発話スピードとして決定し、対話相手までの距離が350〔cm〕以上の場合には、初期設定値よりも50〔%〕だけ遅いスピードをそのときの発話スピードとして決定する。そして音声合成部48は、この後この決定結果に応じてスピードパラメータのパラメータ値を必要に応じて変更する。
続いて音声合成部48は、ステップSP25に進んで、短期記憶部44から与えられる距離情報により認識される対話相手までの距離に基づき、ROM33に格納されたポーズ長変更量規定テーブル54(図11)を参照して、その文字列を発話する際の文節間の間の長さ(ポーズ長)を規定するポーズ長パラメータを必要に応じて変更する。
具体的に音声合成部48は、距離情報として与えられた対話相手までの距離が例えば100〔cm〕未満である場合には、予めポーズ長の初期設定値として定められた値をそのときのポーズ長として決定し、対話相手までの距離が100〜350〔cm〕の範囲である場合には、初期設定値よりも30〔%〕だけ長い時間をそのときのポーズ長として決定し、対話相手までの距離が350〔cm〕以上の場合には、初期設定値よりも60〔%〕だけ長い時間をそのときのポーズ長として決定する。そして音声合成部48は、この後この決定結果に応じてポーズ長パラメータのパラメータ値を必要に応じて変更する。
次いで音声合成部48は、ステップSP26に進んで、短期記憶部44から与えられる距離情報により認識される対話相手までの距離に基づき、ROM33に格納された文節末強調判断テーブル55(図12)を参照して、その文字列の内容を発話する際に各文節末を強調するイントネーションとなるように、対応するパラメータである文節末強調パラメータのパラメータ値を必要に応じて変更する。
具体的に音声合成部48は、距離情報として与えられた対話相手までの距離が例えば200〔cm〕未満である場合には、その文字列を音声として発話する際に各文節末を変化させないことを決定し、対話相手までの距離が200〔cm〕以上の場合には各文節末をそれぞれ上げることを決定する。そして音声合成部48は、この後この決定結果に応じて文節末強調パラメータのパラメータ値を必要に応じて変更する。
これに対して音声合成部48は、ステップSP23において否定結果を得ると、ステップSP27に進んで、短期記憶部44から与えられる距離情報により認識される対話相手までの距離にかかわりなく、ロボット1の発話スピードを、常に、スピード変更量規定テーブル53(図10)において最大距離に対して規定されている発話スピードに決定する。従って、この実施の形態においては、発話スピードとして初期設定値よりも50〔%〕だけ遅いスピードがそのときの発話スピードとして決定される。そして音声合成部48は、この後この決定結果に応じてスピードパラメータのパラメータ値を必要に応じて変更する。
続いて音声合成部48は、ステップSP28に進んで、ロボット1の発話時のポーズ長を、常に、ポーズ長変更量規定テーブル54(図11)において最大距離に対して規定されている発話スピードに決定する。従って、この実施の形態においては、ポーズ長として初期設定値よりも60〔%〕だけ長い時間がそのときの発話スピードとして決定される。そして音声合成部48は、この後この決定結果に応じてポーズ長パラメータのパラメータ値を必要に応じて変更する。
次いで音声合成部48は、ステップSP29に進んで、その文字列の内容を発話する際における文節末強調判断パラメータを、常に、文節末強調判断テーブル55(図12)において最大距離に対して規定された状態に決定する。従って、この実施の形態においては、常に各文節末を強調すべき旨が決定される。そして音声合成部48は、この後この決定結果に応じて文節末強調パラメータのパラメータ値を文節末を強調するように必要に応じて変更する。
そして音声合成部48は、このようにして音量パラメータやスピードパラメータ等の各種パラメータを設定し終えると、ステップSP30に進んで、与えられた文字列情報に基づく文字列に応じた音声波形を生成すると共に、この音声波形を上述のようにして設定した音量パラメータ、スピードパラメータ、ポーズ長パラメータ及び文節末強調パラメータに応じて変形し、かくして得られた音声波形の音声信号S4をスピーカ23に送出する。
このようにしてこのロボット1においては、対話相手までの物理的な距離に応じて発話音量や、発話スピード、イントネーション及び発話時の間などの発話形態を制御する一方、さらに発話音量についてはユーザごとに制御することにより、常に対話相手に聞き取り易い発話を行い得るようになされている。
(3)本実施の形態の動作及び効果
以上の構成において、このロボット1は、対話相手のユーザが離れた場所にいるほど、より大きな音量で、よりゆっくりと、文節間により大きな間を開けて発話する一方、そのユーザまでの距離によっては、さらに文節末を強調するようなイントネーションで発話したり、各文節の後ろに「ね」という言葉を挿入して発話する。
従って、このロボット1は、対話相手のユーザまでの距離にかかわりなく常にユーザに聞き取り易い発話音量で発話することができることは無論のこと、例えば対話場所が残響が多い部屋などである場合においても、常にユーザに聞き取り易い発話を行うことができ、この結果としてユーザとスムーズかつ自然な音量での対話を行うことができる。
この場合において、このロボット1では、かかる発話音量の基準音量をユーザからの要求に応じてユーザごとに変更するため、対話相手のユーザの聴覚特性に応じた適切な音量で各ユーザと対話を行うことができ、その分ユーザに不快感を与えることなく、より一層とユーザとスムーズな対話を行うことができる。
以上の構成によれば、対話相手までの物理的な距離に応じて発話音量や、発話スピード、イントネーション及び発話時の間などの発話形態を制御するようにしたことにより、常にユーザに聞き取り易い発話形態で発話を行うことができる。かくするにつきユーザとスムーズ対話を行うことができ、かくしてエンターテインメント性を向上させ得るロボットを実現できる。
(4)他の実施の形態
なお上述の実施の形態においては、本発明をヒューマノイド型のロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この種々の形態のロボット装置及びロボット装置以外の対話機能を有する種々の形態の機器に広く適用することができる。
また上述の実施の形態においては、対話相手までの距離に応じて発話音量、発話スピード、イントネーション及び発話時の間を変更するようにした場合について述べたが、本発明はこれに限らず、これら発話形態のうちの一部のみを変更し又はこれら発話形態に加えて他の発話形態をも変更するようにしても良い。
この場合において、上述の実施の形態においては、ロボット1がイントネーションを変更する際に各文節末を強めるようなイントネーションで発話するようにした場合について述べたが、本発明はこれに限らず、文節末以外の例えば助詞を強調するようにイントネーションを変更するようにしても良い。
さらに上述の実施の形態においては、対話相手までの距離に応じて発話音量、発話スピード、イントネーション及び発話時の間を段階的に変更するようにした場合について述べたが、本発明はこれに限らず、これらを対話相手までの距離に応じて関数式を用いた演算等により連続的に変更するようにしても良い。この場合において例えばイントネーション(各文節末の強調)の変更については、対話相手までの距離に応じて各文節末の強調の程度を連続的に変化させるようにすれば良い。また各文節末の後ろに「ね」を挿入することによる対話時の間については、全ての文節末の後ろに挿入するのではなく、対話相手までの距離に応じて段階的に「ね」を挿入する文節末の数を変化させるようにしても良い。なお、文節間の間を稼ぐために各文節末の後ろに挿入する言葉としては「ね」以外の言葉を適用できることは言うまでもない。
さらに上述の実施の形態においては、対話相手のユーザまでの距離を検出する距離検出手段を、一対のCCDカメラ20と、その出力に基づきステレオビジョン法により当該距離を検出する短期記憶部44とにより構成するようにした場合について述べたが、本発明はこれに限らず、例えば距離センサなどの他の手段を広く適用することができる。
さらに上述の実施の形態においては、対話相手のユーザまでの距離に応じて、当該ユーザとの対話時におけるロボット1の発話形態を必要に応じて変更させる発話形態変更手段としての機能を、発話文字列変形部51及び音声合成部48に分散させるようにした場合について述べたが、本発明はこれに限らず、かかる全ての機能を音声合成部48に搭載するようにしても良い。
さらに上述の実施の形態においては、対話相手のユーザを特定するユーザ特定手段としての機能を短期記憶部44にもたせるようにした場合について述べたが、本発明はこれに限らず、かかる機能を行動選択制御部45にもたせるようにしても良い。
本発明は、エンターテインメントロボットのほか、対話機能を有する他の用途のロボット装置やロボット装置以外の他の機器に広く適用することができる。
本実施の形態によるロボットの外観構成を示す斜視図である。 本実施の形態によるロボットの内部構成を示すブロック図である。 制御ユニットの構成を示すブロック図である。 本実施の形態によるロボットの行動制御システムの具体的構成を示すブロック図である。 基準音量記憶部に記憶保持されたユーザごとの基準音量の説明に供する概念図である。 基準音量変更処理手順を示すフローチャートである。 文字列変形判断テーブルを示す概念図である。 文字列変形処理手順を示すフローチャートである。 音量変更量テーブルを示す概念図である。 スピード変更量テーブルを示す概念図である。 ポーズ長変更量テーブルを示す概念図である。 文節末強調判断テーブルを示す概念図である。 発話変更処理手順を示すフローチャートである。
符号の説明
1……ロボット、40……行動制御システム、41……画像認識部、42……音声認識部、44……短期記憶部、45……行動選択制御部、47……発話文字列データベース、48……音声合成部、49……基準音量記憶部、50……文字列変形判断テーブル、51……発話文字列変形部、52……音量変更量テーブル、53……スピード変更量テーブル、54……ポーズ長変更量テーブル、55……文節末強調判断テーブル、S1……画像信号、S2、S4……音声信号、RT1……基準音量変更処理手段、RT2……文字列変形処理手順、RT3……発話変更処理手順。

Claims (24)

  1. ユーザとの対話機能を有する機器と上記ユーザとの対話時における当該機器の発話を制御する発話制御装置において、
    上記機器及び対話相手の上記ユーザ間の距離を検出する距離検出手段と、
    上記距離検出手段により検出された上記機器及び上記ユーザ間の上記距離に応じて、上記ユーザとの対話時における上記機器の発話形態を必要に応じて変更させる発話形態変更手段と
    を具えることを特徴とする発話制御装置。
  2. 上記発話形態変更手段は、
    上記発話形態として、発話音量を変更する
    ことを特徴とする請求項1に記載の発話制御装置。
  3. 上記発話形態変更手段は、
    上記発話形態として、発話スピードを変更する
    ことを特徴とする請求項1に記載の発話制御装置。
  4. 上記発話形態変更手段は、
    上記発話形態として、発話のイントネーションを変更する
    ことを特徴とする請求項1に記載の発話制御装置。
  5. 上記発話形態変更手段は、
    上記発話形態として、文節間の間を変更する
    ことを特徴とする請求項1に記載の発話制御装置。
  6. 上記機器が発話すべき内容に応じた文字列を出力する文字列出力手段と、
    上記文字列に応じた合成音声の音声信号を生成する音声手段と、
    上記音声信号に基づく音声を出力するスピーカと
    を具え、
    上記発話形態変更手段は、
    上記文節間の間を変更する手法として、上記文字列出力手段から出力された上記文字列を変形する
    ことを特徴とする請求項5に記載の発話制御装置。
  7. 上記対話相手の上記ユーザを特定するユーザ特定手段と、
    上記ユーザごとの基準音量を記憶する記憶手段と、
    対話時における上記ユーザからの要求に応じて上記記憶手段に記憶された当該ユーザの上記基準音量を変更する基準音量変更手段と
    を具え、
    上記発話形態変更手段は、
    上記基準音量変更手段に記憶された上記対話相手の上記ユーザの上記基準音量を基準として、上記発話音量を変更する
    ことを特徴とする請求項2に記載の発話制御装置。
  8. 上記発話形態変更手段は、
    変更後の上記発話音量が所定の閾値を超える場合には、他の発話形態を最大量変更する
    ことを特徴とする請求項2に記載の発話制御装置。
  9. ユーザとの対話機能を有する機器と上記ユーザとの対話時における当該機器の発話を制御する発話制御方法において、
    上記機器及び対話相手の上記ユーザ間の距離を検出する第1のステップと、
    検出した上記機器及び上記ユーザ間の上記距離に応じて、上記ユーザとの対話時における上記機器の発話形態を必要に応じて変更する第2のステップと
    を具えることを特徴とする発話制御方法。
  10. 上記第2のステップでは、
    上記発話形態として、発話音量を変更する
    ことを特徴とする請求項9に記載の発話制御方法。
  11. 上記第2のステップでは、
    上記発話形態として、発話スピードを変更する
    ことを特徴とする請求項9に記載の発話制御方法。
  12. 上記第2のステップでは、
    上記発話形態として、発話のイントネーションを変更する
    ことを特徴とする請求項9に記載の発話制御方法。
  13. 上記第2のステップでは、
    上記発話形態として、文節間の間を変更する
    ことを特徴とする請求項9に記載の発話制御方法。
  14. 上記第2のステップは、
    上記機器が発話すべき内容に応じた文字列を出力する文字列出力ステップと、
    上記文字列に応じた合成音声の音声信号を生成する音声生成ステップと、
    上記音声信号に基づく音声を出力する音声出力ステップと
    を具え、
    上記音声生成ステップでは、
    上記発話のイントネーションを変更する手法として、出力した上記文字列を変形する
    ことを特徴とする請求項13に記載の発話制御方法。
  15. 上記ユーザごとの基準音量を記憶する記憶ステップと、
    対話相手の上記ユーザを特定するユーザ特定ステップと、
    対話時における上記ユーザからの要求に応じて記憶した当該ユーザの上記基準音量を変更する基準音量変更ステップと
    を具え、
    上記第2のステップでは、
    記憶した上記対話相手の上記ユーザの上記基準音量を基準として、上記発話音量を変更する
    ことを特徴とする請求項10に記載の発話制御方法。
  16. 上記第2のステップでは、
    変更後の上記発話音量が所定の閾値を超える場合には、他の発話形態を最大量変更する
    ことを特徴とする請求項10に記載の発話制御方法。
  17. ユーザとの対話機能を有するロボット装置において、
    対話相手の上記ユーザまでの距離を検出する距離検出手段と、
    上記距離検出手段により検出された上記ユーザまでの上記距離に応じて、上記ユーザとの対話時における発話形態を必要に応じて変更する発話形態変更手段と
    を具えることを特徴とするロボット装置。
  18. 上記発話形態変更手段は、
    上記発話形態として、発話音量を変更する
    ことを特徴とする請求項17に記載のロボット装置。
  19. 上記発話形態変更手段は、
    上記発話形態として、発話スピードを変更する
    ことを特徴とする請求項17に記載のロボット装置。
  20. 上記発話形態変更手段は、
    上記発話形態として、発話のイントネーションを変更する
    ことを特徴とする請求項17に記載のロボット装置。
  21. 上記ロボット装置が発話すべき内容に応じた文字列を出力する文字列出力手段と、
    上記文字列に応じた合成音声の音声信号を生成する音声手段と、
    上記音声信号に基づく音声を出力するスピーカと
    を具え、
    上記発話形態変更手段は、
    上記発話のイントネーションを変更する手法として、上記文字列出力手段から出力された上記文字列を変形する
    ことを特徴とする請求項20に記載のロボット装置。
  22. 上記発話形態変更手段は、
    上記発話形態として、文節間の間を変更する
    ことを特徴とする請求項17に記載のロボット装置。
  23. 上記対話相手の上記ユーザを特定するユーザ特定手段と、
    上記ユーザごとの基準音量を記憶する記憶手段と、
    対話時における上記ユーザからの要求に応じて上記記憶手段に記憶された当該ユーザの上記基準音量を変更する基準音量変更手段と
    を具え、
    上記発話形態変更手段は、
    上記基準音量変更手段に記憶された上記対話相手の上記ユーザの上記基準音量を基準として、上記発話音量を変更する
    ことを特徴とする請求項18に記載のロボット装置。
  24. 上記発話形態変更手段は、
    変更後の上記発話音量が所定の閾値を超える場合には、他の発話形態を最大量変更する
    ことを特徴とする請求項18に記載のロボット装置。
JP2004007306A 2004-01-14 2004-01-14 発話制御装置及び方並びにロボット装置 Pending JP2005202076A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004007306A JP2005202076A (ja) 2004-01-14 2004-01-14 発話制御装置及び方並びにロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004007306A JP2005202076A (ja) 2004-01-14 2004-01-14 発話制御装置及び方並びにロボット装置

Publications (1)

Publication Number Publication Date
JP2005202076A true JP2005202076A (ja) 2005-07-28

Family

ID=34820994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004007306A Pending JP2005202076A (ja) 2004-01-14 2004-01-14 発話制御装置及び方並びにロボット装置

Country Status (1)

Country Link
JP (1) JP2005202076A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551980B2 (en) * 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
JP2012232352A (ja) * 2011-04-28 2012-11-29 Advanced Telecommunication Research Institute International コミュニケーションロボット
US8381238B2 (en) 2010-06-02 2013-02-19 Sony Corporation Information processing apparatus, information processing method, and program
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
US8738371B2 (en) 2007-03-05 2014-05-27 Kabushiki Kaisha Toshiba User interactive apparatus and method, and computer program utilizing a direction detector with an electromagnetic transmitter for detecting viewing direction of a user wearing the transmitter
JP2014186421A (ja) * 2013-03-22 2014-10-02 Toyota Motor Corp コミュニケーションシステム及びロボット
WO2018034169A1 (ja) * 2016-08-17 2018-02-22 ソニー株式会社 対話制御装置および方法
US10062381B2 (en) 2015-09-18 2018-08-28 Samsung Electronics Co., Ltd Method and electronic device for providing content
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019168623A (ja) * 2018-03-26 2019-10-03 カシオ計算機株式会社 対話装置、ロボット、対話制御方法及びプログラム
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551980B2 (en) * 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
US8738371B2 (en) 2007-03-05 2014-05-27 Kabushiki Kaisha Toshiba User interactive apparatus and method, and computer program utilizing a direction detector with an electromagnetic transmitter for detecting viewing direction of a user wearing the transmitter
US8381238B2 (en) 2010-06-02 2013-02-19 Sony Corporation Information processing apparatus, information processing method, and program
JP2012232352A (ja) * 2011-04-28 2012-11-29 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2014186421A (ja) * 2013-03-22 2014-10-02 Toyota Motor Corp コミュニケーションシステム及びロボット
US10062381B2 (en) 2015-09-18 2018-08-28 Samsung Electronics Co., Ltd Method and electronic device for providing content
US11183170B2 (en) 2016-08-17 2021-11-23 Sony Corporation Interaction control apparatus and method
WO2018034169A1 (ja) * 2016-08-17 2018-02-22 ソニー株式会社 対話制御装置および方法
JP7036015B2 (ja) 2016-08-17 2022-03-15 ソニーグループ株式会社 対話制御装置および方法
JPWO2018034169A1 (ja) * 2016-08-17 2019-06-13 ソニー株式会社 対話制御装置および方法
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US10836041B2 (en) 2017-06-23 2020-11-17 Casio Computer Co., Ltd. More endearing robot, robot control method, and non-transitory recording medium
CN109108960B (zh) * 2017-06-23 2022-03-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019168623A (ja) * 2018-03-26 2019-10-03 カシオ計算機株式会社 対話装置、ロボット、対話制御方法及びプログラム
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置

Similar Documents

Publication Publication Date Title
JP4048492B2 (ja) 音声対話装置及び方法並びにロボット装置
US7987091B2 (en) Dialog control device and method, and robot device
EP3877975B1 (en) Electronic device and method for outputting a speech signal
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
WO2017215297A1 (zh) 云端互动***及其多感知型智能机器人和感知互动方法
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR20200031459A (ko) 감성 인식기 및 이를 포함하는 로봇, 서버
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
CN111002303B (zh) 识别装置、机器人、识别方法和存储介质
JP2005202076A (ja) 発話制御装置及び方並びにロボット装置
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6583815B2 (ja) アンドロイドロボットの制御システム、装置、プログラムおよび方法
WO2004084183A1 (ja) 音声対話装置及び方法並びにロボット装置
JP2005202075A (ja) 対話制御システム及びその方法並びにロボット装置
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP2005231012A (ja) ロボット装置及びその制御方法
JP2005059186A (ja) ロボット装置及びその制御方法
JP2003255990A (ja) 対話処理装置及び方法並びにロボット装置
US20070078563A1 (en) Interactive system and method for controlling an interactive system
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体