JP2003255991A - 対話制御システム、対話制御方法及びロボット装置 - Google Patents

対話制御システム、対話制御方法及びロボット装置

Info

Publication number
JP2003255991A
JP2003255991A JP2002060428A JP2002060428A JP2003255991A JP 2003255991 A JP2003255991 A JP 2003255991A JP 2002060428 A JP2002060428 A JP 2002060428A JP 2002060428 A JP2002060428 A JP 2002060428A JP 2003255991 A JP2003255991 A JP 2003255991A
Authority
JP
Japan
Prior art keywords
content
data
user
word
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002060428A
Other languages
English (en)
Inventor
Kazumi Aoyama
一美 青山
Hideki Shimomura
秀樹 下村
Keiichi Yamada
敬一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002060428A priority Critical patent/JP2003255991A/ja
Priority to US10/379,440 priority patent/US20030220796A1/en
Publication of JP2003255991A publication Critical patent/JP2003255991A/ja
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】本発明は、エンターテイメント性を向上させ得
る対話制御システム、対話制御方法及びロボット装置を
実現しようとするものである。 【解決手段】ロボット及び情報処理装置がネットワーク
を介して接続された対話制御システムにおいて、ロボッ
トとユーザとの間で言葉遊びによる対話をする際、ユー
ザの発話内容のうち言葉遊びに関する履歴データを生成
して情報処理装置に送信し、当該情報処理装置が記憶手
段から当該履歴データに基づいてユーザに最適な内容デ
ータを選択的に読み出して元のロボットに提供するよう
にした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は対話制御システム、
対話制御方法及びロボット装置に関し、例えばエンター
テイメントロボットに適用して好適なものである。
【0002】
【従来の技術】近年、一般家庭向けのエンターテイメン
トロボットが多くの企業等において開発され、商品化さ
れている。そしてこのようなエンターテイメントロボッ
トの中には、CCD(Charge Coupled Device)カメラ
やマイクロホン等の各種外部センサが搭載され、これら
外部センサの出力に基づいて外部状況を認識し、認識結
果に基づいて自律的に行動し得るようになされたものな
どもある。
【0003】かかるロボットとユーザとが音声による対
話を行う音声対話システムを構築する場合、例えばテレ
フォンショッピングの受け付けや、電話番号案内など、
あるタスクを達成することを目的とした音声対話システ
ムが考えられる。
【0004】
【発明が解決しようとする課題】ところが、ロボットと
人間が日常的に会話する場面を想定したとき、ロボット
は、タスク達成のための対話のほかに、雑談や言葉遊び
など、毎日会話しても飽きないような会話ができなけれ
ばならないのであるが、上述のようなタスクの遂行を目
的とする対話システムでは、システム内の電話番号リス
トやショッピングアイテムリストなどのデータが特定内
容に固定されているため、ロボットの会話に面白みを持
たせることができず、さらにはシステムを使用する個人
の好みに応じて当該システム内のデータを変更すること
もできなかった。
【0005】特に、ロボットと人間が日常的な会話とし
て、なぞなぞや山手線ゲーム(特定の事項に関連する内
容の言葉を互いに重複しないように順番に言い合う遊
び)等の言葉遊びによる対話を行う場合、ユーザを飽き
させないためには、ロボットは大量の対話内容(コンテ
ンツ)を表すデータ(以下、これをコンテンツデータと
呼ぶ)を保持する必要がある。
【0006】そこで近年では、インターネット上に分散
する各サーバ内の各種情報を相互に関連付けて検索可能
にした情報網であるWeb(すなわちWWW:World Wi
de Web)が、情報サービスとして幅広く利用されてお
り、かかるWebを利用して、大量のコンテンツを保有
するコンテンツサーバが、ロボットとの間で当該ロボッ
トが持つべきコンテンツデータのやり取りを行うことに
より、当該ロボットと対面するユーザが日常的な会話を
行うことができると考えられる。
【0007】かかるコンテンツサーバは、大量のコンテ
ンツデータを利用可能な全てのロボットが共有できるデ
ータベースに格納しており、必要に応じて当該データベ
ースから対応するコンテンツデータを読み出してネット
ワークを介してロボットに発話させ得るように構築され
ている。
【0008】しかし、実際にロボットとユーザとの間で
言葉遊びを行う際には、個々のユーザはそれぞれ好みや
難易度に対するスキルが多種多様であるため、該当する
ロボットがデータベースに格納されている大量のコンテ
ンツデータの中からランダムにコンテンツデータを取得
する手法では、全てのユーザのニーズに十分に応えられ
ないといった問題があった。
【0009】この問題を解決する一つの方法として、ユ
ーザの好みやレベルを表すプロファイル情報と、コンテ
ンツに付随する内容の分類情報とを、データベースに格
納しておき、コンテンツサーバがロボットからの要求に
応じてデータベースからユーザが所望するコンテンツデ
ータを取得するときに、プロファイル情報及び分類情報
に関連のあるコンテンツデータを選択するようにする方
法が考えられる。
【0010】ところが、なぞなぞや山手線ゲーム等の言
葉遊びを目的とする対話では、ロボットとユーザとの間
に、会話のリズムや面白さといったものが要求されるの
であるが、現在の音声認識処理の技術では、ユーザの発
話に対する認識間違いを避けることができず、ロボット
がいちいちユーザの発話内容を確認的に発するのでは、
ユーザとの会話が不自然な状態になってしまうおそれが
ある。
【0011】例えばロボットが「2回食べると元気にな
る食べ物なんだ?」というなぞなぞを出題したときに、
ユーザが「のり」と答えた場合、ロボットが「答えはのり
ですね」というように直接的な確認をする旨の発現をし
てしまうのは、会話の流れを止めると同時に面白みに欠
けてしまう。
【0012】これに対してロボットがユーザの発話内容
を無視して会話を続けるのでは、ユーザ自身が自分の発
話内容をロボットがどのように認識したのかを確認する
ことできず、会話中に不安感を与えるおそれがあった。
【0013】本発明は以上の点を考慮してなされたもの
で、エンターテイメント性を格段的に向上させ得る対話
制御システム、対話制御方法及びロボット装置を提案し
ようとするものである。
【0014】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット及び情報処理装置がネッ
トワークを介して接続された対話制御システムにおい
て、ロボットには、人間と対話するための機能を有し、
当該対話を通じて対象とするユーザの発話を認識する対
話手段と、対話手段によるユーザの発話内容のうち、言
葉遊びに関する履歴データを生成する生成手段と、生成
手段により生成された履歴データを、言葉遊びを通じて
得られるユーザの発言内容に応じて更新する更新手段
と、言葉遊びの開始の際には、履歴データをネットワー
クを介して情報処理装置に送信する通信手段とを設け、
また情報処理装置には、複数の言葉遊びの内容を表す内
容データを記憶する記憶手段と、通信手段を介して送信
された履歴データを検出する検出手段と、検出手段によ
って検出された履歴データに基づいて、記憶手段から内
容データを選択的に読み出してネットワークを介して元
のロボットに送信する通信制御手段とを設けるようにし
た。そしてロボットの対話手段は、情報処理装置の通信
制御手段から送信された内容データに基づく言葉遊びの
内容を出力するようにした。
【0015】この結果、この対話制御システムでは、ロ
ボットとユーザとの間で言葉遊びによる対話をする際、
ユーザの発話内容のうち言葉遊びに関する履歴データを
生成して情報処理装置に送信し、当該情報処理装置が記
憶手段から当該履歴データに基づいてユーザに最適な内
容データを選択的に読み出して元のロボットに提供する
ようにしたことにより、ユーザとの間でロボットの会話
に面白みやリズムを持たせることができ、あたかも人間
同士が会話しているかのごとく自然な日常会話に近づけ
ることができる。
【0016】また本発明においては、ロボット及び情報
処理装置がネットワークを介して接続された対話制御方
法において、ロボットでは、人間との対話を通じて対象
とするユーザの発話を認識し、当該ユーザの発話内容の
うち、言葉遊びに関する履歴データを生成し、当該生成
された履歴データを、言葉遊びを通じて得られるユーザ
の発言内容に応じて更新しながら、言葉遊びの開始の際
にはネットワークを介して情報処理装置に送信する第1
のステップと、情報処理装置では、予め記憶された複数
の言葉遊びの内容を表す内容データのうち、ロボットか
ら送信された履歴データに基づいて選択した内容データ
を読み出して、ネットワークを介して元のロボットに送
信する第2のステップと、ロボットでは、情報処理装置
から送信された内容データに基づく言葉遊びの内容を出
力する第3のステップとを設けるようにした。
【0017】この結果、この対話制御方法では、ロボッ
トとユーザとの間で言葉遊びによる対話をする際、ユー
ザの発話内容のうち言葉遊びに関する履歴データを生成
して情報処理装置に送信し、当該情報処理装置が履歴デ
ータに基づいてユーザに最適な内容データを複数の内容
データの中から選択的に読み出して元のロボットに提供
するようにしたことにより、ユーザとの間でロボットの
会話に面白みやリズムを持たせることができ、あたかも
人間同士が会話しているかのごとく自然な日常会話に近
づけることができる。
【0018】さらに本発明においては、情報処理装置と
ネットワークを介して接続されたロボット装置におい
て、人間と対話するための機能を有し、当該対話を通じ
て対象とするユーザの発話を認識する対話手段と、対話
手段によるユーザの発話内容のうち、言葉遊びに関する
履歴データを生成する生成手段と、生成手段により生成
された履歴データを、言葉遊びを通じて得られるユーザ
の発言内容に応じて更新する更新手段と、言葉遊びの開
始の際には、履歴データをネットワークを介して情報処
理装置に送信する通信手段とを設け、情報処理装置にお
いて予め記憶された複数の言葉遊びの内容を表す内容デ
ータのうち、通信手段から送信された履歴データに基づ
いて選択された内容データがネットワークを介して送信
されたとき、対話手段は、当該内容データに基づく言葉
遊びの内容を出力するようにした。
【0019】この結果、このロボット装置では、ロボッ
トとユーザとの間で言葉遊びによる対話をする際、ユー
ザの発話内容のうち言葉遊びに関する履歴データを生成
して情報処理装置に送信し、当該情報処理装置から履歴
データに基づくユーザに最適な内容データを選択的に取
得するようにしたことにより、ユーザとの間でロボット
の会話に面白みやリズムを持たせることができ、あたか
も人間同士が会話しているかのごとく自然な日常会話に
近づけることができる。
【0020】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0021】(1)本実施の形態によるロボットの構成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ同じ構成の腕部ユニッ
ト4A、4Bがそれぞれ配設され、かつ胴体部ユニット
2の下部左右にそれぞれ同じ構成の脚部ユニット5A、
5Bがそれぞれ所定位置に取り付けられることにより構
成されている。
【0022】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させることができるようになされている。
【0023】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させることができるよ
うになされている。
【0024】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させることができるようになされて
いる。
【0025】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
【0026】そして各腕部ユニット4A、4Bでは、ア
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
【0027】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA9〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。
【0028】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
【0029】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA1
2を駆動することによって、下腿部を図3に示すピッチ
軸35の回りに回転させることができ、また足首関節機
構33のアクチュエータA13、A14をそれぞれ駆動
することによって、足部34を図3に示す直交するピッ
チ軸36及びロール軸37の回りにそれぞれ独立に回転
させることができるようになされている。
【0030】一方、胴体部ユニット2の体幹下部を形成
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
【0031】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行ったりすることができるようになさ
れている。
【0032】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アク
チュエータA1〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
【0033】さらに頭部ユニット3には、図5に示すよ
うに、このロボット1の「目」として機能するCCD
(Charge Coupled Device )カメラ50及び「耳」とし
て機能するマイクロホン51及びタッチセンサ52など
からなる外部センサ部53と、「口」として機能するス
ピーカ54となどがそれぞれ所定位置に配設され、制御
ユニット42内には、バッテリセンサ55及び加速度セ
ンサ56などからなる内部センサ部57が配設されてい
る。
【0034】そして外部センサ部53のCCDカメラ5
0は、周囲の状況を撮像し、得られた画像信号S1Aを
メイン制御部に送出する一方、マイクロホン51は、ユ
ーザから音声入力として与えられる「歩け」、「伏せ」
又は「ボールを追いかけろ」等の各種命令音声を集音
し、かくして得られた音声信号S1Bをメイン制御部4
0に送出するようになされている。
【0035】またタッチセンサ52は、図1及び図2に
おいて明らかなように頭部ユニット3の上部に設けられ
ており、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出し、検出結果を
圧力検出信号S1Cとしてメイン制御部40に送出す
る。
【0036】さらに内部センサ部57のバッテリセンサ
55は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ56は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。
【0037】メイン制御部部40は、外部センサ部53
のCCDカメラ50、マイクロホン51及びタッチセン
サ52等からそれぞれ供給される画像信号S1A、音声
信号S1B及び圧力検出信号S1C等(以下、これらを
まとめて外部センサ信号S1と呼ぶ)と、内部センサ部
57のバッテリセンサ55及び加速度センサ等からそれ
ぞれ供給されるバッテリ残量検出信号S2A及び加速度
検出信号S2B等(以下、これらをまとめて内部センサ
信号S2と呼ぶ)に基づいて、ロボット1の周囲及び内
部の状況や、ユーザからの指令、ユーザからの働きかけ
の有無などを判断する。
【0038】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ58に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンドを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンドに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA1〜A14が駆
動され、かくして頭部ユニット3を上下左右に揺動させ
たり、腕部ユニット4A、4Bを上にあげたり、歩行す
るなどの行動がロボット1により発現されることとな
る。
【0039】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。
【0040】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。
【0041】(2)本実施の形態による対話制御システ
ムの構成 ここで図6は、ユーザが所有する複数の上述したロボッ
ト1と、情報提供側60が配置したコンテンツサーバ6
1とがネットワーク62を介して接続されることにより
構成される本実施の形態による対話制御システム63を
示すものである。
【0042】各ロボット1においては、ユーザからの指
令や周囲の環境に応じて自律的に行動する一方、コンテ
ンツサーバ61とネットワーク62を介して通信するこ
とにより必要なデータを送受信したり、当該通信により
得られたコンテンツデータ等に基づく音声をスピーカ5
4(図5)を介して放音することができるようになされ
ている。
【0043】実際に各ロボット1には、例えばCD(Co
mpact Disc)−ROMに記録されて提供される、この対
話制御システム63全体としてかかる機能を発揮させる
ためのアプリケーションソフトウェアがインストールさ
れると共に、例えばブルートゥース(Bluetooth)等の
所定の無線通信規格に対応した無線LANカード(図示
せず)が胴体部ユニット2(図1)内の所定部位に装着
されるようになされている。
【0044】またコンテンツサーバ61は、情報提供側
60が提供する後述のような各種サービスに関する各種
処理を行うWebサーバ及びデータベースサーバであ
り、ネットワーク62を介してアクセスしてきたロボッ
ト1と通信して必要なデータを送受信することができる
ようになされている。
【0045】なおコンテンツサーバ61の構成を図7に
示す。この図7からも明らかなように、コンテンツサー
バ61は、コンテンツサーバ61全体の制御を司るCP
U65と、各種ソフトウェアが格納されたROM66
と、CPU65のワークメモリとしてのRAM67と、
各種データが格納されたハードディスク装置68と、C
PU65がネットワーク62(図6)を介して外部と通
信するためのインターフェースであるネットワークイン
ターフェース部69とを有し、これらがバス70を介し
て相互に接続されることにより構成されている。
【0046】この場合CPU65は、ネットワーク62
を介してアクセスしてきたロボット1から与えられるデ
ータやコマンドをネットワークインターフェース部69
を介して取り込み、当該データやコマンドと、ROM6
6に格納されているソフトウェアとに基づいて各種処理
を実行する。このネットワークインターフェース部69
は、例えばブルートゥース(Bluetooth)等の無線LA
N方式で各種データをやり取りするLAN制御部(図示
せず)を有する。
【0047】そしてCPU65は、この処理結果とし
て、例えばハードディスク装置68から読み出した所定
のWebページの画面データや、他のプログラム又はコ
マンドなどのデータをネットワークインターフェース部
69を介して対応するロボット1に送出する。
【0048】このようにしてコンテンツサーバ61にお
いては、アクセスしてきたロボット1に対してWebペ
ージの画面データや、この他の必要なデータを送受信す
ることができるようになされている。
【0049】なおコンテンツサーバ61内のハードディ
スク装置68内にはそれぞれ複数のデータベース(図示
せず)が格納されており、各種処理を実行するときに対
応するデータベースから必要な情報を読み出し得るよう
になされている。
【0050】このうち一のデータベースには、なぞなぞ
等の言葉遊びに必要な大量のコンテンツデータが格納さ
れている。かかるコンテンツデータには、言葉遊びに使
用する実際の内容を表すデータに加えて、当該言葉遊び
に付随して得られる種々の内容を表すオプションデータ
が付加されている。
【0051】例えば言葉遊びとして「なぞなぞ」が指定さ
れた場合、コンテンツデータは「なぞなぞ」の問題及び
その解答並びにその理由を表し、当該コンテンツデータ
に付加されたオプションデータは、当該問題の難易度や
その問題が出題された回数から得られる人気の指標等を
表す。
【0052】そしてロボット1は、ユーザとの対話にお
いて、マイクロホン51を介して集音したユーザの発話
内容を後述する音声認識処理を実行することにより認識
し、当該認識結果をユーザに関連する種々のデータと共
にネットワーク62を介してコンテンツサーバ61に送
信する。
【0053】続いてコンテンツサーバ61は、ロボット
1から得られた認識結果等に基づいて、データベースに
格納されている大量のコンテンツデータの中から最適な
コンテンツデータを抽出し、当該コンテンツデータを元
のロボット1の送信する。
【0054】かくしてロボット1は、コンテンツサーバ
61から取得したコンテンツデータに基づく音声をスピ
ーカ54を介して放音することにより、あたかも人間同
士で対話しているかのごとく、自然な感じでユーザと
「なぞなぞ」の言葉遊びをすることができるようになされ
ている。
【0055】(3)名前学習機能に関するメイン制御部
40の処理 次にこのロボット1に搭載された名前学習機能について
説明する。
【0056】このロボット1には、人との対話を通して
その人の名前を取得し、当該名前を、マイクロホン51
の出力に基づいて検出したその人の声の音響的特徴のデ
ータと関連付けて記憶すると共に、これら記憶した各デ
ータに基づいて、名前を取得していない新規な人の登場
を認識し、その新規な人の名前や声の音響的特徴を上述
と同様にして取得し記憶するようにして、人の名前をそ
の人と対応付けて取得(以下、これを名前の学習と呼
ぶ)学習していく名前学習機能が搭載されている。なお
以下においては、その人の声の音響的特徴と対応付けて
名前を記憶し終えた人を『既知の人』と呼び、記憶し終
えていない人を『新規な人』と呼ぶものとする。
【0057】そしてこの名前学習機能は、メイン制御部
40における各種処理により実現されている。
【0058】ここで、かかる名前学習機能に関するメイ
ン制御部40の処理内容を機能的に分類すると、図8に
示すように、人が発声した言葉を認識する音声認識部8
0と、人の声の音響的特徴を検出すると共に当該検出し
た音響的特徴に基づいてその人を識別して認識する話者
認識部81と、人との対話制御を含む新規な人の名前学
習のための各種制御や、既知の人の名前及び声の音響的
特徴の記憶管理を司る対話制御部82と、対話制御部8
2の制御のもとに各種対話用の音声信号S3を生成して
スピーカ54(図5)に送出する音声合成部83とに分
けることができる。
【0059】この場合、音声認識部80においては、マ
イクロホン51(図5)からの音声信号S1Bに基づき
所定の音声認識処理を実行することにより当該音声信号
S1Bに含まれる言葉を単語単位で認識する機能を有す
るものであり、認識したこれら単語を文字列データD1
として対話制御部82に送出するようになされている。
【0060】また話者認識部81は、マイクロホン51
から与えられる音声信号S1Bに含まれる人の声の音響
的特徴を、例えば“Segregation of Speakers for Reco
gnition and Speaker Identification(CH2977-7/91/00
00~0873 S1.00 1991 IEEE)”に記載された方法等を利
用した所定の信号処理により検出する機能を有してい
る。
【0061】そして話者認識部81は、通常時には、こ
の検出した音響的特徴のデータをそのとき記憶している
全ての既知の人の音響的特徴のデータと順次比較し、そ
のとき検出した音響的特徴がいずれか既知の人の音響的
特徴と一致した場合には当該既知の人の音響的特徴と対
応付けられた当該音響的特徴に固有の識別子(以下、こ
れをSIDと呼ぶ)を対話制御部82に通知する一方、
検出した音響的特徴がいずれの既知の人の音響的特徴と
も一致しなかった場合には、認識不能を意味するSID
(=−1)を対話制御部82に通知するようになされて
いる。
【0062】また話者認識部81は、対話制御部82が
新規な人であると判断したときに当該対話制御部82か
ら与えられる新規学習の開始命令及び学習終了命令に基
づいて、その間その人の声の音響的特徴を検出し、当該
検出した音響的特徴のデータを新たな固有のSIDと対
応付けて記憶すると共に、このSIDを対話制御部82
に通知するようになされている。
【0063】なお話者認識部81は、対話制御部82か
らの追加学習の開始命令及び終了命令に応じて、その人
の声の音響的特徴のデータを追加的に収集する追加学習
を行い得るようになされている。
【0064】音声合成部83は、対話制御部82から与
えられる文字列データD2を音声信号S3に変換する機
能を有し、かくして得られた音声信号S3をスピーカ5
4(図5)に送出するようになされている。これにより
この音声信号S3に基づく音声をスピーカ54から出力
させることができるようになされている。
【0065】対話制御部82においては、図9に示すよ
うに、既知の人の名前と、話者認識部81が記憶してい
るその人の声の音響的特徴のデータに対応付けられたS
IDとを関連付けて記憶するメモリ84(図8)を有し
ている。
【0066】そして対話制御部82は、所定のタイミン
グで所定の文字列データD2を音声合成部83に与える
ことにより、話し相手の人に対して名前を質問し又は名
前を確認するための音声等をスピーカ54から出力させ
る一方、このときのその人の応答等に基づく音声認識部
80及び話者認識部81の各認識結果と、メモリ84に
格納された上述の既知の人の名前、SIDの関連付けの
情報とに基づいてその人が新規な人であるか否かを判断
するようになされている。
【0067】そして対話制御部82は、その人が新規な
人であると判断したときには、話者認識部81に対して
新規学習の開始命令及び終了命令を与えることにより、
これら話者認識部81にその新規な人の声の音響的特徴
のデータを収集及び記憶させると共に、この結果として
これら話者認識部81から与えられるその新規な人の声
の音響的特徴のデータに対応付けられたSIDを、かか
る対話により得られたその人の名前と関連付けてメモリ
84に格納するようになされている。
【0068】また対話制御部82は、その人が既知の人
であると判断したときには、必要に応じて話者認識部8
1に追加学習の開始命令を与えることにより話者認識部
81に追加学習を行わせる一方、これと共に音声合成部
83に所定の文字列データD2を所定のタイミングで順
次送出することにより、話者認識部81が追加学習をす
るのに必要な相当量のデータを収集できるまでその人と
の対話を長引かせるような対話制御を行うようになされ
ている。
【0069】(4)名前学習機能に関する対話制御部8
2の具体的処理 次に、名前学習機能に関する対話制御部82の具体的な
処理内容について説明する。
【0070】対話制御部82は、外部メモリ58(図
5)に格納された制御プログラムに基づいて、図10及
び図11に示す名前学習処理手順RT1に従って新規な
人の名前を順次学習するための各種処理を実行する。
【0071】すなわち対話制御部82は、マイクロホン
51からの音声信号S1Bに基づき話者認識部81が人
の声の音声的特徴を認識することにより当該話者認識部
81からSIDが与えられると名前学習処理手順RT1
をステップSP0において開始し、続くステップSP1
において、メモリ84に格納された既知の人の名前と、
これに対応するSIDとを関連付けた情報(以下、これ
を関連付け情報と呼ぶ)に基づいてそのSIDから対応
する名前を検索できるか否か(すなわちSIDが認識不
能を意味する「−1」でないか否か)を判断する。
【0072】ここでこのステップSP1において肯定結
果を得ることは、その人が、話者認識部81がその人の
声の音声的特徴のデータを記憶しており、当該データと
対応付けられたSIDがその人の名前と関連付けてメモ
リ84に格納されている既知の人であることを意味す
る。ただしこの場合においても、話者認識部81が新規
の人を既知の人と誤認識したことも考えられる。
【0073】そこで対話制御部82は、ステップSP1
において肯定結果を得た場合には、ステップSP2に進
んで所定の文字列データD2を音声合成部83に送出す
ることにより、例えば図12に示すように、「○○さん
ですよね。」といったその人の名前がSIDから検索さ
れた名前(上述の○○に当てはまる名前)と一致するか
否かを確かめるための質問の音声をスピーカ54から出
力させる。
【0074】次いで対話制御部82は、ステップSP3
に進んで、かかる質問に対するその人の「はい、そうで
す。」や「いいえ、違います。」といった応答の音声認
識結果が音声認識部80から与えられるのを待ち受け
る。そして対話制御部82は、やがて音声認識部80か
らかかる音声認識結果が与えられ、また話者認識部81
からそのときの話者認識結果であるSIDが与えられる
と、ステップSP4に進んで、音声認識部80からの音
声認識結果に基づき、その人の応答が肯定的なものであ
るか否かを判断する。
【0075】ここでこのステップSP4において肯定結
果を得ることは、ステップSP1において話者認識部8
1から与えられたSIDに基づき検索された名前がその
人の名前と一致しており、従ってその人は対話制御部8
2が検索した名前を有する本人であるとほぼ断定できる
状態にあることを意味する。
【0076】かくしてこのとき対話制御部82は、その
人は当該対話制御部82が検索した名前を有する本人で
あると断定し、ステップSP5に進んで話者認識部61
に対して追加学習の開始命令を与える。
【0077】そして対話制御部82は、この後ステップ
SP6に進んで例えば図12のように「今日はいい天気
ですね。」などといった、その人との対話を長引かせる
ための雑談をさせるための文字列データD2を音声合成
部83に順次送出し、この後追加学習に十分な所定時間
が経過すると、ステップSP7に進んで話者認識部81
に対して追加学習の終了命令を与えた後、ステップSP
20に進んでその人に対する名前学習処理を終了する。
【0078】一方、ステップSP1において否定結果を
得ることは、話者認識部81により声認識された人が新
規の人であるか、又は話者認識部81が既知の人を新規
の人と誤認識したことを意味する。またステップSP4
において否定結果を得ることは、最初に話者認識部81
から与えられたSIDから検索された名前がその人の名
前と一致していないことを意味する。そして、これらい
ずれの場合においても、対話制御部82がその人を正し
く把握していない状態にあるといえる。
【0079】そこで対話制御部82は、ステップSP1
において否定結果を得たときや、ステップSP4におい
て否定結果を得たときには、ステップSP8に進んで音
声合成部83に文字列データD2を与えることにより、
例えば図13に示すように、「あれ、名前を教えてくだ
さい。」といった、その人の名前を聞き出すための質問
の音声をスピーカ54から出力させる。
【0080】そして対話制御部82は、この後ステップ
SP9に進んで、かかる質問に対するその人の「○○で
す。」といった応答の音声認識結果(すなわち名前)
と、当該応答時における話者認識部81の話者認識結果
(すなわちSID)とがそれぞれ音声認識部80及び話
者認識部81から与えられるのを待ち受ける。
【0081】そして対話制御部82は、やがて音声認識
部80から音声認識結果が与えられ、話者認識部81か
らSIDが与えられると、ステップSP10に進んで、
これら音声認識結果及びSIDに基づいて、その人が新
規な人であるか否かを判断する。
【0082】ここでこの実施の形態の場合、かかる判断
は、音声認識部80の音声認識により得られた名前と、
話者認識部81からのSIDとでなる2つの認識結果の
多数決により行われ、いずれか一方でも否定的な認識結
果が得られれば保留することとする。
【0083】例えば、話者認識部81からのSIDが認
識不能を意味する「−1」で、かつステップSP9にお
いて音声認識部80からの音声認識結果に基づき得られ
たその人の名前がメモリ84においてどのSIDとも関
連付けられていない場合には、その人が新規な人である
と判断する。既知のどの顔又はどの声とも似つかない人
が全く新しい名前をもっているという状況であるので、
そのような判断ができる。
【0084】また対話制御部82は、話者認識部81か
らのSIDがメモリ84において異なる名前と関連付け
られており、かつステップSP9において音声認識部8
0からの音声認識結果に基づき得られたその人の名前が
メモリ84に格納されてない場合にも、その人が新規な
人であると判断する。これは、各種認識処理において、
新規カテゴリを既知カテゴリのどれかと誤認識するのは
起こり易いことであり、また音声認識された名前が登録
されていないことを考えれば、かなり高い確信度をもっ
て新規の人と判断できるからである。
【0085】これに対して対話制御部82は、話者認識
部81からのSIDがメモリ84において同じ名前と関
連付けられており、かつステップSP9において音声認
識部80からの音声認識結果に基づき得られたその人の
名前がそのSIDが関連付けられた名前である場合に
は、その人が既知の人であると判断する。
【0086】また対話制御部82は、話者認識部81か
らのSIDがメモリ84において異なる名前と関連付け
られており、かつステップSP9において音声認識部8
0からの音声認識結果に基づき得られたその人の名前が
かかるSIDが関連付けられた名前である場合には、そ
の人が既知の人であるか又は新規の人であるかを判断し
ない。このケースでは、音声認識部80及び話者認識部
81のいずれか又は両方の認識が間違っていることも考
えられるが、この段階ではそれを判定することができな
い。従ってこの場合には、かかる判断を保留する。
【0087】そして対話制御部82は、このような判断
処理により、ステップSP10において、かかる人が新
規の人であると判断した場合には、ステップSP11に
進んで新規学習の開始命令を話者認識部81に与え、こ
の後ステップSP12に進んで例えば図13のように
「私はロボットです。よろしくお願いします。」又は
「○○さん、今日はいい天気ですね。」などのその人と
の対話を長引かせる雑談をするための文字列データD2
を音声合成部83に送出する。
【0088】また対話制御部82は、この後ステップS
P13に進んで話者認識部81における音響的特徴のデ
ータの収集が十分量に達したか否かを判断し、否定結果
を得るとステップSP12に戻って、この後ステップS
P13において肯定結果を得るまでステップSP12−
SP13−SP12のループを繰り返す。
【0089】そして対話制御部82は、やがて話者認識
部81における音響的特徴のデータの収集が十分量に達
することによりステップSP13において肯定結果を得
ると、ステップSP14に進んで、これら話者認識部8
1に新規学習の終了命令を与える。この結果、話者認識
部81において、その音響的特徴のデータが新たなSI
Dと対応付けられて記憶される。
【0090】また対話制御部82は、この後ステップS
P15に進んで、話者認識部81からかかるSIDが与
えられるのを待ち受け、やがてこれが与えられると、例
えば図14に示すように、これらをステップSP9にお
いて音声認識部80からの音声認識結果に基づき得られ
たその人の名前と関連付けてメモリ84に登録する。そ
して対話制御部82は、この後ステップSP20に進ん
でその人に対する名前学習処理を終了する。
【0091】これに対して対話制御部82は、ステップ
SP10において、かかる人が既知の人であると判断し
た場合には、ステップSP16に進んで、話者認識部8
1がその既知の人を正しく認識できていた場合(すなわ
ち話者認識部81が、関連付け情報としてメモリ84に
格納されたその既知の人に対応するSIDと同じSID
を認識結果として出力していた場合)には、その話者認
識部81に対して追加学習の開始命令を与える。
【0092】具体的には、対話制御部82は、ステップ
SP9において得られた話者認識部61からのSID
と、最初に話者認識部81から与えられたSIDとがメ
モリ84において同じ名前と関連付けられており、かつ
ステップSP9において音声認識部80からの音声認識
結果に基づき得られた名前がそのSIDが関連付けられ
た名前であることによりステップSP10においてその
人が既知の人であると判断したときには、話者認識部8
1に対して追加学習の開始命令を与える。
【0093】そして対話制御部82は、この後ステップ
SP17に進んで、例えば図15に示すように、「ああ
○○さんですね。思い出しましたよ。今日はいい天気で
すね。」、「前回はえーと、いつ会いましたっけ。」な
どのその人との対話を長引かせるための雑談をさせるた
めの文字列データD2を音声合成部83に順次送出し、
この後追加学習に十分な所定時間が経過すると、ステッ
プSP18に進んで話者認識部81に対して追加学習の
終了命令を与えた後、ステップSP20に進んでその人
に対する名前学習処理を終了する。
【0094】また話者認識部81は、ステップSP9に
おいて得られた話者認識部81からのSIDと、最初に
話者認識部81から与えられたSIDとがメモリ65に
おいて異なる名前と関連付けられており、かつステップ
SP9において音声認識部80からの音声認識結果に基
づき得られた名前がかかるSIDが関連付けられた名前
であることによりステップSP10においてその人が既
知の人であるとも新規の人であるとも判定できないと判
断した場合、ステップSP19に進んで、例えば図16
に示すように、「ああそうですか。元気ですか。」など
の雑談をさせるための文字列データD2を音声合成部8
3に順次送出する。
【0095】そしてこの場合には、対話制御部82は、
新規学習又は追加学習の開始命令及びその終了命令を話
者認識部81に与えず(すなわち新規学習及び追加学習
のいずれも話者認識部81に行わせず)、所定時間が経
過すると、ステップSP20に進んでその人に対する名
前学習処理を終了する。
【0096】このようにして対話制御部82は、音声認
識部80及び話者認識部81の各認識結果に基づいて、
人との対話制御や話者認識部81の動作制御を行うこと
により、新規な人の名前を順次学習することができるよ
うになされている。
【0097】このようにこのロボット1では、新規な人
との対話を通してその人の名前を取得し、当該名前を、
マイクロホン51の出力に基づいて検出したその人の声
の音響的特徴のデータと関連付けて記憶すると共に、こ
れら記憶した各種データに基づいて、名前を取得してい
ないさらに新規な人の登場を認識し、その新規な人の名
前や声の音響的特徴及び顔の形態的特徴を上述と同様に
して取得し記憶するようにして、人の名前を学習するこ
とができる。
【0098】従って、このロボット1は、音声コマンド
の入力やタッチセンサの押圧操作等のユーザからの明示
的な指示による名前登録を必要とすることなく、人間が
普段行うように、通常の人との対話を通して新規な人物
や物体等の名前を自然に学習することができる。
【0099】(5)音声認識部80の具体的構成 次に、図17において、上述のような名前学習機能を具
現化するための音声認識部80の具体的構成について説
明する。
【0100】この音声認識部80においては、マイクロ
ホン51からの音声信号S1BをAD(Analog Digita
l)変換部90に入力する。AD変換部90は、供給さ
れるアナログ信号である音声信号S1Bをサンプリン
グ、量子化し、ディジタル信号である音声データにA/
D変換する。この音声データは、特徴抽出部91に供給
される。
【0101】特徴抽出部91は、そこに入力される音声
データについて、適当なフレームごとに、例えば、MF
CC(Mel Frequency Cepstrum Cofficient)分析を行
い、その分析の結果得られるMFCCを、特徴ベクトル
(特徴パラメータ)として、マッチング部92と未登録
語区間処理部96に出力する。なお、特徴抽出部91で
は、その後、例えば線形予測係数、ケプストラム係数、
線スペクトル対、所定の周波数ごとのパワー(フイルタ
バンクの出力)等を、特徴ベクトルとして抽出すること
が可能である。
【0102】マッチング部92は、特徴抽出部91から
の特徴ベクトルを用いて、音響モデル記憶部93、辞書
記憶部94及び文法記憶部95を必要に応じて参照しな
がら、マイクロホン51に入力された音声(入力音声)
を、例えば、連続分布HMM(Hidden Markov Model)
法に基づいて音声認識する。
【0103】すなわち音響モデル記憶部93は、音声認
識する音声の言語における個々の音素や、音節、音韻な
どのサブワードについて音響的な特徴を表す音響モデル
(例えば、HMMの他、DP(Dynamic Programing)マ
ッチングに用いられる標準パターン等を含む)を記憶し
ている。なお、ここでは連続分布HMM法に基づいて音
声認識を行うことをしているので、音響モデルとしては
HMM(Hidden Markov Model)が用いられる。
【0104】辞書記憶部94は、認識対象の各単位ごと
にクラスタリングされた、その単語の発音に関する情報
(音響情報)と、その単語の見出しとが対応付けられた
単語辞書を認識している。
【0105】ここで、図18は、辞書記憶部94に記憶
された単語辞書を示している。
【0106】図18に示すように、単語辞書において
は、単語の見出しとその音韻系列とが対応付けられてお
り、音韻系列は、対応する単語ごとにクラスタリングさ
れている。図18の単語辞書では、1つのエントリ(図
16の1行)が、1つのクラスタに相当する。
【0107】なお、図18において、見出しはローマ字
と日本語(仮名漢字)で表してあり、音韻系列はローマ
字で表してある。ただし、音韻系列における「N」は、撥
音「ん」を表す。また、図18では、1つのエントリに1
つの音韻系列を記述してあるが、1つのエントリには複
数の音韻系列を記述することも可能である。
【0108】図17に戻り、文法記憶部95は、辞書記
憶部94の単語辞書に登録されている各単語がどのよう
に連鎖する(つながる)かを記述した文法規則を記憶し
ている。
【0109】ここで、図19は、文法記憶部95に記憶
された文法規則を示している。なお、図19の文法規則
は、EBNF(Extended Backus Naur Form)で記述さ
れている。
【0110】図19においては、行頭から最初に現れる
「;」までが1つの文法規則を表している。また先頭に
「$」が付されたアルファベット(列)は変数を表し、
「$」が付されていないアルファベット(列)は単語の見
出し(図18に示したローマ字による見出し)を表す。
さらに[]で囲まれた部分は省略可能であることを表
し、「|」は、その前後に配置された見出しの単語(ある
いは変数)のうちのいずれか一方を選択することを表
す。
【0111】従って、図19において、例えば、第1行
(上から1行目)の文法規則「$col=[Kono|sono]ir
o wa;」は、変数$colが、「このいろ(色)は」または
「そのいろ(色)は」という単語列であることを表す。
【0112】なお、図19に示した文法規則において
は、変数$silと$garbageが定義されていないが、変数
$silは、無音の音響モデル(無音モデル)を表し、変
数$garbageは、基本的には、音韻どうしの間での自由
な遷移を許可したガーベジモデルを表す。
【0113】再び図17に戻り、マッチング部92は、
辞書記憶部94の単語辞書を参照することにより、音響
モデル記憶部93に記憶されている音響モデルを接続す
ることで、単語の音響モデル(単語モデル)を構成す
る。さらにマッチング部92は、幾つかの単語モデルを
文法記憶部95に記憶された文法規則を参照することに
より接続し、そのようにして接続された単語モデルを用
いて、特徴ベクトルに基づき、連続分布HMM法によっ
て、マイクロホン51に入力された音声を認識する。す
なわちマッチング部92は、特徴抽出部91が出力する
時系列の特徴ベクトルが観測されるスコア(尤度)が最
も高い単語モデルの系列を検出し、その単語モデルの系
列に対応する単語列の見出しを、音声の認識結果として
出力する。
【0114】より具体的には、マッチング部92は、接
続された単語モデルに対応する単語により接続し、その
ようにして接続された単語モデルを用いて、特徴ベクト
ルに基づき、連続分布HMM法によって、マイクロホン
51に入力された音声を認識する。すなわちマッチング
部92は、特徴抽出部91が出力する時系列の特徴ベク
トルが観測されるスコア(尤度)が最も高い単語モデル
の系列を検出し、その単語モデルの系列に対応する単語
列の見出しを音声認識結果として出力する。
【0115】より具体的には、マッチング部92は、接
続された単語モデルに対応する単語列について、各特徴
ベクトルの出現確率(出力確率)を累積し、その累積値
をスコアとして、そのスコアを最も高くする単語列の見
出しを音声認識結果として出力する。
【0116】以上のようにして出力されるマイクロホン
51に入力された音声認識結果は、文字列データD1と
して対話制御部82に出力される。
【0117】ここで図19の実施の形態では、第9行
(上から9行目)にガーベジモデルを表す変数$garbag
eを用いた文法規則(以下、適宜、未登録語用規則とい
う)「$pat1=$colorl $garbage $color2;」がある
が、マッチング部92は、この見登録語用規則が適用さ
れた場合には、変数$garbageに対応する音声区間を未
登録語の音声区間として検出する。さらに、マッチング
部92は、未登録語用規則が適用された場合における変
数$garbageが表すガーベジモデルにおける音韻の遷移
としての音韻系列を未登録語の音韻系列として検出す
る。そしてマッチング部92は、未登録語用規則が適用
された音声認識結果が得られた場合に検出される未登録
語の音声区間と音韻系列を未登録語区間処理部96に供
給する。
【0118】なお上述の未登録語用規則「$pat1=$col
orl $garbage $color2;」によれば、変数#color1で表
される単語辞書に登録されている単語(列)の音韻系列
と、変数$color2で表される単語辞書に登録されている
単語(列)の音韻系列との間にある1つの未登録語が検
出されるが、この実施の形態においては、発話に複数の
未登録語が含まれている場合や、未登録語が単語辞書に
登録されている単語(列)間に挟まれていない場合であ
っても適用可能である。
【0119】未登録語区間処理部96は、特徴抽出部9
1から供給される特徴ベクトルの系列(特徴ベクトル系
列)を一時記憶する。さらに、未登録語区間処理部96
は、マッチング部92から未登録語の音声区間と音韻系
列を受信すると、その音声区間における音声の特徴ベク
トル系列を、一時記憶している特徴ベクトル系列から検
出する。そして未登録語区間処理部96は、マッチング
部92からの音韻系列(未登録語)にユニークなID
(identification)を付し、未登録語の音韻系列と、そ
の音声区間における特徴ベクトル系列とともに、特徴ベ
クトルバッファ97に供給する。
【0120】特徴ベクトルバッファ97は、例えば、図
20に示すように、未登録語区間処理部96から供給さ
れる未登録語のID、音韻系列及び特徴ベクトル系列を
対応付けて一時記憶する。
【0121】ここで図20においては、未登録語に対し
て1からのシーケンシャルな数時がIDとして付されて
いる。従って、例えばいま、特徴ベクトルバッファ97
において、N個の未登録語のID、音韻系列及び特徴ベ
クトル系列が記憶されている場合において、マッチング
部92が未登録語の音声区間と音韻系列を検出すると、
未登録語区間処理部96では、その未登録語に対してN
+1がIDとして付され、特徴ベクトルバッファ97で
は、図20に点線で示すように、その未登録語のID、
音韻系列及び特徴ベクトル系列が記憶される。
【0122】再び図17に戻り、クラスタリング部98
は、特徴ベクトルバッファ97に新たに記憶された未登
録語(以下、適宜、新未登録語という)について、特徴
ベクトルバッファ77に既に記憶されている他の未登録
語(以下、適宜、既記憶未登録語という)それぞれに対
するスコアを計算する。
【0123】すなわちクラスタリング部98は、新未登
録語を入力音声とし、かつ既記憶未登録語を単語辞書に
登録されている単語とみなして、マッチング部792に
おける場合と同様にして、新未登録語について、各既記
憶未登録語に対するスコアを計算する。具体的には、ク
ラスタリング部98は、特徴ベクトルバッファ97を参
照することで新未登録語の特徴ベクトル系列を認識する
とともに、既記憶未登録語の音韻系列にしたがって音響
モデルを接続し、その接続された音響モデルから新未登
録語の特徴ベクトル系列が観測される尤度としてのスコ
アを計算する。
【0124】なお、音響モデルは、音響モデル記憶部9
3に記憶されているものが用いられる。
【0125】クラスタリング部98は、同様にして、各
既記憶未登録語について、新未登録語に対するスコアも
計算し、そのスコアによってスコアシート記憶部99に
記憶されたスコアシートを更新する。
【0126】さらにクラスタリング部98は、更新した
スコアシートを参照することにより、既に求められてい
る未登録語(既記憶未登録語)をクラスタリングしたク
ラスタの中から、新未登録語を新たなメンバとして加え
るクラスタを検出する。さらにクラスタリング部98
は、新未登録語を検出したクラスタの新たなメンバと
し、そのクラスタをそのクラスタのメンバに基づいて分
割し、その分割結果に基づいて、スコアシート記憶部9
9に記憶されているスコアシートを更新する。
【0127】スコアシート記憶部99は、新未登録語に
ついての既記憶未登録語に対するスコアや、既記憶未登
録語についての新未登録語に対するスコア等が登録され
たスコアシートを記憶する。
【0128】ここで、図21は、スコアシートを示して
いる。
【0129】スコアシートは、未登録語の「ID」、「音
韻系列」、「クラスタナンバ」、「代表メンバID」及び「ス
コア」が記述されたエントリで構成される。
【0130】未登録語の「ID」と「音韻系列」としては、
特徴ベクトルバッファ97に記憶されたものと同一のも
のがクラスタリング部98によって登録される。「クラ
スタナンバ」は、そのエントリの未登録語がメンバとな
っているクラスタを特定するための数字で、クラスタリ
ング部98によって付され、スコアシートに登録され
る。「代表ナンバID」は、そのエントリの未登録語がメ
ンバとなっているクラスタを代表する代表メンバとして
の未登録のIDであり、この代表メンバIDによって、
未登録語がメンバとなっているクラスタの代表メンバを
認識することができる。なお、クラスタの代表メンバ
は、クラスタリング部98によって求められ、その代表
メンバのIDがスコアシートの代表メンバIDに登録さ
れる。「スコア」は、そのエントリの未登録語についての
他の未登録語それぞれに対するスコアであり、上述した
ように、クラスタリング部98によって計算される。
【0131】例えば、いま、特徴ベクトルバッファ97
において、N個の未登録語のID、音韻系列及び特徴ベ
クトル系列が記憶されているとすると、スコアシートに
は、そのN個の未登録語のID、音韻系列、クラスタナ
ンバ、代表ナンバID及びスコアが登録されている。
【0132】そして特徴ベクトルバッファ97に、新未
登録語のID、音韻系列、および特徴ベクトル系列が新
たに記憶されると、クラスタリング部98では、スコア
シートが図21において点線で示すように更新される。
【0133】すなわちスコアシートには、新未登録語の
ID、音韻系列、クラスタナンバ、代表メンバID、新
未登録語についての既記憶未登録語それぞれに対するス
コア(図19におけるスコアs(N+1,1)、s
(2、N+1)、…s(N+1、N)が追加される。さら
にスコアシートには、既記憶未登録語それぞれについて
の新未登録語に対するスコア(図21におけるs(N+
1,1)、s(2、N+1)、…s(N+1、N))が追
加される。さらに後述するように、スコアシートにおけ
る未登録語のクラスタナンバと代表メンバIDが必要に
応じて変更される。
【0134】なお、図21の実施の形態においては、I
Dがiの未登録語(の発話)についての、IDがjの未
登録語(の音韻系列)に対するスコアを、s(i、j)
として表してある。
【0135】またスコアシート(図21)には、IDが
iの未登録語(の発話)についての、IDがiの未登録
語(の音韻系列)に対するスコアs(i、j)も登録さ
れる。ただし、このスコアs(i、j)は、マッチング
部92において、未登録語の音韻系列が検出されるとき
に計算されるため、クラスタリング部98で計算する必
要はない。
【0136】再び図17に戻り、メンテナンス部100
は、スコアシートに記憶部99における更新後のスコア
シートに基づいて、辞書記憶部94に記憶された単語辞
書を更新する。
【0137】ここで、クラスタの代表メンバは、次のよ
うに決定される。すなわち、例えば、クラスタのメンバ
となっている未登録語のうち、他の未登録語それぞれに
ついてのスコアの総和(その他、例えば、総和を他の未
登録語の数で除算した平均値でも良い)を最大にするも
のがそのクラスタの代表メンバとされる。従って、この
場合、クラスタに属するメンバのメンバIDをkで表す
こととすると、次式
【0138】
【数1】
【0139】で示される値k(∈k)をIDとするメン
バが代表メンバとされることになる。
【0140】ただし、(1)式において、maxk{}
は、{}内の値を最大にするkを意味する。またk3は、
kと同様に、クラスタに属するメンバのIDを意味す
る。さらに、Σは、k3をクラスタに属するメンバすべ
てのIDに亘って変化させての総和を意味する。
【0141】なお上述のように代表メンバを決定する場
合、クラスタのメンバが1または2つの未登録語である
ときには、代表メンバを決めるにあたってスコアを計算
する必要はない。すなわちクラスタのメンバが1つの未
登録語である場合には、その1つの未登録語が代表メン
バとなり、クラスタのメンバが2つの未登録語である場
合には、その2つの未登録語のうちのいずれを代表メン
バとしても良い。
【0142】また代表メンバの決定方法は、上述したも
のに限定されるものではなく、その他、例えばクラスタ
のメンバとなっている未登録語のうち、他の未登録語そ
れぞれとの特徴ベクトル空間における距離の総和を最小
にするもの等をそのクラスタの代表メンバとすることも
可能である。
【0143】以上のように構成される音声認識部80で
は、マイクロホン51に入力された音声を認識する音声
認識処理と、未登録語に関する未登録語処理が図22に
示す音声認識処理手順RT2に従って行われる。
【0144】実際上、音声認識部80では、人が発話を
行うことにより得られた音声信号S1Bがマイクロホン
51からAD変換部90を介して音声データとされて特
徴抽出部91に与えられるとこの音声認識処理手順RT
2がステップSP30において開始される。
【0145】そして続くステップSP31において、特
徴抽出部91が、その音声データを所定のフレーム単位
で音響分析することにより特徴ベクトルを抽出し、その
特徴ベクトルの系列をマッチング部92及び未登録語区
間処理部96に供給する。
【0146】マッチング部96は、続くステップS32
において、特徴抽出部91からの特注オベクトル系列に
ついて、上述したようにスコア計算を行い、この後ステ
ップS33において、スコア計算の結果得られるスコア
に基づいて、音声認識結果となる単語列の見出しを求め
て出力する。
【0147】さらにマッチング部92は、続くステップ
S34において、ユーザの音声に未登録語が含まれてい
たかどうかを判定する。
【0148】ここで、このステップS34において、ユ
ーザの音声に未登録語が含まれていないと判定された場
合、すなわち上述の未登録語用規則「$pat1=$colorl
$garbage $color2;」が適用されずに音声認識結果が
得られた場合、ステップS35に進んで処理が終了す
る。
【0149】これに対してステップS34において、ユ
ーザの音声に未登録語が含まれていると判定された場
合、すなわち未登録語用規則「$pat1=$colorl $garb
age $color2;」が適用されて音声認識結果が得られた
場合、マッチング部92は、続くステップS35におい
て、未登録語用規則の変数$garbageに対応する音声区
間を未登録語の音声区間として検出するとともに、その
変数$garbageが表すガーベジモデルにおける音韻の遷
移としての音韻系列を未登録語の音韻系列として検出
し、その未登録語の音声区間と音韻系列を未登録語区間
処理部96に供給して、処理を終了する(ステップSP
36)。
【0150】一方、未登録語機関処理部96は、特徴抽
出部91から供給される特徴ベクトル系列を一時記憶し
ており、マッチング部92から未登録語の音声区間と音
韻系列が供給されると、その音声区間における音声の特
徴ベクトル系列を検出する。さらに未登録語区間処理部
96は、マッチング部92からの未登録語(の音韻系
列)にIDを付し、未登録語の音韻系列と、その音声区
間における特徴ベクトル系列とともに、特徴ベクトルバ
ッファ97に供給する。
【0151】以上のようにして、特徴ベクトルバッファ
97に新たな未登録語(新未登録語)のID、音韻系列
及び特徴ベクトル系列が記憶されると、この後、未登録
語の処理が図23に示す未登録語処理手順RT3に従っ
て行われる。
【0152】すなわち音声認識部80においては、上述
のように特徴ベクトルバッファ97に新たな未登録語
(新未登録語)のID、音韻系列及び特徴ベクトル系列
が記憶されるとこの未登録語処理手順RT3がステップ
SP40において開始され、まず最初にステップS41
において、クラスタリング部98が、特徴ベクトルバッ
ファ97から新未登録語のIDと音韻系列を読み出す。
【0153】次いでステップS42において、クラスタ
リング部98が、スコアシート記憶部99のスコアシー
トを参照することにより、既に求められている(生成さ
れている)クラスタが存在するかどうかを判定する。
【0154】そしてこのステップS42において、すで
に求められているクラスタご存在しないと判定された場
合、すなわち新未登録語が初めての未登録語であり、ス
コアシートに既記憶未登録語のエントリが存在しない場
合には、ステップS43に進み、クラスタリング部98
が、その新未登録語を代表メンバとするクラスタを新た
に生成し、その新たなクラスタに関する情報と、親身登
録語に関する情報とをスコアシート記憶部99のスコア
シートに登録することにより、スコアシートを更新す
る。
【0155】すなわちクラスタリング部98は、特徴ベ
クトルバッファ97から読み出した新未登録語のIDお
よび音韻系列をスコアシート(図21)に登録する。さ
らにクラスタリング部98は、ユニークなクラスタナン
バを生成し、新未登録語のクラスタナンバとしてスコア
シートに登録する。またクラスタリング部98は、新未
登録語のIDをその新未登録語の代表ナンバIDとし
て、スコアシートに登録する。従ってこの場合は、新未
登録語は、新たなクラスタの代表メンバとなる。
【0156】なお、いまの場合、新未登録語とのスコア
を計算する既記憶未登録語が存在しないため、スコアの
計算は行われない。
【0157】かかるステップS43の処理後は、ステッ
プS52に進み、メンテナンス部100は、ステップS
43で更新されたスコアシートに基づいて、辞書記憶部
94の単語辞書を更新し、処理を終了する(ステップS
P54)。
【0158】すなわち、いまの場合、新たなクラスタが
生成されているので、メンテナンス部100は、スコア
シートにおけるクラスタナンバを参照し、その新たに生
成されたクラスタを認識する。そしてメンテナンス部1
00は、そのクラスタに対応するエントリを辞書記憶部
94の単語辞書に追加し、そのエントリの音韻系列とし
て、新たなクラスタの代表メンバの音韻系列、つまりい
まの場合は、新未登録語の音韻系列を登録する。
【0159】一方、ステップS42において、すでに求
められているクラスタが存在すると判定された場合、す
なわち新未登録語が初めての未登録語ではなく、従って
スコアシート(図21)に、既記憶未登録語のエントリ
(行)が存在する場合、ステップS44に進み、クラス
タリング部98は、新未登録語について、各既記憶未登
録語それぞれに対するスコアを計算すると共に、各既記
憶未登録語それぞれについて、新未登録語に対するスコ
アを計算する。
【0160】すなわち、例えば、いま、IDが1乃至N
個の既記憶未登録語が存在し、新未登録語のIDをN+
1とすると、クラスタリング部98では、図21におい
て点線で示した部分の新未登録語についてのN個の既記
憶未登録語それぞれに対するスコアs(N+1、1)、
s(N+1、2)…、s(N、N+1)と、N個の既記憶
未登録語それぞれについての新未登録語に対するスコア
s(1、N+1)、s(2、N+1)…、s(N、N+
1)が計算される。なおクラスタリング部98におい
て、これらのスコアを計算するにあたっては、新未登録
語とN個の既記憶未登録語それぞれの特徴ベクトル系列
が必要となるが、これらの特徴ベクトル系列は、特徴ベ
クトルバッファ97を参照することで認識される。
【0161】そしてクラスタリング部98は、計算した
スコアを新未登録語のID及び音韻系列とともにスコア
シート(図21)に追加し、ステップS45に進む。
【0162】ステップS45では、クラスタリング部9
8はスコアシート(図21)を参照することにより、新
未登録語についてのスコアs(N+1、i)(i=1、
2、…、N)を最も高く(大きく)する代表メンバを有
するクラスタを検出する。即ち、クラスタリング部98
は、スコアシートの代表メンバIDを参照することによ
り、代表メンバとなっている既記憶未登録語を認識し、
さらにスコアシートのスコアを参照することで、新未登
録語についてのスコアを最も高くする代表メンバとして
の既記憶未登録語を検出する。そしてクラスタリング部
98は、その検出した代表メンバとしての既記憶未登録
語のクラスタナンバのクラスタを検出する。
【0163】その後、ステップS46に進み、クラスタ
リング部98は、新未登録語をステップS45で検出し
たクラスタ(以下、適宜、検出クラスタという)のメン
バに加える。すなわちクラスタリング部98は、スコア
シートにおける新未登録語のクラスタナンバとして、検
出クラスタの代表メンバのクラスタナンバを書き込む。
【0164】そしてクラスタリング部98は、ステップ
S47において、検出クラスタを例えば2つのクラスタ
に分割するクラスタ分割処理を行い、ステップS48に
進む。ステップS48では、クラスタリング部98は、
ステップS47のクラスタ分割処理によって、検出クラ
スタを2つのクラスタに分割することができたかどうか
判定し、分割することができた判定した場合、ステップ
S49に進む。ステップS49では、クラスタリング部
98は、検出クラスタの分割により得られる2つのクラ
スタ(この2つのクラスタを、以下、適宜、第1の子ク
ラスタと第2の子クラスタという)同士の間のクラスタ
間距離を求める。
【0165】ここで、第1及び第2の子クラスタ同士間
のクラスタ間距離とは、例えば次のように定義される。
【0166】すなわち第1の子クラスタと第2の子クラ
スタの両方の任意のメンバ(未登録語)のIDを、kで
表すとともに、第1と第2の子クラスタの代表メンバ
(未登録語)のIDを、それぞれk1またはk2で表す
こととすると、次式
【0167】
【数2】
【0168】で表される値D(k1,k2)を第1と第
2の子クラスタ同士の間のクラスタ間距離とする。
【0169】ただし、(2)式において、abs()は、
()内の値の絶対値を表す。また、maxvalk{}は、kを
変えて求められる{}内の値の最大値を表す。またlog
は、自然対数又は常用対数を表す。
【0170】いま、IDがiのメンバをメンバ#Iと表
すこととすると、(2)式におけるスコアの逆数1/s
(k,k1)は、メンバ#kと代表メンバk1との距離
に相当し、スコアの逆数1/s(k,k2)は、メンハ゛#
kと代表メンバk2との距離に相当する。従って、
(2)式によれば、第1と第2の子クラスタのメンバの
うち、第1の子クラスタの代表メンバ#k1との距離
と、第2の子クラスタの代表メンバ#k2との差の最大
値が、第1と第2の子クラスタ同士の間の子クラスタ間
距離とされることになる。
【0171】なおクラスタ間距離は、上述したものに限
定されるものではなく、その他、例えば、第1の子クラ
スタの代表メンバと、第2の子クラスタの代表メンバと
のDPマッチングを行うことにより、特徴ベクトル空間
における距離の積算値を求め、その距離の積算値を、ク
ラスタ間距離とすることも可能である。
【0172】ステップS49の処理後は、ステップS5
0に進み、クラスタリング部98は、第1と第2の子ク
ラスタ同士のクラスタ逢間距離が、所定の閾値ξより大
である(あるいは、閾値ξ以上である)かどうかを判定
する。
【0173】ステップS50において、クラスタ間距離
が所定の閾値ξより大であると判定された場合、すなわ
ち検出クラスタのメンバとしての複数の未登録後が、そ
の音響的特徴からいって、2つのクラスタにクラスタリ
ングすべきものであると考えられる場合、ステップS5
1に進み、クラスタリング部98は、第1と第2の子ク
ラスタをスコアシート記憶部99のスコアシートに登録
する。
【0174】すなわちクラスタリング部98は、第1と
第2の子クラスタにユニークなクラスタナンバを割り当
て、検出クラスタのメンバのうち、第1の子クラスタに
クラスタリングされたもののクラスタナンバを第1の子
クラスタのクラスタナンバにすると共に、第2の子クラ
スタにクラスタリングされたもののクラスタナンバを第
2の子クラスタのクラスタナンバにするように、スコア
シートを更新する。
【0175】さらにクラスタリング部98は、第1の子
クラスタにクラスタリングされたメンバの代表メンバI
Dを第1の子クラスタの代表メンバのIDにすると共
に、第2の子クラスタにクラスタリングされたメンバの
代表メンバIDを第2の子クラスタの代表メンバのID
にするように、スコアシートを更新する。
【0176】なお、第1と第2の子クラスタのうちいず
れか一方には、検出クラスタのクrスタナンバを割り当
てるようにすることが可能である。
【0177】クラスタリング部98が以上のようにして
第1と第2の子クラスタをスコアシートに登録すると、
ステップS51からS52に進み、メンテナンス部10
0が、スコアシートに基づいて、辞書記憶部94の単語
辞書を更新し、処理を終了する(ステップSP54)。
【0178】すなわち、いまの場合、検出クラスタが第
1と第2の子クラスタに分割されたため、メンテナンス
部100は、まず単語辞書における検出クラスタに対応
するエントリを削除する。さらにメンテナンス部100
は、第1と第2の子クラスタそれぞれに対応する2つの
エントリを単語辞書に追加し、第1の子クラスタに対応
するエントリの音韻系列として、その第1の子クラスタ
の代表メンバの音韻系列を登録すると共に、第2の子ク
ラスタに対応するエントリの音韻系列として、その第2
の子クラスタの代表メンバの音韻系列を登録する。
【0179】一方、ステップS48において、ステップ
S47のクラスタ分割処理によって、検出クラスタを2
つのクラスタに分割することができなかったと判定され
た場合、又はステップS50において、第1と第2の子
クラスタのクラスタ間距離が所定の閾値ξより大でない
と判定された場合、従って、検出クラスタのメンバとし
ての複数の未登録後の音響的特徴が第1と第2の子クラ
スタにクラスタリングするほど似ていないものではない
場合)、ステップS53に進み、クラスタリング部98
は、検出クラスタの新たな代表メンバを求め、スコアシ
ートを更新する。
【0180】すなわちクラスタリング部98は、新未登
録後をメンバとして加えた検出クラスタの各メンバにつ
いて、スコアシート記憶部99のスコアシートを参照す
ることにより、(1)式の計算に必要なスコアs(k
3,k)を認識する。さらに、クラスタリング98は、
その認識したスコアs(k3,k)を用い、(1)式に
基づき、検出クラスタの新たな代表メンバとなるメンバ
のIDを求める。そしてクラスタリング部98は、スコ
アシート(図21)における検出クラスタの各メンバの
代表メンバIDを、検出クラスタの新たな代表メンバの
IDに書き換える。
【0181】その後、ステップS52に進み、メンテナ
ンス部100が、スコアシートに基づいて辞書記憶部9
4の単語辞書を更新し、処理を終了する(ステップSP
54)。
【0182】すなわち、いまの場合、メンテナンス部1
00は、スコアシートを参照することにより、検出クラ
スタの新たな代表メンバを認識し、さらにそのダ表メン
バの音韻系列を認識する。そしてメンテナンス部100
は、単語辞書における検出クラスタに対応するエントリ
の音韻系列を、検出クラスタの新たな代表メンバの音韻
系列に変更する。
【0183】ここで、図23のステップSP47のクラ
スタ分割処理は、図24に示すクラスタ分割処理手順R
T4に従って行われる。
【0184】すなわち音声認識部80では、図24のス
テップSP46からステップSP47に進むとこのクラ
スタ分割処理手順RT4をステップSP60において開
始し、まず最初にステップS61において、クラスタリ
ング部98が、新未登録後がメンバとして加えられた検
出クラスタから、まだ選択していない任意の2つのメン
バの組み合わせを選択し、それぞれを仮の代表メンバと
する。ここで、この2つの仮の代表メンバを、以下、適
宜、第1の仮代表メンバと第2の仮代表メンバという。
【0185】そして、続くステップS62において、ク
ラスタリング部98は、第1の仮代表メンバ及び第2の
仮代表メンバをそれぞれ代表メンバとすることができる
ように、検出クラスタのメンバを2つのクラスタに分割
することができるかどうかを判定する。
【0186】ここで、第1又は第2の仮代表メンバを代
表メンバとすることができるかどうかは(1)式の計算
を行う必要があるが、この計算に用いられるスコアs
(k’,k)は、スコアシートを参照することで認識さ
れる。
【0187】ステップS62において、第1の仮代表メ
ンバ及び第2の仮代表メンバをそれぞれ代表メンバとす
ることができるように、検出クラスタのメンバを2つの
クラスタに分割することができないと判定された場合、
ステップS62をスキップして、ステップS64に進
む。
【0188】また、ステップS62において、第1の仮
代表メンバと、第2の仮代表メンバをそれぞれ代表メン
バとすることができるように、検出クラスタのメンバを
2つのクラスタに分割することができると判定された場
合、ステップS63に進み、クラスタリング部98は、
第1の仮代表メンバと、第2の仮代表メンバがそれぞれ
代表メンバとなるように、検出クラスタのメンバを2つ
のクラスタに分割し、その分割後の2つのクラスタの組
を、検出クラスタの分割結果となる第1及び第2の子ク
ラスタの候補(以下、適宜、候補クラスタの組という)
として、ステップS64に進む。
【0189】ステップS64では、クラスタリング部9
8は、検出クラスタのメンバの中で、まだ第1と第2の
仮代表メンバの組として選択していない2つのメンバの
組があるかどうかを判定し、あると判定した場合、ステ
ップS61に戻り、まだ第1と第2の仮代表メンバの組
として選択していない検出クラスタの2つのメンバの組
が選択され、以下、同様の処理が繰り返される。
【0190】またステップS64において、第1と第2
の仮代表メンバの組として選択していない検出クラスタ
の2つのメンバの組がないと判定された場合、ステップ
S65に進み、クラスタリング部98は、候補クラスタ
の組が存在するかどうかを判定する。
【0191】ステップS65において、候補クラスタの
組が存在しないと判定された場合、ステップS66をス
キップして、リターンする。この場合は、図23のステ
ップS48において、検出クラスタを分割することがで
きなかったと判定される。
【0192】一方、ステップS65において、候補クラ
スタの組が存在すると判定された場合、ステップS66
に進み、クラスタリング部98は、候補クラスタの組が
複数存在するときには、各候補クラスタの組の2つのク
ラスタ同士の間のクラスタ間距離を求める。そして、ク
ラスタリング部98は、クラスタ間距離が最小の候補ク
ラスタの組を求め、その候補クラスタの組を検出クラス
タの分割結果をして、すなわち第1と第2の子クラスタ
として、リターンする。なお、候補クラスタの組が1つ
だけの場合は、その候補クラスタの組がそのまま第1と
第2の子クラスタとされる。
【0193】この場合は、図23のステップS48にお
いて、検出クラスタを分割することができたと判定され
る。
【0194】以上のように、クラスタリング部98にお
いて、既に求められている未登録語をクラスタリングし
たクラスタの中から、新未登録語を新たなメンバとして
加えるクラスタ(検出クラスタ)を検出し、新未登録語
をその検出クラスタの新たなメンバとして、検出クラス
タをその検出クラスタのメンバに基づいて分割するよう
にしたので、未登録語をその音響的特徴が近似している
もの同士に容易にクラスタリングすることができる。
【0195】さらにメンテナンス部100において、そ
のようなクラスタリング結果に基づいて単語辞書を更新
するようにしたので、単語辞書の大規模化を避けなが
ら、未登録語の単語辞書への登録を容易に行うことがで
きる。
【0196】また、例えば、仮に、マッチング部92に
おいて、未登録語の音声区間の検出を誤ったとしても、
そのような未登録語は、検出クラスタの分割によって、
音声区間が正しく検出された未登録語とは別のクラスタ
にクラスタリングされる。そして、このようなクラスタ
に対応するエントリが単語辞書に登録されることになる
が、このエントリの音韻系列は正しく検出されなかった
音声区間に対応するものとなるから、その後の音声認識
において大きなスコアを与えることはない。従って、仮
に、未登録語の音声区間の検出を誤ったとしても、その
誤りはその後の音声認識にはほとんど影響しない。
【0197】ここで、図25は、未登録語の発話を行っ
て得られたクラスタリング結果を示している。なお、図
25においては、各エントリ(各行)が1つのクラスタ
を表している。また、図25の左欄は、各クラスタの代
表メンバ(未登録語)の音韻系列を表しており、図25
の右欄は、各クラスタのメンバとなっている未登録語の
発話内容と数を表している。
【0198】すなわち図25において、例えば第1行の
エントリは、未登録語「風呂」の1つの発話だけがメンバ
となっているクラスタを表しており、その代表メンバの
音韻系列は、「doroa:」(ドロアー)になっている。ま
た、例えば第2行のエントリは、未登録語「風呂」の3つ
の発話がメンバとなっているクラスタを表しており、そ
の代表メンバの音韻系列は、「kuro」(クロ)になってい
る。
【0199】さらに、例えば第7行のエントリは、未登
録語「本」の4つの発話がメンバとなっているクラスタを
表しており、その代表メンバの音韻系列は、「NhoNde:s
u」(ンホンテース)になっている。また、例えば第8行
のエントリは、未登録語「オレンジ」の1つの発話と、未
登録語「本」の19の発話がメンバとなっているクラスタ
を表しており、その代表メンバの音韻系列は、「ohoN」
(オホン)になっている。他のエントリも同様のことを
表している。
【0200】図25によれば、同一の未登録語の発話に
ついて、良好にクラスタリングされていることが分か
る。
【0201】なお、図25の第8行のエントリにおいて
は、未登録語「オレンジ」の1つの発話と、未登録語「本」
の19の発話が、同一のクラスタにクラスタリングされ
ている。このクラスタはそのメンバとなっている発話か
ら、未登録語「本」のクラスタとなるべきであると考えら
れるが、未登録語「オレンジ」の発話も、そのクラスタの
メンバとなっている。しかしながらこのクラスタも、そ
の後に未登録語「本」の発話がさらに入力されていくと、
クラスタ分割され、未登録語「本」の発話だけをメンバと
するクラスタと、未登録語「オレンジ」の発話だけをメン
バとするクラスタにクラスタリングされると考えられ
る。
【0202】(5)対話制御システムを用いたユーザと
ロボットとの対話 (5−1)言葉遊びにおけるコンテンツデータの取得及
び提供 実際に図6に示す対話制御システム63では、ユーザが
ロボット1との間で言葉遊びによる対話を行う場合、ユ
ーザからの要求に応じてロボット1が言葉遊びの具体的
な内容(例えば「なぞなぞ」)を表すコンテンツデータを
コンテンツサーバ61内のデータベースから取得して、
当該コンテンツデータに基づく問題等をユーザに対して
発話することができるようになされている。
【0203】この対話制御システムにおいて、ロボット
1は、ユーザから例えば「なぞなぞをしよう」という発
話をスピーカ54を介して集音すると、図26に示すコ
ンテンツデータ取得処理手順RT5をステップSP70
から開始し、続くステップSP71において、ユーザの
発話内容を音声認識処理した後、ユーザごとに対応して
作成しておいたプロファイルデータをメイン制御部40
内のメモリ40Aから読み出してロードする。
【0204】かかるプロファイルデータは、メイン制御
部40内のメモリ40Aに格納されており、図27に示
すように、ユーザごとに既に行った言葉遊びの種類が記
述され、さらに当該種類ごとにそれぞれ問題の難易度
(レベル)、既に遊んだID及び当該遊んだ回数が記述
されている。
【0205】具体的には、まずユーザ名が「○田△子」の
ユーザでは、言葉遊びのうち「なぞなぞ」について、レベ
ルが「2」、既に遊んだIDが「1、3、…」及び遊んだ回
数が「10」であり、「山手線ゲーム」について、レベルが
「4」、既に遊んだIDが「1、2、…」及び遊んだ回数が
「5」である。またユーザ名が「□山×男」のユーザでは、
言葉遊びのうち「なぞなぞ」について、レベルが「5」、既
に遊んだIDが「3、4、…」及び遊んだ回数が「30」で
あり、「山手線ゲーム」について、レベルが「2」、既に遊
んだIDが「2、5、…」及び遊んだ回数が「2」である。
【0206】そしてこのプロファイルデータは、コンテ
ンツサーバ61に送出する一方、当該コンテンツサーバ
61からフィードバックされることにより適宜更新され
るようになされている。具体的には、言葉遊びのうち
「なぞなぞ」について、正解すれば難易度(レベル)を上
げると共に、人気がなければ面白くない問題であったと
判断してそのタイプの問題を避けるようにプロファイル
データを更新する。
【0207】そしてロボット1は、ステップSP72に
おいて、言葉遊びのうち「なぞなぞ」を要求するデータを
ネットワーク62を介してコンテンツサーバ61に送信
した後、ステップSP73に進む。
【0208】コンテンツサーバ61は、ロボット1から
要求データを受信すると、コンテンツデータ提供処理手
順RT6をステップSP80から開始し、続くステップ
SP81において、該当するロボット1との間で通信可
能な接続状態を確立する。
【0209】ここでコンテンツサーバ61内のデータベ
ースには、言葉遊びの種類(例えば「なぞなぞ」や「山手
線ゲーム」等)ごとにコンテンツデータが生成され、当
該コンテンツデータは、その種類に合わせて設定された
複数の出題内容がID番号を付して記述されている。
【0210】例えば図28に示すように、言葉遊びのう
ち「なぞなぞ」について4個の出題内容が順次ID番号が
割り当てられて記述されている(以下、これらを第1〜
第4の出題内容ID1〜ID4という)。これら第1〜
第4の出題内容ID1〜ID4は、それぞれ問題と、当
該問題に対する答えと、当該答えに対する理由とが順次
記述されたものである。
【0211】まず第1の出題内容ID1では、問題が
「4歳と5歳の子供しか住んでいない外国の都市は?」、
答えが「シカゴ」、及び理由が「4歳と5歳でシかゴだよ」
として記述されている。また第2の出題内容ID2で
は、問題が「少ししか人が乗っていないのに一杯な車は
なんだ?」、答えが「救急車」、及び理由が「キュウキュウ
で一杯だよ」として記述されている。さらに第3の出題
内容ID3では、問題が「家の中で暖房が効かない場所
はどこだ?」、答えが「玄関」、及び理由が「厳しい寒さで
厳寒だよ」として記述されている。さらに第4の出題内
容ID4では、問題が「落ち込んでいても2回食べると
元気になるのは?」、答えが「海苔」、及び理由が「2回で
のりのりだよ」として記述されている。
【0212】そしてコンテンツデータには、言葉遊びの
種類に応じて設定されるオプションデータが付加されて
おり、第1〜第4の出題内容ID1〜ID4に対応して
それぞれ問題の難易度及び出題回数に応じた人気度が数
値化されて記述されている。このオプションデータはロ
ボット1からのアクセス回数やユーザの解答結果等に基
づいて内容が逐次更新されるようになされている。
【0213】続いてコンテンツサーバ61は、ロボット
1に対して「なぞなぞ」についてのコンテンツデータに付
加されたオプションデータを送信した後、ステップSP
83に進む。
【0214】やがてロボットは、ステップSP73にお
いて、コンテンツサーバ61から送信されたオプション
データを受信すると、当該オプションデータとユーザに
対応するプロファイルデータとを比較する。そしてロボ
ット1は、コンテンツデータの中から該当するユーザに
最も合った出題内容を選択して、当該出題内容を要求す
る旨のデータをネットワーク62を介してコンテンツサ
ーバ61に送信する。
【0215】具体的には上述した図27に示すように、
例えばユーザ名が「○田△子」のユーザが言葉遊びのうち
「なぞなぞ」をする場合、このユーザについてのプロファ
イルデータをコンテンツサーバ61に送信して、当該プ
ロファイルデータに基づく「なぞなぞ」のレベル「2」に相
当する出題内容を表すコンテンツデータを要求する。
【0216】コンテンツサーバ61は、ステップSP8
3において、ロボット1から送信されたデータに基づい
て、データベースから対応するコンテンツデータを読み
出した後、ネットワーク62を介してロボット1に送信
し、ステップSP84に進む。
【0217】具体的にはロボット1から得られたプロフ
ァイルデータが「なぞなぞ」のレベルが「2」を表す場合、
そのレベルに合った問題、すなわち図28に示すオプシ
ョンデータのうち難易度「2」に相当する出題内容を表す
コンテンツデータを選択してロボット1に送信する。こ
の場合、コンテンツデータのうち第1及び第4の出題内
容ID1、ID4が該当するが、ユーザ名「○田△子」
における既に遊んだIDが「1」を含むため、第1の出題
内容ID1ではなく、未だ遊んだことのない第4の出題
内容ID4をコンテンツサーバ61はロボット1に送信
する。
【0218】そしてステップSP74において、ロボッ
ト1は、コンテンツサーバ61から取得したコンテンツ
データをロードした後、ステップSP75に進んで、コ
ンテンツサーバ61に対して通信接続の切断要求を表す
旨のデータをネットワーク62を介して送信し、ステッ
プSP76に進んで当該コンテンツデータ取得処理手順
RT5を終了する。
【0219】一方、コンテンツサーバ61は、ステップ
SP84において、ロボット1から送信されたデータに
基づいて、当該ロボット1との間で確立されている通信
接続を切断した後、ステップSP85に進んで当該コン
テンツデータ提供処理手順RT6を終了する。
【0220】このようにしてコンテンツデータ取得処理
手順RT5においては、ロボット1は、ユーザと言葉遊
びをする際、当該言葉遊びのうちユーザによって特定の
種類(なぞなぞ等)が指定されたとき、当該種類を構成
する複数の出題内容の中からユーザに最適な出題内容を
コンテンツサーバ61から取得することができる。
【0221】またコンテンツデータ提供処理手順RT6
においては、コンテンツサーバ61は、ロボット1から
の要求に応じて、データベースに格納されている複数の
コンテンツデータのうちユーザに最適な出題内容を含む
コンテンツデータを選択してロボット1に提供すること
ができる。
【0222】(5−2)ロボットとユーザとの言葉遊び
による対話シーケンス ここでロボット1のメイン制御部40内のメモリ40A
には、ロボット1とユーザとが言葉遊びによる対話を行
う場合に、当該言葉遊びの種類ごとに、ロボット1とユ
ーザとの対話のやり取りを表す対話モデルが予め決めら
れており、当該対話モデルに基づいて、言葉遊びの種類
が同一であれば(例えば「なぞなぞ」に関する限り)、
コンテンツデータを入れ替えるだけで、新たに異なる出
題内容等をユーザに提供することができるようになされ
ている。
【0223】実際にロボット1はユーザから言葉遊びを
行う旨の発話を受け取ると、図29に示すように、ロボ
ット1のメモリ制御部40がこの言葉遊びの種類に対応
する対話モデルに基づいて、ユーザとの対話のときに次
のロボット1による発話内容を順次決定していくように
なされている。
【0224】かかる対話モデルでは、ロボット1がとり
得る発話をそれぞれノードNDB1〜NDB7として、
遷移可能なノード間を発話を表す有向アークで結び、か
つ1つのノード間で完結する発話を自己発話アークとし
て表現する有向グラフを用いる。
【0225】このためメモリ40Aには、このような有
向グラフの元となる、当該ロボット1が発話できる全て
の発話をデータベース化したファイルが格納されてお
り、このファイルに基づいて有向グラフを生成する。
【0226】ロボット1のメイン制御部40は、ユーザ
から言葉遊びを行う旨の発話を受け取ると、対応する有
向グラフを用いて、有向アークの向きに従いながら現在
のノードから指定された発話が対応付けられた有向アー
ク若しくは自己動作アークに至る経路を探索し、当該探
索した経路上の各有向アークにそれぞれ対応付けられた
発話を順次行わせるような指令を次々と出力するように
なされている。
【0227】実際にユーザとロボット1との間で言葉遊
びの種類のうち「なぞなぞ」による対話を行う場合を説
明する。まずロボット1が例えば「4歳と5歳の子供し
か住んでいない外国の都市はどこでしょう?」という出
題内容を表すコンテンツデータをコンテンツサーバ61
から取得して(ノードND1)、当該出題内容をユーザ
に向けて発話する(ノードND2)。
【0228】そしてロボット1はユーザからの応答を待
ち(ノードND3)、ユーザの発話が正解である「シカ
ゴ」であれば、「あたり〜!」と発話して(ノードND
4)、その理由である「4と5でシカゴだよ」と発話する
(ノードND7)。
【0229】またユーザの発話が不正解であれば、「ち
がうよ。答え聞く?」と発話した後(ノードND5)、
ユーザから「はい」という返事が得られれば「答えはね
え、シカゴ!」と答えを発話した後(ノードND6)、
さらにその理由である「4と5でシカゴだよ」と発話する
(ノードND7)一方、「きかない」という返事が得ら
れれば、再度ユーザからの応答を待つ(ノードND
3)。
【0230】さらにユーザの発話が「こうさん」であれ
ば、「答えはねえ、シカゴ!」と答えを発話した後(ノ
ードND6)、さらにその理由である「4と5でシカゴ
だよ」と発話する(ノードND7)。また一定時間が経
過しても、ユーザから何も発話されないときには、ロボ
ット1は「ねえねえ、まだ?」と発話して(ノードND
3)、ユーザからの応答を促すようにする。
【0231】このようにロボット1はユーザの発話に関
連する応答として、単に正解を発話するのみならず、正
解の理由をも発話することにより、ユーザにとってロボ
ット1と「なぞなぞ」をするときの面白さを増大させる
ことができる。
【0232】さらにこのように正解の理由をもロボット
1が発話することにより、ロボット1がユーザの発話内
容を誤認識した場合でもそのことをユーザは知ることが
できる。
【0233】これはゲームなので、ユーザがあえてロボ
ット1の音声認識の誤りを訂正する必要は特にはない
が、ロボット1がユーザの発話内容を誤認識した場合で
も、それを間接的にユーザに伝えることで、言葉遊びの
ゲームをスムーズに進行させることができる。
【0234】(5−3)オプションデータの更新 図6に示す対話制御システム63では、上述したコンテ
ンツデータ取得処理手順RT5及びコンテンツデータ提
供処理手順RT6(図26)において述べたように、ロ
ボット1がコンテンツサーバ61からコンテンツデータ
を取得すると、どのデータを取得したのかの情報がその
コンテンツデータに付加されたオプションデータに反映
される。
【0235】例えば、ロボット1が言葉遊びのうち何の
種類さらには何の出題内容を何回取得したかの指標とな
る人気のデータの値が変更される。
【0236】またロボット1がユーザに言葉遊びを出題
したときに、その出題内容に対してユーザが正解したか
否かのデータも、ネットワーク62を介してコンテンツ
サーバ61にフィードバックされ、当該問題の難易度に
反映されるようにその値が更新される。
【0237】このようにロボット1からコンテンツサー
バ61内のデータベースへのフィードバックは、ユーザ
が意識することなくロボット1によって自動的に行われ
るものもあるが、例えばロボット1との対話によってコ
ンテンツサーバ61へのフィードバックをユーザから直
接取得するようにしても良い。
【0238】ここでコンテンツサーバ61において、ロ
ボット1からフィードバックされたコンテンツデータに
基づいて、当該コンテンツデータに付加されたオプショ
ンデータを更新する場合について説明する。
【0239】ロボット1がコンテンツサーバ61からコ
ンテンツデータを取得すると、どのデータを取得したの
かの情報がそのコンテンツデータに付加されたオプショ
ンデータに反映される。
【0240】実際に図6に示す対話制御システム63で
は、ユーザがロボット1との間で言葉遊びによる対話を
行った後、ロボット1が人気指標を更新すると自発的又
はユーザからの発話に応じて決定すると、図30に示す
人気指標集計処理手順RT7をステップSP90から開
始し、続くステップSP91において、コンテンツサー
バ61に対してアクセス要求を表すデータを送信する。
【0241】コンテンツサーバ61は、ロボット1から
要求データを受信すると、オプションデータ更新処理手
順RT8をステップSP100から開始し、続くステッ
プSP101において、該当するロボット1との間で通
信可能な接続状態を確立する。
【0242】そしてロボット1は、ステップSP92に
進んで、「今の問題面白かった?」といった質問をユーザ
に対して発話した後、ステップSP93に進む。
【0243】このステップSP93において、ロボット
1は、ユーザからの応答を待った後、当該応答を受け取
ったときステップSP94に進む。このステップSP9
4において、ロボット1は、ユーザからの応答の内容が
「つまんなかった」又は「おもしろかった」のいずれか
を判断し、「つまんなかった」と判断した場合にはステ
ップSP95に進んで、人気のレベル値をデクリメント
(減少)させるように要求する旨の要求データをネット
ワーク62を介してコンテンツサーバ61に送信した
後、ステップSP97に進む。
【0244】これに対してステップSP94において、
ロボット1は、ユーザからの応答の内容が「おもしろか
った」と判断した場合にはステップSP96に進んで、
人気のレベル値をインクリメント(増加)させるように
要求する旨の要求データをネットワーク62を介してコ
ンテンツサーバ61に送信した後、ステップSP97に
進む。
【0245】コンテンツサーバ61は、ステップSP1
02において、ロボット1から送信された要求データに
基づいて、データベースから対応するコンテンツデータ
に付加されたオプションデータを読み出した後、当該オ
プションデータの記述内容のうち「人気度」の値を減少又
は増加させる。
【0246】そしてコンテンツサーバ61は、ステップ
SP103において、オプションデータの更新が終了し
た旨の応答データをネットワーク62を介してロボット
1に送信した後、ステップSP104に進む。
【0247】ロボット1は、コンテンツサーバ61から
送信された応答データに基づいて、オプションデータが
更新された旨を確認した後、当該コンテンツサーバ61
に対して通信接続の切断要求を表す旨の要求データをネ
ットワーク62を介してコンテンツサーバ61に送信
し、そのままステップSP98に進んで当該人気指標集
計処理手順RT7を終了する。
【0248】コンテンツサーバ61は、ステップSP1
04において、ロボット1から送信された要求データに
基づいて、当該ロボット1との間で確立されている通信
接続を切断した後、ステップSP105に進んで当該オ
プションデータ更新処理手順RT8を終了する。
【0249】このようにして人気指標集計処理手順RT
7においては、ロボット1は、ユーザに出題したコンテ
ンツデータに基づく出題内容について、その面白さの是
非を当該ユーザに問うことにより、その問題の人気の有
無を確認することができる。
【0250】またオプションデータ更新処理手順RT8
においては、ロボット1から得られたコンテンツデータ
に基づく出題内容についての人気の有無に基づいて、当
該コンテンツデータに付加されたオプションデータの記
述内容を更新することにより、そのユーザにとって当該
出題内容の面白さや好み等を次回の際に反映させること
ができる。
【0251】(5−4)コンテンツデータの登録 ここでコンテンツサーバ61内のデータベースに格納さ
れている言葉遊びの種類ごとに登録されているコンテン
ツデータは、当該コンテンツデータに基づく出題内容及
びその答え並びにその答えの理由(以下、単に出題内容
等と呼ぶ)を、各ユーザが発話することによりロボット
1を介して間接的にコンテンツサーバ61に登録させる
場合と、各ユーザがロボット1を介することなく、自己
の個人端末等を用いて直接的にコンテンツサーバ61に
登録させる場合の2通りがある。以下にそれぞれの場合
について説明する。
【0252】(5−4−1)ロボット1を介して間接的
に出題内容等を追加登録させる場合 図6に示す対話制御システム63では、ユーザの発話に
より出題内容等を受け取ったロボット1は、当該出題内
容等をネットワーク62を介してコンテンツサーバ61
に送信することにより、当該コンテンツデータ内のデー
タベースに追加登録させるようになされている。
【0253】この対話制御システム63において、ロボ
ット1は、ユーザから新しい出題内容等を表す発話をス
ピーカ54を介して集音すると、図31に示すコンテン
ツ収集処理手順RT9をステップSP110から開始
し、続くステップSP111において、コンテンツサー
バ61に対してアクセス要求を表す要求データを送信す
る。
【0254】そしてコンテンツサーバ61は、ロボット
1から要求データを受信すると、コンテンツデータ追加
登録処理手順RT10をステップSP120から開始
し、続くステップSP121において、該当するロボッ
ト1との間で通信可能な接続状態を確立する。
【0255】そしてロボット1は、ステップSP112
に進んで、ユーザから取得した出題内容等を表す取得デ
ータをネットワーク62を介してコンテンツサーバ61
に送信した後、ステップSP113に進む。
【0256】コンテンツサーバ61は、ステップSP1
22において、ロボット1から送信された取得データに
基づいて、当該取得データをコンテンツデータとしてI
D番号を割り当てた後、ステップSP123に進む。
【0257】このステップSP123では、コンテンツ
サーバ61は、データベースにおいて該当するユーザに
対応しかつ言葉遊びの種類に対応する記憶位置に、当該
ID番号を割り当てた出題内容等を登録する。この結
果、データベースには、該当するユーザにおける言葉遊
びの該当する種類において、第N(Nは自然数)の出題
内容IDNが追加して記述されることとなる。
【0258】そしてコンテンツサーバ61は、ステップ
SP124に進んで、コンテンツデータの追加登録が終
了した旨の応答データをネットワーク62を介してロボ
ット1に送信した後、ステップSP125に進む。
【0259】ロボット1は、コンテンツサーバ61から
送信された応答データに基づいて、コンテンツデータが
追加登録された旨を確認した後、当該コンテンツサーバ
61に対して通信接続の切断要求を表す旨の要求データ
をネットワーク62を介してコンテンツサーバ61に送
信し、そのままステップSP114に進んで当該コンテ
ンツ収集処理手順RT9を終了する。
【0260】コンテンツサーバ61は、ステップSP1
25において、ロボット1から送信された要求データに
基づいて、当該ロボット1との間で確立されている通信
接続を切断した後、ステップSP126に進んで当該コ
ンテンツデータ追加登録処理手順RT10を終了する。
【0261】このようにしてコンテンツ収集処理手順R
T9においては、ロボット1は、ユーザから発話した新
しい出題内容等を、コンテンツサーバ61内のデータベ
ースにそのユーザに応じたコンテンツデータとして追加
登録させることができる。
【0262】またコンテンツデータ追加登録処理手順R
T10においては、ロボット1から得られた出題内容等
に基づいて、当該出題内容等をコンテンツデータとして
そのユーザに関する記述内容に追加して登録することに
より、当該ユーザのみならず他のユーザにとってもコン
テンツの種類が増大した分より一層面白さを増すことが
できる。
【0263】このことは新たな出題内容等を発話したユ
ーザにとっても、コンテンツサーバ61にアクセスして
データベースに格納されているオプションデータを読み
出すことにより、自分が提案した出題内容等がどの程度
他のユーザに使用されているかなどを知ることができ、
出題内容等の登録そのものに楽しみを持たせることがで
きる。
【0264】ここで上述した対話モデルを用いて、実際
にロボット1がユーザの発話により出題内容等を受け取
ると、図31に示すように、ロボット1のメモリ制御部
40がこの言葉遊びの種類に対応する対話モデルに基づ
いて、ユーザとの対話のときに次のロボット1による発
話内容を順次決定していくようになされている。
【0265】まずロボット1が「面白い問題教えて」と
ユーザに向けて発話する。そしてロボット1はユーザか
らの応答を待ち(ノードND10)、ユーザの発話が
「いいよ」であれば、「問題を言ってよ」と発話した後
(ノードND11)、さらにユーザからの応答を待つ。
【0266】一方、ユーザの発話が「いやだ」であれ
ば、「う〜ん、残念」と発話した後(ノードND1
2)、かかる対話シーケンスを終了する。
【0267】やがてロボット1は、ユーザから問題とし
て例えば「落ち込んでいても2回食べると元気になる食
べ物は?」という発話を受け取ると、その音声認識結果
(問題の言葉)を繰り返し発話する(ノードND1
3)。
【0268】この発話を聞いたユーザが「そうだよ」と
発話した場合には、ロボット1は「答えは?」とその問
題の答えを要求する発話を行う一方(ノードND1
4)、ユーザが「ちがうよ」と発話した場合には、ロボ
ット1は「もう一回問題を言ってよ」と再度問題を要求
する発話を行う(ノードND11)。
【0269】そしてユーザから答えである「海苔」とい
う発話を受け取ると、その音声認識結果(答えの言葉)
を繰り返し発話する(ノードND15)。この発話を聞
いたユーザが「そうだよ」と発話した場合には、ロボッ
トは「理由は?」とその答えの理由を要求する発話を行
う一方(ノードND16)、ユーザが「ちがうよ」と発
話した場合には、ロボットは「もう一回答えを言って
よ」と再度答えを要求する発話を行う(ノードND1
4)。
【0270】そしてユーザから理由である「2回でノリ
ノリだよ」という発話を受け取ると、その音声認識結果
(理由の言葉)を繰り返し発話する(ノードND1
7)。この発話を聞いたユーザが「そうだよ」と発話し
た場合には、ロボットは「じゃ、登録するね」と発話す
る一方(ノードND18)、ユーザが「ちがうよ」と発
話した場合には、ロボットは「もう一回理由を言って
よ」と再度理由を要求する発話を行う(ノードND1
6)。
【0271】この後ロボット1はユーザから取得した問
題及びその答え並びにその答えの理由をネットワーク6
2を介してコンテンツサーバ61内のデータベースにコ
ンテンツデータとして追加登録する。
【0272】このようにロボット1は、ユーザから新た
に取得した出題内容等をコンテンツデータとしてそのユ
ーザに関する記述内容に追加して登録することにより、
ユーザに対してより一層多くのコンテンツを提供するこ
とができる。
【0273】(5−4−2)ロボットを介さずに直接的
に出題内容等を修正させる場合 また図6に示す対話制御システム63では、上述のコン
テンツ収集処理手順RT9及びコンテンツデータ追加登
録処理手順RT10のように、ユーザがロボット1を介
して新たな出題内容等をコンテンツサーバ61内のデー
タベースに追加登録させた後に、ユーザが作成した出題
内容等のうち例えば問題の答えに対する理由が、ユーザ
の発話に関連する応答(すなわち暗に問題の解答の確
認)にならない場合や、当該出題内容等の問題が難しす
ぎて誰も答えられない場合がある。
【0274】これらの場合には、ユーザが自己のパーソ
ナルコンピュータ等の端末装置を用いてネットワーク6
2を介してコンテンツサーバ61にアクセスし、データ
ベース内の対応するコンテンツデータの記述内容を修正
することができるようになされている。
【0275】具体的には、ユーザが登録した出題内容等
について、例えばその問題が「落ち込んでいても2回食
べると元気になるのは?」であり、その答え「海苔」に
対する理由が「2回食べると元気になるからだよ」となっ
ている場合には、答えである「海苔」を連想させることが
できない。
【0276】このためコンテンツサーバ61は、ユーザ
から「理由がよくわからない」などのフィードバックを受
けると、ユーザが自己の端末装置を用いてデータベース
にアクセスして当該コンテンツデータに基づく出題内容
等のうちの理由を「2回でのりのりだよ」と書き換えるこ
とで、当該コンテンツデータを修正することができる。
【0277】なお、コンテンツデータの修正は、データ
ベースにアクセスできるユーザのみならず、データベー
スの管理者が修正しても良い。さらに部分的にコンテン
ツデータを更新するのみならず、コンテンツデータを全
て作成し直すようにしても良い。
【0278】(6)本実施の形態の動作及び効果 以上の構成において、この対話制御システム63では、
ロボット1とユーザとの間で言葉遊びによる対話をする
際、ユーザから言葉遊びの種類(なぞなぞ等)が指定さ
れたとき、ロボットは、当該ユーザについてのプロファ
イルデータを読み出して、ネットワーク62を介してコ
ンテンツサーバ61に送信する。
【0279】コンテンツサーバは、ロボット1から受信
したプロファイルデータに基づいて、データベースに格
納されている複数のコンテンツデータの中からユーザに
最適な出題内容等を含むコンテンツデータを選択した
後、当該コンテンツデータをロボット1に提供すること
ができる。
【0280】その際、ロボット1とユーザとの言葉遊び
の際に、ロボットが発話した出題内容についてユーザが
答えた後、ロボットがその答えの理由を一言述べるよう
にしたことにより、対話自体が知的に見えてより面白く
させることができるのみならず、ロボットがどう認識し
たのかをユーザに提示することとなり、ユーザが自己の
発話と同じである場合にはユーザに安心感を与えること
ができる一方、ユーザが自己の発話と異なる場合にもそ
の旨をユーザに認識させることができる。
【0281】このようにロボット1がユーザの発話内容
をいちいち確認しないため、ユーザとの会話の流れやリ
ズムを止めることがなく、あたかも人間同士が会話して
いるかのごとく自然な日常会話を実現することができ
る。
【0282】また対話制御システム63では、ロボット
1は、ユーザに出題したコンテンツデータに基づく出題
内容について、その面白さの是非を当該ユーザに問いか
け、その結果をコンテンツサーバにフィードバックさせ
るようにしたことにより、当該コンテンツサーバではそ
の出題内容の人気の有無等について統計的な評価をとる
ことができる。
【0283】さらにコンテンツサーバは、その出題内容
についての統計的な評価に基づいて、コンテンツデータ
に付加されたオプションデータの記述内容を更新するこ
とにより、当該ユーザのみならず他のユーザにとっても
その出題内容の面白さや好み等を次回の際に反映させる
ことができる。
【0284】さらに対話制御システム63では、ロボッ
ト1がユーザから新たに取得した出題内容等をコンテン
ツサーバに送信して、当該コンテンツサーバにおいてデ
ータベースに追加して登録するようにしたことにより、
ユーザに対してより一層多くのコンテンツを提供するこ
とができ、その分ユーザに飽きさせることなくロボット
との対話を広く普及させることができる。
【0285】以上の構成によれば、この対話制御システ
ム63において、ロボット1とユーザとの間で言葉遊び
による対話をする際、ユーザから言葉遊びの種類(なぞ
なぞ等)が指定されたとき、ロボットは当該ユーザにつ
いてのプロファイルデータをコンテンツサーバ61に送
信し、当該コンテンツサーバ61がデータベースからユ
ーザに最適な出題内容等を含むコンテンツデータを選択
してロボット1に提供するようにしたことにより、ロボ
ットの会話に面白みを持たせることができ、かくしてエ
ンターテイメント性を格段的に向上させることができ
る。
【0286】(7)他の実施の形態 なお上述のように本実施の形態においては、本発明を図
1〜図3のように構成された2足歩行型のロボット1に
適用するようにした場合について述べたが、本発明はこ
れに限らず、例えば4脚歩行型のロボットなど、この他
種々の形態のペットロボットに広く適用することができ
る。
【0287】また上述の実施の形態においては、ロボッ
ト1において、人間と対話するための機能を有し、当該
対話を通じて対象とするユーザの発話を認識する対話手
段として、胴体部ユニット2内のメイン制御部40(対
話制御部82)を適用するようにした場合について述べ
たが、本発明はこれに限らず、この他種々の構成からな
る対話手段に広く適用するようにしても良い。
【0288】さらに上述の実施の形態においては、ロボ
ット1において、ユーザの発話内容のうち、言葉遊びに
関するプロファイルデータ(履歴データ)を生成する生
成手段と、当該生成されたプロファイルデータ(履歴デ
ータ)を、言葉遊びを通じて得られるユーザの発言内容
に応じて更新する更新手段とを、メイン制御部40から
構成すると共に、当該プロファイルデータ(履歴デー
タ)をメイン制御部40内のメモリ40Aに格納してお
くようにした場合について述べたが、本発明はこれに限
らず、生成手段及び更新手段は一体又は別体にかかわら
ずこの他種々の構成のものに広く適用するようにしても
良い。
【0289】また言葉遊びとして、本実施の形態におい
ては、なぞなぞや山手線ゲームを適用したが、これ以外
にも、尻取り、しゃれ、語呂あわせ、アナグラム(言葉
の綴りの順番を変えて別の意味にする遊び)及び早口言
葉など、要するに言葉の発音・リズム・意味などを利用
した種々の遊びに広く適用することができる。
【0290】さらに上述の実施の形態においては、ロボ
ット1において、言葉遊びの開始の際には、履歴データ
をネットワークを介してコンテンツサーバ(情報処理装
置)61に送信する通信手段として、胴体部ユニット2
内に装着した所定の無線通信規格に対応した無線LAN
カード(図示せず)を適用するようにした場合について
述べたが、本発明はこれに限らず、その他の無線通信回
線網のみならず、一般公衆回線やLAN等の有線通信回
線網をも適用するようにしても良い。
【0291】さらに上述の実施の形態においては、コン
テンツサーバ(情報処理装置)61において、複数の言
葉遊びの内容を表すコンテンツデータ(内容データ)を
記憶する記憶手段として、コンテンツサーバ61内のハ
ードディスク装置68に格納されたデータベースを適用
するようにした場合について述べたが、本発明はこれに
限らず、コンテンツデータ(内容データ)を、必要に応
じて複数のロボット1が共有できるようにデータベース
管理することができれば、種々の構成からなる記憶手段
に広く適用するようにしても良い。
【0292】さらに上述の実施の形態においては、コン
テンツサーバ(情報処理装置)61において、ロボット
1からネットワーク62を介して送信されたプロファイ
ルデータ(履歴データ)を検出する検出手段として、C
PU65を適用するようにした場合について述べたが、
本発明はこれに限らず、この他種々の構成の検出手段を
適用するようにしても良い。
【0293】さらに上述の実施の形態においては、コン
テンツサーバ(情報処理装置)において、検出したプロ
ファイルデータ(履歴データ)に基づいて、データベー
ス(記憶手段)からコンテンツデータ(内容データ)を
選択的に読み出してネットワーク62を介して元のロボ
ット1に送信する通信制御手段として、CPU65及び
ネットワークインターフェイス部69を適用するように
した場合について述べたが、本発明はこれに限らず、こ
の他種々の構成の通信制御手段を適用するようにしても
良い。
【0294】さらに上述の実施の形態においては、ロボ
ット1では、ユーザに出力したコンテンツデータ(内容
データ)に基づく言葉遊びの内容に関する評価を当該ユ
ーザの発話から認識した後、プロファイルデータ(履歴
データ)を評価に応じて更新し、当該更新されたプロフ
ァイルデータ(履歴データ)をコンテンツサーバ(情報
処理装置)61に送信する。そしてコンテンツサーバ
(情報処理装置)61では、言葉遊びのコンテンツデー
タ(内容データ)に付随するオプションデータ(付随デ
ータ)を当該コンテンツデータ(内容データ)に関連付
けてデータベース(記憶手段)に記憶しておき、選択さ
れたコンテンツデータ(内容データ)に付随するオプシ
ョンデータ(付随データ)について、プロファイルデー
タ(履歴データ)に基づく評価に関連するデータ部分を
更新するようにした場合について述べたが、本発明はこ
れに限らず、要は、オプションデータ(付随データ)を
更新することで、コンテンツデータ(内容データ)を当
該ユーザのみならず他のユーザにとってもその出題内容
の面白さや好み等を次回の際に反映させることができれ
ば、付随データとして他のデータを用いても良く、その
更新方法も種々の方法を適用するようにしても良い。
【0295】さらに上述のように本実施の形態において
は、ロボットでは、ユーザに出力した新たな言葉遊びの
内容を当該ユーザの発話から認識した後、言葉遊びの内
容を表す新規内容データをコンテンツサーバ(情報処理
装置)61に送信する。そしてコンテンツサーバ(情報
処理装置)61では、対応するユーザについての内容デ
ータに追加して、新規内容データをデータベース(記憶
手段)に記憶するようにした場合について述べたが、本
発明はこれに限らず、要は、ユーザに対してより一層多
くのコンテンツを提供することによって、その分ユーザ
に飽きさせることなくロボット1との対話を広く普及さ
せることができれば、新規内容データの追加方法として
は他の方法を用いるようにしても良い。
【0296】
【発明の効果】上述のように本発明によれば、ロボット
及び情報処理装置がネットワークを介して接続された対
話制御システムにおいて、ロボットとユーザとの間で言
葉遊びによる対話をする際、ユーザの発話内容のうち言
葉遊びに関する履歴データを生成して情報処理装置に送
信し、当該情報処理装置が記憶手段から当該履歴データ
に基づいてユーザに最適な内容データを選択的に読み出
して元のロボットに提供するようにしたことにより、ユ
ーザとの間でロボットの会話に面白みやリズムを持たせ
ることができ、あたかも人間同士が会話しているかのご
とく自然な日常会話に近づけることができ、かくしてエ
ンターテイメント性を格段的に向上させ得る対話制御シ
ステムを実現できる。
【0297】また本発明によれば、ロボット及び情報処
理装置がネットワークを介して接続された対話制御方法
において、ロボットとユーザとの間で言葉遊びによる対
話をする際、ユーザの発話内容のうち言葉遊びに関する
履歴データを生成して情報処理装置に送信し、当該情報
処理装置が履歴データに基づいてユーザに最適な内容デ
ータを複数の内容データの中から選択的に読み出して元
のロボットに提供するようにしたことにより、ユーザと
の間でロボットの会話に面白みやリズムを持たせること
ができ、あたかも人間同士が会話しているかのごとく自
然な日常会話に近づけることができ、あたかも人間同士
が会話しているかのごとく自然な日常会話に近づけるこ
とができ、かくしてエンターテイメント性を格段的に向
上させ得る対話制御方法を実現できる。
【0298】さらに本発明によれば、情報処理装置とネ
ットワークを介して接続されたロボット装置において、
人間と対話するための機能を有し、当該対話を通じて対
象とするユーザの発話を認識する対話手段と、対話手段
によるユーザの発話内容のうち、言葉遊びに関する履歴
データを生成する生成手段と、生成手段により生成され
た履歴データを、言葉遊びを通じて得られるユーザの発
言内容に応じて更新する更新手段と、言葉遊びの開始の
際には、履歴データをネットワークを介して情報処理装
置に送信する通信手段とを設け、情報処理装置において
予め記憶された複数の言葉遊びの内容を表す内容データ
のうち、通信手段から送信された履歴データに基づいて
選択された内容データがネットワークを介して送信され
たとき、対話手段は、当該内容データに基づく言葉遊び
の内容を出力するようにしたことにより、ユーザとの間
でロボットの会話に面白みやリズムを持たせることがで
き、あたかも人間同士が会話しているかのごとく自然な
日常会話に近づけることができ、かくしてエンターテイ
メント性を格段的に向上させ得るロボット装置を実現で
きる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの外観構成を示す斜
視図である。
【図2】本発明を適用したロボットの外観構成を示す斜
視図である。
【図3】本発明を適用したロボットの外観構成を示す斜
視図である。
【図4】ロボットの内部構成を示すブロック図である。
【図5】ロボットの内部構成を示すブロック図である。
【図6】本実施の形態による対話制御システムの構成を
示す略線図である。
【図7】図6に示すコンテンツサーバの構成を示すブロ
ック図である。
【図8】メイン制御部40の処理の説明に供するブロッ
ク図である。
【図9】メモリにおけるSIDと名前との関連付けの説
明に供する概念図である。
【図10】名前学習処理手順を示すフローチャートであ
る。
【図11】名前学習処理手順を示すフローチャートであ
る。
【図12】名前学習処理時における対話例を示す略線図
である。
【図13】名前学習処理時における対話例を示す略線図
である。
【図14】SIDと名前との新規登録の説明に供する概
念図である。
【図15】名前学習時における対話例を示す略線図であ
る。
【図16】名前学習処理時における対話例を示す略線図
である。
【図17】音声認識部の構成を示すブロック図である。
【図18】単語辞書の説明に供する概念図である。
【図19】文法規則の説明に供する概念図である。
【図20】特徴ベクトルバッファの記憶内容の説明に供
する概念図である。
【図21】スコアシートの説明に供する概念図である。
【図22】音声認識処理手順を示すフローチャートであ
る。
【図23】未登録語処理手順を示すフローチャートであ
る。
【図24】クラスタ分割処理手順を示すフローチャート
である。
【図25】シミュレーション結果を示す概念図である。
【図26】コンテンツデータ取得処理手順及びコンテン
ツデータ提供処理手順を示すフローチャートである。
【図27】プロファイルデータの説明に供する概念図で
ある。
【図28】コンテンツデータの説明に供する概念図であ
る。
【図29】言葉遊びによる対話シーケンスの説明に供す
る概念図である。
【図30】人気指標集計処理手順及びオプションデータ
更新処理手順を示すフローチャートである。
【図31】コンテンツ収集処理手順及びコンテンツデー
タ追加登録処理手順を示すフローチャートである。
【図32】言葉遊びによる対話シーケンスの説明に供す
る概念図である。
【符号の説明】
1……ロボット、40……メイン制御部、51……マイ
クロホン、54……スピーカ、61……コンテンツサー
バ、62……ネットワーク、63……対話制御システ
ム、65……CPU、68……ハードディスク装置、6
9……ネットワークインターフェース部、80……音声
認識部、81……話者認識部、82……対話制御部、8
3……音声合成部、84……メモリ、S1B、S3……
音声信号、RT5……コンテンツデータ取得処理手順、
RT6……コンテンツデータ提供処理手順、RT7……
人気指標集計処理手順、RT8……オプションデータ更
新処理手順、RT9……コンテンツ収集処理手順、RT
10……コンテンツデータ追加登録処理手順。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551A 15/06 R 15/20 531P 17/00 521J 545A (72)発明者 山田 敬一 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 2C150 BA11 CA01 CA02 DA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED10 ED42 ED47 ED52 EF03 EF07 EF09 EF13 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 JS03 KS39 MT14 WA03 WA13 WB19 WC01 WC03 WC07 5D015 KK02 KK04 LL02 5D045 AB11

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】ロボット及び情報処理装置がネットワーク
    を介して接続された対話制御システムにおいて、 上記ロボットに設けられ、 人間と対話するための機能を有し、当該対話を通じて対
    象とするユーザの発話を認識する対話手段と、 上記対話手段による上記ユーザの発話内容のうち、言葉
    遊びに関する履歴データを生成する生成手段と、 上記生成手段により生成された上記履歴データを、上記
    言葉遊びを通じて得られる上記ユーザの発言内容に応じ
    て更新する更新手段と、 上記言葉遊びの開始の際には、上記履歴データを上記ネ
    ットワークを介して上記情報処理装置に送信する通信手
    段とを具え、 上記情報処理装置に設けられ、 複数の上記言葉遊びの内容を表す内容データを記憶する
    記憶手段と、 上記通信手段を介して送信された上記履歴データを検出
    する検出手段と、 上記検出手段によって検出された上記履歴データに基づ
    いて、上記記憶手段から上記内容データを選択的に読み
    出して上記ネットワークを介して元の上記ロボットに送
    信する通信制御手段とを具え、上記ロボットの上記対話
    手段は、上記情報処理装置の上記通信制御手段から送信
    された上記内容データに基づく上記言葉遊びの内容を出
    力するを具えることを特徴とする対話制御システム。
  2. 【請求項2】上記ロボットでは、 上記対話手段は、上記ユーザに出力した上記内容データ
    に基づく上記言葉遊びの内容に関する評価を当該ユーザ
    の発話から認識し、 上記更新手段は上記履歴データを上記評価に応じて更新
    し、 上記通信手段は、上記更新手段によって更新された上記
    履歴データを上記情報処理装置に送信し、 上記情報処理装置では、 上記記憶手段は、上記言葉遊びの内容データに付随する
    付随データを当該内容データに関連付けて記憶してお
    き、 上記通信制御手段は、上記選択された上記内容データに
    付随する上記付随データについて、上記通信手段から送
    信された上記履歴データに基づく評価に関連するデータ
    部分を更新することを特徴とする請求項1に記載の対話
    制御システム。
  3. 【請求項3】上記ロボットでは、 上記対話手段は、上記ユーザに出力した新たな言葉遊び
    の内容を当該ユーザの発話から認識し、 上記通信手段は、上記言葉遊びの内容を表す新規内容デ
    ータを上記情報処理装置に送信し、 上記情報処理装置では、 上記記憶手段は、対応する上記ユーザについての上記内
    容データに追加して、上記通信手段から送信された上記
    新規内容データを記憶することを特徴とする請求項1に
    記載の対話制御システム。
  4. 【請求項4】上記記憶手段は、複数の上記ロボットが共
    有できるようになされたデータベースであることを特徴
    とする請求項1に記載の対話制御システム。
  5. 【請求項5】ロボット及び情報処理装置がネットワーク
    を介して接続された対話制御方法において、 上記ロボットでは、人間との対話を通じて対象とするユ
    ーザの発話を認識し、当該ユーザの発話内容のうち、言
    葉遊びに関する履歴データを生成し、当該生成された履
    歴データを、上記言葉遊びを通じて得られる上記ユーザ
    の発言内容に応じて更新しながら、上記言葉遊びの開始
    の際には上記ネットワークを介して上記情報処理装置に
    送信する第1のステップと、 上記情報処理装置では、予め記憶された複数の上記言葉
    遊びの内容を表す内容データのうち、上記ロボットから
    送信された上記履歴データに基づいて選択した上記内容
    データを読み出して、上記ネットワークを介して元の上
    記ロボットに送信する第2のステップと、 上記ロボットでは、上記情報処理装置から送信された上
    記内容データに基づく上記言葉遊びの内容を出力する第
    3のステップとを具えることを特徴とする対話制御方
    法。
  6. 【請求項6】上記第1のステップでは、 上記ユーザに出力した上記内容データに基づく上記言葉
    遊びの内容に関する評価を当該ユーザの発話から認識し
    た後、当該評価に応じて上記履歴データを更新し、当該
    更新された履歴データを上記情報処理装置に送信し、 上記第2のステップでは、 上記言葉遊びの内容データに付随する付随データを当該
    内容データに関連付けて記憶しておき、上記選択された
    上記内容データに付随する上記付随データについて、上
    記送信された上記履歴データに基づく評価に関連するデ
    ータ部分を更新することを特徴とする請求項5に記載の
    対話制御方法。
  7. 【請求項7】上記第1のステップでは、 上記ユーザに出力した新たな言葉遊びの内容を当該ユー
    ザの発話から認識した後、上記言葉遊びの内容を表す新
    規内容データを上記情報処理装置に送信し、上記第2の
    ステップでは、 対応する上記ユーザについての上記内容データに追加し
    て、上記通信手段から送信された上記新規内容データを
    記憶することを特徴とする請求項5に記載の対話制御方
    法。
  8. 【請求項8】上記第2のステップでは、予め記憶された
    複数の上記言葉遊びの内容を表す内容データを、複数の
    上記ロボットが共有できるようにデータベース管理する
    ことを特徴とする請求項5に記載の対話制御方法。
  9. 【請求項9】情報処理装置とネットワークを介して接続
    されたロボット装置において、 人間と対話するための機能を有し、当該対話を通じて対
    象とするユーザの発話を認識する対話手段と、 上記対話手段による上記ユーザの発話内容のうち、言葉
    遊びに関する履歴データを生成する生成手段と、 上記生成手段により生成された上記履歴データを、上記
    言葉遊びを通じて得られる上記ユーザの発言内容に応じ
    て更新する更新手段と、 上記言葉遊びの開始の際には、上記履歴データを上記ネ
    ットワークを介して上記情報処理装置に送信する通信手
    段とを具え、 上記情報処理装置において予め記憶された複数の上記言
    葉遊びの内容を表す内容データのうち、上記通信手段か
    ら送信された上記履歴データに基づいて選択された上記
    内容データが上記ネットワークを介して送信されたと
    き、上記対話手段は、当該内容データに基づく上記言葉
    遊びの内容を出力するを具えることを特徴とするロボッ
    ト装置。
  10. 【請求項10】上記対話手段は、上記ユーザに出力した
    上記内容データに基づく上記言葉遊びの内容に関する評
    価を当該ユーザの発話から認識し、 上記更新手段は上記履歴データを上記評価に応じて更新
    し、 上記通信手段は、上記更新手段によって更新された上記
    履歴データを上記情報処理装置に送信し、 上記情報処理装置では、予め記憶された上記言葉遊びの
    内容データに付随しかつ当該内容データに関連付けられ
    た付随データのうち、上記選択された上記内容データに
    付随する上記付随データについて、上記通信手段から送
    信された上記履歴データに基づく評価に関連するデータ
    部分が更新されることを特徴とする請求項9に記載のロ
    ボット装置。
  11. 【請求項11】上記対話手段は、上記ユーザに出力した
    新たな言葉遊びの内容を当該ユーザの発話から認識し、 上記通信手段は、上記言葉遊びの内容を表す新規内容デ
    ータを上記情報処理装置に送信し、 上記情報処理装置では、対応する上記ユーザについての
    上記内容データに追加して、上記通信手段から送信され
    た上記新規内容データが記憶されることを特徴とする請
    求項9に記載のロボット装置。
JP2002060428A 2002-03-06 2002-03-06 対話制御システム、対話制御方法及びロボット装置 Abandoned JP2003255991A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002060428A JP2003255991A (ja) 2002-03-06 2002-03-06 対話制御システム、対話制御方法及びロボット装置
US10/379,440 US20030220796A1 (en) 2002-03-06 2003-03-04 Dialogue control system, dialogue control method and robotic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002060428A JP2003255991A (ja) 2002-03-06 2002-03-06 対話制御システム、対話制御方法及びロボット装置

Publications (1)

Publication Number Publication Date
JP2003255991A true JP2003255991A (ja) 2003-09-10

Family

ID=28669792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002060428A Abandoned JP2003255991A (ja) 2002-03-06 2002-03-06 対話制御システム、対話制御方法及びロボット装置

Country Status (2)

Country Link
US (1) US20030220796A1 (ja)
JP (1) JP2003255991A (ja)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110726A (ja) * 2003-10-02 2005-04-28 Toshiba Corp 学習装置及びその方法
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
WO2005085973A1 (ja) * 2004-03-04 2005-09-15 Nec Corporation データ更新システム、データ更新方法、およびデータ更新プログラム、ならびにロボットシステム
WO2005099971A1 (ja) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
CN101973034A (zh) * 2010-11-06 2011-02-16 江苏申锡建筑机械有限公司 一种机器人控制电路
KR20140040062A (ko) * 2010-07-02 2014-04-02 알데바란 로보틱스 게임을 플레이하기 위한 휴머노이드 로봇, 상기 로봇을 이용하기 위한 방법 및 시스템
KR101410601B1 (ko) 2013-01-25 2014-06-20 포항공과대학교 산학협력단 유머 발화를 이용하는 음성 대화 시스템 및 그 방법
JP2015148712A (ja) * 2014-02-06 2015-08-20 トヨタ自動車株式会社 音声対話装置、音声対話システム及びプログラム
JP2016508007A (ja) * 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
JPWO2014024751A1 (ja) * 2012-08-10 2016-07-25 エイディシーテクノロジー株式会社 音声応答装置
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JP2018151471A (ja) * 2017-03-10 2018-09-27 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
CN108724206A (zh) * 2017-04-19 2018-11-02 松下知识产权经营株式会社 互动装置、互动方法、互动程序以及机器人
CN109070357A (zh) * 2017-03-20 2018-12-21 深圳配天智能技术研究院有限公司 工业机器人***、控制***及方法、控制器及计算设备
JP2019018336A (ja) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 装置、方法、プログラム、及びロボット
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
JP2020523643A (ja) * 2017-06-16 2020-08-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 声識別特徴最適化および動的登録方法、クライアント、ならびにサーバ
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
JP2020536265A (ja) * 2017-10-03 2020-12-10 グーグル エルエルシー 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
US20100246837A1 (en) * 2009-03-29 2010-09-30 Krause Lee S Systems and Methods for Tuning Automatic Speech Recognition Systems
CN100429601C (zh) * 2004-03-04 2008-10-29 日本电气株式会社 数据更新***、数据更新方法和机器人***
US7660719B1 (en) * 2004-08-19 2010-02-09 Bevocal Llc Configurable information collection system, method and computer program product utilizing speech recognition
US20060122837A1 (en) * 2004-12-08 2006-06-08 Electronics And Telecommunications Research Institute Voice interface system and speech recognition method
WO2007138741A1 (ja) * 2006-05-26 2007-12-06 Nec Corporation 音声入力システム、対話型ロボット、音声入力方法、および、音声入力プログラム
JP4181590B2 (ja) * 2006-08-30 2008-11-19 株式会社東芝 インタフェース装置及びインタフェース処理方法
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
US8886663B2 (en) * 2008-09-20 2014-11-11 Securus Technologies, Inc. Multi-party conversation analyzer and logger
JP5377430B2 (ja) * 2009-07-08 2013-12-25 本田技研工業株式会社 質問応答データベース拡張装置および質問応答データベース拡張方法
US8838449B2 (en) * 2010-12-23 2014-09-16 Microsoft Corporation Word-dependent language model
US9079113B2 (en) * 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus
US9092021B2 (en) * 2012-01-06 2015-07-28 J. T. Labs Limited Interactive apparatus
US10456686B2 (en) 2012-09-05 2019-10-29 Zynga Inc. Methods and systems for adaptive tuning of game events
JP5851051B2 (ja) 2012-12-04 2016-02-03 株式会社Nttドコモ 情報処理装置、サーバ装置、対話システムおよびプログラム
US20140297272A1 (en) * 2013-04-02 2014-10-02 Fahim Saleh Intelligent interactive voice communication system and method
US9621713B1 (en) 2014-04-01 2017-04-11 Securus Technologies, Inc. Identical conversation detection method and apparatus
US10237399B1 (en) 2014-04-01 2019-03-19 Securus Technologies, Inc. Identical conversation detection method and apparatus
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9675889B2 (en) 2014-09-10 2017-06-13 Zynga Inc. Systems and methods for determining game level attributes based on player skill level prior to game play in the level
US10561944B2 (en) 2014-09-10 2020-02-18 Zynga Inc. Adjusting object adaptive modification or game level difficulty and physical gestures through level definition files
US9922048B1 (en) 2014-12-01 2018-03-20 Securus Technologies, Inc. Automated background check via facial recognition
DE112014007287B4 (de) * 2014-12-24 2019-10-31 Mitsubishi Electric Corporation Spracherkennungsvorrichtung und Spracherkennungsverfahren
CN106251235A (zh) * 2016-07-29 2016-12-21 北京小米移动软件有限公司 机器人功能配置***、方法及装置
US10272349B2 (en) * 2016-09-07 2019-04-30 Isaac Davenport Dialog simulation
CN112601592A (zh) * 2018-08-30 2021-04-02 Groove X 株式会社 机器人及声音生成程序
CN110970021B (zh) * 2018-09-30 2022-03-08 航天信息股份有限公司 一种问答控制方法、装置及***
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
CN110600002B (zh) * 2019-09-18 2022-04-22 北京声智科技有限公司 语音合成方法、装置及电子设备
CN111401012B (zh) * 2020-03-09 2023-11-21 北京声智科技有限公司 文本纠错方法、电子设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096390A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
JP2000339314A (ja) * 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 自動応答方法及び対話解析方法並びに応答文生成方法、その装置、そのプログラムを記録した媒体
WO2001041101A1 (en) * 1999-11-30 2001-06-07 Leapfrog Enterprises, Inc. Interactive learning appliance
JP2001188787A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001314649A (ja) * 2000-05-11 2001-11-13 Seta Corp 音声遊技方法、装置および記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6160986A (en) * 1998-04-16 2000-12-12 Creator Ltd Interactive toy
US7062073B1 (en) * 1999-01-19 2006-06-13 Tumey David M Animated toy utilizing artificial intelligence and facial image recognition
US6773344B1 (en) * 2000-03-16 2004-08-10 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096390A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
JP2000339314A (ja) * 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 自動応答方法及び対話解析方法並びに応答文生成方法、その装置、そのプログラムを記録した媒体
WO2001041101A1 (en) * 1999-11-30 2001-06-07 Leapfrog Enterprises, Inc. Interactive learning appliance
JP2001188787A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001314649A (ja) * 2000-05-11 2001-11-13 Seta Corp 音声遊技方法、装置および記録媒体

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110726A (ja) * 2003-10-02 2005-04-28 Toshiba Corp 学習装置及びその方法
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
US7684977B2 (en) 2004-02-03 2010-03-23 Panasonic Corporation User adaptive system and control method thereof
WO2005085973A1 (ja) * 2004-03-04 2005-09-15 Nec Corporation データ更新システム、データ更新方法、およびデータ更新プログラム、ならびにロボットシステム
US7600119B2 (en) 2004-03-04 2009-10-06 Nec Corporation Data update system, data update method, data update program, and robot system
US7747350B2 (en) 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
WO2005099971A1 (ja) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
KR20140040062A (ko) * 2010-07-02 2014-04-02 알데바란 로보틱스 게임을 플레이하기 위한 휴머노이드 로봇, 상기 로봇을 이용하기 위한 방법 및 시스템
KR101869111B1 (ko) * 2010-07-02 2018-06-19 소프트뱅크 로보틱스 유럽 게임을 플레이하기 위한 휴머노이드 로봇, 상기 로봇을 이용하기 위한 방법 및 시스템
CN101973034A (zh) * 2010-11-06 2011-02-16 江苏申锡建筑机械有限公司 一种机器人控制电路
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JPWO2014024751A1 (ja) * 2012-08-10 2016-07-25 エイディシーテクノロジー株式会社 音声応答装置
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
WO2014115952A1 (ko) * 2013-01-25 2014-07-31 포항공과대학교 산학협력단 유머 발화를 이용하는 음성 대화 시스템 및 그 방법
KR101410601B1 (ko) 2013-01-25 2014-06-20 포항공과대학교 산학협력단 유머 발화를 이용하는 음성 대화 시스템 및 그 방법
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US11636869B2 (en) 2013-02-07 2023-04-25 Apple Inc. Voice trigger for a digital assistant
JP2016508007A (ja) * 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US12009007B2 (en) 2013-02-07 2024-06-11 Apple Inc. Voice trigger for a digital assistant
US11862186B2 (en) 2013-02-07 2024-01-02 Apple Inc. Voice trigger for a digital assistant
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
JP2018109980A (ja) * 2013-02-07 2018-07-12 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US11557310B2 (en) 2013-02-07 2023-01-17 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
JP2023025032A (ja) * 2013-02-07 2023-02-21 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
JP2015148712A (ja) * 2014-02-06 2015-08-20 トヨタ自動車株式会社 音声対話装置、音声対話システム及びプログラム
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
JP2018151471A (ja) * 2017-03-10 2018-09-27 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
CN109070357A (zh) * 2017-03-20 2018-12-21 深圳配天智能技术研究院有限公司 工业机器人***、控制***及方法、控制器及计算设备
CN108724206A (zh) * 2017-04-19 2018-11-02 松下知识产权经营株式会社 互动装置、互动方法、互动程序以及机器人
JP2018176384A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11011177B2 (en) 2017-06-16 2021-05-18 Alibaba Group Holding Limited Voice identification feature optimization and dynamic registration methods, client, and server
JP2020523643A (ja) * 2017-06-16 2020-08-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 声識別特徴最適化および動的登録方法、クライアント、ならびにサーバ
JP7075168B2 (ja) 2017-07-18 2022-05-25 パナソニックホールディングス株式会社 装置、方法、プログラム、及びロボット
JP2019018336A (ja) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 装置、方法、プログラム、及びロボット
JP7204690B2 (ja) 2017-10-03 2023-01-16 グーグル エルエルシー 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること
JP2020536265A (ja) * 2017-10-03 2020-12-10 グーグル エルエルシー 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること

Also Published As

Publication number Publication date
US20030220796A1 (en) 2003-11-27

Similar Documents

Publication Publication Date Title
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
JP3968133B2 (ja) 音声認識対話処理方法および音声認識対話装置
KR100988708B1 (ko) 학습 장치, 학습 방법 및 로봇 장치
JP4369132B2 (ja) 話者音声のバックグランド学習
US5946658A (en) Cartridge-based, interactive speech recognition method with a response creation capability
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR20060107329A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
WO2002091356A1 (fr) Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d&#39;enregistrement
JP2000187435A (ja) 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2003099084A (ja) 音声による感情合成方法及び装置
JP6633250B2 (ja) 対話ロボットおよび対話システム、並びに対話プログラム
WO2005057549A1 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
JPH08187368A (ja) ゲーム装置、入力装置、音声選択装置、音声認識装置及び音声反応装置
JP2002351305A (ja) 語学研修用ロボット
CN113330511B (zh) 语音识别方法、装置、存储介质及电子设备
WO2004084183A1 (ja) 音声対話装置及び方法並びにロボット装置
JP2001188779A (ja) 情報処理装置および方法、並びに記録媒体
CN113920993A (zh) 一种语音交互毛绒玩具的智能唤醒方法及装置
JP2019175432A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
JP2003515768A (ja) 特定の人間の音声をテンプレート化するためのシステムおよび方法
JP2020067585A (ja) コミュニケーション装置およびコミュニケーション装置の制御プログラム
JP4062591B2 (ja) 対話処理装置及び方法並びにロボット装置
Strommen et al. Talking back to big bird: Preschool users and a simple speech recognition system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050805

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20050920