JP2001188788A - 会話処理装置および方法、並びに記録媒体 - Google Patents

会話処理装置および方法、並びに記録媒体

Info

Publication number
JP2001188788A
JP2001188788A JP37577199A JP37577199A JP2001188788A JP 2001188788 A JP2001188788 A JP 2001188788A JP 37577199 A JP37577199 A JP 37577199A JP 37577199 A JP37577199 A JP 37577199A JP 2001188788 A JP2001188788 A JP 2001188788A
Authority
JP
Japan
Prior art keywords
user
parameter
processing
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37577199A
Other languages
English (en)
Other versions
JP2001188788A5 (ja
Inventor
Seiichi Aoyanagi
誠一 青柳
Koji Asano
康治 浅野
Miyuki Tanaka
幸 田中
Jun Yokono
順 横野
Toshio Oe
敏生 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37577199A priority Critical patent/JP2001188788A/ja
Publication of JP2001188788A publication Critical patent/JP2001188788A/ja
Publication of JP2001188788A5 publication Critical patent/JP2001188788A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 ユーザに変化に富んだ対応の対話を供給す
る。 【解決手段】 ユーザの音声などにより言語情報入力部
41に入力された情報は、言語処理部42により、言語処
理される。対話管理部43は、言語処理部42による処
理結果と、パラメータ記憶部44に記憶されているパラ
メータに基づき、対話文の元となるデータを作成し、応
答生成部45に出力する。応答生成部45は、対話管理
部43からのデータに基づき、また、反応生成部47の
指示に従い、応答文を生成し、発話する。パラメータ記
憶部44に記憶されているパラメータは、パラメータ更
新部46により、さまざまな条件により、動的に更新さ
れる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は会話処理装置および
方法、並びに記録媒体に関し、特に、パラメータ値を動
的に変更することにより、会話の応対の仕方などを動的
に変化させる会話処理装置および方法、並びに記録媒体
に関する。
【0002】
【従来の技術】従来より、玩具等として、タッチスイッ
チが押圧操作されると、合成音を出力するロボット(ぬ
いぐるみ状のものを含む)が数多く製品化されている。
また、コンピュータを相手に会話を行うといったものも
普及しつつある。
【0003】また、コンピュータとの定型的な会話方式
(タスクオリエンテッド)が用いられ、航空券の予約が
行なわれたり、旅行案内のサービスを提供するなどのサ
ービスがある。これは、予め決められたことを話すだけ
で、雑談を含む人間との自然な会話を行うものではなか
った。コンピュータと人間とが、雑談を含む自然な会話
を行うための試みとして、Eliza(James Allen:Natura
l Language Understanding,6乃至9頁などに開示され
ている)などの実験的なものがある。
【0004】
【発明が解決しようとする課題】上述したElizaなど
は、人間(ユーザ)とやりとりしている会話の内容は、
殆ど理解しておらず、換言すれば、オウム返し的な会話
しかできないので、ユーザは、すぐに飽きてしまうとい
った課題があった。
【0005】本発明はこのような状況に鑑みてなされた
ものであり、パラメータ値を動的に変化させることによ
り、会話の応対の仕方などに変化をもたらすようにし、
もって、ユーザが飽きないような会話を提供することを
目的とする。
【0006】
【課題を解決するための手段】請求項1に記載の会話処
理装置は、言語情報を入力する入力手段と、入力手段に
より入力された言語情報を解析する解析手段と、パラメ
ータを記憶する記憶手段と、記憶手段に記憶されている
パラメータを更新する更新手段と、解析手段による解析
結果と、記憶手段により記憶されているパラメータを基
に、ユーザとの会話を制御する制御手段とを含むことを
特徴とする。
【0007】前記入力手段は、ユーザから、音声形式、
テキスト形式、または、ジェスチャ形式のうちの、少な
くても1つの形式が用いられて供給される言語情報を入
力するようにすることができる。
【0008】前記更新手段は、ユーザの音声による指示
により、記憶手段に記憶されているパラメータの更新を
開始するようにすることができる。
【0009】前記更新手段は、ユーザの発話から得られ
る韻律情報、ユーザと会話を交わした回数の情報、また
は、ユーザの返答が返ってくるまでにかかった時間の情
報のうち、少なくても1つの情報を用い、その情報が、
所定の条件を満たす場合、記憶手段に記憶されているパ
ラメータを更新するようにすることができる。
【0010】前記パラメータは、おしゃべり度、忠実
度、関心度、対応度を、それぞれ示すものであるように
することができる。
【0011】請求項6に記載の会話処理方法は、言語情
報の入力を制御する入力制御ステップと、入力制御ステ
ップの処理で入力された言語情報を解析する解析ステッ
プと、パラメータの記憶を制御する記憶制御ステップ
と、記憶制御ステップの処理で記憶されたパラメータを
更新する更新ステップと、解析ステップの処理による解
析結果と、記憶制御ステップの処理で記憶されたパラメ
ータを基に、ユーザとの会話を制御する制御ステップと
を含むことを特徴とする。
【0012】請求項7に記載の記録媒体のプログラム
は、言語情報の入力を制御する入力制御ステップと、入
力制御ステップの処理で入力された言語情報を解析する
解析ステップと、パラメータの記憶を制御する記憶制御
ステップと、記憶制御ステップの処理で記憶されたパラ
メータを更新する更新ステップと、解析ステップの処理
による解析結果と、記憶制御ステップの処理で記憶され
たパラメータを基に、ユーザとの会話を制御する制御ス
テップとを含むことを特徴とする。
【0013】請求項1に記載の会話処理装置、請求項6
に記載の会話処理方法、および請求項7に記載の記録媒
体においては、入力された言語情報が解析され、パラメ
ータが記憶され、その記憶されているパラメータが動的
に更新され、解析結果と、記憶されているパラメータと
を基に、ユーザとの会話が制御される。
【0014】
【発明の実施の形態】以下に、本発明の実施の形態につ
いて図を参照しながら説明する。図1は、本発明を適用
した対話装置の外観を示す図である。対話装置1の本体
2には、文字入力を行う際に用いられるキーボード3や
マウス4が接続されている。また、音声入力を行う際に
用いられるマイクロフォン5や、音声出力する際に用い
られるスピーカ6も接続されている。さらに、テキスト
などを表示するディスプレイ8や、画像を取り込む際に
用いられるCCD(Charge Coupled Device)8も接続され
ている。
【0015】図2は、対話装置1の内部構成を示す図で
ある。対話装置1のCPU11は、ROM(Read Only Memor
y)12に記憶されているプログラムに従って各種の処
理を実行する。RAM(Random Access Memory)13に
は、CPU11が各種の処理を実行する上において必要な
データやプログラムなどが適宜記憶される。入出力イン
タフェース15には、キーボード3、マウス4、マイク
ロフォン5、およびCCD8から構成される入力部16、
スピーカ2とディスプレイ7から構成される出力部17
が接続されているまた、入出力インタフェース15に
は、ハードディスク(HDD)などから構成される記憶部
18や、インターネットなどを介して他の装置と通信を
行う通信部19も接続されている。
【0016】さらに、入出力インタフェース15には、
磁気ディスク31、光ディスク32、光磁気ディスク3
3、および半導体メモリ34などにデータの記録、又
は、データの再生を行うドライブ20も接続されてい
る。
【0017】図3は、対話装置1の機能ブロック図であ
る。言語情報入力部41は、音声形式、テキスト形式、
画像形式により入力されたデータを認識処理し、言語情
報(テキストデータ)に変換する機能をもつ。言語処理
部42は、言語情報入力部41から出力された言語情報
を構文や意味の解析を行い、対話装置1を制御するため
のコマンドなどの検出を行う。
【0018】対話管理部43は、言語情報入力部41か
ら出力される音声認識の結果としての韻律情報、言語処
理部42から出力される解析結果の情報とコマンドに関
する情報、およびパラメータ記憶部44に記憶されてい
る各種パラメータの値を基に、ユーザが入力したことに
対応する反応を決定し、応答生成部45により、その決
定した応答が実行されるための情報を出力する。
【0019】パラメータ更新部46は、ユーザにより入
力されたことを解析することにより得られた言語情報、
韻律情報、および各種パラメータの情報を用いてパラメ
ータ記憶部44に記憶されているパラメータの値を更新
する機能を有する。反応生成部47は、パラメータ記憶
部44に記憶されている各種パラメータの値に応じて、
ユーザに対する反応を決定する。反応生成部47が生成
する反応としては、例えば、スピーカ6により出力され
る音声を変えたり、ディスプレイ7に表示させるキャラ
クターの表情を変えたりするなどがある。
【0020】応答生成部45は、対話管理部43から出
力された応答命令、反応生成部47で決定した反応内
容、およびパラメータ記憶部44に記憶されている各種
パラメータの値に応じて、応答文やキャラクターの動作
などを生成し、スピーカ6により音声として応答文を出
力させたり、ディスプレイ7上に表示されているキャラ
クターの表示を変化させたりする。
【0021】図4は、言語情報入力部41の内部構成を
示す図である。ユーザは、対話装置1と音声、テキス
ト、ジェスチャーを用いて対話を行うことが可能であ
る。ユーザが発話したことは、マイクロフォン5により
言語情報入力部41に取り込まれる。マイクロフォン5
からの出力は、音声認識部51に入力され、音声認識が
行われる。また、CCD8により取り込まれたユーザの画
像は、ジェスチャーとしてとらえられ、ジェスチャー認
識部52により認識される。音声認識部51、キーボー
ド3、または、ジェスチャー認識部52から出力された
認識結果(テキストデータ)は、言語処理部42に出力
される。
【0022】図5は、音声認識部51の内部構成を示す
図である。ユーザの発話は、マイクロフォン5を介して
音声信号として、音声認識部51のAD(Analog Digita
l)変換部61に入力される。AD変換部61では、アナ
ログ信号である音声信号がサンプリング、量子化され、
ディジタル信号である音声データに変換される。この音
声データは、特徴抽出部62に供給される。
【0023】特徴抽出部62は、AD変換部61からの
音声データについて、適当なフレームごとに、例えば、
スペクトルや、線形予測係数、ケプストラム係数、線ス
ペクトル対等の特徴パラメータを抽出し、マッチング部
63に供給する。また、特徴抽出部62からは、韻律情
報が、必要に応じ、対話管理部43などに出力される。
【0024】マッチング部63は、特徴抽出部62から
の特徴パラメータに基づき、音響モデルデータベース6
4、辞書データベース65、および文法データベース6
6を必要に応じて参照しながら、入力された音声信号を
認識する。
【0025】即ち、音響モデルデータベース64は、音
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Markov
Model)などを用いることができる。辞書データベース6
5は、認識対象の各単語について、その発音に関する情
報が記述された単語辞書を記憶している。文法データベ
ース66は、辞書データベース65の単語辞書に登録さ
れている各単語が、どのように連鎖する(つながる)か
を記述した文法規則を記憶している。ここで、文法規則
としては、例えば、文脈自由文法(CFG)や、統計的な
単語連鎖確率(N-gram)などに基づく規則を用いること
ができる。
【0026】マッチング部63は、辞書データベース6
5の単語辞書を参照することにより、音響モデルデータ
ベース64に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部63は、幾つかの単語モデルを、文法
データベース66に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等に
よって、入力された音声を認識する。そして、マッチン
グ部63による音声認識結果は、例えば、テキストデー
タとして出力される。
【0027】ジェスチャー認識部52の詳細な構成は示
さないが、テンプレートマッチングなどの方法を用い
て、ユーザが所定の動作を行ったか否かを判断し、所定
の動作をしたと判断された場合、その動作に対応するテ
キストデータを認識結果として出力する。
【0028】ユーザがキーボード3を用いて入力したテ
キストデータは、認識結果として用いられる。キーボー
ド3、音声認識部51、または、ジェスチャー認識部5
2から出力された認識結果は、言語処理部42に出力さ
れる。図6は、言語処理部42の内部構成を示す図であ
る。
【0029】言語情報入力部41から出力された認識結
果(テキストデータ)は、言語処理部42の言語解析部
71に入力される。言語解析部71は、辞書データベー
ス72、解析用文法データベース73、およびコマンド
辞書データベース74に記憶されているデータを基に、
入力された音声認識結果を、形態素解析、構文解析など
の解析を行うことにより、単語の情報や構文の情報など
の言語情報、コマンド情報を抽出する。また、辞書に記
述された内容を基に、入力された発話の意味、意図など
も抽出される。
【0030】すなわち、辞書データベース72には、単
語の表記や解析用文法を適用するために必要な品詞情報
などの情報、単語の個別の意味情報などが記憶されてお
り、解析用文法データベース73には、辞書データベー
ス72に記憶されている各単語の情報を基に、単語連鎖
に関する制約を記述したデータが記憶されている。ま
た、コマンド辞書データベース74には、コマンドに関
するデータが記憶されている。これらのデータを用いて
言語処理部42(言語解析部71)は、入力された音声
認識結果のテキストデータを解析する。
【0031】解析用文法データベース73に記憶されて
いるデータは、正規文法、文脈自由文法、統計的な単語
連鎖確立、意味的な解析までを含める場合はHPSGなどの
意味論を含んだ言語理論などを用いる、テキスト解析に
必要なデータである。
【0032】言語処理部42から出力された解析結果
は、対話管理部43に供給される。図7は、対話管理部
43の内部構成を示す図である。対話管理部43の対話
処理部81は、入力された解析結果を用いて、後段の応
答生成部45が生成する応答文の基となるデータを作成
する。対話処理部81は、シナリオメモリ82に記憶さ
れているシナリオ(詳細は後述する)、知識データベー
ス83に記憶されている知識、および対話履歴メモリ8
4に記憶されている履歴を参照し、応答文の基となるデ
ータを作成する。
【0033】シナリオメモリ82に記憶されているシナ
リオは、対話のパターンを記述したものであり、タスク
により異なる。例えば、目的志向型のタスク(パラメー
タ設定)に関するシナリオは、ユーザに質問し、情報を
収集するようなシナリオである。以下に、その一例を示
す。 (action(Question(speak,devotion,interest,reciv
e))) (speak ???) #おしゃべり度 (devotion ???) #忠実度 (interest ???) #関心度 (recive ???) #応対度
【0034】他の例として、無目的型(ELAZAなど)の
対話シナリオ(雑談などに使用)は、以下のようにな
る。 If X exist then speak(Y) #X:キーワード、Y:応答文 (X:お金 Y:何が欲しいの) #(XY) (X:食べたい Y:お腹がすいているの)
【0035】知識データベース83に記憶されている知
識としては、対話動作に関する制御情報や応答に必要な
情報を管理している。例えば、ユーザが挨拶をしたと判
断されるときには、挨拶の応答を返すといった対話にお
ける規則、雑談モード(タスク)時に使用する話題など
である。
【0036】対話履歴メモリ84には、ユーザと対話装
置1との間でやり取りされた各種情報(例えば、ユーザ
入力、応答内容など)や、対話管理情報(例えば、応答
回数、応答時間など)が記憶されている。対話履歴メモ
リ84に記憶されているこれらの情報は、応答文生成や
応答回数の制御などの対話処理に利用される。
【0037】パラメータ記憶部44は、図8に示すよう
なパラメータが記憶されている。図8(A)は、パラメ
ータの値を離散値して表現した場合を示し、図8(B)
は、パラメータの値を連続値として表現した場合を示し
ている。実際に構成する場合は、離散値、または、連続
値の、どちらか一方を用いればよい。これらのパラメー
タの値は、パラメータ更新部46の指示により更新され
る。
【0038】パラメータ記憶部44に記憶されているパ
ラメータは、ユーザ入力に対応する応答を行う場合、例
えば、音声で応答する時には、応答文の選択、生成、声
の高さの変化を制御するのに用いられるとともに、ディ
スプレイ7上に表示されるキャラクターの表情の変化を
制御するのにも用いられる。
【0039】識別子は、各パラメータを区別するための
記号(情報)であり、種類は、パラメータの特徴を表し
ている、値は、各パラメータの影響の程度を表してい
る。確率値は、パラメータ更新時に用いられ、図8
(A)のように、値が離散値で表現される場合、値が0
または1になる確率であり、図8(B)にように、値が
連続値で表現される場合、各値が増加または減少する確
率である。
【0040】パラメータ記憶部44に記憶されているパ
ラメータは、パラメータ更新部46の指示により更新さ
れる。パラメータ更新部46は、例えば、図9に示すよ
うな、処理モデルに従って行う。各ニューロン(N1乃
至N4)は、相互結合型のネットワークで結合されてお
り、所定のニューロンへの入力が、自分自身の値や、他
のニューロンの値に変化をもたらすようになっている。
結合の種類としては、側興奮性結合や側抑制結合などを
用いることが可能である。
【0041】反応生成部47は、図10に示すようなテ
ーブルを保持している。すなわち、図9に示したパラメ
ータ記憶部44に記憶されているパラメータ情報のう
ち、識別子、種類、および、条件(図10に示した例で
は、図8(B)の値に対応する)により、反応内容が決
定される為のテーブルである。
【0042】図11は、応答生成部45の内部構成を示
す図である。対話管理部43から出力された応答文作成
用データは、応答生成部45の応答文生成部91に入力
される。応答文生成部91は、テンプレートデータベー
ス92、応答文生成規則データベース93、および、辞
書データベース94に記憶されているデータを参照して
適切な応答文(テキストデータ)を生成する。
【0043】テンプレートデータベース92は、テンプ
レート情報を記憶している。そのテンプレート情報とし
ては、例えば、パラメータの値として連続値を用いる場
合、以下に示すようなものである。 反応 条件 文例 R3 7以上 丁寧(−いたしましょうか) R3 4以上 (−するの) テンプレートとは、すなわち、識別子と条件により、ど
のような態度の応答文を生成するかを決定する情報であ
る。
【0044】応答文生成規則データベース93は、どの
ような応答文を、どのように生成するのかに関する規則
が記憶されている。例えば、仮に、話題が意味的なフレ
ーム構造などで管理されているなら、そこから自然言語
文を生成する規則などが書かれている。この意味構造か
ら自然言語文を生成する方法は、言語処理部42により
行われる処理の逆の処理として行うことにより、実現す
ることが可能である。辞書データベース94は、応答文
を作成するのに必要な単語情報が記憶されている。
【0045】このようにして、応答文生成部91により
生成された、テキストデータとしての応答文は、テキス
ト解析部96に出力される。テキスト解析部96は、入
力されたテキストデータを、辞書データベース94や解
析用文法データベース95を参照しながら解析する。
【0046】即ち、辞書データベース94には、各単語
の品詞情報や、読み、アクセント等の情報が記述された
単語辞書が記憶されており、また、解析用文法データベ
ース95には、辞書データベース94の単語辞書に記述
された単語について、単語連鎖に関する制約等の解析用
文法規則が記憶されている。そして、テキスト解析部9
6は、この単語辞書および解析用文法規則に基づいて、
そこに入力されるテキストの形態素解析や構文解析等の
解析を行い、後段の規則合成部97で行われる規則音声
合成に必要な情報を抽出する。ここで、規則音声合成に
必要な情報としては、例えば、ポーズの位置や、アクセ
ントおよびイントネーションを制御するための情報、そ
の他の韻律情報や、各単語の発音等の音韻情報などがあ
る。
【0047】テキスト解析部96で得られた情報は、規
則合成部97に供給され、規則合成部97では、音素片
データベース98を用いて、テキスト解析部96に入力
されたテキストに対応する合成音の音声データ(デジタ
ルデータ)が生成される。
【0048】即ち、音素片データベース98には、例え
ば、CV(Consonant, Vowel)や、VCV、CVC等の形で音素
片データが記憶されており、規則合成部97は、テキス
ト解析部96からの情報に基づいて、必要な音素片デー
タを接続し、さらに、ポーズ、アクセント、イントネー
ション等を適切に付加することで、テキスト解析部96
に入力されたテキストに対応する合成音の音声データを
生成する。
【0049】この音声データは、DA変換部99に供給
され、そこで、アナログ信号としての音声信号に変換さ
れる。この音声信号は、スピーカ6(図1)に供給さ
れ、これにより、テキスト解析部96に入力されたテキ
ストに対応する合成音が出力される。
【0050】以下に、対話装置1の動作について説明す
る。まず、ユーザの指示により、記憶部18(図2)に
記憶されている、対話を行うためのプログラムが起動さ
れ、ディスプレイ7(図1)上に対話を行う時に表示さ
れる画面が表示される。そのディスプレイ7上に表示さ
れる画面の表示例を図12に示す。図12に示すよう
に、ディスプレイ7上には、キャラクター表示部11
1、テキスト表示部112、およびパラメータ設定部1
13が表示されている。
【0051】キャラクター表示部111は、予めキャラ
クターとして複数、登録されている中から、ユーザが選
択したキャラクターが表示され、上述したように、パラ
メータの値により、表情や態度が変化する。テキスト表
示部112は、ユーザが発話したこや対話装置1が発話
したことが、テキストとして表示される。テキスト表示
部112に表示されるテキストとしては、ユーザがキー
ボード3により入力したことを表示し、さらに、そのユ
ーザ入力に対する対話装置1の応答文を表示するように
しても良い。また、ユーザが入力した文または対話装置
1の応答文の、どちらか一方を表示するようにしても良
い。
【0052】また、マイクロフォン5から入力されたユ
ーザの発話に対する認識結果を表示し、その認識結果に
対する対話装置1の応答文を表示するようにしても良
い。この場合も、ユーザが音声により入力した文または
対話装置1の応答文の、どちらか一方を表示するように
しても良い。また、対話装置1の応答文をテキスト表示
部112に表示すると共に、同一内容の応答文をスピー
カ6より発話させるようにしても良い。さらに、スピー
カ6により発話させる場合には、テキスト表示部112
には、対話装置1の応答文を表示させないようにしても
良い。
【0053】さらに、CCD8により入力されたユーザ
のジェスチャーに関する認識結果を表示するようにして
も良い。
【0054】このような、何を表示し、何を表示しない
かは、ユーザにより設定することができるようにしてお
くと、ユーザにとって使い勝手の良い対話装置1を提供
することが可能となる。
【0055】パラメータ設定部113は、パラメータ記
憶部44に記憶されているパラメータを変更する、従っ
て、パラメータ更新部46の機能を実行する部分であ
る。図13は、パラメータ設定部113の詳細を示す図
である。図13に示した例では、パラメータとして、”
おしゃべり度”、”忠実度”、”関心度”、および”応
対度”の4つのパラメータが設定できるようになってい
る。各パラメータの左側には、チェック欄が設けられて
いる。チェック欄がチェックされたパラメータは、その
値が変更されるようになっている。
【0056】ここで、パラメータ更新部46が行うパラ
メータ更新処理について、図14のフローチャートを参
照して説明する。パラメータ更新部46は、ステップS
1において、ユーザによる更新指示か否かが判断され
る。ユーザによりパラメータの更新が指示される場合と
しては、パラメータ設定部113のチェック欄にチェッ
クがされた(外された)ときや、音声コマンドにより指
示されるときが考えられる。そこで、ステップS1にお
いて、ユーザによる更新指示であると判断されると、ス
テップS2に進み、音声コマンドによる更新指示である
か否かが判断される。
【0057】ステップS2において、音声コマンドによ
る更新指示ではないと判断されると、換言すれば、パラ
メータ設定部113のチェック欄(図13)が操作され
たと判断されると、ステップS3に進み、設定部による
更新処理が開始される。図15は、ステップS3の詳細
な処理を説明するフローチャートである。ステップS2
1において、パラメータ設定部113のチェック欄のう
ちオンまたはオフされたチェック欄を判断することによ
り、更新が指示されたパラメータを判断する。
【0058】パラメータとして離散値(0または1)を
用いた場合、チェック欄がオンにされたとき、そのオン
にされたパラメータは1に設定され、オフにされたと
き、そのオフにされたパラメータは0に設定されるよう
にすればよい。しかしながら、そのように、ユーザの指
示に忠実に従った処理では、例えば、全くパラメータ設
定部113の設定を変更しないユーザに対しては、対話
装置1は、常に同じ反応をしてしまうことになる。ま
た、パラメータの値として連続値を用いた場合、その値
が変化しないことになってしまう。そこで、本実施の形
態においては、ユーザの指示であっても、パラメータ値
を変更するか否かを判断するステップを設ける。
【0059】ステップS22において、パラメータ更新
処理が行われる。図16は、ステップS22の詳細な処
理を説明するフローチャートである。ステップS31に
おいて、確率値を用いた変更処理計算が行われる。例え
ば、図13に示したパラメータ設定部113の”おしゃ
べり度”のチェック欄がオフにされた場合、まず、パラ
メータ更新部46は、パラメータ記憶部44に記憶され
ている”おしゃべり度”に関するパラメータ情報を読み
出す。この場合、離散値表現が用いられているとする
と、図8(A)に従い、”おしゃべり度”のパラメータ
は、値が1で、確率値が0.5である。
【0060】この場合、”おしゃべり度”のパラメータ
の値は1であるので、1/2の確率で、0に更新され
る。ステップS31において、この確率値を用いて、変
更処理計算を行った結果を用いて、ステップS32にお
いて、パラメータの値を変更するか否かが判断される。
ステップS32において、パラメータの値を変更すると
判断された場合、その判断に従い、ステップS34にお
いて、パラメータの変更が行われる。一方、ステップS
32において、パラメータの値は変更しないと判断され
た場合、パラメータの変更処理を行わずに、ステップS
1(図14)の処理に戻り、それ以降の処理が行われ
る。
【0061】図14のフローチャートの説明に戻り、ス
テップS2において、音声コマンドによる更新指示であ
ると判断された場合、ステップS4に進み、音声による
更新処理が開始される。音声コマンドによる更新指示で
あると判断される場合としては、ユーザが、”パラメー
タの更新”と発話し、言語処理入力部41により音声認
識処理が実行され、言語処理部42により、構文解析な
どが行われた結果、コマンドであると解析された場合で
ある。対話処理部43は、言語処理部42からコマンド
であるという解析結果を入力し、そのコマンドがパラメ
ータの更新指示であると判断すると、パラメータ更新部
46に、パラメータの更新指示を出す。このように、更
新指示を受けることにより、パラメータ更新部46は、
音声コマンドによる更新指示であるか否かを、ステップ
S2において判断する。
【0062】図17は、ステップS4の処理の詳細を説
明するフローチャートである。ステップS41におい
て、パラメータ更新処理が行われる。パラメータ更新処
理の詳細に付いては、既に、図16のフローチャートを
参照して説明したので、ここでは、その説明を省略す
る。パラメータ更新部46によりパラメータ更新処理が
実行されている一方で、ステップS42において、対話
管理部43は、入力されたコマンドに対応するシナリオ
を、シナリオメモリ82(図7)から読み出す。
【0063】対話処理部43は、読み出したシナリオを
基に、他のパラメータの更新はないか否か、パラメータ
更新処理は終了して良いか否かなどを、ユーザに問い、
返答を受け、その返答に応じた処理を、シナリオに基づ
いて行う。そのような処理を行うことにより、ユーザが
パラメータの更新処理の終了を指示したか否かが判断さ
れ、指示していないと判断された場合、ステップS41
に戻り、他のパラメータに対して同様の処理が繰り返さ
れる。一方、ステップS43において、終了であると判
断されると、ステップS1(図14)に戻り、それ以降
の処理が繰り返される。
【0064】ここで、上述した処理について、具体例を
挙げて説明する。時刻t1において、ユーザが、”キャ
ラクターの性格を変えたい”と発話する。この発話を受
け、対話装置1は、言語入力部41、言語処理部42、
および対話処理部43の、各部において上述した処理
を、それぞれ行うことにより、対話管理部43は、キャ
ラクターの性格を変えたいということは、パラメータの
値を更新することが指示されたと判断する。
【0065】そこで、対話管理部43は、シナリオメモ
リ82から、パラメータ更新に関するシナリオを読み出
し、そのシナリオに従い、時刻t2において、”パラメ
ータの更新をするよ。どのパラメータを変えるの?”と
いった文面を発話させるためのデータを生成する。そし
て、その生成されたデータが用いられて、応答生成部4
5およびスピーカ6により発話される。このような発話
を受け、ユーザは、時刻t3において、”おしゃべり度
を高くして”と発話する。この発話を受け、パラメータ
更新部46により、パラメータ記憶部44に記憶されて
いる”おしゃべり度”に関するパラメータの値が、上述
したような処理に従い更新される。
【0066】さらに、対話装置1は、時刻t4におい
て、”おしゃべり度を高くしたよ。他はどうする?”と
質問する。これに対し、時刻t5において、ユーザ
が、”忠実度も上げて”と発話すると、”忠実度”のパ
ラメータの更新処理が、”おしゃべり度”の時と同じ処
理により行われ、ユーザが”他はそのまま”と発話する
と、対話処理装置1は、終了の指示が出されたと判断
し、時刻t6において、”パラメータの更新処理を終わ
るよ”と発話する。
【0067】このように、パラメータの更新処理は、ユ
ーザと対話することにより行うことができる。
【0068】図14のフローチャートの処理の説明に戻
り、ステップS1において、ユーザによる更新指示では
ないと判断されると、ステップS5に進み、韻律情報に
よる更新指示であるか否かが判断される。韻律情報によ
る更新指示であると判断される場合は、音声認識部51
の特徴抽出部62(図5)の処理により抽出された韻律
情報が、対話管理部43に入力され、対話管理部43
が、知識データベース83(図7)に記憶されている知
識を参照し、韻律情報に関する処理情報を取得する。そ
して、その取得された処理情報により、更新指示である
か否かが判断される。
【0069】韻律情報による更新指示であると判断され
ると、ステップS6に進み、韻律情報による更新処理が
開始される。図18は、ステップS6の処理の詳細を説
明するフローチャートである。ここでは、韻律情報とし
て、ピッチが用いられる場合を例に上げて説明する。ス
テップS51において、対話管理部43において、入力
された韻律情報に基づき、ピッチが高いか否かが判断さ
れる。ステップS51において、ピッチが高いと判断さ
れた場合、ステップS53に進み、パラメータ更新部4
6に、”忠実度”のパラメータの値を増加させる方向で
更新するように指示が出される。
【0070】一方、ステップS51において、ピッチは
高くはないと判断された場合、ステップS53に進み、
パラメータ更新部46に、”忠実度”のパラメータの値
を減少させる方向で更新するように指示が出される。
【0071】このような処理が終了されると、ステップ
S1に戻り、それ以降の処理が繰り返される。
【0072】ステップS5(図14)において、韻律情
報による更新指示ではないと判断された場合、ステップ
S7に進み、内部情報による更新指示であるか否かが判
断される。内部情報とは、例えば、対話装置1が発話し
たことに対してユーザが返答するまでの時間や、対話装
置1とユーザが交わした対話の回数などである。これら
の情報は、対話履歴メモリ84(図7)に記憶されてい
る。対話管理部43は、対話履歴メモリ84に記憶され
ている情報を参照し、上述した返答までの時間が所定値
を越えた、会話回数が所定値を越えたなどの、所定の条
件が満たされると、内部情報による更新指示が出された
と判断する。
【0073】ステップS7において、内部情報による更
新指示が出されたと判断された場合、ステップS8に進
み、内部情報による更新処理が開始される。図19は、
ステップS8の処理の詳細を説明するフローチャートで
ある。ここでは、内部情報として、対話装置1が発話し
たことに対してユーザが返答を返すまでの時間(ユーザ
応答時間)を用いた場合を説明する。ステップS61に
おいて、対話管理部43は、ユーザ応答時間が短いか否
かを判断する。短いか否かの判断は、予め設定された値
を閾値として用い、その閾値以下であれば短いと判断す
る。
【0074】ステップS61において、ユーザ応答時間
が短いと判断された場合、ステップS62に進み、パラ
メータ更新部46に、”関心度”のパラメータの値を増
加させる方向で更新するように指示が出される。一方、
ステップS61において、ユーザ応答時間が短くはない
と判断された場合、ステップS63に進み、パラメータ
更新部46に、”関心度”のパラメータの値を減少させ
る方向で更新するように指示が出される。
【0075】このような処理が終了されると、ステップ
S1に戻り、それ以降の処理が繰り返される。
【0076】ステップS7において、内部情報による更
新指示ではないと判断された場合、ステップS9に進
む。ステップS9において、ニューラルによる更新指示
であるか否かが判断される。この判断は、例えば、所定
周期を設定し、その周期毎に行われる。ニューラルネッ
トワークによる更新指示であると判断されると、ステッ
プS10に進み、ニューラルによる更新処理が開始され
る。図20は、ステップS10の処理の詳細を説明する
フローチャートである。なお、ニューラルネットワーク
としては、例えば、図9に示した処理モデルが用いられ
る。
【0077】ステップS71において、パラメータ更新
部46は、パラメータ記憶部44に記憶されているパラ
メータの値を取得する。そして、ステップS72におい
て、取得したパラメータの値を各々のパラメータに対応
するニューロンに対して入力する。ニューラルネットワ
ークを利用して各パラメータの計算が行われ、各ニュー
ロンから更新された各々のパラメータの値が算出され
る。
【0078】ステップS72の処理により算出されたパ
ラメータの値を用いて、ステップS73において、パラ
メータ記憶部44に記憶されているパラメータの値が更
新される。このような処理が終了されると、ステップS
1に戻り、それ以降の処理が繰り返される。
【0079】図14示したフローチャートの処理は、繰
り返し行われ、パラメータの記憶部44に記憶されてい
るパラメータの値は、動的に更新される。このように、
ユーザの指示および対話装置1自身の処理によりパラメ
ータを更新することにより、ユーザに対する対話装置1
の対応を変化させることが可能となり、もって、自然
な、変化に富んだ対話をユーザに提供することが可能と
なる。
【0080】このように動的に変化するパラメータを用
いた対話装置1の、応答文の生成処理について、図21
のフローチャートを参照して説明する。反応生成部47
は、ステップS81において、パラメータ記憶部44に
記憶されている各パラメータの値を読み出す。その読み
出した値を基に、ステップS82以下の処理を行う。ま
ず、ステップS82において、”おしゃべり度”の処理
が行われる。図22は、ステップS82の処理の詳細を
説明するフローチャートである。
【0081】ステップS91において、読み出されたパ
ラメータの値を元に、反応が選択される。反応生成部4
7は、上述したように、図10に示すようなパラメータ
の値と反応の関係が記述されたテーブルを保持してい
る。そのテーブルにしたがって、反応が選択されるわけ
だが、いま、おしゃべり度は、種別がP1(図8に示し
たテーブルの識別子に対応)であり、反応としては「雑
談する」と「言葉数が少なくなる」の2通りが設定され
ている。この2通りの反応のうち、どちらか一方が、条
件により選択される。
【0082】すなわち、パラメータの値として連続値が
用いられた場合、その値が、5以上の場合、「雑談す
る」が選択され、5以下の場合、「言葉数が少なくな
る」が選択される。ステップS92において、ステップ
S91において選択された反応が、雑談するであるか否
かが判断される。ステップS92において、雑談するが
選択されていると判断されると、ステップS93に進
む。ステップS93において、対話管理部43におい
て、パラメータの値に応じて、ユーザとの応答回数が決
定される。パラメータの値が大きいほど、すなわち、お
しゃべり度が高いほど、応答回数として大きな値が設定
される。
【0083】ステップS94において、対話管理部81
は、シナリオメモリ82に記憶されている雑談モードの
シナリオを読み出し、ステップS95において、システ
ム(対話装置1)主導で、ユーザに話し掛ける。このよ
うに、おしゃべり度が高い場合、対話装置1の方からユ
ーザに対して話し掛ける。
【0084】一方、ステップS92において、雑談する
が選択されているのではないと判断される、すなわち、
おしゃべり度が高くなく、言葉数が少なくなるが選択さ
れいると判断されると、対話装置1の方からユーザに話
し掛けることが少なくなるため、ステップS93乃至S
95の処理はスキップされる。
【0085】このようにして、おしゃべり度に関する処
理が終了されると、ステップS83(図21)に進み、
忠実度の処理が開始される。図23は、ステップS83
の処理の詳細を説明するフローチャートである。ステッ
プS101において、反応生成部47は、パラメータ記
憶部44に記憶されている忠実度に関するパラメータの
値を読み出す。反応生成部47は、保持している図10
に示したようなテーブルを参照する。種別がP2である
忠実度に関する反応としては、識別子としてR3乃至R
5の3つの反応が設定されている。
【0086】反応生成部47は、ステップS102にお
いて、パラメータ記憶部44から読み出した忠実度に関
するパラメータの値が、どの条件に当てはまるかを判断
し、その当てはまる条件の反応を選択する。例えば、パ
ラメータの値が、8であった場合、7以上という条件に
当てはまるため、識別子R3の「対話の指示通りに処
理」という反応が選択される。
【0087】このようにして選択された反応に基づき、
ステップS103において、応答生成部45において適
切な応答文が作成されるように制御される。例えば、反
応として識別子R3の「対話の指示通りに処理」が選択
された場合、応答生成部45の応答文生成部91は、テ
ンプレートデータベース92に記憶されているテンプレ
ートを参照し、識別子R3の場合、丁寧な表現(−いた
しましょうか)を用いるような応答文を生成する。
【0088】このような忠実度の処理が終了されると、
ステップS84(図21)に進み、関心度の処理が行わ
れる。図24は、ステップS84の処理の詳細を説明す
るフローチャートである。反応生成部47は、ステップ
S111において、パラメータ記憶部44に記憶されて
いる関心度に関するパラメータの値を読み出す。反応生
成部47は、保持しているテーブルを参照し、反応の種
別がP3であり、その種別に対応する反応としては、識
別子R6,R7の2つが設定されていると認識する。
【0089】ステップS112において、相槌の数が多
いが選択されているか否かが判断される。換言すれば、
読み出したパラメータの値が、6以上であるか否かが判
断される。このようにして判断されるのは、パラメータ
の値が6以上である場合、反応としては、識別子R6の
「相槌の数が多い」が選択され、パラメータの値が6以
下の場合、反応としては、識別子R7の「聞き流す」が
選択されるからである。
【0090】ステップS112において、相槌の数が多
いが選択されていると判断された場合、ステップS11
3に進み、対話管理部43は、ユーザの発話に対してど
れだけの相槌をいれるか、その相槌を行う数を設定す
る。一方、ステップS112において、相槌の数が多い
が選択されているわけではないと判断された場合、換言
すれば、反応として「聞き流す」が選択されていると判
断された場合、相槌の数を設定する必要は無いので、ス
テップS113の処理はスキップされる。
【0091】このような関心度の処理が終了されると、
ステップS85(図21)に進み、応対度の処理が開始
される。図25は、ステップS85の処理の詳細を説明
するフローチャートである。ステップS121におい
て、反応生成部47は、パラメータ記憶部44に記憶さ
れている応対度に関するパラメータの値を読み出す。ス
テップS122において、韻律情報を計算する。
【0092】反応生成部47は、保持しているテーブル
を参照し、反応の種別がP4であり、その種別に対応す
る反応としては、識別子R8,R9の2つが設定されて
いると認識する。すなわち、対応度に関する反応は、識
別子R8の「表情、声を明るくする」と、識別子R9の
「表情は暗く、怒った声」という2つの設定が行われて
いる。この反応は、キャラクター表示部111(図1
2)に表示されるキャラクターの表情と、スピーカ6に
より発話される対話装置1の声に関するものである。
【0093】ここでは、声に関する処理を例に挙げて説
明すると、ステップS122において、声の明るさ、暗
さを左右する韻律情報が計算される。この計算結果に基
づいて、ステップS123において、音声合成部(不図
示)により、音声が合成され、出力される。
【0094】図21に示したフローチャートの処理は、
対話装置1が、ユーザと対話している間、繰り返し行わ
れる。パラメータの値は、上述したように、動的に変化
されるので、図21に示したフローチャートの処理を対
話している間、繰り返し行うことにより、対話装置1の
応対の仕方に変化をもたらすことが可能となり、もっ
て、単調な対話を行うことがなくなり、楽しい対話をユ
ーザに提供することが可能となる。
【0095】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが専用のハードウェアに組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどに、記録媒体からイン
ストールされる。
【0096】この記録媒体は、図2に示すように、コン
ピュータとは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク31(フロッピディスクを含む)、光ディスク32
(CD-ROM(Compact Disk-ReadOnly Memory),DVD(Dig
ital Versatile Disk)を含む)、光磁気ディスク33
(MD(Mini-Disk)を含む)、若しくは半導体メモリ3
4などよりなるパッケージメディアにより構成されるだ
けでなく、コンピュータに予め組み込まれた状態でユー
ザに提供される、プログラムが記憶されているROM12
や記憶部18が含まれるハードディスクなどで構成され
る。
【0097】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
【0098】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
【0099】
【発明の効果】以上の如く請求項1に記載の会話処理装
置、請求項6に記載の会話処理方法、および請求項7に
記載の記録媒体によれば、入力された言語情報を解析
し、パラメータを記憶し、その記憶されているパラメー
タを動的に更新し、解析結果と、記憶されているパラメ
ータとを基に、ユーザとの会話を制御するようにしたの
で、ユーザに変化に富んだ対応をする対話を提供するこ
とが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した対話装置1の一実施の形態の
外観を示す図である。
【図2】対話装置1の内部構成を示す図である。
【図3】対話装置1の機能ブロック図である。
【図4】言語情報入力部41の内部構成を示す図であ
る。
【図5】音声認識部51の内部構成を示す図である。
【図6】言語処理部42の内部構成を示す図である。
【図7】対話管理部43の内部構成を示す図である。
【図8】パラメータ記憶部4に記憶されているテーブル
を説明する図である。
【図9】パラメータ更新部46が行うパラメータ更新に
ついて説明する図である。
【図10】反応生成部47に記憶されているテーブルを
説明する図である。
【図11】応答生成部45の内部構成を示す図である。
【図12】ディスプレイ7上に表示される表示例であ
る。
【図13】パラメータ設定部113の表示例である。
【図14】パラメータ更新処理について説明するフロー
チャートである。
【図15】図14のステップS3の処理の詳細を説明す
るフローチャートである。
【図16】図15のステップS22の処理の詳細を説明
するフローチャートである。
【図17】図14のステップS4の処理の詳細を説明す
るフローチャートである。
【図18】図14のステップS6の処理の詳細を説明す
るフローチャートである。
【図19】図14のステップS8の処理の詳細を説明す
るフローチャートである。
【図20】図14のステップS10の処理の詳細を説明
するフローチャートである。
【図21】応答文生成処理を説明するフローチャートで
ある。
【図22】図21のステップS82の処理の詳細を説明
するフローチャートである。
【図23】図21のステップS83の処理の詳細を説明
するフローチャートである。
【図24】図21のステップS84の処理の詳細を説明
するフローチャートである。
【図25】図21のステップS85の処理の詳細を説明
するフローチャートである。
【符号の説明】
1 対話装置, 2 本体, 3 キーボード, 4
マウス, 5 マイクロフォン, 6 スピーカ, 7
ディスプレイ, 8 CCD, 41 言語情報入力
部, 42 言語処理部, 43 対話管理部, 44
パラメータ記憶部, 45 応答生成部, 46 パ
ラメータ更新部, 47 反応生成部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/22 G10L 3/00 571U (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横野 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大江 敏生 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B049 BB31 BB52 CC06 DD00 DD01 DD03 DD05 EE03 EE05 EE07 FF03 FF04 FF06 FF09 GG04 GG07 5B091 AA15 BA03 BA19 CA02 CA05 CA12 CB12 CB22 CB32 CC02 CC03 CD03 CD15 EA01 EA21 5D015 KK02 KK04 LL05 LL07 5D045 AA07 AB01 AB11 9A001 BB02 BB03 BB04 CC02 DD11 EE02 EE05 HH06 HH07 HH11 HH16 HH17 HH18 HH21 HH33 JJ01 JJ62 JJ72 KK46 KK56 KK60

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 ユーザと会話する会話処理装置におい
    て、 言語情報を入力する入力手段と、 前記入力手段により入力された前記言語情報を解析する
    解析手段と、 パラメータを記憶する記憶手段と、 前記記憶手段に記憶されている前記パラメータを更新す
    る更新手段と、 前記解析手段による解析結果と、前記記憶手段により記
    憶されている前記パラメータを基に、前記ユーザとの会
    話を制御する制御手段とを含むことを特徴とする会話処
    理装置。
  2. 【請求項2】 前記入力手段は、前記ユーザから、音声
    形式、テキスト形式、または、ジェスチャ形式のうち
    の、少なくても1つの形式が用いられて供給される前記
    言語情報を入力することを特徴とする請求項1に記載の
    会話処理装置。
  3. 【請求項3】 前記更新手段は、前記ユーザの音声によ
    る指示により、前記記憶手段に記憶されている前記パラ
    メータの更新を開始することを特徴とする請求項1に記
    載の会話処理装置。
  4. 【請求項4】 前記更新手段は、前記ユーザの発話から
    得られる韻律情報、前記ユーザと会話を交わした回数の
    情報、または、前記ユーザの返答が返ってくるまでにか
    かった時間の情報のうち、少なくても1つの情報を用
    い、その情報が、所定の条件を満たす場合、前記記憶手
    段に記憶されている前記パラメータを更新することを特
    徴とする請求項1に記載の会話処理装置。
  5. 【請求項5】 前記パラメータは、おしゃべり度、忠実
    度、関心度、対応度を、それぞれ示すものであることを
    特徴とする請求項1に記載の会話処理装置。
  6. 【請求項6】 ユーザと会話する会話処理装置の会話処
    理方法において、言語情報の入力を制御する入力制御ス
    テップと、 前記入力制御ステップの処理で入力された前記言語情報
    を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
    タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
    御ステップの処理で記憶された前記パラメータを基に、
    前記ユーザとの会話を制御する制御ステップとを含むこ
    とを特徴とする会話処理方法。
  7. 【請求項7】 ユーザと会話する会話処理装置の会話処
    理用のプログラムであって、言語情報の入力を制御する
    入力制御ステップと、 前記入力制御ステップの処理で入力された前記言語情報
    を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
    タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
    御ステップの処理で記憶された前記パラメータを基に、
    前記ユーザとの会話を制御する制御ステップとを含むこ
    とを特徴とするコンピュータが読み取り可能なプログラ
    ムが記録されている記録媒体。
JP37577199A 1999-12-28 1999-12-28 会話処理装置および方法、並びに記録媒体 Pending JP2001188788A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37577199A JP2001188788A (ja) 1999-12-28 1999-12-28 会話処理装置および方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37577199A JP2001188788A (ja) 1999-12-28 1999-12-28 会話処理装置および方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001188788A true JP2001188788A (ja) 2001-07-10
JP2001188788A5 JP2001188788A5 (ja) 2006-04-27

Family

ID=18506038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37577199A Pending JP2001188788A (ja) 1999-12-28 1999-12-28 会話処理装置および方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2001188788A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2003108376A (ja) * 2001-10-01 2003-04-11 Denso Corp 応答メッセージ生成装置、及び端末装置
JP2004073668A (ja) * 2002-08-21 2004-03-11 P To Pa:Kk 競走遊技装置、競走遊技制御方法及びプログラム
JP2006171719A (ja) * 2004-12-01 2006-06-29 Honda Motor Co Ltd 対話型情報システム
JP2017161637A (ja) * 2016-03-08 2017-09-14 シャープ株式会社 発話装置、発話装置の制御方法、制御プログラム、および記録媒体
JP2018142272A (ja) * 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ コンテンツ評価予測システム及びコンテンツ評価予測方法
JP2021101363A (ja) * 2019-07-11 2021-07-08 株式会社フューチャーアイ サービス提供システム及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2003108376A (ja) * 2001-10-01 2003-04-11 Denso Corp 応答メッセージ生成装置、及び端末装置
JP2004073668A (ja) * 2002-08-21 2004-03-11 P To Pa:Kk 競走遊技装置、競走遊技制御方法及びプログラム
JP2006171719A (ja) * 2004-12-01 2006-06-29 Honda Motor Co Ltd 対話型情報システム
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
JP2017161637A (ja) * 2016-03-08 2017-09-14 シャープ株式会社 発話装置、発話装置の制御方法、制御プログラム、および記録媒体
JP2018142272A (ja) * 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ コンテンツ評価予測システム及びコンテンツ評価予測方法
JP2021101363A (ja) * 2019-07-11 2021-07-08 株式会社フューチャーアイ サービス提供システム及びプログラム
JP2022003586A (ja) * 2019-07-11 2022-01-11 株式会社フューチャーアイ 支援システム
JP7067755B2 (ja) 2019-07-11 2022-05-16 株式会社フューチャーアイ サービス提供システム及び端末

Similar Documents

Publication Publication Date Title
US20230012984A1 (en) Generation of automated message responses
Delić et al. Speech technology progress based on new machine learning paradigm
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
JP3994368B2 (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP5174937B2 (ja) 音声認識装置及び方法
US20020123894A1 (en) Processing speech recognition errors in an embedded speech recognition system
JP2001215993A (ja) 対話処理装置および対話処理方法、並びに記録媒体
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
WO2007148493A1 (ja) 感情認識装置
KR20230056741A (ko) 목소리 변환 및 스피치 인식 모델을 사용한 합성 데이터 증강
JP4729902B2 (ja) 音声対話システム
KR20210034276A (ko) 대화 시스템, 대화 처리 방법 및 전자 장치
JP2024508033A (ja) 対話中のテキスト-音声の瞬時学習
Aylett et al. Building and designing expressive speech synthesis
CN110767240B (zh) 儿童口音识别的设备控制方法、设备、存储介质及装置
JP2001188779A (ja) 情報処理装置および方法、並びに記録媒体
JP2010197644A (ja) 音声認識システム
JP2001188788A (ja) 会話処理装置および方法、並びに記録媒体
JP2018031851A (ja) 談話機能推定装置及びそのためのコンピュータプログラム
JP2001209644A (ja) 情報処理装置および情報処理方法、並びに記録媒体
Venkatagiri Speech recognition technology applications in communication disorders
Kos et al. A speech-based distributed architecture platform for an intelligent ambience
Kuzdeuov et al. Speech command recognition: Text-to-speech and speech corpus scraping are all you need
JP2001117752A (ja) 情報処理装置および情報処理方法、並びに記録媒体
KR20080011859A (ko) 문말 억양 예측 방법 및 이를 기반으로 하는 음성합성 방법및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071026