JP2001188788A - 会話処理装置および方法、並びに記録媒体 - Google Patents
会話処理装置および方法、並びに記録媒体Info
- Publication number
- JP2001188788A JP2001188788A JP37577199A JP37577199A JP2001188788A JP 2001188788 A JP2001188788 A JP 2001188788A JP 37577199 A JP37577199 A JP 37577199A JP 37577199 A JP37577199 A JP 37577199A JP 2001188788 A JP2001188788 A JP 2001188788A
- Authority
- JP
- Japan
- Prior art keywords
- user
- parameter
- processing
- input
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 76
- 230000004044 response Effects 0.000 claims abstract description 73
- 238000004458 analytical method Methods 0.000 claims description 46
- 238000003672 processing method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 abstract description 37
- 230000002452 interceptive effect Effects 0.000 abstract description 36
- 230000008569 process Effects 0.000 description 68
- 238000010586 diagram Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 14
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001385733 Aesculus indica Species 0.000 description 1
- 102100035248 Alpha-(1,3)-fucosyltransferase 4 Human genes 0.000 description 1
- 101100116283 Arabidopsis thaliana DD11 gene Proteins 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101001022185 Homo sapiens Alpha-(1,3)-fucosyltransferase 4 Proteins 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 241000287531 Psittacidae Species 0.000 description 1
- 229910017435 S2 In Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002964 excitative effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Landscapes
- Document Processing Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Machine Translation (AREA)
Abstract
る。 【解決手段】 ユーザの音声などにより言語情報入力部
41に入力された情報は、言語処理部42により、言語処
理される。対話管理部43は、言語処理部42による処
理結果と、パラメータ記憶部44に記憶されているパラ
メータに基づき、対話文の元となるデータを作成し、応
答生成部45に出力する。応答生成部45は、対話管理
部43からのデータに基づき、また、反応生成部47の
指示に従い、応答文を生成し、発話する。パラメータ記
憶部44に記憶されているパラメータは、パラメータ更
新部46により、さまざまな条件により、動的に更新さ
れる。
Description
方法、並びに記録媒体に関し、特に、パラメータ値を動
的に変更することにより、会話の応対の仕方などを動的
に変化させる会話処理装置および方法、並びに記録媒体
に関する。
チが押圧操作されると、合成音を出力するロボット(ぬ
いぐるみ状のものを含む)が数多く製品化されている。
また、コンピュータを相手に会話を行うといったものも
普及しつつある。
(タスクオリエンテッド)が用いられ、航空券の予約が
行なわれたり、旅行案内のサービスを提供するなどのサ
ービスがある。これは、予め決められたことを話すだけ
で、雑談を含む人間との自然な会話を行うものではなか
った。コンピュータと人間とが、雑談を含む自然な会話
を行うための試みとして、Eliza(James Allen:Natura
l Language Understanding,6乃至9頁などに開示され
ている)などの実験的なものがある。
は、人間(ユーザ)とやりとりしている会話の内容は、
殆ど理解しておらず、換言すれば、オウム返し的な会話
しかできないので、ユーザは、すぐに飽きてしまうとい
った課題があった。
ものであり、パラメータ値を動的に変化させることによ
り、会話の応対の仕方などに変化をもたらすようにし、
もって、ユーザが飽きないような会話を提供することを
目的とする。
理装置は、言語情報を入力する入力手段と、入力手段に
より入力された言語情報を解析する解析手段と、パラメ
ータを記憶する記憶手段と、記憶手段に記憶されている
パラメータを更新する更新手段と、解析手段による解析
結果と、記憶手段により記憶されているパラメータを基
に、ユーザとの会話を制御する制御手段とを含むことを
特徴とする。
テキスト形式、または、ジェスチャ形式のうちの、少な
くても1つの形式が用いられて供給される言語情報を入
力するようにすることができる。
により、記憶手段に記憶されているパラメータの更新を
開始するようにすることができる。
る韻律情報、ユーザと会話を交わした回数の情報、また
は、ユーザの返答が返ってくるまでにかかった時間の情
報のうち、少なくても1つの情報を用い、その情報が、
所定の条件を満たす場合、記憶手段に記憶されているパ
ラメータを更新するようにすることができる。
度、関心度、対応度を、それぞれ示すものであるように
することができる。
報の入力を制御する入力制御ステップと、入力制御ステ
ップの処理で入力された言語情報を解析する解析ステッ
プと、パラメータの記憶を制御する記憶制御ステップ
と、記憶制御ステップの処理で記憶されたパラメータを
更新する更新ステップと、解析ステップの処理による解
析結果と、記憶制御ステップの処理で記憶されたパラメ
ータを基に、ユーザとの会話を制御する制御ステップと
を含むことを特徴とする。
は、言語情報の入力を制御する入力制御ステップと、入
力制御ステップの処理で入力された言語情報を解析する
解析ステップと、パラメータの記憶を制御する記憶制御
ステップと、記憶制御ステップの処理で記憶されたパラ
メータを更新する更新ステップと、解析ステップの処理
による解析結果と、記憶制御ステップの処理で記憶され
たパラメータを基に、ユーザとの会話を制御する制御ス
テップとを含むことを特徴とする。
に記載の会話処理方法、および請求項7に記載の記録媒
体においては、入力された言語情報が解析され、パラメ
ータが記憶され、その記憶されているパラメータが動的
に更新され、解析結果と、記憶されているパラメータと
を基に、ユーザとの会話が制御される。
いて図を参照しながら説明する。図1は、本発明を適用
した対話装置の外観を示す図である。対話装置1の本体
2には、文字入力を行う際に用いられるキーボード3や
マウス4が接続されている。また、音声入力を行う際に
用いられるマイクロフォン5や、音声出力する際に用い
られるスピーカ6も接続されている。さらに、テキスト
などを表示するディスプレイ8や、画像を取り込む際に
用いられるCCD(Charge Coupled Device)8も接続され
ている。
ある。対話装置1のCPU11は、ROM(Read Only Memor
y)12に記憶されているプログラムに従って各種の処
理を実行する。RAM(Random Access Memory)13に
は、CPU11が各種の処理を実行する上において必要な
データやプログラムなどが適宜記憶される。入出力イン
タフェース15には、キーボード3、マウス4、マイク
ロフォン5、およびCCD8から構成される入力部16、
スピーカ2とディスプレイ7から構成される出力部17
が接続されているまた、入出力インタフェース15に
は、ハードディスク(HDD)などから構成される記憶部
18や、インターネットなどを介して他の装置と通信を
行う通信部19も接続されている。
磁気ディスク31、光ディスク32、光磁気ディスク3
3、および半導体メモリ34などにデータの記録、又
は、データの再生を行うドライブ20も接続されてい
る。
る。言語情報入力部41は、音声形式、テキスト形式、
画像形式により入力されたデータを認識処理し、言語情
報(テキストデータ)に変換する機能をもつ。言語処理
部42は、言語情報入力部41から出力された言語情報
を構文や意味の解析を行い、対話装置1を制御するため
のコマンドなどの検出を行う。
ら出力される音声認識の結果としての韻律情報、言語処
理部42から出力される解析結果の情報とコマンドに関
する情報、およびパラメータ記憶部44に記憶されてい
る各種パラメータの値を基に、ユーザが入力したことに
対応する反応を決定し、応答生成部45により、その決
定した応答が実行されるための情報を出力する。
力されたことを解析することにより得られた言語情報、
韻律情報、および各種パラメータの情報を用いてパラメ
ータ記憶部44に記憶されているパラメータの値を更新
する機能を有する。反応生成部47は、パラメータ記憶
部44に記憶されている各種パラメータの値に応じて、
ユーザに対する反応を決定する。反応生成部47が生成
する反応としては、例えば、スピーカ6により出力され
る音声を変えたり、ディスプレイ7に表示させるキャラ
クターの表情を変えたりするなどがある。
力された応答命令、反応生成部47で決定した反応内
容、およびパラメータ記憶部44に記憶されている各種
パラメータの値に応じて、応答文やキャラクターの動作
などを生成し、スピーカ6により音声として応答文を出
力させたり、ディスプレイ7上に表示されているキャラ
クターの表示を変化させたりする。
示す図である。ユーザは、対話装置1と音声、テキス
ト、ジェスチャーを用いて対話を行うことが可能であ
る。ユーザが発話したことは、マイクロフォン5により
言語情報入力部41に取り込まれる。マイクロフォン5
からの出力は、音声認識部51に入力され、音声認識が
行われる。また、CCD8により取り込まれたユーザの画
像は、ジェスチャーとしてとらえられ、ジェスチャー認
識部52により認識される。音声認識部51、キーボー
ド3、または、ジェスチャー認識部52から出力された
認識結果(テキストデータ)は、言語処理部42に出力
される。
図である。ユーザの発話は、マイクロフォン5を介して
音声信号として、音声認識部51のAD(Analog Digita
l)変換部61に入力される。AD変換部61では、アナ
ログ信号である音声信号がサンプリング、量子化され、
ディジタル信号である音声データに変換される。この音
声データは、特徴抽出部62に供給される。
音声データについて、適当なフレームごとに、例えば、
スペクトルや、線形予測係数、ケプストラム係数、線ス
ペクトル対等の特徴パラメータを抽出し、マッチング部
63に供給する。また、特徴抽出部62からは、韻律情
報が、必要に応じ、対話管理部43などに出力される。
の特徴パラメータに基づき、音響モデルデータベース6
4、辞書データベース65、および文法データベース6
6を必要に応じて参照しながら、入力された音声信号を
認識する。
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Markov
Model)などを用いることができる。辞書データベース6
5は、認識対象の各単語について、その発音に関する情
報が記述された単語辞書を記憶している。文法データベ
ース66は、辞書データベース65の単語辞書に登録さ
れている各単語が、どのように連鎖する(つながる)か
を記述した文法規則を記憶している。ここで、文法規則
としては、例えば、文脈自由文法(CFG)や、統計的な
単語連鎖確率(N-gram)などに基づく規則を用いること
ができる。
5の単語辞書を参照することにより、音響モデルデータ
ベース64に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部63は、幾つかの単語モデルを、文法
データベース66に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等に
よって、入力された音声を認識する。そして、マッチン
グ部63による音声認識結果は、例えば、テキストデー
タとして出力される。
さないが、テンプレートマッチングなどの方法を用い
て、ユーザが所定の動作を行ったか否かを判断し、所定
の動作をしたと判断された場合、その動作に対応するテ
キストデータを認識結果として出力する。
キストデータは、認識結果として用いられる。キーボー
ド3、音声認識部51、または、ジェスチャー認識部5
2から出力された認識結果は、言語処理部42に出力さ
れる。図6は、言語処理部42の内部構成を示す図であ
る。
果(テキストデータ)は、言語処理部42の言語解析部
71に入力される。言語解析部71は、辞書データベー
ス72、解析用文法データベース73、およびコマンド
辞書データベース74に記憶されているデータを基に、
入力された音声認識結果を、形態素解析、構文解析など
の解析を行うことにより、単語の情報や構文の情報など
の言語情報、コマンド情報を抽出する。また、辞書に記
述された内容を基に、入力された発話の意味、意図など
も抽出される。
語の表記や解析用文法を適用するために必要な品詞情報
などの情報、単語の個別の意味情報などが記憶されてお
り、解析用文法データベース73には、辞書データベー
ス72に記憶されている各単語の情報を基に、単語連鎖
に関する制約を記述したデータが記憶されている。ま
た、コマンド辞書データベース74には、コマンドに関
するデータが記憶されている。これらのデータを用いて
言語処理部42(言語解析部71)は、入力された音声
認識結果のテキストデータを解析する。
いるデータは、正規文法、文脈自由文法、統計的な単語
連鎖確立、意味的な解析までを含める場合はHPSGなどの
意味論を含んだ言語理論などを用いる、テキスト解析に
必要なデータである。
は、対話管理部43に供給される。図7は、対話管理部
43の内部構成を示す図である。対話管理部43の対話
処理部81は、入力された解析結果を用いて、後段の応
答生成部45が生成する応答文の基となるデータを作成
する。対話処理部81は、シナリオメモリ82に記憶さ
れているシナリオ(詳細は後述する)、知識データベー
ス83に記憶されている知識、および対話履歴メモリ8
4に記憶されている履歴を参照し、応答文の基となるデ
ータを作成する。
リオは、対話のパターンを記述したものであり、タスク
により異なる。例えば、目的志向型のタスク(パラメー
タ設定)に関するシナリオは、ユーザに質問し、情報を
収集するようなシナリオである。以下に、その一例を示
す。 (action(Question(speak,devotion,interest,reciv
e))) (speak ???) #おしゃべり度 (devotion ???) #忠実度 (interest ???) #関心度 (recive ???) #応対度
対話シナリオ(雑談などに使用)は、以下のようにな
る。 If X exist then speak(Y) #X:キーワード、Y:応答文 (X:お金 Y:何が欲しいの) #(XY) (X:食べたい Y:お腹がすいているの)
識としては、対話動作に関する制御情報や応答に必要な
情報を管理している。例えば、ユーザが挨拶をしたと判
断されるときには、挨拶の応答を返すといった対話にお
ける規則、雑談モード(タスク)時に使用する話題など
である。
置1との間でやり取りされた各種情報(例えば、ユーザ
入力、応答内容など)や、対話管理情報(例えば、応答
回数、応答時間など)が記憶されている。対話履歴メモ
リ84に記憶されているこれらの情報は、応答文生成や
応答回数の制御などの対話処理に利用される。
なパラメータが記憶されている。図8(A)は、パラメ
ータの値を離散値して表現した場合を示し、図8(B)
は、パラメータの値を連続値として表現した場合を示し
ている。実際に構成する場合は、離散値、または、連続
値の、どちらか一方を用いればよい。これらのパラメー
タの値は、パラメータ更新部46の指示により更新され
る。
ラメータは、ユーザ入力に対応する応答を行う場合、例
えば、音声で応答する時には、応答文の選択、生成、声
の高さの変化を制御するのに用いられるとともに、ディ
スプレイ7上に表示されるキャラクターの表情の変化を
制御するのにも用いられる。
記号(情報)であり、種類は、パラメータの特徴を表し
ている、値は、各パラメータの影響の程度を表してい
る。確率値は、パラメータ更新時に用いられ、図8
(A)のように、値が離散値で表現される場合、値が0
または1になる確率であり、図8(B)にように、値が
連続値で表現される場合、各値が増加または減少する確
率である。
ラメータは、パラメータ更新部46の指示により更新さ
れる。パラメータ更新部46は、例えば、図9に示すよ
うな、処理モデルに従って行う。各ニューロン(N1乃
至N4)は、相互結合型のネットワークで結合されてお
り、所定のニューロンへの入力が、自分自身の値や、他
のニューロンの値に変化をもたらすようになっている。
結合の種類としては、側興奮性結合や側抑制結合などを
用いることが可能である。
ーブルを保持している。すなわち、図9に示したパラメ
ータ記憶部44に記憶されているパラメータ情報のう
ち、識別子、種類、および、条件(図10に示した例で
は、図8(B)の値に対応する)により、反応内容が決
定される為のテーブルである。
す図である。対話管理部43から出力された応答文作成
用データは、応答生成部45の応答文生成部91に入力
される。応答文生成部91は、テンプレートデータベー
ス92、応答文生成規則データベース93、および、辞
書データベース94に記憶されているデータを参照して
適切な応答文(テキストデータ)を生成する。
レート情報を記憶している。そのテンプレート情報とし
ては、例えば、パラメータの値として連続値を用いる場
合、以下に示すようなものである。 反応 条件 文例 R3 7以上 丁寧(−いたしましょうか) R3 4以上 (−するの) テンプレートとは、すなわち、識別子と条件により、ど
のような態度の応答文を生成するかを決定する情報であ
る。
ような応答文を、どのように生成するのかに関する規則
が記憶されている。例えば、仮に、話題が意味的なフレ
ーム構造などで管理されているなら、そこから自然言語
文を生成する規則などが書かれている。この意味構造か
ら自然言語文を生成する方法は、言語処理部42により
行われる処理の逆の処理として行うことにより、実現す
ることが可能である。辞書データベース94は、応答文
を作成するのに必要な単語情報が記憶されている。
生成された、テキストデータとしての応答文は、テキス
ト解析部96に出力される。テキスト解析部96は、入
力されたテキストデータを、辞書データベース94や解
析用文法データベース95を参照しながら解析する。
の品詞情報や、読み、アクセント等の情報が記述された
単語辞書が記憶されており、また、解析用文法データベ
ース95には、辞書データベース94の単語辞書に記述
された単語について、単語連鎖に関する制約等の解析用
文法規則が記憶されている。そして、テキスト解析部9
6は、この単語辞書および解析用文法規則に基づいて、
そこに入力されるテキストの形態素解析や構文解析等の
解析を行い、後段の規則合成部97で行われる規則音声
合成に必要な情報を抽出する。ここで、規則音声合成に
必要な情報としては、例えば、ポーズの位置や、アクセ
ントおよびイントネーションを制御するための情報、そ
の他の韻律情報や、各単語の発音等の音韻情報などがあ
る。
則合成部97に供給され、規則合成部97では、音素片
データベース98を用いて、テキスト解析部96に入力
されたテキストに対応する合成音の音声データ(デジタ
ルデータ)が生成される。
ば、CV(Consonant, Vowel)や、VCV、CVC等の形で音素
片データが記憶されており、規則合成部97は、テキス
ト解析部96からの情報に基づいて、必要な音素片デー
タを接続し、さらに、ポーズ、アクセント、イントネー
ション等を適切に付加することで、テキスト解析部96
に入力されたテキストに対応する合成音の音声データを
生成する。
され、そこで、アナログ信号としての音声信号に変換さ
れる。この音声信号は、スピーカ6(図1)に供給さ
れ、これにより、テキスト解析部96に入力されたテキ
ストに対応する合成音が出力される。
る。まず、ユーザの指示により、記憶部18(図2)に
記憶されている、対話を行うためのプログラムが起動さ
れ、ディスプレイ7(図1)上に対話を行う時に表示さ
れる画面が表示される。そのディスプレイ7上に表示さ
れる画面の表示例を図12に示す。図12に示すよう
に、ディスプレイ7上には、キャラクター表示部11
1、テキスト表示部112、およびパラメータ設定部1
13が表示されている。
クターとして複数、登録されている中から、ユーザが選
択したキャラクターが表示され、上述したように、パラ
メータの値により、表情や態度が変化する。テキスト表
示部112は、ユーザが発話したこや対話装置1が発話
したことが、テキストとして表示される。テキスト表示
部112に表示されるテキストとしては、ユーザがキー
ボード3により入力したことを表示し、さらに、そのユ
ーザ入力に対する対話装置1の応答文を表示するように
しても良い。また、ユーザが入力した文または対話装置
1の応答文の、どちらか一方を表示するようにしても良
い。
ーザの発話に対する認識結果を表示し、その認識結果に
対する対話装置1の応答文を表示するようにしても良
い。この場合も、ユーザが音声により入力した文または
対話装置1の応答文の、どちらか一方を表示するように
しても良い。また、対話装置1の応答文をテキスト表示
部112に表示すると共に、同一内容の応答文をスピー
カ6より発話させるようにしても良い。さらに、スピー
カ6により発話させる場合には、テキスト表示部112
には、対話装置1の応答文を表示させないようにしても
良い。
のジェスチャーに関する認識結果を表示するようにして
も良い。
かは、ユーザにより設定することができるようにしてお
くと、ユーザにとって使い勝手の良い対話装置1を提供
することが可能となる。
憶部44に記憶されているパラメータを変更する、従っ
て、パラメータ更新部46の機能を実行する部分であ
る。図13は、パラメータ設定部113の詳細を示す図
である。図13に示した例では、パラメータとして、”
おしゃべり度”、”忠実度”、”関心度”、および”応
対度”の4つのパラメータが設定できるようになってい
る。各パラメータの左側には、チェック欄が設けられて
いる。チェック欄がチェックされたパラメータは、その
値が変更されるようになっている。
メータ更新処理について、図14のフローチャートを参
照して説明する。パラメータ更新部46は、ステップS
1において、ユーザによる更新指示か否かが判断され
る。ユーザによりパラメータの更新が指示される場合と
しては、パラメータ設定部113のチェック欄にチェッ
クがされた(外された)ときや、音声コマンドにより指
示されるときが考えられる。そこで、ステップS1にお
いて、ユーザによる更新指示であると判断されると、ス
テップS2に進み、音声コマンドによる更新指示である
か否かが判断される。
る更新指示ではないと判断されると、換言すれば、パラ
メータ設定部113のチェック欄(図13)が操作され
たと判断されると、ステップS3に進み、設定部による
更新処理が開始される。図15は、ステップS3の詳細
な処理を説明するフローチャートである。ステップS2
1において、パラメータ設定部113のチェック欄のう
ちオンまたはオフされたチェック欄を判断することによ
り、更新が指示されたパラメータを判断する。
用いた場合、チェック欄がオンにされたとき、そのオン
にされたパラメータは1に設定され、オフにされたと
き、そのオフにされたパラメータは0に設定されるよう
にすればよい。しかしながら、そのように、ユーザの指
示に忠実に従った処理では、例えば、全くパラメータ設
定部113の設定を変更しないユーザに対しては、対話
装置1は、常に同じ反応をしてしまうことになる。ま
た、パラメータの値として連続値を用いた場合、その値
が変化しないことになってしまう。そこで、本実施の形
態においては、ユーザの指示であっても、パラメータ値
を変更するか否かを判断するステップを設ける。
処理が行われる。図16は、ステップS22の詳細な処
理を説明するフローチャートである。ステップS31に
おいて、確率値を用いた変更処理計算が行われる。例え
ば、図13に示したパラメータ設定部113の”おしゃ
べり度”のチェック欄がオフにされた場合、まず、パラ
メータ更新部46は、パラメータ記憶部44に記憶され
ている”おしゃべり度”に関するパラメータ情報を読み
出す。この場合、離散値表現が用いられているとする
と、図8(A)に従い、”おしゃべり度”のパラメータ
は、値が1で、確率値が0.5である。
の値は1であるので、1/2の確率で、0に更新され
る。ステップS31において、この確率値を用いて、変
更処理計算を行った結果を用いて、ステップS32にお
いて、パラメータの値を変更するか否かが判断される。
ステップS32において、パラメータの値を変更すると
判断された場合、その判断に従い、ステップS34にお
いて、パラメータの変更が行われる。一方、ステップS
32において、パラメータの値は変更しないと判断され
た場合、パラメータの変更処理を行わずに、ステップS
1(図14)の処理に戻り、それ以降の処理が行われ
る。
テップS2において、音声コマンドによる更新指示であ
ると判断された場合、ステップS4に進み、音声による
更新処理が開始される。音声コマンドによる更新指示で
あると判断される場合としては、ユーザが、”パラメー
タの更新”と発話し、言語処理入力部41により音声認
識処理が実行され、言語処理部42により、構文解析な
どが行われた結果、コマンドであると解析された場合で
ある。対話処理部43は、言語処理部42からコマンド
であるという解析結果を入力し、そのコマンドがパラメ
ータの更新指示であると判断すると、パラメータ更新部
46に、パラメータの更新指示を出す。このように、更
新指示を受けることにより、パラメータ更新部46は、
音声コマンドによる更新指示であるか否かを、ステップ
S2において判断する。
明するフローチャートである。ステップS41におい
て、パラメータ更新処理が行われる。パラメータ更新処
理の詳細に付いては、既に、図16のフローチャートを
参照して説明したので、ここでは、その説明を省略す
る。パラメータ更新部46によりパラメータ更新処理が
実行されている一方で、ステップS42において、対話
管理部43は、入力されたコマンドに対応するシナリオ
を、シナリオメモリ82(図7)から読み出す。
基に、他のパラメータの更新はないか否か、パラメータ
更新処理は終了して良いか否かなどを、ユーザに問い、
返答を受け、その返答に応じた処理を、シナリオに基づ
いて行う。そのような処理を行うことにより、ユーザが
パラメータの更新処理の終了を指示したか否かが判断さ
れ、指示していないと判断された場合、ステップS41
に戻り、他のパラメータに対して同様の処理が繰り返さ
れる。一方、ステップS43において、終了であると判
断されると、ステップS1(図14)に戻り、それ以降
の処理が繰り返される。
挙げて説明する。時刻t1において、ユーザが、”キャ
ラクターの性格を変えたい”と発話する。この発話を受
け、対話装置1は、言語入力部41、言語処理部42、
および対話処理部43の、各部において上述した処理
を、それぞれ行うことにより、対話管理部43は、キャ
ラクターの性格を変えたいということは、パラメータの
値を更新することが指示されたと判断する。
リ82から、パラメータ更新に関するシナリオを読み出
し、そのシナリオに従い、時刻t2において、”パラメ
ータの更新をするよ。どのパラメータを変えるの?”と
いった文面を発話させるためのデータを生成する。そし
て、その生成されたデータが用いられて、応答生成部4
5およびスピーカ6により発話される。このような発話
を受け、ユーザは、時刻t3において、”おしゃべり度
を高くして”と発話する。この発話を受け、パラメータ
更新部46により、パラメータ記憶部44に記憶されて
いる”おしゃべり度”に関するパラメータの値が、上述
したような処理に従い更新される。
て、”おしゃべり度を高くしたよ。他はどうする?”と
質問する。これに対し、時刻t5において、ユーザ
が、”忠実度も上げて”と発話すると、”忠実度”のパ
ラメータの更新処理が、”おしゃべり度”の時と同じ処
理により行われ、ユーザが”他はそのまま”と発話する
と、対話処理装置1は、終了の指示が出されたと判断
し、時刻t6において、”パラメータの更新処理を終わ
るよ”と発話する。
ーザと対話することにより行うことができる。
り、ステップS1において、ユーザによる更新指示では
ないと判断されると、ステップS5に進み、韻律情報に
よる更新指示であるか否かが判断される。韻律情報によ
る更新指示であると判断される場合は、音声認識部51
の特徴抽出部62(図5)の処理により抽出された韻律
情報が、対話管理部43に入力され、対話管理部43
が、知識データベース83(図7)に記憶されている知
識を参照し、韻律情報に関する処理情報を取得する。そ
して、その取得された処理情報により、更新指示である
か否かが判断される。
ると、ステップS6に進み、韻律情報による更新処理が
開始される。図18は、ステップS6の処理の詳細を説
明するフローチャートである。ここでは、韻律情報とし
て、ピッチが用いられる場合を例に上げて説明する。ス
テップS51において、対話管理部43において、入力
された韻律情報に基づき、ピッチが高いか否かが判断さ
れる。ステップS51において、ピッチが高いと判断さ
れた場合、ステップS53に進み、パラメータ更新部4
6に、”忠実度”のパラメータの値を増加させる方向で
更新するように指示が出される。
高くはないと判断された場合、ステップS53に進み、
パラメータ更新部46に、”忠実度”のパラメータの値
を減少させる方向で更新するように指示が出される。
S1に戻り、それ以降の処理が繰り返される。
報による更新指示ではないと判断された場合、ステップ
S7に進み、内部情報による更新指示であるか否かが判
断される。内部情報とは、例えば、対話装置1が発話し
たことに対してユーザが返答するまでの時間や、対話装
置1とユーザが交わした対話の回数などである。これら
の情報は、対話履歴メモリ84(図7)に記憶されてい
る。対話管理部43は、対話履歴メモリ84に記憶され
ている情報を参照し、上述した返答までの時間が所定値
を越えた、会話回数が所定値を越えたなどの、所定の条
件が満たされると、内部情報による更新指示が出された
と判断する。
新指示が出されたと判断された場合、ステップS8に進
み、内部情報による更新処理が開始される。図19は、
ステップS8の処理の詳細を説明するフローチャートで
ある。ここでは、内部情報として、対話装置1が発話し
たことに対してユーザが返答を返すまでの時間(ユーザ
応答時間)を用いた場合を説明する。ステップS61に
おいて、対話管理部43は、ユーザ応答時間が短いか否
かを判断する。短いか否かの判断は、予め設定された値
を閾値として用い、その閾値以下であれば短いと判断す
る。
が短いと判断された場合、ステップS62に進み、パラ
メータ更新部46に、”関心度”のパラメータの値を増
加させる方向で更新するように指示が出される。一方、
ステップS61において、ユーザ応答時間が短くはない
と判断された場合、ステップS63に進み、パラメータ
更新部46に、”関心度”のパラメータの値を減少させ
る方向で更新するように指示が出される。
S1に戻り、それ以降の処理が繰り返される。
新指示ではないと判断された場合、ステップS9に進
む。ステップS9において、ニューラルによる更新指示
であるか否かが判断される。この判断は、例えば、所定
周期を設定し、その周期毎に行われる。ニューラルネッ
トワークによる更新指示であると判断されると、ステッ
プS10に進み、ニューラルによる更新処理が開始され
る。図20は、ステップS10の処理の詳細を説明する
フローチャートである。なお、ニューラルネットワーク
としては、例えば、図9に示した処理モデルが用いられ
る。
部46は、パラメータ記憶部44に記憶されているパラ
メータの値を取得する。そして、ステップS72におい
て、取得したパラメータの値を各々のパラメータに対応
するニューロンに対して入力する。ニューラルネットワ
ークを利用して各パラメータの計算が行われ、各ニュー
ロンから更新された各々のパラメータの値が算出され
る。
ラメータの値を用いて、ステップS73において、パラ
メータ記憶部44に記憶されているパラメータの値が更
新される。このような処理が終了されると、ステップS
1に戻り、それ以降の処理が繰り返される。
り返し行われ、パラメータの記憶部44に記憶されてい
るパラメータの値は、動的に更新される。このように、
ユーザの指示および対話装置1自身の処理によりパラメ
ータを更新することにより、ユーザに対する対話装置1
の対応を変化させることが可能となり、もって、自然
な、変化に富んだ対話をユーザに提供することが可能と
なる。
いた対話装置1の、応答文の生成処理について、図21
のフローチャートを参照して説明する。反応生成部47
は、ステップS81において、パラメータ記憶部44に
記憶されている各パラメータの値を読み出す。その読み
出した値を基に、ステップS82以下の処理を行う。ま
ず、ステップS82において、”おしゃべり度”の処理
が行われる。図22は、ステップS82の処理の詳細を
説明するフローチャートである。
ラメータの値を元に、反応が選択される。反応生成部4
7は、上述したように、図10に示すようなパラメータ
の値と反応の関係が記述されたテーブルを保持してい
る。そのテーブルにしたがって、反応が選択されるわけ
だが、いま、おしゃべり度は、種別がP1(図8に示し
たテーブルの識別子に対応)であり、反応としては「雑
談する」と「言葉数が少なくなる」の2通りが設定され
ている。この2通りの反応のうち、どちらか一方が、条
件により選択される。
用いられた場合、その値が、5以上の場合、「雑談す
る」が選択され、5以下の場合、「言葉数が少なくな
る」が選択される。ステップS92において、ステップ
S91において選択された反応が、雑談するであるか否
かが判断される。ステップS92において、雑談するが
選択されていると判断されると、ステップS93に進
む。ステップS93において、対話管理部43におい
て、パラメータの値に応じて、ユーザとの応答回数が決
定される。パラメータの値が大きいほど、すなわち、お
しゃべり度が高いほど、応答回数として大きな値が設定
される。
は、シナリオメモリ82に記憶されている雑談モードの
シナリオを読み出し、ステップS95において、システ
ム(対話装置1)主導で、ユーザに話し掛ける。このよ
うに、おしゃべり度が高い場合、対話装置1の方からユ
ーザに対して話し掛ける。
が選択されているのではないと判断される、すなわち、
おしゃべり度が高くなく、言葉数が少なくなるが選択さ
れいると判断されると、対話装置1の方からユーザに話
し掛けることが少なくなるため、ステップS93乃至S
95の処理はスキップされる。
理が終了されると、ステップS83(図21)に進み、
忠実度の処理が開始される。図23は、ステップS83
の処理の詳細を説明するフローチャートである。ステッ
プS101において、反応生成部47は、パラメータ記
憶部44に記憶されている忠実度に関するパラメータの
値を読み出す。反応生成部47は、保持している図10
に示したようなテーブルを参照する。種別がP2である
忠実度に関する反応としては、識別子としてR3乃至R
5の3つの反応が設定されている。
いて、パラメータ記憶部44から読み出した忠実度に関
するパラメータの値が、どの条件に当てはまるかを判断
し、その当てはまる条件の反応を選択する。例えば、パ
ラメータの値が、8であった場合、7以上という条件に
当てはまるため、識別子R3の「対話の指示通りに処
理」という反応が選択される。
ステップS103において、応答生成部45において適
切な応答文が作成されるように制御される。例えば、反
応として識別子R3の「対話の指示通りに処理」が選択
された場合、応答生成部45の応答文生成部91は、テ
ンプレートデータベース92に記憶されているテンプレ
ートを参照し、識別子R3の場合、丁寧な表現(−いた
しましょうか)を用いるような応答文を生成する。
ステップS84(図21)に進み、関心度の処理が行わ
れる。図24は、ステップS84の処理の詳細を説明す
るフローチャートである。反応生成部47は、ステップ
S111において、パラメータ記憶部44に記憶されて
いる関心度に関するパラメータの値を読み出す。反応生
成部47は、保持しているテーブルを参照し、反応の種
別がP3であり、その種別に対応する反応としては、識
別子R6,R7の2つが設定されていると認識する。
いが選択されているか否かが判断される。換言すれば、
読み出したパラメータの値が、6以上であるか否かが判
断される。このようにして判断されるのは、パラメータ
の値が6以上である場合、反応としては、識別子R6の
「相槌の数が多い」が選択され、パラメータの値が6以
下の場合、反応としては、識別子R7の「聞き流す」が
選択されるからである。
いが選択されていると判断された場合、ステップS11
3に進み、対話管理部43は、ユーザの発話に対してど
れだけの相槌をいれるか、その相槌を行う数を設定す
る。一方、ステップS112において、相槌の数が多い
が選択されているわけではないと判断された場合、換言
すれば、反応として「聞き流す」が選択されていると判
断された場合、相槌の数を設定する必要は無いので、ス
テップS113の処理はスキップされる。
ステップS85(図21)に進み、応対度の処理が開始
される。図25は、ステップS85の処理の詳細を説明
するフローチャートである。ステップS121におい
て、反応生成部47は、パラメータ記憶部44に記憶さ
れている応対度に関するパラメータの値を読み出す。ス
テップS122において、韻律情報を計算する。
を参照し、反応の種別がP4であり、その種別に対応す
る反応としては、識別子R8,R9の2つが設定されて
いると認識する。すなわち、対応度に関する反応は、識
別子R8の「表情、声を明るくする」と、識別子R9の
「表情は暗く、怒った声」という2つの設定が行われて
いる。この反応は、キャラクター表示部111(図1
2)に表示されるキャラクターの表情と、スピーカ6に
より発話される対話装置1の声に関するものである。
明すると、ステップS122において、声の明るさ、暗
さを左右する韻律情報が計算される。この計算結果に基
づいて、ステップS123において、音声合成部(不図
示)により、音声が合成され、出力される。
対話装置1が、ユーザと対話している間、繰り返し行わ
れる。パラメータの値は、上述したように、動的に変化
されるので、図21に示したフローチャートの処理を対
話している間、繰り返し行うことにより、対話装置1の
応対の仕方に変化をもたらすことが可能となり、もっ
て、単調な対話を行うことがなくなり、楽しい対話をユ
ーザに提供することが可能となる。
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが専用のハードウェアに組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどに、記録媒体からイン
ストールされる。
ピュータとは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク31(フロッピディスクを含む)、光ディスク32
(CD-ROM(Compact Disk-ReadOnly Memory),DVD(Dig
ital Versatile Disk)を含む)、光磁気ディスク33
(MD(Mini-Disk)を含む)、若しくは半導体メモリ3
4などよりなるパッケージメディアにより構成されるだ
けでなく、コンピュータに予め組み込まれた状態でユー
ザに提供される、プログラムが記憶されているROM12
や記憶部18が含まれるハードディスクなどで構成され
る。
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
複数の装置により構成される装置全体を表すものであ
る。
置、請求項6に記載の会話処理方法、および請求項7に
記載の記録媒体によれば、入力された言語情報を解析
し、パラメータを記憶し、その記憶されているパラメー
タを動的に更新し、解析結果と、記憶されているパラメ
ータとを基に、ユーザとの会話を制御するようにしたの
で、ユーザに変化に富んだ対応をする対話を提供するこ
とが可能となる。
外観を示す図である。
る。
を説明する図である。
ついて説明する図である。
説明する図である。
る。
チャートである。
るフローチャートである。
するフローチャートである。
るフローチャートである。
るフローチャートである。
るフローチャートである。
するフローチャートである。
ある。
するフローチャートである。
するフローチャートである。
するフローチャートである。
するフローチャートである。
マウス, 5 マイクロフォン, 6 スピーカ, 7
ディスプレイ, 8 CCD, 41 言語情報入力
部, 42 言語処理部, 43 対話管理部, 44
パラメータ記憶部, 45 応答生成部, 46 パ
ラメータ更新部, 47 反応生成部
Claims (7)
- 【請求項1】 ユーザと会話する会話処理装置におい
て、 言語情報を入力する入力手段と、 前記入力手段により入力された前記言語情報を解析する
解析手段と、 パラメータを記憶する記憶手段と、 前記記憶手段に記憶されている前記パラメータを更新す
る更新手段と、 前記解析手段による解析結果と、前記記憶手段により記
憶されている前記パラメータを基に、前記ユーザとの会
話を制御する制御手段とを含むことを特徴とする会話処
理装置。 - 【請求項2】 前記入力手段は、前記ユーザから、音声
形式、テキスト形式、または、ジェスチャ形式のうち
の、少なくても1つの形式が用いられて供給される前記
言語情報を入力することを特徴とする請求項1に記載の
会話処理装置。 - 【請求項3】 前記更新手段は、前記ユーザの音声によ
る指示により、前記記憶手段に記憶されている前記パラ
メータの更新を開始することを特徴とする請求項1に記
載の会話処理装置。 - 【請求項4】 前記更新手段は、前記ユーザの発話から
得られる韻律情報、前記ユーザと会話を交わした回数の
情報、または、前記ユーザの返答が返ってくるまでにか
かった時間の情報のうち、少なくても1つの情報を用
い、その情報が、所定の条件を満たす場合、前記記憶手
段に記憶されている前記パラメータを更新することを特
徴とする請求項1に記載の会話処理装置。 - 【請求項5】 前記パラメータは、おしゃべり度、忠実
度、関心度、対応度を、それぞれ示すものであることを
特徴とする請求項1に記載の会話処理装置。 - 【請求項6】 ユーザと会話する会話処理装置の会話処
理方法において、言語情報の入力を制御する入力制御ス
テップと、 前記入力制御ステップの処理で入力された前記言語情報
を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
御ステップの処理で記憶された前記パラメータを基に、
前記ユーザとの会話を制御する制御ステップとを含むこ
とを特徴とする会話処理方法。 - 【請求項7】 ユーザと会話する会話処理装置の会話処
理用のプログラムであって、言語情報の入力を制御する
入力制御ステップと、 前記入力制御ステップの処理で入力された前記言語情報
を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
御ステップの処理で記憶された前記パラメータを基に、
前記ユーザとの会話を制御する制御ステップとを含むこ
とを特徴とするコンピュータが読み取り可能なプログラ
ムが記録されている記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37577199A JP2001188788A (ja) | 1999-12-28 | 1999-12-28 | 会話処理装置および方法、並びに記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37577199A JP2001188788A (ja) | 1999-12-28 | 1999-12-28 | 会話処理装置および方法、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001188788A true JP2001188788A (ja) | 2001-07-10 |
JP2001188788A5 JP2001188788A5 (ja) | 2006-04-27 |
Family
ID=18506038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP37577199A Pending JP2001188788A (ja) | 1999-12-28 | 1999-12-28 | 会話処理装置および方法、並びに記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001188788A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169591A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、及び情報記憶媒体 |
JP2003108376A (ja) * | 2001-10-01 | 2003-04-11 | Denso Corp | 応答メッセージ生成装置、及び端末装置 |
JP2004073668A (ja) * | 2002-08-21 | 2004-03-11 | P To Pa:Kk | 競走遊技装置、競走遊技制御方法及びプログラム |
JP2006171719A (ja) * | 2004-12-01 | 2006-06-29 | Honda Motor Co Ltd | 対話型情報システム |
JP2017161637A (ja) * | 2016-03-08 | 2017-09-14 | シャープ株式会社 | 発話装置、発話装置の制御方法、制御プログラム、および記録媒体 |
JP2018142272A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社エヌ・ティ・ティ・データ | コンテンツ評価予測システム及びコンテンツ評価予測方法 |
JP2021101363A (ja) * | 2019-07-11 | 2021-07-08 | 株式会社フューチャーアイ | サービス提供システム及びプログラム |
-
1999
- 1999-12-28 JP JP37577199A patent/JP2001188788A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169591A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、及び情報記憶媒体 |
JP2003108376A (ja) * | 2001-10-01 | 2003-04-11 | Denso Corp | 応答メッセージ生成装置、及び端末装置 |
JP2004073668A (ja) * | 2002-08-21 | 2004-03-11 | P To Pa:Kk | 競走遊技装置、競走遊技制御方法及びプログラム |
JP2006171719A (ja) * | 2004-12-01 | 2006-06-29 | Honda Motor Co Ltd | 対話型情報システム |
JP4629560B2 (ja) * | 2004-12-01 | 2011-02-09 | 本田技研工業株式会社 | 対話型情報システム |
JP2017161637A (ja) * | 2016-03-08 | 2017-09-14 | シャープ株式会社 | 発話装置、発話装置の制御方法、制御プログラム、および記録媒体 |
JP2018142272A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社エヌ・ティ・ティ・データ | コンテンツ評価予測システム及びコンテンツ評価予測方法 |
JP2021101363A (ja) * | 2019-07-11 | 2021-07-08 | 株式会社フューチャーアイ | サービス提供システム及びプログラム |
JP2022003586A (ja) * | 2019-07-11 | 2022-01-11 | 株式会社フューチャーアイ | 支援システム |
JP7067755B2 (ja) | 2019-07-11 | 2022-05-16 | 株式会社フューチャーアイ | サービス提供システム及び端末 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230012984A1 (en) | Generation of automated message responses | |
Delić et al. | Speech technology progress based on new machine learning paradigm | |
KR102582291B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
JP3994368B2 (ja) | 情報処理装置および情報処理方法、並びに記録媒体 | |
JP5174937B2 (ja) | 音声認識装置及び方法 | |
US20020123894A1 (en) | Processing speech recognition errors in an embedded speech recognition system | |
JP2001215993A (ja) | 対話処理装置および対話処理方法、並びに記録媒体 | |
JP2002304190A (ja) | 発音変化形生成方法及び音声認識方法 | |
WO2007148493A1 (ja) | 感情認識装置 | |
KR20230056741A (ko) | 목소리 변환 및 스피치 인식 모델을 사용한 합성 데이터 증강 | |
JP4729902B2 (ja) | 音声対話システム | |
KR20210034276A (ko) | 대화 시스템, 대화 처리 방법 및 전자 장치 | |
JP2024508033A (ja) | 対話中のテキスト-音声の瞬時学習 | |
Aylett et al. | Building and designing expressive speech synthesis | |
CN110767240B (zh) | 儿童口音识别的设备控制方法、设备、存储介质及装置 | |
JP2001188779A (ja) | 情報処理装置および方法、並びに記録媒体 | |
JP2010197644A (ja) | 音声認識システム | |
JP2001188788A (ja) | 会話処理装置および方法、並びに記録媒体 | |
JP2018031851A (ja) | 談話機能推定装置及びそのためのコンピュータプログラム | |
JP2001209644A (ja) | 情報処理装置および情報処理方法、並びに記録媒体 | |
Venkatagiri | Speech recognition technology applications in communication disorders | |
Kos et al. | A speech-based distributed architecture platform for an intelligent ambience | |
Kuzdeuov et al. | Speech command recognition: Text-to-speech and speech corpus scraping are all you need | |
JP2001117752A (ja) | 情報処理装置および情報処理方法、並びに記録媒体 | |
KR20080011859A (ko) | 문말 억양 예측 방법 및 이를 기반으로 하는 음성합성 방법및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071026 |