JP4486413B2 - Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same - Google Patents

Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same Download PDF

Info

Publication number
JP4486413B2
JP4486413B2 JP2004172747A JP2004172747A JP4486413B2 JP 4486413 B2 JP4486413 B2 JP 4486413B2 JP 2004172747 A JP2004172747 A JP 2004172747A JP 2004172747 A JP2004172747 A JP 2004172747A JP 4486413 B2 JP4486413 B2 JP 4486413B2
Authority
JP
Japan
Prior art keywords
dialogue
voice
input value
dialog
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004172747A
Other languages
Japanese (ja)
Other versions
JP2005352761A (en
Inventor
哲郎 甘粕
純一 平澤
俊一郎 山本
昭弘 富久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004172747A priority Critical patent/JP4486413B2/en
Publication of JP2005352761A publication Critical patent/JP2005352761A/en
Application granted granted Critical
Publication of JP4486413B2 publication Critical patent/JP4486413B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

この発明は各種の予約装置、自動音声案内装置等に適用することができる音声対話方法、音声対話装置、プログラム及びこのプログラムを記録した記録媒体に関し、特に対話内容を異にする複数の音声対話システムを備え、複数の音声対話システムで入力された入力値に属性情報と時刻情報を付与して保存する処理を実行し、属性情報と時刻情報の付与により複数の対話システムで入力値を共用することを可能とした音声対話方法、音声対話装置、音声対話プログラム、このプログラムを記録した記録媒体を提供しようとするものである。   The present invention relates to a voice dialogue method, a voice dialogue device, a program, and a recording medium on which the program is recorded, and more particularly to a plurality of voice dialogue systems having different dialogue contents. And processing to add and save attribute information and time information to input values input in multiple voice interactive systems, and share input values in multiple interactive systems by adding attribute information and time information A voice dialogue method, a voice dialogue apparatus, a voice dialogue program, and a recording medium recording the program are provided.

たとえばホテル予約を行う対話システムと鉄道の予約する対話システムを連携させて一体化し、旅行予約業務を一括して行う対話システムとする場合のように、小規模の業務を行う複数の音声対話システムを連携させてより幅広い業務を行う対話システムとするには、それぞれのシステムでの利用者からの一発話毎に入力結果や最終的な対話の結果を保存し、別の対話システムでもそれらの結果を利用できるようにする必要がある。
特許文献1の中では、音声対話中に、そのシステム対話記述の実行中の位置をマークとして保存しておくことで、後になって保存された位置の対話を行うとする時にも、はじめから対話をやり直さなくてもそのマークされた位置にジャンプすることで途中の対話を省くことが可能な音声対話システムが述べられている。このとき、対話で入力された情報も保存され、後に呼び出すことができるとしている。
For example, a dialogue system for making hotel reservations and a dialogue system for making railway reservations are integrated and integrated to create a dialogue system that collectively performs travel reservation work. In order to create a dialogue system that performs a wider range of tasks by linking, the input results and final dialogue results are saved for each utterance from the user in each system, and those results are also displayed in another dialogue system. Need to be available.
In Patent Document 1, during a voice conversation, the position at which the system dialog description is being executed is saved as a mark, so that the conversation at the saved position can be performed later. A spoken dialogue system is described in which a dialogue can be omitted by jumping to the marked position without having to redo. At this time, information entered in the dialog is also saved and can be recalled later.

また、Linらによる非特許文献1では、鉄道の列車予約システムと天気予報システムの2システムの連携を例として、利用者に対して対話の一貫性を保たせながら複数のシステムを連携させる方法が述べられている。この方法においては、2つのシステムが利用者からどのような情報を聞き出すべきかという構造が予め対話の構造として設計されており(非特許文献1のP.1429中Figure3など)、さらに、利用者からの入力情報の保存先(たとえばデータベースなど)などが定められている(非特許文献1のP.1428中 Figure2など)。システムは対話中に扱う話題(ここでは列車予約と天気予報)が切り替る際に、対話全体での構造に関する情報や保存先の情報を元に、先に行われた別の一方の話題を扱うシステムでの対話の中で入力された値を共有することが出来る。   Moreover, in Non-Patent Document 1 by Lin et al., There is a method of linking a plurality of systems while maintaining the consistency of dialogue with the user, taking as an example the linkage between a railway train reservation system and a weather forecast system. It is stated. In this method, the structure of what kind of information the two systems should hear from the user is designed in advance as a dialog structure (Figure 3 in P.1429 of Non-Patent Document 1). (For example, database 2) in Non-Patent Document 1 (see FIG. 2 in P.1428). When the topic to be handled during the conversation (train reservation and weather forecast in this case) switches, the system handles one of the other topics that was previously performed based on the information about the structure and the storage location of the entire conversation. You can share the values entered in the dialog in the system.

上記までの従来技術を用いれば、ある対話システムでの入力値を保存して、その入力値を別のシステムでも利用することで2つ以上の対話システムの連携を図ることが可能である。
特開2003−223187号公報 Bor-she Lin.Hsin-min Wang.Lin-shan Lee.“Consistent Dialogue Across Concurrent Topics Based On An Expert System Model”,ESCA,Eurospeech’99 Proceedings, Volume-3,pp1427-1430(1999).
By using the conventional techniques described above, it is possible to link two or more dialog systems by storing input values in a certain dialog system and using the input values in another system.
JP 2003-223187 A Bor-she Lin.Hsin-min Wang.Lin-shan Lee. “Consistent Dialogue Across Concurrent Topics Based On An Expert System Model”, ESCA, Eurospeech'99 Proceedings, Volume-3, pp1427-1430 (1999).

しかし、上記の技術例では、連携を図らせようとする2つのシステムは、設計・構築する段階で、それそれの対話システム中で扱う情報とその情報の保存先を決定しておき、別のシステムで入力された値がどのように用いられ、どこから取り出せばよいかを知らしめておく必要がある。そのため、他の作業をこなす更に新たな音声対話システムを後になってから連携させようとしても、以前よりある2つのシステムには、新たに追加された音声対話システムの対話の構造などがわからないために、新たな音声対話システムで入力された内容を共有することができない。   However, in the above technical example, the two systems to be linked are determined at the stage of design and construction by determining the information handled in the respective interactive system and the storage destination of the information. It is necessary to know how the values entered in the system are used and where they should be retrieved. Therefore, even if a new voice dialogue system that performs other tasks is to be linked later, the two existing systems do not understand the dialogue structure of the newly added voice dialogue system. The contents input by the new voice dialogue system cannot be shared.

たとえば、列車予約と天気予報システムに追加して、駅からの移動手段としてレンタカーを予約する「レンタカー予約システム」を連携させようとしても、レンタカー予約システムで入力された駅の情報や貸し出し日付けの情報を、列車予約システムにおける目的駅情報として共有したり、天気予報システムにおける日付の情報として共有したりすることはできなかった。もし、共有させようとするならレンタカー予約における対話の構造や入力値の情報を、列車予約システムや天気予報システムを設計する際に織り込んでおく必要がある。   For example, in addition to the train reservation and weather forecast system, even if you try to link the "rental car reservation system" that reserves a rental car as a means of moving from the station, the station information and rental date entered in the rental car reservation system Information cannot be shared as destination station information in a train reservation system or date information in a weather forecast system. If it is to be shared, it is necessary to incorporate the structure of the dialogue and information on input values in the rental car reservation when designing the train reservation system and the weather forecast system.

上記のように、従来の技術で音声対話システムを連携させようとする場合には、それぞれのシステムを設計・構築する段階において、あるシステムの情報を他のシステムに織り込んでおく必要がある。そのため、システムの構築後に別の新たなシステムと連携させるには全システムの再設計と構築が必要であり、多大なコストがかかっていた。
本発明は、上記の課題を鑑みなされたもので、予めお互いの対話システムの構造等を詳細に把握してはいない音声対話システム同士の間で、それぞれのシステムにおける入力を共有することを可能にすることで、システムの利用者に対する利便性を高めると同時に、開発時のコストを低減させることを目的とする。
As described above, when trying to link voice dialogue systems with the conventional technology, it is necessary to incorporate information of a certain system into another system at the stage of designing and constructing each system. Therefore, in order to link with another new system after the system is constructed, it is necessary to redesign and construct the entire system, which is very expensive.
The present invention has been made in view of the above-described problems, and makes it possible to share the input in each system between the voice conversation systems that have not previously grasped in detail the structure of each other's conversation system. By doing so, it aims at improving the convenience for the user of a system, and reducing the cost at the time of development.

この発明の請求項1では、対話内容を異にする複数の音声対話システムを備え、各音声対話システムにおいて、各音声対話システムの対話中に入力された入力値に、入力値の属性を表わす属性情報と、入力された時刻を表わす時刻情報を付与する処理と、対話終了時に入力値と属性情報及び時刻情報を対話履歴情報として保存する対話履歴情報保存処理とを実行する音声対話方法を提案する。
この発明の請求項2では、請求項1記載の音声対話方法において、他の音声対話システムを呼び出すことを表わす入力値が入力された場合、呼び出された音声対話システムで対話に必要な入力値の入力を促す応答条件を決定する応答条件決定処理と、この応答条件決定処理で決定した応答条件に従って対話履歴情報保存処理で保存した対話履歴情報を検索し、応答条件に合致した対話履歴情報を取得する検索処理を実行する音声対話方法を提案する。
According to a first aspect of the present invention, a plurality of voice dialogue systems having different dialogue contents are provided. In each voice dialogue system, an attribute representing an attribute of the input value is inputted to an input value inputted during the dialogue of each voice dialogue system. Proposal of a voice dialogue method for executing information, processing for giving time information indicating the input time, and dialogue history information saving processing for saving input value, attribute information, and time information as dialogue history information at the end of dialogue .
According to claim 2 of the present invention, in the voice interaction method according to claim 1, when an input value indicating that another voice interaction system is to be called is input, an input value necessary for interaction in the called voice interaction system is set. The response condition determination process that determines the response condition that prompts input and the conversation history information stored in the dialog history information storage process according to the response condition determined in this response condition determination process are searched, and the conversation history information that matches the response condition is acquired. We propose a spoken dialogue method for executing search processing.

この発明の請求項3では、請求項2記載の音声対話方法において、検索処理で取得した対話履歴情報を用いて音声応答する処理を実行する音声対話方法を提案する。
この発明の請求項4では、対話内容を異にする複数の音声対話システムを具備し、各音声対話システムには対話中に入力された入力値に、入力値の属性を表わす属性情報と、入力された時刻を表わす時刻情報を付与する情報付与手段と、対話終了時に情報付与手段で付与した情報と入力値とを対話履歴情報として保存する対話履歴記憶手段とを備える音声対話装置を提案する。
According to a third aspect of the present invention, there is proposed a voice interaction method according to the second aspect, in which a voice response process is executed by using the conversation history information acquired by the search process.
According to a fourth aspect of the present invention, a plurality of voice dialogue systems having different dialogue contents are provided, and each voice dialogue system includes, in the input value input during the dialogue, attribute information indicating the attribute of the input value, and input. Proposed is a speech dialogue apparatus comprising information granting means for giving time information representing a given time, and dialog history storage means for saving the information given by the information granting means and an input value as dialogue history information when the dialogue ends.

この発明の請求項5では、請求項4記載の音声対話装置において、他の音声対話システムを呼び出すことを表わす入力値が入力された場合、呼び出された音声対話システムで対話に必要な入力値の入力を促す条件を決定する条件決定手段と、この条件決定手段で決定した条件に従って対話履歴記憶手段で保存した対話履歴情報を検索し、条件に合致した対話履歴情報を取得する検索手段を備える音声対話装置を提案する。
この発明の請求項6では、請求項5記載の音声対話装置において、検索処理で取得した対話履歴情報を用いて音声応答を実行する音声再生手段を設けた構成とした音声対話装置を提案する。
According to claim 5 of the present invention, in the voice interaction device according to claim 4, when an input value indicating that another voice interaction system is to be called is input, input values necessary for interaction in the called voice interaction system are set. A voice provided with condition determining means for determining a condition for prompting input, and search means for searching for conversation history information stored in the dialog history storage means in accordance with the condition determined by the condition determining means, and acquiring dialog history information that matches the conditions A dialogue device is proposed.
According to a sixth aspect of the present invention, there is proposed a voice interaction apparatus according to the fifth aspect, wherein a voice reproduction means for executing a voice response using the conversation history information acquired by the search process is provided.

本発明によれば、他の対話システムの詳細な構造等を把握していなくても、他の対話システムで入力した入力値のうち話題や時間的に適切な範囲のものを再利用して対話を進行することができるシステムが構築可能となるため、そのようなシステムを構築したり、新たなシステムを加えて連携させたりする労力を低減させ、低コストで多機能の音声対話システムを構築することが出来る。
また、利用者に対して個々の対話システムが互に連携する、利便性の高い対話システムを提供することが可能である。
According to the present invention, even if the detailed structure or the like of the other interactive system is not grasped, the input value input in the other interactive system can be reused by reusing the topic or the time appropriate range. Since it is possible to construct a system that can proceed with the system, it is possible to reduce the labor of constructing such a system, or adding a new system and linking it, and constructing a low-cost, multi-functional voice dialogue system I can do it.
Further, it is possible to provide a highly convenient dialogue system in which individual dialogue systems cooperate with each other.

本発明の音声対話方法、音声対話装置は本発明による音声対話プログラムをコンピュータにインストールし、コンピュータに音声対話プログラムを実行させることにより実現される。   The voice dialogue method and voice dialogue apparatus of the present invention are realized by installing the voice dialogue program according to the present invention in a computer and causing the computer to execute the voice dialogue program.

図1に本発明の実施例を示す。図1に示す実施例では音声対話システム1と音声対話システム2の2台の音声対話システムを備えた音声対話装置を例示して示している。但し、音声対話システムは2台に限られたものでなく、複数台の音声対話システムを併設することができる。複数の音声対話システムはそれぞれ対話内容が例えば「列車予約システム」、「天気予報応答システム」、「レンタカー予約システム」…のように目的がそれぞれ異なる音声対話システムであるものとする。
音声対話システム1および音声対話システム2は、それぞれに、対話の状況に応じてシステム全体を制御する対話制御装置1Cおよび対話制御装置2Cと、利用者の音声が入力されそれを音声認識するための音声入力装置1Aおよび音声入力装置2Aと、利用者に応答を音声で再生するための音声再生装置1Bおよび音声再生装置2Bと、音声対話システム1では保存装置1Dが設けられ、音声対話システム2は検索装置2Dを具備する。保存装置1Dは対話履歴記憶装置3に履歴情報を保存する。
FIG. 1 shows an embodiment of the present invention. In the embodiment shown in FIG. 1, a voice dialogue apparatus including two voice dialogue systems, a voice dialogue system 1 and a voice dialogue system 2, is illustrated. However, the number of voice dialogue systems is not limited to two, and a plurality of voice dialogue systems can be provided side by side. The plurality of voice dialogue systems are voice dialogue systems having different purposes, such as “train reservation system”, “weather forecast response system”, “car rental reservation system”, etc., for example.
The voice dialogue system 1 and the voice dialogue system 2 respectively have a dialogue control device 1C and a dialogue control device 2C that control the entire system according to the situation of the dialogue, and a voice for inputting a user's voice and recognizing it. The voice input device 1A and the voice input device 2A, the voice playback device 1B and the voice playback device 2B for playing back a response to the user by voice, and the voice dialogue system 1 are provided with a storage device 1D. A search device 2D is provided. The storage device 1D stores history information in the dialog history storage device 3.

音声入力装置1Aおよび音声入力装置2Aはそれぞれ対話制御装置1Cおよび対話制御装置2Cによって指示を受け、それぞれの対話システムの対話の目的に添った辞書および文法等を用いて利用者からの声を音声認識し、その単語又は単語列からなる音声認識結果をそれぞれ対話制御装置1Cおよび対話制御装置2Cに送る。
対話制御装置1Cおよび対話制御装置2Cにおいては、音声認識結果中の単語または単語列から利用者の要求を理解し、その結果に基づいて次にどのような応答を利用者に対して行うかを決定する。応答内容は応答文などの言語表現またはその内容を読み上げた音声波形が録音されている記憶領域の情報として示され、音声再生装置1Bおよび2Bに渡して出力するよう指示する。
The voice input device 1A and the voice input device 2A receive instructions from the dialog control device 1C and the dialog control device 2C, respectively, and voice the voice from the user using a dictionary and grammar according to the purpose of the dialog of each dialog system. Recognize and send the speech recognition result comprising the word or word string to the dialog control device 1C and the dialog control device 2C, respectively.
In the dialog control device 1C and the dialog control device 2C, the user's request is understood from the word or the word string in the speech recognition result, and what kind of response is to be performed next to the user based on the result. decide. The response content is indicated as language information such as a response sentence or information of a storage area in which a voice waveform that reads out the content is recorded, and instructs the voice reproduction devices 1B and 2B to output it.

利用者の発話によって得られた音声認識結果中、特に対話の目的の達成のために必要な情報は入力値(尚、入力値を保持する場所をスロットと称し、スロットの位置をスロット名と称す場合もある)として管理される。たとえば天気予報のシステムであれば、天気を知りたい「地域」や「日付」を記入する位置がスロットに相当し、それぞれに対応する利用者からの発話内容が入力値またはスロット値となる。入力値は利用者からの各発話によって適宜更新される。対話の目的を達成するのに十分な入力値が応答文の各スロットに代入され、その目的を達成るための応答(たとえば地域と日付の入力値に基づいて天気予報を通知するなど)を行うか、利用者から別の対話システムの利用を求める発話または終了を求める発話が入力されるまで、対話制御装置は次の応答を決定し対話を進める。   Among the speech recognition results obtained by the user's utterances, the information necessary for achieving the purpose of the dialogue is the input value (where the place where the input value is held is called the slot, and the slot position is called the slot name). In some cases). For example, in the case of a weather forecasting system, the position where the “region” or “date” for which the weather is desired is written corresponds to the slot, and the utterance content from the corresponding user is the input value or the slot value. The input value is appropriately updated with each utterance from the user. Input values sufficient to achieve the purpose of the dialogue are assigned to each slot of the response sentence, and a response to achieve the purpose (for example, a weather forecast is notified based on the input values of region and date) Or, until the user inputs an utterance requesting the use of another dialog system or an utterance requesting termination, the dialog control apparatus determines the next response and proceeds with the dialog.

応答の出力指示を受けた音声再生装置1Bおよび2Bは、渡された応答文から音声波形を生成する、または、記憶領域の情報が示す場所にある音声波形や情報を読み込み、スピーカなどから利用者に応答音声として再生する。
音声対話システム1および音声対話システム2は、利用者からの音声を入力するマイクや、応答音声を出力するスピーカを共有することで、利用者から見ると物理的に一体的に見えるシステムとして構成される。音声対話システム1や音声対話システム2は互に対話の実行開始指示を出し合うことで、もう一方の音声対話システムでの対話を開始することが可能である。これは、たとえば、音声対話システム1および音声対話システム2を1台のコンピュータ上で動作するソフトウエアとして構築し、互いのソフトウエアを実行する命令を発行させることで実現可能である。
Upon receiving the response output instruction, the audio playback devices 1B and 2B generate an audio waveform from the received response sentence, or read an audio waveform or information at a location indicated by the information in the storage area, and use a speaker or the like To play as response voice.
The voice dialogue system 1 and the voice dialogue system 2 are configured as a system that is physically seen from the user's viewpoint by sharing a microphone for inputting voice from the user and a speaker for outputting response voice. The The voice dialogue system 1 and the voice dialogue system 2 can start a dialogue in the other voice dialogue system by giving instructions to start the dialogue. This can be realized, for example, by constructing the voice dialogue system 1 and the voice dialogue system 2 as software operating on one computer and issuing instructions for executing each other's software.

図2には図1中の保存装置1D内で行われる処理のフローを示している。
図3には図1中の検索装置2D内で行われる処理のフローを示している。
保存装置1D、検索装置2Dで行われる処理について、以下により具体的な例を使って説明する。
以下の例では、音声対話システム1の目的は天気予報で、音声対話システム2の目的はレンタカー予約であるとする。
また、音声対話システム1はその対話における利用者からの入力値を保存する側、音声対話システム2は別の音声対話システムにおける対話で利用者からの入力値を取り出して利用する側であるとする。これらの役割が音声対話システム1と音声対話システム2で入れ替わっても発明の本質は変わらない。
FIG. 2 shows a flow of processing performed in the storage device 1D in FIG.
FIG. 3 shows a flow of processing performed in the search device 2D in FIG.
Processing performed by the storage device 1D and the search device 2D will be described below using a specific example.
In the following example, it is assumed that the purpose of the voice interaction system 1 is a weather forecast and the purpose of the voice interaction system 2 is a rental car reservation.
Further, it is assumed that the voice dialogue system 1 is a side for storing input values from the user in the dialogue, and the voice dialogue system 2 is a side for extracting and using input values from the user in a dialogue in another voice dialogue system. . Even if these roles are switched between the voice dialogue system 1 and the voice dialogue system 2, the essence of the invention does not change.

音声対話システム1側の目的は天気予報であり、入力値として天気予報を知りたい「都市名」と「日付」を扱うとする。
音声対話システム2側の目的はレンタカー予約であり、入力値としてレンタカーを借りる店舗の最寄の「駅名」と借りる「日付」を扱うものとする。
音声対話システム1(天気予報)と利用者との対話の最後に、利用者から「レンタカー予約を実行」という発話が入った場合、この発話の認識結果を受けた対話制御装置1Cは、保存装置1Dに対して対話履歴情報の保存を行なうように指示する。
The purpose of the spoken dialogue system 1 is the weather forecast, and it is assumed that “city name” and “date” for which the weather forecast is desired are used as input values.
The purpose of the spoken dialogue system 2 is to make a rental car reservation, and handle the nearest “station name” and the “date” to be rented as an input value.
When an utterance “execute rental car reservation” is entered from the user at the end of the dialogue between the voice dialogue system 1 (weather forecast) and the user, the dialogue control device 1C that receives the recognition result of this utterance Instructs 1D to save dialogue history information.

指示を受けた保存装置1Dは図2で示されるフローで動作する。まず、対話制御装置1Cからその時点までの対話で入力された各入力値の情報を受け取る(ステップS12)次に、その入力値が入力された時刻を付与(ステップS13)しこれらの値をまとめて対話履歴として、対話履歴記憶装置3に対して保存するように指示する(ステップS14)。
入力値に付与する属性の付与方法としては複数の方法が考えられる。対話制御装置1C内に各入力値がどのような意味を持つかを記した記憶部を設け、その記憶部に記憶した情報をコピーすることによって属性情報としても良いし、単語とその単語が表わす意味や概念などの対応を記したシソーラス情報(シソーラス情報の例を図4に示す)を調査し、スロットの名前または入力値自身から決定しても良い。たとえば「都市名」というスロットに「横浜」が入力値として入力されていた場合には、「都市名」というスロット名の単語に対するシーソラスの調査により「都市名」に対応する概念や意味として「場所」や「都市名」という結果が得られた場合、「場所」「都市名」という属性を付与しても良いし、また「横浜」という入力値の単語に対応する情報をシーソラスから調査した結果「横浜」に対応する概念や意味として「場所」「都市名」「政令指定都市」「駅名」といった結果が得られた場合、「場所」「都市名」「政令指定都市」「駅名」といった属性情報を付与しても良い。本発明の特徴は後述する、別の音声対話システム2内の検索装置2Dが検索する際の検索キーとして利用可能な属性情報を付与して保存することに特徴がある。
Upon receiving the instruction, the storage device 1D operates according to the flow shown in FIG. First, information on each input value input in the dialog up to that point is received from the dialog control apparatus 1C (step S12). Next, the time when the input value is input is given (step S13), and these values are collected. The dialogue history storage device 3 is instructed to save the dialogue history (step S14).
A plurality of methods can be considered as a method for assigning attributes to be given to input values. The dialogue control device 1C may be provided with a storage unit that describes what each input value has, and the information stored in the storage unit may be copied as attribute information, or the word and the word represent it. Thesaurus information (example of thesaurus information shown in FIG. 4) describing correspondences such as meanings and concepts may be investigated and determined from the slot name or the input value itself. For example, if “Yokohama” was entered as the input value in the slot “city name”, the concept or meaning corresponding to “city name” is “location” as a result of a thesaurus survey for the word in the slot name “city name”. ”Or“ City name ”, the attribute“ Location ”or“ City name ”may be assigned, or the information corresponding to the word of the input value“ Yokohama ”is investigated from the Thesaurus. If a result such as “location”, “city name”, “designated city”, “station name” is obtained as a concept or meaning corresponding to “Yokohama”, attributes such as “location”, “city name”, “designated city”, “station name” Information may be given. A feature of the present invention is that attribute information that can be used as a search key when a search device 2D in another voice interactive system 2 searches, which will be described later, is added and stored.

入力値に時刻情報を付与するために、対話制御装置1Cの内部では、各入力値が入力されたときの利用者の発話時刻(音声入力装置からの結果を受け取った時刻)を保存する。保存装置1Dでは、各入力値と属性情報と時刻情報を組み合わせ、対話履歴情報として対話履歴記憶装置3に保存する。
次に対話制御装置1Cは利用者から指示のあったレンタカー予約を実行する旨を伝えるように音声出力装置1Bに指示し、出力の後に、音声対話システム2に対して開始指示を出力し、音声対話システム1の動作を停止する。
In order to add time information to the input value, the user's utterance time (time when the result from the voice input device is received) when each input value is input is stored in the dialog control device 1C. In the storage device 1D, each input value, attribute information, and time information are combined and stored in the dialog history storage device 3 as dialog history information.
Next, the dialogue control device 1C instructs the voice output device 1B to notify that the rental car reservation instructed by the user is executed. After the output, the dialogue control device 1C outputs a start instruction to the voice dialogue system 2. The operation of the dialogue system 1 is stopped.

実行開始指示を受けた音声対話システム2側の対話制御装置2Cでは応答条件決定手段が起動され、自己がこれから行う対話の目的として埋めなければならない入力値の入力を促す応答条件を決定する。例えばレンタカーの予約であれば応答文としてはレンタル開始「場所」と、レンタル開始「日時」が問い合わせの必要条件となる。この問い合わせ内容を検索装置2Dに渡し、対話履歴情報記憶装置3から、これらの情報を検索する指示を与える。
検索装置2Dでは、埋めなければならない入力値に対応する対話履歴の検索条件として、検索対象の属性を決定する(図3に示すステップS21)。
Upon receiving the execution start instruction, the dialog control apparatus 2C on the side of the voice interaction system 2 activates the response condition determination means, and determines the response condition that prompts the input of the input value that must be filled in as the purpose of the dialog to be performed. For example, in the case of a rental car reservation, the rental start “location” and the rental start “date and time” are necessary conditions for the inquiry as response sentences. This inquiry content is transferred to the search device 2D, and an instruction to search for such information is given from the dialogue history information storage device 3.
The search device 2D, as a search condition for interaction histories corresponding to the input value that must be filled, to determine the attributes to be searched (step S21 shown in FIG. 3).

更に、どれくらい以前の対話履歴まで検索の対象とすればよいかという検索時間範囲を指定して対話履歴記憶装置内の対話履歴に対して検索を実行する。(図3に示すステップS22)。
たとえば「駅名」を埋める入力値に対して検索を行うために、属性検索条件として「場所」、検索時間範囲として「数分以内」という検索条件を与えられる。
対話履歴記憶装置3は、自身の保存している対話履歴の中から属性として「場所」という情報を持ち、数分以内の時刻が付与されている最新の対話履歴を探し出して出力させ、検索装置2Dが受け取る(ステップS23)。この場合、先ほどの音声対話システム1が保存した「都市名」が属性として与えられた対話履歴が出力される(ステップS24)。
Further, a search time range indicating how much previous dialogue history should be searched is specified, and the dialogue history in the dialogue history storage device is searched. (Step S22 shown in FIG. 3).
For example, in order to perform a search for an input value that fills “station name”, a search condition of “location” as an attribute search condition and “within several minutes” as a search time range is given.
The dialogue history storage device 3 searches for and outputs the latest dialogue history having information “location” as an attribute from the dialogue history stored in itself and given a time within a few minutes. 2D receives (step S23). In this case, a dialogue history in which the “city name” saved by the previous voice dialogue system 1 is given as an attribute is output (step S24).

検索条件とする属性を付与するためには、保存装置1Dの場合同様に複数の方法が考えられる。対話制御装置2C内に入力を希望する情報がどのような意味を持つかを示した記憶部を設け、検索装置2Dはその情報をコピーすることによって属性に関する検索条件としても良いし、検索装置2Dが単語とその単語が示す意味や概念などの対応を示したシーソラスを調査し、検索対象のスロットの名前から決定してもよい。たとえば「駅名」というスロットに対しては、そのスロット名の「駅名」という単語に対してシーソラスを調査し、仮に「場所」という結果が得られた場合、「場所」という属性を検索条件として付与しても良い。   In order to give an attribute as a search condition, a plurality of methods can be considered as in the case of the storage device 1D. The dialogue control device 2C is provided with a storage unit indicating what meaning the information desired to be input has, and the search device 2D may copy the information as a search condition regarding the attribute, or the search device 2D. May be determined from the name of the slot to be searched by examining a thesaurus showing the correspondence between the word and the meaning or concept indicated by the word. For example, for a slot called “station name”, the thesaurus is investigated for the word “station name” in the slot name, and if the result “location” is obtained, the attribute “location” is given as a search condition. You may do it.

もう一つの検索条件である検索時間範囲は、検索装置2Dに指示を出した対話制御装置2Cから指示される。直前の対話のみを入力値共有の対象としたいのであれば、「数分以内」(またはそれに相当する具体的な時間)を指示すればよいし、その時点以前の対話を対象に入力値の共有に利用するのであれば、たとえば「数十分以内」(またはそれに相当する具体的な時間)を指示してもよい。あるいは、保存装置1Dが対話履歴を保存する際に利用者がある対話システムと対話していた時間がどの時刻からどの時刻の範囲であったかを保存しておくことで、「数分以内でかつ2個前の対話まで」といったような検索範囲も指定可能である。   The search time range, which is another search condition, is instructed from the dialog control device 2C that issued an instruction to the search device 2D. If you want to share the input value only with the previous conversation, you can specify "within a few minutes" (or a specific time corresponding to it), and share the input value for the conversation before that point. For example, “within several tens of minutes” (or a specific time corresponding thereto) may be indicated. Alternatively, when the storage device 1D stores the dialog history, the time during which the user was interacting with a certain dialog system is stored from which time to which time, so that “within a few minutes and 2 A search range such as “until the previous conversation” can also be specified.

この検索対象とする時間範囲を指示することで、今利用者が作業している話題の範囲のみの対話履歴を取り出すことが可能となり、例えば、現在の利用者の対話の範囲とは全く関係ない、1日前の話題等を検索結果として用いるようなことが防げる。
対話制御装置2Cではスロットごとに検索装置2Dによって取得された対話履歴から入力値を取り出し、各入力値を各スロットに代入する。その後の音声対話システム2と利用者との間で行われる対話では、これら各スロットのスロット値が代入された値で入力されたとして扱う。
By specifying the time range to be searched, it is possible to extract the conversation history of only the topic area that the user is currently working on. For example, it has nothing to do with the current user's conversation range. It is possible to prevent the use of a topic one day ago as a search result.
The dialog control device 2C extracts input values from the dialog history acquired by the search device 2D for each slot, and substitutes each input value into each slot. In the subsequent dialogue between the voice dialogue system 2 and the user, it is treated that the slot values of these slots are inputted as substituted values.

なお、入力値を代入する際に、対話履歴から取り出した入力値がその対話システムでも有効な値かどうかをチェックしても良い。例えば、レンタカー予約において最寄の駅名を入力しようとした際に、実際には「横浜」駅付近にはそのレンタカーチェーンの店舗が存在しない場合や、「場所」という検索条件で取得した値が「駅名」ではなかったような場合には、入力値としない処理を入れることで、利用者から見て不自然な動作を防ぐことができる。
上記までの手順により、利用者から見ると、音声対話システム1による入力結果が音声対話システム2でも引き継がれ、2つのシステムは連携して動いているかのように見える。
When the input value is substituted, it may be checked whether the input value extracted from the dialog history is a valid value in the dialog system. For example, when you try to enter the nearest station name in a rental car reservation, if the store of the rental car chain does not actually exist near “Yokohama” station, or the value acquired by the search condition “location” is “ If it is not a “station name”, an unnatural operation can be prevented from the viewpoint of the user by inserting a process that does not use the input value.
According to the above procedure, from the viewpoint of the user, the input result by the voice interaction system 1 is also taken over by the voice interaction system 2, and it appears as if the two systems are moving in cooperation.

例えば図5および図6に示すような対話が可能となる。
なお、上記の例では、保存装置1Dによって対話履歴を保存するのは、システムが切り替る直前(発話6)、またはシステムの終了時点(発話11)であるが、各ユーザ発話の直後など、スロット値が入力された後の任意の時点でもかまわない。
また、検索装置によって検索結果を取り出し、一度スロット値を入力した後でも、利用者からの要求でもって検索条件を変更して再検索を実行してもかまわない。これにより、上記対話例中で発話8の時点で利用者から「いいえ、その前の話をしています」といった入力があった場合、検索範囲として最初の検索で見つかった発話時刻より以前の時刻を検索範囲として指定することで、より適切な値を探すことができる。
For example, the dialog shown in FIGS. 5 and 6 is possible.
In the above example, the dialogue history is saved by the storage device 1D immediately before the system is switched (utterance 6) or at the end of the system (utterance 11). It does not matter at any time after the value is entered.
In addition, even after the retrieval result is taken out by the retrieval device and the slot value is input once, the retrieval condition may be changed by the request from the user to execute the retrieval again. As a result, if there is an input from the user at the time of utterance 8 in the above dialogue example, such as “No, we are talking before that”, the time before the utterance time found in the first search as the search range By specifying as a search range, a more appropriate value can be searched.

また、検索装置2Dの検索の結果、与えられた条件の中では該当する対話履歴が存在しないときには、更に検索条件を広げて再検索しても良い。例えば、検索する時間範囲を広めにして対話履歴を検索し、もし該当する値があれば、その値を候補として利用者に提案することで利用者に対する利便性を高められる。
また、本実施例においては入力に音声認識を用いたが、キーボードや文字認識装置など、他の自然言語を入力可能な装置を用いても良い。
また、出力に音声出力を用いたが、対話システムの状態や応答内容を表現するブザーやメロディ音を利用する、または、画面に応答内容のテキストを印字するなどの方法を用いても良い。
Further, as a result of the search by the search device 2D, when there is no corresponding dialogue history in the given conditions, the search conditions may be further expanded and the search may be performed again. For example, it is possible to search the conversation history by broadening the search time range, and if there is a corresponding value, suggesting that value to the user as a candidate can improve convenience for the user.
In this embodiment, voice recognition is used for input. However, a device capable of inputting other natural languages, such as a keyboard or a character recognition device, may be used.
Further, although voice output is used for output, a method such as using a buzzer or a melody sound that expresses the state of the dialog system or the response content, or printing the text of the response content on the screen may be used.

以上説明した音声対話方法及び音声対話装置はコンピュータが解読可能なプログラム言語によって記述された音声対話プログラムをコンピュータにインストールし、コンピュータに実行させることにより実現することができる。本発明の音声対話プログラムはコンピュータが読み取り可能な磁気ディスク或はCD−ROMのような記録媒体に記録され、これらの記録媒体から又は通信回線を通じてコンピュータにインストールされ、コンピュータに備えられたCPUにより解読されて実行される。   The voice dialogue method and the voice dialogue apparatus described above can be realized by installing a voice dialogue program described in a computer-readable program language in a computer and causing the computer to execute the program. The voice interactive program of the present invention is recorded on a recording medium such as a magnetic disk or CD-ROM that can be read by a computer, installed in the computer from these recording media or through a communication line, and decoded by a CPU provided in the computer. To be executed.

本発明の音声対話方法及び音声対話装置は各種の自動予約システム、自動案内システム等の分野で活用される。   The voice dialogue method and voice dialogue apparatus of the present invention are utilized in the fields of various automatic reservation systems, automatic guidance systems, and the like.

この発明による音声対話装置の一実施例を説明するためのブロック図。The block diagram for demonstrating one Example of the voice interactive apparatus by this invention. 図1に示した保存装置の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the preservation | save apparatus shown in FIG. 図1に示した検索装置の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the search device shown in FIG. 図1に示した属性付与手段の内部の構成を説明するための図。The figure for demonstrating the internal structure of the attribute provision means shown in FIG. この発明による音声対話装置の対話の例を説明するための図。The figure for demonstrating the example of the dialogue of the speech dialogue apparatus by this invention. 図5と同様の図。The same figure as FIG.

符号の説明Explanation of symbols

1A、2A 音声入力装置
1B、2B 音声再生装置
1C、2C 対話制御装置
1D 保存装置
2D 検索装置
3 対話履歴記憶装置
1A, 2A Voice input device 1B, 2B Voice playback device 1C, 2C Dialogue control device
1D storage device
2D search device
3 Dialog history storage device

Claims (4)

対話内容を異にする複数の音声対話システムと対話履歴情報装置とにより実行される音声対話方法であって
各上記音声対話システムは、
各音声対話システムの対話中に入力された入力値に、シソーラスを用いて入力値の属性を表わす属性情報と、入力された時刻を表わす時刻情報とを付与する処理と、
対話終了時に他の音声対話システムを呼び出すことを表わす発話が入力された場合該指定された他の音声対話システムを呼び出すと共に、上記入力値と属性情報及び時刻情報とを対話履歴情報として上記対話履歴情報装置に保存する対話履歴情報保存処理と、
他の音声対話システムから呼び出された場合、対話に必要な入力値の入力を促す応答条件を決定する応答条件決定処理と、
この応答条件決定処理で決定した応答条件に従って上記対話履歴情報保存処理で保存した対話履歴情報を検索し、上記応答条件に合致した入力値の対話履歴情報を取得する検索処理と、
上記検索処理で取得した対話履歴情報から取り出した入力値が当該音声対話システムでも有効な値かどうかをチェックして有効な場合に、上記対話履歴情報から取り出した入力値を用いて音声応答する処理とを実行することを特徴とする音声対話方法。
A voice dialogue method executed by a plurality of voice dialogue systems and dialogue history information devices having different dialogue contents,
Each of the above spoken dialogue systems
A process of assigning attribute information representing an attribute of an input value using a thesaurus and time information representing an input time to an input value input during the conversation of each voice interactive system;
When an utterance indicating that another voice dialogue system is to be called at the end of the dialogue is input, the other voice dialogue system designated is called, and the dialogue history is used with the input value, attribute information, and time information as dialogue history information. Dialog history information storage processing to be stored in the information device,
A response condition determining process for determining a response condition for prompting input of an input value necessary for the dialog when called from another voice dialog system;
A search process for searching the dialog history information stored in the dialog history information storage process according to the response condition determined in the response condition determination process, and acquiring the dialog history information of the input value that matches the response condition;
A process of performing a voice response using the input value extracted from the dialogue history information when the input value extracted from the dialogue history information acquired by the search processing is valid by checking whether the input value is valid in the voice dialogue system. And a voice dialogue method.
対話内容を異にする複数の音声対話システムと対話履歴情報装置とを具備し、
各上記音声対話システムは、
各音声対話システムの対話中に入力された入力値に、シソーラスを用いて入力値の属性を表わす属性情報と、入力された時刻を表わす時刻情報とを付与する情報付与手段と、
対話終了時に他の音声対話システムを呼び出すことを表わす発話が入力された場合該指定された他の音声対話システムを呼び出すと共に、上記入力値と属性情報及び時刻情報とを対話履歴情報として上記対話履歴情報装置に保存する対話履歴情報記憶手段と、
他の音声対話システムから呼び出された場合、対話に必要な入力値の入力を促す応答条件を決定する応答条件決定手段と、
この応答条件決定手段で決定した応答条件に従って上記対話履歴情報記憶手段で保存した対話履歴情報を検索し、上記応答条件に合致した入力値の対話履歴情報を取得する検索手段と、
上記検索手段で取得した対話履歴情報から取り出した入力値が当該音声対話システムでも有効な値かどうかをチェックして有効な場合に、上記対話履歴情報装置から取り出した入力値を用いて音声応答を実行する音声再生手段とを備えることを特徴とする音声対話装置。
A plurality of voice dialogue systems and dialogue history information devices having different dialogue contents;
Each of the above spoken dialogue systems
Information giving means for giving attribute information representing an attribute of an input value using a thesaurus and time information representing an inputted time to an input value inputted during dialogue of each voice dialogue system;
When an utterance indicating that another voice dialogue system is to be called at the end of the dialogue is input, the other voice dialogue system designated is called, and the dialogue history is used with the input value, attribute information, and time information as dialogue history information. Dialog history information storage means to be stored in the information device;
A response condition determining means for determining a response condition for prompting input of an input value necessary for the dialog when called from another voice dialog system;
Search means for searching dialog history information stored in the dialog history information storage means according to the response conditions determined by the response condition determination means, and acquiring dialog history information of input values that match the response conditions;
If the input value extracted from the dialog history information acquired by the search means is enabled to check whether a valid value even in the speech dialogue system, the speech response with the input value extracted from the dialogue history information unit A voice dialogue apparatus comprising voice playing means to be executed.
コンピュータが解読可能なプログラム言語によって記述され、コンピュータを請求項に記載の音声対話装置として機能させる音声対話プログラム。 Computer is described by a readable programming language, voice interaction program to function as a speech dialogue system according to the computer to claim 2. コンピュータが読み取り可能な記録媒体によって構成され、この記録媒体に請求項記載の音声対話プログラムを記録した記録媒体。 A recording medium comprising a computer-readable recording medium, wherein the voice interactive program according to claim 3 is recorded on the recording medium.
JP2004172747A 2004-06-10 2004-06-10 Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same Expired - Fee Related JP4486413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004172747A JP4486413B2 (en) 2004-06-10 2004-06-10 Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004172747A JP4486413B2 (en) 2004-06-10 2004-06-10 Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same

Publications (2)

Publication Number Publication Date
JP2005352761A JP2005352761A (en) 2005-12-22
JP4486413B2 true JP4486413B2 (en) 2010-06-23

Family

ID=35587197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172747A Expired - Fee Related JP4486413B2 (en) 2004-06-10 2004-06-10 Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same

Country Status (1)

Country Link
JP (1) JP4486413B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616390B2 (en) * 2012-03-27 2014-10-29 ヤフー株式会社 Response generation apparatus, response generation method, and response generation program
CN104360897B (en) * 2014-10-29 2017-09-22 百度在线网络技术(北京)有限公司 Dialog process method and dialog management system
JP6470246B2 (en) * 2016-11-15 2019-02-13 ソフトバンク株式会社 User support system, user support program and user support method
US11279376B2 (en) 2018-11-30 2022-03-22 Lg Electronics Inc. Vehicle control device and vehicle control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140350A (en) * 2000-11-02 2002-05-17 Toshiba Corp Device and method for managing history of input data and information storage medium with the managing method stored therein
JP2003263192A (en) * 2002-03-12 2003-09-19 Nec Corp Information processing system, its method and information processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140350A (en) * 2000-11-02 2002-05-17 Toshiba Corp Device and method for managing history of input data and information storage medium with the managing method stored therein
JP2003263192A (en) * 2002-03-12 2003-09-19 Nec Corp Information processing system, its method and information processing program

Also Published As

Publication number Publication date
JP2005352761A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP6073498B2 (en) Dialog control apparatus and dialog control method
KR101709187B1 (en) Spoken Dialog Management System Based on Dual Dialog Management using Hierarchical Dialog Task Library
US7921011B2 (en) Structure for grammar and dictionary representation in voice recognition and method for simplifying link and node-generated grammars
JP3454897B2 (en) Spoken dialogue system
US6961705B2 (en) Information processing apparatus, information processing method, and storage medium
EP2477186B1 (en) Information retrieving apparatus, information retrieving method and navigation system
WO2016067418A1 (en) Conversation control device and conversation control method
JP3278222B2 (en) Information processing method and apparatus
US20050256717A1 (en) Dialog system, dialog system execution method, and computer memory product
CN114168718A (en) Information processing apparatus, method and information recording medium
JP3765202B2 (en) Interactive information search apparatus, interactive information search method using computer, and computer-readable medium recording program for interactive information search processing
Thomson et al. Bayesian dialogue system for the Let's Go spoken dialogue challenge
JP2007505365A (en) Voice control navigation system operation method
US11615787B2 (en) Dialogue system and method of controlling the same
JP4486413B2 (en) Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same
Zue et al. Spoken dialogue systems
JP2005249829A (en) Computer network system performing speech recognition
JP2003030187A (en) Automatic interpreting system, conversation learning device, automatic interpreting device, its method and its program
JPH07261793A (en) Interactive processor
JP2004333641A (en) Voice input processing method, display control method for voice interaction, voice input processing device, display control device for voice interaction, voice input processing program, and display control program for voice interaction
JPH0778183A (en) Data base retrieving system
JP2009282835A (en) Method and device for voice search
JP4223841B2 (en) Spoken dialogue system and method
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored
JP5246512B2 (en) Voice reading system and voice reading terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100326

R150 Certificate of patent or registration of utility model

Ref document number: 4486413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees