JP6458183B1 - Automatic voice response system and program in motor sports - Google Patents

Automatic voice response system and program in motor sports Download PDF

Info

Publication number
JP6458183B1
JP6458183B1 JP2018072975A JP2018072975A JP6458183B1 JP 6458183 B1 JP6458183 B1 JP 6458183B1 JP 2018072975 A JP2018072975 A JP 2018072975A JP 2018072975 A JP2018072975 A JP 2018072975A JP 6458183 B1 JP6458183 B1 JP 6458183B1
Authority
JP
Japan
Prior art keywords
pattern
inquiry
driver
unit
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018072975A
Other languages
Japanese (ja)
Other versions
JP2019185243A (en
Inventor
昭人 竹井
昭人 竹井
林太郎 田口
林太郎 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Abeam Consulting Ltd
Original Assignee
Abeam Consulting Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abeam Consulting Ltd filed Critical Abeam Consulting Ltd
Priority to JP2018072975A priority Critical patent/JP6458183B1/en
Application granted granted Critical
Publication of JP6458183B1 publication Critical patent/JP6458183B1/en
Publication of JP2019185243A publication Critical patent/JP2019185243A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ドライバーからの問い合わせに対し、リアルタイムに応答することが可能な自動音声回答システム等を提供する。
【解決手段】学習部25は、生成した問い合わせパターンを分析し(ステップS1)、第1DB21aを参照することで、生成した問い合わせパターンに類似する問い合わせパターン(類似問い合わせパターン)を推定し、選択する(ステップS2)。学習部25は、類似問い合わせパターンに対応づけて登録されている応答パターンを特定すると、この応答パターンを、今回生成した問い合わせパターンに対応づけて、第1DB21aに新たに登録する(ステップS3)。
【選択図】図4
An automatic voice answering system capable of responding to an inquiry from a driver in real time is provided.
A learning unit analyzes a generated inquiry pattern (step S1) and refers to a first DB to estimate and select a query pattern (similar inquiry pattern) similar to the generated inquiry pattern ( Step S2). When the learning unit 25 identifies the response pattern registered in association with the similar inquiry pattern, the learning unit 25 newly registers the response pattern in the first DB 21a in association with the inquiry pattern generated this time (step S3).
[Selection] Figure 4

Description

本発明は、モータスポーツにおける自動音声回答システム及びプログラムに関する。   The present invention relates to an automatic voice response system and program in motor sports.

フォーミュラ1(F1)をはじめ、世界中でモータスポーツが脚光を浴びている(例えば、特許文献1参照)。コンマ数秒単位でしのぎを削るモータスポーツの世界において、無線はドライバーとチームとの意思疎通を図るツールとして今や欠かせないものとなっている。   Motor sports are in the spotlight around the world, including Formula 1 (F1) (see, for example, Patent Document 1). In the world of motorsport, where a few seconds is a comma, wireless is now an indispensable tool for communication between drivers and teams.

カーレースにおいては、各チームが無線を利用してレーシングカーに乗るドライバーとチームが交信する。チームを率いる監督等は、時々刻々と変化してゆくチームの戦略等を無線によってドライバーに伝える一方、ドライバーは、レーシングカーの状態等を無線でチームに伝える。   In car racing, each team communicates with the driver who rides the racing car using radio. The manager who leads the team communicates the team's strategy, which changes from moment to moment, to the driver by radio, while the driver communicates the state of the racing car to the team by radio.

特表2003−514293号公報Special table 2003-514293 gazette

現状、ドライバーから無線を介して何らかの問い合わせがあると、チームはその問い合わせの内容を理解し、問い合わせに応じた応答を返すのが一般的である。しかしながら、人手を介して問い合わせの内容を理解し、応答していたのでは、時間的なロスが生じてしまう。特に、コンマ数秒単位でしのぎを削るモータスポーツにおいては、コンマ数秒といえどもロスをなくし、他チームよりも有利なレース展開に持ち込みたいとの要望がある。   Currently, when a driver makes an inquiry over the air, the team generally understands the inquiry and returns a response in response to the inquiry. However, if the user understands and responds to the content of the inquiry by hand, a time loss occurs. In particular, in motorsports where the number of seconds is reduced by commas, there is a desire to eliminate losses even in the case of commas and bring them to a more advantageous race development than other teams.

本発明は、以上説明した事情を鑑みてなされたものであり、ドライバーからの問い合わせに対し、リアルタイムに応答することが可能な自動音声回答システム等を提供することを目的とする。   The present invention has been made in view of the circumstances described above, and an object thereof is to provide an automatic voice answering system and the like that can respond in real time to an inquiry from a driver.

本発明の一態様に係る自動音声回答システムは、ドライバーからの問い合わせに対し、自動で音声回答を行うシステムであって、問い合わせパターンと、応答パターンとを対応づけて記憶する第1記憶部と、ドライバーから問い合わせ内容をあらわす音声データを入力する入力部と、入力されたドライバーの音声データを解析することで、問い合わせパターンを生成する生成部と、生成した問い合わせパターンが、第1記憶部に記憶されているか否かを判断する第1判断部と、生成した問い合わせパターンが、第1記憶部に記憶されていない場合には、生成した問い合わせパターンに類似する問い合わせパターンを、第1記憶部に記憶されている問い合わせパターンの中から推定し、選択する選択部と、生成した問い合わせパターンと、選択した問い合わせパターンに対応づけられている応答パターンとを、第1記憶部に新たに登録する登録部と、ドライバーによる問い合わせに対し、新たに登録した応答パターンに基づく応答内容をあらわす音声データを生成し、出力する第1出力部とを具備することを要旨とする。   An automatic voice answering system according to an aspect of the present invention is a system that automatically answers a question from a driver, and a first storage unit that stores a query pattern and a response pattern in association with each other, An input unit that inputs voice data representing the inquiry contents from the driver, a generation unit that generates an inquiry pattern by analyzing the input voice data of the driver, and the generated inquiry pattern are stored in the first storage unit. A first determination unit for determining whether or not the generated inquiry pattern is stored in the first storage unit, a query pattern similar to the generated inquiry pattern is stored in the first storage unit. Selection part to estimate and select from the query patterns that have been generated A registration unit that newly registers the response pattern associated with the received inquiry pattern in the first storage unit, and generates voice data that represents the response content based on the newly registered response pattern in response to an inquiry from the driver. And a first output unit for outputting.

本発明によれば、ドライバーからの問い合わせに対し、リアルタイムに応答することが可能となる。   According to the present invention, it is possible to respond to an inquiry from a driver in real time.

自動音声回答システムの構成を例示する図である。It is a figure which illustrates the structure of an automatic voice response system. 第1DBの登録内容を例示した図である。It is the figure which illustrated registration contents of the 1st DB. 自動音声回答システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of an automatic voice response system. 学習部によって実行される機械学習処理を示すフローチャートである。It is a flowchart which shows the machine learning process performed by the learning part. 機械学習処理のイメージを模式的に示した図である。It is the figure which showed the image of the machine learning process typically.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは同一又は同様の構成を有する。   A preferred embodiment of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, what attached | subjected the same code | symbol has the same or similar structure.

A.本実施形態
(1)構成
図1を参照し、実施形態に係るモータスポーツにおける自動音声回答システム100の構成について説明する。なお、本実施形態に係る自動音声回答システム100は、自動車を用いて行われる競技・スポーツに適用した場合を想定するが、自動車のみならず、オートバイやモーターボート、飛行機など、モータやエンジンなどの原動機を使用して稼働する乗り物すべてに適用可能である。
A. Embodiment (1) Configuration With reference to FIG. 1, the configuration of an automatic voice response system 100 in motor sports according to an embodiment will be described. The automatic voice answering system 100 according to the present embodiment is assumed to be applied to competitions / sports performed using automobiles. However, not only automobiles but also motors such as motors and engines such as motorcycles, motor boats, airplanes, etc. Applicable to all vehicles operating using

自動音声回答システム100は、ドライバーのヘルメット等に設けられた通信端末1と、データセンタ等に配置される対話管理装置2とを含む。通信端末1と対話管理装置2との間は、ネットワークを介して相互に通信できるように構成される。   The automatic voice response system 100 includes a communication terminal 1 provided in a driver's helmet or the like, and a dialogue management device 2 arranged in a data center or the like. The communication terminal 1 and the dialogue management device 2 are configured to be able to communicate with each other via a network.

ネットワークは、有線であっても無線であってもよく、有線と無線とを組み合わせてもよい。本実施形態では、例示的に、通信端末1と対話管理装置2との間は無線ネットワークを利用することとする。 The network may be wired or wireless, and may be a combination of wired and wireless. In the present embodiment, for example, a wireless network is used between the communication terminal 1 and the dialogue management apparatus 2.

図1に示す通信端末1は、例えばマイクロフォン、スピーカ、各種通信インタフェースそ備えた通信装置などを備えており、ドライバーとチームとの間で確実な音声データの授受を行う。   A communication terminal 1 shown in FIG. 1 includes, for example, a microphone, a speaker, a communication device including various communication interfaces, and the like, and reliably transmits and receives audio data between a driver and a team.

対話管理装置2は、スロットフィリングの技術などを用い、ドライバーによる問い合わせに対して、音声による自動回答などを行うための装置である。対話管理装置2は、物理的な構成として、例えば、CPU及びメモリを含む制御ユニット、記憶装置、通信装置等を備えて構成される。対話管理装置2は、記憶装置に記憶されている各種ソフトウェアと制御ユニット等のハードウェア資源とが協働することによって、以下に示す記憶部21、入力部22、生成部23、判断部24、学習部25、出力部26の各機能を実現する。   The dialogue management device 2 is a device for using a slot filling technique or the like to automatically answer a driver's inquiry by voice. The dialog management device 2 is configured to include, for example, a control unit including a CPU and a memory, a storage device, a communication device, and the like as a physical configuration. The dialogue management apparatus 2 cooperates with various software stored in the storage device and hardware resources such as a control unit, so that the storage unit 21, the input unit 22, the generation unit 23, the determination unit 24 shown below, Each function of the learning unit 25 and the output unit 26 is realized.

記憶部21は、問い合わせパターンと応答パターンとを対応づけて記憶した第1データベース(DB)21aと、問い合わせ回答をあらわす回答パターンを記憶した第2データベース(DB)21bとを備えている。   The storage unit 21 includes a first database (DB) 21a that stores an inquiry pattern and a response pattern in association with each other, and a second database (DB) 21b that stores an answer pattern that represents an inquiry answer.

図2は、第1DB21aの登録内容を例示した図である。
第1DB(第1記憶部)21aには、問い合わせパターンとして「後ろとの差は?」といった問い合わせ文字列と、複数のパラメータ(例えば数字や演算子)とビジネスロジック(例えばアプリケーションプログラミングインタフェース)とを含む応答パターンとが対応づけて登録されている。
FIG. 2 is a diagram illustrating the registered contents of the first DB 21a.
In the first DB (first storage unit) 21a, an inquiry character string such as “What is the difference from the back?”, A plurality of parameters (for example, numbers and operators), and business logic (for example, an application programming interface) are stored as an inquiry pattern. The response patterns that are included are registered in association with each other.

第2DB(第2記憶部)21bには、ドライバーからの問い合わせに対して、自動音声回答するための回答パターンが複数登録されている。例えば、ドライバーから「後ろとの差は?」といった問い合わせがあった場合には、対話管理装置2は、後続車との距離を求めて回答するための回答パターンを読み出し、実行する。この結果、「後続車との距離は○×m」といった自動音声回答が、対話管理装置2からドライバーの通信端末1に出力される。   In the second DB (second storage unit) 21b, a plurality of answer patterns for automatically answering an inquiry from a driver are registered. For example, when the driver makes an inquiry such as “What is the difference from the back?”, The dialogue management apparatus 2 reads out and executes an answer pattern for finding and answering the distance from the following vehicle. As a result, an automatic voice answer such as “the distance from the following vehicle is ◯ × m” is output from the dialogue management device 2 to the communication terminal 1 of the driver.

入力部22は、ドライバーからの問い合わせ内容をあらわす音声データを入力する。   The input unit 22 inputs voice data representing the inquiry content from the driver.

生成部23は、入力されたドライバーの音声データを解析することで、例えば「後ろまでどれくらい?」といった問い合わせパターンを生成する。   The generation unit 23 generates an inquiry pattern such as “How far is it behind?” By analyzing the voice data of the input driver.

判断部24は、第1判断部24aと、第2判断部24bとを備えている。第1判断部24aは、生成した問い合わせパターンが、第1DB21aに登録されているいずれかの問い合わせパターンと一致するか否かを判断する。第2判断部24bは、第1判断部24aによって生成された問い合わせパターンが、第1DB21aに登録されているいずれかの問い合わせパターンと一致すると判断した場合に、ドライバーの音声データを解析することで、問い合わせ回答に必要なキー情報が不足しているか否かを判断する。   The determination unit 24 includes a first determination unit 24a and a second determination unit 24b. The first determination unit 24a determines whether or not the generated inquiry pattern matches any inquiry pattern registered in the first DB 21a. When the second determination unit 24b determines that the inquiry pattern generated by the first determination unit 24a matches any of the inquiry patterns registered in the first DB 21a, the second determination unit 24b analyzes the voice data of the driver, It is determined whether or not the key information necessary for answering the inquiry is insufficient.

例えば、ドライバーが「タイヤ」と叫ぶなどした場合には、問い合わせパターンの中に「タイヤ」というキー情報しか入っていない事態が生じ得る。この場合、対話管理装置2は、「タイヤ」といったキー情報だけでは、正確な問い合わせ回答が行えない。すなわち、ドライバーは、「タイヤ」の「交換タイミング」を確認したいのか、「タイヤ」に「異常」が生じている可能性があることを報告したいのか等を、対話管理装置2は判断できず、正確な問い合わせ回答が行えない。このような場合、第2判断部24bは、問い合わせ回答に必要なキー情報が不足していると判断する。なお、便宜上、以下の説明では、第1DB21aに既に登録されている問い合わせパターンを「既登録問い合わせパターン」と呼ぶ。   For example, when the driver shouts “tire”, a situation may occur in which only the key information “tire” is included in the inquiry pattern. In this case, the dialogue management apparatus 2 cannot make an accurate inquiry / answer only with the key information such as “tire”. That is, the dialogue management device 2 cannot determine whether the driver wants to confirm the “replacement timing” of the “tire” or report that there is a possibility that the “tire” may be “abnormal”. I cannot answer accurately. In such a case, the second determination unit 24b determines that the key information necessary for answering the inquiry is insufficient. For convenience, in the following description, an inquiry pattern already registered in the first DB 21a is referred to as an “already registered inquiry pattern”.

学習部25は、生成した問い合わせパターンが、第1DB21aに登録されていない場合に、生成した問い合わせパターンと既登録問い合わせパターンとを比較・分析することで機械学習を行う(詳細は後述)。   When the generated inquiry pattern is not registered in the first DB 21a, the learning unit 25 performs machine learning by comparing and analyzing the generated inquiry pattern and the registered inquiry pattern (details will be described later).

出力部26は、判断部24による判断結果や学習部25による学習結果などに基づき、問い合わせ回答などに応じた音声データを生成し、ドライバーの通信端末1あてに送信する。   The output unit 26 generates voice data corresponding to the inquiry response based on the determination result by the determination unit 24 and the learning result by the learning unit 25 and transmits the voice data to the communication terminal 1 of the driver.

(2)動作
以下、図3に示すシーケンス図を参照しながら、自動音声回答システム100の動作について説明する。
(2) Operation Hereinafter, the operation of the automatic voice response system 100 will be described with reference to the sequence diagram shown in FIG.

ドライバーは、ヘルメット等に設けられた通信端末1に向かって問い合わせメッセージ(例えば、「後ろまでどれくらい?」)を発話する。ドライバーの問い合わせメッセージは、通信端末1から音声データとして対話管理装置2に送信される(ステップC1)。
対話管理装置2の入力部22は、ドライバーから問い合わせ内容をあらわす音声データを受信すると(ステップC2)、受信した音声データを生成部23に供給する。生成部23は、受信した音声データを解析することで、テキスト変換(自然言語変換)する(ステップC3)。そして、生成部23は、自然言語変換後のテキストデータを形態素解析することで、テキストデータを、意味を持つ最小限の単位(=単語)に分解し、問い合わせパターンを生成し(ステップC4)、第1判断部24aに供給する。
The driver utters an inquiry message (for example, “How far is it behind?”) Toward the communication terminal 1 provided in the helmet or the like. The driver inquiry message is transmitted as voice data from the communication terminal 1 to the dialogue management apparatus 2 (step C1).
When the input unit 22 of the dialogue management apparatus 2 receives audio data representing the inquiry content from the driver (step C2), the input unit 22 supplies the received audio data to the generation unit 23. The generation unit 23 performs text conversion (natural language conversion) by analyzing the received voice data (step C3). Then, the generating unit 23 performs morphological analysis on the text data after the natural language conversion, thereby decomposing the text data into the smallest meaningful units (= words) and generating an inquiry pattern (step C4). It supplies to the 1st judgment part 24a.

第1判断部24aは、生成部23によって生成される問い合わせパターンが、第1DB21aに登録されているいずれかの既登録問い合わせパターンと一致するか否かを判断する(ステップC5)。第1判断部24aは、生成される問い合わせパターン(「後ろまでどれくらい?」)が、例えば図2に示すように、既登録問い合わせパターンのいずれとも一致しないと判断すると(ステップC5;NO)、学習部25に対し、機械学習処理の実行を指示する。学習部25は、実行指示を受け取ると、以下に示す機械学習処理の実行を開始する(ステップC6)。なお、機械学習処理を実行するためには、ドライバーの音声が正しく認識されていることが前提となる。よって、ドライバーの音声が正しく認識されていない場合には、ドライバーに対して問い合わせメッセージの再入力を指示する応答メッセージ(例えば「正しく認識できません。もう一度発話してください。」など)を、対話管理装置2から通信端末1へ自動送信すればよい。   The first determination unit 24a determines whether or not the inquiry pattern generated by the generation unit 23 matches any registered inquiry pattern registered in the first DB 21a (step C5). If the first determination unit 24a determines that the generated inquiry pattern ("how far behind?") Does not match any of the registered inquiry patterns, for example, as shown in FIG. 2 (step C5; NO), learning is performed. The unit 25 is instructed to execute machine learning processing. Upon receiving the execution instruction, the learning unit 25 starts executing the machine learning process shown below (step C6). In order to execute the machine learning process, it is assumed that the driver's voice is correctly recognized. Therefore, if the driver's voice is not recognized correctly, a response message that instructs the driver to re-enter the inquiry message (for example, “Cannot recognize correctly. Please speak again.”) Is sent to the dialog management device. 2 may be automatically transmitted to the communication terminal 1.

図4は、学習部25によって実行される機械学習処理を示すフローチャートである。
学習部(選択部)25は、生成した問い合わせパターンを分析し(ステップS1)、第1DB21aを参照することで、生成した問い合わせパターンに類似する問い合わせパターン(類似問い合わせパターン)を推定し、選択する(ステップS2)。
学習部(登録部)25は、類似問い合わせパターンに対応づけて登録されている応答パターンを特定すると、この応答パターンを、今回生成した問い合わせパターンに対応づけて、第1DB21aに新たに登録する(ステップS3)。図5は、機械学習処理のイメージを模式的に示した図である。今回生成した問い合わせパターン(「後ろまでどれくらい?」)は、未だ第1DB21aに登録されていない。その一方で、第1DB21aには、類似問い合わせパターン(「後ろとの差は?」や「後ろは?」)とともに、対応する応答パターン(「数字1」、「数字2」、「演算子3」などのパラメータや「API1」などのビジネスロジック)が登録されている。学習部25は、第1DB21aを参照することで、今回生成した問い合わせパターン(「後ろまでどれくらい?」)を、類似問い合わせパターンの応答パターンに対応づけて、第1DB21aに新たに登録する。そして、学習部25は、出力部26に対し、新たに登録した応答パターンをもとに、問い合わせ回答すべき指示を送り(ステップS4)、処理を終了する。
FIG. 4 is a flowchart showing machine learning processing executed by the learning unit 25.
The learning unit (selection unit) 25 analyzes the generated inquiry pattern (step S1), and refers to the first DB 21a to estimate and select an inquiry pattern (similar inquiry pattern) similar to the generated inquiry pattern ( Step S2).
When the learning unit (registration unit) 25 identifies the response pattern registered in association with the similar inquiry pattern, the learning unit (registration unit) 25 newly registers the response pattern in the first DB 21a in association with the inquiry pattern generated this time (step S3). FIG. 5 is a diagram schematically showing an image of the machine learning process. The inquiry pattern generated this time (“How far is it behind?”) Is not yet registered in the first DB 21a. On the other hand, in the first DB 21a, similar query patterns ("What is the difference from the back?" And "What is behind?") And the corresponding response patterns ("Number 1", "Number 2", "Operator 3") are stored. Parameters and business logic such as “API1”) are registered. The learning unit 25 refers to the first DB 21a, and newly registers the query pattern generated this time (“How much until behind?”) In the first DB 21a in association with the response pattern of the similar query pattern. Then, the learning unit 25 sends an instruction to answer an inquiry to the output unit 26 based on the newly registered response pattern (step S4), and ends the process.

図3に戻り、出力部(第1出力部)26は、学習部25によって新たに登録された応答パターンをもとに、問い合わせ回答の内容をあらわす音声データを生成し、ドライバーの通信端末1あてに自動送信する(ステップC7)。ドライバーは、通信端末1を介して問い合わせメッセージに対する自動音声回答(例えば、「後続車との距離は○×m」など)をリアルタイムに聴取することが可能となる(ステップC8)。   Returning to FIG. 3, the output unit (first output unit) 26 generates voice data representing the contents of the inquiry response based on the response pattern newly registered by the learning unit 25, and sends it to the driver's communication terminal 1. Is automatically transmitted (step C7). The driver can listen to an automatic voice response to the inquiry message via the communication terminal 1 (for example, “the distance from the following vehicle is ◯ × m” or the like) in real time (step C8).

一方、第1判断部24aは、生成部23によって生成される問い合わせパターンが、第1DB21aに登録されているいずれかの既登録問い合わせパターンと一致すると判断すると(ステップC5;YES)、第2判断部24bに対し、ドライバーの音声データ(具体的には、単語分解したテキストデータ)の解析指示を送る。   On the other hand, if the first determination unit 24a determines that the inquiry pattern generated by the generation unit 23 matches any registered inquiry pattern registered in the first DB 21a (step C5; YES), the second determination unit 24a The driver 24b is instructed to analyze voice data (specifically, text data obtained by word decomposition).

第2判断部24bは、単語分解したテキストデータを解析することで(ステップC9)、問い合わせ回答に必要なキー情報を抽出し、抽出したキー情報で十分か否か(別言すれば、キー情報が不足しているか否か)を判断する(ステップC10)。   The second determination unit 24b extracts the key information necessary for answering the inquiry by analyzing the word-decomposed text data (step C9), and whether or not the extracted key information is sufficient (in other words, the key information (Step C10).

第2判断部24bは、抽出したキー情報が不足していると判断すると、(ステップC10;NO)、出力部26に対して追加質問事項の生成指示を送る。出力部(第2出力部)26は、第2判断部24bからの指示に従い、不足するキー情報をドライバーに確認するための追加質問事項を生成し(ステップC11)、音声データに変換した後、ドライバーの通信端末1あてに送信する(ステップC12)。   If the second determination unit 24b determines that the extracted key information is insufficient (step C10; NO), the second determination unit 24b sends an instruction for generating additional questions to the output unit 26. The output unit (second output unit) 26 generates an additional question for confirming the missing key information to the driver in accordance with the instruction from the second determination unit 24b (step C11), and after converting into voice data, The data is transmitted to the driver's communication terminal 1 (step C12).

ドライバーは、通信端末1を介して追加質問事項を確認すると(ステップC13)、追加質問事項に応える形で音声入力を行う。なお、この後の動作は、上記流れと同様に説明することができるため、割愛する。   When the driver confirms the additional questions via the communication terminal 1 (step C13), the driver performs voice input in response to the additional questions. The subsequent operation can be described in the same manner as the above flow, and is therefore omitted.

一方、第2判断部24bは、抽出したキー情報が不足していないと判断すると、(ステップC10;YES)、出力部26に対して問い合わせ回答すべき指示を送る。出力部(第3出力部)26は、第2DB21bを検索することにより、ドライバーからの問い合わせ(例えば、ピットインのタイミングは?)に対応する回答パターンを特定する(ステップC14)。   On the other hand, when the second determination unit 24b determines that the extracted key information is not insufficient (step C10; YES), the second determination unit 24b sends an instruction to be answered to the output unit 26. The output unit (third output unit) 26 specifies the answer pattern corresponding to the inquiry from the driver (for example, when is the pit-in timing) by searching the second DB 21b (step C14).

第2判断部24bは、回答パターン(例えば、「×○周後にピットインせよ」)を特定すると、これを音声データに変換した後、問い合わせ回答としてドライバーの通信端末1あてに送信する(ステップC15)。   When the second determination unit 24b specifies an answer pattern (for example, “Pit in after XX laps”), the second judgment unit 24b converts the answer pattern into voice data, and then transmits it to the driver's communication terminal 1 as an inquiry answer (step C15). .

ドライバーは、通信端末1を介して問い合わせメッセージに対する自動音声回答(例えば、「×○周後にピットインせよ」など)をリアルタイムに聴取することが可能となる(ステップC16)。   The driver can listen in real time to an automatic voice response to the inquiry message (for example, “Pit in after XX circles”) via the communication terminal 1 (step C16).

B.変形例
上述した本実施形態では、学習部(選択部)25による類似問い合わせパターンをいかにして推定するか、特に言及していなかったが、例えば、ドライバーによって別の表現で言い直された問い合わせパターンに基づいて、類似問い合わせパターンを推定してもよい。一例を挙げて説明すると、例えば、ドライバーが「後ろまでどれくらい?」と発話し、その直後に「後ろとの差は?」と発話したとする。学習部25は、ドライバーの音声データに基づき、今回生成した問い合わせパターン(「後ろまでどれくらい?」)が、未だ第1DB21aに登録されていないと判断すると、当該ドライバーが言い直した問い合わせパターン(「後ろとの差は?」)について、第1DB21aに登録されていないか判断する。学習部25は、言い直した問い合わせパターン(「後ろとの差は?」)が、既に第1DB21aに登録されていることを確認すると、この言い直した問い合わせパターン(「後ろとの差は?」)を、今回生成した問い合わせパターン(「後ろまでどれくらい?」)の類似パターンとして推定する。このように、ドライバーによって言い直された問い合わせパターンを機械学習に利用してもよい。
B. In the above-described embodiment, no particular mention is made as to how the similar query pattern by the learning unit (selection unit) 25 is estimated. For example, the query pattern restated by another expression by the driver. Based on the above, a similar query pattern may be estimated. For example, assume that the driver speaks “How far is it from behind?” And immediately after that, “What is the difference from behind?” If the learning unit 25 determines that the inquiry pattern generated this time (“how far ??”) is not yet registered in the first DB 21a based on the driver's voice data, the inquiry pattern (“back” It is determined whether it is registered in the first DB 21a. When the learning unit 25 confirms that the restated inquiry pattern ("What is the difference from the back?") Is already registered in the first DB 21a, this restated inquiry pattern ("What is the difference from the back?" ) Is estimated as a similar pattern of the inquiry pattern generated this time ("How much is behind?"). Thus, the inquiry pattern restated by the driver may be used for machine learning.

C.その他
本発明は、上述した本実施形態及び変形例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。
C. Others The present invention is not limited to the above-described embodiments and modifications, and can be implemented in various other forms without departing from the gist of the present invention. For example, the above-described processing steps can be arbitrarily changed in order as long as the processing contents do not contradict each other, or can be executed in parallel.

また、本明細書において、「ユニット」や「部」とは、単に物理的構成を意味するものではなく、その「ユニット」や「部」が実行する処理をソフトウェアによって実現する場合も含む。また、1つの「ユニット」や「部」が実行する処理を2つ以上の物理的構成や装置により実現されても、2つ以上の「ユニット」や「部」が実行する処理を1つの物理的手段や装置により実現されてもよい。   Further, in this specification, “unit” or “unit” does not simply mean a physical configuration, but also includes a case where processing executed by the “unit” or “unit” is realized by software. Further, even if the processing executed by one “unit” or “unit” is realized by two or more physical configurations or devices, the processing executed by two or more “units” or “units” can be performed by one physical unit. It may be realized by a general means or apparatus.

また、本明細書において説明した各処理を実施するプログラムは、記録媒体に記憶させてもよい。この記録媒体を用いれば、対話管理装置2を構成するコンピュータに、上記プログラムをインストールすることができる。ここで、上記プログラムを記憶した記録媒体は、非一過性の記録媒体であっても良い。非一過性の記録媒体は特に限定されないが、例えば、CD−ROM等の記録媒体であっても良い。   In addition, a program for performing each process described in this specification may be stored in a recording medium. If this recording medium is used, the above program can be installed in the computer constituting the dialogue management apparatus 2. Here, the recording medium storing the program may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM.

100…自動音声回答システム、1…通信端末、2…対話管理装置、21…記憶部、21a…第1DB、21b…第2DB、22…入力部、23…生成部、24…判断部、24a…第1判断部、24b…第2判断部、25…学習部、26…出力部。 DESCRIPTION OF SYMBOLS 100 ... Automatic voice response system, 1 ... Communication terminal, 2 ... Dialog management apparatus, 21 ... Memory | storage part, 21a ... 1st DB, 21b ... 2nd DB, 22 ... Input part, 23 ... Generating part, 24 ... Judgment part, 24a ... 1st judgment part, 24b ... 2nd judgment part, 25 ... Learning part, 26 ... Output part.

Claims (4)

ドライバーからの問い合わせに対し、自動で音声回答を行うシステムであって、
問い合わせパターンと、応答パターンとを対応づけて記憶する第1記憶部と、
前記ドライバーから問い合わせ内容をあらわす音声データを入力する入力部と、
入力された前記ドライバーの音声データを解析することで、問い合わせパターンを生成する生成部と、
生成した問い合わせパターンが、前記第1記憶部に記憶されているか否かを判断する第1判断部と、
生成した問い合わせパターンが、前記第1記憶部に記憶されていない場合には、生成した問い合わせパターンに類似する問い合わせパターンを、前記第1記憶部に記憶されている問い合わせパターンの中から推定し、選択する選択部と、
生成した問い合わせパターンと、選択した問い合わせパターンに対応づけられている応答パターンとを、前記第1記憶部に新たに登録する登録部と、
前記ドライバーによる問い合わせに対し、新たに登録した前記応答パターンに基づく応答内容をあらわす音声データを生成し、出力する第1出力部とを具備し、
前記選択部は、
前記ドライバーによって別の表現で言い直された問い合わせパターンが、前記第1記憶部に既に記憶されている場合には、前記言い直された問い合わせパターンを、生成した問い合わせパターンに類似する問い合わせパターンとして推定する、モータスポーツにおける自動音声回答システム。
A system that automatically answers voice inquiries from drivers,
A first storage unit that stores an inquiry pattern and a response pattern in association with each other;
An input unit for inputting voice data representing the inquiry content from the driver;
A generation unit that generates an inquiry pattern by analyzing the input voice data of the driver;
A first determination unit that determines whether or not the generated inquiry pattern is stored in the first storage unit;
If the generated inquiry pattern is not stored in the first storage unit, an inquiry pattern similar to the generated inquiry pattern is estimated from the inquiry patterns stored in the first storage unit and selected. A selection section to
A registration unit for newly registering the generated inquiry pattern and the response pattern associated with the selected inquiry pattern in the first storage unit;
A first output unit that generates and outputs voice data representing response contents based on the newly registered response pattern in response to an inquiry by the driver ;
The selection unit includes:
When the query pattern rephrased by the driver in another expression is already stored in the first storage unit, the rephrased query pattern is estimated as a query pattern similar to the generated query pattern to, automatic voice answer system in the motor sport.
生成した問い合わせパターンが、前記第1記憶部に記憶されている場合には、入力された前記ドライバーの音声データを解析することで、問い合わせ回答に必要なキー情報が不足しているか否かを判断する第2判断部と、
問い合わせ回答に必要なキー情報が不足している場合には、前記ドライバーに対する追加質問事項をあらわす音声データを生成し、出力する第2出力部と
をさらに具備する、請求項1に記載の自動音声回答システム。
When the generated inquiry pattern is stored in the first storage unit, it is determined whether or not key information necessary for the inquiry response is insufficient by analyzing the input voice data of the driver. A second determination unit that
2. The automatic voice according to claim 1, further comprising: a second output unit configured to generate and output voice data representing additional questions for the driver when key information necessary for answering the inquiry is insufficient. Answer system.
問い合わせ回答をあらわす回答パターンを複数記憶する第2記憶部と、
問い合わせ回答に必要なキー情報が不足していない場合には、前記第2記憶部を検索することにより、前記ドライバーからの問い合わせに対応する回答パターンを特定し、特定した回答パターンに基づく回答内容をあらわす音声データを生成し、出力する第3出力部と
をさらに具備する、請求項2に記載の自動音声回答システム。
A second storage unit for storing a plurality of answer patterns representing inquiry answers;
If the key information necessary for the inquiry response is not insufficient, the second storage unit is searched to identify an answer pattern corresponding to the inquiry from the driver, and the answer contents based on the identified answer pattern are displayed. The automatic voice response system according to claim 2, further comprising: a third output unit that generates and outputs voice data representing the voice data.
問い合わせパターンと、応答パターンとを対応づけて記憶する第1記憶部を備え、ドライバーからの問い合わせに対し、自動で音声回答を行うコンピュータを、
前記ドライバーから問い合わせ内容をあらわす音声データを入力する入力部と、
入力された前記ドライバーの音声データを解析することで、問い合わせパターンを生成する生成部と、
生成した問い合わせパターンが、前記第1記憶部に記憶されているか否かを判断する第1判断部と、
生成した問い合わせパターンが、前記第1記憶部に記憶されていない場合には、生成した問い合わせパターンに類似する問い合わせパターンを、前記第1記憶部に記憶されている問い合わせパターンの中から推定し、選択する選択部と、
生成した問い合わせパターンと、選択した問い合わせパターンに対応づけられている応答パターンとを、前記第1記憶部に新たに登録する登録部と、
前記ドライバーによる問い合わせに対し、新たに登録した前記応答パターンに基づく応答内容をあらわす音声データを生成し、出力する第1出力部として機能させるプログラムであって、
前記選択部は、
前記ドライバーによって別の表現で言い直された問い合わせパターンが、前記第1記憶部に既に記憶されている場合には、前記言い直された問い合わせパターンを、生成した問い合わせパターンに類似する問い合わせパターンとして推定する、プログラム。
A computer that includes a first storage unit that stores an inquiry pattern and a response pattern in association with each other, and that automatically answers the inquiry from the driver by voice,
An input unit for inputting voice data representing the inquiry content from the driver;
A generation unit that generates an inquiry pattern by analyzing the input voice data of the driver;
A first determination unit that determines whether or not the generated inquiry pattern is stored in the first storage unit;
If the generated inquiry pattern is not stored in the first storage unit, an inquiry pattern similar to the generated inquiry pattern is estimated from the inquiry patterns stored in the first storage unit and selected. A selection section to
A registration unit for newly registering the generated inquiry pattern and the response pattern associated with the selected inquiry pattern in the first storage unit;
In response to an inquiry by the driver, a program that generates voice data representing response content based on the newly registered response pattern and functions as a first output unit that outputs the voice data ,
The selection unit includes:
When the query pattern rephrased by the driver in another expression is already stored in the first storage unit, the rephrased query pattern is estimated as a query pattern similar to the generated query pattern to, the program.
JP2018072975A 2018-04-05 2018-04-05 Automatic voice response system and program in motor sports Expired - Fee Related JP6458183B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072975A JP6458183B1 (en) 2018-04-05 2018-04-05 Automatic voice response system and program in motor sports

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072975A JP6458183B1 (en) 2018-04-05 2018-04-05 Automatic voice response system and program in motor sports

Publications (2)

Publication Number Publication Date
JP6458183B1 true JP6458183B1 (en) 2019-01-23
JP2019185243A JP2019185243A (en) 2019-10-24

Family

ID=65037012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072975A Expired - Fee Related JP6458183B1 (en) 2018-04-05 2018-04-05 Automatic voice response system and program in motor sports

Country Status (1)

Country Link
JP (1) JP6458183B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022169822A (en) 2019-10-08 2022-11-10 Anaホールディングス株式会社 Communication system and robot

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039881A (en) * 2004-07-26 2006-02-09 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for answering question
JP2006039484A (en) * 2004-07-30 2006-02-09 Nippon Telegr & Teleph Corp <Ntt> Reliability degree calculation processing method for dialog comprehension result
JP2006119991A (en) * 2004-10-22 2006-05-11 Qualica Inc Generation device and method and organization device and method for faq data, and faq answer system
JP2011103018A (en) * 2009-11-10 2011-05-26 Nippon Telegr & Teleph Corp <Ntt> Question answering device, question answering method and question answering program
US20140229175A1 (en) * 2013-02-13 2014-08-14 Bayerische Motoren Werke Aktiengesellschaft Voice-Interfaced In-Vehicle Assistance
JP2015225402A (en) * 2014-05-26 2015-12-14 ソフトバンク株式会社 Information retrieval device, information retrieval program, and information retrieval system
WO2016151699A1 (en) * 2015-03-20 2016-09-29 株式会社 東芝 Learning apparatus, method, and program
WO2017199434A1 (en) * 2016-05-20 2017-11-23 三菱電機株式会社 Information provision control device, navigation device, facility inspection work assist device, conversation robot control device, and information provision control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039881A (en) * 2004-07-26 2006-02-09 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for answering question
JP2006039484A (en) * 2004-07-30 2006-02-09 Nippon Telegr & Teleph Corp <Ntt> Reliability degree calculation processing method for dialog comprehension result
JP2006119991A (en) * 2004-10-22 2006-05-11 Qualica Inc Generation device and method and organization device and method for faq data, and faq answer system
JP2011103018A (en) * 2009-11-10 2011-05-26 Nippon Telegr & Teleph Corp <Ntt> Question answering device, question answering method and question answering program
US20140229175A1 (en) * 2013-02-13 2014-08-14 Bayerische Motoren Werke Aktiengesellschaft Voice-Interfaced In-Vehicle Assistance
JP2015225402A (en) * 2014-05-26 2015-12-14 ソフトバンク株式会社 Information retrieval device, information retrieval program, and information retrieval system
WO2016151699A1 (en) * 2015-03-20 2016-09-29 株式会社 東芝 Learning apparatus, method, and program
WO2017199434A1 (en) * 2016-05-20 2017-11-23 三菱電機株式会社 Information provision control device, navigation device, facility inspection work assist device, conversation robot control device, and information provision control method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅野 優,他: ""不明点の確認により成長する対話システム"", 第81回 言語・音声理解と対話処理研究会資料(人工知能学会研究会資料SIG−SLUD−B508), JPN6018031850, 5 October 2017 (2017-10-05), pages pp.66−71 *

Also Published As

Publication number Publication date
JP2019185243A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP7274043B2 (en) Voice conversation processing method and device
KR102297394B1 (en) Automated assistant invocation of appropriate agent
JP6771805B2 (en) Speech recognition methods, electronic devices, and computer storage media
US10210003B2 (en) Methods and apparatus for module arbitration
CN109388691A (en) For generating the method and system of session proxy
US20050075878A1 (en) Method, system, and apparatus for natural language mixed-initiative dialogue processing
JP2006227611A (en) Spoken dialogue interface apparatus and method
CN109903770A (en) The devices and methods therefor of language mistake for correcting user
KR101131278B1 (en) Method and Apparatus to Improve Dialog System based on Study
CN112313647A (en) CAPTCHA automatic assistant
JP2015176099A (en) Dialog system construction assist system, method, and program
US10304455B1 (en) Method and system for performing a task based on user input
JP2014106523A (en) Voice input corresponding device and voice input corresponding program
JP6458183B1 (en) Automatic voice response system and program in motor sports
US12026544B2 (en) Self-play to improve task-oriented dialog systems and methods
CN113630309B (en) Robot conversation system, method, device, computer equipment and storage medium
CN111414732A (en) Text style conversion method and device, electronic equipment and storage medium
JP2020086203A (en) Question answering device, question answering method and program
CN110737422B (en) Sound signal acquisition method and device
WO2023226767A1 (en) Model training method and apparatus, and speech meaning understanding method and apparatus
CN115658875B (en) Data processing method based on chat service and related products
JP2019220115A (en) Voice interactive system, and model creation device and method thereof
US11568135B1 (en) Identifying chat correction pairs for training models to automatically correct chat inputs
JP2018159729A (en) Interaction system construction support device, method and program
US10505879B2 (en) Communication support device, communication support method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180405

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181221

R150 Certificate of patent or registration of utility model

Ref document number: 6458183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees