JPH07219582A - On-vehicle voice recognition device - Google Patents

On-vehicle voice recognition device

Info

Publication number
JPH07219582A
JPH07219582A JP6008724A JP872494A JPH07219582A JP H07219582 A JPH07219582 A JP H07219582A JP 6008724 A JP6008724 A JP 6008724A JP 872494 A JP872494 A JP 872494A JP H07219582 A JPH07219582 A JP H07219582A
Authority
JP
Japan
Prior art keywords
sound
voice
output
time
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6008724A
Other languages
Japanese (ja)
Inventor
Kazuya Sako
和也 佐古
Shoji Fujimoto
昇治 藤本
Hiroyuki Fujimoto
博之 藤本
Ikue Takahashi
育恵 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP6008724A priority Critical patent/JPH07219582A/en
Publication of JPH07219582A publication Critical patent/JPH07219582A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To simplify a usage based especially on a skill in an on-vehicle voice recognition device performing a guidance with voice. CONSTITUTION:This device is provided with a message storage means 11 storing messages of the guidance, an output time adjusting means 16 adjusting a synthesized voice outputting time when a synthesized voice is outputted by the message storing means 11 after a command tone is detected in the on-vehicle voice recognition device forming a synthesized voice from the message of the guidance based on the command tone of a voice operation and a response speed detecting means 17 detecting a command tone input time from after the outputting of the synthesized voice to a time when the command tone is inputted. A control means 12 controls the output time adjusting means 16 so that in the case the command tone input time is small, the synthesized voice outputting time is made small and in the case the command tone input time is large, the synthesized voice outputting time is made large.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声により案内を行う
車載用音声認識装置に関し、特に本発明は本装置の習熟
度に基づいて使用の簡単化を行うことに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle-mounted voice recognition device for guiding by voice, and more particularly, the present invention relates to simplification of use based on the proficiency level of the device.

【0002】[0002]

【従来の技術】従来このような分野の技術として、音声
認識装置、音声合成装置、これらを制御する制御装置を
具備する車載用音声認識装置がある。音声認識装置は発
生した音声と予め作成された辞書との内容を比較し、音
声の内容を判断する。音声合成装置は予め用意された内
容を音声によって案内を行う。
2. Description of the Related Art Conventionally, as a technique in such a field, there is a vehicle-mounted voice recognition device equipped with a voice recognition device, a voice synthesis device, and a control device for controlling them. The voice recognition device compares the generated voice with the contents of a dictionary created in advance to judge the contents of the voice. The voice synthesizer guides the prepared contents by voice.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
車載用音声認識装置においては、合成による案内が終了
しないと次の操作を受け付けないため、操作に習熟して
いる場合、わずらわしさやその間の操作待ちがあり、操
作に時間がかかるといった問題がある。また、この案内
にON/OFF機能をもたせた場合においては、あまり
使わない機能に対してOFF機能のモードになると、使
用できない場合が出てきて却って使いずらいという問題
が生じる。
However, in the above-described in-vehicle voice recognition device, the next operation cannot be accepted until the guidance by synthesis is completed. Therefore, if the operator is familiar with the operation, it is bothersome and waiting for the operation in between. However, there is a problem that the operation takes time. Further, in the case where the guidance is provided with an ON / OFF function, if the mode of the OFF function is set for a function that is not used often, there may be a case where it cannot be used and it is rather difficult to use.

【0004】したがって、本発明は、上記問題点に鑑
み、習熟度に基づき使用し易い車載用音声認識装置を提
供することを目的とする。
Therefore, in view of the above problems, it is an object of the present invention to provide a vehicle-mounted voice recognition device which is easy to use based on the proficiency level.

【0005】[0005]

【課題を解決するための手段】本発明は、前記問題点を
解決するために、次の構成を有する車載用音声認識装置
を提供する。すなわち、案内のメッセージを記憶するメ
ッセージ記憶手段を有し、音声操作の指令音を基に前記
案内のメッセージから合成音を形成する車載用音声認識
装置に、前記指令音が検出された後から前記メッセージ
記憶手段により合成音が出力される合成音出力時間を調
整する出力時間調整手段が設けられる。
In order to solve the above problems, the present invention provides a vehicle-mounted voice recognition device having the following configuration. That is, the in-vehicle voice recognition device having a message storage unit for storing a guidance message and forming a synthetic sound from the guidance message based on the voice operation command sound, is used after the command sound is detected. An output time adjusting means is provided for adjusting a synthetic sound output time at which the synthetic sound is output by the message storing means.

【0006】また、前記合成音出力後から指令音が入力
されるまでの指令音入力時間を検出する応答速度検出手
段が設けられる。さらに、前記指令音入力時間が小さけ
れば、合成音出力時間が小さくなるように、指令音入力
時間が大きければ、合成音出力時間が大きくなるよう
に、出力時間調整手段を制御する制御手段が設けられ
る。
Further, there is provided a response speed detecting means for detecting a command sound input time from the output of the synthetic sound to the input of the command sound. Further, there is provided control means for controlling the output time adjusting means such that if the command sound input time is short, the synthetic sound output time is short, and if the command sound input time is long, the synthetic sound output time is long. To be

【0007】[0007]

【作用】本発明の車載用音声認識装置によれば、前記指
令音入力時間が小さければ、合成音出力時間または合成
音出力までの待ち時間が小さくなるように、指令音入力
時間が大きければ、合成音出力時間又は合成音出力まで
の待ち時間が大きくなるように、出力時間調整手段を制
御することにより、音声操作の間隔が乗員の特性に起因
してバラツキがあることや習熟度に起因してバラツキが
あることが考慮される。そして、操作間隔や反応速度を
学習することでこれらのバラツキに対応できるようにな
る。すなわち、習熟度が高くなるに伴って操作待ちがな
くなる。
According to the in-vehicle voice recognition apparatus of the present invention, if the command sound input time is short, the synthesized sound output time or the waiting time until the synthesized sound output is short. By controlling the output time adjusting means so that the synthetic sound output time or the waiting time until the synthetic sound is output becomes longer, there are variations in the intervals of voice operations due to the characteristics of the occupant and the proficiency level. Variation is considered. Then, it becomes possible to cope with these variations by learning the operation interval and the reaction speed. That is, as the proficiency level increases, there is no need to wait for an operation.

【0008】前記指令音入力時間が大き過ぎる場合には
再度同一の案内のメッセージの合成音を出力して音声操
作を促すことにより、使用に慣れていない乗員に対して
も親切な案内が可能になる。また、前記メッセージ記憶
手段に記憶されている案内のメッセージの内容に順位を
付け、前記指令音入力時間が小さければ、順位の高いメ
ッセージだけを出力することにより、習熟度が高くなる
に伴って案内の音声による煩わしさが減少する。
When the command sound input time is too long, the synthesized sound of the same guidance message is output again to prompt the voice operation, so that it is possible to give kind guidance to an occupant who is not accustomed to the use. Become. Further, the contents of the guidance message stored in the message storage means are ranked, and if the command sound input time is short, only the message with the higher ranking is output, so that the guidance increases as the skill level increases. The annoyance of the voice of is reduced.

【0009】前記メッセージ記憶手段から案内のメッセ
ージが合成音として出力している間に、特定の操作、音
声の入力がある場合に、合成音の出力を中断して次の案
内のメッセージの合成音の出力を行うことにより、さら
に習熟した乗員に対してもさらに案内の音声による煩わ
しさが減少する。
When a specific operation or voice input is made while the guidance message is output as the synthesized voice from the message storage means, the output of the synthesized voice is interrupted and the synthesized voice of the next guidance message is generated. Is output, the annoyance due to the guidance voice is further reduced even for a more experienced occupant.

【0010】[0010]

【実施例】以下本発明の実施例について図面を参照して
説明する。図1は本発明の実施例に係る車載用音声認識
装置の概略構成を示す図である。本図に示すように、車
載用音声認識装置は合成音声を出力するスピーカ1を具
備する。該スピーカ1に接続される合成部2はメッセー
ジデータを単語に分析しこの単語に対応して既に記憶さ
れている音声波形を合成する。前記合成部2に設けられ
ている辞書部3は前記単語に対応する音声波形を記憶す
る。さらに、本装置は、車両内の乗員が音声操作を目的
として発声する指令音を捕捉するマイクロフォン4を具
備する。該マイクロフォン4に接続される認識部5は指
令音信号と音声に含まれる言語的特徴に関する標準パタ
ーンとを比較し類似性に基づき認識判定を行い、指令音
を指令データに変換する。認識部5に設けられる辞書部
6は前記標準パターンを記憶する。合成部2及び認識部
5に接続される音声制御部7は認識部5からの指令に基
づき合成部2に案内のメッセージを出力する。音声制御
部7に接続される表示入力部8は前記案内のメッセージ
の内容を表示する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of a vehicle-mounted voice recognition device according to an embodiment of the present invention. As shown in the figure, the vehicle-mounted voice recognition device includes a speaker 1 that outputs a synthetic voice. A synthesizer 2 connected to the speaker 1 analyzes the message data into words and synthesizes a speech waveform already stored corresponding to this word. The dictionary unit 3 provided in the synthesizing unit 2 stores the voice waveform corresponding to the word. Further, the present device is provided with a microphone 4 for capturing a command sound uttered by an occupant in the vehicle for the purpose of voice operation. The recognition unit 5 connected to the microphone 4 compares the command sound signal with a standard pattern relating to linguistic features included in the voice, performs recognition determination based on the similarity, and converts the command sound into command data. The dictionary unit 6 provided in the recognition unit 5 stores the standard pattern. The voice control unit 7 connected to the synthesizing unit 2 and the recognizing unit 5 outputs a guidance message to the synthesizing unit 2 based on a command from the recognizing unit 5. The display input unit 8 connected to the voice control unit 7 displays the contents of the guidance message.

【0011】さらに、本スピーカ1はオーディオシステ
ム9のスピーカと共用されるようにしてもよい。この場
合には、音声認識を行う場合には可変増幅器10のゲイ
ンを調整してオーディオシステムからの信号を遮断す
る。図2は図1の音声制御部7の構成を示す図である。
本図に示すように、音声制御部7は前述した案内のメッ
セージデータを記憶し合成部2に出力するメッセージ記
憶手段11を具備する。前記認識部5からの指令データ
を入力する制御手段12はその指令データの内容を予め
記憶してあるデータと照合し一致すれば、指令データに
対応する案内のメッセージを出力するように前記メッセ
ージ記憶手段11を制御する。制御手段12に設けられ
るメモリ手段13は、前述のように、照合のために予め
指令データを記憶する。
Further, the present speaker 1 may be shared with the speaker of the audio system 9. In this case, when performing voice recognition, the gain of the variable amplifier 10 is adjusted to cut off the signal from the audio system. FIG. 2 is a diagram showing the configuration of the voice control unit 7 of FIG.
As shown in the figure, the voice control unit 7 includes a message storage unit 11 which stores the above-mentioned guidance message data and outputs it to the synthesizing unit 2. The control means 12 for inputting the command data from the recognizing section 5 collates the contents of the command data with the data stored in advance, and if the contents match, it outputs the guidance message corresponding to the command data. Control the means 11. The memory means 13 provided in the control means 12 stores command data in advance for collation, as described above.

【0012】次に、制御手段12に接続されるメモリ手
段13は、例えば、地名検索の場合には、認識部5から
の指令データのうち地名データを記憶する。メモリ13
に接続される検索手段15は前記地名データに基づき地
名検索を行い、この結果を表示入力部8に表示させ、ナ
ビゲーションに使用する。図3は図1の制御手段12の
一の動作を説明するフローチャートであり、図4は図3
のステップS1、S2における音声操作、音声合成の一
例を説明する図である。図3に示すように、ステップS
1において、乗員から音声操作のために、「目的地設
定」との指令音の入力があるのを待つ。この指令音の内
容判断は、メモリ13に予め記憶されているデータと照
合して行う。図4(a)に示すように、ハンドル近くに
設けられたマイクロフォン4から乗員の上記指令音を入
力する。
Next, the memory means 13 connected to the control means 12 stores the place name data of the command data from the recognition section 5 in the case of the place name search, for example. Memory 13
The search means 15 connected to the above performs a place name search based on the place name data, displays the result on the display input unit 8, and uses it for navigation. FIG. 3 is a flow chart for explaining one operation of the control means 12 of FIG. 1, and FIG.
It is a figure explaining an example of the voice operation and voice synthesis in steps S1 and S2. As shown in FIG. 3, step S
In step 1, the occupant waits for the input of the command sound "destination setting" for voice operation. The judgment of the content of the command sound is made by collating with the data stored in advance in the memory 13. As shown in FIG. 4A, the above-described command sound of the occupant is input from the microphone 4 provided near the steering wheel.

【0013】ステップS2において、上記ステップS1
で指令音があったと判断すると、メッセージ記憶手段1
1から「検索方法を入力して下さい」、「目的地設定を
行います」との案内のメッセージを出力して、これを合
成部2により合成するようにする。図4(b)に示すよ
うに、乗員の近くに設けられたスピーカ1から上記案内
のメッセージを合成部2により合成してこれを出力する
ようにする。
In step S2, the above step S1
When it is determined that there is a command sound, the message storage means 1
The message from 1 to "Please enter the search method" and "I will set the destination" is output, and the combining unit 2 combines them. As shown in FIG. 4 (b), the speaker 1 provided near the occupant synthesizes the guidance message by the synthesis unit 2 and outputs the message.

【0014】ステップS3において、「地名検索」との
指令音の入力があるのを待つ。この指令音の内容判断
は、メモリ13に予め記憶されているデータと照合して
行う。この指令音がなければ、ステップS2に戻り再度
ステップS2の案内のメッセージを出力し、上記指令音
があるのを待つようにする。ステップS4において、上
記ステップS3で上記指令音があったと判断すると、メ
ッセージ記憶手段11から「都道府県名を入力して下さ
い、地名検索を行います」との案内のメッセージを合成
部2により合成してこれを出力するようにする。
In step S3, it waits for the input of a command sound "Search for place name". The judgment of the content of the command sound is made by collating with the data stored in advance in the memory 13. If there is no command sound, the process returns to step S2 and the guidance message of step S2 is output again, and the command sound is waited for. In step S4, when it is determined that the command sound is generated in step S3, the synthesizing unit 2 synthesizes a message from the message storage means 11 "Please enter the prefecture name, place name search". To output this.

【0015】ステップS5において、例えば、「兵庫
県」との指令音の入力があるのを待つ。ステップS6に
おいて、上記ステップS5で上記指令音があったと判断
すると、認識部5の認識データを合成部2に出力して、
「兵庫県ですか」との確認の案内のメッセージを出力す
る。
In step S5, for example, the input of a command sound "Hyogo prefecture" is waited for. When it is determined in step S6 that the command sound is generated in step S6, the recognition data of the recognition unit 5 is output to the synthesis unit 2,
The confirmation message "Is it Hyogo Prefecture?" Is output.

【0016】ステップS7において、肯定的応答とし
て、例えば「はい」との指令音の入力を待つ。一定時
間、この指令音がなければ、ステップS4に戻り再度ス
テップS4の案内のメッセージを出力し、上記指令音が
あるのを待つようにする。ステップS8において、上記
ステップS7で上記指令音があったと判断すると、メッ
セージ記憶手段11から「市町村名を入力して下さい」
との案内のメッセージを合成部2により合成して、これ
を出力するようにする。
In step S7, as an affirmative response, the input of a command sound such as "Yes" is waited for. If there is no command sound for a certain period of time, the process returns to step S4 and the guidance message of step S4 is output again to wait for the command sound. In step S8, when it is determined that the command sound is generated in step S7, "Enter the name of the municipality" is displayed from the message storage means 11.
The synthesizing unit 2 synthesizes the guide message and outputs it.

【0017】ステップS9において、例えば、「神戸
市」との指令音の入力があるのを待つ。ステップS10
において、上記ステップS9で上記指令音があったと判
断すると、認識部5の認識データを合成部2に出力し
て、「神戸市ですか」との確認の案内のメッセージを出
力する。
In step S9, for example, the input of a command sound "Kobe city" is waited for. Step S10
In step S9, when it is determined that the command sound is generated, the recognition data of the recognition unit 5 is output to the synthesis unit 2 and a confirmation message "Is it Kobe city?" Is output.

【0018】ステップS11において、肯定的応答とし
て、「はい」との指令音の入力を待つ。一定時間、この
指令音がなければ、ステップS8に戻り再度ステップS
8の案内のメッセージを出力し、上記指令音があるのを
待つようにする。ステップS12において、上記ステッ
プS11で上記指令音があったと判断すると、メッセー
ジ記憶手段11から「検索開始します」との案内のメッ
セージを出て、これを合成部2により合成するようにす
る。
In step S11, as an affirmative response, the input of the command sound "Yes" is waited for. If there is no command sound for a certain period of time, the process returns to step S8 and step S again.
The guidance message 8 is output, and the user waits for the command sound. In step S12, if it is determined in step S11 that the command sound is generated, the message storage means 11 issues a guidance message "search will be started", and the synthesizing unit 2 synthesizes the message.

【0019】ステップS13において、ステップS12
の検索が終了すると、メッセージ記憶手段11から「検
索結果を表示します」とのメッセージを出力して、これ
を合成部2により合成するようにする。図5は図4にお
ける音声操作の指令音と案内のメッセージの合成音との
時間的関係を説明するタイムチャートである。本図
(a)に示すように、指令音が発声されて指令音が検出
された後からメッセージ記憶手段11により合成音が出
力される合成音出力時間をT1とする。これに対して、
合成音出力後から乗員の指令音が入力されるまでの指令
音入力時間をT2とする。さらにメッセージの出力の速
さをT5,T5′,T5″,T6,T6′,T6″,T
7,T7′,T7″とする。この合成音出力時間T1及
び指令音検出時間T2及びT5〜T7″は、標準的な乗
員を想定して決定される。
In step S13, step S12
When the search is completed, the message “display the search result” is output from the message storage means 11, and the combining unit 2 combines the message. FIG. 5 is a time chart for explaining the temporal relationship between the voice operation command sound and the synthesized sound of the guidance message in FIG. As shown in FIG. 3A, the synthetic sound output time in which the synthetic sound is output by the message storage means 11 after the command sound is uttered and the command sound is detected is T1. On the contrary,
The command sound input time from the output of the synthetic sound to the input of the command sound of the occupant is T2. Furthermore, the speed of message output is set to T5, T5 ', T5 ", T6, T6', T6", T.
7, T7 ', T7 ". The synthetic sound output time T1 and the command sound detection times T2 and T5 to T7" are determined by assuming a standard occupant.

【0020】本図(b)に示すように、乗員が使用に慣
れてくると、指令音入力時間T3は、標準的な指令音入
力時間T2よりも短くなる。本図(c)に示すように、
乗員が使用に慣れていないと、指令音入力時間T4は、
標準的な指令音入力時間T2よりも長くなる。これが長
くなり過ぎ一定時間経過すると、図3の例えばステップ
S3等に示すように、「否定的」判断の場合のように再
度の要求が行われる。
As shown in FIG. 3B, when the occupant becomes accustomed to use, the command sound input time T3 becomes shorter than the standard command sound input time T2. As shown in this figure (c),
If the occupant is not used to using the command sound input time T4,
It becomes longer than the standard command sound input time T2. If this becomes too long and a certain period of time elapses, the request is made again as in the case of the "negative" judgment as shown in, for example, step S3 of FIG.

【0021】本図(b)の場合には、指令音入力時間T
3がT2より小さくなっているが、前述のように、合成
音出力時間T1又はT5〜T7″が元のままなので、乗
員にとって、次の操作待ちとなり、使用しにくいという
問題がある。また、本図(c)に場合には、指令音入力
時間T4がT2より大きくなっているが、前述のよう
に、合成音出力時間T1又はT5〜T7″が元のままな
ので、乗員にとって、案内のメッセージが速く出力し過
ぎて次の操作を聞き損ね、却って使用しにくいという問
題がある。
In the case of this figure (b), the command sound input time T
Although 3 is smaller than T2, as described above, since the synthetic sound output time T1 or T5 to T7 ″ remains unchanged, there is a problem that the occupant waits for the next operation and is difficult to use. In the case of this figure (c), the command sound input time T4 is longer than T2, but as described above, since the synthetic sound output time T1 or T5 to T7 ″ remains unchanged, the occupant can be guided. There is a problem that the message is output too fast and the next operation is missed, which makes it rather difficult to use.

【0022】この問題を解決するために、以下の手段を
説明する。図2に戻り、メッセージ記憶手段11と合成
部2との間に出力時間調整手段16を設ける。出力時間
調整手段16はメッセージ記憶手段11の案内のメッセ
ージ出力を一時保持して合成部2への出力する合成音出
力までの時間または合成音出力の時間(速さ)を可変と
するものである。さらに合成部2への入力前と認識部5
の出力後との間に応答速度検出手段17を設ける。応答
速度検出手段17は、合成音出力後から乗員が指令音を
発声する指令音入力時間を検出する。
In order to solve this problem, the following means will be described. Returning to FIG. 2, the output time adjusting unit 16 is provided between the message storage unit 11 and the synthesizing unit 2. The output time adjusting means 16 temporarily holds the guidance message output of the message storage means 11 and makes variable the time until the synthesized sound is output to the synthesizer 2 or the synthesized sound output time (speed). . Further, before inputting to the synthesis unit 2 and the recognition unit 5
The response speed detecting means 17 is provided between and after the output. The response speed detecting means 17 detects the command sound input time when the occupant utters the command sound after the synthesized sound is output.

【0023】制御手段12は応答速度検出手段17から
の指令音入力時間を入力し、この指令音入力時間を基に
出力時間調整手段16による合成音出力までの時間又は
合成音出力時間(速さ)を制御する。すなわち、指令音
入力時間が小さければ、合成音出力までの時間又は合成
音出力時間(速さ)又は両方が小さくなるように、指令
音入力時間が大きければ、合成音出力までの時間又は合
成音出力時間(速さ)又は両方が大きくなるように、出
力時間調整手段16を制御する。したがって、音声操作
の間隔は乗員の特性によりバラツキがあることや習熟度
によりバラツキがあるので、操作間隔や反応速度を学習
することでこれらのバラツキに対応できるようになる。
すなわち、習熟度が高くなるに伴って操作待ちがなくな
る。
The control means 12 inputs the command sound input time from the response speed detection means 17, and based on this command sound input time, the time until the output of the synthetic sound by the output time adjusting means 16 or the synthetic sound output time (speed ) Control. That is, if the command sound input time is short, the time until the synthesized sound is output, the synthesized sound output time (speed), or both are small. The output time adjusting means 16 is controlled so that the output time (speed) or both becomes longer. Therefore, the intervals of the voice operations vary depending on the characteristics of the occupant and the proficiency level. Therefore, it is possible to cope with these variations by learning the operation intervals and the reaction speed.
That is, as the proficiency level increases, there is no need to wait for an operation.

【0024】さらに、乗員が使用に慣れて習熟度が進む
と、メッセージ記憶手段11からの案内のメッセージの
全部を聞かなくても次の操作が可能となる。そのような
場合でも、音声による案内のメッセージを全部出力する
ことは、乗員にとって、次の操作待ちとなり、却って使
用しにくいという問題がある。この問題を解決するため
に、以下の手段を説明する。
Further, when the occupant becomes accustomed to use and the level of proficiency increases, the next operation can be performed without listening to all the guidance messages from the message storage means 11. Even in such a case, outputting all of the voice guidance messages causes a problem that the occupant waits for the next operation and is rather difficult to use. The following means will be described in order to solve this problem.

【0025】図6はメッセージ記憶手段11に記憶され
る内容の順位付けを説明する図である。本図に示すよう
に、図3のステップS2における案内のメッセージの内
容である「検索方法を入力して下さい」の順位をAと
し、「目的地設定を行います」の順位をBとする。この
場合順位Aは順位Bよりも優先度が高いとする。同様に
して、ステップS4の案内のメッセージの内容である
「都道府県名を入力して下さい」の順位をAとし、「地
名検索を行います」の順位をBとする。「市町村を入力
して下さい」、「検索開始します」、「検索結果を表示
します」の順位をAとする。ここに、「目的地設定を行
います」、「地名検索を行います」の順位をBとするの
は案内のメッセージは使用に慣れていない乗員には必要
であるが、習熟した乗員には必要ないからである。制御
手段12は、応答速度検出手段17による指令音入力時
間が所定値よりも小さくなると、メッセージ記憶手段1
1が出力する案内のメッセージの内容を順位Aに関する
ものだけとする。このようにして、習熟度が高くなるに
伴って案内音声による煩わしさから乗員は開放される。
FIG. 6 is a diagram for explaining the ranking of the contents stored in the message storage means 11. As shown in the figure, the rank of "Enter search method", which is the content of the guidance message in step S2 of FIG. 3, is A, and the rank of "Destination is set" is B. In this case, rank A has a higher priority than rank B. Similarly, the rank of "Please enter the prefecture name", which is the content of the guidance message in step S4, is A, and the rank of "Search for a place name" is B. The rank of "Please enter the city", "Start search", and "Display search results" is A. It is necessary for crew members who are not accustomed to using the guidance message to set the order of “Set destination” and “Search for place name” to B here, but for experienced crew members it is necessary. Because there is no. The control means 12, when the command sound input time by the response speed detection means 17 becomes smaller than a predetermined value, the message storage means 1
The content of the guidance message output by 1 is only related to the rank A. In this way, as the proficiency level increases, the occupant is released from the annoyance of the guidance voice.

【0026】図7は図3のステップS2(S4、S8)
における変形を示す図である。本図に示すステップS1
5において、案内のメッセージが合成音の出力が完了さ
れたかを判断する。上記判断が「YES」なら、すなわ
ち合成音の出力が完了しているなら、次のステップS3
(S5,9)に進む。ステップS16において、上記判
断が「NO」なら、すなわち合成音が出力が完了してい
ないなら、表示入力部8、音声制御部7を介して制御手
段12に特定の操作があったかを判断する。又は乗員か
ら特定の音声があったかを判断する。上記判断が「YE
S」なら、すなわち特定の操作、音声があると、ステッ
プS3(S5,9)に進み、ステップS2(S4、S
8)を中断する。この判断が「NO」ならステップS1
5に進み、前述の特定の操作、音声を待つ。このように
して、乗員の特定の音声、操作により案内のメッセージ
の合成音の出力を中断でき、次のステップに進んで次の
案内のメッセージの合成音を出力するので、習熟度が高
くなるに伴って案内音声による煩わしさから乗員を開放
できる。以上の例をナビゲーションに使用する場合につ
いて説明したが、同様に他の機能(オーディオ、電話の
音声による操作など)すべてに適用可能である。
FIG. 7 shows step S2 (S4, S8) of FIG.
It is a figure which shows the deformation | transformation in. Step S1 shown in this figure
In step 5, it is judged whether the output of the synthetic voice of the guidance message has been completed. If the above determination is “YES”, that is, if the output of the synthesized voice is completed, the next step S3
Proceed to (S5, 9). In step S16, if the above determination is "NO", that is, if the output of the synthetic sound is not completed, it is determined whether the control means 12 has a specific operation via the display input unit 8 and the voice control unit 7. Alternatively, it is determined whether there is a specific voice from the passenger. The above judgment is "YE
If "S", that is, if there is a specific operation or voice, the process proceeds to step S3 (S5, 9) and step S2 (S4, S).
8) is interrupted. If this determination is "NO", step S1
Go to step 5 and wait for the specific operation and voice described above. In this way, the output of the synthetic sound of the guidance message can be interrupted by the specific voice and operation of the occupant, and the synthetic sound of the next guidance message is output in the next step. Accordingly, the occupant can be released from the annoyance of the guide voice. Although the above example describes the case where it is used for navigation, it is similarly applicable to all other functions (audio, operation by voice of telephone, etc.).

【0027】[0027]

【発明の効果】以上説明したように本発明によれば、指
令音入力時間が小さければ、合成音出力時間が小さくな
るように、指令音入力時間が大きければ、合成音出力時
間が大きくなるように、出力時間調整手段を制御するこ
とにより、音声操作の間隔が乗員の特性に起因してバラ
ツキがあることや習熟度によりバラツキがあることが考
慮される。このため操作間隔や反応速度を学習すること
で習熟度のバラツキに対応できるようになる。すなわ
ち、習熟度が高くなるに伴って操作待ちがなくり、親切
な案内が可能になり、習熟者に対する案内の音声による
煩わしさが減少できる。
As described above, according to the present invention, if the command sound input time is short, the synthesized sound output time is short, and if the command sound input time is long, the synthesized sound output time is long. In addition, by controlling the output time adjusting means, it is considered that the interval of the voice operation varies due to the characteristics of the occupant and the variation depending on the proficiency level. Therefore, by learning the operation interval and the reaction speed, it becomes possible to deal with variations in the proficiency level. That is, as the proficiency level increases, there is no need to wait for an operation, and it is possible to provide kind guidance, and it is possible to reduce the annoyance of a guidance voice to an expert.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係る車載用音声認識装置の概
略構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a vehicle-mounted voice recognition device according to an embodiment of the present invention.

【図2】図1の音声制御部7の構成を示す図である。FIG. 2 is a diagram showing a configuration of a voice control unit 7 in FIG.

【図3】図1の制御手段12の一の動作を説明する図で
ある。
FIG. 3 is a diagram for explaining one operation of the control means 12 in FIG.

【図4】図3のステップS1、S2における音声操作、
音声合成の一例を説明する図である。
FIG. 4 is a voice operation in steps S1 and S2 of FIG.
It is a figure explaining an example of speech synthesis.

【図5】図4における音声操作の指令音とメッセージの
合成音との時間的関係を説明するタイムチャートであ
る。
5 is a time chart for explaining a temporal relationship between a command sound for voice operation and a synthesized sound of a message in FIG.

【図6】メッセージ記憶手段11に記憶される内容の順
位付けを説明する図である。
FIG. 6 is a diagram illustrating ranking of contents stored in a message storage unit 11.

【図7】図3のステップS2(S4、S8)における変
形を示す図である。
FIG. 7 is a diagram showing a modification in step S2 (S4, S8) of FIG.

【符号の説明】[Explanation of symbols]

1…スピーカ 2…合成部 4…マイクロフォン 5…認識部 7…音声制御部 11…メッセージ記憶手段 12…制御手段 16…出力時間調整手段 17…応答速度検出手段 DESCRIPTION OF SYMBOLS 1 ... Speaker 2 ... Synthesis | combination part 4 ... Microphone 5 ... Recognition part 7 ... Voice control part 11 ... Message storage means 12 ... Control means 16 ... Output time adjustment means 17 ... Response speed detection means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 育恵 兵庫県神戸市兵庫区御所通1丁目2番28号 富士通テン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Ikue Takahashi 1-2-2 Goshodori, Hyogo-ku, Kobe-shi, Hyogo Within Fujitsu Ten Limited

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 案内のメッセージを記憶するメッセージ
記憶手段(11)を有し、音声操作の指令音を基に前記
案内のメッセージから合成音を形成する車載用音声認識
装置において、 前記指令音が検出された後から前記メッセージ記憶手段
(11)により合成音が出力される合成音出力時間を調
整する出力時間調整手段(16)と、 前記合成音出力後から指令音が入力されるまでの指令音
入力時間を検出する応答速度検出手段(17)と、 前記指令音入力時間が小さければ、合成音出力時間が小
さくなるように、指令音入力時間が大きければ、合成音
出力時間が大きくなるように、出力時間調整手段(1
6)を制御する制御手段(12)と、 を備えることを特徴とする車載用音声認識装置。
1. A vehicle-mounted voice recognition device comprising message storage means (11) for storing a guidance message, wherein a synthesized sound is formed from the guidance message based on a voice operation command sound. Output time adjusting means (16) for adjusting a synthetic sound output time at which the synthetic sound is output by the message storage means (11) after being detected, and a command from after the synthetic sound is output until a command sound is input. A response speed detecting means (17) for detecting a sound input time, and if the command sound input time is short, the synthesized sound output time is short, and if the command sound input time is long, the synthesized sound output time is long. The output time adjusting means (1
6. A vehicle-mounted voice recognition device comprising: a control means (12) for controlling 6).
【請求項2】 制御手段(12)は前記指令音入力時間
が大き過ぎる場合には再度同一の案内のメッセージの合
成音を出力して音声操作を促すことを特徴とする、請求
項1に記載の車載用音声認識装置。
2. The control means (12) according to claim 1, wherein when the command sound input time is too long, the control means (12) again outputs a synthetic sound of the same guidance message to prompt a voice operation. Vehicle voice recognition device.
【請求項3】 前記メッセージ記憶手段(11)に記憶
されている案内のメッセージの内容に順位を付け、前記
制御手段(12)は、前記指令音入力時間が小さけれ
ば、順位の高い案内のメッセージだけを出力することを
特徴とする、請求項1に記載の車載用音声認識装置。
3. The contents of the guidance message stored in the message storage means (11) are ranked, and the control means (12) gives a higher guidance message if the command sound input time is short. The in-vehicle voice recognition device according to claim 1, wherein the voice recognition device is output only.
【請求項4】 前記制御手段(12)は、前記メッセー
ジ記憶手段(11)から案内のメッセージが合成音とし
て出力している間に、特定の操作、音声の入力がある場
合に、合成音の出力を中断して次の案内のメッセージの
合成音の出力を行うことを特徴とする、請求項1に記載
の車載用音声認識装置。
4. The control means (12) outputs a synthetic voice when a specific operation or voice input is made while the guidance message is being output from the message storage means (11) as a synthetic voice. The vehicle-mounted voice recognition device according to claim 1, wherein the output is interrupted to output a synthetic sound of the next guidance message.
JP6008724A 1994-01-28 1994-01-28 On-vehicle voice recognition device Pending JPH07219582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6008724A JPH07219582A (en) 1994-01-28 1994-01-28 On-vehicle voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6008724A JPH07219582A (en) 1994-01-28 1994-01-28 On-vehicle voice recognition device

Publications (1)

Publication Number Publication Date
JPH07219582A true JPH07219582A (en) 1995-08-18

Family

ID=11700907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6008724A Pending JPH07219582A (en) 1994-01-28 1994-01-28 On-vehicle voice recognition device

Country Status (1)

Country Link
JP (1) JPH07219582A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146991A (en) * 1994-11-17 1996-06-07 Canon Inc Information processor and its control method
JP2003029775A (en) * 2001-07-10 2003-01-31 E-Lead Electronic Co Ltd Car audio manipulator responsing in voice
JP2006208460A (en) * 2005-01-25 2006-08-10 Honda Motor Co Ltd Equipment controller of voice recognition type and vehicle
WO2011036762A1 (en) * 2009-09-25 2011-03-31 株式会社東芝 Speech interaction device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60247697A (en) * 1984-05-24 1985-12-07 株式会社東芝 Voice recognition responder
JPS6395532A (en) * 1986-10-13 1988-04-26 Nippon Telegr & Teleph Corp <Ntt> Control method for voice guidance output
JPS63153594A (en) * 1986-12-17 1988-06-25 日本電気株式会社 Voice guidance selection system
JPH03160868A (en) * 1989-11-17 1991-07-10 Nippon Telegr & Teleph Corp <Ntt> Audio response recognition system
JPH0527790A (en) * 1991-07-18 1993-02-05 Oki Electric Ind Co Ltd Voice input/output device
JPH05307461A (en) * 1992-05-01 1993-11-19 Sumitomo Electric Ind Ltd Voice data input/output device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60247697A (en) * 1984-05-24 1985-12-07 株式会社東芝 Voice recognition responder
JPS6395532A (en) * 1986-10-13 1988-04-26 Nippon Telegr & Teleph Corp <Ntt> Control method for voice guidance output
JPS63153594A (en) * 1986-12-17 1988-06-25 日本電気株式会社 Voice guidance selection system
JPH03160868A (en) * 1989-11-17 1991-07-10 Nippon Telegr & Teleph Corp <Ntt> Audio response recognition system
JPH0527790A (en) * 1991-07-18 1993-02-05 Oki Electric Ind Co Ltd Voice input/output device
JPH05307461A (en) * 1992-05-01 1993-11-19 Sumitomo Electric Ind Ltd Voice data input/output device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146991A (en) * 1994-11-17 1996-06-07 Canon Inc Information processor and its control method
JP2003029775A (en) * 2001-07-10 2003-01-31 E-Lead Electronic Co Ltd Car audio manipulator responsing in voice
JP2006208460A (en) * 2005-01-25 2006-08-10 Honda Motor Co Ltd Equipment controller of voice recognition type and vehicle
JP4722499B2 (en) * 2005-01-25 2011-07-13 本田技研工業株式会社 Voice recognition type device control apparatus and vehicle
WO2011036762A1 (en) * 2009-09-25 2011-03-31 株式会社東芝 Speech interaction device and program
US8571874B2 (en) 2009-09-25 2013-10-29 Kabushiki Kaisha Toshiba Speech interactive apparatus and computer program product using output prompts and user responses
JP5380543B2 (en) * 2009-09-25 2014-01-08 株式会社東芝 Spoken dialogue apparatus and program

Similar Documents

Publication Publication Date Title
US6230138B1 (en) Method and apparatus for controlling multiple speech engines in an in-vehicle speech recognition system
US6587824B1 (en) Selective speaker adaptation for an in-vehicle speech recognition system
EP1562180B1 (en) Speech dialogue system and method for controlling an electronic device
US6298324B1 (en) Speech recognition system with changing grammars and grammar help command
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US20070073543A1 (en) Supported method for speech dialogue used to operate vehicle functions
JP3842497B2 (en) Audio processing device
JP2003108191A (en) Voice interacting device
JP2018116130A (en) In-vehicle voice processing unit and in-vehicle voice processing method
JP2000338994A (en) Onboard speech recognition device
JP2002528751A (en) Method and apparatus for outputting information and / or messages by voice
JP2019074498A (en) Drive supporting device
JPH07219582A (en) On-vehicle voice recognition device
JP2019018729A (en) On-vehicle system
JP2018087871A (en) Voice output device
JP2004301875A (en) Speech recognition device
JP2003114691A (en) Text speech synthesizing device for vehicle
JPH0673800U (en) Voice recognizer
JP2000276187A (en) Method and device for voice recognition
JPWO2006025106A1 (en) Speech recognition system, speech recognition method and program thereof
JP2008243146A (en) Speech recognition processor and its control method
JP2007057805A (en) Information processing apparatus for vehicle
JP2003330488A (en) Voice recognition device
JP2019212168A (en) Speech recognition system and information processing device
JPH11109989A (en) Speech recognition device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030527