JP2000305596A - Speech recognition device and navigator - Google Patents

Speech recognition device and navigator

Info

Publication number
JP2000305596A
JP2000305596A JP11116647A JP11664799A JP2000305596A JP 2000305596 A JP2000305596 A JP 2000305596A JP 11116647 A JP11116647 A JP 11116647A JP 11664799 A JP11664799 A JP 11664799A JP 2000305596 A JP2000305596 A JP 2000305596A
Authority
JP
Japan
Prior art keywords
speaker
recognition
voice
speech
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11116647A
Other languages
Japanese (ja)
Inventor
Eiji Yamamoto
英二 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11116647A priority Critical patent/JP2000305596A/en
Publication of JP2000305596A publication Critical patent/JP2000305596A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable easy change of set information preliminarily registered for every user by the use of a speaker recognition function by recognizing the speech of specified speaker by a speaker recognition means, and switchingly outputting the set information of specified speaker from a storing means. SOLUTION: This recognition device 10 includes a speech recognition means, a speaker recognition means to recognize the speech of a speaker from a speech input means, and a storing means in which individually set information of multiple speakers is preliminarily stored, and switchingly outputs the set information of specified speaker from the storing means after recognizing the speech of specified speaker by the speaker recognition means. In the device 10, an input signal from a microphone 1 is supplied to an amplifier 2 which amplifies it at a specified amplification ratio, and the amplified signal by the amplifier 2 is supplied to an A/D converter 3 and converted into a digital signal. The digital signal is supplied to a CPU 4 constructed of a microcomputer executing speech recognition processing and speaker recognition processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は音声認識装置及びナ
ビゲーション装置に係わり、特に音声認識により、使用
者に適合した操作・動作条件に切り換え可能な音声認識
装置及びナビゲーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device and a navigation device, and more particularly to a voice recognition device and a navigation device capable of switching to operation and operation conditions suitable for a user by voice recognition.

【0002】[0002]

【従来の技術】従来から、音声認識装置や話者認識(識
別)(Speaker Recognition)あるいは話者照合(確認)
(Speaker Verification)の技術は広く利用され、例え
ば、音声認識装置では単語音声認識や連続音声認識、ワ
ードスポッティングといった技術が知られ、話者認識の
方法では発話すべき語彙を予め決めておくテキスト依存
型と、任意の語彙を発話すれば話者認識を行なえるテキ
スト独立型等に分類されている。
2. Description of the Related Art Conventionally, a speech recognition apparatus, a speaker recognition (identification) (Speaker Recognition) or a speaker verification (confirmation) has been used.
The technology of (Speaker Verification) is widely used. For example, techniques such as word speech recognition, continuous speech recognition, and word spotting are known in a speech recognition device. They are classified into a type and a text-independent type that can perform speaker recognition by speaking an arbitrary vocabulary.

【0003】又、マイクロコンピュータ(以下CPUと
記す)が内蔵された情報関連機器では、種々の要望条件
に対応できるようにさまざまな操作・動作条件を設定可
能にしたものが提案されている。
[0003] In addition, information-related equipment incorporating a microcomputer (hereinafter referred to as a CPU) has been proposed in which various operation and operation conditions can be set so as to be able to respond to various desired conditions.

【0004】例えば、CPUを内蔵したナビゲーション
装置においては、地図を表示する際に、表示方向を地図
の上に表示するか、あるいは東西南北の北を上に表示す
るかの選択や、操作できる機能を最小限にした初心者モ
ードにするか等の各種動作設定ができるようになってい
る。
For example, in a navigation device having a built-in CPU, when displaying a map, it is possible to select and display whether the display direction is displayed on the map or the north, east, west, north and south is displayed on top. Various operation settings such as whether or not to set a beginner mode in which is minimized can be made.

【0005】[0005]

【発明が解決しようとする課題】上述の1つのナビゲー
ション装置を複数のユーザが頻繁に入れ変わって使用す
るような状況下ではユーザが変わる毎に設定変更を行な
うために煩わしさを伴っていた。この様な設定変更はリ
モートコントローラ(以下リモコンと記す)等で変更す
ることが出来るが、設定が複雑で多くの時間を要してい
た。
In a situation where a plurality of users frequently use the above-mentioned one navigation device, the setting is changed every time the user changes, which is troublesome. Such a setting change can be changed by a remote controller (hereinafter, referred to as a remote controller) or the like, but the setting is complicated and takes a lot of time.

【0006】本発明は叙上の課題を解決しようとするも
のであり、使用者毎に予め登録されている設定情報を話
者認識機能を用いて簡単に変更することが出来る様に成
した音声認識装置及びナビゲーション装置を提供しよう
とするものである。
SUMMARY OF THE INVENTION The present invention is intended to solve the above-mentioned problem, and has a voice capable of easily changing setting information registered in advance for each user by using a speaker recognition function. An object is to provide a recognition device and a navigation device.

【0007】[0007]

【課題を解決するための手段】本発明の音声認識装置及
びナビゲーション装置は音声入力手段からの音声を認識
する音声認識手段と、音声入力手段からの話者の音声を
認識する話者認識手段と、複数の使用者の個々の設定情
報を予め格納した記憶手段とを具備し、話者認識手段に
よって特定の使用者の話者の音声を認識して上記記憶手
段から特定の使用者の設定情報を切換え出力する様に成
したものである。
According to the present invention, there is provided a voice recognition apparatus and a navigation apparatus which include a voice recognition means for recognizing a voice from a voice input means, and a speaker recognition means for recognizing a voice of a speaker from the voice input means. Storage means in which individual setting information of a plurality of users is stored in advance, wherein the speaker recognition means recognizes the voice of the speaker of the specific user, and stores the setting information of the specific user from the storage means. Is switched and output.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態とし
て、音声認識装置及びナビゲーション装置について図1
及び図2を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, as an embodiment of the present invention, a speech recognition apparatus and a navigation apparatus will be described with reference to FIG.
This will be described with reference to FIG.

【0009】図1及び図2は本発明の一形態例を示す音
声認識装置の構成を示すブロック図、図2は本発明の一
形態例を示す音声認識装置の動作を示すフローチャート
である。
FIGS. 1 and 2 are block diagrams showing the configuration of a speech recognition apparatus according to an embodiment of the present invention, and FIG. 2 is a flowchart showing the operation of the speech recognition apparatus according to an embodiment of the present invention.

【0010】図1に於いて、音声認識装置10は音声を
電気信号に変換するマイクロホン1からのマイク入力信
号を所定の増幅率で増幅するアンプ2に供給し、アンプ
2で増幅された増幅信号をアナログ−デジタル変換器
(A/D変換器)に供給してデジタル信号に変換し、こ
のデジタル信号は音声認識処理及び話者認識処理を実行
するマイクロコンピュータで構成された演算部(以下C
PUと記す)4に供給される。
In FIG. 1, a voice recognition device 10 supplies a microphone input signal from a microphone 1 for converting a voice into an electric signal to an amplifier 2 for amplifying the signal at a predetermined amplification factor. Is supplied to an analog-to-digital converter (A / D converter) to convert the digital signal into a digital signal.
4).

【0011】CPU4にはワーク用のメモリとして使用
されるRAM5、音声認識、話者認識処理のプログラム
及びデータが格納されたROM6と、話者別情報設定の
ための不揮発性メモリ9と、CPU4に発話開始を知ら
せるトークスイッチ8がバスを介して接続されると共に
動作コマンドの入力部T1 及び認識結果を出力をする認
識出力部T2 が外部インタフェース7に接続され、外部
インタフェース7を介してCPU4に接続されている。
The CPU 4 includes a RAM 5 used as a work memory, a ROM 6 storing programs and data for voice recognition and speaker recognition processing, a non-volatile memory 9 for setting speaker-specific information, and a CPU 4. A talk switch 8 for notifying the start of utterance is connected via a bus, and an input section T 1 for operation commands and a recognition output section T 2 for outputting a recognition result are connected to an external interface 7. It is connected to the.

【0012】上述の音声認識装置10の動作を以下説明
する。先ず、音声認識装置10の使用者はコマンド入力
部T1 から図2の第1ステップS1 に示す様に音声認識
を行なうか、話者認識う行なうかのコマンドを指示す
る。
The operation of the above speech recognition apparatus 10 will be described below. First, the user of the speech recognition device 10 indicates whether the command or perform speech recognition as shown from the command input unit T 1 in the first step S 1 in FIG. 2, performing the Hare recognition speaker.

【0013】ROM6には音声認識と話者認識の両方の
プログラム及び認識パラメータが入っているのでコマン
ド入力部T1 及び外部インタフェース7及びCPU4を
介して音声認識又は/及び話者認識を選択することが出
来る。
[0013] selecting a speech recognition and / or speaker recognition via the command input unit T 1 and the external interface 7 and CPU4 because it contains both the program and recognition parameters of speaker recognition and speech recognition to ROM6 Can be done.

【0014】従来技術で説明した様に音声認識には単語
音声認識や連続音声認識、ワードスポッティングといっ
た技術があり、本発明はこれらの方式の違いは関係なく
用いることができる。また、話者認識は話者識別と話者
照合に分けることができるが、話者を特定すると言う意
味では、どちらを用いてもかまわない。
As described in the prior art, there are techniques such as word speech recognition, continuous speech recognition, and word spotting in speech recognition, and the present invention can be used regardless of the difference between these methods. Further, speaker recognition can be divided into speaker identification and speaker verification, and either one may be used in the sense of specifying a speaker.

【0015】次に、トークスイッチ8を操作して、CP
U4に対し、これから音声を入力することを知らせると
同時に、第2ステップS2 の様にマイクロホン1から音
声を入力する。
Next, by operating the talk switch 8, the CP
U4 to, at the same time inform the inputting therefrom voice, inputs a sound from the microphone 1 as the second step S 2.

【0016】入力された音声信号はアンプ2で所定のレ
ベルまで増幅された後にA/D変換器3でデジタル信号
に変換されてCPU4に供給される。デジタル信号に変
換された音声信号はCPU4で音声認識処理又は/及び
話者認識処理が行なわれる。
The input audio signal is amplified to a predetermined level by the amplifier 2, converted to a digital signal by the A / D converter 3, and supplied to the CPU 4. The voice signal converted into the digital signal is subjected to voice recognition processing and / or speaker recognition processing by the CPU 4.

【0017】即ち、第2ステップS2 で音声入力待機状
態にあったCPU4はマイクロホン1からの音声信号が
入力された場合に、第3ステップS3 のコマンド判定処
理に入って、第1ステップS1 で指示されたコマンドに
従って音声認識を行なうか、話者認識を行なうかを判定
する。
[0017] That is, CPU 4 which has been in the voice input standby state in the second step S 2 in the case where the audio signal from the microphone 1 is input, enters the command determination processing of the third step S 3, the first step S It is determined whether to perform voice recognition or speaker recognition in accordance with the command specified in 1 .

【0018】音声認識処理が選択された場合は第4ステ
ップS4 でCPU4は音声認識処理を行い、第5ステッ
プS5 に示す様に認識処理結果は外部インタフェース7
を介して認識出力部T2 に出力する。
[0018] When the speech recognition process is selected in the fourth step S 4 CPU 4 performs speech recognition processing, the fifth recognition processing result as shown in Step S 5 is the external interface 7
And outputs the recognition output section T 2 via the.

【0019】第3ステップS3 で話者認識コマンドが選
択されて話者認識処理を施す場合には第6ステップS6
に進んで話者認識処理が行なわれ、処理結果は第5ステ
ップS5 の認識結果出力を認識出力部T2 に出力する。
第5ステップS5 終了後は第1ステップS1 に戻り、上
述説明の処理が繰り返される。
If a speaker recognition command is selected in the third step S 3 to perform speaker recognition processing, a sixth step S 6
Proceed speaker recognition process is performed in the processing result and outputs the recognition result output of the fifth step S 5 the recognition output section T 2 in.
The fifth step S 5 after the end returns to the first step S 1, the above process description is repeated.

【0020】上述の第6ステップS6 の話者認識処理で
は不揮発性メモリ9に予め登録されている話者リストか
ら最も確からしい話者を選択するが、話者別に音声認識
語彙がある場合には、不揮発性メモリ9にこれら語彙を
登録しておく様にしてもよい。
[0020] In the case in speaker recognition processing of the sixth step S 6 of the above is to select the most probable speaker from the speaker list that is registered in advance in the non-volatile memory 9, there is a speaker separately from voice recognition vocabulary The vocabulary may be registered in the nonvolatile memory 9.

【0021】更に、話者認識処理に於いて、テキスト独
立型であれば話者認識及び音声認識を同時に実行するこ
とが出来るので図2のフローチャートに於いて第1ステ
ップS1 の動作コマンド入力及び第3ステップS3 のコ
マンド判定処理を省くことが出来る。
Furthermore, in the speaker recognition process, the operation command input and text-independent and it first at the flow chart of FIG speaker recognition and so able to perform speech recognition simultaneously if Step S 1 it is possible to omit the command determination processing of the third step S 3.

【0022】本発明の音声認識装置10では話者を特定
する機能を持たせることにより、音声認識の語彙を話者
別に切り換えたり、認識率を向上させるためのトレーニ
ングデータを個別に持たせ、それらを話者認識によって
自動的に切り換えることが可能になる。即ち、音声認識
装置に話者認識機能を持たせることで、話者が誰である
かを容易に判断し、例えば語彙を話者別に切り換えて話
者にとって最も適した動作、環境に設定でき、他の動作
コマンドを用いて一つ毎に設定し直すことに比べて容易
に且つ自然に使用者に最適な状態で使用することが可能
と成る。
The speech recognition apparatus 10 of the present invention has a function of specifying a speaker, so that the vocabulary of speech recognition can be switched for each speaker, and training data for improving the recognition rate can be individually provided. Can be automatically switched by speaker recognition. That is, by providing the voice recognition device with a speaker recognition function, it is possible to easily determine who the speaker is, for example, by switching the vocabulary for each speaker, it is possible to set the operation and environment most suitable for the speaker, This makes it easier and more natural to use the device in a state that is optimal for the user as compared with the case where another operation command is used to reset the settings one by one.

【0023】次に図3乃至図5によって、上述の音声認
識装置を有するナビゲーション装置を説明する。図3は
本発明の他の形態例を示すナビゲーション装置の構成を
示すブロック図、図4は本発明の他の形態例を示すナビ
ゲーション装置のフローチャート、図3はユーザ別動作
条件設定メモリの説明図である。
Next, a navigation device having the above-described voice recognition device will be described with reference to FIGS. FIG. 3 is a block diagram showing a configuration of a navigation device showing another embodiment of the present invention, FIG. 4 is a flowchart of a navigation device showing another embodiment of the present invention, and FIG. 3 is an explanatory diagram of an operation condition setting memory for each user. It is.

【0024】図3の音声認識装置を有するナビゲーショ
ン装置は図1で説明したと同様の音声認識装置10とナ
ビゲーション装置21並びにディスプレイ装置23で構
成されている。
The navigation device having the voice recognition device shown in FIG. 3 comprises a voice recognition device 10 similar to that described with reference to FIG. 1, a navigation device 21, and a display device 23.

【0025】音声認識装置10は図1と同一構成である
ので同一部分には同一符号を付して重複説明は省略す
る。
Since the voice recognition apparatus 10 has the same configuration as that of FIG. 1, the same portions are denoted by the same reference numerals, and the description thereof will not be repeated.

【0026】ナビゲーション装置21はメインコンピュ
ータ等で構成された主演算部(以下M−CPUと記す)
19を有し、GSP用アンテナ25からの電波を現在位
置検出回路18を介してM−CPU19に供給する。
The navigation device 21 is a main processing unit (hereinafter referred to as an M-CPU) composed of a main computer or the like.
And supplies the radio wave from the GSP antenna 25 to the M-CPU 19 via the current position detection circuit 18.

【0027】M−CPU19には音声認識装置10の外
部インタフェース7及び認識出力部T2 を介して音声認
識出力が供給される。
[0027] The M-CPU 19 speech recognition output is supplied via the external interface 7, and recognition output section T 2 of the speech recognition device 10.

【0028】更に、CPU19にはワーク用のRAM1
5及びROM16、動作設定項目を格納した不揮発性メ
モリ20、地図ディスクを駆動するCD−ROMドライ
ブ回路17、車速センサ14、リモコン受光部13等が
バスを介して接続されている。ナビゲーション装置の各
種操作はリモコン24と、音声認識装置10で処理され
る音声インタフェースを介して行なわれる。
Further, the CPU 19 has a work RAM 1.
5 and a ROM 16, a nonvolatile memory 20 storing operation setting items, a CD-ROM drive circuit 17 for driving a map disk, a vehicle speed sensor 14, a remote control light receiving unit 13, and the like are connected via a bus. Various operations of the navigation device are performed via the remote controller 24 and a voice interface processed by the voice recognition device 10.

【0029】M−CPU19からはCD−ROMドライ
ブ回路17で読み出したCD−ROMからの地図情報を
映像信号生成回路12で映像信号としてディスプレイ装
置23に出力すると共に音声合成回路11で合成した音
声合成音をスピーカ22を介して放音する様に成されて
いる。
From the M-CPU 19, the map information read from the CD-ROM read by the CD-ROM drive circuit 17 is output as a video signal by the video signal generation circuit 12 to the display device 23 and is synthesized by the voice synthesis circuit 11. The sound is emitted through the speaker 22.

【0030】このように構成されたナビゲーション装置
の動作を以下に説明する。なお、図1に示した音声認識
装置10と共通する部分の説明は省略する。
The operation of the navigation device thus configured will be described below. The description of the parts common to the voice recognition device 10 shown in FIG. 1 will be omitted.

【0031】ナビゲーション装置21と音声認識装置1
0の電源を投入するとCPU4とM−CPU19は所定
の初期化処理を行ない、それぞれ動作状態となる。ナビ
ゲーション装置21はGPS用アンテナ25で受信した
衛星からの電波を基に、現在位置検出回路18と車速セ
ンサ14で自車位置を計算し、緯度経度を求める。求め
た経度経度付近の地図データをCD−ROMドライブ1
7で地図ディスクから読み出し、映像信号生成回路12
で映像信号を生成し、ディスプレイ装置23に表示す
る。これら一連の作業はM−CPU19のROM16に
内蔵されているプログラムによって実行される。
Navigation device 21 and voice recognition device 1
When the power of 0 is turned on, the CPU 4 and the M-CPU 19 perform a predetermined initialization process, and are brought into operation states. The navigation device 21 calculates the current vehicle position by the current position detection circuit 18 and the vehicle speed sensor 14 based on the radio wave from the satellite received by the GPS antenna 25, and obtains the latitude and longitude. CD-ROM Drive 1
7 reads out from the map disk and generates a video signal generation circuit 12
To generate a video signal and display it on the display device 23. These series of operations are executed by a program stored in the ROM 16 of the M-CPU 19.

【0032】RAM15は地図データから映像信号を生
成する際に、ベクトルデータからビットマップデータへ
の変換を行なったり、現在の動作状態を記憶したりする
作業用のメモリとして使用する。
When generating a video signal from map data, the RAM 15 is used as a work memory for converting vector data into bitmap data and storing a current operation state.

【0033】ナビゲーション装置21の操作手段とし
て、リモコン24とリモコン受光部13から構成される
リモコンインタフェースと、音声認識装置10で処理さ
れる音声インタフェースの2種類を有する。これら2種
類の使い分けは、停車中はリモコンインタフェースと音
声インタフェースを併用するが、走行中は安全のために
音声インタフェースを使用する。音声インタフェースを
使用する際のナビゲーション装置からの応答は、主に音
声合成回路11で生成される音声合成音を用いる。
The navigation device 21 has two types of operation means, a remote control interface composed of a remote control 24 and a remote control light receiving unit 13, and a voice interface processed by the voice recognition device 10. These two types of use use both a remote control interface and a voice interface when the vehicle is stopped, but use a voice interface for safety during traveling. A response from the navigation device when using the voice interface mainly uses a synthesized voice generated by the voice synthesis circuit 11.

【0034】一般的に、ナビゲーション装置には使用者
の好みに合わせて動作条件を設定するしくみが内蔵され
ている。例えば地図を表示する際、進行方向を上に表示
するか、あるいは東西南北の北を上に表示するかの選択
や、操作できる機能を最小限に限定した初心者モード
か、機能の全てを使用可能な通常モードかの選択などが
ある。ナビゲーション装置の使用者が複数名考えられる
場合は、おのおのこれらの設定が可能で、簡単に切り換
えられるようになっているほうが良い。従来のナビゲー
ションシステムにおいても、リモコン等の話者認識以外
の手段で設定を変更することは可能であった。本発明に
おいては音声認識装置10の話者認識機能を使うことに
よって、使用者別の動作設定を簡単に切り換えることが
出来る。
Generally, the navigation device has a built-in mechanism for setting operating conditions according to the user's preference. For example, when displaying a map, you can select whether to display the direction of travel up, north, north, east, west, north, east, west, beginner mode with minimal functions, or all functions Selection of the normal mode. When a plurality of users of the navigation device are conceivable, it is preferable that each of these settings can be made so that the switching can be easily performed. Also in the conventional navigation system, it is possible to change the setting by means other than speaker recognition such as a remote controller. In the present invention, by using the speaker recognition function of the voice recognition device 10, the operation setting for each user can be easily switched.

【0035】図4はナビゲーション装置の話者認識処理
を示すフローチャートである。
FIG. 4 is a flowchart showing the speaker recognition processing of the navigation device.

【0036】図4に於いて、第1ステップST1 では動
作状態にある音声認識装置10とナビゲーション装置2
1に対して、音声インタフェース又はリモコンインタフ
ェースかのいずれかを選択する音声/リモコンによるコ
マンド入力が使用者によって与えられる。
[0036] In FIG. 4, the first speech recognition apparatus in step ST 1 the operating state 10 and the navigation apparatus 2
For 1, the user gives a command input by voice / remote control for selecting either the voice interface or the remote control interface.

【0037】M−CPU19は第2ステップST2 でナ
ビゲーションのコマンドかユーザ変更コマンドかのコマ
ンド判定を行なう。
[0037] M-CPU 19 is one of performing a command determination command or a user change command for navigation in the second step ST 2.

【0038】第2ステップST2 でナビゲーション装置
21を操作する場合は第3ステップST3 に進み通常の
ナビゲーション動作を行なう。
[0038] When operating the navigation device 21 in the second step ST 2 performs the normal navigation operation proceeds to a third step ST 3.

【0039】第2ステップST2 でユーザ変更コマンド
があった場合には、第4ステップST4 で話者認識が行
なわれ、その結果にしたがってユーザ別動作条件の設定
変更が第5ステップST5 で行なわれる。
If there is a user change command in the second step ST 2 , speaker recognition is performed in a fourth step ST 4 , and a setting change of the operating condition for each user is made in a fifth step ST 5 according to the result. Done.

【0040】第3ステップST3 及び第5ステップST
5 の終了後は第1ステップST1 に戻されて、上述の処
理が繰り返される。
Third step ST 3 and fifth step ST
5 after the end is returned to the first step ST 1, the above-described processing is repeated.

【0041】上述の第5ステップST5 でのユーザ別動
作条件の設定変更をする場合に不揮発性メモリに格納し
た動作設定項目の1例を図5に示す。
[0041] FIG. 5 shows an example of the operation setting items stored in non-volatile memory when the setting change of the user-specific operating conditions in the fifth step ST 5 above.

【0042】図5ではユーザIDと、ナビモード、地図
画面、ガイド音声の3種類の動作設定項目がメモリ上に
書き込まれている。
In FIG. 5, three kinds of operation setting items of a user ID, a navigation mode, a map screen, and a guide voice are written in the memory.

【0043】ユーザIDは話者認識の結果から、動作設
定項目を選び出すキーとして使用する。動作設定項目は
図4の通常のナビゲーションの第3ステップST3 で使
用される。また、このような設定はナビゲーション装置
の電源が切られた際にも消去されないように、不揮発性
メモリ20に記憶される。
The user ID is used as a key for selecting an operation setting item from the result of speaker recognition. Operation setting items are used in the third step ST 3 the normal navigation of FIG. Such settings are stored in the non-volatile memory 20 so that they are not deleted even when the power of the navigation device is turned off.

【0044】本発明のナビゲーション装置によれば使用
者別の設定条件を話者認識を用いて容易に切換えること
が出来るので、使用者に適合した最適な動作及び操作環
境機器を働かせることが可能となる。
According to the navigation device of the present invention, the setting conditions for each user can be easily switched using the speaker recognition, so that the optimum operation and operation environment equipment suitable for the user can be operated. Become.

【0045】[0045]

【発明の効果】本発明の音声認識装置及びナビゲーショ
ン装置によれば、これら装置に話者認識機能を付加する
ことによって、話者が誰であるか音声によって判断で
き、その話者(使用者)にとって最適な動作環境設定に
自動で切換えを行なうことにより、他の手段を用いて設
定し直すのに比べ、容易にかつ自然に装置を最適な状態
で使用することができるようになる。特にナビゲーショ
ン装置のような音声認識装置を搭載することに必然的が
あり、且つユーザインタフェースが階層化されているよ
うな比較的使用方法が複雑な装置にといては、操作の熟
練度によって異なった操作手順を提供し、最適な動作環
境設定に切り換える手段としては最適である。
According to the speech recognition device and the navigation device of the present invention, by adding a speaker recognition function to these devices, it is possible to determine who the speaker is by voice, and the speaker (user) is used. By automatically switching to the optimum operating environment setting for the user, the apparatus can be used easily and naturally in the optimum state, as compared with resetting using another means. In particular, for a device which is inevitably equipped with a voice recognition device such as a navigation device and has a relatively complicated method of use, such as a hierarchical user interface, the operation differs depending on the skill level of the operation. This is an optimal means for providing an operation procedure and switching to an optimal operation environment setting.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一形態例を示す音声認識装置のブロッ
ク図である。
FIG. 1 is a block diagram of a speech recognition device showing one embodiment of the present invention.

【図2】本発明の一形態例を示す音声認識装置のフロー
チャートである。
FIG. 2 is a flowchart of a voice recognition device according to an embodiment of the present invention.

【図3】本発明の他の形態例を示すナビゲーション装置
のブロック図である。
FIG. 3 is a block diagram of a navigation device showing another embodiment of the present invention.

【図4】本発明の他の形態例を示すナビゲーション装置
のフローチャートである。
FIG. 4 is a flowchart of a navigation device showing another embodiment of the present invention.

【図5】本発明のナビゲーション装置に用いるユーザ別
動作条件設定メモリの説明図である。
FIG. 5 is an explanatory diagram of a user-specific operation condition setting memory used in the navigation device of the present invention.

【符号の説明】[Explanation of symbols]

4‥‥演算部(CPU)、9,20‥‥不揮発性メモ
リ、10‥‥音声認識装置、19‥‥主演算部(M−C
PU)、21‥‥ナビゲーション装置、22‥‥スピー
カ、23‥‥ディスプレイ装置
4 operation unit (CPU), 9, 20 nonvolatile memory, 10 speech recognition device, 19 main operation unit (MC
PU), 21 navigation device, 22 speaker, 23 display device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 音声入力手段からの音声を認識する音声
認識手段と、 上記音声入力手段からの話者の音声を認識する話者認識
手段と、 複数の使用者の個々の設定情報を予め格納した記憶手段
とを具備し、 上記話者認識手段によって特定の使用者の話者の音声を
認識して上記記憶手段から特定の使用者の設定情報を切
換え出力する様に成したことを特徴とする音声認識装
置。
1. A voice recognition means for recognizing a voice from a voice input means, a speaker recognition means for recognizing a voice of a speaker from the voice input means, and individual setting information of a plurality of users are stored in advance. Storage means, wherein the speaker recognition means recognizes the voice of the speaker of the specific user and switches and outputs the setting information of the specific user from the storage means. Voice recognition device.
【請求項2】 音声入力手段からの音声を認識する音声
認識手段と、 上記音声入力手段からの話者の音声を認識する話者認識
手段と、 複数の使用者の個々の設定情報を予め格納した記憶手段
とを具備し、 上記話者認識手段によって特定の使用者の話者の音声を
認識して上記記憶手段から特定の使用者の設定情報を切
換え出力する様に成したことを特徴とするナビゲーショ
ン装置。
2. A voice recognition means for recognizing a voice from a voice input means, a speaker recognition means for recognizing a voice of a speaker from the voice input means, and individual setting information of a plurality of users are stored in advance. Storage means, wherein the speaker recognition means recognizes the voice of the speaker of the specific user and switches and outputs the setting information of the specific user from the storage means. Navigation device.
JP11116647A 1999-04-23 1999-04-23 Speech recognition device and navigator Pending JP2000305596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11116647A JP2000305596A (en) 1999-04-23 1999-04-23 Speech recognition device and navigator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11116647A JP2000305596A (en) 1999-04-23 1999-04-23 Speech recognition device and navigator

Publications (1)

Publication Number Publication Date
JP2000305596A true JP2000305596A (en) 2000-11-02

Family

ID=14692412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11116647A Pending JP2000305596A (en) 1999-04-23 1999-04-23 Speech recognition device and navigator

Country Status (1)

Country Link
JP (1) JP2000305596A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139329A (en) * 2000-11-06 2002-05-17 Mazda Motor Corp Vehicular display processing method, vehicular display processing device and computer-readable storage medium
JP2003337593A (en) * 2002-05-17 2003-11-28 Victor Co Of Japan Ltd Remote controller and electronic equipment
JP2005157894A (en) * 2003-11-27 2005-06-16 Sony Corp Information processor, and method and program for providing service environment
JP2006209210A (en) * 2005-01-25 2006-08-10 Denso Corp Information retrieving device and navigation device for vehicle
JP2007334301A (en) * 2006-06-16 2007-12-27 Storz Endoskop Produktions Gmbh Speech recognition system with user profile management component
JP2009086132A (en) * 2007-09-28 2009-04-23 Pioneer Electronic Corp Speech recognition device, navigation device provided with speech recognition device, electronic equipment provided with speech recognition device, speech recognition method, speech recognition program and recording medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139329A (en) * 2000-11-06 2002-05-17 Mazda Motor Corp Vehicular display processing method, vehicular display processing device and computer-readable storage medium
JP2003337593A (en) * 2002-05-17 2003-11-28 Victor Co Of Japan Ltd Remote controller and electronic equipment
JP2005157894A (en) * 2003-11-27 2005-06-16 Sony Corp Information processor, and method and program for providing service environment
JP2006209210A (en) * 2005-01-25 2006-08-10 Denso Corp Information retrieving device and navigation device for vehicle
JP2007334301A (en) * 2006-06-16 2007-12-27 Storz Endoskop Produktions Gmbh Speech recognition system with user profile management component
JP4699411B2 (en) * 2006-06-16 2011-06-08 シュトルツ・エンドスコープ・プロドゥクツィオンス・ゲーエムベーハー Speech recognition system with user profile management component
US8015014B2 (en) 2006-06-16 2011-09-06 Storz Endoskop Produktions Gmbh Speech recognition system with user profiles management component
JP2009086132A (en) * 2007-09-28 2009-04-23 Pioneer Electronic Corp Speech recognition device, navigation device provided with speech recognition device, electronic equipment provided with speech recognition device, speech recognition method, speech recognition program and recording medium

Similar Documents

Publication Publication Date Title
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US20180277119A1 (en) Speech dialogue device and speech dialogue method
US7548861B2 (en) Speech recognition system
JP5014662B2 (en) On-vehicle speech recognition apparatus and speech recognition method
US7805306B2 (en) Voice guidance device and navigation device with the same
US20130166290A1 (en) Voice recognition apparatus
WO2007145003A1 (en) In-vehicle information device
JP2009251388A (en) Native language utterance device
JP2000305596A (en) Speech recognition device and navigator
JP4410378B2 (en) Speech recognition method and apparatus
JP2001042891A (en) Speech recognition apparatus, speech recognition mounting device, speech recognition mounting system, speech recognition method, and memory medium
JP4268325B2 (en) Voice operation phrase presentation device and presentation method
JP2008243146A (en) Speech recognition processor and its control method
JP5037041B2 (en) On-vehicle voice recognition device and voice command registration method
JP2011180416A (en) Voice synthesis device, voice synthesis method and car navigation system
JP2001296890A (en) On-vehicle equipment handling proficiency discrimination device and on-vehicle voice outputting device
JP4093394B2 (en) Voice recognition device
KR102594683B1 (en) Electronic device for speech recognition and method thereof
JPH0944183A (en) Evel display device, speech recognition device, and navigation device
JP2877045B2 (en) Voice recognition device, voice recognition method, navigation device, navigation method, and automobile
JP2000250592A (en) Speech recognizing operation system
JP2008152043A (en) Speech recognition apparatus and method
JP2002350167A (en) Car navigation system
JPH10198549A (en) Information processor, navigation device, speech inputting method and recording medium
JP2006078791A (en) Voice recognition device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040413