JPWO2010070781A1 - ナビゲーション装置 - Google Patents

ナビゲーション装置 Download PDF

Info

Publication number
JPWO2010070781A1
JPWO2010070781A1 JP2010542807A JP2010542807A JPWO2010070781A1 JP WO2010070781 A1 JPWO2010070781 A1 JP WO2010070781A1 JP 2010542807 A JP2010542807 A JP 2010542807A JP 2010542807 A JP2010542807 A JP 2010542807A JP WO2010070781 A1 JPWO2010070781 A1 JP WO2010070781A1
Authority
JP
Japan
Prior art keywords
voice
voice recognition
unit
guidance
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010542807A
Other languages
English (en)
Other versions
JP5355591B2 (ja
Inventor
谷口 琢也
琢也 谷口
貴久 青柳
貴久 青柳
善彦 森
善彦 森
朝子 表
朝子 表
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010542807A priority Critical patent/JP5355591B2/ja
Publication of JPWO2010070781A1 publication Critical patent/JPWO2010070781A1/ja
Application granted granted Critical
Publication of JP5355591B2 publication Critical patent/JP5355591B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/34Muting amplifier when no signal is present or when only weak signals are present, or caused by the presence of noise signals, e.g. squelch systems
    • H03G3/342Muting when some special characteristic of the signal is sensed which distinguishes it from noise, e.g. using speech detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computational Linguistics (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Navigation (AREA)

Abstract

外部通信機器との間で信号を送受信する通信モジュール11と、外部通信機器から通信モジュール11を介して送られてくるプッシュトーン信号を識別するトーン信号識別部42と、トーン信号識別部42で識別された情報に応じて、外部通信機器から通信モジュール11を介して送られてくる音声信号に対する音声認識を行う音声認識部41を備えている。

Description

本発明は、ユーザを目的地まで案内するナビゲーション装置に関し、特に、通話相手の音声を認識することにより地点などを自動的に抽出する技術に関する。
従来、音声認識機能を備えたナビゲーション装置が知られている。このナビゲーション装置においては、音声認識中は、認識させたい音声以外の音声が誤って認識されるのを防止するために、ハンズフリー電話をかけることができなかった。このような問題を解消するために、特許文献1は、ハンズフリー電話中であっても、音声認識を可能とした車載用情報装置を開示している。
この車載用情報装置は、通信網を介して相手側と通信可能な通信部と、マイクロフォンを介して入力される音声を認識する音声認識部と、音声認識部で認識された音声に基づき道路情報を案内するナビゲーション機能および通信部の通信動作を制御するメイン処理部と、マイクロフォンを介して入力される音声を音声認識部の音声認識用として用いるか否かを切り換える認識用スイッチを備え、通信部はデータ通信および音声通話可能な携帯電話からなり、マイクロフォンを介して入力される音声は、音声通話用および音声認識用として携帯電話および音声認識部のそれぞれに送られ、メイン処理部は、携帯電話の音声通話中に認識用スイッチが音声認識側に切り換えられるとナビゲーション機能を音声認識部で認識された音声に基づき実行させ、認識用スイッチが復帰側に切り換えられると携帯電話の音声通話を復帰させる。
特開2002−257574号公報
上述した特許文献1に開示された車載用情報装置では、ハンズフリー通話中にナビゲーション装置の使用者の音声を認識することはできるが、通話相手の音声を認識することはできない。そのため、通話相手からナビゲーション装置に登録したい地点情報を直接に音声認識させることはできない。したがって、ナビゲーション装置の使用者は、通話相手から聞いた地点名称などを覚えておき、改めてナビゲーション装置の使用者が音声認識させる必要があるので手間がかかる。そこで、通話相手から聞いた地点情報を直接に認識できるナビゲーション装置の開発が望まれている。
この発明は、上述した要請に応えるためになされたものであり、その課題は、通話相手の音声を認識して地点情報または個人情報などを取得できるナビゲーション装置を提供することにある。
この発明に係るナビゲーション装置は、上記課題を解決するために、外部通信機器との間で信号を送受信する通信モジュールと、外部通信機器から通信モジュールを介して送られてくるプッシュトーン信号を識別するトーン信号識別部と、トーン信号識別部で識別された情報に応じて、外部通信機器から通信モジュールを介して送られてくる音声信号に対する音声認識を行う音声認識部を備えている。
この発明に係るナビゲーション装置によれば、通話相手の外部通信機器から発信されたプッシュトーン信号にしたがって音声認識を行うことができるので、通話相手からの音声に対して音声認識を行うことにより、通話相手の意図通りの地点情報または個人情報などを直接に取得することができる。その結果、ナビゲーション装置の使用者は、通話相手から聞いた情報を覚えたりメモしたりする手間を省くことができる。また、プッシュトーン信号に応じた情報を利用して音声認識を行うことができるので、音声認識のみを用いて音声認識を行う場合よりも誤認識を起こす確率を下げることができる。
この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理の中の使用者の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態2に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態3に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。このナビゲーション装置は、ナビゲーションユニット1、マイクロフォン2、GPS(Global Positioning System)受信機3、タッチパネル4、モニタ5およびスピーカ6を備えている。このナビゲーションユニット1には、携帯電話7が接続されている。
ナビゲーションユニット1は、ナビゲーション装置の中核をなし、その全体を制御する。このナビゲーションユニット1の詳細は後述する。マイクロフォン2は、送話用と音声認識用とに兼用される。このマイクロフォン2は、入力された音声を電気信号に変換し、音声信号としてナビゲーションユニット1に送る。
GPS受信機3は、GPS衛星から送信される電波を受信し、自己の現在位置を検出する。このGPS受信機3で検出された自己の現在位置は、現在位置信号としてナビゲーションユニット1に送られる。タッチパネル4は、モニタ5の画面上に載置されており、タッチされた位置を検出する。この検出された位置は、タッチパネルデータとしてナビゲーションユニット1に送られる。
モニタ5は、例えば液晶パネルから構成されており、ナビゲーションユニット1から送られてくる映像信号に基づき種々の画像を表示する。スピーカ6は、受話用と音声案内用とに兼用される。このスピーカ6は、ナビゲーションユニット1から送られてくる音声信号を音声に変換して出力する。
携帯電話7は、ナビゲーションユニット1との間で音声またはデータを含む信号を送受するとともに、通話相手の携帯電話8との間で通信を行う。これら携帯電話7および携帯電話8は、この発明の外部通信機器に対応する。
次に、ナビゲーションユニット1の詳細を説明する。ナビゲーションユニット1は、通信モジュール11、DSP(Digital Signal Processor)12、補助記憶装置13、アンプ14、電話認識ボタン15、音声認識ボタン16、取消ボタン17およびCPU(Central Processing Unit)18を備えている。
通信モジュール11は、Bluetoothモジュールまたは電話コネクタから構成されており、受話部21および送話部22を備えている。受話部21は、携帯電話7から送られてくる信号を受け取り、受話信号としてDSP12およびCPU18に送る。送話部22は、DSP12から送られてくる送話信号を受け取り、携帯電話7に送る。
DSP12は、送話音声および受話音声に、ナビゲーション機能などのための案内音声を混ぜる。これにより、通話相手に対して送話音声および案内音声を送ることができるとともに、このナビゲーション装置の使用者(以下、単に「使用者」という)に対して受話音声および案内音声を出力することができる。
このDSP12は、第1減衰器31、第1混合器32、エコーキャンセラ33、第2減衰器34および第2混合器35を備えている。第1減衰器31および第2減衰器34は、この発明の音量制御部に対応する。
第1減衰器31は、CPU18からの指示に応じて、通信モジュール11の受話部21から送られてくる受話信号を減衰させ、第1混合器32に送る。この第1減衰器31により、受話音声の音量を小さくすることができるので、使用者の声に対する音声認識における誤認識を防止することができ、また、使用者に対する案内音声の明瞭度を上げることができる。
第1混合器32は、第1減衰器31から送られてくる受話信号とCPU18から送られてくる案内音声信号とを混合し、エコーキャンセラ33およびアンプ14に送る。エコーキャンセラ33は、マイクロフォン2から送られてくる音声信号から、スピーカ6から出力されてマイクロフォン2に回り込んだ音の成分を除去し、第2減衰器34およびCPU18に送る。このエコーキャンセラ33により、ハンズフリー通話時などにおいて、送話音声にスピーカ6から出力される案内音声および受話音声が入ることを防ぐことができる。同時にこのエコーキャンセラ33は、スピーカ6から出力された受話音声がCPU18に送られることも防ぐことができ、その結果、ハンズフリー通話中の使用者の声に対する音声認識において、誤認識を防止することができる。
第2減衰器34は、CPU18からの指示に応じて、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。この第2減衰器34により、送話音声の音量を小さくすることができるので、音声認識中に、通話相手が案内音声を聞きやすくすることができる。第2混合器35は、第2減衰器34から送られてくる信号とCPU18から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22に送る。
補助記憶装置13は、例えばHDD(Hard Disk Drive)から構成されており、ナビゲーション用の地図データおよび音声認識用の辞書データを記憶している。この補助記憶装置13に記憶されている地図データおよび辞書データは、必要に応じて、CPU18によってアクセスされる。アンプ14は、DSP12の第1混合器32から送られてくる受話信号と案内音声信号とが混合された信号を増幅し、音声信号としてスピーカ6に送る。
電話認識ボタン15は、通話相手の声に対する音声認識を開始させるために使用される。この電話認識ボタン15の押下によって発生された電話認識ボタンデータは、CPU18に送られる。音声認識ボタン16は、使用者の声に対する音声認識を開始させるために使用される。この音声認識ボタン16の押下によって発生された音声認識ボタンデータは、CPU18に送られる。取消ボタン17は、音声認識の結果を取り消すために使用される。この取消ボタン17の押下によって発生された取消ボタンデータは、CPU18に送られる。
CPU18は、音声認識部41、トーン信号識別部42、操作制御部43、音声案内出力部44、ナビゲーション部45および画像処理部46を備えている。これら各構成要素は、CPU18で実行されるプログラムによって実現されている。なお、これら各構成要素は、ハードウェアによって構成することもできる。
音声認識部41は、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行する。また、音声認識部41は、マイクロフォン2からDSP12のエコーキャンセラ33を介して送られてくる音声信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行する。この音声認識部41における音声認識結果、つまり音声認識を実行することにより得られた文字またはコマンドなどは、音声認識データとして操作制御部43に送られる。
トーン信号識別部42は、携帯電話7から通信モジュール11の受話部21を介して送られてくるプッシュトーン信号を解析し、信号の周波数によって携帯電話7に接続された携帯電話8の押されたボタンを認識する。このトーン信号識別部42で認識されたボタンを表すトーン信号識別データは、操作制御部43に送られる。
操作制御部43は、音声認識部41から送られてくる音声認識データ、トーン信号識別部42から送られてくるトーン信号識別データ、電話認識ボタン15から送られてくる電話認識ボタンデータ、音声認識ボタン16から送られてくる音声認識ボタンデータ、取消ボタン17から送られてくる取消ボタンデータ、タッチパネル4から送られてくるタッチパネルデータおよびナビゲーション部45からの要求コマンドを受け付けて所定の処理を実行する。そして、処理の結果に応じて、音声案内出力部44、ナビゲーション部45、画像処理部46、ならびに、DSP12の第1減衰器31および第2減衰器34を制御する。
音声案内出力部44は、操作制御部43からの指示に応答して案内音声信号を生成し、DSP12の第1混合器32および第2混合器35に送る。これにより、送話音声に案内音声が混合された送話信号が携帯電話7に送られるので、通話相手に対して音声案内を出すことができるとともに、携帯電話7からの受話信号に案内音声が混合された信号がスピーカ6から出力されるので、使用者に対しても音声案内を出すことができる。
ナビゲーション部45は、操作制御部43からの指示に応答して、ナビゲーション機能を実現するための処理を実行する。例えば、ナビゲーション部45は、目的地および経由地の設定、または、地点の登録などを行う。また、操作制御部43に要求を出すことにより、音声認識の結果を取得し、経路探索および経路案内などの処理を実行して音声案内を出力させる。また、地図を表示する場合は、画像処理部46に指示を出して、モニタ5に地図を表示させる。さらに、ナビゲーションを行う場合は、GPS受信機3から現在位置信号を取得して自車位置を特定する。
画像処理部46は、ナビゲーション部45および操作制御部43からの指示に応答して、音声認識の結果、地図、その他のナビゲーションに必要な情報を表示するための画像を生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識の結果、地図、その他のナビゲーションに必要な情報が表示される。
次に、上記のように構成される、この発明の実施の形態1に係るナビゲーション装置の動作を、ハンズフリー通話を実現するためのハンズフリー通話処理を中心に、図2〜図4に示すフローチャートを参照しながら説明する。ハンズフリー通話処理は、使用者からの発信または通話相手の携帯電話8からの着信により開始される。
ハンズフリー通話処理が開始されると、まず、音声認識ボタン16が押下されたかどうかが調べられる(ステップST11)。すなわち、CPU18の操作制御部43は、音声認識ボタン16から音声認識ボタンデータが送られてきたかどうかを調べる。このステップST11において、音声認識ボタン16が押下されたことが判断されると、使用者の声に対する音声認識が行われる(ステップST12)。このステップST12の処理の詳細は後述する。その後、シーケンスはステップST15に進む。
一方、ステップST11において、音声認識ボタン16が押下されていないことが判断されると、次いで、電話認識ボタン15が押下されたかどうかが調べられる(ステップST13)。すなわち、CPU18の操作制御部43は、電話認識ボタン15から電話認識ボタンデータが送られてきたかどうかを調べる。このステップST13において、電話認識ボタン15が押下されたことが判断されると、通話相手の声に対する音声認識が行われる(ステップST14)。このステップST14の処理の詳細は後述する。その後、シーケンスはステップST15に進む。上記ステップST13において、電話認識ボタン15が押下されていないことが判断された場合も、シーケンスはステップST15に進む。
ステップST15においては、通話終了であるかどうかが調べられる。すなわち、操作制御部43は、タッチパネル4から、通話を終了する操作がなされたことを表すタッチパネルデータが送られてきたかどうか、または、携帯電話7と携帯電話8との間の通信が切断されたかどうかを調べる。このステップST15において、通話終了でないことが判断されると、シーケンスはステップST11に戻り、上述した処理が繰り返される。一方、ステップST15において、通話終了であることが判断されると、ハンズフリー通話処理は終了する。
次に、上記ステップST12で行われる使用者の声に対する音声認識処理の詳細を、図3に示すフローチャートを参照しながら説明する。
使用者の声に対する音声認識処理では、まず、通話音声(「送話音声」および「受話音声」の両方をいう)の音量が絞られる(ステップST21)。すなわち、操作制御部43は、第1減衰器31および第2減衰器34に対して音声を絞るように指示する。これにより、第1減衰器31は、通信モジュール11の受話部21から送られてくる受話信号を減衰させ、第1混合器32に送る。また、第2減衰器34は、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声の音量が絞られる。
次いで、通話相手に使用者が音声認識中である旨の音声案内を送信する(ステップST22)。すなわち、操作制御部43は、音声案内出力部44に対して、使用者が音声認識中である旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、使用者が音声認識中である旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、使用者が音声認識中である旨の音声案内、例えば「ただいま音声認識操作中です。しばらくそのままでお待ちください。」という音声案内が出力される。
次いで、音声認識開始を指示する音声案内が出力される(ステップST23)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識の開始を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識の開始を指示する音声案内を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる受話信号と案内音声信号とが混合された信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識開始を指示する音声案内、例えば「音声認識を開始します。ピッと鳴ったらお話ください。」という音声案内が出力される。
以上のステップST21〜ST23の処理により、通話相手に対し、使用者が音声認識中である旨の音声案内を流すことができる。また、使用者および通話相手の双方ともに、相手の声の音量が小さくなるので、音声案内の聞き取りに集中することができるようになる。
次いで、使用者の声に対する音声認識が行われる(ステップST24)。すなわち、音声認識部41は、マイクロフォン2からエコーキャンセラ33を介して送られてくる音声信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。
次いで、音声認識結果が音声で出力される(ステップST25)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識結果を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識データによって示される文字またはコマンドを含む案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識の結果が音声で出力される。
次いで、音声認識結果が表示される(ステップST26)。すなわち、操作制御部43は、画像処理部46に対して、音声認識データによって示される音声認識結果を表す文字またはコマンドを作成するように指示する。画像処理部46は、この指示に応答して、音声認識結果の文字またはコマンドを表す画像を生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識の結果が表示される。
次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST27)。すなわち、操作制御部43は、取消ボタン17から取消ボタンデータが送られてきたかどうかを調べる。このステップST27において、取消ボタン17が押下されたことが判断されると、音声認識結果は誤りであることが認識され、取消の音声案内が出力される(ステップST28)。すなわち、操作制御部43は、音声案内出力部44に対して、取消を表す音声案内を作成するように指示する。音声案内出力部44は、操作制御部43からの指示に応答して、取消を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、取消を表す音声案内が出力される。その後、シーケンスはステップST24に戻り、音声認識処理が再び実行される。
上記ステップST27において、取消ボタン17が押下されていないことが判断されると、音声認識結果は正しいことが認識され、通話相手に対して、音声認識操作が終了した旨の音声案内が送信される(ステップST29)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識が終了した旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識が終了した旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、使用者が音声認識を終了した旨の音声案内、例えば「音声認識操作を終了しました。」という音声案内が出力される。
次いで、通話音声の音量が元に戻される(ステップST30)。すなわち、操作制御部43は、第1減衰器31および第2減衰器34に対して音声を戻すように指示する。これにより、第1減衰器31は、通信モジュール11の受話部21から送られてくる受話信号の減衰量を元に戻し、第1混合器32に送る。また、第2減衰器34は、エコーキャンセラ33から送られてくる信号の減衰量を元に戻し、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声が元の音量に戻される。その後、シーケンスは、ハンズフリー通話処理にリターンする。
次に、上記ステップST14で行われる通話相手の声に対する音声認識処理の詳細を、図4に示すフローチャートを参照しながら説明する。
通話相手の声に対する音声認識処理では、まず、通話音声の音量が絞られる(ステップST31)。このステップST31の処理は、上述したステップST21の処理と同じである。
次いで、通話相手に音声認識操作が可能になった旨の音声案内が送信される(ステップST32)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識操作が可能になった旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識操作が可能になった旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「登録したい場所の音声入力ができます。」という音声案内が出力される。
次いで、通話相手に発話を促す音声案内が送信される(ステップST33)。すなわち、操作制御部43は、音声案内出力部44に対して、発話を促す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、発話を促す音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「住所、キーワードで探す場合は1を、電話番号で探す場合は2を、郵便番号で探す場合は3を押してお話ください。」という、語句の種類の選択を指示する音声案内が出力される。
この音声案内に応答して、通話相手である携帯電話8では、発話内容の種類を選択するために、「1」〜「3」のいずれかのボタンが押される。これにより、押されたボタンに応じたプッシュトーン信号が発信され、携帯電話7を介してナビゲーションユニット1に送られる。また、携帯電話8は、自らトーンダイヤル信号を発信し、携帯電話7を介してナビゲーションユニット1に送ることにより、発話の準備ができたことを通知する。ナビゲーションユニット1では、携帯電話7から送られてきたプッシュトーン信号は、通信モジュール11の受話部21を介してトーン信号識別部42に送られる。トーン信号識別部42は、送られてきたプッシュトーン信号を解析して、押されたボタンを認識し、トーン信号識別データとして操作制御部43に送る。
次いで、音声認識が行われる(ステップST34)。すなわち、操作制御部43は、トーン信号識別部42から受け取ったトーン信号識別データによって示される語句の種類の範囲で音声認識を行うように設定した後に、音声認識部41に対して音声認識の開始を指示する。音声認識部41は、プッシュトーン信号に引き続いて、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。
次いで、通話相手に認識結果を表す音声案内が送信される(ステップST35)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識結果を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識データによって示される文字またはコマンドを含む案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識結果を示す音声案内、例えば「○○○で正しいなら1を、間違っているなら2を押してください。」という音声案内が出力される。
次いで、認識結果が正しいかどうかが調べられる(ステップST36)。すなわち、通話相手である携帯電話8において、「1」または「2」のボタンが押されると、押されたボタンに応じたプッシュトーン信号が発信され、携帯電話7を介してナビゲーションユニット1に送られる。ナビゲーションユニット1では、携帯電話7から送られてきたプッシュトーン信号は、通信モジュール11の受話部21を介してトーン信号識別部42に送られる。トーン信号識別部42は、送られてきたプッシュトーン信号を解析して、押されたボタンを認識し、トーン信号識別データとして操作制御部43に送る。操作制御部43は、トーン信号識別データによって示される押されたボタンが「認識結果が正しい」(上記音声案内の例では「1」)であるかどうかを調べる。
このステップST36において、認識結果が正しくないことが判断されると、通話相手に、音声認識を再度行うための音声案内が送信される(ステップST37)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識を再度行うことを表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識を再度行うことを表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識を再度行うための音声案内、例えば「取り消しました。もう一度お願いします。」という音声案内が出力される。その後、シーケンスはステップST33に戻り、上述した処理が繰り返される。
一方、ステップST36において、認識結果が正しいことが判断されると、通話相手に、音声認識完了の音声案内が送信される(ステップST38)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識完了の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識完了を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識完了の音声案内、例えば「登録しました。」という音声案内が出力される。
次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST39)。すなわち、操作制御部43は、画像処理部46に対して、音声認識結果を表す文字列(地点を示す文字列)と、前記文字列が示す地点の周辺の地図を作成するように指示する。画像処理部46は、この指示に応答して、音声認識結果の文字を表す画像と、前記文字列が示す地点の周辺の地図の画像とを生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識された地点を表す文字列と、前記地点の周辺の地図が表示される。また、操作制御部43は、音声案内出力部44に対して、音声認識結果を示す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識結果を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識結果を示す音声案内が出力される。
次いで、通話音声の音量が元に戻される(ステップST40)。このステップST40の処理は、上述したステップST30の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態1に係るナビゲーション装置によれば、通話中に使用者の声に対する音声認識だけでなく、通話相手の声に対する音声認識を行うことができる。また、通話相手に認識結果を提示し、正しいか誤っているかを判断してもらうことができ、誤っている場合には相手に再度話してもらえるように音声案内をすることができるので、通話相手が意図した音声認識結果を得ることができる。
実施の形態2.
この発明の実施の形態2に係るナビゲーション装置の構成は、上述した実施の形態1に係るナビゲーション装置の構成と同じである。
次に、実施の形態2に係るナビゲーション装置の動作を説明する。この実施の形態2に係るナビゲーション装置のハンズフリー通話処理および使用者の声に対する音声認識処理は、実施の形態1に係るハンズフリー通話処理(図2参照)および使用者の声に対する音声認識処理(図3参照)と同じである。
図5は、実施の形態2に係るナビゲーション装置で行われる、通話相手の声に対する音声認識処理を示すフローチャートである。
通話相手の声に対する音声認識処理では、まず、使用者が認識させる言葉の種類が選択される(ステップST41)。すなわち、使用者は、認識させる言葉の種類を、タッチパネル4を操作して選択する。この場合のタッチパネル4は、この発明の選択部に対応する。操作制御部43は、この選択操作に応答して、タッチパネル4から送られてくるタッチパネルデータを受け取り、音声認識の対象とする言葉の種類を決定する。
次いで、通話相手への送話音声の音量が絞られる(ステップST42)。すなわち、操作制御部43は、第2減衰器34に対して音声を絞るように指示する。この指示に応答して、第2減衰器34は、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。これにより、通話相手に対する送話音声の音量が絞られる。
次いで、通話相手に発話を促す音声案内と合図音が送信される(ステップST43)。すなわち、操作制御部43は、音声案内出力部44に対して、発話を促す音声案内および合図音を作成するように指示する。音声案内出力部44は、この指示に応答して、発話を促す音声案内および合図音を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「ピッと鳴ったら住所をお話ください。」という音声案内とピッという合図音が出力される。
この音声案内に応答して、通話相手が発話することにより、音声信号が、携帯電話8から携帯電話7を介してナビゲーションユニット1に送られる。ナビゲーションユニット1においては、携帯電話7から送られてきた音声信号が、通信モジュール11の受話部21を介して音声認識部41に送られる。
次いで、通話相手の声に対する音声認識が行われる(ステップST44)。すなわち、音声認識部41は、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。この際、通話相手への送話音声の音量を小さくして音声案内が入れられるので、通話相手に音声案内を聞きやすくさせることができる。
次いで、音声認識結果が音声で出力される(ステップST45)。このステップST45の処理は、上述したステップST25の処理と同じである。次いで、音声認識結果が表示される(ステップST46)。このステップST46の処理は、上述したステップST26の処理と同じである。
次いで、送話音声の音量が元に戻される(ステップST47)。すなわち、操作制御部43は、第2減衰器34に対して音声を戻すように指示する。これにより、第2減衰器34は、エコーキャンセラ33から送られてくる信号の減衰量を元に戻し、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声が元の音量に戻される。
次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST48)。このステップST48の処理は、上述したステップST27の処理と同じである。このステップST48において取消ボタン17が押下されたことが判断されると、認識結果が正しくない旨が認識され、シーケンスはステップST42に戻って、再度、音声認識のやり直しが行われる。
一方、ステップST48において、取消ボタン17が押下されなかったことが判断されると、認識結果が正しい旨が認識され、次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST49)。このステップST49の処理は、上述したステップST39の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態2に係るナビゲーション装置によれば、実施の形態1に係るナビゲーション装置に比べて、通話相手に対する音声案内の時間が少なくなるので、音声認識中に相手と通話ができなくなる時間を減らすことができる。
また、音声認識中に通話相手からの受話音声の音量が小さくされないので、使用者は、通話相手の音声(音声認識の対象とされる音声)を聞くことができる。したがって、通話相手の声に対する音声認識が失敗したとしても、使用者は、通話相手が認識させようとした言葉を理解できるので、使用者自身の発話で音声認識操作を行うことができ、通話相手にわずらわしい音声認識操作を再度お願いする必要がなくなる。
さらに、実施の形態2に係るナビゲーション装置によれば、CPU18に含まれるトーン信号識別部42は不要となるので、CPU18の構成を簡単化することができる。
なお、上述した実施の形態1および実施の形態2に係るナビゲーション装置においては、携帯電話8において音声認識のための操作が開始または終了されたときは、通話相手が音声認識操作中である旨をスピーカ6から音声で出力するように構成できる。この構成によれば、使用者は、通話の可または不可を判別しやすくなる。
また、携帯電話8において、音声認識のための操作が行われている場合は、通話相手が音声認識中である旨をモニタ5に表示するように構成できる。この構成によれば、使用者は、通話の可または不可を判別しやすくなる。
実施の形態3.
この発明の実施の形態3に係るナビゲーション装置の構成は、上述した実施の形態1に係るナビゲーション装置の構成と同じである。
次に、実施の形態3に係るナビゲーション装置の動作を説明する。この実施の形態3に係るナビゲーション装置のハンズフリー通話処理および使用者の声に対する音声認識処理は、実施の形態1に係るハンズフリー通話処理(図2参照)および使用者の声に対する音声認識処理(図3参照)と同じである。
図6は、実施の形態3に係るナビゲーション装置で行われる、通話相手の声に対する音声認識処理を示すフローチャートである。
通話相手の声に対する音声認識処理では、まず、使用者が認識させる言葉の種類が選択される(ステップST51)。このステップST51の処理は、上述したステップST41の処理と同じである。その後、通話相手に音声案内を送ることなく、また、通話音声の音量も小さくすることなく、通話相手の声に対する音声認識が行われる(ステップST52)。このステップST52の処理は、上述したステップST44の処理と同じである。
次いで、音声認識結果が表示される(ステップST53)。このステップST53の処理は、上述したステップST46の処理と同じである。次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST54)。このステップST54の処理は、上述したステップST48の処理と同じである。このステップST54において取消ボタン17が押下されたことが判断されると、認識結果が正しくない旨が認識され、シーケンスは、ハンズフリー通話処理にリターンする。この場合、音声認識は中止され、通常の通話状態に戻る。
一方、ステップST54において取消ボタン17が押下されていないことが判断されると、認識結果が正しい旨が認識され、次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST55)。このステップST55の処理は、上述したステップST49の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態3に係るナビゲーション装置によれば、通話相手に対する音声案内が行われないため、通話相手とは無関係に、使用者の都合で通話相手の声を音声認識させることができる。また、実施の形態3に係るナビゲーション装置によれば、CPU18に含まれるトーン信号識別部42は不要となるので、CPU18の構成を簡単化することができる。
この発明に係るナビゲーション装置は、通話相手からの音声に対して音声認識を行うことにより、通話相手の意図通りの地点情報または個人情報などを直接に取得することができる。そのため、ユーザを目的地まで案内し、特に、通話相手の音声を認識することにより地点などを自動的に抽出するナビゲーション装置等に用いるのに適している。
本発明は、ユーザを目的地まで案内するナビゲーション装置に関し、特に、通話相手の音声を認識することにより地点などを自動的に抽出する技術に関する。
従来、音声認識機能を備えたナビゲーション装置が知られている。このナビゲーション装置においては、音声認識中は、認識させたい音声以外の音声が誤って認識されるのを防止するために、ハンズフリー電話をかけることができなかった。このような問題を解消するために、特許文献1は、ハンズフリー電話中であっても、音声認識を可能とした車載用情報装置を開示している。
この車載用情報装置は、通信網を介して相手側と通信可能な通信部と、マイクロフォンを介して入力される音声を認識する音声認識部と、音声認識部で認識された音声に基づき道路情報を案内するナビゲーション機能および通信部の通信動作を制御するメイン処理部と、マイクロフォンを介して入力される音声を音声認識部の音声認識用として用いるか否かを切り換える認識用スイッチを備え、通信部はデータ通信および音声通話可能な携帯電話からなり、マイクロフォンを介して入力される音声は、音声通話用および音声認識用として携帯電話および音声認識部のそれぞれに送られ、メイン処理部は、携帯電話の音声通話中に認識用スイッチが音声認識側に切り換えられるとナビゲーション機能を音声認識部で認識された音声に基づき実行させ、認識用スイッチが復帰側に切り換えられると携帯電話の音声通話を復帰させる。
特開2002−257574号公報
上述した特許文献1に開示された車載用情報装置では、ハンズフリー通話中にナビゲーション装置の使用者の音声を認識することはできるが、通話相手の音声を認識することはできない。そのため、通話相手からナビゲーション装置に登録したい地点情報を直接に音声認識させることはできない。したがって、ナビゲーション装置の使用者は、通話相手から聞いた地点名称などを覚えておき、改めてナビゲーション装置の使用者が音声認識させる必要があるので手間がかかる。そこで、通話相手から聞いた地点情報を直接に認識できるナビゲーション装置の開発が望まれている。
この発明は、上述した要請に応えるためになされたものであり、その課題は、通話相手の音声を認識して地点情報または個人情報などを取得できるナビゲーション装置を提供することにある。
この発明に係るナビゲーション装置は、外部通信機器との間で信号を送受信する通信モジュールと、外部通信機器から通信モジュールを介して送られてくるプッシュトーン信号を識別するトーン信号識別部と、前記トーン信号識別部で識別された情報を利用して、前記外部通信機器から通信モジュールを介して送られてくる音声信号に対する音声認識を行う音声認識部と、前記外部通信機器から前記通信モジュールを介して音声信号を受け取っている場合に、前記外部通信機器に送信する送話音声の音量を小さくする音量制御部を備えたものである。
この発明に係るナビゲーション装置によれば、音声認識中に、通話相手が案内音声を聞きやすくすることができる。
この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理の中の使用者の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態1に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態2に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。 この発明の実施の形態3に係るナビゲーション装置で行われるハンズフリー通話処理の中の通話相手の声に対する音声認識処理の詳細を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係るナビゲーション装置の構成を示すブロック図である。このナビゲーション装置は、ナビゲーションユニット1、マイクロフォン2、GPS(Global Positioning System)受信機3、タッチパネル4、モニタ5およびスピーカ6を備えている。このナビゲーションユニット1には、携帯電話7が接続されている。
ナビゲーションユニット1は、ナビゲーション装置の中核をなし、その全体を制御する。このナビゲーションユニット1の詳細は後述する。マイクロフォン2は、送話用と音声認識用とに兼用される。このマイクロフォン2は、入力された音声を電気信号に変換し、音声信号としてナビゲーションユニット1に送る。
GPS受信機3は、GPS衛星から送信される電波を受信し、自己の現在位置を検出する。このGPS受信機3で検出された自己の現在位置は、現在位置信号としてナビゲーションユニット1に送られる。タッチパネル4は、モニタ5の画面上に載置されており、タッチされた位置を検出する。この検出された位置は、タッチパネルデータとしてナビゲーションユニット1に送られる。
モニタ5は、例えば液晶パネルから構成されており、ナビゲーションユニット1から送られてくる映像信号に基づき種々の画像を表示する。スピーカ6は、受話用と音声案内用とに兼用される。このスピーカ6は、ナビゲーションユニット1から送られてくる音声信号を音声に変換して出力する。
携帯電話7は、ナビゲーションユニット1との間で音声またはデータを含む信号を送受するとともに、通話相手の携帯電話8との間で通信を行う。これら携帯電話7および携帯電話8は、この発明の外部通信機器に対応する。
次に、ナビゲーションユニット1の詳細を説明する。ナビゲーションユニット1は、通信モジュール11、DSP(Digital Signal Processor)12、補助記憶装置13、アンプ14、電話認識ボタン15、音声認識ボタン16、取消ボタン17およびCPU(Central Processing Unit)18を備えている。
通信モジュール11は、Bluetoothモジュールまたは電話コネクタから構成されており、受話部21および送話部22を備えている。受話部21は、携帯電話7から送られてくる信号を受け取り、受話信号としてDSP12およびCPU18に送る。送話部22は、DSP12から送られてくる送話信号を受け取り、携帯電話7に送る。
DSP12は、送話音声および受話音声に、ナビゲーション機能などのための案内音声を混ぜる。これにより、通話相手に対して送話音声および案内音声を送ることができるとともに、このナビゲーション装置の使用者(以下、単に「使用者」という)に対して受話音声および案内音声を出力することができる。
このDSP12は、第1減衰器31、第1混合器32、エコーキャンセラ33、第2減衰器34および第2混合器35を備えている。第1減衰器31および第2減衰器34は、この発明の音量制御部に対応する。
第1減衰器31は、CPU18からの指示に応じて、通信モジュール11の受話部21から送られてくる受話信号を減衰させ、第1混合器32に送る。この第1減衰器31により、受話音声の音量を小さくすることができるので、使用者の声に対する音声認識における誤認識を防止することができ、また、使用者に対する案内音声の明瞭度を上げることができる。
第1混合器32は、第1減衰器31から送られてくる受話信号とCPU18から送られてくる案内音声信号とを混合し、エコーキャンセラ33およびアンプ14に送る。エコーキャンセラ33は、マイクロフォン2から送られてくる音声信号から、スピーカ6から出力されてマイクロフォン2に回り込んだ音の成分を除去し、第2減衰器34およびCPU18に送る。このエコーキャンセラ33により、ハンズフリー通話時などにおいて、送話音声にスピーカ6から出力される案内音声および受話音声が入ることを防ぐことができる。同時にこのエコーキャンセラ33は、スピーカ6から出力された受話音声がCPU18に送られることも防ぐことができ、その結果、ハンズフリー通話中の使用者の声に対する音声認識において、誤認識を防止することができる。
第2減衰器34は、CPU18からの指示に応じて、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。この第2減衰器34により、送話音声の音量を小さくすることができるので、音声認識中に、通話相手が案内音声を聞きやすくすることができる。第2混合器35は、第2減衰器34から送られてくる信号とCPU18から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22に送る。
補助記憶装置13は、例えばHDD(Hard Disk Drive)から構成されており、ナビゲーション用の地図データおよび音声認識用の辞書データを記憶している。この補助記憶装置13に記憶されている地図データおよび辞書データは、必要に応じて、CPU18によってアクセスされる。アンプ14は、DSP12の第1混合器32から送られてくる受話信号と案内音声信号とが混合された信号を増幅し、音声信号としてスピーカ6に送る。
電話認識ボタン15は、通話相手の声に対する音声認識を開始させるために使用される。この電話認識ボタン15の押下によって発生された電話認識ボタンデータは、CPU18に送られる。音声認識ボタン16は、使用者の声に対する音声認識を開始させるために使用される。この音声認識ボタン16の押下によって発生された音声認識ボタンデータは、CPU18に送られる。取消ボタン17は、音声認識の結果を取り消すために使用される。この取消ボタン17の押下によって発生された取消ボタンデータは、CPU18に送られる。
CPU18は、音声認識部41、トーン信号識別部42、操作制御部43、音声案内出力部44、ナビゲーション部45および画像処理部46を備えている。これら各構成要素は、CPU18で実行されるプログラムによって実現されている。なお、これら各構成要素は、ハードウェアによって構成することもできる。
音声認識部41は、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行する。また、音声認識部41は、マイクロフォン2からDSP12のエコーキャンセラ33を介して送られてくる音声信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行する。この音声認識部41における音声認識結果、つまり音声認識を実行することにより得られた文字またはコマンドなどは、音声認識データとして操作制御部43に送られる。
トーン信号識別部42は、携帯電話7から通信モジュール11の受話部21を介して送られてくるプッシュトーン信号を解析し、信号の周波数によって携帯電話7に接続された携帯電話8の押されたボタンを認識する。このトーン信号識別部42で認識されたボタンを表すトーン信号識別データは、操作制御部43に送られる。
操作制御部43は、音声認識部41から送られてくる音声認識データ、トーン信号識別部42から送られてくるトーン信号識別データ、電話認識ボタン15から送られてくる電話認識ボタンデータ、音声認識ボタン16から送られてくる音声認識ボタンデータ、取消ボタン17から送られてくる取消ボタンデータ、タッチパネル4から送られてくるタッチパネルデータおよびナビゲーション部45からの要求コマンドを受け付けて所定の処理を実行する。そして、処理の結果に応じて、音声案内出力部44、ナビゲーション部45、画像処理部46、ならびに、DSP12の第1減衰器31および第2減衰器34を制御する。
音声案内出力部44は、操作制御部43からの指示に応答して案内音声信号を生成し、DSP12の第1混合器32および第2混合器35に送る。これにより、送話音声に案内音声が混合された送話信号が携帯電話7に送られるので、通話相手に対して音声案内を出すことができるとともに、携帯電話7からの受話信号に案内音声が混合された信号がスピーカ6から出力されるので、使用者に対しても音声案内を出すことができる。
ナビゲーション部45は、操作制御部43からの指示に応答して、ナビゲーション機能を実現するための処理を実行する。例えば、ナビゲーション部45は、目的地および経由地の設定、または、地点の登録などを行う。また、操作制御部43に要求を出すことにより、音声認識の結果を取得し、経路探索および経路案内などの処理を実行して音声案内を出力させる。また、地図を表示する場合は、画像処理部46に指示を出して、モニタ5に地図を表示させる。さらに、ナビゲーションを行う場合は、GPS受信機3から現在位置信号を取得して自車位置を特定する。
画像処理部46は、ナビゲーション部45および操作制御部43からの指示に応答して、音声認識の結果、地図、その他のナビゲーションに必要な情報を表示するための画像を生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識の結果、地図、その他のナビゲーションに必要な情報が表示される。
次に、上記のように構成される、この発明の実施の形態1に係るナビゲーション装置の動作を、ハンズフリー通話を実現するためのハンズフリー通話処理を中心に、図2〜図4に示すフローチャートを参照しながら説明する。ハンズフリー通話処理は、使用者からの発信または通話相手の携帯電話8からの着信により開始される。
ハンズフリー通話処理が開始されると、まず、音声認識ボタン16が押下されたかどうかが調べられる(ステップST11)。すなわち、CPU18の操作制御部43は、音声認識ボタン16から音声認識ボタンデータが送られてきたかどうかを調べる。このステップST11において、音声認識ボタン16が押下されたことが判断されると、使用者の声に対する音声認識が行われる(ステップST12)。このステップST12の処理の詳細は後述する。その後、シーケンスはステップST15に進む。
一方、ステップST11において、音声認識ボタン16が押下されていないことが判断されると、次いで、電話認識ボタン15が押下されたかどうかが調べられる(ステップST13)。すなわち、CPU18の操作制御部43は、電話認識ボタン15から電話認識ボタンデータが送られてきたかどうかを調べる。このステップST13において、電話認識ボタン15が押下されたことが判断されると、通話相手の声に対する音声認識が行われる(ステップST14)。このステップST14の処理の詳細は後述する。その後、シーケンスはステップST15に進む。上記ステップST13において、電話認識ボタン15が押下されていないことが判断された場合も、シーケンスはステップST15に進む。
ステップST15においては、通話終了であるかどうかが調べられる。すなわち、操作制御部43は、タッチパネル4から、通話を終了する操作がなされたことを表すタッチパネルデータが送られてきたかどうか、または、携帯電話7と携帯電話8との間の通信が切断されたかどうかを調べる。このステップST15において、通話終了でないことが判断されると、シーケンスはステップST11に戻り、上述した処理が繰り返される。一方、ステップST15において、通話終了であることが判断されると、ハンズフリー通話処理は終了する。
次に、上記ステップST12で行われる使用者の声に対する音声認識処理の詳細を、図3に示すフローチャートを参照しながら説明する。
使用者の声に対する音声認識処理では、まず、通話音声(「送話音声」および「受話音声」の両方をいう)の音量が絞られる(ステップST21)。すなわち、操作制御部43は、第1減衰器31および第2減衰器34に対して音声を絞るように指示する。これにより、第1減衰器31は、通信モジュール11の受話部21から送られてくる受話信号を減衰させ、第1混合器32に送る。また、第2減衰器34は、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声の音量が絞られる。
次いで、通話相手に使用者が音声認識中である旨の音声案内を送信する(ステップST22)。すなわち、操作制御部43は、音声案内出力部44に対して、使用者が音声認識中である旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、使用者が音声認識中である旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、使用者が音声認識中である旨の音声案内、例えば「ただいま音声認識操作中です。しばらくそのままでお待ちください。」という音声案内が出力される。
次いで、音声認識開始を指示する音声案内が出力される(ステップST23)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識の開始を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識の開始を指示する音声案内を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる受話信号と案内音声信号とが混合された信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識開始を指示する音声案内、例えば「音声認識を開始します。ピッと鳴ったらお話ください。」という音声案内が出力される。
以上のステップST21〜ST23の処理により、通話相手に対し、使用者が音声認識中である旨の音声案内を流すことができる。また、使用者および通話相手の双方ともに、相手の声の音量が小さくなるので、音声案内の聞き取りに集中することができるようになる。
次いで、使用者の声に対する音声認識が行われる(ステップST24)。すなわち、音声認識部41は、マイクロフォン2からエコーキャンセラ33を介して送られてくる音声信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。
次いで、音声認識結果が音声で出力される(ステップST25)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識結果を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識データによって示される文字またはコマンドを含む案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識の結果が音声で出力される。
次いで、音声認識結果が表示される(ステップST26)。すなわち、操作制御部43は、画像処理部46に対して、音声認識データによって示される音声認識結果を表す文字またはコマンドを作成するように指示する。画像処理部46は、この指示に応答して、音声認識結果の文字またはコマンドを表す画像を生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識の結果が表示される。
次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST27)。すなわち、操作制御部43は、取消ボタン17から取消ボタンデータが送られてきたかどうかを調べる。このステップST27において、取消ボタン17が押下されたことが判断されると、音声認識結果は誤りであることが認識され、取消の音声案内が出力される(ステップST28)。すなわち、操作制御部43は、音声案内出力部44に対して、取消を表す音声案内を作成するように指示する。音声案内出力部44は、操作制御部43からの指示に応答して、取消を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、取消を表す音声案内が出力される。その後、シーケンスはステップST24に戻り、音声認識処理が再び実行される。
上記ステップST27において、取消ボタン17が押下されていないことが判断されると、音声認識結果は正しいことが認識され、通話相手に対して、音声認識操作が終了した旨の音声案内が送信される(ステップST29)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識が終了した旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識が終了した旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、使用者が音声認識を終了した旨の音声案内、例えば「音声認識操作を終了しました。」という音声案内が出力される。
次いで、通話音声の音量が元に戻される(ステップST30)。すなわち、操作制御部43は、第1減衰器31および第2減衰器34に対して音声を戻すように指示する。これにより、第1減衰器31は、通信モジュール11の受話部21から送られてくる受話信号の減衰量を元に戻し、第1混合器32に送る。また、第2減衰器34は、エコーキャンセラ33から送られてくる信号の減衰量を元に戻し、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声が元の音量に戻される。その後、シーケンスは、ハンズフリー通話処理にリターンする。
次に、上記ステップST14で行われる通話相手の声に対する音声認識処理の詳細を、図4に示すフローチャートを参照しながら説明する。
通話相手の声に対する音声認識処理では、まず、通話音声の音量が絞られる(ステップST31)。このステップST31の処理は、上述したステップST21の処理と同じである。
次いで、通話相手に音声認識操作が可能になった旨の音声案内が送信される(ステップST32)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識操作が可能になった旨の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識操作が可能になった旨の音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「登録したい場所の音声入力ができます。」という音声案内が出力される。
次いで、通話相手に発話を促す音声案内が送信される(ステップST33)。すなわち、操作制御部43は、音声案内出力部44に対して、発話を促す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、発話を促す音声案内を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「住所、キーワードで探す場合は1を、電話番号で探す場合は2を、郵便番号で探す場合は3を押してお話ください。」という、語句の種類の選択を指示する音声案内が出力される。
この音声案内に応答して、通話相手である携帯電話8では、発話内容の種類を選択するために、「1」〜「3」のいずれかのボタンが押される。これにより、押されたボタンに応じたプッシュトーン信号が発信され、携帯電話7を介してナビゲーションユニット1に送られる。また、携帯電話8は、自らトーンダイヤル信号を発信し、携帯電話7を介してナビゲーションユニット1に送ることにより、発話の準備ができたことを通知する。ナビゲーションユニット1では、携帯電話7から送られてきたプッシュトーン信号は、通信モジュール11の受話部21を介してトーン信号識別部42に送られる。トーン信号識別部42は、送られてきたプッシュトーン信号を解析して、押されたボタンを認識し、トーン信号識別データとして操作制御部43に送る。
次いで、音声認識が行われる(ステップST34)。すなわち、操作制御部43は、トーン信号識別部42から受け取ったトーン信号識別データによって示される語句の種類の範囲で音声認識を行うように設定した後に、音声認識部41に対して音声認識の開始を指示する。音声認識部41は、プッシュトーン信号に引き続いて、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。
次いで、通話相手に認識結果を表す音声案内が送信される(ステップST35)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識結果を表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識データによって示される文字またはコマンドを含む案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識結果を示す音声案内、例えば「○○○で正しいなら1を、間違っているなら2を押してください。」という音声案内が出力される。
次いで、認識結果が正しいかどうかが調べられる(ステップST36)。すなわち、通話相手である携帯電話8において、「1」または「2」のボタンが押されると、押されたボタンに応じたプッシュトーン信号が発信され、携帯電話7を介してナビゲーションユニット1に送られる。ナビゲーションユニット1では、携帯電話7から送られてきたプッシュトーン信号は、通信モジュール11の受話部21を介してトーン信号識別部42に送られる。トーン信号識別部42は、送られてきたプッシュトーン信号を解析して、押されたボタンを認識し、トーン信号識別データとして操作制御部43に送る。操作制御部43は、トーン信号識別データによって示される押されたボタンが「認識結果が正しい」(上記音声案内の例では「1」)であるかどうかを調べる。
このステップST36において、認識結果が正しくないことが判断されると、通話相手に、音声認識を再度行うための音声案内が送信される(ステップST37)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識を再度行うことを表す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識を再度行うことを表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識を再度行うための音声案内、例えば「取り消しました。もう一度お願いします。」という音声案内が出力される。その後、シーケンスはステップST33に戻り、上述した処理が繰り返される。
一方、ステップST36において、認識結果が正しいことが判断されると、通話相手に、音声認識完了の音声案内が送信される(ステップST38)。すなわち、操作制御部43は、音声案内出力部44に対して、音声認識完了の音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識完了を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識完了の音声案内、例えば「登録しました。」という音声案内が出力される。
次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST39)。すなわち、操作制御部43は、画像処理部46に対して、音声認識結果を表す文字列(地点を示す文字列)と、前記文字列が示す地点の周辺の地図を作成するように指示する。画像処理部46は、この指示に応答して、音声認識結果の文字を表す画像と、前記文字列が示す地点の周辺の地図の画像とを生成し、映像信号としてモニタ5に送る。これにより、モニタ5に、音声認識された地点を表す文字列と、前記地点の周辺の地図が表示される。また、操作制御部43は、音声案内出力部44に対して、音声認識結果を示す音声案内を作成するように指示する。音声案内出力部44は、この指示に応答して、音声認識結果を表す案内音声信号を生成し、DSP12の第1混合器32に送る。第1混合器32は、第1減衰器31から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、アンプ14に送る。アンプ14は、第1混合器32から送られてくる信号を増幅し、音声信号としてスピーカ6に送る。これにより、スピーカ6から、音声認識結果を示す音声案内が出力される。
次いで、通話音声の音量が元に戻される(ステップST40)。このステップST40の処理は、上述したステップST30の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態1に係るナビゲーション装置によれば、通話中に使用者の声に対する音声認識だけでなく、通話相手の声に対する音声認識を行うことができる。また、通話相手に認識結果を提示し、正しいか誤っているかを判断してもらうことができ、誤っている場合には相手に再度話してもらえるように音声案内をすることができるので、通話相手が意図した音声認識結果を得ることができる。
実施の形態2.
この発明の実施の形態2に係るナビゲーション装置の構成は、上述した実施の形態1に係るナビゲーション装置の構成と同じである。
次に、実施の形態2に係るナビゲーション装置の動作を説明する。この実施の形態2に係るナビゲーション装置のハンズフリー通話処理および使用者の声に対する音声認識処理は、実施の形態1に係るハンズフリー通話処理(図2参照)および使用者の声に対する音声認識処理(図3参照)と同じである。
図5は、実施の形態2に係るナビゲーション装置で行われる、通話相手の声に対する音声認識処理を示すフローチャートである。
通話相手の声に対する音声認識処理では、まず、使用者が認識させる言葉の種類が選択される(ステップST41)。すなわち、使用者は、認識させる言葉の種類を、タッチパネル4を操作して選択する。この場合のタッチパネル4は、この発明の選択部に対応する。操作制御部43は、この選択操作に応答して、タッチパネル4から送られてくるタッチパネルデータを受け取り、音声認識の対象とする言葉の種類を決定する。
次いで、通話相手への送話音声の音量が絞られる(ステップST42)。すなわち、操作制御部43は、第2減衰器34に対して音声を絞るように指示する。この指示に応答して、第2減衰器34は、エコーキャンセラ33から送られてくる信号を減衰させ、第2混合器35に送る。これにより、通話相手に対する送話音声の音量が絞られる。
次いで、通話相手に発話を促す音声案内と合図音が送信される(ステップST43)。すなわち、操作制御部43は、音声案内出力部44に対して、発話を促す音声案内および合図音を作成するように指示する。音声案内出力部44は、この指示に応答して、発話を促す音声案内および合図音を表す案内音声信号を生成し、DSP12の第2混合器35に送る。第2混合器35は、第2減衰器34から送られてくる信号と音声案内出力部44から送られてくる案内音声信号とを混合し、通信モジュール11の送話部22を介して携帯電話7に送る。携帯電話7は、送話部22から送られてくる案内音声信号を通話相手の携帯電話8に送信する。これにより、通話相手の携帯電話8において、音声認識操作が可能になった旨の音声案内、例えば「ピッと鳴ったら住所をお話ください。」という音声案内とピッという合図音が出力される。
この音声案内に応答して、通話相手が発話することにより、音声信号が、携帯電話8から携帯電話7を介してナビゲーションユニット1に送られる。ナビゲーションユニット1においては、携帯電話7から送られてきた音声信号が、通信モジュール11の受話部21を介して音声認識部41に送られる。
次いで、通話相手の声に対する音声認識が行われる(ステップST44)。すなわち、音声認識部41は、携帯電話7から通信モジュール11の受話部21を介して送られてくる受話信号に対し、補助記憶装置13から読み込んだ辞書データを用いて音声認識を実行し、得られた文字またはコマンドを、音声認識データとして操作制御部43に送る。この際、通話相手への送話音声の音量を小さくして音声案内が入れられるので、通話相手に音声案内を聞きやすくさせることができる。
次いで、音声認識結果が音声で出力される(ステップST45)。このステップST45の処理は、上述したステップST25の処理と同じである。次いで、音声認識結果が表示される(ステップST46)。このステップST46の処理は、上述したステップST26の処理と同じである。
次いで、送話音声の音量が元に戻される(ステップST47)。すなわち、操作制御部43は、第2減衰器34に対して音声を戻すように指示する。これにより、第2減衰器34は、エコーキャンセラ33から送られてくる信号の減衰量を元に戻し、第2混合器35に送る。これにより、通話相手に対する送話音声および通話相手からの受話音声が元の音量に戻される。
次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST48)。このステップST48の処理は、上述したステップST27の処理と同じである。このステップST48において取消ボタン17が押下されたことが判断されると、認識結果が正しくない旨が認識され、シーケンスはステップST42に戻って、再度、音声認識のやり直しが行われる。
一方、ステップST48において、取消ボタン17が押下されなかったことが判断されると、認識結果が正しい旨が認識され、次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST49)。このステップST49の処理は、上述したステップST39の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態2に係るナビゲーション装置によれば、実施の形態1に係るナビゲーション装置に比べて、通話相手に対する音声案内の時間が少なくなるので、音声認識中に相手と通話ができなくなる時間を減らすことができる。
また、音声認識中に通話相手からの受話音声の音量が小さくされないので、使用者は、通話相手の音声(音声認識の対象とされる音声)を聞くことができる。したがって、通話相手の声に対する音声認識が失敗したとしても、使用者は、通話相手が認識させようとした言葉を理解できるので、使用者自身の発話で音声認識操作を行うことができ、通話相手にわずらわしい音声認識操作を再度お願いする必要がなくなる。
さらに、実施の形態2に係るナビゲーション装置によれば、CPU18に含まれるトーン信号識別部42は不要となるので、CPU18の構成を簡単化することができる。
なお、上述した実施の形態1および実施の形態2に係るナビゲーション装置においては、携帯電話8において音声認識のための操作が開始または終了されたときは、通話相手が音声認識操作中である旨をスピーカ6から音声で出力するように構成できる。この構成によれば、使用者は、通話の可または不可を判別しやすくなる。
また、携帯電話8において、音声認識のための操作が行われている場合は、通話相手が音声認識中である旨をモニタ5に表示するように構成できる。この構成によれば、使用者は、通話の可または不可を判別しやすくなる。
実施の形態3.
この発明の実施の形態3に係るナビゲーション装置の構成は、上述した実施の形態1に係るナビゲーション装置の構成と同じである。
次に、実施の形態3に係るナビゲーション装置の動作を説明する。この実施の形態3に係るナビゲーション装置のハンズフリー通話処理および使用者の声に対する音声認識処理は、実施の形態1に係るハンズフリー通話処理(図2参照)および使用者の声に対する音声認識処理(図3参照)と同じである。
図6は、実施の形態3に係るナビゲーション装置で行われる、通話相手の声に対する音声認識処理を示すフローチャートである。
通話相手の声に対する音声認識処理では、まず、使用者が認識させる言葉の種類が選択される(ステップST51)。このステップST51の処理は、上述したステップST41の処理と同じである。その後、通話相手に音声案内を送ることなく、また、通話音声の音量も小さくすることなく、通話相手の声に対する音声認識が行われる(ステップST52)。このステップST52の処理は、上述したステップST44の処理と同じである。
次いで、音声認識結果が表示される(ステップST53)。このステップST53の処理は、上述したステップST46の処理と同じである。次いで、取消ボタン17が押下されたかどうかが調べられる(ステップST54)。このステップST54の処理は、上述したステップST48の処理と同じである。このステップST54において取消ボタン17が押下されたことが判断されると、認識結果が正しくない旨が認識され、シーケンスは、ハンズフリー通話処理にリターンする。この場合、音声認識は中止され、通常の通話状態に戻る。
一方、ステップST54において取消ボタン17が押下されていないことが判断されると、認識結果が正しい旨が認識され、次いで、音声認識された地点がモニタ5に表示され、読み上げられる(ステップST55)。このステップST55の処理は、上述したステップST49の処理と同じである。その後、シーケンスは、ハンズフリー通話処理にリターンする。
以上説明したように、この発明の実施の形態3に係るナビゲーション装置によれば、通話相手に対する音声案内が行われないため、通話相手とは無関係に、使用者の都合で通話相手の声を音声認識させることができる。また、実施の形態3に係るナビゲーション装置によれば、CPU18に含まれるトーン信号識別部42は不要となるので、CPU18の構成を簡単化することができる。
この発明に係るナビゲーション装置は、通話相手からの音声に対して音声認識を行うことにより、通話相手の意図通りの地点情報または個人情報などを直接に取得することができる。そのため、ユーザを目的地まで案内し、特に、通話相手の音声を認識することにより地点などを自動的に抽出するナビゲーション装置等に用いるのに適している。

Claims (9)

  1. 外部通信機器との間で信号を送受信する通信モジュールと、
    前記外部通信機器から前記通信モジュールを介して送られてくるプッシュトーン信号を識別するトーン信号識別部と、
    前記トーン信号識別部で識別された情報を利用して、前記外部通信機器から前記通信モジュールを介して送られてくる音声信号に対する音声認識を行う音声認識部
    とを備えたナビゲーション装置。
  2. 音声認識部は、トーン信号識別部で識別された情報によって示される音声認識の対象とする語句の種類の範囲で、外部通信機器から通信モジュールを介して送られてくる音声信号に対する音声認識を行う
    ことを特徴とする請求項1記載のナビゲーション装置。
  3. 音声認識部は、トーン信号識別部にプッシュトーン信号が送られてきたタイミングで音声認識を開始する
    ことを特徴とする請求項1記載のナビゲーション装置。
  4. 音声案内を出力する音声案内出力部を備え、
    前記音声案内出力部から出力された音声案内を表す信号は、通信モジュールを介して外部通信機器に送信される
    ことを特徴とする請求項1記載のナビゲーション装置。
  5. 音声案内出力部は、音声認識部における認識結果の正誤を確認する音声案内を出力する
    ことを特徴とする請求項4記載のナビゲーション装置。
  6. 外部通信機器から通信モジュールを介して音声信号を受け取っている場合に、前記外部通信機器に送信する送話音声の音量を小さくする音量制御部
    を備えたことを特徴とする請求項1記載のナビゲーション装置。
  7. 外部通信機器において音声認識の操作が開始または終了されたときは、その旨を音声で出力するスピーカ
    を備えたことを特徴とする請求項1記載のナビゲーション装置。
  8. 外部通信機器において音声認識の操作を行っている場合は、その旨を表示するモニタ
    を備えたことを特徴とする請求項1記載のナビゲーション装置。
  9. 外部通信機器との間で信号を送受信する通信モジュールと、
    音声認識させる言葉の種類を選択する選択部と、
    音声認識の開始を指示する電話認識ボタンと、
    前記電話認識ボタンが押されたタイミングで、前記選択部で選択された種類の範囲で、前記通信機器から前記通信モジュールを介して送られてくる音声信号に対する音声認識を行う音声認識部
    とを備えたナビゲーション装置。
JP2010542807A 2008-12-16 2009-08-11 ナビゲーション装置 Expired - Fee Related JP5355591B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010542807A JP5355591B2 (ja) 2008-12-16 2009-08-11 ナビゲーション装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008319775 2008-12-16
JP2008319775 2008-12-16
JP2010542807A JP5355591B2 (ja) 2008-12-16 2009-08-11 ナビゲーション装置
PCT/JP2009/003861 WO2010070781A1 (ja) 2008-12-16 2009-08-11 ナビゲーション装置

Publications (2)

Publication Number Publication Date
JPWO2010070781A1 true JPWO2010070781A1 (ja) 2012-05-24
JP5355591B2 JP5355591B2 (ja) 2013-11-27

Family

ID=42268467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010542807A Expired - Fee Related JP5355591B2 (ja) 2008-12-16 2009-08-11 ナビゲーション装置

Country Status (5)

Country Link
US (1) US8618958B2 (ja)
JP (1) JP5355591B2 (ja)
CN (1) CN102246136B (ja)
DE (1) DE112009003645B4 (ja)
WO (1) WO2010070781A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818426B2 (en) 2014-08-13 2017-11-14 Mitsubishi Electric Corporation Echo canceller

Families Citing this family (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9576574B2 (en) * 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US9575721B2 (en) 2013-07-25 2017-02-21 Lg Electronics Inc. Head mounted display and method of controlling therefor
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9449602B2 (en) * 2013-12-03 2016-09-20 Google Inc. Dual uplink pre-processing paths for machine and human listening
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6333092B2 (ja) * 2014-07-04 2018-05-30 本田技研工業株式会社 情報処理システム
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
JP6905115B2 (ja) * 2015-12-08 2021-07-21 キヤノン株式会社 通信装置、制御方法、およびプログラム
JP2017107333A (ja) * 2015-12-08 2017-06-15 キヤノン株式会社 通信機器及び通信機器の制御方法
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
JP2018116206A (ja) * 2017-01-20 2018-07-26 アルパイン株式会社 音声認識装置、音声認識方法及び音声認識システム
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
CN109993476B (zh) * 2018-01-02 2023-11-03 北京京东乾石科技有限公司 应用于自动送货车辆的货物配送方法和装置
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
CN110657819A (zh) * 2018-06-28 2020-01-07 比亚迪股份有限公司 语音导航方法、装置、计算机设备及存储介质
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
JP2020065140A (ja) * 2018-10-16 2020-04-23 カシオ計算機株式会社 音声処理装置、方法、プログラム、携帯端末
CN111081236B (zh) * 2018-10-22 2024-06-21 中兴通讯股份有限公司 一种语音处理方法、终端和计算机存储介质
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
JP7346827B2 (ja) * 2019-01-29 2023-09-20 コニカミノルタ株式会社 画像形成装置、画像形成システム、及び、画像形成装置の制御方法
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111083274A (zh) * 2019-12-30 2020-04-28 北京梧桐车联科技有限责任公司 语音采集方法、装置、***及计算机可读存储介质
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6041863A (ja) 1983-08-17 1985-03-05 Fujitsu Ltd プッシュホン音声入力装置
US4827520A (en) * 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
WO1990013961A1 (en) * 1989-05-11 1990-11-15 Unisys Corporation Voice messaging for pay phone telephone systems
JPH05103076A (ja) 1991-10-09 1993-04-23 Matsushita Electric Ind Co Ltd 留守番電話装置
JPH11196464A (ja) 1997-12-26 1999-07-21 Yazaki Corp 自動車電話装置
US5898392A (en) * 1998-02-10 1999-04-27 Prince Corporation System and method for remote control of an in-vehicle voice recorder and other electrical accessories
JP2002257574A (ja) 2001-03-01 2002-09-11 Mitsubishi Electric Corp 車載用情報装置
JP2005114521A (ja) 2003-10-07 2005-04-28 Denso Corp 車載音声認識システム
JP2007235328A (ja) 2006-02-28 2007-09-13 Sharp Corp 音声通話用端末装置及び音声通話用プログラム
US20070219786A1 (en) * 2006-03-15 2007-09-20 Isaac Emad S Method for providing external user automatic speech recognition dictation recording and playback

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818426B2 (en) 2014-08-13 2017-11-14 Mitsubishi Electric Corporation Echo canceller

Also Published As

Publication number Publication date
DE112009003645T8 (de) 2013-03-14
CN102246136B (zh) 2015-05-20
JP5355591B2 (ja) 2013-11-27
DE112009003645B4 (de) 2014-05-15
US20110213553A1 (en) 2011-09-01
DE112009003645T5 (de) 2012-10-25
CN102246136A (zh) 2011-11-16
WO2010070781A1 (ja) 2010-06-24
US8618958B2 (en) 2013-12-31

Similar Documents

Publication Publication Date Title
JP5355591B2 (ja) ナビゲーション装置
US7623854B2 (en) Information addition system and mobile communication terminal
EP1555796B1 (en) On-vehicle handsfree system
EP1944953A1 (en) Audio output system and method for information processing terminal
KR100365860B1 (ko) 이동 단말에서의 메시지 전송방법
JP2003198713A (ja) 車両用ハンズフリーシステム
US20080049905A1 (en) Communication method and apparatus for phone having voice recognition function
US7555533B2 (en) System for communicating information from a server via a mobile communication device
KR101367722B1 (ko) 휴대단말기의 통화 서비스 방법
JP2003152856A (ja) 通信端末装置、通信方法、およびそのプログラム
JP2002281145A (ja) 電話番号入力装置
KR100467593B1 (ko) 음성인식 키 입력 무선 단말장치, 무선 단말장치에서키입력 대신 음성을 이용하는 방법 및 그 기록매체
JP5163682B2 (ja) 通訳通話システム
EP1221799B1 (en) Portable telephone terminal
JP2001251429A (ja) 携帯電話を使用した音声翻訳システムおよび携帯電話
JPH0712914A (ja) ナビゲーションシステム
JP6509077B2 (ja) 情報処理装置
JPH11261683A (ja) 電話装置、プログラムを記録した記録媒体及びデータを記録した記録媒体
JP2000105681A (ja) 音声情報利用システム
KR100413270B1 (ko) 농아자의 의사소통을 위한 휴대전화기와 방법
JP2021110886A (ja) データ処理システム
JP3975343B2 (ja) 電話番号登録システム、電話機、および電話番号登録方法
JP2004198581A (ja) 音声対話型制御装置
JP2000059859A (ja) 携帯電話のハンズフリー発受信、その方法及び使用装置
JP2000174861A (ja) 通信端末装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130827

R150 Certificate of patent or registration of utility model

Ref document number: 5355591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees