JP2008158328A - 端末装置及び判別方法 - Google Patents

端末装置及び判別方法 Download PDF

Info

Publication number
JP2008158328A
JP2008158328A JP2006347946A JP2006347946A JP2008158328A JP 2008158328 A JP2008158328 A JP 2008158328A JP 2006347946 A JP2006347946 A JP 2006347946A JP 2006347946 A JP2006347946 A JP 2006347946A JP 2008158328 A JP2008158328 A JP 2008158328A
Authority
JP
Japan
Prior art keywords
signal
sub
terminal device
information
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006347946A
Other languages
English (en)
Inventor
Shi Cho
志鵬 張
Takeshi Yoshimura
健 吉村
Nobuhiko Naka
信彦 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2006347946A priority Critical patent/JP2008158328A/ja
Publication of JP2008158328A publication Critical patent/JP2008158328A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】
雑音信号区間の判別精度の向上を図ることを可能とする端末装置及び判別方法を提供する。
【解決手段】
ネットワークを介して音声認識サーバ200に接続された端末装置100が、音声信号区間と雑音信号区間とを判別する音声/雑音判別部130と、音声信号区間に対応する音声信号に基づいて音声信号情報を抽出する音声特徴量抽出部140と、雑音信号区間に対応する雑音信号に基づいて雑音信号情報を抽出する雑音特徴量抽出部150と、音声信号情報及び雑音信号情報を音声認識サーバ200に送信する送信部160とを備え、音声/雑音判別部130が、音声認識を開始する条件である開始条件が満たされるまでの所定区間を雑音信号区間として判別する。
【選択図】 図2

Description

本発明は、ネットワークを介して音声認識サーバに接続された端末装置、及び、端末装置と音声認識サーバとがネットワークを介して接続された通信システムで用いられる判別方法に関する。
従来、端末装置と音声認識サーバとがネットワークを介して接続されており、端末装置から送信された情報に基づいて、音声認識サーバが音声認識を行う技術(DSR;Distributed Speech Recognition)が知られている。
具体的には、端末装置は、センサによって検出された検出信号に基づいて、音声信号区間及び雑音信号区間を検出することによって、音声信号区間と雑音信号区間とを判別する。端末装置は、音声信号区間に対応する検出信号である音声信号に関する情報を計算し、雑音信号区間に対応する検出信号である雑音信号に関する情報を計算する。端末装置は、音声信号に関する情報及び雑音信号に関する情報を音声認識サーバに送信する。なお、音声信号区間及び雑音信号区間の検出(VAD;Voice Activity Detection)は、検出信号の振幅などを用いて行われる。
例えば、ETSI(European Telecommunications Standards Institute)では、VADによって音声信号区間と雑音信号区間とを判別する技術、雑音信号に関する情報をペイロードに記述する技術などが規定されている(例えば、非特許文献1)。なお、雑音信号に関する情報としは、音声信号用に設けられたコードブックを用いて、雑音信号のケプストラムを量子化(VQ;Vector Quantization)した情報などが挙げられる。
ETSI ES 202 212(2003−11)、 Speech Processing, Transmission and Quality Aspects(STQ); Distributed speech recognition; Extended advanced front−end feature extraction algorithm; Compression Algorithms; Back−end speech reconstruction algorithm、<URL:http://www.etsi.org>
しかしながら、上述したVADでは、音声認識の対象とすべき話者(対象話者)だけではなくて、他の話者(非対象話者)が端末装置の近くにいる場合には、対象話者の音声と非対象話者の音声とを判別することが難しい。
特に、音声認識サーバが音声認識を行う上で、雑音信号に関する情報は非常に重要である。従って、雑音信号区間の判別精度の向上が望まれる。
そこで、本発明は、上述した課題を解決するためになされたものであり、副信号区間(雑音信号区間)の判別精度の向上を図ることを可能とする端末装置及び判別方法を提供することを目的とする。
本発明の一の特徴は、ネットワークを介して音声認識サーバ(音声認識サーバ200)に接続されており、主信号源及び副信号源が発する信号を検出するセンサを備えた端末装置(端末装置100)が、主信号区間(音声信号区間)と副信号区間(雑音信号区間)とを判別する判別部(音声/雑音判別部130)と、前記センサによって検出された信号である検出信号のうち、前記主信号区間に対応する前記検出信号を主信号として取得し、前記主信号に基づいて主信号情報を抽出する第1抽出部(音声特徴量抽出部140)と、前記センサによって検出された前記検出信号のうち、前記副信号区間に対応する前記検出信号を副信号として取得し、前記副信号に基づいて副信号情報を抽出する第2抽出部(雑音特徴量抽出部150)と、前記主信号情報及び前記副信号情報を前記音声認識サーバに送信する送信部(送信部160)とを備え、前記判別部が、音声認識を開始する条件である開始条件が満たされるまでの所定区間を前記副信号区間として判別することを要旨とする。
ここで、音声認識を開始する条件である開始条件が満たされる前に、音声認識の対象とすべき対象話者が音声(主信号)を発するとは考えにくい。
この点を考慮して、本発明の一の特徴では、判別部は、音声認識サーバに接続されてから開始条件が満たされるまでの所定区間を副信号区間として判別する。すなわち、音声認識サーバに接続されてから開始条件が満たされるまでの区間を副信号区間とみなすことによって、副信号区間の判別精度の向上が図られている。
また、副信号区間の判別精度が高まることによって、音声認識サーバによって行われる音声認識の精度向上を図ることができる。
本発明の一の特徴は、上述した一の特徴において、前記判別部が、前記音声認識サーバに接続されてから前記開始条件が満たされるまでの区間を前記副信号区間として判別することを要旨とする。
本発明の一の特徴は、上述した一の特徴において、前記開始条件が、前記音声認識サーバに接続されてから経過した時間が一定時間を超えること、音声認識を開始するための操作が検出されること、又は、前記検出信号が所定閾値を超えることであることを要旨とする。
本発明の一の特徴は、上述した一の特徴において、前記副信号情報が、前記副信号のスペクトラム情報、前記副信号のケプストラム情報、前記副信号の波形情報、又は、前記副信号用に設けられたコードブックを用いて前記副信号を符号化した情報であることを要旨とする。
本発明の一の特徴は、上述した一の特徴において、前記送信部が、前記主信号情報を識別する主信号識別子とともに前記主信号情報を送信し、前記副信号情報を識別する副信号識別子とともに前記副信号情報を送信することを要旨とする。
本発明の一の特徴は、主信号源及び副信号源が発する信号を検出するセンサを備えた端末装置と音声認識サーバとがネットワークを介して接続された通信システムで用いられる判別方法が、主信号区間と副信号区間とを判別するステップAと、前記センサによって検出された信号である検出信号のうち、前記主信号区間に対応する前記検出信号を主信号として取得し、前記主信号に基づいて主信号情報を抽出するステップBと、前記センサによって検出された前記検出信号のうち、前記副信号区間に対応する前記検出信号を副信号として取得し、前記副信号に基づいて副信号情報を抽出するステップCとを含み、前記ステップAでは、音声認識を開始する条件である開始条件が満たされるまでの所定区間を前記副信号区間として判別することを要旨とする。
本発明の一の特徴は、上述した一の特徴において、前記ステップAでは、前記音声認識サーバに接続されてから前記開始条件が満たされるまでの区間を前記副信号区間として判別することを要旨とする。
本発明によれば、雑音区間の判別精度の向上を図ることを可能とする端末装置及び判別方法を提供する。

以下において、本発明の実施形態に係る通信システムについて、図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。
ただし、図面は模式的なものであり、各寸法の比率などは現実のものとは異なることに留意すべきである。従って、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
[第1実施形態]
(通信システムの構成)
以下において、第1実施形態に係る通信システムの構成について、図面を参照しながら説明する。図1は、第1実施形態に係る通信システムの構成を示す概略図である。
図1に示すように、通信システムは、端末装置100と、音声認識サーバ200とを有する。通信システムでは、端末装置100と音声認識サーバ200とがネットワーク300を介して接続されている。
端末装置100は、音声認識の対象とすべき話者(対象話者)が発する主信号(以下、音声信号)と、対象話者の周辺に位置する雑音信号源が発する副信号(以下、雑音信号とを検出する。雑音信号源は、他の話者(非対象話者)などのように、対象話者が発する音声信号以外の音を発する信号源である。端末装置100は、音声信号に対応する音声信号情報と、雑音信号に対応する雑音信号情報とを音声認識サーバ200に送信する。
音声認識サーバ200は、端末装置100から受信した音声信号情報及び雑音信号情報に基づいて、対象話者が発する音声を認識する。音声認識サーバ200は、音声認識の結果を端末装置100に送信する。
このように、通信システムは、音声検出と音声認識とが異なる装置で行われる分散型音声認識(DSR;Distributed Speech Recognition)システムである。
(端末装置の構成)
以下において、第1実施形態に係る端末装置の構成について、図面を参照しながら説明する。図2は、第1実施形態に係る端末装置100の構成を示すブロック図である。
図2に示すように、端末装置100は、音声入力部110と、入力インターフェース部120と、音声/雑音判別部130と、音声特徴量抽出部140と、雑音特徴量抽出部150と、送信部160と、受信部170と、出力インターフェース部180とを有する。
音声入力部110は、音声信号及び雑音信号を検出するセンサ(例えば、マイクロフォン)などによって構成される。音声入力部110は、センサによって検出された信号である検出信号を音声/雑音判別部130に入力する。
入力インターフェース部120は、対象話者が音声認識を開始するための発話ボタンなどによって構成される。入力インターフェース部120は、発話ボタンが操作されたことを検出する。具体的には、入力インターフェース部120は、発話ボタンが押下されたことを検出して、音声認識の開始操作を検出する。一方で、入力インターフェース部120は、発話ボタンが押下状態から非押下状態となったことを検出して、音声認識の終了操作を検出する。
音声/雑音判別部130は、音声入力部110から取得した検出信号に基づいて、音声信号区間と雑音信号区間とを判別する。ここで、音声/雑音判別部130は、音声認識を行うために端末装置100が音声認識サーバ200に接続されてから開始条件が満たされるまでの区間を雑音信号区間と判別することに留意すべきである。
第1実施形態では、音声/雑音判別部130は、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの区間を雑音信号区間と判別する。すなわち、開始条件は、入力インターフェース部120によって音声認識の開始操作が検出されることである。
音声/雑音判別部130は、音声信号区間に対応する検出信号を音声信号として音声特徴量抽出部140に入力する。一方、音声/雑音判別部130は、雑音信号区間に対応する検出信号を雑音信号として雑音特徴量抽出部150に入力する。
音声特徴量抽出部140は、音声信号の特徴量を音声信号情報として抽出する。なお、音声特徴量抽出部140の詳細については後述する(図3を参照)。
雑音特徴量抽出部150は、雑音信号の特徴量を雑音信号情報として抽出する。なお、雑音特徴量抽出部150の詳細については後述する(図4を参照)。
送信部160は、音声特徴量抽出部140によって抽出された音声信号情報及び雑音特徴量抽出部150によって抽出された雑音信号情報を音声認識サーバ200に送信する。ここで、送信部160は、音声信号情報を識別する識別子(ヘッダ)を音声信号情報に付加して、ヘッダ及び音声信号情報を送信することに留意すべきである。同様に、送信部160は、雑音信号情報を識別する識別子(ヘッダ)を雑音信号情報に付加して、ヘッダ及び雑音信号情報を送信することに留意すべきである。
なお、送信部160は、入力インターフェース部120によって音声認識の開始操作が検出された場合に、音声信号情報及び雑音信号情報を音声認識サーバ200に送信する。また、音声信号情報及び雑音信号情報の送信では、例えば、HTTP(Hyper Text Transfer Protocol)やRTP(Real−time Transport Protocl)などが用いられる。
受信部170は、音声認識サーバ200によって行われた音声認識の結果を受信する。出力インターフェース部180は、受信部170によって受信された音声認識の結果を出力する(例えば、ディスプレイやスピーカ)。
(音声特徴量抽出部の構成)
以下において、上述した音声特徴量抽出部の構成について、図面を参照しながら説明する。図3は、第1実施形態に係る音声特徴量抽出部140を示すブロック図である。
図3に示すように、音声特徴量抽出部140は、高域強調処理部141と、ハミング窓処理部142と、FFT処理部143と、メルフィルタ処理部144と、対数計算処理部145と、離散コサイン処理部146とを有する。
高域強調処理部141は、音声信号の高周波帯域を強調する処理を行う。例えば、高域強調処理部141は、以下の式(1)に従って高域強調処理を行う。
Figure 2008158328
ハミング窓処理部142は、ハミング窓を用いて、音声信号をフレーム単位で切り出す。例えば、ハミング窓処理部142は、以下の式(2)に従って音声信号をフレーム単位で切り出す。
Figure 2008158328
FFT処理部143は、フレーム単位で切り出された音声信号を周波数領域に変換する処理(FFT;Fast Fourier Transform)を行う。
メルフィルタ処理部144は、周波数領域に変換された音声信号の自乗振幅値に対して、メルフィルタ(Mel Filter Bank の三角窓)をかけることによって、一定長の次元特徴ベクトルを計算する。
対数計算処理部145は、メルフィルタ処理部144によって計算された一定長の次元特徴ベクトルの対数を計算する。
離散コサイン処理部146は、対数計算処理部145によって計算された対数を用いて、離散コサイン変換(DCT;Discrete Cosine Transform)を行う。
音声特徴量抽出部140は、このようにして得られた情報(ケプストラム情報)を音声信号情報として抽出する。
(雑音特徴量抽出部の構成)
以下において、上述した雑音特徴量抽出部の構成について、図面を参照しながら説明する。図4は、第1実施形態に係る雑音特徴量抽出部150を示すブロック図である。
図4に示すように、雑音特徴量抽出部150は、高域強調処理部151と、ハミング窓処理部152と、FFT処理部153と、メルフィルタ処理部154とを有する。
高域強調処理部151は、高域強調処理部141と同様に、雑音信号の高周波帯域を強調する処理を行う。例えば、高域強調処理部151は、以下の式(3)に従って高域強調処理を行う。
Figure 2008158328
ハミング窓処理部152は、ハミング窓処理部142と同様に、ハミング窓を用いて、雑音信号をフレーム単位で切り出す。例えば、ハミング窓処理部152は、以下の式(4)に従って雑音信号をフレーム単位で切り出す。
Figure 2008158328
FFT処理部153は、FFT処理部143と同様に、フレーム単位で切り出された雑音信号を周波数領域に変換する処理(FFT;Fast Fourier Transform)を行う。
メルフィルタ処理部154は、メルフィルタ処理部144と同様に、周波数領域に変換された音声信号の自乗振幅値に対して、メルフィルタ(Mel Filter Bank の三角窓)をかけることによって、一定長の次元特徴ベクトルを計算する。
雑音特徴量抽出部150は、このようにして得られた情報(スペクトラム情報)を雑音信号情報として抽出する。
(音声認識サーバの構成)
以下において、第1実施形態に係る音声認識サーバの構成について、図面を参照しながら説明する。図5は、第1実施形態に係る音声認識サーバ200の構成を示すブロック図である。
図5に示すように、音声認識サーバ200は、受信部210と、音声/雑音振分部220と、雑音状況判定部230と、音響モデルDB240と、音声認識処理部250と、送信部260とを有する。
受信部210は、音声信号情報及び雑音信号情報を端末装置100から受信する。
音声/雑音振分部220は、受信部210によって受信された音声信号情報と雑音信号情報とを振り分ける。例えば、音声/雑音振分部220は、音声信号情報及び雑音信号情報に付加されたヘッダ(識別子)によって、音声信号情報と雑音信号情報とを振り分ける。音声/雑音振分部220は、音声信号情報を音声認識処理部250に入力し、雑音信号情報を雑音状況判定部230に入力する。
雑音状況判定部230は、雑音信号情報に基づいて、端末装置100の周辺環境の雑音状況を判定する。雑音状況判定部230は、雑音状況を音声認識処理部250に入力する。
音響モデルDB240は、雑音状況に応じて音声信号情報を補正するための音響モデルを記憶している。音響モデルDB240は、様々な雑音状況下で学習された複数の音響モデルを記憶している。
音声認識処理部250は、雑音状況判定部230から取得した雑音状況に応じて、音響モデルDB240から適切な音響モデルを読み出す。続いて、音声認識処理部250は、音響モデルDB240から読み出した音響モデルに基づいて、音声信号情報について音声認識を行う。
送信部260は、音声認識処理部250によって行われた音声認識の結果を端末装置100に送信する。なお、音声認識の結果の送信では、例えば、HTTP(Hyper Text Transfer Protocol)、MRCP(Media Resource Control Protocol)、SIP(Session Initiation Protocol)などが用いられる。
(データ構成の一例)
以下において、第1実施形態に係る音声信号情報及び雑音信号情報のデータ構成の一例について、図面を参照しながら説明する。図6は、第1実施形態に係る音声信号情報及び雑音信号情報のデータ構成の一例を示す図である。図6に示すように、雑音信号情報には、雑音信号情報を識別する識別子を含むヘッダがフレーム単位で付加されている。同様に、音声信号情報には、音声信号情報を識別する識別子を含むヘッダがフレーム単位で付加されている。
上述したように、端末装置100は、ヘッダが付加された雑音信号情報及びヘッダが付加された音声信号情報を音声認識サーバ200に送信する。一方で、音声認識サーバ200は、音声信号情報及び雑音信号情報にそれぞれ付加されたヘッダを用いて、音声信号情報と雑音信号情報とを振り分ける。
(端末装置の動作)
以下において、第1実施形態に係る端末装置の動作について、図面を参照しながら説明する。図7は、第1実施形態に係る端末装置100の動作を示すフロー図である。
図7に示すように、ステップ10において、端末装置100のユーザ(対象話者)は、音声認識を行うためのアプリケーションを起動する。続いて、端末装置100は、対象話者が発する音声信号及び雑音信号源が発する雑音信号の検出を開始する。
ステップ20において、端末装置100は、音声認識サーバ200に接続する。
ステップ30において、端末装置100は、高域強調処理部151〜メルフィルタ処理部154によって雑音信号情報を抽出する。
ステップ40において、端末装置100は、音声認識の開始操作が検出されたか否かを判定する。具体的には、端末装置100は、発話ボタンが押下されたか否かを検出する。端末装置100は、音声認識の開始操作が検出された場合には、ステップ50の処理に移り、音声認識の開始操作が検出されていない場合には、ステップ30の処理に戻る。
このように、端末装置100は、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの区間を雑音信号区間と判別する。
ステップ50において、端末装置100は、高域強調処理部141〜離散コサイン処理部146によって音声信号情報を抽出する。
ステップ60において、端末装置100は、音声認識の終了操作が検出されたか否かを判定する。具体的には、端末装置100は、発話ボタンが押下状態から非押下状態となったか否かを検出する。端末装置100は、音声認識の終了操作が検出された場合には、ステップ70の処理に移り、音声認識の終了操作が検出されていない場合には、ステップ50の処理に戻る。
ステップ70において、端末装置100は、雑音信号情報及び音声信号情報を音声認識サーバ200に送信する。
(音声認識サーバの動作)
以下において、第1実施形態に係る音声認識サーバの動作について、図面を参照しながら説明する。図8は、第1実施形態に係る音声認識サーバ200の動作を示すフロー図である。
図8に示すように、ステップ110において、音声認識サーバ200は、雑音信号情報及び音声信号情報を端末装置100から受信する。
ステップ120において、音声認識サーバ200は、雑音信号情報及び音声信号情報を構成するフレームの中から、処理の対象とすべきフレーム(処理対象フレーム)を特定する。
ステップ130において、音声認識サーバ200は、処理対象フレームが終端情報であるか否かを判定する。音声認識サーバ200は、処理対象フレームが終端情報である場合には、ステップ180の処理に移り、処理対象フレームが終端情報でない場合には、ステップ140の処理に移る。
ステップ140において、音声認識サーバ200は、処理対象フレームが雑音信号情報であるか否かを判定する。音声認識サーバ200は、処理対象フレームが雑音信号情報である場合には、ステップ150の処理に移り、処理対象フレームが音声信号情報である場合には、ステップ160の処理に移る。
ステップ150において、音声認識サーバ200は、雑音信号情報に基づいて、端末装置100の周辺環境の雑音状況を判定する。
ステップ160において、音声認識サーバ200は、ステップ150で判定された雑音状況に応じて、音響モデルDB240から適切な音響モデル(パラメータ)を読み出す。
ステップ170において、音声認識サーバ200は、ステップ160で読み出された音響モデルに基づいて、音声信号情報について音声認識を行う。
ステップ180において、音声認識サーバ200は、ステップ170で行われた音声認識の結果を出力する。
ステップ190において、音声認識サーバ200は、ステップ180で出力された音声認識の結果を端末装置100に送信する。
(作用及び効果)
第1実施形態に係る端末装置100によれば、音声/雑音判別部130は、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの区間を雑音信号区間として判別する。
ここで、音声認識の開始操作が検出される前、すなわち、音声認識を開始する条件である開始条件が満たされる前に、対象話者が音声(音声信号)を発するとは考えにくい。
この点を考慮して、第1実施形態では、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの区間を雑音信号区間とみなすことによって、雑音信号区間の判別精度の向上を図っている。
また、雑音信号区間の判別精度が高まることによって、音声認識サーバ200によって行われる音声認識の精度向上を図ることができる。
第1実施形態に係る端末装置100によれば、雑音信号情報がスペクトラム情報であるため、音声信号用に設けられたコードブックを用いて雑音信号を符号化する従来技術に比べて、端末装置100の周辺の雑音環境を音声認識サーバ200が高い精度で認識することができる。
[第1実施形態の第1変形例]
以下において、第1実施形態の第1変形例について、図9を参照しながら説明する。図9は、第1実施形態の第1変形例に係る雑音信号情報の概念を説明するための図である。
上述した第1実施形態では、端末装置100は、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの雑音信号区間に対応する雑音信号情報の全てを音声認識サーバ200に送信する。
これに対して、第1実施形態の第1変形例では、音声認識サーバ200に接続されてから音声認識の開始操作が検出されるまでの雑音信号区間に対応する雑音信号情報の一部のみを音声認識サーバ200に送信する。
具体的には、図9に示すように、端末装置100は、雑音信号区間に対応する雑音信号情報のうち、音声認識の開始操作が検出される前の一定区間に対応する雑音信号情報のみを音声認識サーバ200に送信する。すなわち、端末装置100は、雑音信号区間に対応する雑音信号情報の全てを送信しなくてもよい。
(作用及び効果)
第1実施形態の第1変形例に係る端末装置100によれば、端末装置100は、雑音信号区間に対応する雑音信号情報の全てを送信しないため、音声認識サーバ200に送信すべき情報量を削減することができる。
[第1実施形態の第2変形例]
以下において、第1実施形態の第2変形例について、図10を参照しながら説明する。図10は、第1実施形態の第2変形例に係る端末装置100の動作を示すフロー図である。なお、図10では、上述した図7と同様の処理について同様のステップ番号が付与されていることに留意すべきである。
上述した第1実施形態では、端末装置100は、音声認識の終了操作が検出されてから、音声信号情報及び雑音信号情報をまとめて音声認識サーバ200に送信する。
これに対して、第1実施形態の第2変形例では、端末装置100は、音声信号情報及び雑音信号情報を一定期間毎に音声認識サーバ200に送信する。
具体的には、図10に示すように、ステップ31において、端末装置100は、雑音信号情報の送信周期を計時するためのタイマがタイムアウトしているか否かを判定する。端末装置100は、タイマがタイムアウトしている場合には、ステップ32の処理に移り、タイマがタイムアウトしていない場合には、ステップ40の処理に移る。
ステップ32において、端末装置100は、バッファなどに蓄積された雑音信号情報を音声認識サーバ200に送信する。
ステップ33において、端末装置100は、送信周期をタイマに再セットするとともに、バッファなどに蓄積された雑音信号情報を消去する。
同様に、ステップ51において、端末装置100は、音声信号情報の送信周期を計時するためのタイマがタイムアウトしているか否かを判定する。端末装置100は、タイマがタイムアウトしている場合には、ステップ52の処理に移り、タイマがタイムアウトしていない場合には、ステップ60の処理に移る。
ステップ52において、端末装置100は、バッファなどに蓄積された音声信号情報を音声認識サーバ200に送信する。
ステップ53において、端末装置100は、送信周期をタイマに再セットするとともに、バッファなどに蓄積された音声信号情報を消去する。
(作用及び効果)
第1実施形態の第1変形例に係る端末装置100によれば、端末装置100は、音声信号情報及び雑音信号情報を一定期間毎に音声認識サーバ200に送信するため、音声認識サーバ200が音声認識処理を開始するタイミングを早めることができる。従って、端末装置100が音声認識の結果を取得するタイミングも早めることができる。
[第2実施形態]
以下において、第2実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第2実施形態との相違点について主として説明する。
具体的には、上述した第1実施形態では、開始条件は、音声認識の開始操作が検出されたことである。これに対して、第2実施形態では、開始条件は、音声認識の開始操作が検出されてから一定時間(例えば、200ms)が経過することである。なお、開始条件は、音声認識サーバ200に接続されてから一定時間が経過することであってもよい。
(端末装置の動作)
以下において、第2実施形態に係る端末装置の動作について、図面を参照しながら説明する。図11は、第2実施形態に係る端末装置100の動作を示すフロー図である。
なお、ステップ210、ステップ220、ステップ230、ステップ250、ステップ260、ステップ270の処理は、上述したステップ10、ステップ20、ステップ30、ステップ50、ステップ60、ステップ70の処理と同様である。従って、ステップ210、ステップ220、ステップ230、ステップ250、ステップ260、ステップ270の処理の説明については省略する。
図11に示すように、ステップ225において、端末装置100は、音声認識の開始操作を検出する。
ステップ240において、端末装置100は、音声認識の開始操作が検出されてから一定時間が経過したか否かを判定する。端末装置100は、音声認識の開始操作が検出されてから一定時間が経過した場合には、ステップ245の処理に移り、音声認識の開始操作が検出されてから一定時間が経過していない場合には、ステップ230の処理に戻る。
このように、端末装置100は、音声認識の開始操作が検出されてから一定時間が経過するまでの区間を雑音信号区間と判別する。
ステップ245において、端末装置100は、「音声を入力して下さい」などのように、対象話者に音声信号の入力を促すガイダンスを出力する。なお、ガイダンスは、音声によって出力されてもよく、文字によって出力されてもよい。
(作用及び効果)
第2実施形態に係る端末装置100によれば、音声認識の開始操作が検出されてから一定時間が経過するまでの区間(音声認識サーバ200に接続されてから一定時間が経過するまでの区間)を雑音信号区間とみなすことによって、上述した第1実施形態と同様の効果が得られる。
なお、端末装置100が音声認識サーバ200に接続する処理は一定の時間を要する処理であるため、端末装置100が音声認識サーバ200に接続されてすぐに、対象話者が音声(音声信号)を発するとは考えにくいことに留意すべきである。
また、対象話者は、音声認識の開始操作を行った後に、端末装置100が音声を受付けることが可能な状態となったことを確認することが一般的であることに留意すべきである。
また、音声認識の開始操作が検出されてから一定時間が経過するまでの区間を雑音信号区間とみなすことによって、音声信号が入力される直前の雑音環境を音声認識サーバ200が認識することができ、音声認識の精度をさらに向上する。
[第3実施形態]
以下において、第3実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第3実施形態との相違点について主として説明する。
具体的には、上述した第1実施形態では、開始条件は、音声認識の開始操作が検出されたことである。これに対して、第3実施形態では、開始条件は、センサによって検出された検出信号が所定閾値を超えることである。
(端末装置の動作)
以下において、第3実施形態に係る端末装置の動作について、図面を参照しながら説明する。図12は、第3実施形態に係る端末装置100の動作を示すフロー図である。
なお、ステップ310、ステップ320、ステップ330、ステップ350、ステップ370の処理は、上述したステップ10、ステップ20、ステップ30、ステップ50、ステップ70の処理と同様である。従って、ステップ310、ステップ320、ステップ330、ステップ350、ステップ370の処理の説明については省略する。
図12に示すように、ステップ340において、端末装置100は、センサによって検出された検出信号のパワー(振幅)が所定閾値を超えたか否かを判定する。端末装置100は、検出信号のパワー(振幅)が所定閾値を超えた場合には、ステップ350の処理に移り、検出信号のパワー(振幅)が所定閾値を超えていない場合には、ステップ330の処理に戻る。
このように、端末装置100は、音声認識サーバ200に接続されてから検出信号のパワー(振幅)が所定閾値を超えるまでの区間を雑音信号区間と判別する。
ステップ360において、端末装置100は、センサによって検出された検出信号のパワー(振幅)が所定閾値を下回ったか否かを判定する。端末装置100は、検出信号のパワー(振幅)が所定閾値を下回った場合には、ステップ370の処理に移り、検出信号のパワー(振幅)が所定閾値を下回っていない場合には、ステップ350の処理に戻る。
(作用及び効果)
第3実施形態に係る端末装置100によれば、音声認識サーバ200に接続されてから検出信号のパワー(振幅)が所定閾値を超えるまでの区間を雑音信号区間とみなすことによって、発話ボタンが設けられていない場合であっても、上述した第1実施形態と同様の効果が得られる。
[第3実施形態の第1変形例]
以下において、第3実施形態の第1変形例について、図13を参照しながら説明する。図13は、第3実施形態の第1変形例に係る端末装置100の動作を示すフロー図である。なお、図13では、上述した図12と同様の処理について同様のステップ番号を付与していることに留意すべきである。
上述した第3実施形態では、端末装置100は、検出信号のパワー(振幅)が所定閾値を下回った場合に、音声信号情報及び雑音信号情報を送信する。これに対して、第3実施形態の第1変形例では、端末装置100は、検出信号のパワー(振幅)が一定時間(例えば、1sec)継続して所定閾値を下回った場合に、音声信号情報及び雑音信号情報を送信する。
具体的には、図13に示すように、ステップ361において、端末装置100は、検出信号のパワー(振幅)が所定閾値を下回っている期間を計時するタイマに一定時間を再セットする。すなわち、端末装置100は、検出信号のパワー(振幅)が所定閾値を超えた場合に、タイマに一定時間を再セットする。
ステップ362において、端末装置100は、タイマが既に起動しているか否かを判定する。端末装置100は、タイマが既に起動している場合には、ステップ363の処理に移り、タイマが起動していない場合には、ステップ364の処理に移る。
ステップ363において、端末装置100は、タイマがタイムアウトしたか否かを判定する。端末装置100は、タイマがタイムアウトした場合には、ステップ370の処理に移り、タイマがタイムアウトしていない場合には、ステップ350の処理に戻る。
ステップ364において、端末装置100は、タイマを起動する。すなわち、端末装置100は、検出信号のパワー(振幅)が所定閾値を下回った際にタイマを起動する。
(作用及び効果)
第3実施形態の第1変形例に係る端末装置100によれば、端末装置100は、検出信号のパワー(振幅)が所定閾値を一時的に下回ったとしても、音声信号情報及び雑音信号情報を音声認識サーバ200に送信しない。これによって、対象話者が一時的に無言になったような場合に、音声認識の対象期間が途切れることを抑制することができる。
[第4実施形態]
以下において、第4実施形態について図面を参照しながら説明する。以下においては、上述した第1実施形態と第4実施形態との相違点について主として説明する。
具体的には、第1実施形態では、雑音信号情報は、雑音信号のスペクトラム情報である。これに対して、第4実施形態では、雑音信号情報は、雑音信号用に設けられたコードブックを用いて雑音信号を符号化した情報である。なお、雑音信号の符号化では、VQ(Vector Quantiazation)法が用いられることに留意すべきである。
(雑音特徴量抽出部の構成)
以下において、第4実施形態に係る雑音特徴量抽出部の構成について、図面を参照しながら説明する。図14は、第4実施形態に係る雑音特徴量抽出部150Aを示すブロック図である。
図14に示すように、雑音特徴量抽出部150Aは、コードブック記憶部151Aと、距離計算部152Aと、コード決定部153Aとを有する。
コードブック記憶部151Aは、雑音信号用に設けられたコードブックを記憶している。ここで、雑音信号用に設けられたコードブックは、様々な雑音信号を用いて予め作成されることに留意すべきである。
距離計算部152Aは、コードブック記憶部151Aに記憶されたコードブックに含まれるコードと、センサによって検出された雑音信号との距離を計算する。
コード決定部153Aは、コードブック記憶部151Aに記憶されたコードブックの中から、雑音信号からの距離が最も近いコードを決定する。
なお、上述した送信部160は、コード決定部153Aによって決定されたコードを雑音信号情報として音声認識サーバ200に送信する。
[その他の実施形態]
本発明は上述した実施形態によって説明したが、この開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
例えば、雑音信号情報のデータ構成は、フレーム毎にヘッダが付加される構成に限定されるものではない。具体的には、雑音信号情報のデータ構成は、図15に示すように、複数のフレームに対して単数の制御情報が付加される構成であってもよい。
図15に示すデータ構成では、雑音信号情報は、m個のフレーム(F1〜Fm)によって構成されており、フレームは、n個のサンプル(S1〜Sn)及びフレームの終端情報(E)によって構成されている。制御情報には、雑音信号情報に含まれるフレームの総数を示す情報(例えば、4Byte)、フレーム長を示す情報(例えば、4Byte)、サンプル長を示す情報(例えば、2Byte)が含まれる。
上述した実施形態では、雑音信号情報として、雑音信号のスペクトラム情報、雑音信号用に設けられたコードブックを用いて雑音信号を符号化した情報を例示したが、これに限定されるものではない。
具体的には、雑音信号情報は、雑音信号の波形情報であってもよい。雑音信号の波形情報としては、所定のサンプリングレートで雑音信号をサンプリングして、雑音信号をデジタル化した情報を用いることができる(PCM;Pulse Code Modulation)。
また、雑音信号情報は、音声信号情報と同様に、雑音信号のケプストラム情報であってもよい。この場合には、音声特徴量抽出部140の構成を雑音特徴量抽出部150に適用すればよい。
上述した第1実施形態の第1変形例及び第2変形例は、他の実施形態(又は、変形例)にも適用できることは勿論である。
第1実施形態に係る通信システムの構成を示す概略図である。 第1実施形態に係る端末装置100の構成を示すブロック図である。 第1実施形態に係る音声特徴量抽出部140を示すブロック図である。 第1実施形態に係る雑音特徴量抽出部150を示すブロック図である。 第1実施形態に係る音声認識サーバ200の構成を示すブロック図である。 第1実施形態に係る音声信号情報及び雑音信号情報のデータ構成の一例を示す図である。 第1実施形態に係る端末装置100の動作を示すフロー図である。 第1実施形態に係る音声認識サーバ200の動作を示すフロー図である。 第1実施形態の第1変形例に係る雑音信号情報の概念を説明するための図である。 第1実施形態の第2変形例に係る端末装置100の動作を示すフロー図である。 第2実施形態に係る端末装置100の動作を示すフロー図である。 第3実施形態に係る端末装置100の動作を示すフロー図である。 第3実施形態の第1変形例に係る端末装置100の動作を示すフロー図である。 第4実施形態に係る雑音特徴量抽出部150を示すブロック図である。 その他の実施形態に係る雑音信号情報のデータ構成の一例を示す図である。
符号の説明
100・・・端末装置、110・・・音声入力部、120・・・入力インターフェース部、130・・・音声/雑音判別部、140・・・音声特徴量抽出部、141・・・高域強調処理部、142・・・ハミング窓処理部、143・・・FFT処理部、144・・・メルフィルタ処理部、145・・・対数計算処理部、146・・・離散コサイン処理部、150・・・雑音特徴量抽出部、150A・・・雑音特徴量抽出部、151・・・高域強調処理部、151A・・・コードブック記憶部、152・・・ハミング窓処理部、152A・・・距離計算部、153・・・FFT処理部、153A・・・コード決定部、154・・・メルフィルタ処理部、160・・・送信部、170・・・受信部、180・・・出力インターフェース部、200・・・音声認識サーバ、210・・・受信部、220・・・音声/雑音振分部、230・・・雑音状況判定部、240・・・音響モデルDB、250・・・音声認識処理部、260・・・送信部、300・・・ネットワーク

Claims (7)

  1. ネットワークを介して音声認識サーバに接続されており、主信号源及び副信号源が発する信号を検出するセンサを備えた端末装置であって、
    主信号区間と副信号区間とを判別する判別部と、
    前記センサによって検出された信号である検出信号のうち、前記主信号区間に対応する前記検出信号を主信号として取得し、前記主信号に基づいて主信号情報を抽出する第1抽出部と、
    前記センサによって検出された前記検出信号のうち、前記副信号区間に対応する前記検出信号を副信号として取得し、前記副信号に基づいて副信号情報を抽出する第2抽出部と、
    前記主信号情報及び前記副信号情報を前記音声認識サーバに送信する送信部とを備え、
    前記判別部は、音声認識を開始する条件である開始条件が満たされるまでの所定区間を前記副信号区間として判別することを特徴とする端末装置。
  2. 前記判別部は、前記音声認識サーバに接続されてから前記開始条件が満たされるまでの区間を前記副信号区間として判別することを特徴とする請求項1に記載の端末装置。
  3. 前記開始条件は、前記音声認識サーバに接続されてから経過した時間が一定時間を超えること、音声認識を開始するための操作が検出されること、又は、前記検出信号が所定閾値を超えることであることを特徴とする請求項1に記載の端末装置。
  4. 前記副信号情報は、前記副信号のスペクトラム情報、前記副信号のケプストラム情報、前記副信号の波形情報、又は、前記副信号用に設けられたコードブックを用いて前記副信号を符号化した情報であることを特徴とする請求項1に記載の端末装置。
  5. 前記送信部は、前記主信号情報を識別する主信号識別子とともに前記主信号情報を送信し、前記副信号情報を識別する副信号識別子とともに前記副信号情報を送信することを特徴とする請求項1に記載の端末装置。
  6. 主信号源及び副信号源が発する信号を検出するセンサを備えた端末装置と音声認識サーバとがネットワークを介して接続された通信システムで用いられる判別方法であって、
    主信号区間と副信号区間とを判別するステップAと、
    前記センサによって検出された信号である検出信号のうち、前記主信号区間に対応する前記検出信号を主信号として取得し、前記主信号に基づいて主信号情報を抽出するステップBと、
    前記センサによって検出された前記検出信号のうち、前記副信号区間に対応する前記検出信号を副信号として取得し、前記副信号に基づいて副信号情報を抽出するステップCとを含み、
    前記ステップAでは、音声認識を開始する条件である開始条件が満たされるまでの所定区間を前記副信号区間として判別することを特徴とする判別方法。
  7. 前記ステップAでは、前記音声認識サーバに接続されてから前記開始条件が満たされるまでの区間を前記副信号区間として判別することを特徴とする請求項6に記載の判別方法。
JP2006347946A 2006-12-25 2006-12-25 端末装置及び判別方法 Pending JP2008158328A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006347946A JP2008158328A (ja) 2006-12-25 2006-12-25 端末装置及び判別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006347946A JP2008158328A (ja) 2006-12-25 2006-12-25 端末装置及び判別方法

Publications (1)

Publication Number Publication Date
JP2008158328A true JP2008158328A (ja) 2008-07-10

Family

ID=39659284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006347946A Pending JP2008158328A (ja) 2006-12-25 2006-12-25 端末装置及び判別方法

Country Status (1)

Country Link
JP (1) JP2008158328A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018052A (ja) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ 端末装置、翻訳方法、及び、翻訳プログラム
US10304443B2 (en) 2014-01-21 2019-05-28 Samsung Electronics Co., Ltd. Device and method for performing voice recognition using trigger voice
JP2019211752A (ja) * 2018-06-01 2019-12-12 サウンドハウンド,インコーポレイテッド カスタム音響モデル

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5876899A (ja) * 1981-10-31 1983-05-10 株式会社東芝 音声区間検出装置
JP2000353790A (ja) * 1999-04-13 2000-12-19 Sharp Corp 強誘電体アプリケーションのためのPb5Ge3O11薄膜の化学蒸着法
JP2002229584A (ja) * 2001-01-31 2002-08-16 Toyota Central Res & Dev Lab Inc 音声認識方法、音声情報検索方法、プログラム、記録媒体、音声認識システム、音声認識用サーバ・コンピュータおよび音声情報検索用サーバ・コンピュータ
JP2003241788A (ja) * 2002-02-20 2003-08-29 Ntt Docomo Inc 音声認識装置及び音声認識システム
JP2003330484A (ja) * 2002-05-17 2003-11-19 Pioneer Electronic Corp 音声認識装置及び音声認識方法
JP2004527006A (ja) * 2001-05-17 2004-09-02 クゥアルコム・インコーポレイテッド 分散型音声認識システムにおける音声アクティブな状態を送信するためのシステム及び方法
JP2005012377A (ja) * 2003-06-17 2005-01-13 Sharp Corp 通信端末、通信端末の制御方法、音声認識処理装置、音声認識処理装置の制御方法、通信端末制御プログラム、通信端末制御プログラムを記録した記録媒体、音声認識処理装置制御プログラム、および、音声認識処理装置制御プログラムを記録した記録媒体
JP2005331616A (ja) * 2004-05-18 2005-12-02 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、これに用いる装置、そのプログラム及び記録媒体
JP2008529096A (ja) * 2005-02-04 2008-07-31 フランス テレコム 音声認識システムにおける音声終了マークを送信する方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5876899A (ja) * 1981-10-31 1983-05-10 株式会社東芝 音声区間検出装置
JP2000353790A (ja) * 1999-04-13 2000-12-19 Sharp Corp 強誘電体アプリケーションのためのPb5Ge3O11薄膜の化学蒸着法
JP2002229584A (ja) * 2001-01-31 2002-08-16 Toyota Central Res & Dev Lab Inc 音声認識方法、音声情報検索方法、プログラム、記録媒体、音声認識システム、音声認識用サーバ・コンピュータおよび音声情報検索用サーバ・コンピュータ
JP2004527006A (ja) * 2001-05-17 2004-09-02 クゥアルコム・インコーポレイテッド 分散型音声認識システムにおける音声アクティブな状態を送信するためのシステム及び方法
JP2003241788A (ja) * 2002-02-20 2003-08-29 Ntt Docomo Inc 音声認識装置及び音声認識システム
JP2003330484A (ja) * 2002-05-17 2003-11-19 Pioneer Electronic Corp 音声認識装置及び音声認識方法
JP2005012377A (ja) * 2003-06-17 2005-01-13 Sharp Corp 通信端末、通信端末の制御方法、音声認識処理装置、音声認識処理装置の制御方法、通信端末制御プログラム、通信端末制御プログラムを記録した記録媒体、音声認識処理装置制御プログラム、および、音声認識処理装置制御プログラムを記録した記録媒体
JP2005331616A (ja) * 2004-05-18 2005-12-02 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、これに用いる装置、そのプログラム及び記録媒体
JP2008529096A (ja) * 2005-02-04 2008-07-31 フランス テレコム 音声認識システムにおける音声終了マークを送信する方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304443B2 (en) 2014-01-21 2019-05-28 Samsung Electronics Co., Ltd. Device and method for performing voice recognition using trigger voice
US11011172B2 (en) 2014-01-21 2021-05-18 Samsung Electronics Co., Ltd. Electronic device and voice recognition method thereof
US11984119B2 (en) 2014-01-21 2024-05-14 Samsung Electronics Co., Ltd. Electronic device and voice recognition method thereof
JP2018018052A (ja) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ 端末装置、翻訳方法、及び、翻訳プログラム
JP2019211752A (ja) * 2018-06-01 2019-12-12 サウンドハウンド,インコーポレイテッド カスタム音響モデル
US11011162B2 (en) 2018-06-01 2021-05-18 Soundhound, Inc. Custom acoustic models
US11367448B2 (en) 2018-06-01 2022-06-21 Soundhound, Inc. Providing a platform for configuring device-specific speech recognition and using a platform for configuring device-specific speech recognition
US11830472B2 (en) 2018-06-01 2023-11-28 Soundhound Ai Ip, Llc Training a device specific acoustic model

Similar Documents

Publication Publication Date Title
KR100636317B1 (ko) 분산 음성 인식 시스템 및 그 방법
CN111816218B (zh) 语音端点检测方法、装置、设备及存储介质
JP6553111B2 (ja) 音声認識装置、音声認識方法及び音声認識プログラム
US8892424B2 (en) Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person
CN108305628B (zh) 语音识别方法、装置、计算机设备和存储介质
WO2011148594A1 (ja) 音声認識システム、音声取得端末、音声認識分担方法および音声認識プログラム
WO2015103836A1 (zh) 一种语音控制方法及装置
CN105391708A (zh) 音频数据的检测方法及装置
KR20150145024A (ko) 화자적응 음성인식 시스템의 단말 및 서버와 그 운용 방법
CN111145763A (zh) 一种基于gru的音频中的人声识别方法及***
CN1447963A (zh) 语音编码中噪音鲁棒分类方法
US10276191B2 (en) Speech section detection device, voice processing system, speech section detection method, and computer program product
JP2008158328A (ja) 端末装置及び判別方法
CN111107284A (zh) 一种视频字幕实时生成***及生成方法
JP6549009B2 (ja) 通信端末及び音声認識システム
WO2019119552A1 (zh) 连续长语音文件的翻译方法与翻译机
CN115223584B (zh) 音频数据处理方法、装置、设备及存储介质
CN111986657B (zh) 音频识别方法和装置、录音终端及服务器、存储介质
CN111108553A (zh) 一种声音采集对象声纹检测方法、装置和设备
JP2016180915A (ja) 音声認識システム、クライアント装置、音声認識方法、プログラム
CN114333864A (zh) 一种音频数据混音方法、终端及计算机可读存储介质
CN109273003B (zh) 用于行车记录仪的语音控制方法及***
EP3913809A1 (en) Decoding device, decoding method, and program
CN112542157A (zh) 语音处理方法、装置、电子设备及计算机可读存储介质
JP6693340B2 (ja) 音声処理プログラム、音声処理装置、及び音声処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130