JP4276781B2 - 音声信号処理方法および音声信号処理装置 - Google Patents

音声信号処理方法および音声信号処理装置 Download PDF

Info

Publication number
JP4276781B2
JP4276781B2 JP2000537202A JP2000537202A JP4276781B2 JP 4276781 B2 JP4276781 B2 JP 4276781B2 JP 2000537202 A JP2000537202 A JP 2000537202A JP 2000537202 A JP2000537202 A JP 2000537202A JP 4276781 B2 JP4276781 B2 JP 4276781B2
Authority
JP
Japan
Prior art keywords
audio signal
segments
maximum value
signal
envelope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000537202A
Other languages
English (en)
Other versions
JP2002507775A (ja
Inventor
シュナイダー トビアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2002507775A publication Critical patent/JP2002507775A/ja
Application granted granted Critical
Publication of JP4276781B2 publication Critical patent/JP4276781B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Machine Translation (AREA)

Description

【0001】
本発明は、音声信号処理法および音声信号処理装置に関する。
【0002】
音声認識システムは文献[1]により知られている。そこには、音声認識システムのコンポーネントの基礎的な概説ならびに音声認識において一般的な重要技術についても開示されている。
【0003】
また、文献[2]によりウェーブレット変換が公知である。ウェーブレット変換は有利には複数の変換段において行われ、その際、1つの変換段によって1つのパターンがハイパスフィルタ成分とローパスフィルタ成分に分けられる。個々のハイパスフィルタ成分とローパスフィルタ成分は、有利にはそのパターンよりも低減された分解能をもっている(英語の用語ではサブサンプリング subsampling、つまり低減されたサンプリングレート、それにより低減された分解能)。ハイパスフィルタ成分とローパスフィルタ成分から、パターンを再構成することができる。このことはたとえば、変換で用いられる変換フィルタの特別な形態によって保証される。ウェーブレット変換は1次元、2次元またはそれ以上の次元で行うことができる。
【0004】
音声信号には有効信号と妨害信号が含まれており、妨害信号の強さは周囲環境に依存している。音声信号の後続処理のために重要な前提条件は、有効信号を妨害信号から分離することである。
【0005】
音声信号における周波数スペクトルのそれぞれ異なる領域を、強さの程度の差をつけて抑圧する方法が知られている。その際の欠点は、妨害信号のダイナミックな発生が考慮されないことである。
【0006】
本発明の課題は、音声信号の処理にあたり上述の欠点が回避されるようにした方法および装置を提供することにある。
【0007】
この課題は、独立請求項の特徴部分に記載の構成により解決される。
【0008】
たとえば高速フーリエ変換(FFT)による周波数領域への時間信号の変換によって、所定数のサンプリング値の含まれている時間信号の領域が周波数領域に変換される。このプロセスは種々の時点で行われ、それによって周波数領域において漸進的な時点で、時間信号の変換された個々の領域に依存する様々な値が生じることになる。このようにして、周波数経過特性を時間軸上で表すことができる。
【0009】
FETのほかにウェーブレット変換を使用することができるし、あるいは時間領域を周波数領域にマッピングする他のいかなる変換を使用してもよい。
【0010】
この場合、音声信号を処理するために音声信号を周波数領域に変換する方法が提供される。音声信号における少なくとも1つの所定の周波数について、周波数領域に変換された音声信号の包絡線が時間軸上で求められる。この包絡線は、それぞれ所定の期間によって定められた複数のセグメントに分割される。これら複数のセグメントにおいて各セグメントごとに、包絡線の最大値が求められる。これら複数のセグメントのうち所定数のセグメントに関して、最も小さい最大値が求められる。その際、何らかの係数で重み付けられた最も小さい最大値を音声信号から差し引くようにして、音声信号の処理が行われる。
【0011】
したがって有利には、時間軸上で包絡線の求められる個々の周波数について所定の期間にわたって最も小さい最大値が定められ、その際、たとえば有効信号と妨害信号をもつ音声信号であれば、その最も小さい最大値には妨害信号が含まれる。殊にこれは、音声信号が発声された言語すなわちスピーチないしはボイスであるときに明らかになる。この場合、スピーチには複数の単語が含まれており、それらは流暢な発音であってもスペクトル的に最小である個所(たとえば個々の単語の間の休止)を有している。スペクトル的に最小であるそのような個所では有効信号はほとんど存在していないのに対し、妨害信号は優勢である。
【0012】
別の利点は、複数のセグメントについて最も小さい最大値が求められることである。この場合、複数のセグメントは、時間軸上で妨害信号のダイナミックな経過特性を有している。したがって妨害信号を、ある期間にわたり加速し続けている自動車内のエンジンノイズとすることができる。このように自動車内の妨害信号は(加速中)、時間の経過とともに増大する。そのつど複数のセグメントについて最も小さい最大値が求められるので、時間の経過とともに複数のセグメントごとに最も小さい最大値が(新たに)求められ、その結果、妨害信号のダイナミックな発生をいっしょに考慮できるようになる。
【0013】
本発明の1つの実施形態によれば、複数のセグメントのうちさらに別の複数のセグメントについて最小値が求められ、上述の最も小さい最大値が最小値と結合されて音声信号から差し引かれるようにして、音声信号が処理される。
【0014】
上記の別の複数のセグメントについて求められた最小値をいっしょに考慮することは、有効信号を得るために音声信号から差し引かれるべき妨害信号の適応化のために、きわめて有利であることが判明した。目下のところ有効信号が存在していなければ、その最小値は妨害信号を表し、したがってそれが音声信号から差し引かれる。
【0015】
1つの別の実施形態によれば、上述の最小値と最も小さい最大値は式
【0016】
【数2】
Figure 0004276781
【0017】
に従って結合され、ここでaは第1の所定の係数を表し、bは第2の所定の係数、maxは最も小さい最大値、minは最小値を表す。その際、これらの係数は、適用事例にとって好適な妨害信号低減が行われるよう、まえもって与えることができる。
【0018】
1つの有利な実施形態によれば、それぞれ複数のセグメントまたはさらに別の複数のセグメントが経過した後、更新が実行され、これは更新される妨害信号が音声信号から差し引かれることによって行われる。
【0019】
付加的な実施形態において有利であるのは、音声信号がスピーチ信号ないしはボイス信号であり、たとえば自然に発声された言語すなわちスピーチないしはボイスである場合である。
【0020】
また、1つの実施形態によれば、処理された音声信号が音声認識のために用いられる。まさに音声認識システムにとっては、可能なかぎり妨害信号のない明瞭な有効信号というのが有利な前提条件である。したがって有効信号が明瞭であればあるほど、音声認識システムは発声された言語をいっそう良好に認識する。さらに、有効信号を出力することもできる。
【0021】
本発明によればさらに、音声信号処理装置が提供される。この装置はプロセッサユニットを有しており、これは音声信号を周波数領域に変換できるように構成されている。その際、少なくとも1つのまえもって定められた周波数について、周波数領域に変換された音声信号の包絡線を時間軸上で求めることができる。この包絡線は、それぞれ所定の期間により定められた複数のセグメントに分割可能である。複数のセグメントにおいて各セグメントごとに包絡線の最大値が求められる。また、複数のセグメントにおいて所定数のセグメントについて、最も小さい最大値が求められる。さらに、何らかの係数で重み付けられた最も小さい最大値が音声信号から差し引かれるようにして、音声信号が処理される。
【0022】
このような音声信号処理装置の1つの可能な実施形態によれば、プロセッサユニットは次のように構成されている。すなわち、複数のセグメントのうち別の複数のセグメントについて最小値が求められ、上述の最も小さい最大値がその最小値と結合されて音声信号から差し引かれるようにして、音声信号の処理が行われる。
【0023】
この装置は、本発明による方法または前述のその実施形態を実行するために殊に適している。従属請求項には実施形態が示されている。
【0024】
次に、以下の図面を参照しながら本発明の実施例について詳しく説明する。
【0025】
図1は、音声信号処理方法における複数のステップを示す図である。
【0026】
【外1】
Figure 0004276781
【0027】
図3は、プロセッサユニットを示す図である。
【0028】
図4は、音声認識システムを示す図である。
【0029】
図1は、音声信号処理方法の複数のステップを示す図である。以下では図1aと図1bを参照しながら、音声信号処理のための2つの変形例について説明する。
【0030】
図1aにおいて、音声信号は少なくとも1つの周波数領域に変換される(ステップ101参照)。有利には、この変換は高速フーリエ変換(FFT)である。その際、変換は所定の時点tiにおいて実行され、このため少なくとも1つの周波数の経過特性が時点tiにおいて求められる。このような時間に依存した周波数経過特性を介して、ステップ102において包絡線が求められる。これは少なくとも1つの周波数について実行され、たとえば音声信号における複数の重要な周波数について実行される。ステップ103において個々の周波数包絡線が、有利には等しい期間をもつ複数のセグメントに分けられる。各セグメントごとに、包絡線経過特性中の最大値が求められる(ステップ104参照)。ステップ105において、所定数のセグメントのうち最も小さい最大値が求められ、その最も小さい最大値は、妨害信号を低減してできるかぎり強い有効信号が得られるようにする目的で、たとえば何らかのファクタによって重みづけられて音声信号から差し引かれる(ステップ106)。最も小さい最大値は、決まった個数だけ過去に遡った複数のセグメントについて求められ、この場合、所定時間後に最も小さい最大値について再度、その新しい時点で所定数だけ過去に遡ったセグメントを考慮して更新が実行される。このようにして、個数Nの先行のセグメントにより定められたすべての時点で、時間軸上の個々の周波数の包絡線に対する最も小さい最大値のダイナミックな整合が行われる。妨害信号のダイナミックな整合の必要性を具体的に表す1つの実例は、加速中の車両内における妨害信号であって、この場合、エンジンノイズが加速に応じて時間が経つにつれて増大する。エンジンノイズの増大に相応する妨害信号は、所定の周波数の包絡線に対しまえもって定められた時点で最も小さい最大値を更新することによって整合され、これによって質的に価値の高い有効信号を音声信号から得ることができる。
【0031】
図1bには図1aと同様、ステップ101,102,103,104,105が示されている。この場合、ステップ103の後、最大値の決定(104および105)のほかに、そのつど調べられている周波数の包絡線において所定の期間における最小値も求められる(ステップ107参照)。殊にここで注目しているのは、所定数の先行のセグメントにおける(最も小さい)最小値つまり目下の時点から考慮すべき期間にわたり包絡線において現れた最小値である。ついでステップ108において、音声信号から差し引くべき妨害信号を得て、有効信号の品質を著しく改善する目的で、最も小さい最大値も最小値も相互に結合される。
【0032】
最小値は式
【0033】
【数3】
Figure 0004276781
【0034】
に従い最も最大値と結合される。ここで、aは第1の所定の係数を表し、bは第2の所定の係数、maxは最も小さい最大値、さらにminは最小値を表す。
【0035】
これに基づき有利には、
【0036】
【数4】
Figure 0004276781
【0037】
この結合によって、妨害信号の時間的な変化も考慮される。有効信号に一定の妨害信号が重畳されているとき、その妨害信号ないしはそれに比例する成分が正確に消去される。
【0038】
最小値および必要に応じて最も小さい最大値を求めるために考慮すべきタイムインターバルT(これは所定数の先行のセグメントの期間を表す)はたとえば、そのタイムインターバルTが発生された語よりも長くなるように選定される(ここではもちろん音声信号は発声された言語すなわちスピーチないしはボイスに対応する)。最小値ないしは最も小さい最大値の更新は時点t=n*Tにおいて行われ、つまりn個のタイムインターバルTごとにて行われる。
【0039】
【外2】
Figure 0004276781
【0040】
たとえば、最も小さい最大値と最小値による重み付けられた平均値が、(そのつど考慮すべき周波数fiに関する)音声信号から差し引かれる。
【0041】
さらに、最も小さい最大値と最小値がその時点taktよりも前の所定のN個のセグメントを考慮して求められる。音声信号から差し引かれるべき妨害信号の整合によって、それぞれ異なる時点taktで新たに最も小さい最大値と最小値が(過去に遡ったN個のセグメントについて)求められ、互いに結合され、(個々の周波数fiに関連する)有効信号から差し引かれる。
【0042】
【外3】
Figure 0004276781
【0043】
図3にはプロセッサユニットPRZEが描かれている。プロセッサユニットPRZEは、プロセッサCPUとメモリSPEと入出力インタフェースIOSを有しており、これはインタフェースIFCを介してそれぞれ異なるやり方で利用される。すなわち出力はグラフィックインタフェースを介して、モニタMONで見えるように、および/またはプリンタPRTによって送出される。入力は、マウスMASまたはキーボードTASTによって行われる。さらにこのプロセッサユニットPRZEはデータバスBUSも有しており、このバスによってメモリMEM、プロセッサCPUおよび入出力インタフェースIOSの接続が保証される。さらにこのデータバスBUSに付加的なコンポーネントを接続可能であって、たとえば付加的なメモリ、データ記憶装置(ハードディスク)またはスキャナを接続することができる。
【0044】
図4には音声認識システムが示されている。自然に発生された音声を認識するための前提条件は、知識表現のための適切なフォーマリスム(formalis)である。完全な音声認識システムは複数の処理レベルを有している。これはたとえばアコースティック・フォネティクス、イントネーション、シンタックス、セマンティクスならびにプラグマティクスである。図4には、認識の際の複数の処理レベルが示されている(文献[1]参照)。
【0045】
この音声認識システムに自然のスピーチ信号SPRSが到達する。そこではコンポーネントMEXにおいて特徴抽出が実行される。特徴抽出後、周知の音響音声単位APEに基づき言語音が認識される(ブロックSPLE参照)。この場合、音響的な距離パラメータの計算が行われる。SPLEにおける言語音認識後、ブロックLDKにおいて、発音モデルや単語辞書WOLXを用いて語彙的なデコーディング(単語認識)が行われ、それにつづいて文法を含む音声モデルGRSMLを用いてシンタクス分析SYALが行われる。単語認識LDKおよびシンタクス分析SYALは、スピーチ信号に対する対応に従った探索を成している。次にブロックSENBにおいてセマンティクスによる後処理が実行され、その際、文脈情報やプラグマティクスKWPMが考慮され、ついで音声認識システムにより認識されたスピーチERSPRが生じる。
【0046】
本明細書では以下の刊行物を引用した。
【0047】
[1] A. Hauenstein: "Optimierung von Alogrithmen und Entwurf eines Prozessors fuer die automatische Spracherkenung", Lehrstuhl fuer Integrierte Schaltungen, Technische Universitaet Muenchen, Dissertation, 19.07.1993 Chapter 2, p. 13 - 26
[2]S.G. Mallat: A Theory for Multiresolution Signal Decompposition: The Wavelet Representation, IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 11, No. 7, 6. 1989, p. 674 - 693

【図面の簡単な説明】
【図1A】 音声信号処理方法における複数のステップを示す図である。
【図1B】 音声信号処理方法における複数のステップを示す図である。
【図2】 周波数fiの包絡線の経過特性を時間tにわたり示す図である。
【図3】 プロセッサユニットを示す図である。
【図4】 音声認識システムを示す図である。

Claims (8)

  1. 音声信号処理方法において、
    a)音声信号を周波数領域に変換し、
    b)少なくとも1つの所定の周波数について、前記周波数領域に変換された音声信号における時間軸上の包絡線を求め、
    c)該包絡線を、それぞれ所定の期間により定められた複数のセグメントに分割し、
    d)前記の複数のセグメントにおいて各セグメントごとに包絡線の最大値を求め、
    e)前記の複数のセグメントのうち所定数のセグメントについて最も小さい最大値を求め、
    f)所定のファクタで重み付けられた最も小さい最大値を音声信号から差し引くことによって音声信号を処理することを特徴とする、
    音声信号処理方法。
  2. a)複数のセグメントのうちさらに複数のセグメントについて最小値を求め、
    b)最も小さい最大値を最小値と結合して音声信号から差し引くことにより音声信号を処理する、
    請求項1記載の方法。
  3. 前記の最小値と最も小さい最大値を式
    Figure 0004276781
    に従って結合し、
    ここでaは第1の所定の係数を表し、bは第2の所定の係数、maxは最も小さい最大値、minは最小値を表す、
    請求項1記載の方法。
  4. 前記の所定数のセグメントまたは別の複数のセグメントがそのつど経過した後、音声信号を処理する、請求項1から3のいずれか1項記載の方法。
  5. 前記音声信号はスピーチ信号である、請求項1から4のいずれか1項記載の方法。
  6. 処理された音声信号を音声認識システムのために使用する、請求項1から5のいずれか1項記載の方法。
  7. 音声処理装置において、
    プロセッサユニットが設けられており、該プロセッサユニットにより、
    a)音声信号が周波数領域に変換され、
    b)少なくとも1つの所定の周波数について、前記周波数領域に変換された音声信号における時間軸上の包絡線が求められ、
    c)該包絡線が、それぞれ所定の期間により定められた複数のセグメントに分割され、
    d)前記の複数のセグメントにおいて各セグメントごとに包絡線の最大値が求められ、
    e)前記の複数のセグメントのうち所定数のセグメントについて最も小さい最大値が求められ、
    f)所定のファクタで重み付けられた最も小さい最大値が音声信号から差し引かれることによって音声信号が処理されることを特徴とする、
    音声処理装置。
  8. 前記プロセッサユニットにより、
    a)複数のセグメントのうちさらに複数のセグメントについて最小値が求められ、
    b)最も小さい最大値が最小値と結合されて音声信号から差し引かれることにより音声信号が処理される
    請求項7記載の装置。
JP2000537202A 1998-03-19 1999-03-08 音声信号処理方法および音声信号処理装置 Expired - Fee Related JP4276781B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19812207.1 1998-03-19
DE19812207 1998-03-19
PCT/DE1999/000615 WO1999048084A1 (de) 1998-03-19 1999-03-08 Verfahren und vorrichtung zur bearbeitung eines tonsignals

Publications (2)

Publication Number Publication Date
JP2002507775A JP2002507775A (ja) 2002-03-12
JP4276781B2 true JP4276781B2 (ja) 2009-06-10

Family

ID=7861632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000537202A Expired - Fee Related JP4276781B2 (ja) 1998-03-19 1999-03-08 音声信号処理方法および音声信号処理装置

Country Status (5)

Country Link
US (1) US6804646B1 (ja)
EP (1) EP1062659B1 (ja)
JP (1) JP4276781B2 (ja)
DE (1) DE59900797D1 (ja)
WO (1) WO1999048084A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8092034B2 (en) * 2007-11-07 2012-01-10 Richard David Ashoff Illuminated tile systems and methods for manufacturing the same
US8321209B2 (en) 2009-11-10 2012-11-27 Research In Motion Limited System and method for low overhead frequency domain voice authentication
US8326625B2 (en) * 2009-11-10 2012-12-04 Research In Motion Limited System and method for low overhead time domain voice authentication
CN111387978B (zh) * 2020-03-02 2023-09-26 京东科技信息技术有限公司 一种表面肌电信号的动作段检测方法、装置、设备及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3196212A (en) 1961-12-07 1965-07-20 Ibm Local amplitude detector
US4185168A (en) * 1976-05-04 1980-01-22 Causey G Donald Method and means for adaptively filtering near-stationary noise from an information bearing signal
US4888806A (en) * 1987-05-29 1989-12-19 Animated Voice Corporation Computer speech system
EP0763812B1 (en) * 1990-05-28 2001-06-20 Matsushita Electric Industrial Co., Ltd. Speech signal processing apparatus for detecting a speech signal from a noisy speech signal
JPH04150522A (ja) * 1990-10-15 1992-05-25 Sony Corp ディジタル信号処理装置
US5323337A (en) * 1992-08-04 1994-06-21 Loral Aerospace Corp. Signal detector employing mean energy and variance of energy content comparison for noise detection
US5479560A (en) 1992-10-30 1995-12-26 Technology Research Association Of Medical And Welfare Apparatus Formant detecting device and speech processing apparatus
JP3237089B2 (ja) * 1994-07-28 2001-12-10 株式会社日立製作所 音響信号符号化復号方法
JP3765171B2 (ja) * 1997-10-07 2006-04-12 ヤマハ株式会社 音声符号化復号方式

Also Published As

Publication number Publication date
JP2002507775A (ja) 2002-03-12
US6804646B1 (en) 2004-10-12
EP1062659B1 (de) 2002-01-30
EP1062659A1 (de) 2000-12-27
DE59900797D1 (de) 2002-03-14
WO1999048084A1 (de) 1999-09-23

Similar Documents

Publication Publication Date Title
JP3364904B2 (ja) 自動音声認識方法及び装置
JP5230103B2 (ja) 自動音声認識器のためのトレーニングデータを生成する方法およびシステム
KR100870889B1 (ko) 음신호 처리 방법, 음신호 처리 장치 및 기록 매체
EP0970466B1 (en) Voice conversion
US6173258B1 (en) Method for reducing noise distortions in a speech recognition system
US8812312B2 (en) System, method and program for speech processing
US7254536B2 (en) Method of noise reduction using correction and scaling vectors with partitioning of the acoustic space in the domain of noisy speech
EP0838805B1 (en) Speech recognition apparatus using pitch intensity information
US20030093269A1 (en) Method and apparatus for denoising and deverberation using variational inference and strong speech models
US20110301945A1 (en) Speech signal processing system, speech signal processing method and speech signal processing program product for outputting speech feature
JP4061094B2 (ja) 音声認識装置、その音声認識方法及びプログラム
US20100217584A1 (en) Speech analysis device, speech analysis and synthesis device, correction rule information generation device, speech analysis system, speech analysis method, correction rule information generation method, and program
JP3632529B2 (ja) 音声認識装置及び方法ならびに記録媒体
JP4276781B2 (ja) 音声信号処理方法および音声信号処理装置
US6470311B1 (en) Method and apparatus for determining pitch synchronous frames
US6785648B2 (en) System and method for performing speech recognition in cyclostationary noise environments
JP4571871B2 (ja) 音声信号分析方法およびこの分析方法を実施する装置、この音声信号分析装置を用いた音声認識装置、この分析方法を実行するプログラムおよびその記憶媒体
JP4325044B2 (ja) 音声認識システム
US20020173276A1 (en) Method for suppressing spurious noise in a signal field
KR100484666B1 (ko) 성도특성 변환을 이용한 음색변환장치 및 방법
CN111226278A (zh) 低复杂度的浊音语音检测和基音估计
USH2172H1 (en) Pitch-synchronous speech processing
JP3302075B2 (ja) 合成パラメータ変換方法および装置
JPH1097288A (ja) 背景雑音除去装置及び音声認識装置
KR20050082566A (ko) 음성인식장치에서의 음성 특징 벡터 추출방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees