JP5453740B2 - 音声強調装置 - Google Patents

音声強調装置 Download PDF

Info

Publication number
JP5453740B2
JP5453740B2 JP2008174016A JP2008174016A JP5453740B2 JP 5453740 B2 JP5453740 B2 JP 5453740B2 JP 2008174016 A JP2008174016 A JP 2008174016A JP 2008174016 A JP2008174016 A JP 2008174016A JP 5453740 B2 JP5453740 B2 JP 5453740B2
Authority
JP
Japan
Prior art keywords
band
frequency
speech
enhancement
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008174016A
Other languages
English (en)
Other versions
JP2010014914A (ja
Inventor
香緒里 遠藤
恭士 大田
猛 大谷
太郎 外川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008174016A priority Critical patent/JP5453740B2/ja
Priority to ES09004246T priority patent/ES2372133T3/es
Priority to EP09004246A priority patent/EP2141695B1/en
Priority to US12/382,905 priority patent/US8560308B2/en
Priority to CN2009101320523A priority patent/CN101620855B/zh
Publication of JP2010014914A publication Critical patent/JP2010014914A/ja
Application granted granted Critical
Publication of JP5453740B2 publication Critical patent/JP5453740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/32Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Telephone Function (AREA)

Description

本発明は、音声伝送システムにおいて、周囲騒音が大きい環境で会話する場合に、受話音が聞き取りにくくなることを防ぐために、利用者が受話音声を聞き取りやすくなるように受話音声を強調する、音声信号の強調方式および装置に関する。
既存の音声の強調処理としては、音声信号の特徴を用い母音の識別特性に影響する受話音声のスペクトルの複数のピークであるフォルマントを周囲騒音の大きさに応じて強調する技術(例えば、特許文献1参照)や、受話音声と周囲騒音のSNRに応じて受話音声を強調する技術(例えば、特許文献2参照)が知られている。
特許第4018571号 特開2000−349893号公報
しかしながら、上記背景技術(特許文献1又は特許文献2)で受話音声を強調した場合、低域と高域の大きさのバランスがくずれ、強調後の音声に籠もり感が発生(低域が大きすぎる)したり、キンキン感が発生(高域が大きすぎる)し、音声品質を落とさずに音声の強調が行えず、十分に音声が聞き取りやすくならない。
受話音声と周囲騒音の成分比である平均SNRを算出する平均SNR算出手段と、予め求められた受話音声の了解性の向上に寄与する帯域である第1帯域と前記受話音声の明るさの向上に寄与する帯域である第2帯域を示す帯域分割情報と前記平均SNR算出手段で算出された前記平均SNRから、前記第1帯域の強調量を算出する第1帯域強調量算出手段と、前記第1帯域強調量算出手段にて算出した前記第1帯域の強調量から、前記第2帯域の強調量を算出する第2帯域強調量算出手段と、前記第1帯域強調量算出手段と前記第2帯域強調量算出手段との出力結果および前記帯域分割情報とを用い、受信音声のスペクトルを加工するスペクトル加工手段を含む構成を備える。
本構成により、SNR算出手段によって音声と周囲騒音によって聞こえにくくなった度合いを算出し、第1の帯域の強調量算出手段によって音声の主観的な了解性を十分に向上させるための第1の帯域の強調量を算出し、第2の帯域の強調量算出手段によって第1の帯域を強調した際に、音声の明るさが十分に保たれるように第2の帯域の強調量を算出し、スペクトル加工手段によって第1の帯域の強調量と第2の帯域の強調量から、各周波数帯域に強調処理を施して強調音声のスペクトルを算出する。
本発明によれば、周囲騒音の影響で受話音が聞こえにくくなった際に、音声の主観的な了解性と明るさの両方で十分な品質を持つ強調音声を生成できる。
これにより、従来技術の課題であった強調による籠もり感(強調の結果、受話音声の主観的な了解性の向上に寄与する帯域の強調の大きさに対して受話音声の主観的な明るさの向上に寄与する帯域の強調の大きさが小さすぎるために、強調音声の明るさが不足する)や、キンキン感(強調の結果、受話音声の主観的な了解性の向上に寄与する帯域の強調の大きさ大きさに対して受話音声の主観的な明るさの向上に寄与する帯域の強調の大きさが大きすぎるために、強調音声の明るさが過剰となる)を解決して聞こえやすい強調音声を生成できる。
以下図を参照して実施形態の詳細について説明する。
[実施例1]
図1は、本発明の実施例の構成を示す説明図であり、1および2は周波数分析手段、3はSNR算出手段、4は第1の帯域の強調量算出手段、5は第2の帯域の強調量算出手段、6は音声スペクトル加工手段、7は合成手段を示している。
以下図1の構成について音声信号の処理順に沿って説明する。各構成の詳細動作については後述する。
まず、周波数分析手段1は、周囲騒音を入力し、周囲騒音のスペクトルを出力する。
また、周波数分析手段2は、受話音声を入力し、受話音声のスペクトルを出力する。
SNR算出手段3は、周波数分析手段1及び2から受話音声のスペクトルと周囲騒音のスペクトルを入力し、SNRを算出し出力する。
第1の帯域の強調量算出手段4は、SNR算出手段から出力されたSNRと予め求めておいた受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、受話音声の主観的な了解性の向上に寄与する帯域についての強調量を算出し第1の帯域の強調量として出力する。
第2の帯域の強調量算出手段5は、第1の帯域の強調量を入力し、受話音声の主観的な明るさの向上に寄与する帯域についての強調量を算出し第2の帯域の強調量として出力する。
音声スペクトル加工手段6は、受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報と第1の帯域の強調量と第2の帯域の強調量を入力し、強調音声のスペクトルを出力する。
合成手段7は、音声スペクトル加工手段6から出力された強調音声のスペクトルを入力し、強調音声を出力する。
以上のような処理の流れによって、受話音声の強調処理が施される。
各構成要素の処理の詳細を以下に説明する。
[周波数分析手段1及び2]は、入力される信号である周囲騒音又は受話音声に対して、フーリエ変換などの時間周波数変換処理によって周囲騒音又は音声のスペクトルの算出を行う。
[SNR算出手段3]は、入力された周囲騒音のスペクトル(周囲騒音の成分(Noise))及び音声のスペクトル(周波数毎の受話音声の成分(Signal))とから下記の式でSNRを算出する。
SNR(i)=S(i)−N(i)
i: 周波数のインデックス(周波数のインデックスとは、時間周波数変換を行った 際の帯域の番号を示す)
SNR(i): i番目の周波数のSNR(dB)
S(i): i番目の周波数の受話音声成分の大きさ(dB)
N (i): i番目の周波数の周囲騒音成分の大きさ(dB)

尚、SNR算出の際に、周波数によって主観的な大きさが変る効果を導入した上で算出しても良い。
具体的には、算出したSNRに対して周波数による主観的な大きさの係数をかけて補正する。周波数による主観的な大きさの係数は、音の大きさの等感曲線などの既知の情報を用いて算出する。
[第1の帯域の強調量算出手段4]は、SNR算出手段から出力されたSNRと予め求めておいた受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、以下の処理により第1の帯域の強調量を算出する。
(1)第1の帯域の平均SNRを算出する。
Figure 0005453740
LSNR: 第1の帯域の平均SNR(dB)
i:周波数のインデックス
SNR(i): i番目の周波数のSNR(dB)
ls:第1の帯域の下限周波数のインデックス
le:第1の帯域の上限周波数のインデックス

ls、leは帯域分割情報(低域と高域の境界周波数のインデックスIb)と入力信号の帯域
幅を用いて下記の通りに算出する。
ls =入力信号の帯域幅下限周波数のインデックス
le = Ib

(2)第1の帯域の平均SNRを強調量テーブルに当てはめて第1の帯域の強調量を算出。
第1の帯域の強調量を算出するテーブルを図6に示す。
LE: 第1の帯域の強調量(dB)
LSNR: 第1の帯域の平均SNR (dB)
LE MAX: 第1の帯域の強調量の上限(dB)
LE MIN: 第1の帯域の強調量の下限(dB)
LSNR MAX: 第1の帯域の強調量を上限とする第1の帯域の平均SNR (dB)
LSNR MIN: 第1の帯域の強調量を下限とする第1の帯域の平均SNR (dB)
テーブルの各パラメータの取りうる値の範囲は以下の通り。
LE MAX: 0〜50dB(dB)、第1の帯域の平均SNRが一定以下の場合に、最大限以上の 強調を行わないように設けた上限値。
LE MIN: 0〜10dB(dB)、第1の帯域の平均SNRが一定以上の場合に、最小限以下の 強調を行わないように設けた下限値。
但し、LE MIN < LE MAXとなるように設定する。
LSNR MAX: 0〜50dB(dB)、第1の帯域の音声が近端騒音に対して大きく、第1の帯 域の強調量を最小限に設定して良いと考えられる第1の帯域の平均SNR。
LSNR MIN: -50〜50dB(dB)、第1の帯域の音声が近端騒音に対して小さく、第1の 帯域の強調量を最大限に設定して良いと考えられる第1の帯域の平均SNR。
但し、LSNR MIN < LSNR MAXとなるように設定する。

[第2の帯域の強調量算出手段5]は、第1の帯域の強調量を入力し、図7に示すテー ブルを用いて以下の通り第2の帯域の強調量を算出する。
Figure 0005453740
HE: 第2の帯域の強調量(dB)
LE: 第1の帯域の強調量(dB)
HE MAX: 第2の帯域の強調量の上限(dB)
HE MIN: 第2の帯域の強調量の下限(dB)
LE MAX: 第2の帯域の強調量を上限とする第1の帯域の強調量(dB)
LE MIN: 第2の帯域の強調量を下限とする第1の帯域の強調量(dB)

テーブルの各パラメータの取りうる値の範囲は以下の通り。
LE MAX: 0〜50dB(dB)、第1の帯域の平均SNRが一定以下の場合に、最大限以上の 強調を行わないように設けた上限値。
LE MIN: 0〜10dB(dB)、第1の帯域の平均SNRが一定以上の場合に、最小限以下の 強調を行わないように設けた下限値。
但し、LE MIN< LE MAXとなるように設定する。(以上は図12と同様)
HE MAX: 0〜50dB(dB)、第2の帯域の強調量を、第1の帯域の強調量に基づいて定め
る際の上限値。第1の帯域の強調量が一定以上の場合に、第2の帯域の強調量が上限以
上とならないように設けた上限値。
HE MIN: 0〜50dB(dB)、第2の帯域の強調量を、第1の帯域の強調量に基づいて定め
る際の下限値。第1の帯域の強調量が一定以下の場合に、第2の帯域の強調量が下限以
下とならないように設けた上限値。
但し、HE MIN < HE MAXとなるように設定する。
[音声スペクトル加工手段6]は、周波数分析手段2から出力された音声スペクトルと 、第1の帯域の強調量,第2の帯域の強調量及び帯域分割情報を入力し、以下の処理 により音声スペクトルの強調量を算出し、強調処理を行う。
まず、音声スペクトル加工手段が行う、各周波数の強調量算出の実施例を説明する。
(1)[音声スペクトル加工手段が行う各周波数の強調量算出の具体例1]
各周波数の強調量を図9に示すテーブルで算出する。
Figure 0005453740
EMP(i): 各周波数の強調量(dB)
i:周波数のインデックス
LE: 第1の帯域の強調量 (dB)
HE: 第2の帯域の強調量 (dB)
l1s: 第1の帯域の下限インデックス
l1e: 第1の帯域の上限インデックス
h1s: 第2の帯域の下限インデックス
h1e: 第2の帯域の上限インデックス

l1s、l1e 、h1s、h1eは帯域分割情報(第1の帯域と第2の帯域の境界周波数のインデッ クスIb)と入力信号の帯域幅を用いて下記の通りに算出する。
l1s =入力信号の帯域幅下限周波数のインデックス
l1e = Ib
h1s = Ib
h1e =入力信号の帯域幅上限周波数のインデックス
ψ、ζ:正の数(1〜0.5×ind max)
ind max: 周波数のインデックスの最大値

ψ、ζは、周波数の境界で強調量に不連続が起こらないように設けた帯域の幅を決め るための数値である。
(2)[音声スペクトル加工手段が行う各周波数の強調量算出の具体例2]
各周波数の強調量を算出するためのテーブルを図10に示す。
Figure 0005453740
EMP(i): 各周波数の強調量(dB)
i:周波数のインデックス
LE: 第1の帯域の強調量 (dB)
HE: 第2の帯域の強調量 (dB)
EMP MAX:強調量上限 (dB)
l2s: 第1の帯域の周波数の下限インデックス
l2e: 第1の帯域の周波数の上限インデックス
h2s: 第2の帯域の周波数の下限インデックス h2s=l2e
h2e: 第2の帯域の周波数の上限インデックス

h2s、h2e、l2s、l2eは帯域分割情報(第1の帯域と第2の帯域の境界周波数のインデッ
クスIb)と入力信号の帯域幅を用いて下記の通りに算出する。
l2s =入力信号の帯域幅下限周波数のインデックス
h2e = Ib
l2s = Ib
h2e =入力信号の帯域幅上限周波数のインデックス

次に、音声スペクトル加工手段が行う各周波数のスペクトルの加工の実施例を示す。
[音声スペクトル加工手段が行う各周波数のスペクトルの加工の具体例]
まず、音声スペクトル加工手段は、各周波数の強調量EMP(i)を用いて、各周波数のス
ペクトルに適用する係数emp coef(i)を算出する。
Figure 0005453740
次に、emp coef(i)を各周波数のスペクトルの実部と虚部に各周波数のスペクトルの
倍率emp coef(i)をかけることで、スペクトルを加工する。
Figure 0005453740
EMP(i): 各周波数の強調量(dB)
i:周波数のインデックス
SPE re(i): 各周波数のスペクトルの実部
SPE im (i): 各周波数のスペクトルの虚部
ESPE re(i): 各周波数のスペクトルの実部
ESPE im (i): 各周波数の強調したスペクトルの虚部
emp coef (i): 各周波数のスペクトルの倍率

[合成手段7]は音声スペクトル加工手段6から出力された強調音声のスペクトルを入 力し、強調音声のスペクトルをフーリエ逆変換などの周波数時間変換処理によって時間 領域に変換することによって強調音声を生成し出力する。

以上各構成要素の処理により本実施例で周囲騒音の影響で受話音が聞こえにくくなった際に、音声の主観的な了解性と主観的な明るさの両方で十分な品質を持つ強調音声を生成することが可能となります。

[実施例2]
図2は、本発明の実施例2の構成を示す説明図であり、(実施例1同一の構成には同一符号を付与)1および2は周波数分析手段、3はSNR算出手段、4は第1の帯域の強調量算出手段、5’は第2の帯域の強調量算出手段、6は音声スペクトル加工手段、7は合成手段、8は音声の明るさ算出主段を示している。
以下図2の構成について音声信号の処理順に沿って説明する。各構成の詳細動作については後述する。
まず、周波数分析手段1は、周囲騒音を入力し、周囲騒音のスペクトルを出力する。
また、周波数分析手段2は、受話音声を入力し、受話音声のスペクトルを出力する。
音声の明るさ算出手段8は、周波数分析手段2から出力された受話音声のスペクトルと受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、音声の明るさを示す情報を出力する。
SNR算出手段3は、周波数分析手段1及び2から受話音声のスペクトルと周囲騒音のスペクトルを入力し、SNRを算出し出力する。
第1の帯域の強調量算出手段4は、SNR算出手段から出力されたSNRと予め求めておいた受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、受話音声の主観的な了解性の向上に寄与する帯域についての強調量を算出し第1の帯域の強調量として出力する。
第2の帯域の強調量算出手段5’は、第1の帯域の強調量と音声の明るさ算出手段8から出力された音声の明るさを示す情報を入力し、受話音声の主観的な明るさの向上に寄与する帯域についての強調量を算出し第2の帯域の強調量として出力する。
音声スペクトル加工手段6は、受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報と第1の帯域の強調量と第2の帯域の強調量を入力し、強調音声のスペクトルを出力する。
合成手段7は、音声スペクトル加工手段6から出力された強調音声のスペクトルを入力し、強調音声を出力する。
以上のような処理の流れによって、受話音声の強調処理が施される。
各構成要素の処理で実施例1と異なる構成についての詳細を以下に説明する。

[音声の明るさ算出手段8]は、受話音声のスペクトルと受話音声の主観的な了解性の 向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割 情報を入力し、以下の処理により音声の明るさを示す情報を生成し出力する。
Figure 0005453740
C: 音声の明るさ(dB)
H: 受話音声の第1の帯域のパワー (dB)
L: 受話音声の第2の帯域のパワー(dB)
i:周波数のインデックス
S(i): i番目の周波数の受話音声成分の大きさ(dB)
l3s: 第1の帯域の下限周波数のインデックス
l3e: 第1の帯域の上限周波数のインデックス
h3s: 第2の帯域の下限周波数のインデックス
h3e: 第2の帯域の上限周波数のインデックス

h3s、h3e、l3s、l3eは帯域分割情報(低域と高域の境界周波数のインデックスIb)と入
力信号の帯域幅を用いて下記の通りに算出する。
h3s =入力信号の帯域幅下限周波数のインデックス
h3e = Ib
l3s = Ib -1
l3e =入力信号の帯域幅上限周波数のインデックス

尚、明るさ算出の際に、周波数によって主観的な大きさが変る効果を導入した上で算 出しても良い。
具体的には、H,Lを算出する際に、S(i)に対して周波数による主観的な大きさの係数 をかけて補正する。周波数による主観的な大きさの係数は、音の大きさの等感曲線など
の既知の情報を用いて算出する。

[第2の帯域の強調量算出手段5’]は、第1の帯域の強調量及び音声の明るさを示す 情報を入力し、図7に示すテーブルを用いて以下の通り第2の帯域の強調量を算出す
る。
実施例1における第2の帯域の強調量算出手段の実施例と同様に第2の帯域の強調量HE を算出する。
算出したHEを図8に示すテーブルを用いて修正する。
Figure 0005453740
HE'=HE*
算出したHE'を改めて第2の帯域の強調量HEとする。
HE: 第2の帯域の強調量(dB)
HE’: 音声の明るさを用いて修正した第2の帯域の強調量(dB)
COEF: 第2の帯域の強調量を修正するための係数
COEF MAX: 第2の帯域の強調量を修正するための係数の上限
COEF MIN: 第2の帯域の強調量を修正するための係数の下限
C MAX: 第2の帯域の強調量を修正するための係数を下限とする音声の明るさ(dB)
C MIN: 第2の帯域の強調量を修正するための係数を上限とする音声の明るさ(dB)

テーブルの各パラメータの取りうる値の範囲を以下に示す。
COEF MAX: 0〜1、音声の明るさが一定以上の場合に、第2の帯域の強調量HEを補正
するための係数が、上限以上とならないように設けた上限値。
COEF MIN: 0〜1、音声の明るさが一定以下の場合に、第2の帯域の強調量HEを補正
するための係数が、下限以下とならないように設けた下限値。
但し、COEF MIN < COEF MAXとなるように設定する。
C MAX: -50〜50(dB) 、第2の帯域の強調量の補正係数を、音声の明るさに基づいて 定める際の、音声の明るさの上限値。
C MIN: -90〜0(dB) 、第2の帯域の強調量の補正係数を、音声の明るさに基づいて 定める際の、音声の明るさの下限値。
但し、C MIN < C MAXとなるように設定する。

本実施例2では、実施例1に対して音声の明るさ算出手段を追加し、音声の明るさを算出することで、第2の帯域の強調量算出手段5’で音声の明るさを加えて第2の帯域の強調量を算出できるため、音声の明るさが大きく第2の帯域の強調量を大きくするとキンキン感が起こりやすくなる際には第2の帯域の強調量を小さく調節し、逆に音声の明るさが小さく第2の帯域の強調量を小さくすると籠もり感が起こりやすくなる際には第2の帯域の強調量を大きく調節することで、籠もり感やキンキン感をさらに起こりにくくすることができる。

[実施例3]
図3は、本発明の実施例3の構成を示す説明図であり、(実施例1及び実施例と2同一の構成には同一符号を付与)1は周波数分析手段、9は音声スペクトル推定手段、10は騒音スペクトル推定手段、11はNNR算出手段、3はSNR算出手段、4は第1の帯域の強調量算出手段、5は第2の帯域の強調量算出手段、6'は音声スペクトル加工手段、7は合成手段を示している。
以下図の構成について音声信号の処理順に沿って処理内容を説明する。各構成の詳細動作については後述する。
まず、周波数分析手段1は、周囲騒音を入力し、周囲騒音のスペクトルを出力する。
音声スペクトル推定手段9は、受話音声を入力し、受話音声に重畳した背景騒音を除去した受話音声のスペクトル生成し出力する。
騒音スペクトル推定手段10は、受話音声を入力し、受話音声に重畳した背景騒音のスペクトルを生成し出力する。
NNR算出手段11は、周波数分析手段1から出力された周囲騒音のスペクトルと騒音スペクトル推定手段10から出力された受話音声の背景騒音スペクトルを入力し、周囲騒音と音声の重畳背景騒音の成分比であるNNRを算出し出力する。
SNR算出手段3は、周波数分析手段1から出力された周囲騒音のスペクトルと、音声スペクトル推定手段9から出力された背景雑音が除去された音声スペクトルを入力し、SNRを算出し出力する。
第1の帯域の強調量算出手段4は、SNR算出手段から出力されたSNRと予め求めておいた受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、受話音声の主観的な了解性の向上に寄与する帯域についての強調量を算出し第1の帯域の強調量として出力する。
第2の帯域の強調量算出手段5は、第1の帯域の強調量を入力し、受話音声の主観的な明るさの向上に寄与する帯域についての強調量を算出し第2の帯域の強調量として出力する。
音声スペクトル加工手段6は、受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報と第1の帯域の強調量,第2の帯域の強調量、NNR及び音声スペクトルを入力し、強調音声のスペクトルを出力する。
合成手段7は、音声スペクトル加工手段6から出力された強調音声のスペクトルを入力し、強調音声を出力する。
以上のような処理の流れによって、受話音声の強調処理が施される。
各構成要素の処理で実施例1及び実施例2と異なる構成について詳細を以下に説明する。

[音声スペクトル推定手段9]及び[騒音スペクトル推定手段10]は受話音声を入力 し、受話音声のスペクトルと受話音声に重畳される背景騒音のスペクトルを算出する。
具体的な算出方法として、公知のノイズサプレッション技術(参考資料:特開2005-165021)によって行うことが可能である。
処理の一例としては、雑音が重畳された音声信号の入力に対して、分析を行い、スペクトル振幅(=振幅スペクトル)の算出を行い、算出されたスペクトル振幅を用いて雑音が重畳された入力音声信号のうちで雑音を除く成分、すなわち純粋音声信号に対応すべき情報である音声スペクトルを推定する。
また、雑音スペクトルも同様に推定する。

[NNR算出手段11]は、周囲騒音のスペクトルと受話音声の背景騒音スペクトルを入 力し、以下の式により周囲騒音と音声の重畳背景騒音の成分比であるNNRを算出し出力
する。
NNR(i)= N (i) − N'(i)
i: 周波数のインデックス
NNR (i): i番目の周波数のNNR (dB)
N (i): i番目の周波数のパワースペクトル(dB)
N' (i): i番目の受話音声の背景騒音のパワースペクトル(dB)
ここで、周波数のインデックスとはフーリエ変換でスペクトルを算出した際の帯 域の番号である。

尚、NNRの際に、周波数によって主観的な大きさが変る効果を導入した上で算出して も良い。
具体的には、算出したNNR(i)に、周波数による主観的な大きさの係数をかけて補正す る。周波数による主観的な大きさの係数は、音の大きさの等感曲線などの既知の情報を 用いて算出する。

[音声スペクトル加工手段6']は、周波数分析手段2から出力された音声スペクトル と、第1の帯域の強調量,第2の帯域の強調量,NNR及び帯域分割情報を入力し、以下
の処理により音声スペクトルの強調量を算出し、強調処理を行う。
音声スペクトル加工手段が行う、各周波数の強調量算出の実施例を説明する。
まず、[音声スペクトル加工手段6]と同様に各周波数の強調量EMP(i)を算出する。
音声スペクトル加工手段が行う、各周波数の強調量算出の実施例を説明する。
次に、各周波数の強調量をNNRを用いて補正する。
受話音を強調した結果の周囲騒音と受話音の背景騒音の比率NNRが閾値を下回らない
ように強調量を補正する。
MOD EMP(i)=EMP(i) EMP NNR(i)≦TH NNR
MOD EMP(i)= NNR(i)-TH NNR EMP NNR(i)>TH NNR

EMP(i): 各周波数の強調量(dB)
MOD EMP(i): 修正した各周波数の強調量(dB)
NNR(i): 各周波数のNNR(dB)
TH NNR: NNRの下限(dB)

上記式のパラメータの取りうる値の範囲は以下の通り。
TH NNR: -50〜50dB(dB)、強調により、受話音声に重畳した騒音が耳障りにならな いように設けたNNRの下限。

次に、音声スペクトル加工手段は、各周波数の強調量MOD EMP(i)を用いて、各周波数
のスペクトルに適用する係数emp coef(i)を算出する。
Figure 0005453740
次に、emp coef(i)を各周波数のスペクトルの実部と虚部に各周波数のスペクトルの
倍率emp coef(i)をかけることで、スペクトルを加工する。
Figure 0005453740
MOD EMP(i): 各周波数の強調量(dB)
i:周波数のインデックス
SPE re(i): 各周波数のスペクトルの実部
SPE im (i): 各周波数のスペクトルの虚部
ESPE re(i): 各周波数のスペクトルの実部
ESPE im (i): 各周波数の強調したスペクトルの虚部
emp coef (i): 各周波数のスペクトルの倍率

本実施例3では、実施例1に対してNNR算出手段を追加し、周囲騒音と音声の重畳背景騒音の成分比であるNNR算出することで、第二の帯域の強調量算出手段5’でNNRを加えて第二の帯域の強調量を算出できるため、強調によって音声の背景騒音が大きくなりすぎないように強調量を制御できる。

[実施例4]
図4は、本発明の実施例4の構成を示す説明図であり、(実施例1乃至実施例3と2同一の構成には同一符号を付与)1は周波数分析手段、9は音声スペクトル推定手段、10は騒音スペクトル推定手段、11はNNR算出手段、8は音声の明るさ算出手段、3はSNR算出手段、4は第1の帯域の強調量算出手段、5'は第2の帯域の強調量算出手段、6'は音声スペクトル加工手段、7は合成手段を示している。
以下図の構成について音声信号の処理順に沿って処理内容を説明する。各構成の詳細動作については後述する。
まず、周波数分析手段1は、周囲騒音を入力し、周囲騒音のスペクトルを出力する。
音声スペクトル推定手段9は、受話音声を入力し、受話音声に重畳した背景騒音を除去した受話音声のスペクトル生成し出力する。
騒音スペクトル推定手段10は、受話音声を入力し、受話音声に重畳した背景騒音のスペクトルを生成し出力する。
NNR算出手段11は、周波数分析手段1から出力された周囲騒音のスペクトルと騒音スペクトル推定手段10から出力された受話音声の背景騒音スペクトルを入力し、周囲騒音と音声の重畳背景騒音の成分比であるNNRを算出し出力する。
音声の明るさ算出手段8は、周波数分析手段2から出力された受話音声のスペクトルと受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、音声の明るさを示す情報を出力する。
SNR算出手段3は、周波数分析手段1から出力された周囲騒音のスペクトルと、音声スペクトル推定手段9から出力された背景雑音が除去された音声スペクトルを入力し、SNRを算出し出力する。
第1の帯域の強調量算出手段4は、SNR算出手段から出力されたSNRと予め求めておいた受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を入力し、受話音声の主観的な了解性の向上に寄与する帯域についての強調量を算出し第1の帯域の強調量として出力する。
第2の帯域の強調量算出手段5'は、第1の帯域の強調量と音声の明るさ情報を入力し、受話音声の主観的な明るさの向上に寄与する帯域についての強調量を算出し第2の帯域の強調量として出力する。
音声スペクトル加工手段6'は、受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報と第1の帯域の強調量,第2の帯域の強調量,NNR及び音声スペクトルを入力し、強調音声のスペクトルを出力する。
合成手段7は、音声スペクトル加工手段6から出力された強調音声のスペクトルを入力し、強調音声を出力する。
以上のような処理の流れによって、受話音声の強調処理が施される。
本実施例の構成要件は実施例1に対する実施例2及び実施例3の変更点を合わせた実施例であり、個々の構成の機能については、実施例1乃至実施例3にて説明した通りである。

[実施例5]
本実施例5は、実施例4に対して音声強調装置内にて受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を算出する構成を追加した例である。追加される構成としては、受話音声を入力しピッチ周波数を算出して出力するピッチ周波数算出手段12と、ピッチ周波数と音声の明るさ情報を入力し、受話音声の主観的な了解性の向上に寄与する帯域と受話音声の主観的な明るさの向上に寄与する帯域を示す帯域分割情報を生成する帯域分割情報算出手段13を追加した構成である。
音声強調の処理としては、帯域分割情報を構成内部で生成しその帯域分割情報を使用する以外は他の実施例4と同様の処理となる。
本実施例5で追加された構成についての詳細を以下に詳細に説明する。
[ピッチ周波数算出手段12]では、受話音声を入力し、下記の式に従ってピッチ周波 数が算出される。
Figure 0005453740
pitch= freq/a max

x:入力信号
M:相関係数を算出する区間の長さ(サンプル)
a: 相関係数を算出する信号の開始位置
pitch:ピッチ周波数(Hz)
corr(a):ずらし位置がaの場合の相関係数
a max: 最大相関係数に対応するa
i:信号のインデックス(サンプル)
freq:サンプリング周波数(Hz)

[帯域情報算出手段13]ではピッチ周波数と音声の明るさ情報を入力し、以下の方法 で帯域分割情報を生成する。
(1)[帯域情報算出手段13の具体例1]
具体例1では、以下の順で帯域分割情報を算出する。
(a)受話音声のピッチ周波数を算出する。
(b)帯域分割情報を算出する。
算出方法の詳細は以下の通り。
第一の帯域と第二の帯域の境界周波数のインデックスIbを下記の式で算出する。Is とpsは予め、基準となる値を設定する。ピッチ周波数が高いほど第二の帯域を強調す るとキンキンしやすくなるため、ピッチ周波数が基準値よりも大きくなるほどIbを大 きくする。これによりピッチ周波数が高いほど高域の下限周波数が大きくなり、強く強 調をかける高域の帯域がせばまるため、強調によるキンキン感を防ぐことができる。
Ib=Is+α(p-ps)
Is:低域と高域の境界周波数のインデックスの基準値
Ib:低域と高域の境界周波数のインデックス
p: 受話音声のピッチ周波数
ps: 受話音声のピッチ周波数の基準値(50〜500Hz)
α: 正の数()

パラメータは下記の通りに設定する。
ps: 50〜500Hz、平均的な声の高さとする。
α: 0〜1、受話音声の平均的な声の高さからのずれによってIbを決める際の、
ピッチ周波数の寄与率。

(2)[帯域情報算出手段13の具体例2]
具体例2では、以下の順で帯域分割情報を算出する。
(a)受話音声のパワースペクトルの傾きを算出する。
(b)帯域分割情報を算出する。
算出方法の詳細は以下の通り。
低域と高域の境界周波数のインデックスIbを下記の式で算出する。Isとqsは予め、基 準となる値を設定する。受話音声のパワースペクトルの傾きが小さいほど第二の帯域を 強調するとキンキンしやすくなるため、受話音声のパワースペクトルの傾きが基準値よ りも小さくなるほどIbを大きくする。これにより受話音声のパワースペクトルの傾きが 小さいほど第二の帯域の下限周波数が大きくなり、第二の帯域の帯域がせばまるため、 第二の帯域を強調することによるキンキン感を防ぐことが出来る。
Ib=Is+β(q-qs)
Is:低域と高域の境界周波数のインデックスの基準値
Ib:低域と高域の境界周波数のインデックス
q: 受話音声のパワースペクトルの傾き
qs: 受話音声のパワースペクトルの傾きの基準値
β: 負の数

パラメータは下記の通りに設定する。
qs: 50〜500Hz、平均的な声の高さとする。
β: -100〜0、受話音声の平均的なパワースペクトルの傾きからのずれによって Ibを決める際の、受話音声のパワースペクトルの傾きの寄与率。

(3)[帯域情報算出手段13の具体例3]
具体例3では、以下の順で帯域分割情報を算出する。
(a)受話音声のピッチ周波数を算出する。
(b)受話音声のパワースペクトルの傾きを算出する。
(c)帯域分割情報を算出する。
算出方法の詳細は以下の通り。
低域と高域の境界周波数のインデックスIbを下記の式で算出する。Isとpsとqsは予
め、基準となる値を設定する。受話音声のピッチ周波数が高いほど、受話音声のパワー スペクトルの傾きが小さいほど第二の帯域を強調するとキンキンしやすくなるため、受 話音声のピッチ周波数基準値よりも高くなるほど、受話音声のパワースペクトルの傾き が基準値よりも小さくなるほどIbを大きくする。これにより受話音声のピッチ周波数が 高いほど、受話音声のパワースペクトルの傾きが小さいほど第二の帯域の下限周波数が 大きくなり、第二の帯域がせばまるため、第二の帯域の強調によるキンキン感を防ぐこ とができる。
Ib=Is+α(p-ps) +β(q-qs)。
Is:低域と高域の境界周波数のインデックスの基準値
Ib:低域と高域の境界周波数のインデックス
p: 受話音声のピッチ周波数
ps: 受話音声のピッチ周波数の基準値
α: 正の数
q: 受話音声のパワースペクトルの傾き
qs: 受話音声のパワースペクトルの傾きの基準値
β: 負の数

パラメータの値は、本実施例の具体例1乃至3と同様とする。
上記帯域情報算出手段13の具体例1乃至3で用いた「パワースペクトルの傾き」は、下記の通りに算出される。
(1) スペクトルから下記の式でパワースペクトルを算出する。
PSP(i)=10log10(SP re(i) *SP re(i)+ SP im(i) *SP im(i))
PSP(i): パワースペクトル
i:周波数のインデックス
SP re(i): スペクトルの実部
SP im(i): スペクトルの虚部
(2)パワースペクトルの傾きを算出する。
各周波数インデックス毎のパワースペクトルを(i, PSP(i))で表わし、最小二乗法で
一次関数を当てはめた際の傾きとして算出する。

上記実施例5で説明した構成要件の追加については、一例として実施例4に追加する形で説明したが、実施例1乃至実施例3の何れに追加しても同様に受話音声から帯域分割情報を生成することが可能である。
以上の通り、実施例5では実施例1乃至実施例4の効果に加え、受話音声から帯域分割情報算出手段によって帯域分割情報を算出することで、音声によって第一の帯域と第二の帯域を制御できるため、音声に応じた適切な音声強調制御が可能となる。
尚、上記実施例1乃至実施例4にて用いた帯域分割情報は、受話音声の主観的な了解性の向上に寄与する帯域及び受話音声の主観的な明るさの向上に寄与する帯域として、統計的に求めることが可能であり、求められた結果を帯域分割情報として使用することも可能である。
また、第1帯域の強調手段及び第2帯域の強調手段として、予め帯域分割情報により指定される帯域のみを強調するように設定も可能であり、その場合は帯域分割情報の入力経路は不要となり、上記実施例1乃至実施例4と同様の効果となる。
本発明の実施例1の説明図。 本発明の実施例2の説明図。 本発明の実施例3の説明図。 本発明の実施例4の説明図。 本発明の実施例5の説明図。 第1の帯域の強調量算出テーブル 第2の帯域の強調量算出テーブル 第2の帯域の強調量の修正用テーブル 各周波数の強調量算出用テーブルの実施例1 各周波数の強調量算出用テーブルの実施例2
符号の説明
1 周波数分析手段
2 周波数分析手段
3 SNR算出手段
4 第1の帯域の強調量算出手段
5,5’ 第2の帯域の強調量算出手段
6,6’ 音声スペクトル加工手段
7 合成手段
8 音声の明るさ算出主段
9 音声スペクトル推定手段
10 騒音スペクトル推定手段
11 NNR算出手段
12 ピッチ周波数算出手段
13 帯域分割情報算出手段


Claims (10)

  1. 受話音声のスペクトルと周囲騒音のスペクトルの成分比である平均SNRを算出する平均SNR算出手段と、
    予め求められた前記受話音声の了解性の向上に寄与する帯域である第1帯域と前記受話音声の明るさの向上に寄与する帯域である第2帯域とを示す帯域分割情報と、前記平均SNR算出手段で算出された前記平均SNRから、前記第1帯域の強調量を算出する第1帯域強調量算出手段と、
    前記第1帯域の平均SNRを算出し、前記平均SNRが大きいほど前記第1帯域の強調量を小さくし、前記第1帯域の強調量が大きいほど前記第2帯域の強調量を大きくするように、前記第2帯域の強調量を算出する第2帯域強調量算出手段と、
    前記第1帯域強調量算出手段と前記第2帯域強調量算出手段との出力結果および前記帯域分割情報とを用いて受信音声のスペクトルを加工するスペクトル加工手段を備え、
    ることを特徴とする音声強調装置。
  2. 前記平均SNR算出手段は、周波数による音の大きさが変る効果を考慮して算出すること
    を特徴とする請求項1記載の音声強調装置。
  3. 更に、受話音声のピッチ周波数と音声のパワースペクトルの傾きの少なくとも一つから音声の明るさを算出する音声の明るさ算出手段を備えることを特徴とする請求項1記載の音声強調装置。
  4. 前記音声の明るさ算出手段は、周波数による音の大きさが変る効果を考慮して算出することを特徴とする請求項3記載の音声強調装置。
  5. 更に、前記周囲騒音と音声の重畳背景騒音の成分比である平均NNRを算出する平均NNR算出手段と、
    前記第1帯域強調量算出手段にて算出した第1帯域の強調量と前記平均NNR算出手段に
    て算出された前記平均NNRから、前記第2帯域の強調量を算出する第2帯域強調量算出手
    段と、
    を備えることを特徴とする請求項1記載の音声強調装置。
  6. 前記平均NNR算出手段は、周波数による音の大きさが変る効果を考慮して算出すること
    を特徴とする請求項記載の音声強調装置。
  7. 更に、音声のピッチ周波数と音声の高域寄与度の少なくとも一つから、受話音声が周囲騒音にマスクされた際の受話音声の了解性の向上に寄与する第1帯域と明るさの向上に寄与する第2帯域の帯域分割情報を算出する帯域分割情報算出手段を備えることを特徴とする請求項1記載の音声強調装置。
  8. 前記受話音声の了解性の向上に寄与する第1帯域は、上限周波数が3000Hz以下であることを特徴とする請求項1記載の音声強調装置。
  9. 前記受話音声の明るさの向上に寄与する第2帯域は、下限周波数が500Hz以上であるこ
    とを特徴とする請求項1記載の音声強調装置。
  10. 更に、受話音声からピッチ周波数を算出して出力するピッチ周波数算出手段と、
    前記ピッ周波数と音声の明るさ情報を入力し、前記受話音声の了解性の向上に寄与する第1帯域と受話音声の明るさの向上に寄与する第2帯域を示す帯域分割情報を生成する帯域分割情報算出手段を有することを特徴とする請求項1記載の音声強調装置。
JP2008174016A 2008-07-02 2008-07-02 音声強調装置 Active JP5453740B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008174016A JP5453740B2 (ja) 2008-07-02 2008-07-02 音声強調装置
ES09004246T ES2372133T3 (es) 2008-07-02 2009-03-25 Dispositivo de mejora de sonido de voz.
EP09004246A EP2141695B1 (en) 2008-07-02 2009-03-25 Speech sound enhancement device
US12/382,905 US8560308B2 (en) 2008-07-02 2009-03-26 Speech sound enhancement device utilizing ratio of the ambient to background noise
CN2009101320523A CN101620855B (zh) 2008-07-02 2009-04-15 语音增强装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008174016A JP5453740B2 (ja) 2008-07-02 2008-07-02 音声強調装置

Publications (2)

Publication Number Publication Date
JP2010014914A JP2010014914A (ja) 2010-01-21
JP5453740B2 true JP5453740B2 (ja) 2014-03-26

Family

ID=40718829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008174016A Active JP5453740B2 (ja) 2008-07-02 2008-07-02 音声強調装置

Country Status (5)

Country Link
US (1) US8560308B2 (ja)
EP (1) EP2141695B1 (ja)
JP (1) JP5453740B2 (ja)
CN (1) CN101620855B (ja)
ES (1) ES2372133T3 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5489778B2 (ja) * 2010-02-25 2014-05-14 キヤノン株式会社 情報処理装置およびその処理方法
JP5589631B2 (ja) 2010-07-15 2014-09-17 富士通株式会社 音声処理装置、音声処理方法および電話装置
US20140207456A1 (en) * 2010-09-23 2014-07-24 Waveform Communications, Llc Waveform analysis of speech
JP5626366B2 (ja) * 2011-01-04 2014-11-19 富士通株式会社 音声制御装置、音声制御方法及び音声制御プログラム
JP5346350B2 (ja) * 2011-04-04 2013-11-20 日本電信電話株式会社 反響消去装置とその方法とプログラム
US9576590B2 (en) 2012-02-24 2017-02-21 Nokia Technologies Oy Noise adaptive post filtering
US9280984B2 (en) * 2012-05-14 2016-03-08 Htc Corporation Noise cancellation method
JP6160045B2 (ja) 2012-09-05 2017-07-12 富士通株式会社 調整装置および調整方法
CN103873714B (zh) * 2012-12-14 2017-12-26 联想(北京)有限公司 通信方法、以及通话发起端设备和通话接收端设备
WO2014129233A1 (ja) * 2013-02-22 2014-08-28 三菱電機株式会社 音声強調装置
US9961441B2 (en) * 2013-06-27 2018-05-01 Dsp Group Ltd. Near-end listening intelligibility enhancement
CN105336341A (zh) 2014-05-26 2016-02-17 杜比实验室特许公司 增强音频信号中的语音内容的可理解性
CN105118514A (zh) * 2015-08-17 2015-12-02 惠州Tcl移动通信有限公司 一种播放无损音质声音的方法及耳机
CN105635453B (zh) * 2015-12-28 2020-12-29 上海博泰悦臻网络技术服务有限公司 一种通话音量自动调节方法、***、车载设备及汽车
US10937415B2 (en) * 2016-06-15 2021-03-02 Sony Corporation Information processing device and information processing method for presenting character information obtained by converting a voice
CN111383647B (zh) * 2018-12-28 2022-10-25 展讯通信(上海)有限公司 语音信号处理方法及装置、可读存储介质
US11094328B2 (en) * 2019-09-27 2021-08-17 Ncr Corporation Conferencing audio manipulation for inclusion and accessibility

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4630305A (en) * 1985-07-01 1986-12-16 Motorola, Inc. Automatic gain selector for a noise suppression system
JP2924081B2 (ja) 1990-05-11 1999-07-26 富士ゼロックス株式会社 スコロトロン帯電器
JPH04113399A (ja) * 1990-09-03 1992-04-14 Nec Ic Microcomput Syst Ltd 音声増幅装置
JPH0555850A (ja) * 1991-08-21 1993-03-05 Matsushita Electric Ind Co Ltd 車載音響再生装置
JPH0764594A (ja) * 1993-08-27 1995-03-10 Ricoh Co Ltd 音声認識装置
JPH0968997A (ja) * 1995-08-30 1997-03-11 Sony Corp 音声処理方法及び装置
GB9714001D0 (en) * 1997-07-02 1997-09-10 Simoco Europ Limited Method and apparatus for speech enhancement in a speech communication system
JPH11338480A (ja) * 1998-05-22 1999-12-10 Yamaha Corp カラオケ装置
JP2000349893A (ja) 1999-06-08 2000-12-15 Matsushita Electric Ind Co Ltd 音声再生方法および音声再生装置
US6757395B1 (en) * 2000-01-12 2004-06-29 Sonic Innovations, Inc. Noise reduction apparatus and method
JP4018571B2 (ja) 2003-03-24 2007-12-05 富士通株式会社 音声強調装置
JP4583781B2 (ja) * 2003-06-12 2010-11-17 アルパイン株式会社 音声補正装置
JP2005037650A (ja) * 2003-07-14 2005-02-10 Asahi Kasei Corp 雑音低減装置
JP4520732B2 (ja) 2003-12-03 2010-08-11 富士通株式会社 雑音低減装置、および低減方法
US7492889B2 (en) * 2004-04-23 2009-02-17 Acoustic Technologies, Inc. Noise suppression based on bark band wiener filtering and modified doblinger noise estimate
JP4423300B2 (ja) * 2004-10-28 2010-03-03 富士通株式会社 雑音抑圧装置

Also Published As

Publication number Publication date
ES2372133T3 (es) 2012-01-16
US8560308B2 (en) 2013-10-15
EP2141695B1 (en) 2011-10-19
JP2010014914A (ja) 2010-01-21
CN101620855A (zh) 2010-01-06
CN101620855B (zh) 2013-08-07
EP2141695A1 (en) 2010-01-06
US20100004927A1 (en) 2010-01-07

Similar Documents

Publication Publication Date Title
JP5453740B2 (ja) 音声強調装置
EP2737479B1 (en) Adaptive voice intelligibility enhancement
EP2283484B1 (en) System and method for dynamic sound delivery
KR100860805B1 (ko) 음성 강화 시스템
US8891778B2 (en) Speech enhancement
EP2546831B1 (en) Noise suppression device
JP4423300B2 (ja) 雑音抑圧装置
WO2013136846A1 (ja) 音響信号処理装置および音響信号処理方法
EP2597639A2 (en) Sound processing device
US10176824B2 (en) Method and system for consonant-vowel ratio modification for improving speech perception
US9066177B2 (en) Method and arrangement for processing of audio signals
US9418677B2 (en) Noise suppressing device, noise suppressing method, and a non-transitory computer-readable recording medium storing noise suppressing program
EP2058945A1 (en) Audio processing apparatus and program
JP6482880B2 (ja) ミキシング装置、信号ミキシング方法、及びミキシングプログラム
US10147434B2 (en) Signal processing device and signal processing method
US8254590B2 (en) System and method for intelligibility enhancement of audio information
JP2009296298A (ja) 音声信号処理装置および方法
Hilkhuysen et al. Effects of noise suppression on intelligibility. II: An attempt to validate physical metrics
KR20160000680A (ko) 광대역 보코더용 휴대폰 명료도 향상장치와 이를 이용한 음성출력장치
JP2011141540A (ja) 音声信号処理装置、テレビジョン受像機、音声信号処理方法、プログラム、および、記録媒体
US11308975B2 (en) Mixing device, mixing method, and non-transitory computer-readable recording medium
JP5036283B2 (ja) オートゲインコントロール装置、音響信号記録装置、映像・音響信号記録装置および通話装置
JP2011035573A (ja) 音信号処理装置および音信号処理方法
Vashkevich et al. Speech enhancement in a smartphone-based hearing aid
JP5018427B2 (ja) ノイズリダクション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Ref document number: 5453740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150