JP5705190B2 - 音響信号強調装置、音響信号強調方法、およびプログラム - Google Patents
音響信号強調装置、音響信号強調方法、およびプログラム Download PDFInfo
- Publication number
- JP5705190B2 JP5705190B2 JP2012243616A JP2012243616A JP5705190B2 JP 5705190 B2 JP5705190 B2 JP 5705190B2 JP 2012243616 A JP2012243616 A JP 2012243616A JP 2012243616 A JP2012243616 A JP 2012243616A JP 5705190 B2 JP5705190 B2 JP 5705190B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic signal
- channels
- signal
- sample sequence
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Circuit For Audible Band Transducer (AREA)
Description
図1に例示するように、本形態の音響信号強調装置10は、自由に配置されたK個(Kは2以上の整数)の観測装置20−1,・・・,20−Kで得られたデジタル音響信号から、特定の音を強調した音響信号を得て出力する。
受信部101は、複数個の観測装置20−k,・・・,20−Kで得られた複数個のチャネルk=1,・・・,Kの入力デジタル音響信号x1(i1),・・・,xK(iK)を受信する。受信部101は、例えば、ネットワークやbluetooth(登録商標)を利用して伝送された入力デジタル音響信号x1(i1),・・・,xK(iK)を受信する(ステップS101)。
受信された複数個のチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)は、サンプリング周波数変換部102に入力される。異なるチャネルkの入力デジタル音響信号xk(ik)は、異なるA/D変換器22−kで得られたものであるため、サンプリング周波数が異なる場合がある。サンプリング周波数変換部102は、すべてのチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)のサンプリング周波数を任意の同一のサンプリング周波数に揃える。言い換えると、サンプリング周波数変換部102は、複数個のチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号cxk(ik)を複数個のチャネルk=1,・・・,Kについて得る。「特定のサンプリング周波数」は、A/D変換器22−1,・・・,22−Kの何れか一つのサンプリング周波数であってもよいし、その他のサンプリング周波数であってもよい。「特定のサンプリング周波数」の一例は16kHzである。サンプリング周波数変換部102は、各A/D変換器22−kのサンプリング周波数の公称値に基づいてサンプリング周波数変換を行う。すなわち、サンプリング周波数変換部102は、各A/D変換器22−kのサンプリング周波数の公称値でサンプリングされた信号を、特定のサンプリング周波数でサンプリングされた信号に変換する。このようなサンプリング周波数変換は周知である。サンプリング周波数変換部102は、以上のように得た各チャネルkの変換デジタル音響信号cxk(ik)を出力する(ステップS102)。
信号同期部103は、チャネルk=1,・・・,Kの変換デジタル音響信号cx1(i1),・・・,cxK(iK)を入力として受け取る。信号同期部103は、変換デジタル音響信号cx1(i1),・・・,cxK(iK)をチャネルk=1,・・・,K間で同期させ、チャネルk=1,・・・,Kのデジタル音響信号sx1(i1),・・・,sxK(iK)を得て出力する(ステップS103)。以下にこの詳細を説明する。
フレーム分割部104は、同期後のデジタル音響信号sx1(i1),・・・,sxK(iK)を入力として受け取る。フレーム分割部104は、チャネルkごとにデジタル音響信号sxk(ik)を所定の時間区間であるフレームに分割する(ステップS104)。このフレーム分割処理では、フレーム切り出し区間長(フレーム長)L点と切り出し区間のずらし幅m点を任意に決めることができる。ただし、Lおよびmは正整数である。例えば、切り出し区間長を2048点、切り出し区間のずらし幅を256点とする。フレーム分割部104は、チャネルkごとに切り出し区間長のデジタル音響信号sxk(ik)を切り出して出力する。さらにフレーム分割部104は、決められた切り出し区間のずらし幅に従い切り出し区間をずらし、チャネルkごとに上記切り出し区間長のデジタル音響信号sxk(ik)を切り出して出力する処理を繰り返す。以上の処理により、各チャネルkについて各フレームのデジタル音響信号が出力される。以下では、チャネルkのr番目のフレームrに属するデジタル音響信号をsxk(ik,r,0),・・・,sxk(ik,r,L−1)と表現する。
VAD判定部105は、各チャネルkの各フレームrに属するデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)を入力として受け取る。VAD判定部105は、入力されたデジタル音響信号を用い、各チャネルkの各フレームrが音声区間であるか非音声区間であるかを判定する(ステップS105)。VAD判定部105は、例えば参考文献1に記載されたような周知技術を用い、フレームrが音声区間であるか非音声区間であるかの判定を行う。
[参考文献1]Jongseo Sohn, Nam Soo Kim, Wonyong Sung, “A Statistic Model-Based Voice Activity Detection,” IEEE SIGNAL PROCESSING LETTERS, VOL.6, NO.1, 1999.
S/Nベクトル生成部107は、各チャネルkの各フレームrのデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)およびラベルθrを入力として受け取る。S/Nベクトル生成部107は、チャネルkごとに音声区間のデジタル音響信号の大きさを非音声区間のデジタル音響信号の大きさで正規化した特徴量を得、チャネルk=1,・・・,Kに対して得られた特徴量を要素とするS/Nベクトル(特徴量列)を得て出力する(ステップS107)。「特徴量」の例は、非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比を表す値である。「デジタル音響信号の大きさ」の例は、デジタル音響信号のパワーや絶対値、デジタル音響信号のパワーの平均値や絶対値の平均値、デジタル音響信号のパワーの合計値や絶対値の合計値、それらの正負反転値や関数値などである。「比を表す特徴量」の例は、「非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比」そのもの、その逆数その他の関数値である。以下では、デジタル音響信号のパワーの平均値を「デジタル音響信号の大きさ」とし、「非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比」そのものを「特徴量」とした例を示す。
[ステップS1071]
S/Nベクトル生成部107は、rを1に初期化する。
S/Nベクトル生成部107は、ラベルθrが音声区間を表すか非音声区間を表すかを判定する。
ラベルθrが非音声区間を表す場合、S/Nベクトル生成部107は、すべてのチャネルk=1,・・・,Kについて、フレームrに属するデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)の平均パワーPN(k,r)を計算し(式(1)参照)、平均パワーPN(k,r)をk番目の要素とする平均パワーベクトルPN(r)=(PN(1,r),・・・,PN(K,r))を非音声パワー記憶部106に格納する。
ラベルθrが音声区間を表す場合、S/Nベクトル生成部107は、非音声パワー記憶部106に格納されている非音声区間のフレームr’の平均パワーベクトルPN(r’)=(PN(1,r’),・・・,PN(K,r’))を取り出す。このフレームr’は処理対象のフレームrに近いことが望ましい。例えば、S/Nベクトル生成部107は、フレームrに最も近い非音声区間のフレームr’の平均パワーベクトルPN(r’)を取り出す。なお、非音声パワー記憶部106には平均パワーベクトルの初期値も格納されている。平均パワーベクトルの初期値の例は、K個の定数(例えば1)を要素とするベクトルなどである。非音声区間の平均パワーベクトルが得られていない場合、S/Nベクトル生成部107は、平均パワーベクトルの初期値を非音声パワー記憶部106から取り出し、それをPN(r’)=(PN(1,r’),・・・,PN(K,r’))とする。
PN(k,r’)で除算することで各チャネルkのデジタル音響信号の平均パワーを正規化し、各チャネルkのマイクロホン21−kの感度の違いによる影響を排除できる。S/Nベクトル生成部107は、得られた正規化平均パワーPV(k,r)をk番目の要素とするS/NベクトルPV(r)=(PN(1,r),・・・,PN(K,r))を出力する。
未処理のデジタル音響信号が存在する場合、S/Nベクトル生成部107はrに1を加算した値を新たなrとし、処理がステップS1072に進む。未処理のデジタル音響信号が存在しない場合、S/Nベクトル生成部107の処理を終える。
前述のように、非音声パワー記憶部106は、平均パワーベクトルの初期値、およびS/Nベクトル生成部107で得られた平均パワーベクトルPN(r)を格納する。
ベクトル分類部108は、複数個のS/NベクトルPV(r)(複数個のチャネルに対して得られた特徴量からなる特徴量列)を入力として受け取る。ベクトル分類部108は、入力された複数個のS/NベクトルPV(r)をクラスタリングし、各S/NベクトルPV(r)が属する信号区間分類(クラスタ)を決定する(ステップS108)。ベクトル分類部108は、複数個のS/NベクトルPN(r)(例えば、5秒間に対応する区間でのS/NベクトルPN(r))が入力されるたびに、新たに入力されたS/NベクトルPN(r)をクラスタリング対象に追加してクラスタリングを実行してもよいし、1個のS/NベクトルPN(r)が入力されるたびに、新たに入力されたS/NベクトルPN(r)をクラスタリング対象に追加してクラスタリングを実行してもよい。クラスタリングの例は、教師なし学習であるオンラインクラスタリングなどであり、その一例はleader−followerクラスタリング(例えば、参考文献2参照)である。クラスタリングの指標となる距離にはコサイン類似度を用いることができる。コサイン類似度の距離関数は以下のように定義できる。
ただし、CLは各クラスタのラベルであり、ラベルCLは非音声区間を表すラベルθr(例えば0)以外の値(例えば、1以上の整数)をとる。PCLはクラスタCLの重心ベクトルである。d(CL)はクラスタCLの重心ベクトルPCLと入力されたS/NベクトルPV(r)との距離を表す。コサイン類似度を距離関数とするクラスタリングによって得られたラベルCLが、入力されたS/NベクトルPV(r)が属する信号区間分類を表す。ベクトル分類部108は、入力されたS/NベクトルPV(r)に対して得られたラベルCLをラベルθrに代入してラベルθrを更新する。これにより、音声区間のフレームrのラベルθrはラベルCLの値となり、非音声区間のフレームrのラベルθrは非音声区間を表す値となる。ベクトル分類部108は各フレームrのラベルθrを出力する。
[参考文献2]Richard O. Duda, Peter E. Hart, David G. Stork, “Pattern
Classication,” Wiley-Interscience, 2000.
スペクトル算出部109は、フレーム分割部104で分割された、各チャネルkの各フレームrに属するデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)を入力として受け取る。ここで、フレームrでの各チャネルkのデジタル音響信号sxk(ik,r,j)を要素とするK次元の縦ベクトルをx(j,r)=[sx1(i1,r,j),・・・,sxK(iK,r,j)]Tと記述する。ただし、[η]Tは[η]の転置を表す。また、フレームrに属するK次元ベクトルx(0,r),・・・,x(L−1,r)の要素を周波数領域に変換して得られる値を要素とするK次元の縦ベクトルをX(f,r)と記述する。すなわち、フレームrに属するsxk(ik,r,0),・・・,sxk(ik,r,L−1)を周波数領域に変換して得られる値X(k,f,r)をk番目の要素とするK次元の縦ベクトルをスペクトルベクトルX(f,r)=[X(1,f,r),・・・,X(K,f,r)]Tと記述する。ただし、fは離散周波数を表すインデックスである。周波数領域への変換方法の例は、FFT(Fast Fourier Transform)などの離散フーリエ変換である。また、X(k,f,r)の振幅スペクトルA(k,f,r)をk番目の要素とするK次元の縦ベクトルを振幅スペクトルベクトルA(f,r)=[A(1,f,r),・・・,A(K,f,r)]Tと記述する。さらに、X(k,f,r)の位相スペクトルφ(k,f,r)をk番目の要素とするK次元の縦ベクトルを位相スペクトルベクトルφ(f,r)=[φ(1,f,r),・・・,φ(K,f,r)]Tと記述する。スペクトル算出部109は、x(j,r)=[sx1(i1,r,j),・・・,sxK(iK,r,j)]Tを周波数領域に変換し、フレームrごとに、k個の振幅スペクトルA(k,f,r)からなる振幅スペクトルベクトルA(f,r)と、k個の位相スペクトルφ(k,f,r)からなる位相スペクトルベクトルφ(f,r)を得て出力する(ステップS109)。
振幅スペクトルベクトルA(f,r)は振幅スペクトル記憶部110に格納され、位相スペクトルベクトルφ(f,r)は位相スペクトル記憶部111に格納される。
フィルタ係数算出部112は、ベクトル分類部108から出力された各フレームrのラベルθr、および振幅スペクトル記憶部110から読み出した振幅スペクトルベクトルA(f,r)を入力として受け取る。ここでラベルθrがとり得る値(分類ラベル番号)のうち、音を強調する信号区間分類(強調信号区間分類)を表す分類ラベル番号をcとする。1個の分類ラベル番号cのみが設定されてもよいし、複数個の分類ラベル番号cが設定されてもよい。例えば、任意に分類ラベル番号cが決定されてもよいし、属するS/NベクトルPV(r)のノルムの平均値または合計値が大きい順に選択された1個以上の信号区間分類を強調信号区間分類として分類ラベル番号cが決定されてもよいし、属するS/NベクトルPV(r)のノルムの平均値または合計値が閾値を超える信号区間分類を強調信号区間分類として分類ラベル番号cが決定されてもよい。θr=cは、フレームrが強調信号区間分類に分類されていることを表す。
また、E[ρ]θr=c(下付きθrはθr)は、θr=cであるフレームrからなる区間における、行列ρの要素の期待値からなる行列を表す。E[ρ]θr≠cは、θr≠cであるフレームrからなる区間における、行列ρの要素の期待値からなる行列を表す。式(5)(6)を求めるための区間は、例えば10秒以上の時間に対応する。またフィルタ係数wc(f)は、チャネルkに対応する係数wc(f,k)をk番目の要素とするK次元の横ベクトル[wc(f,1),・・・,wc(f,K)]である。フィルタ係数算出部112は、各インデックスfおよび各分類ラベル番号cについてフィルタ係数wc(f)を得て出力する。さらにフィルタ係数算出部112は、(5)(6)を求めるための区間において、θr=cである各フレームrのS/NベクトルPV(r)の要素のうち最大の要素に対応するチャネルを、最大チャネル番号kc,rとして得る。フィルタ係数算出部112は、フィルタ係数wc(f)と最大チャネル番号kc,rとを各分類ラベル番号cに対応付け、フィルタ係数記憶部113に格納する。話者の移動や雑音の変化に対応するため、フィルタ係数算出部112は、定期的(例えば1分置き)に、式(5)(6)を得るための区間を更新し、各フィルタ係数wc(f)および最大チャネル番号kc,rを得て、フィルタ係数記憶部113に格納された各フィルタ係数wc(f)および最大チャネル番号kc,rを更新する。
[参考文献3]H. L. Van Tree, ed., “Optimum Array Processing,” Wiley, 2002.
フィルタリング部114は、フィルタ係数記憶部113から読み出したフィルタ係数wc(f)、および振幅スペクトル記憶部110から読み出した振幅スペクトルベクトルA(f,r)を入力として受け取る。フィルタリング部114は、振幅スペクトルベクトルA(f,r)を構成する複数個の振幅スペクトルA(1,f,r),・・・,A(K,f,r)に対し、フィルタ係数wc(f)=[wc(f,1),・・・,wc(f,K)]によるフィルタリングを行い、処理後振幅スペクトルAc’(f,r)を得て出力する(ステップS114)。例えばフィルタリング部114は、以下の式(7)のように、フィルタ係数wc(f)と振幅スペクトルベクトルA(f,r)との内積を処理後振幅スペクトルAc’(f,r)として得る。
Ac’(f,r)=wc(f)A(f,r) (7)
位相付与部115は、処理後振幅スペクトルAc’(f,r)に、それに対応する位相スペクトルを付与して複素スペクトルを得て出力する(ステップS115)。本形態では、位相付与部115は、フィルタ係数記憶部113から各フレームrおよび各分類ラベル番号cに対応する最大チャネル番号kc,r読み出す。位相付与部115は、位相スペクトル記憶部111から全チャネルkに対応する位相スペクトルφ(k,f,r)を読み出し、それらから最大チャネル番号kc,rに対応する位相スペクトルφ(kc,r,f,r)を選択する。さらに位相付与部115は、フィルタリング部114から出力された処理後振幅スペクトルAc’(f,r)を入力として受け取る。位相付与部115は、以下の式(8)のように処理後振幅スペクトルAc’(f,r)に位相スペクトルφ(kc,r,f,r)を付与し、複素スペクトルYc(f,r)を得て出力する。
Yc(f,r)=Ac’(f,r)exp(iφ(kc,r,f,r)) (8)
ただし、iは虚数単位であり、expは指数関数である。
時間領域変換部116は、複素スペクトルYc(f,r)を入力として受け取り、複素スペクトルYc(f,r)を時間領域に変換して強調音響信号yc(n,r)(n=0,・・・,L−1)を得る。ただし、nはサンプル点を表すインデックスである。時間領域に変換する方法としては、例えば逆フーリエ変換を用いることができる。さらに時間領域変換部116は、オーバーラップアド法を用いて強調音響信号yc(n,r)(n=0,・・・,L−1)を合成して時間領域の音響信号波形を得て出力する。分類ラベル番号cが複数存在する場合、時間領域変換部116は、各分類ラベル番号cに対応する音響信号波形を複数出力する。または、各分類ラベル番号cに対応する音響信号波形の同じサンプル点ごとの加算値を出力してもよい。
なお、本発明は上述の実施の形態に限定されるものではない。例えば、すべてのチャネルk=1,・・・,KのA/D変換器22−kのサンプリング周波数の公称値が互いに同一であるならば、サンプリング周波数変換部102の処理を行わなくてもよい。この場合には「入力デジタル音響信号」がそのまま「変換デジタル音響信号」として信号同期部103に入力されてもよい。このような場合にはサンプリング周波数変換部102を設けなくてもよい。
20−1〜K 観測装置
Claims (6)
- 複数個のチャネルの入力デジタル音響信号を入力とし、前記複数個のチャネルの入力デジタル音響信号をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号を得るサンプリング周波数変換部と、
前記複数個の変換デジタル音響信号について各チャネルから一定時間長のサンプル列をそれぞれ取得し、1つのチャネルのサンプル列を基準サンプル列として、当該基準サンプル列としたチャネル以外のチャネルの非基準サンプル列に対して前記基準サンプル列との相互相関を最大にする遅延量をそれぞれ探索し、前記非基準サンプル列に対して当該遅延量を加えたサンプル列をそれぞれ生成することを前記一定時間長よりも短い時間間隔で前記サンプル列を取得する範囲をシフトさせながら定期的に繰り返すことによって、チャネル間で同期した変換デジタル音響信号を取得する信号同期部と、
チャネルごとに音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさを非音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさで正規化した要素からなるS/Nベクトルである特徴量を得る特徴量列取得部と、
前記複数個のチャネルに対して得られた前記特徴量からなる特徴量列をクラスタリングし、前記特徴量列が属する信号区間分類を決定する分類部と、
複数個の時間区間のそれぞれで前記チャネル間で同期した変換デジタル音響信号を周波数領域に変換し、複数個の振幅スペクトルと位相スペクトルとを得るスペクトル算出部と、
前記複数個の振幅スペクトルに対し、前記信号区間分類の何れかである強調信号区間分類に属する特徴量列に対応する振幅スペクトルを強調する処理を行い、複数個の処理後振幅スペクトルを得る強調処理部と、
前記処理後振幅スペクトルに前記位相スペクトルを付与して複素スペクトルを得る位相付与部と、
を有する音響信号強調装置。 - 請求項1の音響信号強調装置であって、
前記強調処理部は、
前記強調信号区間分類に属する特徴量列に対応する振幅スペクトルを強調するフィルタリングのためのフィルタ係数を算出するフィルタ係数算出部と、
前記複数個の振幅スペクトルに対し、前記フィルタ係数によるフィルタリングを行い、前記処理後振幅スペクトルを得るフィルタリング部と、
を有する音響信号強調装置。 - 請求項1または2の音響信号強調装置であって、
前記複数個のチャネルの入力デジタル音響信号のそれぞれは、録音機能を持つ複数個の装置のそれぞれで得られたものである、
ことを特徴とする音響信号強調装置。 - 請求項1から3の何れかの音響信号強調装置であって、
前記複素スペクトルを時間領域に変換して強調音響信号を得る時間領域変換部を有する音響信号強調装置。 - 複数個のチャネルの入力デジタル音響信号を入力とし、前記複数個のチャネルの入力デジタル音響信号をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号を得るサンプリング周波数変換ステップと、
前記複数個の変換デジタル音響信号について各チャネルから一定時間長のサンプル列をそれぞれ取得し、1つのチャネルのサンプル列を基準サンプル列として、当該基準サンプル列としたチャネル以外のチャネルの非基準サンプル列に対して前記基準サンプル列との相互相関を最大にする遅延量をそれぞれ探索し、前記非基準サンプル列に対して当該遅延量を加えたサンプル列をそれぞれ生成することを前記一定時間長よりも短い時間間隔で前記サンプル列を取得する範囲をシフトさせながら定期的に繰り返すことによって、チャネル間で同期した変換デジタル音響信号を取得する信号同期ステップと、
チャネルごとに音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさを非音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさで正規化した要素からなるS/Nベクトルである特徴量を得る特徴量列取得ステップと、
前記複数個のチャネルに対して得られた前記特徴量からなる特徴量列をクラスタリングし、前記特徴量列が属する信号区間分類を決定する分類ステップと、
複数個の時間区間のそれぞれで前記チャネル間で同期した変換デジタル音響信号を周波数領域に変換し、複数個の振幅スペクトルと位相スペクトルとを得るスペクトル算出ステップと、
前記複数個の振幅スペクトルに対し、前記信号区間分類の何れかである強調信号区間分類に属する特徴量列に対応する振幅スペクトルを強調する処理を行い、複数個の処理後振幅スペクトルを得る強調処理ステップと、
前記処理後振幅スペクトルに前記位相スペクトルを付与して複素スペクトルを得る位相付与ステップと、
を有する音響信号強調方法。 - 請求項1から4の何れかの音響信号強調装置の各部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012243616A JP5705190B2 (ja) | 2012-11-05 | 2012-11-05 | 音響信号強調装置、音響信号強調方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012243616A JP5705190B2 (ja) | 2012-11-05 | 2012-11-05 | 音響信号強調装置、音響信号強調方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014092705A JP2014092705A (ja) | 2014-05-19 |
JP5705190B2 true JP5705190B2 (ja) | 2015-04-22 |
Family
ID=50936808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012243616A Active JP5705190B2 (ja) | 2012-11-05 | 2012-11-05 | 音響信号強調装置、音響信号強調方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5705190B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6063843B2 (ja) * | 2013-08-28 | 2017-01-18 | 日本電信電話株式会社 | 信号区間分類装置、信号区間分類方法、およびプログラム |
JP6395558B2 (ja) * | 2014-10-21 | 2018-09-26 | オリンパス株式会社 | 第1の録音装置、第2の録音装置、録音システム、第1の録音方法、第2の録音方法、第1の録音プログラム、および第2の録音プログラム |
JP6285855B2 (ja) * | 2014-12-25 | 2018-02-28 | 日本電信電話株式会社 | フィルタ係数算出装置、音声再生装置、フィルタ係数算出方法及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4746533B2 (ja) * | 2006-12-21 | 2011-08-10 | 日本電信電話株式会社 | 多音源有音区間判定装置、方法、プログラム及びその記録媒体 |
JP4891801B2 (ja) * | 2007-02-20 | 2012-03-07 | 日本電信電話株式会社 | 多信号強調装置、方法、プログラム及びその記録媒体 |
JP4469882B2 (ja) * | 2007-08-16 | 2010-06-02 | 株式会社東芝 | 音響信号処理方法及び装置 |
JP4950930B2 (ja) * | 2008-04-03 | 2012-06-13 | 株式会社東芝 | 音声/非音声を判定する装置、方法およびプログラム |
-
2012
- 2012-11-05 JP JP2012243616A patent/JP5705190B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014092705A (ja) | 2014-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6027087B2 (ja) | スペクトル挙動の変換を実行する音響信号処理システム及び方法 | |
JP6195548B2 (ja) | 信号解析装置、方法、及びプログラム | |
JP6348427B2 (ja) | 雑音除去装置及び雑音除去プログラム | |
CN111863015A (zh) | 一种音频处理方法、装置、电子设备和可读存储介质 | |
JP2018040848A (ja) | 音響処理装置および音響処理方法 | |
WO2019163736A1 (ja) | マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム | |
JP6992873B2 (ja) | 音源分離装置、音源分離方法およびプログラム | |
JP5705190B2 (ja) | 音響信号強調装置、音響信号強調方法、およびプログラム | |
CN107592600B (zh) | 一种基于分布式麦克风的拾音筛选方法及拾音装置 | |
JP5784075B2 (ja) | 信号区間分類装置、信号区間分類方法、およびプログラム | |
JP6606784B2 (ja) | 音声処理装置および音声処理方法 | |
JP5994639B2 (ja) | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム | |
JPWO2012105385A1 (ja) | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム | |
JP6448567B2 (ja) | 音響信号解析装置、音響信号解析方法、及びプログラム | |
JP5726790B2 (ja) | 音源分離装置、音源分離方法、およびプログラム | |
JP6285855B2 (ja) | フィルタ係数算出装置、音声再生装置、フィルタ係数算出方法及びプログラム | |
JP6233625B2 (ja) | 音声処理装置および方法、並びにプログラム | |
JP4849404B2 (ja) | 信号処理装置、信号処理方法およびプログラム | |
US11297418B2 (en) | Acoustic signal separation apparatus, learning apparatus, method, and program thereof | |
JP6167062B2 (ja) | 分類装置、分類方法、およびプログラム | |
JP6063843B2 (ja) | 信号区間分類装置、信号区間分類方法、およびプログラム | |
JP4249697B2 (ja) | 音源分離学習方法、装置、プログラム、音源分離方法、装置、プログラム、記録媒体 | |
JP7000281B2 (ja) | 音響信号処理装置、音響信号処理方法及びプログラム | |
WO2015024940A1 (en) | Enhanced estimation of at least one target signal | |
CN118020101A (zh) | 与阵列几何形状无关的多通道个性化语音增强 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5705190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |