JP2017530579A - 両耳統合相互相関自己相関メカニズム - Google Patents
両耳統合相互相関自己相関メカニズム Download PDFInfo
- Publication number
- JP2017530579A JP2017530579A JP2017503897A JP2017503897A JP2017530579A JP 2017530579 A JP2017530579 A JP 2017530579A JP 2017503897 A JP2017503897 A JP 2017503897A JP 2017503897 A JP2017503897 A JP 2017503897A JP 2017530579 A JP2017530579 A JP 2017530579A
- Authority
- JP
- Japan
- Prior art keywords
- correlation
- function
- channel
- layer cross
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims description 13
- 238000005311 autocorrelation function Methods 0.000 claims abstract description 59
- 238000005314 correlation function Methods 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims abstract description 29
- 230000002123 temporal effect Effects 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 83
- 230000008569 process Effects 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 31
- 238000000926 separation method Methods 0.000 claims description 20
- 230000004807 localization Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 27
- 238000013459 approach Methods 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000004044 response Effects 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000003111 delayed effect Effects 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000009413 insulation Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 210000002469 basement membrane Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 210000002768 hair cell Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000527 sonication Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/552—Binaural
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/0308—Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/43—Signal processing in hearing aids to enhance the speech intelligibility
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
式中、tは時間であり、τは内部遅延であり、ylは左耳信号であり、yrは右耳信号である。変数t’は分析窓の開始時間であり、Δτはその継続時間である。ICCメカニズムは、直接音のITDと反射のITDの両方を抽出するため、反射の存在下で直接音源の両耳間時間差を推定することは困難である。一般的に、直接音及びその反射の相互相関ピークは、重なり合って単一のピークを形成し、それゆえ、ITDはもはや、それらの個々のピーク位置を使用して分離することはできない。たとえこれら2つのピークが十分にはっきりと区別できるように分離される場合であっても、ICCは対称プロセスであり、因果関係を保存しないため、ICCメカニズムは、いずれのピークが直接音に属し、いずれが反射に属するかを解決することができない。
st1(t)=sd1(t)+sr1(t)=sd1(t)+r1・sd1(t−T) (2)
式中、sd(t)はリードであり、sr(t)はラグであり、Tは遅延時間であり、rは、周波数に依存しない、位相シフトのない反射係数であるラグ−リード振幅比(Lag-to-Lead Amplitude Ratio:LLAR)である。インデックス1は、左チャネルを示す。自己相関はまた、右信号にも適用することができる。
st2(t)=sd2(t)+sr2(t)=sd1(t)+r2・sd2(t−T) (3)
ITDd=T(d2−r1)−T(d1−r1) (4)
代替的に、直接音のITDは、チャネルを切り替えることによって推定することができる。
ITDd*=T(d2−r2)−T(d1−r2) (5)
ITDr=T(r2−d1)−T(r1−d1) (6)
ここでも、直接音のITDは、チャネルを切り替えることによって推定することができる。
ITDr*=T(r2−d2)−T(r1−d2) (7)
ILDd=20・log10=a(d2/r1)/a(d1/r1) (8)
又は、代替的に
ILDd*=20・log10=a(d2/r2)/a(d1/r2) (9)
同様に、反射のILDは、以下のように2通りに計算することができる。
ILDr=20・log10=a(d1/r1)/a(d1/r2) (10)
又は
ILDr=20・log10=a(d2/r1)/a(d2/r2) (11)
1 Y=xcorr(y,y,800); % 信号yについて自己相関を求める
2 b=length(Y);
3 M=zeros(b,b); % 交差項計算行列
4 a=(b+l)./2;
5 Y=Y(a:b); % 自己相関関数の右サイドを抽出する
6 Y(1)=0; % メインピークを除去する
7
8 for n=b:−l :2 % 最高の係数から開始して最低の係数へ
9 M(:,n)=Y(n).*Y; % 可能性のある交差項を計算する...
10 maxi=max(M(n−l :−l :2,n)); % ...そして、最も大きい最大値を見つける
11 if maxi>threshold % 最大値が設定閾値を超える場合に交差項を相殺する
12 Y(2:ceil(n./2))=Y(2:ceil(n./2))−2.*M(n−l :−l :floor(n./2)+l,n);
13 end
14 end
Rxx(m)=E[xn+m x*n] (12)
Rxy(m)=E[xn+m y*n] (13)
Ryx(m)=E[yn+m x*n] (14)
Ryy(m)=E[yn+m y*n] (15)
式中、Rは相互相関シーケンスであり、E{...}は予測値演算子である。変数xは左耳信号であり、yは右耳信号である。変数mは−M〜Mに及ぶ内部遅延であり、nは離散的な時間係数である。実際には、Mの値は、対象の反射パターンの継続時間以上である必要がある。変数Mは、インパルス応答全体又はそのサブセットを含み得る。実際には、10msと40msとの間の値が良好に機能した。48kHzのサンプリングレートにおいて、このとき、Mは480又は1920係数(taps)である。変数nは、0〜信号継続時間Nの範囲をカバーする。計算は、より短いセグメントにわたって進行中の分析として実施することができる。
音源分離
1.所望の音源の信号成分を含む時間/周波数ビンを選択するために、音源分離システム24は、両耳間コヒーレンスに基づくキュー選択方法を使用する代わりに、Durlachの等化/相殺(EC)モデルを利用する。実効的には、2つの耳が表す2チャネルセンサの耳垂が、信号をフィルタリング除外するよりもはるかにより効果的に信号を拒絶するという事実を利用する、ヌルアンテナ手法が使用される。この手法は、計算的にもより効率的である。ECモデルは、音源分別に成功裏に使用されているが、この手法は、以下の点において新規である。
(a)ECモデルは、無響信号だけでなく、室内インパルス応答とともに使用される、また、
(b)本明細書において説明されている、はるかにより信頼性の高い定位アルゴリズムであるBICAMプロセス45が、残響信号の処理を可能にするフロントエンドとして使用される。
2.周波数ビン毎に早期反射を除去する代わりに、各音源が、独立したチャネルとして処理される。このとき、
(a)最初に早期反射をフィルタリング除外し、
(b)その後、ECモデルを使用して、このチャネルに属する信号成分を検出する。
式中、x1(n,m)は左オーディオ信号であり、x2(n,m)は右オーディオ信号であり、エネルギーは以下のとおりである。
B=max(b)−b
としてプロットされ、これは、選択キューを0(選択されない)と1(選択される)との間で正規化するための式である。以下の実施例において、Bの閾値はキューを選択するために0.75に設定された。グラフは、選択されているキューが、男声信号と良好に相関することを示している。モデルはまた、偶然に女性の声からの情報も選択するが、女性の声に対応するほとんどのビンは選択されない。
Claims (20)
- 両耳オーディオデータからパラメータを推定するための音声処理システムであって、
少なくとも2つのマイクロホンを使用して空間音場から捕捉される第1のチャネル及び第2のチャネルを有する両耳オーディオデータを入力するためのシステムと、
反射音成分から直接音成分を分離するための両耳信号分析器であり、前記両耳信号分析器が、
前記第1のチャネルと前記第2のチャネルの両方に対して自己相関を実施して、一対の自己相関関数を生成することと、
前記第1のチャネルと前記第2のチャネルとの間で第1層相互相関を実施して、第1層相互相関関数を生成することと、
前記第1層相互相関関数及び選択された自己相関関数から中心ピークを除去して、修正対を生成することと、
前記修正対の間で第2層相互相関を実施して、時間的不整合を求めることと、
前記選択された自己相関関数の前記中心ピークが前記第1層相互相関関数の前記中心ピークの時間的位置に一致するように、前記時間的不整合を使用して、前記第1層相互相関関数を、前記選択された自己相関関数と置き換えることによって、結果の関数を生成することと、
前記結果の関数を利用して、前記直接音成分及び前記反射音成分の両耳間時間差(ITD)パラメータ及び両耳間レベル差(ILD)パラメータを求めることと、
を行うメカニズムを含む、両耳信号分析器と、
を備える、音声処理システム。 - 前記中心ピークを除去することが、前記第1層相互相関関数及び前記選択された自己相関関数の両サイドの一方を除去することをさらに含む、請求項1に記載の音声処理システム。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記直接音成分の位置情報を求める音声定位システムをさらに備える、請求項1に記載の音声処理システム。
- 進行中の相互相関が、前記第2層相互相関に利用される、請求項1に記載の音声処理システム。
- 前記進行中の相互相関が、前記空間音場の音響パラメータを求めるために利用される、請求項4に記載の音声処理システム。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記空間音場内の複数の異なる音源を分別する音源分離システムをさらに備える、請求項1に記載の音声処理システム。
- 前記音源分離システムが、
各音源の音反射を除去するためのシステムと、
等化/相殺(EC)プロセスを利用して各音源を含む要素のセットを識別するためのシステムと、
を含む、請求項5に記載の音声処理システム。 - 少なくとも2つのマイクロホンを使用して空間音場から捕捉される第1のチャネル及び第2のチャネルを有する両耳オーディオデータからパラメータを推定するためのコンピュータ化された方法であって、
前記第1のチャネルと前記第2のチャネルの両方に対して自己相関を実施して、一対の自己相関関数を生成するステップと、
前記第1のチャネルと前記第2のチャネルとの間で第1層相互相関を実施して、第1層相互相関関数を生成するステップと、
前記第1層相互相関関数及び選択された自己相関関数から中心ピークを除去して、修正対を生成するステップと、
前記修正対の間で第2層相互相関を実施して、時間的不整合を求めるステップと、
前記選択された自己相関関数の前記中心ピークが前記第1層相互相関関数の前記中心ピークの時間的位置に一致するように、前記時間的不整合を使用して、前記第1層相互相関関数を、前記選択された自己相関関数と置き換えることによって、結果の関数を生成するステップと、
前記結果の関数を利用して、前記直接音成分及び反射音成分の両耳間時間差(ITD)パラメータ及び両耳間レベル差(ILD)パラメータを求めるステップと、
を含む、コンピュータ化された方法。 - 前記中心ピークを除去することが、前記第1層相互相関関数及び前記選択された自己相関関数の両サイドの一方を除去することをさらに含む、請求項8に記載のコンピュータ化された方法。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記直接音成分の位置情報を求めるステップをさらに含む、請求項8に記載のコンピュータ化された方法。
- 進行中の相互相関が、前記第2層相互相関に利用される、請求項8に記載のコンピュータ化された方法。
- 前記進行中の相互相関が、前記空間音場の音響パラメータを求めるために利用される、請求項11に記載のコンピュータ化された方法。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記空間音場内の複数の異なる音源を分別するステップをさらに含む、請求項8に記載のコンピュータ化された方法。
- 前記分別するステップが、
各音源の音反射を除去することと、
各音源を含む要素のセットを識別するために等化/相殺(EC)プロセスを利用することと、
を含む、請求項13に記載のコンピュータ化された方法。 - コンピュータ可読媒体上に記憶されているコンピュータプログラム製品であって、コンピューティングシステムによって実行されると、少なくとも2つのマイクロホンを使用して空間音場から捕捉される第1のチャネル及び第2のチャネルを有する両耳オーディオデータからパラメータを推定し、当該コンピュータプログラム製品は、
前記第1のチャネルと前記第2のチャネルの両方に対して自己相関を実施して、一対の自己相関関数を生成するためのプログラムコードと、
前記第1のチャネルと前記第2のチャネルとの間で第1層相互相関を実施して、第1層相互相関関数を生成するためのプログラムコードと、
前記第1層相互相関関数及び選択された自己相関関数から中心ピークを除去して、修正対を生成するためのプログラムコードと、
前記修正対の間で第2層相互相関を実施して、時間的不整合を求めるためのプログラムコードと、
前記選択された自己相関関数の前記中心ピークが前記第1層相互相関関数の前記中心ピークの時間的位置に一致するように、前記時間的不整合を使用して、前記第1層相互相関関数を、前記選択された自己相関関数と置き換えることによって、結果の関数を生成するためのプログラムコードと、
前記結果の関数を利用して、前記直接音成分及び反射音成分の両耳間時間差(ITD)パラメータ及び両耳間レベル差(ILD)パラメータを求めるためのプログラムコードと、
を含む、コンピュータプログラム製品。 - 前記中心ピークを除去することが、前記第1層相互相関関数及び前記選択された自己相関関数の両サイドの一方を除去することをさらに含む、請求項15に記載のコンピュータプログラム製品。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記直接音成分の位置情報を求めるためのプログラムコードをさらに含む、請求項15に記載のコンピュータプログラム製品。
- 前記第2層相互相関が前記空間音場の音響パラメータを求めるために、進行中の相互相関が利用される、請求項15に記載のコンピュータプログラム製品。
- 前記ITDパラメータ及び前記ILDパラメータを使用して前記空間音場内の複数の異なる音源を分別するためのプログラムコードをさらに備える、請求項15に記載のコンピュータプログラム製品。
- 前記分別するためのプログラムコードが、
各音源の音反射を除去するためのプログラムコードと、
各音源を含む要素のセットを識別するために等化/相殺(EC)プロセスを利用するためのプログラムコードと
を含む、請求項19に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462037135P | 2014-08-14 | 2014-08-14 | |
US62/037,135 | 2014-08-14 | ||
PCT/US2015/045239 WO2016025812A1 (en) | 2014-08-14 | 2015-08-14 | Binaurally integrated cross-correlation auto-correlation mechanism |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017530579A true JP2017530579A (ja) | 2017-10-12 |
Family
ID=55304662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503897A Pending JP2017530579A (ja) | 2014-08-14 | 2015-08-14 | 両耳統合相互相関自己相関メカニズム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10068586B2 (ja) |
EP (1) | EP3165000A4 (ja) |
JP (1) | JP2017530579A (ja) |
WO (1) | WO2016025812A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6658026B2 (ja) * | 2016-02-04 | 2020-03-04 | 株式会社Jvcケンウッド | フィルタ生成装置、フィルタ生成方法、及び音像定位処理方法 |
JP6630605B2 (ja) * | 2016-03-22 | 2020-01-15 | 日本放送協会 | インパルス応答推定装置及びプログラム |
GB2563953A (en) | 2017-06-28 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201713697D0 (en) | 2017-06-28 | 2017-10-11 | Cirrus Logic Int Semiconductor Ltd | Magnetic detection of replay attack |
GB201801530D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
US11200906B2 (en) | 2017-09-15 | 2021-12-14 | Lg Electronics, Inc. | Audio encoding method, to which BRIR/RIR parameterization is applied, and method and device for reproducing audio by using parameterized BRIR/RIR information |
GB201801661D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic International Uk Ltd | Detection of liveness |
GB201801663D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB2567503A (en) | 2017-10-13 | 2019-04-17 | Cirrus Logic Int Semiconductor Ltd | Analysing speech signals |
GB201804843D0 (en) * | 2017-11-14 | 2018-05-09 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801664D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
CN108172241B (zh) * | 2017-12-27 | 2020-11-17 | 上海传英信息技术有限公司 | 一种基于智能终端的音乐推荐方法及音乐推荐*** |
CN108091345B (zh) * | 2017-12-27 | 2020-11-20 | 东南大学 | 一种基于支持向量机的双耳语音分离方法 |
US11264037B2 (en) | 2018-01-23 | 2022-03-01 | Cirrus Logic, Inc. | Speaker identification |
CN112262433B (zh) * | 2018-04-05 | 2024-03-01 | 弗劳恩霍夫应用研究促进协会 | 用于估计通道间时间差的装置、方法或计算机程序 |
AU2018442039A1 (en) * | 2018-09-18 | 2021-04-15 | Huawei Technologies Co., Ltd. | Device and method for adaptation of virtual 3D audio to a real room |
WO2022006806A1 (zh) * | 2020-07-09 | 2022-01-13 | 瑞声声学科技(深圳)有限公司 | 双声道设备的立体声效果检测方法 |
WO2022133128A1 (en) * | 2020-12-17 | 2022-06-23 | Dolby Laboratories Licensing Corporation | Binaural signal post-processing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236092A (ja) * | 2000-02-23 | 2001-08-31 | Nec Corp | 話者方向検出回路及びそれに用いる話者方向検出方法 |
JP2005338086A (ja) * | 2004-05-26 | 2005-12-08 | Honda Research Inst Europe Gmbh | バイノーラル信号に基づいた音源定位 |
JP2013236396A (ja) * | 2009-01-22 | 2013-11-21 | Panasonic Corp | 補聴装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3781902B2 (ja) | 1998-07-01 | 2006-06-07 | 株式会社リコー | 音像定位制御装置および音像定位制御方式 |
US6675114B2 (en) | 2000-08-15 | 2004-01-06 | Kobe University | Method for evaluating sound and system for carrying out the same |
BRPI0304540B1 (pt) * | 2002-04-22 | 2017-12-12 | Koninklijke Philips N. V | Methods for coding an audio signal, and to decode an coded audio sign, encoder to codify an audio signal, codified audio sign, storage media, and, decoder to decode a coded audio sign |
US20080056517A1 (en) | 2002-10-18 | 2008-03-06 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction in focued or frontal applications |
US7680289B2 (en) | 2003-11-04 | 2010-03-16 | Texas Instruments Incorporated | Binaural sound localization using a formant-type cascade of resonators and anti-resonators |
KR101019936B1 (ko) * | 2005-12-02 | 2011-03-09 | 퀄컴 인코포레이티드 | 음성 파형의 정렬을 위한 시스템, 방법, 및 장치 |
US8103005B2 (en) * | 2008-02-04 | 2012-01-24 | Creative Technology Ltd | Primary-ambient decomposition of stereo audio signals using a complex similarity index |
US8761410B1 (en) * | 2010-08-12 | 2014-06-24 | Audience, Inc. | Systems and methods for multi-channel dereverberation |
KR101702561B1 (ko) * | 2010-08-30 | 2017-02-03 | 삼성전자 주식회사 | 음원출력장치 및 이를 제어하는 방법 |
KR101694822B1 (ko) * | 2010-09-20 | 2017-01-10 | 삼성전자주식회사 | 음원출력장치 및 이를 제어하는 방법 |
DE102012017296B4 (de) * | 2012-08-31 | 2014-07-03 | Hamburg Innovation Gmbh | Erzeugung von Mehrkanalton aus Stereo-Audiosignalen |
-
2015
- 2015-08-14 US US15/500,230 patent/US10068586B2/en active Active
- 2015-08-14 EP EP15831928.5A patent/EP3165000A4/en not_active Withdrawn
- 2015-08-14 JP JP2017503897A patent/JP2017530579A/ja active Pending
- 2015-08-14 WO PCT/US2015/045239 patent/WO2016025812A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236092A (ja) * | 2000-02-23 | 2001-08-31 | Nec Corp | 話者方向検出回路及びそれに用いる話者方向検出方法 |
US20010019516A1 (en) * | 2000-02-23 | 2001-09-06 | Yasuhiro Wake | Speaker direction detection circuit and speaker direction detection method used in this circuit |
JP2005338086A (ja) * | 2004-05-26 | 2005-12-08 | Honda Research Inst Europe Gmbh | バイノーラル信号に基づいた音源定位 |
US20050276419A1 (en) * | 2004-05-26 | 2005-12-15 | Julian Eggert | Sound source localization based on binaural signals |
JP2013236396A (ja) * | 2009-01-22 | 2013-11-21 | Panasonic Corp | 補聴装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170243597A1 (en) | 2017-08-24 |
US10068586B2 (en) | 2018-09-04 |
EP3165000A1 (en) | 2017-05-10 |
EP3165000A4 (en) | 2018-03-07 |
WO2016025812A1 (en) | 2016-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10068586B2 (en) | Binaurally integrated cross-correlation auto-correlation mechanism | |
RU2717895C2 (ru) | Устройство и способ для формирования отфильтрованного звукового сигнала, реализующего рендеризацию угла места | |
EP3360250B1 (en) | A sound signal processing apparatus and method for enhancing a sound signal | |
EP2633697B1 (en) | Three-dimensional sound capturing and reproducing with multi-microphones | |
KR101415026B1 (ko) | 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치 | |
US20110096915A1 (en) | Audio spatialization for conference calls with multiple and moving talkers | |
US9560461B2 (en) | Automatic loudspeaker polarity detection | |
Talagala et al. | Binaural sound source localization using the frequency diversity of the head-related transfer function | |
CN113470685A (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
Hosseini et al. | Time difference of arrival estimation of sound source using cross correlation and modified maximum likelihood weighting function | |
Kepesi et al. | Joint position-pitch estimation for multiple speaker scenarios | |
Braasch | Sound localization in the presence of multiple reflections using a binaurally integrated cross-correlation/auto-correlation mechanism | |
Pirhosseinloo et al. | Time-Frequency Masking for Blind Source Separation with Preserved Spatial Cues. | |
Firoozabadi et al. | Combination of nested microphone array and subband processing for multiple simultaneous speaker localization | |
Hammond et al. | Robust full-sphere binaural sound source localization | |
Levi et al. | An alternate approach to adaptive beamforming using srp-phat | |
Pirhosseinloo et al. | An Interaural Magnification Algorithm for Enhancement of Naturally-Occurring Level Differences. | |
Pasha et al. | Clustered multi-channel dereverberation for ad-hoc microphone arrays | |
US11835625B2 (en) | Acoustic-environment mismatch and proximity detection with a novel set of acoustic relative features and adaptive filtering | |
Mosayyebpour et al. | Time delay estimation via minimum-phase and all-pass component processing | |
Tyler et al. | Predicting room acoustical parameters from running signals using a precedence effect model and deep neural networks | |
Andráš et al. | Microphone Array Speech Sensing and Dereverberation with Linear Prediction | |
Maymon et al. | Study of speaker localization with binaural microphone array incorporating auditory filters and lateral angle estimation | |
Dehghan Firoozabadi et al. | Subband processing‐based approach for the localisation of two simultaneous speakers | |
Ramnath et al. | Robust speech direction detection for low cost robotics applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190129 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190424 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190726 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200804 |