JP2018170718A - Sound collecting device, program, and method - Google Patents

Sound collecting device, program, and method Download PDF

Info

Publication number
JP2018170718A
JP2018170718A JP2017068515A JP2017068515A JP2018170718A JP 2018170718 A JP2018170718 A JP 2018170718A JP 2017068515 A JP2017068515 A JP 2017068515A JP 2017068515 A JP2017068515 A JP 2017068515A JP 2018170718 A JP2018170718 A JP 2018170718A
Authority
JP
Japan
Prior art keywords
sound
target area
feature
feature amount
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017068515A
Other languages
Japanese (ja)
Other versions
JP6863004B2 (en
Inventor
大 藤枝
Masaru Fujieda
大 藤枝
一浩 片桐
Kazuhiro Katagiri
一浩 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017068515A priority Critical patent/JP6863004B2/en
Publication of JP2018170718A publication Critical patent/JP2018170718A/en
Application granted granted Critical
Publication of JP6863004B2 publication Critical patent/JP6863004B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound collecting device, a program, and a method for emphasizing only a target area sound with less distortion.SOLUTION: The present invention relates to a sound collecting device. The sound collecting device according to the present invention calculates, for each of a plurality of microphone arrays each of which is composed of two microphones, an arrival direction feature amount that changes according to the arrival direction of sound, and becomes a large value for a sound coming from a direction of a target area and becomes a small value for a sound coming from a direction other than the direction of the target area, and obtains, for each frequency component, an area feature amount obtained by integrating the arrival direction feature amounts of the respective microphone arrays, and extracts a target area sound from a signal based on the captured signal output by the microphone array by using the area feature amount.SELECTED DRAWING: Figure 1

Description

本発明は、収音装置、プログラム及び方法に関し、例えば、特定のエリアの音のみを強調し、それ以外のエリアの音を抑圧する場合に適用し得る。   The present invention relates to a sound collection device, a program, and a method, and can be applied to, for example, emphasizing only sounds in a specific area and suppressing sounds in other areas.

特定の方向に存在する音(音声や音響;以下、音声及び音響をまとめて「音響」と呼ぶこともある)を強調し、それ以外の音を抑圧する技術として、マイクアレイを用いたビームフォーマがある。ビームフォーマとは、各マイクに到達する信号の時間差を利用して指向性や死角を形成する技術である(非特許文献1、非特許文献2参照)。   A beamformer using a microphone array is a technology that emphasizes sound (sound and sound; hereinafter referred to as “sound” collectively), and suppresses other sounds. There is. The beamformer is a technique for forming directivity and blind spot using a time difference between signals reaching each microphone (see Non-Patent Document 1 and Non-Patent Document 2).

しかし、単純にビームフォーマの指向性を収音目的とするエリア(以下、「目的エリア」と呼ぶ)に向けただけでは、目的エリアの周囲に雑音源が存在する場合、目的エリア内に存在する音源(以下、「目的エリア音」と呼ぶ)だけでなく、目的エリア外に存在する雑音源(以下、「非目的エリア音」と呼ぶ)も同時に収音してしまうという問題が存在する。   However, simply pointing the beamformer's directivity toward an area for sound collection (hereinafter referred to as “target area”), if there is a noise source around the target area, it exists in the target area. There is a problem that not only a sound source (hereinafter referred to as “target area sound”), but also a noise source (hereinafter referred to as “non-target area sound”) existing outside the target area is collected simultaneously.

この問題に対して、従来、複数のマイクアレイを用いて、別々の方向から指向性を目的エリアに向けて交差させ、目的エリア音を収音する方式が提案されている(特許文献1)。特許文献1に記載された方式では、各マイクアレイのビームフォーマ出力を同時に処理することで、目的エリアを抽出する。   In order to solve this problem, a method has been proposed in which a plurality of microphone arrays are used to cross the directivities from different directions toward the target area to collect the target area sound (Patent Document 1). In the method described in Patent Document 1, the target area is extracted by simultaneously processing the beamformer output of each microphone array.

図6は、従来の複数のマイクアレイを用いた収音処理の例について示した説明図である。   FIG. 6 is an explanatory diagram showing an example of sound collection processing using a plurality of conventional microphone arrays.

図6では、2つのマイクアレイMA(MA、MA)の指向性を目的エリアに向けた場合の例について示している。 FIG. 6 shows an example in which the directivity of two microphone arrays MA (MA 1 , MA 2 ) is directed to the target area.

図6(a)は、2つのマイクアレイMA、MAの指向性を目的エリアに向けた場合の各マイクアレイMAや、目的エリア音の音源との位置関係について示している。また、図6(a)では、マイクアレイMA、MAに対応する指向性(ビームフォーマの指向性)Z1、Z2についても図示している。さらに、図6(a)の例では、目的エリアの音源の周囲に非目的エリア音の音源が存在している。従って、図6(a)の状態では、マイクアレイMA、MAのビームフォーマ出力には、共に、目的エリアにある音源による目的エリア音だけでなく、同じ指向性方向の非目的エリアにある音源による非目的エリア音が含まれてしまうことになる。 FIG. 6A shows the positional relationship between each microphone array MA and the sound source of the target area sound when the directivities of the two microphone arrays MA 1 and MA 2 are directed to the target area. FIG. 6A also shows the directivity (beamformer directivity) Z1 and Z2 corresponding to the microphone arrays MA 1 and MA 2 . Further, in the example of FIG. 6A, a sound source of non-target area sound exists around the sound source of the target area. Therefore, in the state of FIG. 6A, the beamformer outputs of the microphone arrays MA 1 and MA 2 are both in the non-target area of the same directivity direction as well as the target area sound by the sound source in the target area. The non-target area sound by the sound source will be included.

図6(b)、図6(c)は、それぞれ、2つのマイクアレイMA、MAのビームフォーマ出力の周波数成分を示している。音声のスパース性を仮定すると、図6(b)、図6(c)に示すように、一つの周波数成分には一つの音源(目的エリア音又は非目的エリア音)しか含まれない。そして、目的エリアは全てのマイクアレイの指向性に含まれているため、目的エリア音の周波数成分は、全てのビームフォーマ出力に、同じ割合、同じ分布で含まれる。これと比較して、非目的エリア音の周波数成分は、ビームフォーマ出力ごとに異なっている。このような特徴から、各ビームフォーマ出力に共通に含まれる周波数成分は、目的エリア音が有する成分と推定することができ、これに基づいて、特許文献1等に記載された従来の目的エリア音の収音方法が実現されている。 FIGS. 6B and 6C show the frequency components of the beamformer outputs of the two microphone arrays MA 1 and MA 2 , respectively. Assuming the sparseness of speech, as shown in FIGS. 6B and 6C, only one sound source (target area sound or non-target area sound) is included in one frequency component. Since the target area is included in the directivity of all microphone arrays, the frequency components of the target area sound are included in all beamformer outputs in the same ratio and with the same distribution. Compared with this, the frequency component of the non-target area sound is different for each beamformer output. From these characteristics, the frequency component that is commonly included in each beamformer output can be estimated as a component of the target area sound. Based on this, the conventional target area sound described in Patent Document 1 and the like can be estimated. The sound collection method is realized.

図7は、従来の収音方法を適用した収音装置10の機能的構成について示したブロック図である。   FIG. 7 is a block diagram showing a functional configuration of the sound collection device 10 to which a conventional sound collection method is applied.

図7に示す従来の収音装置10は、データ入力部2、周波数領域変換部3、指向性形成部4、伝搬遅延差補正部5、パワー補正部6、第1の減算部7、及び第2の減算部8を有している。   7 includes a data input unit 2, a frequency domain conversion unit 3, a directivity forming unit 4, a propagation delay difference correction unit 5, a power correction unit 6, a first subtraction unit 7, and a first subtraction unit. 2 subtracting sections 8 are provided.

マイクアレイMA、MAからの捕捉信号は、それぞれ、データ入力部2においてアナログ信号からデジタル信号(データ)に変換され、周波数領域変換部3において時間領域から周波数領域へと変換されて捕捉信号群X及びXが得られる。そして、指向性形成部4において図6(a)の指向性Z1、指向性Z2のような指向性を有するビームフォーマが適用されてビームフォーマ出力信号Xma1(f)及びXma2(f)が得られる。そして、伝搬遅延差補正部5において各マイクアレイと目的エリアとの距離(既知の情報)に基づいていずれかのビームフォーマ出力信号Xma1(f)及びXma2(f)を遅延させてタイミングを合わせて、遅延補正信号X’ma1(f)及びX’ma2(f)が得られる。 Capture signals from the microphone arrays MA 1 and MA 2 are converted from analog signals to digital signals (data) in the data input unit 2, and converted from the time domain to the frequency domain in the frequency domain conversion unit 3. group X 1 and X 2 are obtained. In the directivity forming unit 4, beamformers having directivity such as directivity Z1 and directivity Z2 in FIG. 6A are applied, and beamformer output signals X ma1 (f) and X ma2 (f) are obtained. can get. Then, the propagation delay difference correction unit 5 delays one of the beamformer output signals X ma1 (f) and X ma2 (f) based on the distance (known information) between each microphone array and the target area, and sets the timing. In addition, delay correction signals X ′ ma1 (f) and X ′ ma2 (f) are obtained.

パワー補正部6では、各マイクアレイと目的エリアとの距離による振幅差に加えて、目的エリア内の話者の向きに適応するため、(1)式によって振幅補正係数αma1(アルファ)を算出する。なお、(1)式中の演算子mode(A(f))は、変数fにより値が変わる関数値A(f)のうち最も多く出現した値(最頻値)を得る演算子である。また、最頻値に代えて、(2)式のように中央値を用いても良い。なお、(2)式中の演算子median(A(f))は、変数fにより値が変わる関数値A(f)の中央値を得る演算子である。

Figure 2018170718
The power correction unit 6 calculates the amplitude correction coefficient α ma1 (alpha) by the equation (1) in order to adapt to the direction of the speaker in the target area in addition to the amplitude difference depending on the distance between each microphone array and the target area. To do. Note that the operator mode f (A (f)) in the expression (1) is an operator that obtains the most frequently occurring value (mode value) among the function values A (f) whose values change depending on the variable f. . Further, instead of the mode value, a median value may be used as in equation (2). The operator median f (A (f)) in the expression (2) is an operator that obtains the median value of the function value A (f) whose value varies depending on the variable f.
Figure 2018170718

そして、第1の減算部7において、マイクアレイMAに係る遅延補正信号X’ma1(f)から振幅補正係数αma1によって振幅を補正したマイクアレイMAに係る遅延補正信号X’ma2(f)をスペクトル減算することにより、両ビームフォーマ出力で重なっている目的エリア音成分が消去され、マイクアレイMAに係る遅延補正信号X’ma1(f)に含まれている非目的エリア音成分Nma1(f)が抽出される。(3)式は、概ねこのような考え方に従っている算出式である。
ma1=X’ma1−αma1・X’ma2 …(3)
Then, in the first subtracting unit 7, 'delay correction signal X according ma1 from (f) to the microphone array MA 2 obtained by correcting the amplitude by the amplitude correction coefficient alpha ma1' ma2 delay correction signal X according to the microphone array MA 1 (f ) by spectral subtraction to both beamformer erased object area sound components overlapping in the output, the delay correction signal X 'ma1 (f) non-target area sound components contained in the N of the microphone array MA 1 ma1 (f) is extracted. Formula (3) is a calculation formula that generally follows such a concept.
N ma1 = X ′ ma1 −α ma1 · X ′ ma2 (3)

そして、第2の減算部8において、マイクアレイMAに係る遅延補正信号X’ma1(f)から非目的エリア音成分Nma1(f)をスペクトル減算することにより、目的エリア音Yma1(f)が抽出される。(4)式は、概ねこのような考え方に従っている算出式である。なお、(4)式中のβma1(ベータ)は、非目的エリア音の除去強度を定めている一定値を取る係数である。
ma1=X’ma1−βma1・Nma1…(4)
Then, the second subtraction unit 8 subtracts the spectrum of the non-target area sound component N ma1 (f) from the delay correction signal X ′ ma1 (f) related to the microphone array MA 1 , so that the target area sound Y ma1 (f ) Is extracted. Formula (4) is a calculation formula that generally follows this concept. In addition, (beta) ma1 (beta) in (4) Formula is a coefficient which takes the fixed value which has defined the removal intensity | strength of the non-target area sound.
Y ma1 = X ′ ma1 −β ma1 · N ma1 (4)

以上のように、従来の収音方法を用いれば、目的エリアの周囲に非目的エリア音源が存在していても、目的エリア音のみを収音することができる。   As described above, if the conventional sound collection method is used, only the target area sound can be collected even if there is a non-target area sound source around the target area.

特開2014−72708号公報JP 2014-72708 A

浅野太著、“音のアレイ信号処理−音源の定位・追跡と分離”、社団法人日本音響学会、コロナ社、2011年2月25日発行Asano Tadashi, "Sound Array Signal Processing-Sound Source Localization / Tracking and Separation", The Acoustical Society of Japan, Corona, February 25, 2011 矢頭隆、森戸誠、山田圭、小川哲司共著、“正方形マイクロホンアレイによる音源分離技術(<特集>音声認識技術の実用化への取り組み)”、一般社団法人情報処理学会、情報処理51(11)、pp.1410−1416.2010年Jointly written by Takashi Yagami, Makoto Morito, Satoshi Yamada, and Tetsuji Ogawa, “Sound source separation technology using a square microphone array (<Special feature> Efforts for practical application of speech recognition technology)”, Information Processing Society of Japan, Information Processing 51 Pp. 1410-1416.2010

しかし、従来の収音方法では、目的エリア音のみを収音するために、2回のスペクトル減算を行っているため、抽出された目的エリア音に音質の問題が生じる可能性がある。   However, in the conventional sound collecting method, since the spectrum subtraction is performed twice in order to collect only the target area sound, there may be a problem in sound quality in the extracted target area sound.

スペクトル減算は、目的音成分と雑音成分が混在する観測信号と、適当な方法で推定した雑音成分とがあるときに、周波数成分ごとに、観測信号の振幅又はパワーから推定雑音成分の振幅又はパワーを減じることで、目的音の振幅又はパワーを推定する方法である。推定雑音成分は、実環境では推定誤差を必ず含んでしまう。そのため、スペクトル減算は、雑音成分が過大推定された周波数成分では目的音の成分までも減衰させてしまうため、目的音がひずむ課題と、雑音成分が過小推定された周波数成分では雑音成分を減衰させきれないため、雑音成分が残留する課題を有する。またさらに、周波数成分ごとにおいて、真の目的音の振幅又はパワーと真の雑音の振幅又はパワーとの和は、観測信号の振幅又はパワーと一致するとは限らないため、仮に推定雑音成分が推定誤差を含まなかったとしても、スペクトル減算は目的音がひずむ課題と雑音成分が残留する課題を有する。   Spectral subtraction is the measurement of the amplitude or power of the estimated noise component from the amplitude or power of the observed signal for each frequency component when there is an observed signal in which the target sound component and noise component are mixed and the noise component estimated by an appropriate method. This is a method for estimating the amplitude or power of the target sound. The estimated noise component necessarily includes an estimation error in the actual environment. For this reason, spectral subtraction attenuates the target sound component for the frequency component with an overestimated noise component, so the problem that the target sound is distorted and the noise component for the frequency component with an underestimated noise component are attenuated. Since it cannot be solved, there is a problem that a noise component remains. Furthermore, for each frequency component, the sum of the amplitude or power of the true target sound and the amplitude or power of the true noise does not always match the amplitude or power of the observation signal. Even if not included, spectral subtraction has a problem that the target sound is distorted and a problem that a noise component remains.

なお、残留した雑音成分は、ミュージカルノイズと呼ばれる極めて不快な雑音として知覚されるため、スペクトル減算の最大の課題として一般的に周知されている。ミュージカルノイズは雑音成分が強くひずんだ雑音である。   Since the remaining noise component is perceived as extremely unpleasant noise called musical noise, it is generally known as the biggest problem of spectrum subtraction. Musical noise is noise in which the noise component is strongly distorted.

従来の収音方法では、以上のような課題を有するスペクトル減算を2回適用するため、強調された目的エリア音がひずむ場合があるという課題があった。   In the conventional sound collection method, since the spectral subtraction having the above-described problems is applied twice, there is a problem that the emphasized target area sound may be distorted.

そのため、より少ないひずみで目的エリア音のみを強調する収音装置、プログラム及び方法が望まれている。   Therefore, a sound collection device, program, and method that emphasize only the target area sound with less distortion are desired.

第1の本発明の収音装置は、(1)2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出する特徴量算出手段と、(2)周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得する特徴量統合手段と、(3)前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出する目的エリア音抽出手段とを有することを特徴とする。   The sound collection device of the first aspect of the present invention is (1) for each of a plurality of microphone arrays composed of two microphones, which changes in accordance with the direction of arrival of sound, and for sound coming from the target area direction. Feature amount calculating means for calculating an arrival direction feature amount having a large value and a small value for sound arriving from directions other than the direction of the target area, and (2) each of the microphones for each frequency component Feature amount integration means for acquiring an area feature amount obtained by integrating the arrival direction feature amounts of the array; and (3) extracting a target area sound from a signal based on the captured signal output from the microphone array using the area feature amount. And a target area sound extraction means.

第2の本発明の収音プログラムは、コンピュータを、(1)2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出する特徴量算出手段と、(2)周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得する特徴量統合手段と、(3)前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出する目的エリア音抽出手段として機能させることを特徴とする。   The sound collection program according to the second aspect of the present invention allows a computer to (1) change sound for each of a plurality of microphone arrays composed of two microphones according to the direction of arrival of sound, and to receive sound coming from a target area direction. A feature amount calculation means for calculating an arrival direction feature amount having a feature that takes a large value for sound and a small value for sound coming from directions other than the target area direction, and (2) for each frequency component, Feature amount integration means for acquiring an area feature amount obtained by integrating the direction-of-arrival feature amounts of the microphone array; and (3) a target area from a signal based on a captured signal output by the microphone array using the area feature amount. It is made to function as a target area sound extraction means which extracts a sound.

第3の本発明の収音方法は、(1)特徴量算出手段、特徴量統合手段、及び目的エリア音抽出手段を備え、(2)前記特徴量算出手段は、2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出し、(3)前記特徴量統合手段は、周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得し、(5)前記目的エリア音抽出手段は、前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出することを特徴とする。   A sound collection method according to a third aspect of the present invention includes (1) a feature amount calculation unit, a feature amount integration unit, and a target area sound extraction unit. (2) The feature amount calculation unit includes a plurality of microphones including two microphones. Each microphone array changes according to the direction of arrival of sound, and takes a large value for sound coming from the target area direction and a small value for sound coming from directions other than the target area direction. (3) The feature amount integration unit acquires, for each frequency component, an area feature amount obtained by integrating the arrival direction feature amounts of the respective microphone arrays, and (5) The target area sound extraction means extracts the target area sound from the signal based on the captured signal output from the microphone array, using the area feature value.

本発明によれば、より少ないひずみで目的エリア音のみを強調する収音装置、プログラム及び方法を提供することができる。   According to the present invention, it is possible to provide a sound collection device, a program, and a method that emphasize only a target area sound with less distortion.

実施形態に係る収音装置の機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the sound collection device which concerns on embodiment. 実施形態に係る第1の到来方向特徴量の例について示した説明図である。It is explanatory drawing shown about the example of the 1st arrival direction feature-value which concerns on embodiment. 実施形態に係る第2の到来方向特徴量の例について示した説明図である。It is explanatory drawing shown about the example of the 2nd arrival direction feature-value which concerns on embodiment. 実施形態に係るエリア特徴量の例について示した説明図である。It is explanatory drawing shown about the example of the area feature-value which concerns on embodiment. 実施形態に収音装置で求められる目的エリアの判定結果の例について示した説明図である。It is explanatory drawing shown about the example of the determination result of the target area calculated | required with the sound collection device in embodiment. 従来の収音方法の例について示した説明図である。It is explanatory drawing shown about the example of the conventional sound collection method. 従来の収音装置の機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the conventional sound collection apparatus.

(A)主たる実施形態
以下、本発明による収音装置、プログラム及び方法の一実施形態を、図面を参照しながら詳述する。
(A) Main Embodiment Hereinafter, an embodiment of a sound collection device, a program, and a method according to the present invention will be described in detail with reference to the drawings.

(A−1)実施形態の構成
図1は、この実施形態の収音装置100の機能的構成について示したブロック図である。
(A-1) Configuration of Embodiment FIG. 1 is a block diagram showing a functional configuration of the sound collection device 100 of this embodiment.

収音装置100は、M個のマイクアレイMA(MA〜MA)から供給される音響信号を用いて、目的エリアの音源からの目的エリア音を収音する目的エリア音収音処理を行う。 The sound collection device 100 performs a target area sound collection process for collecting a target area sound from a sound source in the target area using an acoustic signal supplied from the M microphone arrays MA (MA 1 to MA M ). .

各マイクアレイMAは、目的エリアが存在する空間の、目的エリアを指向できる場所に配置される。各マイクアレイMAは、2つのマイク1(1、1)により構成されている。各マイクアレイMAでは、2つのマイク1、1によって捕捉された音響に基づく音響信号がデータ入力部102に供給される。 Each microphone array MA is arranged at a location where the target area can be directed in the space where the target area exists. Each microphone array MA is composed of two microphones 1 (1 1 , 1 2 ). In each microphone array MA, an acoustic signal based on the sound captured by the two microphones 1 1 and 1 2 is supplied to the data input unit 102.

次に、収音装置100の内部構成について図1を用いて説明する。   Next, the internal configuration of the sound collection device 100 will be described with reference to FIG.

図1に示すように、この実施形態に係る収音装置100は、データ入力部102、周波数領域変換部103、特徴量算出部104、特徴量統合部105、及び目的エリア音抽出部106を有している。収音装置100内部の各構成要素の詳細については後述する。   As shown in FIG. 1, the sound collection device 100 according to this embodiment includes a data input unit 102, a frequency domain conversion unit 103, a feature amount calculation unit 104, a feature amount integration unit 105, and a target area sound extraction unit 106. doing. Details of each component in the sound collection device 100 will be described later.

収音装置100において、デジタル信号に変換された後の処理構成を、プロセッサやメモリ等を備えるコンピュータにプログラム(実施形態に係る収音プログラムを含む)を実行させるようにしてもよいが、その場合であっても、機能的には、図1で表すことができる。   In the sound collection device 100, the processing configuration after being converted into a digital signal may be caused to cause a computer including a processor, a memory, and the like to execute a program (including the sound collection program according to the embodiment). However, it can be functionally represented in FIG.

(A−2)実施形態の動作
次に、以上のような構成を有するこの実施形態の収音装置100の動作(この実施形態の収音方法)を説明する。
(A-2) Operation of Embodiment Next, the operation (sound collection method of this embodiment) of the sound collection device 100 of this embodiment having the above-described configuration will be described.

データ入力部102は、マイクアレイMA〜MAで捕捉した音響信号を、マイク1ごとにアナログ信号からデジタル信号(データ)に変換する。データ入力部102は、得られた捕捉信号を、周波数領域変換部103に与える。 Data input unit 102, an acoustic signal captured by the microphone array MA 1 to MA M, is converted from an analog signal for each microphone 1 into a digital signal (data). The data input unit 102 gives the acquired captured signal to the frequency domain transform unit 103.

以下では、マイクアレイMA〜MAのマイク1で捕捉された捕捉信号をそれぞれx1,1(t)〜xM,1(t)と表し、マイクアレイMA〜MAのマイク1で捕捉された捕捉信号をそれぞれ、x1,2(t)〜xM,2(t)と表す。 In the following, the microphone array MA 1 to MA M of the captured captured signal by the microphone 1 1 each represent x 1,1 (t) ~x M, 1 (t), the microphone 1 of the microphone array MA 1 to MA M The captured signals captured at 2 are denoted as x 1,2 (t) to x M, 2 (t), respectively.

周波数領域変換部103は、捕捉信号x1,1(t)〜xM,1(t)、x1,2(t)〜xM,2(t)をそれぞれ時間領域から周波数領域へと変換する。 The frequency domain transform unit 103 transforms the captured signals x 1,1 (t) to x M, 1 (t) and x 1,2 (t) to x M, 2 (t) from the time domain to the frequency domain, respectively. To do.

以下では、捕捉信号x1,1(t)〜xM,1(t)、x1,2(t)〜xM,2(t)を周波数領域に変換した信号を、X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)と表す。 In the following, the signals obtained by converting the acquired signals x 1,1 (t) to x M, 1 (t) and x 1,2 (t) to x M, 2 (t) into the frequency domain are represented by X 1,1 ( t) to X M, 1 (t), X 1,2 (t) to X M, 2 (t).

周波数領域変換部103は、得られた周波数領域の捕捉信号X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)を、特徴量算出部104及び目的エリア音抽出部106に供給する。 The frequency domain transforming unit 103 uses the obtained frequency domain captured signals X 1,1 (t) to X M, 1 (t), X 1,2 (t) to X M, 2 (t) as feature quantities. This is supplied to the calculation unit 104 and the target area sound extraction unit 106.

周波数領域変換部103が行う変換には、高速フーリエ変換(FFT:Fast Fourier Transformation)やウェーブレット変換、フィルタバンクなどを利用することができるが、FFTが最も好適である。ここで、FFTを行う際、ハミング窓などの各種窓関数を用いるようにしても良い。   For the transform performed by the frequency domain transform unit 103, Fast Fourier Transform (FFT), wavelet transform, filter bank, or the like can be used, but FFT is most suitable. Here, when performing the FFT, various window functions such as a Hamming window may be used.

特徴量算出部104は、捕捉信号X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)から、マイクアレイMAごとに、到来方向特徴量D(f)〜D(f)を算出する。特徴量算出部104は、得られた到来方向特徴量D(f)〜D(f)を、特徴量統合部105に供給する。 The feature amount calculation unit 104 determines the arrival direction for each microphone array MA from the captured signals X 1,1 (t) to X M, 1 (t) and X 1,2 (t) to X M, 2 (t). The feature amounts D 1 (f) to D M (f) are calculated. The feature amount calculation unit 104 supplies the obtained arrival direction feature amounts D 1 (f) to D M (f) to the feature amount integration unit 105.

特徴量算出部104において、到来方向特徴量D(f)〜D(f)は捕捉信号X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)からマイクアレイMAごとに同様の算出方法によって算出される。以下ではi番目(iは1〜Mのいずれか)のマイクアレイMAにおける捕捉信号Xi,1(f)、Xi,2(f)と到来方向特徴量D(f)について説明する。 In the feature amount calculation unit 104, the arrival direction feature amounts D 1 (f) to D M (f) are acquired from the captured signals X 1,1 (t) to X M, 1 (t), X 1,2 (t) to X The same calculation method is used for each microphone array MA from M, 2 (t). Hereinafter, the captured signals X i, 1 (f), X i, 2 (f) and the arrival direction feature amount D i (f) in the i-th (i is any one of 1 to M) microphone array MA i will be described. .

到来方向特徴量D(f)は、目的エリア方向に対して大きな値を取り、目的エリア方向以外の方向に対して小さな値を取るような特徴を持つことが好ましい。到来方向特徴量D(f)にそのような特徴を持たせられる算出方法であれば、どのような算出方法を用いても良い。目的エリアが、全てのマイクアレイMAの正面方向に位置している場合は、例えば(5)式を用いるのが好適である。

Figure 2018170718
The arrival direction feature quantity D i (f) preferably has a characteristic that takes a large value with respect to the destination area direction and takes a small value with respect to directions other than the destination area direction. Any calculation method may be used as long as it is a calculation method that allows the arrival direction feature value D i (f) to have such a feature. When the target area is located in the front direction of all the microphone arrays MA, it is preferable to use, for example, Equation (5).
Figure 2018170718

捕捉信号Xi,1(f)、Xi,2(f)は、目的エリア音と非目的エリア音とが混在した信号であるが、音声のスパース性を仮定すると、各周波数成分には目的エリア音と非目的エリア音のいずれかしか含まれないことになる。したがって、ある音源があるマイクアレイMAに到来する角度をθ(シータ)と定義すると、(5)式は(6)式のように展開できる。(6)式において、cは音速、dはマイクアレイを構成する2つのマイク1、1の間の距離である。なお、同様に音声のスパース性を仮定すると、到来方向特徴量D(f)の算出方法として(7)式のような到来方向を明示的に求める算出方法を用いることもできる。(7)式の絶対値の内側が到来方向θの正弦関数の値(sinθ)となっている。

Figure 2018170718
The captured signals X i, 1 (f) and X i, 2 (f) are signals in which the target area sound and the non-target area sound are mixed. Only either the area sound or the non-target area sound is included. Therefore, if the angle at which a certain sound source arrives at a microphone array MA is defined as θ (theta), equation (5) can be developed as equation (6). In Equation (6), c is the speed of sound, and d is the distance between the two microphones 1 1 and 1 2 constituting the microphone array. Similarly, assuming the sparseness of speech, a calculation method for explicitly determining the arrival direction as shown in equation (7) can be used as the calculation method of the arrival direction feature quantity D i (f). The inside of the absolute value of equation (7) is the value of the sine function (sin θ) in the direction of arrival θ.
Figure 2018170718

次に、到来方向特徴量D(f)の具体例について図2、図3を用いて説明する。 Next, a specific example of the arrival direction feature amount D i (f) will be described with reference to FIGS.

図2(a)、図3(a)は、それぞれマイクアレイMA、MAに対応する到来方向特徴量D(f)、D(f)を(5)式を用いて求めた場合の例を3次元(縦、横、高さ)のグラフで示している。 2A and 3A show the cases where the arrival direction feature amounts D 1 (f) and D 2 (f) corresponding to the microphone arrays MA 1 and MA 2 are obtained using the equation (5), respectively. Is shown in a three-dimensional (vertical, horizontal, height) graph.

図2(a)、図3(a)のグラフは、マイクアレイMAからの距離を縦位置(グラフの縦方向の軸)とし、マイクアレイMAからの距離を横位置(グラフの横方向の軸)とし、到来方向特徴量D(f)、D(f)の値を高さ(グラフの高さ方向(上下方向)の軸)としている。そして、図2(a)、図3(a)のグラフは、f=3kHzとしたときの様々な縦位置と横位置から目的エリア音や非目的エリア音が到来した場合における到来方向特徴量D(f)、D(f)の値を示している。 Graph of FIG. 2 (a), FIG. 3 (a), the vertical position the distance from the microphone array MA 1 (vertical axis of the graph), the transverse direction of the transverse position (graph the distance from the microphone array MA 2 ) And the values of the arrival direction feature values D 1 (f) and D 2 (f) are heights (axis in the height direction (vertical direction) of the graph). The graphs of FIGS. 2 (a) and 3 (a) show arrival direction feature amounts D when target area sounds and non-target area sounds arrive from various vertical and horizontal positions when f = 3 kHz. The values of 1 (f) and D 2 (f) are shown.

図2(b)は、図2(a)に図示したP411〜P416の各位置における到来方向特徴量D(f)の値を示している。図2(b)に示す通り、P411〜P416のそれぞれの位置の到来方向特徴量D(f)の値は、−0.13、1、−0.13、0.72、1、0.72となる。 FIG. 2B shows the value of the arrival direction feature quantity D 1 (f) at each position of P411 to P416 shown in FIG. As shown in FIG. 2B, the values of the arrival direction feature amounts D 1 (f) at the respective positions of P411 to P416 are −0.13, 1 , −0.13, 0.72, 1, 0,. 72.

なお、図2(a)は、マイクアレイMAを横位置1.5m、縦位置0mに設置したときの、マイクアレイMAに関するf=3kHzの音の到来方向特徴量D(f)のグラフとなっている。図2(a)、図2(b)に示すように、マイクアレイMAの正面方向(横位置が1.5mの場合)において、到来方向特徴量D(f)がピーク値となっていることがわかる。 Incidentally, FIG. 2 (a), the lateral position 1.5m microphone array MA 1, when installed in a vertical position 0 m, the arrival of sound f = 3 kHz about the microphone array MA 1 direction feature amount D 1 of the (f) It is a graph. As shown in FIGS. 2 (a) and 2 (b), in the front direction of microphone array MA 1 (when the lateral position is 1.5 m), arrival direction feature quantity D 1 (f) has a peak value. I understand that.

図3(b)は、図3(a)に図示したP421〜P426の各位置における到来方向特徴量D(f)の値を示している。図3(b)に示す通り、P421〜P426のそれぞれの位置の到来方向特徴量D(f)の値は、0.72、−0.13、1、−0.13、0.72、1となる。 FIG. 3B shows the value of the arrival direction feature value D 2 (f) at each position of P421 to P426 shown in FIG. As shown in FIG. 3B, the values of the arrival direction feature amounts D 2 (f) at the respective positions of P421 to P426 are 0.72, −0.13, 1, −0.13, 0.72, 1

なお、図3(a)は、マイクアレイMAを横位置0m、縦位置1.5mに設置したときの、マイクアレイMAに関するf=3kHzにおける到来方向特徴量D(f)のグラフである。図3(a)、図3(b)に示すように、マイクアレイMAの正面方向(縦位置が1.5mの場合)において、到来方向特徴量D(f)がピーク値となっていることがわかる。 3 (a) is, the microphone array MA 2 lateral position 0 m, when placed in a vertical position 1.5 m, a graph of the arrival direction feature amount D 2 (f) in f = 3 kHz about the microphone array MA 2 is there. As shown in FIGS. 3A and 3B, the arrival direction feature amount D 2 (f) is a peak value in the front direction of the microphone array MA 2 (when the vertical position is 1.5 m). I understand that.

特徴量統合部105は、周波数成分ごとに、到来方向特徴量D(f)〜D(f)を統合してエリア特徴量E(f)を算出する。得られたエリア特徴量E(f)は、目的エリア音抽出部106に与えられる。 The feature amount integration unit 105 calculates the area feature amount E (f) by integrating the arrival direction feature amounts D 1 (f) to D M (f) for each frequency component. The obtained area feature amount E (f) is given to the target area sound extraction unit 106.

エリア特徴量E(f)の算出方法(統合方法)は、全ての到来方向特徴量D(f)〜D(f)が大きいときにエリア特徴量E(f)も大きくなるような算出方法(統合方法)であれば、どのような算出方法を用いても良いが、例えば、(8)式のように、周波数成分ごとに、全てのマイクアレイに関して最小となる到来方向特徴量D(f)〜D(f)を選択してエリア特徴量E(f)とするようにしてもよい。
E(f)=min[D(f),…,D(f)] …(8)
The calculation method (integration method) of the area feature quantity E (f) is a calculation in which the area feature quantity E (f) increases when all the arrival direction feature quantities D 1 (f) to D M (f) are large. Any calculation method may be used as long as it is a method (integration method). For example, as shown in equation (8), for each frequency component, the arrival direction feature amount D 1 that is the minimum for all microphone arrays is used. (F) to D M (f) may be selected as the area feature amount E (f).
E (f) = min [D 1 (f),..., D M (f)] (8)

次に、エリア特徴量E(f)の具体例について図4を用いて説明する。   Next, a specific example of the area feature amount E (f) will be described with reference to FIG.

図4(a)は、(8)式を用いて、エリア特徴量E(f)を求めた場合の例を3次元(縦、横、高さ)のグラフで示している。   FIG. 4A shows a three-dimensional (vertical, horizontal, height) example when the area feature amount E (f) is obtained using the equation (8).

図4(a)は、図6のようにマイクアレイMA、MA(マイク1が2個の)を配置した場合において、到来方向特徴量D(f)、D(f)をそれぞれ(5)式で算出し、算出した到来方向特徴量D(f)、D(f)を(8)式に適用してエリア特徴量E(f)を算出した場合の例を示している。すなわち、図4(a)は、図2(a)、図3(a)に示す到来方向特徴量D(f)、D(f)を(8)式により統合したエリア特徴量E(f)を示している。 FIG. 4A shows arrival direction feature amounts D 1 (f) and D 2 (f) when microphone arrays MA 1 and MA 2 ( two microphones 1) are arranged as shown in FIG. An example in which the area feature quantity E (f) is calculated by calculating the formula (5) and applying the calculated arrival direction feature quantities D 1 (f) and D 2 (f) to the formula (8) is shown. Yes. That is, FIG. 4A shows an area feature E () obtained by integrating the arrival direction features D 1 (f) and D 2 (f) shown in FIGS. 2A and 3A according to the equation (8). f).

図4(a)のグラフは、マイクアレイMAからの距離を縦位置(グラフの縦方向の軸)とし、マイクアレイMAからの距離を横位置(グラフの横方向の軸)とし、エリア特徴量E(f)の値を高さ(グラフの高さ方向(上下方向)の軸)としている。なお、図4(a)は、f=3kHzのときの様々な縦位置と横位置におけるエリア特徴量E(f)の値を示している。 Graph of FIG. 4 (a), the distance from the microphone array MA 1 and vertical position (vertical axis of the graph), the distance from the microphone array MA 2 to the lateral position (horizontal axis of the graph), the area The value of the feature amount E (f) is the height (axis in the height direction (vertical direction) of the graph). FIG. 4A shows values of area feature values E (f) at various vertical positions and horizontal positions when f = 3 kHz.

図4(b)は、図4(a)に図示したP51〜59の各位置におけるエリア特徴量E(f)の値を示している。図4(b)に示す通り、P51〜59のそれぞれの位置のエリア特徴量E(f)の値は、−0.13、0.36、−0.13、0.36、−0.13、0.36、0.72、0.36、1となっている。   FIG. 4B shows the value of the area feature amount E (f) at each position of P51 to P59 shown in FIG. As shown in FIG. 4B, the area feature value E (f) at each of the positions P51 to P59 is -0.13, 0.36, -0.13, 0.36, -0.13. , 0.36, 0.72, 0.36, and 1.

図4(a)、図4(b)に示すように、マイクアレイMAとマイクアレイMAの正面方向(横位置と縦位置が共に1.5mとなる点の周辺)において、エリア特徴量E(f)が大きな値となっていることがわかる。 As shown in FIG. 4A and FIG. 4B, in the front direction of the microphone array MA 1 and the microphone array MA 2 (around the point where both the horizontal position and the vertical position are 1.5 m), the area feature amount It can be seen that E (f) has a large value.

目的エリア音抽出部106は、捕捉信号X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)とエリア特徴量E(f)とに基づいて目的エリア強調音Y(f)を算出する。そして、目的エリア音抽出部106は、得られた目的エリア強調音Y(f)を次段に供給(出力)する。 The target area sound extraction unit 106 includes the captured signals X 1,1 (t) to X M, 1 (t), X 1,2 (t) to X M, 2 (t), and the area feature E (f). Based on the above, the target area emphasis sound Y (f) is calculated. Then, the target area sound extraction unit 106 supplies (outputs) the obtained target area emphasized sound Y (f) to the next stage.

目的エリア音抽出部106において、目的エリア音の抽出(強調)対象となる捕捉信号の選択(X1,1(t)〜XM,1(t)、X1,2(t)〜XM,2(t)のいずれかの選択)は任意であり、例えば先頭のX1,1(f)としても良いし、最も目的エリアに近いマイクに係る捕捉信号としても良いし、最も目的エリアに近いマイクアレイMAの捕捉信号群に遅延和ビームフォーマを適用して目的エリア音を少しだけ強調した信号(統合捕捉信号と呼ぶ)としても良い。以下、選択された捕捉信号又は統合捕捉信号を抽出対象信号X’(f)と呼ぶ。 In the target area sound extraction unit 106, selection of capture signals (X 1,1 (t) to X M, 1 (t), X 1,2 (t) to X M ) to be extracted (emphasized) for the target area sound. , 2 (t) is arbitrary, and may be, for example, the leading X 1,1 (f), or may be a captured signal related to the microphone closest to the target area, or may be the most target area. A delayed sum beamformer may be applied to the captured signal group of the nearby microphone array MA to generate a signal in which the target area sound is slightly emphasized (referred to as an integrated captured signal). Hereinafter, the selected capture signal or integrated capture signal is referred to as an extraction target signal X ′ (f).

目的エリア音抽出部106において、目的エリア音の抽出(強調)は、抽出対象信号X’(f)の周波数成分の内、目的エリア音以外の周波数成分を減衰させることで達成される。そして、エリア特徴量E(f)は目的エリアに近いほど大きな値となっていることから、目的エリア音抽出部106では、エリア特徴量E(f)の大小に応じて抽出対象信号X’(f)を減衰させることで、目的エリア音を抽出(強調)することができる。目的エリア音抽出部106では、例えば、(9)式のように、周波数成分ごとに所定の閾値F(f)を事前に定めておいて、エリア特徴量E(f)が閾値F(f)より小さければ抽出対象信号X’(f)の当該周波数成分を減衰させる(例えば、ゼロとする)ことで、目的エリア音の周波数成分だけが残った目的エリア強調音Y(f)を得ることができる。

Figure 2018170718
In the target area sound extraction unit 106, extraction (emphasis) of the target area sound is achieved by attenuating frequency components other than the target area sound among the frequency components of the extraction target signal X ′ (f). Since the area feature amount E (f) becomes larger as it is closer to the target area, the target area sound extraction unit 106 determines the extraction target signal X ′ ( The target area sound can be extracted (emphasized) by attenuating f). In the target area sound extraction unit 106, for example, a predetermined threshold value F (f) is determined in advance for each frequency component as shown in Equation (9), and the area feature amount E (f) is set to the threshold value F (f). If it is smaller, the frequency component of the extraction target signal X ′ (f) is attenuated (for example, zero), thereby obtaining the target area emphasized sound Y (f) in which only the frequency component of the target area sound remains. it can.
Figure 2018170718

目的エリア音抽出部106において、閾値F(f)は、周波数成分によらず一定値としても良いが、その場合、周波数成分によって抽出(強調)されるエリアの範囲が変化してしまう。これは、目的エリアは、周波数が低いほど広く、周波数が高いほど狭くなるためである。そこで、目的エリア音抽出部106では、例えば(10)式のように、周波数成分ごとに閾値F(f)を定めることで、周波数の高低によらず目的エリア(周波数成分が減衰されない範囲)を一定の範囲に定めることができる。(10)式において、φ(ファイ)は、各マイクアレイから見た目的エリアの広さ(角度)である。   In the target area sound extraction unit 106, the threshold value F (f) may be a constant value regardless of the frequency component, but in this case, the range of the area to be extracted (emphasized) changes depending on the frequency component. This is because the target area is wider as the frequency is lower and narrower as the frequency is higher. Therefore, the target area sound extraction unit 106 determines a target area (a range in which the frequency component is not attenuated) regardless of the level of the frequency by setting a threshold value F (f) for each frequency component, for example, as in Expression (10). It can be set within a certain range. In the equation (10), φ (phi) is the width (angle) of the target area viewed from each microphone array.

図5は、図2〜図4と同様に、図6のようにマイクアレイMA、MAを配置した場合において、φ=π/10としたときに、目的エリアであると判定される範囲を示している。 FIG. 5 shows the range determined as the target area when φ = π / 10 when the microphone arrays MA 1 and MA 2 are arranged as shown in FIG. Is shown.

図5において、黒色に塗りつぶされた領域が閾値に基づき目的エリアでないと判定された範囲を示し、それ以外の領域(黒く塗りつぶされていない領域)が閾値に基づき目的エリアであると判定された範囲を示している。   FIG. 5 shows a range in which a black area is determined not to be the target area based on the threshold value, and other areas (areas that are not black) are determined to be the target area based on the threshold value. Is shown.

図5に示すように、縦横共に、およそ1〜2mの範囲が閾値に基づき目的エリアであると判定されていることがわかる。

Figure 2018170718
As shown in FIG. 5, it can be seen that a range of approximately 1 to 2 m in both vertical and horizontal directions is determined to be the target area based on the threshold value.
Figure 2018170718

(A−3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of Embodiment According to this embodiment, the following effects can be achieved.

この実施形態の収音装置100では、スペクトル減算を行わないので、目的エリアが非目的エリア音源に囲まれている状況でも、少ないひずみで目的エリア音のみを強調することができる。   Since the sound collection device 100 of this embodiment does not perform spectral subtraction, even in a situation where the target area is surrounded by the non-target area sound source, it is possible to emphasize only the target area sound with little distortion.

(B)他の実施形態
本発明は、上記の実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(B) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.

(B−1)特徴量算出部104において、到来方向特徴量D(f)の算出方法には、(11)式や(12)式も適用し得る。 (B-1) In the feature quantity calculation unit 104, the formula (11) and the formula (12) can also be applied to the method of calculating the arrival direction feature quantity D i (f).

また、特徴量統合部105において、エリア特徴量E(f)の算出方法(到来方向特徴量D(f)〜D(f)の統合方法)には、(13)式や(14)式も適用し得る。

Figure 2018170718
Further, in the feature quantity integration unit 105, the area feature quantity E (f) calculation method (the integration method of the arrival direction feature quantities D 1 (f) to D M (f)) includes Expression (13) and (14) Equations can also be applied.
Figure 2018170718

(B−2)目的エリア音抽出部106において、閾値F(f)のある周波数(例えば250Hz)より小さい周波数成分では一定値としても良い。例えば250Hz未満におけるF(f)の値として250HzにおけるF(f)を用いると、250Hz未満の周波数成分では目的エリアであると判定される範囲が広くなり、周波数の低い周波数成分がひずみにくくなり、よりひずみの少ない目的エリア強調音Y(f)を得られる。   (B-2) In the target area sound extraction unit 106, a frequency component smaller than a certain frequency (for example, 250 Hz) having the threshold value F (f) may be set to a constant value. For example, when F (f) at 250 Hz is used as the value of F (f) at less than 250 Hz, the frequency component less than 250 Hz has a wider range that is determined to be the target area, and the low-frequency component is less likely to be distorted. A target area emphasis sound Y (f) with less distortion can be obtained.

また、目的エリア音抽出部106において、2つの閾値F(f)、F(f)を用意して、エリア強調ゲインG(f)を算出して、得られたエリア強調ゲインG(f)を抽出対象信号X’(f)に乗じることで、目的エリア強調音Y(f)を算出しても良い。例えば、2つの閾値F(f)、F(f)を(15)式にしたがって算出するものとして、φ=π/9、φ−π/11として、(16)式によってエリア強調ゲインを算出しても良い。これにより、抽出対象信号X’(f)の周波数成分の中で、目的エリアと非目的エリアの境界付近に存在する音源に由来する成分の減衰度合が緩やかになるため、よりひずみの少ない目的エリア強調音Y(f)が得られる。

Figure 2018170718
The target area sound extraction unit 106 prepares two threshold values F 1 (f) and F 2 (f), calculates the area enhancement gain G (f), and obtains the area enhancement gain G (f ) May be multiplied by the extraction target signal X ′ (f) to calculate the target area emphasized sound Y (f). For example, assuming that two threshold values F 1 (f) and F 2 (f) are calculated according to the equation (15), φ 1 = π / 9, φ 2 −π / 11, and area emphasis by the equation (16) The gain may be calculated. As a result, among the frequency components of the extraction target signal X ′ (f), the attenuation degree of the component derived from the sound source existing in the vicinity of the boundary between the target area and the non-target area becomes moderate. An emphasis sound Y (f) is obtained.
Figure 2018170718

100…収音装置、102…データ入力部、103…周波数領域変換部、104…特徴量算出部、105…特徴量統合部、106…目的エリア音抽出部。   DESCRIPTION OF SYMBOLS 100 ... Sound collecting apparatus, 102 ... Data input part, 103 ... Frequency domain conversion part, 104 ... Feature-value calculation part, 105 ... Feature-value integration part, 106 ... Target area sound extraction part.

Claims (8)

2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出する特徴量算出手段と、
周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得する特徴量統合手段と、
前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出する目的エリア音抽出手段と
を有することを特徴とする収音装置。
Each of a plurality of microphone arrays composed of two microphones changes according to the arrival direction of sound, takes a large value with respect to the sound coming from the target area direction, and comes from a direction other than the target area direction. A feature amount calculating means for calculating an arrival direction feature amount including a feature having a small value with respect to sound;
Feature quantity integration means for acquiring area feature quantities obtained by integrating the arrival direction feature quantities of the respective microphone arrays for each frequency component;
A sound collection apparatus comprising: a target area sound extraction unit that extracts a target area sound from a signal based on a captured signal output from the microphone array using the area feature amount.
前記特徴量統合手段は、周波数成分ごとに、すべての前記到来方向特徴量が大きいときに大きな値を取り、いずれかの前記到来方向特徴量が小さいときに小さな値を取ることで前記エリア特徴量を取得することを特徴とする請求項1に記載の収音装置。   The feature amount integration unit takes a large value when all the arrival direction feature amounts are large for each frequency component, and takes a small value when any of the arrival direction feature amounts is small. The sound collecting device according to claim 1, wherein: 前記特徴量統合手段は、周波数成分ごとに、全ての前記マイクアレイに関する前記到来方向特徴量の最小値を前記エリア特徴量として取得することを特徴とする請求項2に記載の収音装置。   The sound collection device according to claim 2, wherein the feature amount integration unit acquires, as the area feature amount, a minimum value of the arrival direction feature amounts related to all the microphone arrays for each frequency component. 前記目的エリア音抽出手段は、前記エリア特徴量の大小に応じて、前記捕捉信号に基づく信号から目的エリア音を抽出することを特徴とする請求項1〜3のいずれかに記載の収音装置。   The sound collection device according to claim 1, wherein the target area sound extraction unit extracts a target area sound from a signal based on the captured signal in accordance with the size of the area feature value. . 前記目的エリア音抽出手段は、周波数成分ごとの閾値を予め保持しておき、前記捕捉信号に基づく信号から、前記エリア特徴量が前記閾値より小さい周波数成分を減衰させることで目的エリア音を抽出することを特徴とする請求項4に記載の収音装置。   The target area sound extraction unit holds a threshold value for each frequency component in advance, and extracts a target area sound from the signal based on the captured signal by attenuating a frequency component whose area feature amount is smaller than the threshold value. The sound collection device according to claim 4. 周波数成分ごとの前記閾値は、周波数の高低によらず、周波数成分が減衰されない範囲を一定範囲とするように定められていることを特徴とする請求項5に記載の収音装置。   6. The sound collecting apparatus according to claim 5, wherein the threshold value for each frequency component is determined so that a range in which the frequency component is not attenuated is a constant range regardless of a frequency level. コンピュータを、
2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出する特徴量算出手段と、
周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得する特徴量統合手段と、
前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出する目的エリア音抽出手段と
して機能させることを特徴とする収音プログラム。
Computer
Each of a plurality of microphone arrays composed of two microphones changes according to the arrival direction of sound, takes a large value with respect to the sound coming from the target area direction, and comes from a direction other than the target area direction. A feature amount calculating means for calculating an arrival direction feature amount including a feature having a small value with respect to sound;
Feature quantity integration means for acquiring area feature quantities obtained by integrating the arrival direction feature quantities of the respective microphone arrays for each frequency component;
A sound collection program that functions as a target area sound extraction unit that extracts a target area sound from a signal based on a captured signal output from the microphone array using the area feature amount.
収音方法において、
特徴量算出手段、特徴量統合手段、及び目的エリア音抽出手段を備え、
前記特徴量算出手段は、2つのマイクから成る複数のマイクアレイごとに、音の到来方向に応じて変化するものであって、目的エリア方向から到来する音響に対して大きな値を取り、目的エリア方向以外の方向から到来する音響に対して小さな値を取る特徴を備える到来方向特徴量を算出し、
前記特徴量統合手段は、周波数成分ごとに、それぞれの前記マイクアレイの前記到来方向特徴量を統合したエリア特徴量を取得し、
前記目的エリア音抽出手段は、前記エリア特徴量を用いて、前記マイクアレイが出力する捕捉信号に基づく信号から目的エリア音を抽出する
ことを特徴とする収音方法。
In the sound collection method,
A feature amount calculating means, a feature amount integrating means, and a target area sound extracting means;
The feature amount calculation means changes according to the direction of arrival of sound for each of a plurality of microphone arrays composed of two microphones, and takes a large value with respect to the sound arriving from the direction of the target area. Calculate the direction-of-arrival feature with a feature that takes a small value for sound coming from directions other than the direction,
The feature amount integration unit acquires, for each frequency component, an area feature amount obtained by integrating the arrival direction feature amounts of the microphone arrays.
The sound collection method according to claim 1, wherein the target area sound extraction unit extracts a target area sound from a signal based on a captured signal output from the microphone array, using the area feature amount.
JP2017068515A 2017-03-30 2017-03-30 Sound collectors, programs and methods Active JP6863004B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017068515A JP6863004B2 (en) 2017-03-30 2017-03-30 Sound collectors, programs and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017068515A JP6863004B2 (en) 2017-03-30 2017-03-30 Sound collectors, programs and methods

Publications (2)

Publication Number Publication Date
JP2018170718A true JP2018170718A (en) 2018-11-01
JP6863004B2 JP6863004B2 (en) 2021-04-21

Family

ID=64019248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017068515A Active JP6863004B2 (en) 2017-03-30 2017-03-30 Sound collectors, programs and methods

Country Status (1)

Country Link
JP (1) JP6863004B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114578289A (en) * 2022-04-26 2022-06-03 浙江大学湖州研究院 High-resolution spectrum estimation acoustic array imaging method
JP7529065B1 (en) 2023-01-20 2024-08-06 沖電気工業株式会社 Sound collection device, sound collection program, and sound collection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204092A (en) * 2000-01-18 2001-07-27 Nippon Telegr & Teleph Corp <Ntt> Each zone sound collection device
WO2014188735A1 (en) * 2013-05-23 2014-11-27 日本電気株式会社 Sound processing system, sound processing method, sound processing program, vehicle equipped with sound processing system, and microphone installation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204092A (en) * 2000-01-18 2001-07-27 Nippon Telegr & Teleph Corp <Ntt> Each zone sound collection device
WO2014188735A1 (en) * 2013-05-23 2014-11-27 日本電気株式会社 Sound processing system, sound processing method, sound processing program, vehicle equipped with sound processing system, and microphone installation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114578289A (en) * 2022-04-26 2022-06-03 浙江大学湖州研究院 High-resolution spectrum estimation acoustic array imaging method
CN114578289B (en) * 2022-04-26 2022-09-27 浙江大学湖州研究院 High-resolution spectrum estimation acoustic array imaging method
WO2023207047A1 (en) * 2022-04-26 2023-11-02 浙江大学湖州研究院 Acoustic array imaging method for high-resolution spectrum estimation
JP7529065B1 (en) 2023-01-20 2024-08-06 沖電気工業株式会社 Sound collection device, sound collection program, and sound collection method

Also Published As

Publication number Publication date
JP6863004B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
US8654990B2 (en) Multiple microphone based directional sound filter
JP6526083B2 (en) System and method for source signal separation
JP6187626B1 (en) Sound collecting device and program
US10334360B2 (en) Method for accurately calculating the direction of arrival of sound at a microphone array
JP6763332B2 (en) Sound collectors, programs and methods
KR20090037692A (en) Method and apparatus for extracting the target sound signal from the mixed sound
EP3120355A2 (en) Noise suppression
JP2008236077A (en) Target sound extracting apparatus, target sound extracting program
JP6225245B2 (en) Signal processing apparatus, method and program
JP6131989B2 (en) Sound collecting apparatus, program and method
KR20090037845A (en) Method and apparatus for extracting the target sound signal from the mixed sound
JP2018170718A (en) Sound collecting device, program, and method
JP6436180B2 (en) Sound collecting apparatus, program and method
JP2016163135A (en) Sound collection device, program and method
JP2020076907A (en) Signal processing device, signal processing program and signal processing method
JP6241520B1 (en) Sound collecting apparatus, program and method
Levi et al. A robust method to extract talker azimuth orientation using a large-aperture microphone array
JP6065029B2 (en) Sound collecting apparatus, program and method
JP6879340B2 (en) Sound collecting device, sound collecting program, and sound collecting method
JP6624256B1 (en) Sound pickup device, program and method
JP6772890B2 (en) Signal processing equipment, programs and methods
JP2022135110A (en) Sound pickup device, sound pickup program, and sound pickup method
JP2020120263A (en) Sound pickup device, sound pickup program, and sound pickup method
JP6923025B1 (en) Sound collectors, programs and methods
JP2023177213A (en) Sound collection device, sound collection program, and sound collection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6863004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150