JP4760160B2 - Sound collector - Google Patents

Sound collector Download PDF

Info

Publication number
JP4760160B2
JP4760160B2 JP2005189809A JP2005189809A JP4760160B2 JP 4760160 B2 JP4760160 B2 JP 4760160B2 JP 2005189809 A JP2005189809 A JP 2005189809A JP 2005189809 A JP2005189809 A JP 2005189809A JP 4760160 B2 JP4760160 B2 JP 4760160B2
Authority
JP
Japan
Prior art keywords
sound
signal
sound source
sound collecting
collected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005189809A
Other languages
Japanese (ja)
Other versions
JP2007013400A (en
Inventor
田中  良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005189809A priority Critical patent/JP4760160B2/en
Publication of JP2007013400A publication Critical patent/JP2007013400A/en
Application granted granted Critical
Publication of JP4760160B2 publication Critical patent/JP4760160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound collection device for arbitrarily realizing sound collection directivity for a sound source direction by detecting a sound source direction. <P>SOLUTION: A voice signal processing part 2 forms sound collection beams Xc1 to Xc4 corresponding to partial regions by using a time delay processing signal to be output from digital filters 21A to 21M. The sound signal processing part 2 selects a sound collection beam whose signal strength is the strongest from those sound collection beams Xc1 to Xc4, and detects a partial region where a sound source is present. A voice signal processing part 3 forms sound collection beams Xc5 to Xc8 in the same way for local regions obtained by dividing the partial region, and detects a more detailed sound source direction. The voice signal processing part 2 outputs the composite voice signal of the sound collection beam corresponding to the sound source direction on the basis of the result. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

この発明は、マイクロホンアレイを備えた集音装置、特に、受信した音声信号から音源方向を検出し、音源方向の受信指向性を高める集音装置に関するものである。   The present invention relates to a sound collection device including a microphone array, and more particularly to a sound collection device that detects a sound source direction from a received audio signal and increases reception directivity in the sound source direction.

従来、複数のマイクを用いて、話者等の音源からの音声を、他のノイズ等と区別して集音する装置やシステムが各種開示されている。   Conventionally, various devices and systems that use a plurality of microphones to collect sound from a sound source such as a speaker while distinguishing it from other noises are disclosed.

特許文献1には、音声作動スイッチング装置として、複数の指向性マイクロホンから最も強い音声信号を受信しているマイクロホンを判定して、このマイクロホンで受信した音声信号に対して、他のマイクロホンで受信した音声信号よりも強い重み付け処理をして出力する装置が開示されている。   In Patent Literature 1, a microphone that receives the strongest audio signal from a plurality of directional microphones is determined as an audio operation switching device, and the audio signal received by this microphone is received by another microphone. An apparatus for performing weighting processing stronger than that of an audio signal and outputting it is disclosed.

特許文献2には、直交円形マイクアレイシステムおよびこれを用いた音源の3次元方向検出方法として、経度方向に配列されたアレイマイクと、緯度方向に配列されたアレイマイクとで受信した音声信号から音源方向を検出し、これらとは別の超指向性マイクを検出した音源方向に機械的に向けるシステムおよび方法が開示されている。
特開平8−70494号公報 特開2003−304589公報
In Patent Document 2, as an orthogonal circular microphone array system and a method of detecting a three-dimensional direction of a sound source using the same, an audio signal received by an array microphone arranged in the longitude direction and an array microphone arranged in the latitude direction is used. A system and method for detecting a sound source direction and mechanically directing a superdirective microphone different from these to the detected sound source direction is disclosed.
JP-A-8-70494 JP 2003-304589 A

しかしながら、特許文献1に記載の装置では、指向性マイクロホンを用いることで特定方向からの音声しか集音できず、任意方向への集音指向性を実現することができなかった。このため、音源が移動した場合の音源方向追尾を行うことができなかった。また、特許文献2に記載の装置では、任意方向への集音指向性を実現するために、超指向性のマイクロホンを目的とする方向へ向けるように機械的に回転させなければならなかった。さらに、特許文献2に記載の装置は、目的とする方向を検出するために、3次元配置されたマイクロホンからなるアレイマイクを使用し、複雑な音声信号処理を行わなければならなかった。   However, the apparatus described in Patent Document 1 can collect sound only from a specific direction by using a directional microphone, and cannot achieve sound collection directivity in an arbitrary direction. For this reason, sound source direction tracking when the sound source has moved cannot be performed. Further, in the apparatus described in Patent Document 2, in order to realize sound collection directivity in an arbitrary direction, the super-directional microphone has to be mechanically rotated so as to be directed in a target direction. Furthermore, the apparatus described in Patent Document 2 has to perform complicated audio signal processing using an array microphone including microphones arranged three-dimensionally in order to detect a target direction.

したがって、本発明の目的は、比較的簡素な構造および音声信号処理を用いて、音源方向を検出してこの音源方向に対する集音指向性を任意に実現し、音源が移動した場合に追尾しながら集音することができる集音装置を提供することにある。   Therefore, an object of the present invention is to detect a sound source direction using a relatively simple structure and audio signal processing, and arbitrarily realize sound collection directivity with respect to the sound source direction, while tracking when the sound source moves. An object of the present invention is to provide a sound collecting device that can collect sound.

この発明の集音装置は、複数のマイクロホンを所定パターンに配列して構成されるマイクロホンアレイと、前記複数のマイクロホンが集音した音声信号をそれぞれ所定の遅延時間で遅延して合成することにより、特定方向に強い指向性の集音ビームを形成するビーム形成部であって、並列にそれぞれ独立した遅延時間を設定することで同時に複数方向に集音ビームを形成するビーム形成部と、複数エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、信号レベルが最も高い集音ビームに対応するエリアを複数の小エリアに再分割し、該小エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、これら小エリアに対応する複数の集音ビームのうち、信号レベルが最も高い集音ビームが集音する音声信号を選択して後段に出力する信号選択部と、を備えたことを特徴としている。 Sound collection device of the invention comprises a microphone array constituted by arranging a plurality of microphones in a predetermined pattern, by said plurality of microphones of the sound signal collected for each synthesized delayed by a predetermined delay time, A beam forming unit that forms a sound collecting beam having a strong directivity in a specific direction, and a beam forming unit that simultaneously forms a sound collecting beam in a plurality of directions by setting independent delay times in parallel . The beam forming unit is controlled so as to form a sound collecting beam toward each, and an area corresponding to the sound collecting beam having the highest signal level is subdivided into a plurality of small areas, and each of the small areas is directed to. controlling the beam forming unit to form a sound collection beam, among the plurality of sound collecting beams corresponding to these small areas, the signal level is the highest sound collecting beam Is characterized by comprising a signal selecting section for outputting to the subsequent stage selects the audio signal to sound, the.

この構成では、マイクロホンアレイの正面側の領域における或る位置に話者等の音源が存在して、この音源から音声が発せられると、マイクロホンアレイを構成する各マイクが集音する。この際、音声は各マイクと音源との距離に応じた伝搬時間で伝搬されて、各マイクでは同じ音声の集音タイミングに差が生じる。   In this configuration, when a sound source such as a speaker is present at a certain position in a region on the front side of the microphone array and sound is emitted from this sound source, each microphone constituting the microphone array collects sound. At this time, the sound is propagated with a propagation time corresponding to the distance between each microphone and the sound source, and a difference occurs in the sound collection timing of the same sound in each microphone.

図9(A)は音源とマイクロホンとの位置関係と、音源から発生した音が各マイクロホンで集音される際のディレイとの関係を示した図であり、図9(B),(C)は集音された音声信号のディレイに基づくディレイ補正量の形成概念を示す図である。なお、この説明では、マイクロホンの所定配列パターンとして、マイクロホンが直線状に配列されたマイクロホンアレイについて説明する。   FIG. 9A is a diagram showing the relationship between the positional relationship between the sound source and the microphone and the delay when the sound generated from the sound source is collected by each microphone, and FIGS. 9B and 9C. FIG. 4 is a diagram showing a concept of forming a delay correction amount based on a delay of a collected audio signal. In this description, a microphone array in which microphones are linearly arranged will be described as a predetermined arrangement pattern of microphones.

具体的には、音源100Aが、図9(A)に示す位置に存在する場合、音源100Aで発生した音は、最も近いマイクロホン10Aで最初に集音される。そして、音源100Aと各マイクロホン10B〜10Iとの距離に応じて順に、各マイクロホン10B〜10Iで集音され、最も遠いマイクロホン10Jで最後に集音される。一方、音源100Bが、図9(A)に示す位置に存在する場合、音源100Bで発生した音は、最も近いマイクロホン10Jで最初に集音される。そして、音源100Bと各マイクロホン10I〜10Bとの距離に応じて順に、各マイクロホン10I〜10Bで集音され、最も遠いマイクロホン10Aで最後に集音される。このように、音源で発生した音は音源とマイクロホンとの距離に応じた遅延時間(ディレイ)で、マイクロホンに集音される。   Specifically, when the sound source 100A is present at the position shown in FIG. 9A, the sound generated by the sound source 100A is first collected by the nearest microphone 10A. Then, in order according to the distance between the sound source 100A and each of the microphones 10B to 10I, sound is collected by each of the microphones 10B to 10I, and finally collected by the farthest microphone 10J. On the other hand, when the sound source 100B is present at the position shown in FIG. 9A, the sound generated by the sound source 100B is first collected by the nearest microphone 10J. Then, in order according to the distance between the sound source 100B and each of the microphones 10I to 10B, sound is collected by each of the microphones 10I to 10B, and finally collected by the farthest microphone 10A. Thus, the sound generated by the sound source is collected by the microphone with a delay time (delay) corresponding to the distance between the sound source and the microphone.

この関係を用いることで、ビーム形成部は集音ビームを形成する。例えば、音源100Aに対しては、図9(B)に示すように、各マイクロホン10A〜10Jで集音される音声信号を遅延処理する。すなわち、図9(A)に示すディレイを補正するように、前記遅延時間に対応するディレイ補正量を設定する。また、音源100Bに対しては、図9(C)に示すように、各マイクロホン10A〜10Jで集音される音声信号を遅延処理する。すなわち、図9(A)に示すディレイを補正するように、ディレイ補正量を設定する。   By using this relationship, the beam forming unit forms a sound collecting beam. For example, for the sound source 100A, as shown in FIG. 9B, the audio signals collected by the microphones 10A to 10J are subjected to delay processing. That is, the delay correction amount corresponding to the delay time is set so as to correct the delay shown in FIG. For the sound source 100B, as shown in FIG. 9C, the audio signals collected by the microphones 10A to 10J are subjected to delay processing. That is, the delay correction amount is set so as to correct the delay shown in FIG.

このように遅延処理された音声信号を合成することで、図9(B)に示すような補正を行えば、音源100A方向に強い指向性を有する集音ビームが形成され、図9(C)に示すような補正を行えば、音源100B方向に強い指向性を有する集音ビームが形成される。   By synthesizing the audio signals subjected to delay processing in this way, if correction as shown in FIG. 9B is performed, a sound collecting beam having a strong directivity in the direction of the sound source 100A is formed, and FIG. If the correction shown in FIG. 4 is performed, a sound collecting beam having strong directivity in the direction of the sound source 100B is formed.

ビーム形成部は、このように各マイクロホンで集音される音声信号の遅延処理した信号をそれぞれに異なる組み合わせで合成することにより、複数方向の集音ビームを形成する。   The beam forming unit forms a sound collecting beam in a plurality of directions by synthesizing the signals obtained by delay processing of the sound signals collected by the respective microphones in different combinations.

信号選択部は、ビーム形成部が形成した複数の集音ビームの信号強度を比較して、信号レベルが最も高い集音ビームが集音する音声信号を選択する。または、信号選択部は、ビーム形成部が形成した複数の集音ビームの信号強度を比較して、信号レベルが最も高い集音ビームと該レベルが最も高い集音ビームに隣接する集音ビームとが集音する音声信号を選択する。ここで、信号レベルが最も高い集音ビームの指向性が向く方向は音源方向に相当する。これにより、音源方向が検出されて、該音源方向への強い集音指向性が実現される。   The signal selection unit compares the signal intensities of the plurality of sound collecting beams formed by the beam forming unit, and selects the sound signal collected by the sound collecting beam having the highest signal level. Alternatively, the signal selection unit compares the signal intensities of the plurality of sound collecting beams formed by the beam forming unit, and the sound collecting beam having the highest signal level and the sound collecting beam adjacent to the sound collecting beam having the highest level are Select the audio signal to be collected. Here, the direction in which the directivity of the sound collecting beam having the highest signal level is equivalent to the sound source direction. Thereby, the sound source direction is detected, and strong sound collection directivity in the sound source direction is realized.

この構成では、ビーム形成部は、信号選択部の制御にしたがい2段階で集音ビームを形成する。まず、ビーム形成部が予め設定されたエリア毎に対して前述のように集音ビームを形成する。信号選択部は、最も信号強度の強い集音ビームを選択して、この集音ビームに対応するエリアを検出する。信号選択部は、この検出したエリアをさらに複数の小エリアの分割し、各小エリアに対する集音ビームが形成されるように、ビーム形成部での遅延処理量を設定する。   In this configuration, the beam forming unit forms a sound collection beam in two stages according to the control of the signal selection unit. First, the beam forming unit forms a sound collecting beam for each preset area as described above. The signal selection unit selects a sound collecting beam having the strongest signal intensity and detects an area corresponding to the sound collecting beam. The signal selection unit further divides the detected area into a plurality of small areas, and sets a delay processing amount in the beam forming unit so that a sound collection beam for each small area is formed.

ビーム形成部は、新たに設定された遅延時間に応じて複数の集音ビームを形成する。信号選択部は、この新たに形成された集音ビームの信号強度を比較して、最も信号強度の強い集音ビームを形成する音声信号を選択して出力する。これにより、前述よりも詳細な方向での音源方向が検出されて、該音源方向への強い集音指向性が実現される。   The beam forming unit forms a plurality of sound collecting beams according to the newly set delay time. The signal selection unit compares the signal intensity of the newly formed sound collection beam, and selects and outputs the sound signal that forms the sound collection beam having the strongest signal intensity. Thereby, the sound source direction in a more detailed direction than that described above is detected, and a strong sound collection directivity in the sound source direction is realized.

また、この発明の集音装置は、ビーム形成部で所定タイミング毎に集音ビームを形成し、信号選択部がこの所定タイミング毎に集音する音声信号の選択を行うことを特徴としている。   In the sound collecting device of the present invention, the beam forming unit forms a sound collecting beam at every predetermined timing, and the signal selection unit selects a sound signal to be collected at each predetermined timing.

この構成では、ビーム形成部は予め設定されたタイミング毎に前述の各集音ビームの形成を行い、信号選択部は、このタイミング毎に信号強度の比較を行い、集音ビームの選択すなわち音声信号の選択を切り替える。これにより、タイミング毎に最適な集音指向性が実現される。   In this configuration, the beam forming unit forms each of the above-described sound collecting beams at each preset timing, and the signal selecting unit compares the signal intensity at each timing to select the sound collecting beam, that is, the audio signal. Switch the selection. Thereby, the optimal sound collection directivity for each timing is realized.

また、この発明の集音装置の信号選択部は、前後するタイミングで異なる集音ビームを用いて、集音する音声信号を選択する場合に、前のタイミングで集音された音声信号による合成音声信号と、後のタイミングで集音された音声信号による合成音声信号とをクロスフェード処理して出力することを特徴としている。   In addition, when the signal selection unit of the sound collection device of the present invention selects a sound signal to be collected using different sound collection beams at different timings, the synthesized sound based on the sound signal collected at the previous timing It is characterized in that the signal and a synthesized voice signal based on a voice signal collected at a later timing are subjected to crossfading processing and output.

この構成では、音源の移動に伴い選択される集音ビームが切り替えられるが、この際、移動前の集音ビームを形成する合成音声信号に対してフェードアウト処理を行うとともに、移動後の集音ビームを形成する合成音声信号に対してフェードイン処理を行う。これにより、音源の移動に伴って集音指向性の切り替わり、出力される合成音声信号の切り替えが平滑化される。すなわち、出力される音声を聞くユーザにとって、出力音声の切り替わりが滑らかになる。   In this configuration, the selected sound collecting beam is switched in accordance with the movement of the sound source. At this time, the synthesized sound signal that forms the sound collecting beam before the movement is faded out, and the sound collecting beam after the movement is moved. Fade-in processing is performed on the synthesized speech signal that forms. As a result, the sound collection directivity is switched in accordance with the movement of the sound source, and the switching of the output synthesized speech signal is smoothed. That is, for the user who listens to the output sound, the output sound is smoothly switched.

また、この発明の集音装置の信号選択部は、各音声信号の所定周波数成分のみからなる集音ビームを用いて集音する音声信号を選択することを特徴としている。   The signal selector of the sound collector of the present invention is characterized in that a sound signal to be collected is selected using a sound collecting beam consisting only of a predetermined frequency component of each sound signal.

この構成では、マイクロホンアレイの幅(配列方向の長さ)、および、マイクロホンの設置間隔に応じて、ビーム化される周波数帯域が異なることを利用し、所定の周波数成分のみバンドパスフィルタで通過することで、マイクロホンアレイの構造に基づいて設定される各集音ビームが所望の指向性に設定される。   In this configuration, by utilizing the fact that the frequency band to be beamed differs depending on the width of the microphone array (length in the arrangement direction) and the installation interval of the microphones, only a predetermined frequency component passes through the band-pass filter. Thus, each sound collection beam set based on the structure of the microphone array is set to a desired directivity.

この発明によれば、マイクロホンアレイを用いて集音される音声信号に対して時間遅延処理および組み合わせ処理をするという、簡単な構造および簡単な信号処理だけで、音源方向を検出でき、さらに、この音源方向に対して強い集音指向性を与えることができる。これにより、音源からの音声を除くノイズを抑圧し、音源からの音声を鮮明に集音し出力することができる。   According to the present invention, it is possible to detect the direction of a sound source with only a simple structure and simple signal processing in which time delay processing and combination processing are performed on an audio signal collected using a microphone array. Strong sound directivity can be given to the direction of the sound source. As a result, noise excluding sound from the sound source can be suppressed, and sound from the sound source can be clearly collected and output.

また、この発明によれば、音源が移動しても、簡素な構造および簡素な処理で音源方向を追尾することができる。これにより、移動する音源に対しても、音声を鮮明に集音し続けて出力することができる。   Moreover, according to this invention, even if a sound source moves, a sound source direction can be tracked with a simple structure and a simple process. Thereby, it is possible to continuously collect and output the sound even to the moving sound source.

本発明の実施形態に係る集音装置について図1〜図8を参照して説明する。
以下の説明では、音源検知領域全体を4つの部分領域、および各部分領域をさらに分割する4つの局所領域で音源100の検知を行うための構成について説明するが、領域の分割数は装置仕様や所望とする音源検知方向の分解能に基づいて、適宜設定すればよい。また、マイクロホンアレイ1は、マイクロホン10A〜10Mを直線状に配列したものを用いて説明する。
A sound collector according to an embodiment of the present invention will be described with reference to FIGS.
In the following description, a configuration for detecting the sound source 100 in the four sound source detection regions in the four partial regions and in the four local regions that further divide each of the partial regions will be described. What is necessary is just to set suitably based on the resolution of the desired sound source detection direction. The microphone array 1 will be described using a microphone 10A to 10M arranged linearly.

図1は本実施形態の集音装置の主要部の構成を示すブロック図である。
また、図2、図3は本実施形態の音声信号処理部2の構成を示すブロック図であり、図2が集音ビームの形成、選択を行う部分を示し、図3は目的とする局所領域に対する集音ビームの選択、出力を行う部分を示す。なお、図2では、ディジタルフィルタ21A〜21Mの内のディジタルフィルタ21Aについてのみ詳細なブロック図を図示し、詳細な説明を行うが、他のディジタルフィルタ21B〜21Mについても同様の構造である。
FIG. 1 is a block diagram showing the configuration of the main part of the sound collecting device of this embodiment.
2 and 3 are block diagrams showing the configuration of the audio signal processing unit 2 of this embodiment. FIG. 2 shows a portion for forming and selecting a sound collecting beam. FIG. 3 shows a target local region. The part which performs selection and output of the sound collecting beam is shown. FIG. 2 shows a detailed block diagram only for the digital filter 21A among the digital filters 21A to 21M, and will be described in detail, but the other digital filters 21B to 21M have the same structure.

図4は音声信号処理部2の他の構成(図3に対応する部分)を示す部分ブロック図である。   FIG. 4 is a partial block diagram showing another configuration (portion corresponding to FIG. 3) of the audio signal processing unit 2.

図5、図6は音源方向検知方法の概念図である。図5は、図2に示すディジタルフィルタ21A〜21Mからレベル判定部27までの部分による検出概念を示す。図6は図2に示すディジタルフィルタ21A〜21Mから、図3に示すBPF28、レベル判定部29までの部分による検出概念を示す。   5 and 6 are conceptual diagrams of the sound source direction detection method. FIG. 5 shows a detection concept by the parts from the digital filters 21A to 21M to the level determination unit 27 shown in FIG. FIG. 6 shows a detection concept by the parts from the digital filters 21A to 21M shown in FIG. 2 to the BPF 28 and the level determination unit 29 shown in FIG.

図7は音声信号処理部2の処理フローを示すフロー図である。   FIG. 7 is a flowchart showing the processing flow of the audio signal processing unit 2.

本実施形態の集音装置は、所定方向に直線状に配列された複数のマイクロホン10A〜10Mを有するマイクロホンアレイ1を備える。各マイクロホン10A〜10Mは、特に特定方向に指向性を有する指向性マイクではなく、全てが同じ無指向性マイクにより構成されている。そして、各マイクロホン10A〜10Mは、集音領域方向を正面として配置されている。また、マイクロホンアレイ1のマイクロホン配列個数および配置間隔は、集音領域の広さや、後述する音源方向の検出精度(方位分解能)、集音する音声の周波数帯域等により、適宜設定されている。   The sound collection device of the present embodiment includes a microphone array 1 having a plurality of microphones 10A to 10M arranged linearly in a predetermined direction. Each of the microphones 10 </ b> A to 10 </ b> M is not a directional microphone having directivity particularly in a specific direction, but all are configured by the same omnidirectional microphone. And each microphone 10A-10M is arrange | positioned by making the sound collection area | region direction into the front. The number and arrangement interval of the microphones in the microphone array 1 are appropriately set according to the width of the sound collection area, the detection accuracy (azimuth resolution) of the sound source direction described later, the frequency band of the sound to be collected, and the like.

マイクロホンアレイ1の各マイクロホン10A〜10Mは、それぞれ、図示しないA/D変換器を介して、音声信号処理部2のディジタルフィルタ21A〜21Mに接続されている。   The microphones 10A to 10M of the microphone array 1 are connected to digital filters 21A to 21M of the audio signal processing unit 2 via A / D converters (not shown).

音源から音声が発生すると、マイクロホン10A〜10Mはこれを集音して電気的な音声信号に変換して出力する。マイクロホン10A〜10Mから出力された音声信号は、A/D変換器にて所定のサンプリング周期でサンプリングされる。このサンプリングにより得られるディジタル音声信号x1(n),x2(n)〜xm(n)が、ディジタルフィルタ21A,21B〜21Mにそれぞれ入力される(S1)。   When sound is generated from the sound source, the microphones 10A to 10M collect the sound, convert it into an electrical sound signal, and output it. The audio signals output from the microphones 10A to 10M are sampled at a predetermined sampling period by the A / D converter. Digital audio signals x1 (n) and x2 (n) to xm (n) obtained by this sampling are input to the digital filters 21A and 21B to 21M, respectively (S1).

ディジタルフィルタ21Aは、予め設定されたサンプリング周期に応じた所定段のディレイバッファメモリ22Aを備える。ディレイバッファメモリ22Aの各段の遅延量に相当するサンプリング周期は、マイクロホンアレイ1におけるマイクロホン10A〜10Mの配置、および、音源検知を行う領域からマイクロホンアレイ1までの距離から設定される。ディレイバッファメモリ22Aには8段の出力が備えられており、これらの出力がFIRフィルタ231A〜238Aにそれぞれ入力される。   The digital filter 21A includes a delay buffer memory 22A of a predetermined stage corresponding to a preset sampling cycle. The sampling period corresponding to the delay amount of each stage of the delay buffer memory 22A is set from the arrangement of the microphones 10A to 10M in the microphone array 1 and the distance from the sound source detection region to the microphone array 1. The delay buffer memory 22A is provided with eight stages of outputs, and these outputs are input to the FIR filters 231A to 238A, respectively.

ディレイバッファメモリ22Aは、サンプリング周期に準じて、入力音声信号x1(n)に対してそれぞれに異なる遅延処理を施した音声信号を各段に記憶し、まずFIRフィルタ231A〜234Aに対して記憶された各遅延処理信号を出力する(S2)。さらに、ディレイバッファメモリ22Aは、レベル判定部27の検知結果に基づいてFIRフィルタ235A〜238Aに対して記憶された各遅延処理信号を出力する。このようなディレイバッファメモリ22Aは、例えばシフトレジスタ等で構成することができる。   The delay buffer memory 22A stores, in each stage, audio signals obtained by performing different delay processing on the input audio signal x1 (n) in accordance with the sampling period, and is first stored in the FIR filters 231A to 234A. Each delayed processing signal is output (S2). Furthermore, the delay buffer memory 22A outputs each delay processing signal stored to the FIR filters 235A to 238A based on the detection result of the level determination unit 27. Such a delay buffer memory 22A can be constituted by a shift register, for example.

ここで、ディレイバッファメモリ22Aにおける、FIRフィルタ231A〜234Aに入力される出力は、予め設定されている。具体的には、FIRフィルタ231Aに出力される信号は部分領域101に対応する集音ビームXc1を構成するための遅延処理信号であり、FIRフィルタ232Aに出力される信号は部分領域102に対応する集音ビームXc2を構成するための遅延処理信号である。また、FIRフィルタ233Aに出力される信号は部分領域103に対応する集音ビームXc3を構成するための遅延処理信号であり、FIRフィルタ234Aに出力される信号は部分領域104に対応する集音ビームXc4を構成するための遅延処理信号である。   Here, the outputs input to the FIR filters 231A to 234A in the delay buffer memory 22A are set in advance. Specifically, the signal output to the FIR filter 231A is a delay processing signal for constituting the sound collection beam Xc1 corresponding to the partial region 101, and the signal output to the FIR filter 232A corresponds to the partial region 102. It is a delay processing signal for constituting the sound collection beam Xc2. The signal output to the FIR filter 233A is a delay processing signal for constituting the sound collection beam Xc3 corresponding to the partial region 103, and the signal output to the FIR filter 234A is the sound collection beam corresponding to the partial region 104. This is a delay processing signal for configuring Xc4.

また、FIRフィルタ235Aに出力される信号は、後述するレベル判定部27で検出された部分領域104(図5,図6の場合)を再分割する局所領域141に対応する集音ビームXc5を構成するための遅延処理信号であり、FIRフィルタ236Aに出力される信号は局所領域142に対応する集音ビームXc6を構成するための遅延処理信号である。また、FIRフィルタ237Aに出力される信号は局所領域143に対応する集音ビームXc7を構成するための遅延処理信号であり、FIRフィルタ238Aに出力される信号は局所領域144に対応する集音ビームXc8を構成するための遅延処理信号である。ここで、局所領域141〜144は部分領域101〜104のうちで音源100方向が含まれる部分領域を再分割した局所領域であり、レベル判定部27の検知結果に応じて変わる。そして、これらの局所領域に応じて各集音ビームXc5〜Xc8を構成するための遅延処理信号が、検知結果に基づいて更新されながら設定される。   Further, the signal output to the FIR filter 235A constitutes a sound collection beam Xc5 corresponding to the local region 141 that subdivides the partial region 104 (in the case of FIGS. 5 and 6) detected by the level determination unit 27 described later. The signal output to the FIR filter 236A is a delay processing signal for constituting the sound collection beam Xc6 corresponding to the local region 142. The signal output to the FIR filter 237A is a delay processing signal for forming the sound collection beam Xc7 corresponding to the local region 143, and the signal output to the FIR filter 238A is the sound collection beam corresponding to the local region 144. This is a delay processing signal for configuring Xc8. Here, the local areas 141 to 144 are local areas obtained by re-dividing the partial area including the direction of the sound source 100 among the partial areas 101 to 104, and change according to the detection result of the level determination unit 27. And the delay processing signal for comprising each sound collection beam Xc5-Xc8 according to these local regions is set, updating based on a detection result.

そして、これらの遅延処理信号は、図9に示すような集音ビームと遅延処理との関係により設定される。   These delay processing signals are set according to the relationship between the sound collection beam and the delay processing as shown in FIG.

FIRフィルタ231A〜238Aは全て同じ構成からなり、それぞれに入力された遅延処理信号をFIR処理して、遅延処理信号X1S1〜X1S8を出力する。このように、FIRフィルタ231A〜238AでFIR処理を行うことにより、ディレイバッファメモリ22Aでは実現できない、サンプリング周期間の詳細な遅延を実現することができる。すなわち、FIRフィルタのフィルタ内サンプリング周期とタップ数とを所望値に設定することにより、ディレイバッファメモリ22Aでのサンプリング周期を遅延時間の整数部分とする場合に、この遅延時間の小数点部分を実現することができる。これにより、ディジタルフィルタ21Aは、入力音声信号x1(n)に対して、サンプリング周期に単に準じた遅延処理よりも、さらに詳細な遅延処理を行い、遅延処理信号X1S1〜X1S8を生成することができる。   The FIR filters 231A to 238A all have the same configuration, and FIR processing is performed on the delay processing signals input thereto, and delay processing signals X1S1 to X1S8 are output. Thus, by performing FIR processing with the FIR filters 231A to 238A, it is possible to realize a detailed delay between sampling periods that cannot be realized with the delay buffer memory 22A. That is, by setting the sampling period and the number of taps in the FIR filter to desired values, the decimal point part of the delay time is realized when the sampling period in the delay buffer memory 22A is an integer part of the delay time. be able to. As a result, the digital filter 21A can perform further detailed delay processing on the input audio signal x1 (n) than the delay processing simply according to the sampling period, and generate the delay processing signals X1S1 to X1S8. .

各FIRフィルタ231A〜238Aから出力された遅延処理信号X1S1〜X1S8は、それぞれアンプ241A〜248Aで増幅されて、それぞれ加算器25A〜25Hに入力される。   Delay processing signals X1S1 to X1S8 output from the FIR filters 231A to 238A are amplified by amplifiers 241A to 248A, respectively, and input to adders 25A to 25H, respectively.

他のディジタルフィルタ21B〜21Mも、ディジタルフィルタ21Aと同じ構造であり、それぞれに予め設定された遅延処理信号の選択条件にしたがって、入力された音声信号X2(n)〜Xm(n)から集音ビームXc1〜Xc8を形成するための遅延処理信号X2S1〜X2S8,・・・,XMS1〜XMS8を各加算器25A〜25Hに出力する。   The other digital filters 21B to 21M have the same structure as the digital filter 21A, and collect sound from the input audio signals X2 (n) to Xm (n) in accordance with the preset delay processing signal selection conditions. Delay processing signals X2S1 to X2S8,..., XMS1 to XMS8 for forming the beams Xc1 to Xc8 are output to the adders 25A to 25H.

加算器25Aは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S1,X2S1,・・・,XMS1を合成して集音ビームXc1を生成し、加算器25BはX1S2,X2S2,・・・,XMS2を合成して集音ビームXc2を生成する。加算器25Cは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S3,X2S3,・・・,XMS3を合成して集音ビームXc3を生成し、加算器25DはX1S4,X2S4,・・・,XMS4を合成して集音ビームXc4を生成する(S3)。   The adder 25A synthesizes the delay processing signals X1S1, X2S1,..., XMS1 input from the digital filters 21A to 21M to generate a sound collecting beam Xc1, and the adder 25B has X1S2, X2S2,. , XMS2 are synthesized to generate a sound collection beam Xc2. The adder 25C synthesizes the delay processing signals X1S3, X2S3,..., XMS3 input from the digital filters 21A to 21M to generate a sound collection beam Xc3, and the adder 25D has X1S4, X2S4,. , XMS4 are synthesized to generate a sound collection beam Xc4 (S3).

バンドパスフィルタBPF26は、入力された集音ビームXc1〜Xc4のフィルタリングを行って、レベル判定部27に出力する。ここで、BPF26は、マイクロホンアレイ1の幅(配列方向の長さ)、および、マイクロホン10A〜10Mの設置間隔に応じてビーム化される周波数帯域が異なることを利用し、各集音ビームXc1〜Xc4で集音したい音声に対応する周波数帯域を通過帯域に設定している。   The band pass filter BPF 26 performs filtering of the input sound collection beams Xc 1 to Xc 4 and outputs the filtered sound beams to the level determination unit 27. Here, the BPF 26 utilizes the fact that the frequency band to be beamed differs according to the width of the microphone array 1 (length in the arrangement direction) and the installation interval of the microphones 10A to 10M, and the sound collecting beams Xc1 to Xc1. The frequency band corresponding to the sound to be collected by Xc4 is set as the pass band.

レベル判定部27は、集音ビームXc1〜Xc4の信号強度を比較し、最も信号強度が強い集音ビームを選択する(S4)。ところで、集音ビームの信号強度が最も強いということは、この集音ビームにより集音される領域に音源が存在することを意味する。これにより、音源探知領域全体を4つの部分領域に区分した場合における、音源が存在する部分領域を検出することができる。例えば、図5の例では、部分領域104に対応する集音ビームXc4の信号強度が他の集音ビームXc1〜Xc3の信号強度よりも強いので、レベル検出部27は集音ビームXc4を選択し、部分領域104に音源100が存在することを検知する。   The level determination unit 27 compares the signal intensities of the sound collecting beams Xc1 to Xc4, and selects the sound collecting beam having the strongest signal intensity (S4). By the way, that the signal intensity of the sound collecting beam is the strongest means that a sound source exists in an area collected by the sound collecting beam. Thereby, it is possible to detect a partial area where a sound source exists when the entire sound source detection area is divided into four partial areas. For example, in the example of FIG. 5, since the signal intensity of the sound collection beam Xc4 corresponding to the partial region 104 is stronger than the signal intensity of the other sound collection beams Xc1 to Xc3, the level detection unit 27 selects the sound collection beam Xc4. The sound source 100 is detected in the partial area 104.

レベル判定部27は、検出した部分領域をさらに再分割した局所領域に対応する選択信号を生成し、ディジタルフィルタ21A〜21Mに出力する。より具体的に、例えば、図5,図6の例であれば、レベル判定部27は、部分領域104をさらに方位方向に4分割する局所領域141〜144に対する集音ビームXc5〜Xc8を形成するための各ディジタルフィルタ21A〜21Mから出力される遅延処理信号を選択する。そして、この選択内容が含まれる選択信号を各ディジタルフィルタ21A〜21Mに出力する。   The level determination unit 27 generates a selection signal corresponding to the local region obtained by further subdividing the detected partial region, and outputs the selection signal to the digital filters 21A to 21M. More specifically, for example, in the example of FIGS. 5 and 6, the level determination unit 27 forms sound collection beams Xc <b> 5 to Xc <b> 8 for the local regions 141 to 144 that further divide the partial region 104 into four in the azimuth direction. The delay processing signals output from the respective digital filters 21A to 21M are selected. And the selection signal containing this selection content is output to each digital filter 21A-21M.

各ディジタルフィルタ21A〜21Mはこの選択信号にしたがい、それぞれのディレイバッファメモリから加算器25E〜25Hに出力する遅延処理信号を選択設定する。例えば、ディジタルフィルタ21Aは、レベル判定部27から入力された選択信号にしたがい、ディレイバッファメモリ22AからFIRフィルタ235A〜238Aにそれぞれ選択された遅延処理信号を出力する。FIRフィルタ235A〜238Aは、それぞれ入力された遅延処理信号をFIR処理してアンプ245A〜248Aを介して、加算器25E〜25Hに出力する(S5)。   Each of the digital filters 21A to 21M selects and sets a delay processing signal to be output from the respective delay buffer memory to the adders 25E to 25H according to the selection signal. For example, the digital filter 21 </ b> A outputs the delay processing signals selected from the delay buffer memory 22 </ b> A to the FIR filters 235 </ b> A to 238 </ b> A according to the selection signal input from the level determination unit 27. The FIR filters 235A to 238A perform FIR processing on the input delay processing signals, and output to the adders 25E to 25H via the amplifiers 245A to 248A (S5).

加算器25Eは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S5,X2S5,・・・,XMS5を合成して集音ビームXc5を生成し、加算器25FはX1S6,X2S6,・・・,XMS6を合成して集音ビームXc6を生成する。加算器25Gは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S7,X2S7,・・・,XMS7を合成して集音ビームXc7を生成し、加算器25HはX1S8,X2S8,・・・,XMS8を合成して集音ビームXc8を生成する(S6)。   The adder 25E synthesizes the delay processing signals X1S5, X2S5,..., XMS5 input from the digital filters 21A to 21M to generate a sound collection beam Xc5, and the adder 25F has X1S6, X2S6,. , XMS6 are synthesized to generate a sound collection beam Xc6. The adder 25G synthesizes the delay processing signals X1S7, X2S7,..., XMS7 inputted from the digital filters 21A to 21M to generate a sound collection beam Xc7, and the adder 25H has X1S8, X2S8,. , XMS8 are synthesized to generate a sound collection beam Xc8 (S6).

加算器25E〜25Hのそれぞれから出力された集音ビームXc5〜Xc8は、2系統に分配され、一方はバンドパスフィルタBPF28に入力され、他方はセレクタ30に入力される。   The collected sound beams Xc5 to Xc8 output from each of the adders 25E to 25H are distributed to two systems, one is input to the band pass filter BPF28, and the other is input to the selector 30.

バンドパスフィルタBPF28は、入力された集音ビームXc5〜Xc8のフィルタリングを行って、レベル判定部29に出力する。ここで、BPF28は、マイクロホンアレイ1の幅(配列方向の長さ)、および、マイクロホン10A〜10Mの設置間隔に応じてビーム化される周波数帯域が異なることを利用し、各集音ビームXc5〜Xc8で集音したい音声に対応する周波数帯域を通過帯域に設定している。   The band pass filter BPF 28 performs filtering of the input sound collection beams Xc <b> 5 to Xc <b> 8 and outputs the filtered sound beams to the level determination unit 29. Here, the BPF 28 uses the fact that the frequency band to be beamed differs according to the width of the microphone array 1 (length in the arrangement direction) and the installation interval of the microphones 10A to 10M, and the sound collecting beams Xc5 to Xc5. The frequency band corresponding to the sound to be collected by Xc8 is set as the pass band.

レベル判定部29は、集音ビームXc5〜Xc8の信号強度を比較し、最も信号強度が強い集音ビームを選択する(S7)。ところで、集音ビームの信号強度が最も強いということは、この集音ビームにより集音される領域に音源が存在することを意味する。これにより、部分領域全体を4つの局所領域に区分した場合における、音源が存在する局所領域を検出することができる。例えば、図6の例では、部分領域104における局所領域141に対応する集音ビームXc5の信号強度が他の集音ビームXc6〜Xc8の信号強度よりも強いので、レベル検出部29は集音ビームXc5を選択し、局所領域141に音源100が存在することを検知する。   The level determination unit 29 compares the signal intensities of the sound collecting beams Xc5 to Xc8, and selects the sound collecting beam having the strongest signal intensity (S7). By the way, that the signal intensity of the sound collecting beam is the strongest means that a sound source exists in an area collected by the sound collecting beam. Thereby, the local region where the sound source exists can be detected when the entire partial region is divided into four local regions. For example, in the example of FIG. 6, the signal intensity of the sound collection beam Xc5 corresponding to the local area 141 in the partial area 104 is stronger than the signal intensity of the other sound collection beams Xc6 to Xc8. Xc5 is selected and the sound source 100 is detected in the local region 141.

レベル判定部29は、検出した局所領域に対応する選択信号を生成し、セレクタ30に出力する。セレクタ30は、入力された選択信号にしたがい、検出された局所領域に対応する集音ビームを選択して出力する。例えば、図6の例であれば、局所領域141に対応する集音ビームXc5を選択して、この集音ビームXc5により形成される音声信号を出力する(S8)。   The level determination unit 29 generates a selection signal corresponding to the detected local region and outputs the selection signal to the selector 30. The selector 30 selects and outputs a sound collection beam corresponding to the detected local region in accordance with the input selection signal. For example, in the example of FIG. 6, the sound collection beam Xc5 corresponding to the local region 141 is selected, and the sound signal formed by this sound collection beam Xc5 is output (S8).

このような構成および処理を用いることにより、音源方向からの音声のみを集音して出力することができる。これにより、話者等の音源からの音声とは異なるノイズを抑圧して、音源からの音声のみを集音することができる。このように出力された合成信号はスピーカ5により音声として外部に放音される。   By using such a configuration and processing, only the sound from the sound source direction can be collected and output. As a result, noise different from the sound from the sound source of the speaker or the like can be suppressed, and only the sound from the sound source can be collected. The synthesized signal output in this way is emitted as sound by the speaker 5 to the outside.

以上のように、本実施形態の構成および処理を用いることにより、音源方向を検出して、検出した音源方向に対する集音指向性を高めることができ、ノイズを抑圧して音源方向からの音声のみを集音することができる。この際、マイクロホンアレイを用いて、機械的にマイク方向を移動させることがないので、従来よりも簡単な構造で且つ簡素な処理で音源方向の検出と、音源方向に強い指向性を有する集音を行うことができる。   As described above, by using the configuration and processing of the present embodiment, the sound source direction can be detected, and the sound collection directivity with respect to the detected sound source direction can be improved. Can be collected. At this time, since the microphone direction is not mechanically moved using the microphone array, the sound source direction is detected with a simpler structure and simpler processing than before, and the sound collection having strong directivity in the sound source direction. It can be performed.

また、音源検知を2段階に分けて徐々に詳細に行うことで、一度に詳細な音源領域検知を行うよりも処理量を低減することができる。例えば、図5、図6に示したような局所領域分割を一度に処理する場合、16分割の局所領域となり、16方向の集音ビームを形成しなければならない。しかしながら、本実施形態の構成および処理方法を用いることにより、8方向の集音ビーム形成で、音源領域の検知を行うことができる。   Further, by performing the sound source detection in two stages and gradually performing the details, the processing amount can be reduced as compared to performing the detailed sound source region detection at a time. For example, when the local area division as shown in FIGS. 5 and 6 is processed at a time, it becomes a 16-division local area and a sound collecting beam in 16 directions must be formed. However, by using the configuration and processing method of the present embodiment, it is possible to detect a sound source region by forming sound collecting beams in eight directions.

なお、前述の説明では、局所領域に関するレベル判定部29で選択する集音ビームが1つの場合について説明した。しかしながら、複数の集音ビームを選択して処理してもよい。   In the above description, the case where there is one sound collection beam selected by the level determination unit 29 related to the local region has been described. However, a plurality of sound collecting beams may be selected and processed.

図4は、複数の集音ビームを選択する場合の音声信号処理部2の部分構成を示すブロック図である。なお、この音声信号処理部2は、ディジタルフィルタ21A〜21Mから加算器25E〜25Hまでの図2に示した構成は同じであるので図示説明は省略し、異なる部分(図3に対応)のみを図示したものである。   FIG. 4 is a block diagram showing a partial configuration of the audio signal processing unit 2 when a plurality of sound collecting beams are selected. The audio signal processing unit 2 has the same configuration as that shown in FIG. 2 from the digital filters 21A to 21M to the adders 25E to 25H, and therefore will not be described. Only the different parts (corresponding to FIG. 3) will be omitted. It is illustrated.

レベル判定部29は、集音ビームXc5〜Xc8の信号強度を比較し、最も信号強度が強い集音ビームと、次に信号強度が強い集音ビームとの2つの集音ビームを選択する選択信号Sをセレクタ30に出力する。これと同時に、レベル判定部29は、これら2つの集音ビームの信号強度を重み付け設定部31に出力する。   The level determination unit 29 compares the signal intensities of the sound collecting beams Xc5 to Xc8, and selects a sound collecting beam having the strongest signal intensity and the second sound collecting beam having the next strongest signal intensity. S is output to the selector 30. At the same time, the level determination unit 29 outputs the signal strengths of these two sound collection beams to the weight setting unit 31.

セレクタ30は、入力された選択信号にしたがい、検出された2つの局所領域にそれぞれ対応する2つの集音ビームXca,Xcbを選択する。そして、セレクタ30は、集音ビームXcaを信号合成部32の可変アンプ321に出力し、集音ビームXcbを信号合成部32の可変アンプ322に出力する。   The selector 30 selects the two sound collecting beams Xca and Xcb corresponding to the two detected local regions, respectively, according to the input selection signal. Then, the selector 30 outputs the sound collection beam Xca to the variable amplifier 321 of the signal synthesis unit 32 and outputs the sound collection beam Xcb to the variable amplifier 322 of the signal synthesis unit 32.

重み付け設定部31、2つの集音ビームの信号強度から重み付け係数をw1,w2を設定する。ここで、重み付け設定部31は、より信号強度が強い集音ビームが強調されるような重み付けを行う。例えば、2つの集音ビームの信号強度の比が7:3であれば、合成信号の振幅が正規化されるように、各集音ビームに対する重み付け係数をそれぞれ0.7と0.3とに設定する。   The weighting coefficient setting unit 31 sets weighting coefficients w1 and w2 from the signal intensities of the two sound collecting beams. Here, the weight setting unit 31 performs weighting so that a sound collecting beam having a higher signal intensity is emphasized. For example, if the ratio of the signal intensity of two sound collecting beams is 7: 3, the weighting coefficient for each sound collecting beam is set to 0.7 and 0.3, respectively, so that the amplitude of the combined signal is normalized. Set.

信号合成部32は、可変アンプ321,322と加算器323とを備える。可変アンプ321は与えられた重み付け係数w1で集音ビームXcaの合成信号を増幅し、可変アンプ322は与えられた重み付け係数w2で集音ビームXcbの合成信号を増幅する。加算器323は可変増幅器321,322からの出力信号を合成し、合成信号をスピーカ5に出力する。   The signal synthesis unit 32 includes variable amplifiers 321 and 322 and an adder 323. The variable amplifier 321 amplifies the synthesized signal of the sound collection beam Xca with the given weighting coefficient w1, and the variable amplifier 322 amplifies the synthesized signal of the sound collection beam Xcb with the given weighting coefficient w2. The adder 323 combines the output signals from the variable amplifiers 321 and 322 and outputs the combined signal to the speaker 5.

これらの処理を、図6を例に説明すると、レベル判定部29は、信号強度から集音ビームXc5,Xc6を選択する。すなわち、局所領域141,142からなる領域に音源100が存在すると検知する。セレクタ30は、入力される集音ビームXc5〜Xc8から集音ビームXc5,Xc6の2つを選択して、集音ビームXc5の合成信号を可変アンプ321に出力し、集音ビームXc6の合成信号を可変アンプ322に出力する。重み付け設定部31は、集音ビームXc5,Xc6の振幅強度の比から、集音ビームXc5に対する重み付け係数w1と、集音ビームXc6に対する重み付け係数w2を設定して、重み付け係数w1を可変アンプ321に与え、重み付け係数w2を可変アンプ322に与える。可変アンプ321は重み付け係数w1で集音ビームXc5の合成信号を増幅し、可変アンプ322は重み付け係数w2で集音ビームXc6の合成信号を増幅する。加算器323は重み付け係数w1の集音ビームXc5からなる合成信号と、重み付け係数w2の集音ビームXc6からなる合成信号とをさらに合成してスピーカ5に出力する。   These processes will be described using FIG. 6 as an example. The level determination unit 29 selects the sound collection beams Xc5 and Xc6 from the signal intensity. That is, it is detected that the sound source 100 exists in an area composed of the local areas 141 and 142. The selector 30 selects two of the sound collecting beams Xc5 to Xc8 from the input sound collecting beams Xc5 to Xc8, and outputs a synthesized signal of the sound collecting beam Xc5 to the variable amplifier 321 to produce a synthesized signal of the sound collecting beam Xc6. Is output to the variable amplifier 322. The weighting setting unit 31 sets the weighting coefficient w1 for the sound collecting beam Xc5 and the weighting coefficient w2 for the sound collecting beam Xc6 from the ratio of the amplitude intensity of the sound collecting beams Xc5 and Xc6, and sets the weighting coefficient w1 to the variable amplifier 321. The weighting coefficient w 2 is given to the variable amplifier 322. The variable amplifier 321 amplifies the combined signal of the sound collection beam Xc5 with the weighting coefficient w1, and the variable amplifier 322 amplifies the combined signal of the sound collection beam Xc6 with the weighting coefficient w2. The adder 323 further synthesizes the synthesized signal composed of the sound collecting beam Xc5 having the weighting coefficient w1 and the synthesized signal composed of the sound collecting beam Xc6 having the weighting coefficient w2, and outputs the synthesized signal to the speaker 5.

このような構成および処理を用いることにより、音源方向を含む領域とこれに隣接する領域とからなる所定範囲からの音声を集音して出力することができる。これにより、音源が前述のように設定される局所領域の境界付近に存在しても、話者等の音源からの音声を強調し、それ以外のノイズを抑圧することができる。   By using such a configuration and processing, it is possible to collect and output sound from a predetermined range including a region including the sound source direction and a region adjacent thereto. Thereby, even if the sound source exists near the boundary of the local region set as described above, it is possible to enhance the sound from the sound source such as a speaker and suppress other noises.

ところで、前述の説明は音源が移動していない状態を示したが、前述の音源方向の検出処理および合成処理を、予め設定した所定タイミング周期で行うことで、音源の追尾を行うことができる。すなわち、音源が移動すれば、この移動に応じてそれぞれのタイミングで検出される音源方向も変化(移動)する。そして、この検出される音源方向の変化に応じて、集音指向性を変化させることで、実質的に集音しながら音源の追尾を行うことができる。この処理は機械的動作を含まないものであるので、装置の構成を単純化することができる。   By the way, although the above description has shown the state where the sound source has not moved, the sound source can be tracked by performing the above-described sound source direction detection processing and synthesis processing at a predetermined timing cycle set in advance. That is, if the sound source moves, the sound source direction detected at each timing also changes (moves) in accordance with this movement. Then, by changing the sound collection directivity according to the detected change of the sound source direction, the sound source can be tracked while substantially collecting the sound. Since this process does not include a mechanical operation, the configuration of the apparatus can be simplified.

この際、音声信号処理部2は、前記タイミング周期の隣り合うタイミングで検出音源方向が異なれば、先に出力した音声信号と、後に出力する音声信号とをクロスフェード処理してもよい。すなわち、先に出力している音声信号の信号強度を出力段で徐々に抑圧していくとともに、後に出力する音声信号の信号強度を出力段で徐々に増幅していく処理を行い、これらを合成して出力する。このような処理を行うことで、音源の移動に伴う音声の移動が、聴覚上滑らかに行われ、出力される音声を聞く者に違和感を与えない。ここで、音源が部分領域間を完全に移動するのではなく、部分領域の境界で音源が停止した場合には、前述のように、完全に出力信号が切り替わる処理を行う必要はない。この場合、クロスフェードを開始してから、徐々に集音ビームの比を変化させていき、最終的に互いの集音ビームの比が0.5:0.5になる合成処理を行ってもよい。   At this time, the audio signal processing unit 2 may cross-fade the audio signal output first and the audio signal output later if the detected sound source directions are different at adjacent timings in the timing period. In other words, the signal intensity of the audio signal output earlier is gradually suppressed at the output stage, and the signal intensity of the audio signal output later is gradually amplified at the output stage, and these are combined. And output. By performing such a process, the movement of the sound accompanying the movement of the sound source is performed smoothly and does not give a sense of incongruity to the person who hears the output sound. Here, when the sound source does not completely move between the partial areas but stops at the boundary of the partial areas, it is not necessary to perform the process of completely switching the output signal as described above. In this case, the ratio of the sound collecting beams is gradually changed after the start of the crossfade, and finally the synthesis process is performed in which the ratio of the sound collecting beams becomes 0.5: 0.5. Good.

なお、前述の説明では、音源が存在する全体領域を4つの部分領域に分割し、さらに音源が存在する部分領域を4つの局所領域に分割して、音源検知を行ったが、これら分割数は、装置の仕様や、装置の適用環境(音源検知領域の広さ等)に応じて、任意に設定することができる。   In the above description, the entire area where the sound source exists is divided into four partial areas, and the partial area where the sound source exists is further divided into four local areas, and sound source detection is performed. It can be arbitrarily set according to the specifications of the apparatus and the application environment of the apparatus (such as the width of the sound source detection area).

また、前述の説明では、2段で音源検知を行ったが、1段で行っても、3段以上の複数段でおこなってもよい。また、前述の各処理は、物理的な回路素子の組み合わせで実現しても、DSP等の集積回路を用いてソフトウエア処理で実現してもよい。   In the above description, sound source detection is performed in two stages, but it may be performed in one stage or in a plurality of stages of three or more. The above-described processes may be realized by a combination of physical circuit elements, or may be realized by software processing using an integrated circuit such as a DSP.

また、前述の説明ではマイクロホンを直線状に配列したマイクロホンアレイを例に示したが、マトリクス状であってもよく、さらに、図8に示すようなマイクロホンの配置からなるマイクロホンアレイでもあってよい。   In the above description, the microphone array in which the microphones are linearly arranged is shown as an example. However, the microphone array may be a matrix or may be a microphone array having a microphone arrangement as shown in FIG.

図8(A)は1次元の円状にマイクロホンを配置したマイクホロンアレイの構成を示し、(B)は複数次元の円状にマイクロホンを配置したマイクロホンアレイの構成を示す。なお、図8では、代表するマイクロホンにのみ記号を付し、他のマイクロホンへの記号は省略する。
図8(A)に示すマイクロホンアレイ1は、各マイクロホン10が所定間隔で1つ(1次元)の円周上に配置されたものである。図8(B)に示すマイクロホンアレイ1は、各マイクロホン10が複数(複数次元)の円周上に配置されたものである。
このようにマイクロホン10が配列されたマイクロホンアレイ1に対しても、前述の構成および処理を適用することができ、音源方向の検知と、この検知音源方向からの集音を実現することができる。
FIG. 8A shows a configuration of a microphone holon array in which microphones are arranged in a one-dimensional circle, and FIG. 8B shows a configuration of a microphone array in which microphones are arranged in a multi-dimensional circle. In FIG. 8, symbols are given only to representative microphones, and symbols to other microphones are omitted.
In the microphone array 1 shown in FIG. 8A, each microphone 10 is arranged on one (one-dimensional) circumference at a predetermined interval. In the microphone array 1 shown in FIG. 8B, each microphone 10 is arranged on a plurality (multiple dimensions) of a circumference.
The above-described configuration and processing can also be applied to the microphone array 1 in which the microphones 10 are arranged in this way, and detection of the sound source direction and sound collection from the detected sound source direction can be realized.

さらに、ここに示したマイクロホンアレイのマイクロホンの配置は一部の例にすぎず、マイクロホンが所定の配置パターンで配置されたマイクロホンアレイであれば、前述の構成および処理を実現することができ、前述の効果を奏することができる。   Furthermore, the arrangement of the microphones of the microphone array shown here is only a part of the examples, and the above-described configuration and processing can be realized if the microphone array is arranged in a predetermined arrangement pattern. The effect of can be produced.

本発明の実施形態に係る集音装置の主要部の構成を示すブロック図The block diagram which shows the structure of the principal part of the sound collector which concerns on embodiment of this invention. 音声信号処理部2の概略構成を示すブロック図(前半部)Block diagram showing the schematic configuration of the audio signal processing unit 2 (first half) 音声信号処理部2の概略構成を示すブロック図(後半部)Block diagram showing the schematic configuration of the audio signal processing unit 2 (second half) 複数の集音ビームを選択する場合の音声信号処理部3の部分構成を示すブロック図The block diagram which shows the partial structure of the audio | voice signal processing part 3 in the case of selecting a several sound collection beam 音源方向検知方法(部分領域の検出)の概念図Conceptual diagram of sound source direction detection method (partial area detection) 音源方向検知方法(局所領域の検出)の概念図Conceptual diagram of sound source direction detection method (local area detection) 音声信号処理部2の処理フローを示すフロー図Flow chart showing the processing flow of the audio signal processing unit 2 円状にマイクロホンを配置したマイクホロンアレイの構成図Configuration diagram of microphone holon array with microphones arranged in a circle 音源とマイクロホンとの位置関係と、音源から発生した音が各マイクロホンで集音される際のディレイとの関係を示した図、および、集音された音声信号のディレイに基づくディレイ補正量の形成概念を示す図A diagram showing the relationship between the positional relationship between the sound source and the microphone and the delay when the sound generated from the sound source is collected by each microphone, and the formation of the delay correction amount based on the delay of the collected sound signal Illustration showing the concept

符号の説明Explanation of symbols

1−マイクロホンアレイ、10A〜10M−マイクロホン、2−音声信号処理部、21A〜21M−ディジタルフィルタ、22A−ディレイバッファメモリ、231A〜238A−FIRフィルタ、241A〜248A−アンプ、25A〜25H−加算器、26,28−BPF、27,29−レベル判定部、30−セレクタ、31−重み付け設定部、32−信号合成部、321,322−可変アンプ、323−加算器、5−スピーカ、100−音源、101〜104−部分領域、141〜144−局所領域   1-microphone array, 10A-10M-microphone, 2-audio signal processor, 21A-21M-digital filter, 22A-delay buffer memory, 231A-238A-FIR filter, 241A-248A-amplifier, 25A-25H-adder , 26, 28-BPF, 27, 29-level determination unit, 30-selector, 31-weighting setting unit, 32-signal synthesis unit, 321, 322-variable amplifier, 323-adder, 5-speaker, 100-sound source 101-104 partial region, 141-144 local region

Claims (3)

複数のマイクロホンを所定パターンに配列して構成されるマイクロホンアレイと、
前記複数のマイクロホンが集音した音声信号をそれぞれ所定の遅延時間で遅延して合成することにより、特定方向に強い指向性の集音ビームを形成するビーム形成部であって、並列にそれぞれ独立した遅延時間を設定することで同時に複数方向に集音ビームを形成するビーム形成部と、
複数エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、信号レベルが最も高い集音ビームに対応するエリアを複数の小エリアに再分割し、該小エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、これら小エリアに対応する複数の集音ビームのうち、信号レベルが最も高い集音ビームが集音する音声信号を選択して後段に出力する信号選択部と、
を備えた集音装置。
A microphone array configured by arranging a plurality of microphones in a predetermined pattern;
A beam forming unit that forms a sound collecting beam having a strong directivity in a specific direction by synthesizing the audio signals collected by the plurality of microphones by delaying each with a predetermined delay time. A beam forming unit that simultaneously forms a sound collecting beam in a plurality of directions by setting a delay time;
The beam forming unit is controlled to form a sound collecting beam toward each of a plurality of areas, and an area corresponding to the sound collecting beam having the highest signal level is subdivided into a plurality of small areas, selecting the controls beamformer, among the plurality of sound collecting beams corresponding to these small areas, the audio signal with the highest sound collecting beam signal level collected to form a sound collection beam towards And a signal selection unit that outputs to the subsequent stage,
Sound collector with
前記信号選択部は、  The signal selector is
信号レベルが最も高い集音ビームに隣接する第二の集音ビームが集音する第二の音声信号をさらに選択し、前記信号レベルが最も高い集音ビームが集音する音声信号および第二の音声信号の二つの音声信号のレベル比に基づいた重み付けをして加算する加算部  A second sound signal collected by a second sound collecting beam adjacent to the sound collecting beam having the highest signal level is further selected, and the sound signal collected by the sound collecting beam having the highest signal level and the second sound signal are collected. Adder for weighting and adding based on the level ratio of two audio signals
を備えた請求項1に記載の集音装置。  The sound collector according to claim 1, comprising:
前記ビーム形成部は、所定タイミング毎に集音ビームを形成し、
前記信号選択部は、前記所定タイミング毎に集音する音声信号の選択を行う請求項1または請求項2に記載の集音装置。
The beam forming unit forms a sound collecting beam at every predetermined timing,
The sound collection device according to claim 1, wherein the signal selection unit selects a sound signal to be collected at each predetermined timing.
JP2005189809A 2005-06-29 2005-06-29 Sound collector Active JP4760160B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005189809A JP4760160B2 (en) 2005-06-29 2005-06-29 Sound collector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005189809A JP4760160B2 (en) 2005-06-29 2005-06-29 Sound collector

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011003075A Division JP5273162B2 (en) 2011-01-11 2011-01-11 Sound collector

Publications (2)

Publication Number Publication Date
JP2007013400A JP2007013400A (en) 2007-01-18
JP4760160B2 true JP4760160B2 (en) 2011-08-31

Family

ID=37751340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005189809A Active JP4760160B2 (en) 2005-06-29 2005-06-29 Sound collector

Country Status (1)

Country Link
JP (1) JP4760160B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
CN110082724A (en) * 2019-05-31 2019-08-02 浙江大华技术股份有限公司 A kind of sound localization method, device and storage medium
USD865723S1 (en) 2015-04-30 2019-11-05 Shure Acquisition Holdings, Inc Array microphone assembly
USD944776S1 (en) 2020-05-05 2022-03-01 Shure Acquisition Holdings, Inc. Audio device
US11297426B2 (en) 2019-08-23 2022-04-05 Shure Acquisition Holdings, Inc. One-dimensional array microphone with improved directivity
US11303981B2 (en) 2019-03-21 2022-04-12 Shure Acquisition Holdings, Inc. Housings and associated design features for ceiling array microphones
US11302347B2 (en) 2019-05-31 2022-04-12 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
US11310596B2 (en) 2018-09-20 2022-04-19 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
US11438691B2 (en) 2019-03-21 2022-09-06 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality
US11445294B2 (en) 2019-05-23 2022-09-13 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
US11678109B2 (en) 2015-04-30 2023-06-13 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US11706562B2 (en) 2020-05-29 2023-07-18 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5139111B2 (en) * 2007-03-02 2013-02-06 本田技研工業株式会社 Method and apparatus for extracting sound from moving sound source
JP5070960B2 (en) * 2007-07-06 2012-11-14 ヤマハ株式会社 Sound collector
JP5386936B2 (en) 2008-11-05 2014-01-15 ヤマハ株式会社 Sound emission and collection device
JP5304571B2 (en) * 2009-09-24 2013-10-02 沖電気工業株式会社 Sound collector, acoustic communication system, and program
JP5105336B2 (en) * 2009-12-11 2012-12-26 沖電気工業株式会社 Sound source separation apparatus, program and method
JP5417352B2 (en) 2011-01-27 2014-02-12 株式会社東芝 Sound field control apparatus and method
JP5709725B2 (en) * 2011-10-27 2015-04-30 Toa株式会社 Microphone device
JP6481397B2 (en) * 2015-02-10 2019-03-13 沖電気工業株式会社 Microphone interval control device and program
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US10743101B2 (en) 2016-02-22 2020-08-11 Sonos, Inc. Content mixing
JP6249047B2 (en) * 2016-05-27 2017-12-20 株式会社Jvcケンウッド Audio processing apparatus, video processing apparatus, audio processing method, and video processing method
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
JP6701573B2 (en) 2016-08-03 2020-05-27 株式会社リコー Audio processing device, audio/video output device, and remote conference system
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
JP2018084506A (en) * 2016-11-24 2018-05-31 株式会社リコー Position information management system, information processing device, position information management method, and program
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US10248375B2 (en) * 2017-07-07 2019-04-02 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device capable of obtaining and synthesizing audio data
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
JP7230427B2 (en) * 2018-10-24 2023-03-01 ヤマハ株式会社 SOUND SIGNAL PROCESSING DEVICE, MIXER, AND SOUND SIGNAL PROCESSING METHOD
JP7334406B2 (en) * 2018-10-24 2023-08-29 ヤマハ株式会社 Array microphones and sound pickup methods
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591588A (en) * 1991-09-27 1993-04-09 Railway Technical Res Inst Direction variable directional sound collecting device
JPH09140000A (en) * 1995-11-15 1997-05-27 Nippon Telegr & Teleph Corp <Ntt> Loud hearing aid for conference
JP3154468B2 (en) * 1996-03-19 2001-04-09 日本電信電話株式会社 Sound receiving method and device
JP3332143B2 (en) * 1997-06-23 2002-10-07 日本電信電話株式会社 Sound pickup method and device
JP3302300B2 (en) * 1997-07-18 2002-07-15 株式会社東芝 Signal processing device and signal processing method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11310592B2 (en) 2015-04-30 2022-04-19 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
US11832053B2 (en) 2015-04-30 2023-11-28 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
USD865723S1 (en) 2015-04-30 2019-11-05 Shure Acquisition Holdings, Inc Array microphone assembly
US11678109B2 (en) 2015-04-30 2023-06-13 Shure Acquisition Holdings, Inc. Offset cartridge microphones
USD940116S1 (en) 2015-04-30 2022-01-04 Shure Acquisition Holdings, Inc. Array microphone assembly
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US11477327B2 (en) 2017-01-13 2022-10-18 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US11310596B2 (en) 2018-09-20 2022-04-19 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
US11303981B2 (en) 2019-03-21 2022-04-12 Shure Acquisition Holdings, Inc. Housings and associated design features for ceiling array microphones
US11438691B2 (en) 2019-03-21 2022-09-06 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality
US11445294B2 (en) 2019-05-23 2022-09-13 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
US11302347B2 (en) 2019-05-31 2022-04-12 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
CN110082724B (en) * 2019-05-31 2021-09-21 浙江大华技术股份有限公司 Sound source positioning method, device and storage medium
US11688418B2 (en) 2019-05-31 2023-06-27 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
CN110082724A (en) * 2019-05-31 2019-08-02 浙江大华技术股份有限公司 A kind of sound localization method, device and storage medium
US11297426B2 (en) 2019-08-23 2022-04-05 Shure Acquisition Holdings, Inc. One-dimensional array microphone with improved directivity
US11750972B2 (en) 2019-08-23 2023-09-05 Shure Acquisition Holdings, Inc. One-dimensional array microphone with improved directivity
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
USD944776S1 (en) 2020-05-05 2022-03-01 Shure Acquisition Holdings, Inc. Audio device
US11706562B2 (en) 2020-05-29 2023-07-18 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system

Also Published As

Publication number Publication date
JP2007013400A (en) 2007-01-18

Similar Documents

Publication Publication Date Title
JP4760160B2 (en) Sound collector
JP4816221B2 (en) Sound pickup device and audio conference device
JP4177413B2 (en) Sound reproduction apparatus and sound reproduction system
US9961473B2 (en) Apparatus and method for generating output signals based on an audio source signal, sound reproduction system and loudspeaker signal
US9210503B2 (en) Audio zoom
JP4167286B2 (en) Reverberation adjustment device, reverberation correction method, and sound reproduction system
JP4984683B2 (en) Sound emission and collection device
JP4913140B2 (en) Apparatus and method for controlling multiple speakers using a graphical user interface
JP2008028693A (en) Audio signal processor, audio signal processing method, and program
CN1981558A (en) Loudspeaker directivity control method and audio reproduction device
JP2005197896A (en) Audio signal supply apparatus for speaker array
JP5565044B2 (en) Speaker device
JP4435232B2 (en) Audio system
US9355632B2 (en) Apparatus, method and electroacoustic system for reverberation time extension
JP2010213031A (en) Speaker array apparatus
JP2016090794A (en) Reverberation sound addition device
JP2008252625A (en) Directional speaker system
JP2006222669A (en) Speaker array apparatus
JP5273162B2 (en) Sound collector
JP2010245984A (en) Device for correcting sensitivity of microphone in microphone array, microphone array system including the same, and program
JP2016134769A (en) Audio signal processor
JP2008245203A (en) Loudspeaker system, delay time determination method of loudspeaker system and filter coefficient determination method of loudspeaker system
JPWO2007007414A1 (en) Delay and sum sensor array device
JP6242262B2 (en) Sound playback device
JP2008178000A (en) Acoustic generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4760160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150