JP2007028053A - Sound image localization apparatus - Google Patents

Sound image localization apparatus Download PDF

Info

Publication number
JP2007028053A
JP2007028053A JP2005205529A JP2005205529A JP2007028053A JP 2007028053 A JP2007028053 A JP 2007028053A JP 2005205529 A JP2005205529 A JP 2005205529A JP 2005205529 A JP2005205529 A JP 2005205529A JP 2007028053 A JP2007028053 A JP 2007028053A
Authority
JP
Japan
Prior art keywords
filter
filter coefficient
sound image
sound source
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005205529A
Other languages
Japanese (ja)
Inventor
Yasuhito Watanabe
泰仁 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005205529A priority Critical patent/JP2007028053A/en
Publication of JP2007028053A publication Critical patent/JP2007028053A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound image localization apparatus capable of reproducing a distance sense of a sound image in a virtual space similarly to that in a real space at a cost lower than that of a prior art. <P>SOLUTION: The sound image localization apparatus 10 includes: a filter coefficient setting means 11 for setting filter coefficients; a filter coefficient storage means 12 for storing the filter coefficients; a composite filter generating means 13 for generating a composite filter; an input terminal 14 for receiving an acoustic signal; a sound image localizing means 15 for carrying out sound image localizing processing; an Lch output terminal 16a for outputting the acoustic signal whose sound image is localized to a left channel Lch; and a Rch output terminal 16b for outputting the acoustic signal whose sound image is localized to a right channel Rch, and the filter coefficient setting means 11 includes: a position calculation section 11a for calculating a position of a reference virtual sound source located in a three-dimensional virtual space on the basis of positional information; and a filter coefficient setting section 11b for setting the filter coefficients to provide a plurality of virtual sound sources to places in the vicinity of the reference virtual sound source. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音像を定位させる音像定位装置に関する。   The present invention relates to a sound image localization apparatus that localizes a sound image.

従来、3次元の仮想空間に設けられた音像を所望の位置に定位させる音像定位装置としては、受聴者の左右の耳位置(以下「受聴者の位置」という。)に対する仮想音源の方向を変更する制御に関しては頭部伝達関数に基づいて設定されたフィルタを用いて音像定位処理を行い、受聴者の位置から仮想音源までの距離を変更する制御(以下「距離制御」という。)に関してはアッテネータでレベル減衰を行うものが知られている。   Conventionally, as a sound image localization device that localizes a sound image provided in a three-dimensional virtual space to a desired position, the direction of the virtual sound source with respect to the listener's left and right ear positions (hereinafter referred to as “listener position”) is changed. As for the control to be performed, sound image localization processing is performed using a filter set based on the head-related transfer function, and control for changing the distance from the listener's position to the virtual sound source (hereinafter referred to as “distance control”) is an attenuator. It is known that performs level attenuation.

この種の従来の音像定位装置のブロック図を図13に示す。図13に示された従来の音像定位装置80は、入力端子81と、音像定位手段82と、アッテネータ83a及び83bと、左チャンネルの出力端子84aと、右チャンネルの出力端子84bとを備え、音像定位手段82は、FIR(Finite Impulse Response)フィルタ82a及び82bを備えている。音像定位手段82は、受聴者の位置から仮想音源までの伝達特性を表すインパルス応答を再現するようになっており、このインパルス応答は、予め測定又は計算により算出されるものである。   A block diagram of this type of conventional sound image localization apparatus is shown in FIG. The conventional sound image localization apparatus 80 shown in FIG. 13 includes an input terminal 81, sound image localization means 82, attenuators 83a and 83b, a left channel output terminal 84a, and a right channel output terminal 84b. The localization means 82 includes FIR (Finite Impulse Response) filters 82a and 82b. The sound image localization means 82 reproduces an impulse response representing the transfer characteristic from the position of the listener to the virtual sound source, and this impulse response is calculated in advance by measurement or calculation.

従来の音像定位装置80は、まず、入力端子81から音響信号を入力する。入力された音響信号は音像定位手段82に入力される。次いで、音像定位手段82に入力された信号は、FIRフィルタ82a及び82bによってインパルス応答が畳み込まれ、それぞれ、アッテネータ83a及び83bに出力される。そして、アッテネータ83a及び83bによって、受聴者の位置から予め定められた仮想音源までの距離に応じて、左右のチャンネルのレベルがそれぞれ調整される距離制御が行われ、音像が定位された音響信号が出力端子84a及び84bから出力されるようになっている。   The conventional sound image localization apparatus 80 first receives an acoustic signal from the input terminal 81. The input acoustic signal is input to the sound image localization means 82. Next, the impulse response of the signal input to the sound image localization means 82 is convolved by the FIR filters 82a and 82b and output to the attenuators 83a and 83b, respectively. Then, the attenuators 83a and 83b perform distance control in which the levels of the left and right channels are adjusted according to the distance from the listener's position to a predetermined virtual sound source, and the sound signal in which the sound image is localized is obtained. It is output from the output terminals 84a and 84b.

また、従来の音像定位装置の中には、受聴者の位置から仮想音源までの距離を多数想定しておき、想定したすべての距離に対応するフィルタを予め用意し、音像を定位させる距離に応じてフィルタを選択して距離制御を行う音像定位装置もある。   In addition, in the conventional sound image localization device, a number of distances from the listener's position to the virtual sound source are assumed, filters corresponding to all the assumed distances are prepared in advance, and the sound image is localized according to the distance at which the sound image is localized. There is also a sound image localization device that performs distance control by selecting a filter.

また、遅延回路及び複数の音像定位手段を用いることで直接音成分だけでなく間接音成分も考慮して距離制御を行う音像定位装置もある(例えば、特許文献1参照。)。   There is also a sound image localization apparatus that performs distance control in consideration of not only a direct sound component but also an indirect sound component by using a delay circuit and a plurality of sound image localization means (see, for example, Patent Document 1).

図14は、特許文献1に示された従来の音像定位装置90のブロック図である。図14において、従来の音像定位装置90は、入力端子91と、バッファアンプ92と、音像定位装置93と、間接音発生装置94と、合成回路95と、出力端子96とを備え、間接音発生装置94は、遅延回路94aと、アッテネータ94bと、音像定位装置94cとを備えている。   FIG. 14 is a block diagram of a conventional sound image localization apparatus 90 disclosed in Patent Document 1. In FIG. In FIG. 14, a conventional sound image localization device 90 includes an input terminal 91, a buffer amplifier 92, a sound image localization device 93, an indirect sound generation device 94, a synthesis circuit 95, and an output terminal 96, and generates indirect sound. The device 94 includes a delay circuit 94a, an attenuator 94b, and a sound image localization device 94c.

従来の音像定位装置90において、入力端子91より入力された、音像定位情報を有していない信号は、バッファアンプ92でインピーダンス変換された後、音像定位装置93及び間接音発生装置94にそれぞれ供給される。音像定位装置93は、音像定位情報を有していない信号を、音場空間内の予め定められた特定位置に音像を定位させるべきバイノーラル信号に変換して合成回路95に供給する。   In a conventional sound image localization device 90, a signal that does not have sound image localization information input from an input terminal 91 is impedance-converted by a buffer amplifier 92 and then supplied to a sound image localization device 93 and an indirect sound generation device 94, respectively. Is done. The sound image localization device 93 converts a signal having no sound image localization information into a binaural signal for localizing the sound image at a predetermined position in the sound field space, and supplies the binaural signal to the synthesis circuit 95.

一方、間接音発生装置94に入力された、音像定位情報を有していない信号は、遅延回路94aによって所定時間だけ遅延された後、アッテネータ94bによってレベルが減衰され、音像定位装置94cによって所望の周波数特性が付与される。   On the other hand, the signal having no sound image localization information input to the indirect sound generation device 94 is delayed by a delay circuit 94a for a predetermined time, and then the level is attenuated by the attenuator 94b, and the signal is determined by the sound image localization device 94c. A frequency characteristic is given.

この音像定位装置94cから出力される信号は、音像定位装置93から出力されたバイノーラル信号と合成回路95において合成された後、出力端子96よりスピーカ又はヘッドホンに出力される。音像定位装置94cの出力信号は、音像定位装置93の出力信号よりも遅延され、レベルが減衰され、さらに通常は音像定位装置93により定位された方向とは異なる任意の方向に定位されるべき信号とされる。すなわち、音像定位装置94cからは間接音情報を与える信号が出力されることとなる。したがって、従来の音像定位装置90は、間接音情報を生成する間接音発生装置94を複数備えることにより、複数の間接音情報を持たせ、より現実空間に近い音像を再現することができるようになっている。   The signal output from the sound image localization device 94c is combined with the binaural signal output from the sound image localization device 93 in the synthesis circuit 95, and then output from the output terminal 96 to a speaker or headphones. The output signal of the sound image localization device 94c is delayed from the output signal of the sound image localization device 93, the level is attenuated, and the signal to be localized in an arbitrary direction different from the direction normally localized by the sound image localization device 93. It is said. That is, the sound image localization device 94c outputs a signal that gives indirect sound information. Therefore, the conventional sound image localization device 90 includes a plurality of indirect sound generation devices 94 that generate indirect sound information, so that a plurality of indirect sound information can be provided and a sound image closer to real space can be reproduced. It has become.

特開昭54−109402号公報JP 54-109402 A

しかしながら、図13に示された従来の音像定位装置80による距離制御では、受聴者の位置から仮想音源までの距離をアッテネータによるレベル減衰によって制御するものなので、受聴者の位置から仮想音源までの距離が変わるというよりも、同じ距離で単に音量が変化するように受聴者が知覚してしまい、仮想空間における音像の距離感を現実空間と同様に再現できないという問題があった。   However, in the distance control by the conventional sound image localization apparatus 80 shown in FIG. 13, the distance from the listener's position to the virtual sound source is controlled by level attenuation by the attenuator, so the distance from the listener's position to the virtual sound source. There is a problem that the listener perceives the sound volume to change simply at the same distance rather than changing, and the sense of distance of the sound image in the virtual space cannot be reproduced as in the real space.

また、想定したすべての距離に対応するフィルタを予め用意し、音像を定位させる距離に応じてフィルタを選択して距離制御を行う従来の音像定位装置では、非常に多くのフィルタを必要とするので、製造コストが増大するという問題があった。   In addition, a conventional sound image localization device that prepares filters corresponding to all assumed distances in advance and selects a filter according to the distance at which the sound image is localized to perform distance control requires a very large number of filters. There is a problem that the manufacturing cost increases.

また、図14に示された特許文献1に記載の従来の音像定位装置90による距離制御では、複数の間接音発生装置94を要し非常に多くの演算量が必要となるので、高速な演算処理装置が必要となり製造コストが増大するという問題があった。   Further, the distance control by the conventional sound image localization device 90 described in Patent Document 1 shown in FIG. 14 requires a plurality of indirect sound generators 94 and requires a large amount of calculation, so that high-speed calculation is possible. There is a problem that a processing device is required and the manufacturing cost increases.

本発明は、このような問題を解決するためになされたものであり、従来のものよりも低コストで仮想空間における音像の距離感を現実空間と同様に再現することができる音像定位装置を提供するものである。   The present invention has been made to solve such problems, and provides a sound image localization apparatus that can reproduce the sense of distance of a sound image in a virtual space in the same manner as a real space at a lower cost than the conventional one. To do.

本発明の音像定位装置は、予め定められた基準仮想音源の位置から所定の距離だけ離れた複数の位置にそれぞれ仮想音源を設定する仮想音源設定手段と、前記複数の仮想音源によって合成された合成音像を所定の位置に定位させる合成フィルタを生成する合成フィルタ生成手段とを備え、前記仮想音源設定手段は、前記基準仮想音源から受聴者の位置までの距離に応じて前記基準仮想音源から前記複数の仮想音源までのそれぞれの距離を設定する構成を有している。   The sound image localization apparatus of the present invention includes a virtual sound source setting unit that sets a virtual sound source at a plurality of positions that are separated from a predetermined reference virtual sound source position by a predetermined distance, and a composition synthesized by the plurality of virtual sound sources. Synthesizing filter generating means for generating a synthesizing filter for localizing a sound image at a predetermined position, wherein the virtual sound source setting means is configured to output the plurality of the reference virtual sound sources from the reference virtual sound source according to the distance from the reference virtual sound source to the position of the listener The distance to each virtual sound source is set.

この構成により、本発明の音像定位装置は、複数の仮想音源によって合成された合成音像を所定の位置に定位させる合成フィルタを生成し、生成した合成フィルタによって、基準仮想音源から受聴者の位置までの距離に応じて合成音像の大きさを変化させることができるので、現実空間において音源から受聴者の位置までの距離に応じて間接音成分が増減し音像の広がりが変化するように受聴者に知覚させることができ、仮想空間における音像の距離感を現実空間と同様に再現することができる。また、この構成により、本発明の音像定位装置は、従来のもののように、想定したすべての距離に対応するフィルタを予め用意したり、高速な演算処理装置を設けたりする必要がないので、従来のものよりも製造コストを低減することができる。   With this configuration, the sound image localization apparatus of the present invention generates a synthesis filter that localizes a synthesized sound image synthesized by a plurality of virtual sound sources at a predetermined position, and generates a synthesized filter from the reference virtual sound source to the position of the listener. Since the size of the synthesized sound image can be changed according to the distance of the sound, the indirect sound component increases or decreases according to the distance from the sound source to the position of the listener in the real space, so that the listener can change the spread of the sound image. It can be perceived, and the sense of distance of the sound image in the virtual space can be reproduced as in the real space. In addition, with this configuration, the sound image localization apparatus of the present invention does not need to prepare a filter corresponding to all assumed distances in advance or provide a high-speed arithmetic processing apparatus unlike the conventional one. The manufacturing cost can be reduced as compared with the above.

また、本発明の音像定位装置は、前記合成音像が定位される前記所定の位置が、前記基準仮想音源の位置である構成を有している。   The sound image localization apparatus of the present invention has a configuration in which the predetermined position where the synthesized sound image is localized is the position of the reference virtual sound source.

この構成により、本発明の音像定位装置は、複数の仮想音源によって合成された合成音像を基準仮想音源の位置に定位させる合成フィルタを生成し、生成した合成フィルタによって、基準仮想音源から受聴者の位置までの距離に応じて合成音像の大きさを変化させることができるので、現実空間において音源から受聴者の位置までの距離に応じて間接音成分が増減し音像の広がりが変化するように受聴者に知覚させることができ、仮想空間における音像の距離感を現実空間と同様に再現することができる。   With this configuration, the sound image localization apparatus of the present invention generates a synthesis filter that localizes a synthesized sound image synthesized by a plurality of virtual sound sources to the position of the reference virtual sound source, and the generated synthesis filter generates a synthesized filter from the reference virtual sound source. Since the size of the synthesized sound image can be changed according to the distance to the position, the indirect sound component increases and decreases according to the distance from the sound source to the listener's position in the real space, and the sound image spread changes. It can be perceived by the listener, and the sense of distance of the sound image in the virtual space can be reproduced as in the real space.

さらに、本発明の音像定位装置は、フィルタ係数を記憶するフィルタ係数記憶手段を備え、前記合成フィルタ生成手段は、前記フィルタ係数記憶手段に記憶された前記フィルタ係数の中から前記複数の仮想音源を生成するためのフィルタ係数を選択する構成を有している。   Furthermore, the sound image localization apparatus of the present invention includes a filter coefficient storage unit that stores a filter coefficient, and the synthesis filter generation unit selects the plurality of virtual sound sources from the filter coefficients stored in the filter coefficient storage unit. The filter coefficient to be generated is selected.

この構成により、本発明の音像定位装置は、フィルタ係数記憶手段に記憶されたフィルタ係数を用いて合成フィルタ生成手段が合成フィルタを容易に生成することができる。   With this configuration, in the sound image localization apparatus of the present invention, the synthesis filter generation unit can easily generate the synthesis filter using the filter coefficients stored in the filter coefficient storage unit.

さらに、本発明の音像定位装置は、前記仮想音源設定手段が、前記基準仮想音源から前記受聴者の位置までの距離が遠くなるに従って前記基準仮想音源から前記複数の仮想音源までのそれぞれの距離を遠くする構成を有している。   Furthermore, in the sound image localization apparatus according to the present invention, the virtual sound source setting means may determine each distance from the reference virtual sound source to the plurality of virtual sound sources as the distance from the reference virtual sound source to the position of the listener increases. It has a configuration that is far away.

この構成により、本発明の音像定位装置は、合成フィルタ生成手段が生成した合成フィルタによって、基準仮想音源から受聴者の位置までの距離に応じて合成音像の大きさを変化させることができるので、現実空間において音源から受聴者の位置までの距離に応じて間接音成分が増減し音像の広がりが変化するように受聴者に知覚させることができ、仮想空間における音像の距離感を現実空間と同様に再現することができる。   With this configuration, the sound image localization apparatus of the present invention can change the size of the synthesized sound image according to the distance from the reference virtual sound source to the listener's position by the synthesis filter generated by the synthesis filter generation unit. In the real space, the listener can perceive the indirect sound component to increase and decrease according to the distance from the sound source to the listener's position, and the sound image changes, and the sense of distance of the sound image in the virtual space is the same as in the real space Can be reproduced.

さらに、本発明の音像定位装置は、前記仮想音源設定手段が、前記複数の仮想音源の位置に加えて、前記基準仮想音源の位置に仮想音源を設定する構成を有している。   Furthermore, the sound image localization apparatus of the present invention has a configuration in which the virtual sound source setting means sets a virtual sound source at the position of the reference virtual sound source in addition to the positions of the plurality of virtual sound sources.

この構成により、本発明の音像定位装置は、フィルタ係数設定手段が、直接音成分及び間接音成分を表現するためのフィルタ係数を設定し、合成フィルタ生成手段が、直接音成分及び間接音成分を表現するための合成フィルタを生成するので、仮想空間における音像の距離感を現実空間と同様に再現することができる。   With this configuration, in the sound image localization apparatus of the present invention, the filter coefficient setting unit sets the filter coefficient for expressing the direct sound component and the indirect sound component, and the synthesis filter generating unit converts the direct sound component and the indirect sound component. Since the synthesis filter for expressing is generated, the sense of distance of the sound image in the virtual space can be reproduced as in the real space.

さらに、本発明の音像定位装置は、前記合成フィルタ生成手段が、前記基準仮想音源によって出力された音が前記基準仮想音源から前記受聴者の位置までに到達する到達時間を遅延させる時間遅延手段と、前記音の音量を増減させる音量増減手段とを備えた構成を有している。   Further, in the sound image localization apparatus of the present invention, the synthesis filter generating means delays the arrival time for the sound output by the reference virtual sound source to reach the listener's position from the reference virtual sound source; And a volume increasing / decreasing means for increasing / decreasing the volume of the sound.

この構成により、本発明の音像定位装置は、フィルタ係数設定手段が、直接音成分及び間接音成分を表現するためのフィルタ係数を設定し、合成フィルタ生成手段が、直接音成分と、直接音成分よりも所定時間だけ到達時間が遅延された間接音成分とを表現するための合成フィルタを生成するので、仮想空間における音像の距離感を現実空間と同様に再現することができる。   With this configuration, in the sound image localization apparatus of the present invention, the filter coefficient setting unit sets the filter coefficient for expressing the direct sound component and the indirect sound component, and the synthesis filter generation unit includes the direct sound component and the direct sound component. Since the synthesis filter for expressing the indirect sound component whose arrival time is delayed by a predetermined time is generated, the sense of distance of the sound image in the virtual space can be reproduced in the same manner as in the real space.

本発明は、従来のものよりも低コストで仮想空間における音像の距離感を現実空間と同様に再現することができるという効果を有する音像定位装置を提供することができるものである。   The present invention can provide a sound image localization apparatus having an effect that a sense of distance of a sound image in a virtual space can be reproduced in the same manner as a real space at a lower cost than the conventional one.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施の形態)
まず、本発明の第1の実施の形態に係る音像定位装置の構成について説明する。
(First embodiment)
First, the configuration of the sound image localization apparatus according to the first embodiment of the present invention will be described.

図1に示すように、本実施の形態の音像定位装置10は、位置情報に基づいてフィルタ係数を設定するフィルタ係数設定手段11と、フィルタ係数を予め記憶するフィルタ係数記憶手段12と、合成フィルタを生成する合成フィルタ生成手段13と、音響信号を入力する入力端子14と、入力した音響信号に対して音像定位処理を行う音像定位手段15と、音像が定位された音響信号を左チャンネル(以下「Lch」という。)に出力するLch出力端子16aと、音像が定位された音響信号を右チャンネル(以下「Rch」という。)に出力するRch出力端子16bとを備えている。   As shown in FIG. 1, a sound image localization apparatus 10 according to the present embodiment includes a filter coefficient setting unit 11 that sets a filter coefficient based on position information, a filter coefficient storage unit 12 that stores a filter coefficient in advance, and a synthesis filter Synthesis filter generating means 13 for generating sound, an input terminal 14 for inputting an acoustic signal, a sound image localization means 15 for performing sound image localization processing on the inputted acoustic signal, and an acoustic signal in which the sound image is localized on the left channel (hereinafter referred to as the left channel). An Lch output terminal 16a that outputs to the right channel (hereinafter referred to as "Rch"), and an Rch output terminal 16b that outputs an acoustic signal whose sound image has been localized.

フィルタ係数設定手段11は、入力された位置情報に基づいて3次元の仮想空間に配置される仮想音源(以下「基準仮想音源」という。)の位置を算出する位置算出部11aと、基準仮想音源の近傍に複数の仮想音源を設けるためのフィルタ係数を設定するフィルタ係数設定部11bとを備えている。ここで、位置情報とは、受聴者の位置に対する基準仮想音源の位置を示す情報をいう。例えば、3次元の仮想空間をx軸、y軸及びz軸で表し、受聴者の位置を原点とした場合、位置情報は、原点と基準仮想音源とを結んだ線分の各軸成分の長さ及び各軸に対する角度、又は原点から基準仮想音源までの距離及び各軸に対する角度で表される。なお、フィルタ係数設定手段11は、本発明の仮想音源設定手段を構成している。   The filter coefficient setting means 11 includes a position calculation unit 11a that calculates the position of a virtual sound source (hereinafter referred to as “reference virtual sound source”) arranged in a three-dimensional virtual space based on the input position information, and a reference virtual sound source. And a filter coefficient setting unit 11b for setting filter coefficients for providing a plurality of virtual sound sources. Here, the position information refers to information indicating the position of the reference virtual sound source with respect to the position of the listener. For example, when a three-dimensional virtual space is represented by the x-axis, y-axis, and z-axis and the listener's position is the origin, the position information is the length of each axis component of the line segment connecting the origin and the reference virtual sound source. And the angle with respect to each axis, or the distance from the origin to the reference virtual sound source and the angle with respect to each axis. The filter coefficient setting means 11 constitutes a virtual sound source setting means of the present invention.

フィルタ係数設定部11bは、位置算出部11aによって算出された基準仮想音源の位置の近傍に複数の仮想音源を設けるためのフィルタ係数を設定するようになっている。   The filter coefficient setting unit 11b is configured to set filter coefficients for providing a plurality of virtual sound sources in the vicinity of the position of the reference virtual sound source calculated by the position calculation unit 11a.

また、フィルタ係数設定部11bは、フィルタ係数記憶手段12に記憶されたフィルタ係数を参照することによって、設定したフィルタ係数がフィルタ係数記憶手段12に存在するか否かを判断し、その判断結果の情報をフィルタ係数情報として合成フィルタ生成手段13に出力するようになっている。また、フィルタ係数設定部11bは、設定したフィルタ係数がフィルタ係数記憶手段12に存在しない場合は、該当するフィルタ係数を生成し、生成したフィルタ係数と、フィルタ係数を生成した旨を示す情報とをフィルタ係数情報として合成フィルタ生成手段13に出力するようになっている。   Further, the filter coefficient setting unit 11b refers to the filter coefficient stored in the filter coefficient storage unit 12 to determine whether the set filter coefficient exists in the filter coefficient storage unit 12, and the determination result The information is output to the synthesis filter generation means 13 as filter coefficient information. Further, when the set filter coefficient does not exist in the filter coefficient storage unit 12, the filter coefficient setting unit 11b generates a corresponding filter coefficient, and generates the generated filter coefficient and information indicating that the filter coefficient has been generated. The filter coefficient information is output to the synthesis filter generation means 13.

フィルタ係数記憶手段12は、例えばROM(Read Only Memory)で構成され、3次元の仮想空間に複数の仮想音源を設けるためのフィルタ係数を記憶している。   The filter coefficient storage means 12 is composed of, for example, a ROM (Read Only Memory), and stores filter coefficients for providing a plurality of virtual sound sources in a three-dimensional virtual space.

合成フィルタ生成手段13は、例えばCPU(Central Processing Unit)、メモリ、加算器、アッテネータ等で構成され、フィルタ係数情報を参照して、フィルタ係数記憶手段12に記憶されたフィルタ係数の中から基準仮想音源の近傍に複数の仮想音源を設けるためのフィルタ係数を選択してメモリにロードし、ロードした複数のフィルタ係数に基づいて合成フィルタを生成するようになっている。合成フィルタは、例えばFIRフィルタで構成される。   The synthesis filter generation unit 13 includes, for example, a CPU (Central Processing Unit), a memory, an adder, an attenuator, and the like, and refers to the filter coefficient information, and selects a reference virtual from the filter coefficients stored in the filter coefficient storage unit 12 Filter coefficients for providing a plurality of virtual sound sources in the vicinity of the sound source are selected and loaded into a memory, and a synthesis filter is generated based on the loaded plurality of filter coefficients. The synthesis filter is constituted by, for example, an FIR filter.

音像定位手段15は、例えばCPU及びメモリ等で構成され、合成フィルタ生成手段13によって生成された合成フィルタの係数をメモリにロードし、入力端子14に入力された音響信号に対して所定の音像定位処理を行って、音像を定位処理した音響信号をLch出力端子16a及びRch出力端子16bに出力するようになっている。なお、Lch出力端子16a及びRch出力端子16bには、例えばスピーカやヘッドホン等が接続され、音像が定位された音響信号を受聴者に供給するようになっている。   The sound image localization means 15 is composed of, for example, a CPU and a memory, and loads coefficients of the synthesis filter generated by the synthesis filter generation means 13 into the memory, and performs predetermined sound image localization on the acoustic signal input to the input terminal 14. By performing the processing, an acoustic signal obtained by localizing the sound image is output to the Lch output terminal 16a and the Rch output terminal 16b. The Lch output terminal 16a and the Rch output terminal 16b are connected to, for example, a speaker, a headphone, or the like, and supply an acoustic signal with a localized sound image to the listener.

次に、本実施の形態に係る音像定位装置10の動作について図1〜5を用いて説明する。図2は、本実施の形態に係る音像定位装置10の各ステップのフロー図である。図3及び図4は、フィルタ係数の設定例を示す説明図である。図5は、合成フィルタ生成手段13の動作を説明するためのブロック図である。   Next, the operation of the sound image localization apparatus 10 according to the present embodiment will be described with reference to FIGS. FIG. 2 is a flowchart of each step of the sound image localization apparatus 10 according to the present embodiment. 3 and 4 are explanatory diagrams showing examples of setting filter coefficients. FIG. 5 is a block diagram for explaining the operation of the synthesis filter generation means 13.

まず、フィルタ係数設定手段11の位置算出部11aによって、入力された位置情報に基づき、受聴者の位置から基準仮想音源までの距離及び角度が算出されることにより基準仮想音源の位置が算出される(ステップS11)。   First, the position calculation unit 11a of the filter coefficient setting unit 11 calculates the position and the angle of the reference virtual sound source by calculating the distance and angle from the listener's position to the reference virtual sound source based on the input position information. (Step S11).

次いで、フィルタ係数設定部11bによって、基準仮想音源の近傍に複数の仮想音源を設けるためのフィルタ係数が設定される(ステップS12)。以下、フィルタ係数設定部11bの動作について、図3及び図4を用いて具体的に説明する。   Next, a filter coefficient for providing a plurality of virtual sound sources in the vicinity of the reference virtual sound source is set by the filter coefficient setting unit 11b (step S12). Hereinafter, the operation of the filter coefficient setting unit 11b will be specifically described with reference to FIGS.

図3(a)及び(b)には、ステップS11において算出された距離及び角度に基づいて設定された基準仮想音源51が示されている。フィルタ係数設定部11bは、例えば図3(a)に示すように、基準仮想音源51の位置から等距離だけ離れた2つの位置に仮想音源52及び53を設けるためのフィルタ係数を設定する。また、フィルタ係数設定部11bは、例えば図3(b)に示すように、受聴者50と基準仮想音源51とを結んだ線分に対して等角度となる線分上に仮想音源52及び53を設けるためのフィルタ係数を設定する。   FIGS. 3A and 3B show the reference virtual sound source 51 set based on the distance and angle calculated in step S11. For example, as illustrated in FIG. 3A, the filter coefficient setting unit 11 b sets filter coefficients for providing virtual sound sources 52 and 53 at two positions that are equidistant from the position of the reference virtual sound source 51. Further, the filter coefficient setting unit 11b, for example, as shown in FIG. 3B, virtual sound sources 52 and 53 on line segments that are equiangular with the line segment connecting the listener 50 and the reference virtual sound source 51. The filter coefficient for providing is set.

前述のように仮想音源52及び53を設けることにより、仮想音源52の音像と仮想音源53の音像とが合成された合成音像54が、基準仮想音源51の位置を中心として所定の広がりを持って生成されることとなる。   By providing the virtual sound sources 52 and 53 as described above, the synthesized sound image 54 obtained by synthesizing the sound image of the virtual sound source 52 and the sound image of the virtual sound source 53 has a predetermined spread around the position of the reference virtual sound source 51. Will be generated.

ここで、基準仮想音源51の位置から仮想音源52及び53までのそれぞれの距離は、受聴者50の位置から基準仮想音源51までの距離に応じて設定される。具体的には、受聴者50の位置から基準仮想音源51までの距離が遠くなるに従って、基準仮想音源51の位置から仮想音源52及び53までのそれぞれの距離が遠く設定される。   Here, the distances from the position of the reference virtual sound source 51 to the virtual sound sources 52 and 53 are set according to the distance from the position of the listener 50 to the reference virtual sound source 51. Specifically, the distances from the position of the reference virtual sound source 51 to the virtual sound sources 52 and 53 are set farther as the distance from the position of the listener 50 to the reference virtual sound source 51 becomes longer.

同様に、受聴者50と基準仮想音源51とを結んだ線分に対する仮想音源52及び53のそれぞれの位置を表す角度も、受聴者50の位置から基準仮想音源51までの距離に応じて設定される。以下、角度の設定について図4を用いて具体的に説明する。   Similarly, the angles representing the positions of the virtual sound sources 52 and 53 with respect to the line segment connecting the listener 50 and the reference virtual sound source 51 are also set according to the distance from the position of the listener 50 to the reference virtual sound source 51. The Hereinafter, the setting of the angle will be specifically described with reference to FIG.

図4には、基準仮想音源61及び65が示されている。基準仮想音源61は、基準仮想音源65よりも受聴者50に近い側に位置している。フィルタ係数設定部11bは、基準仮想音源61の近傍に仮想音源62及び63を設ける際に、受聴者50と基準仮想音源61とを結んだ線分に対する仮想音源62及び63のそれぞれの位置を表す角度をαで設定する。この結果、仮想音源62の音像と仮想音源63の音像とが合成された合成音像64が、基準仮想音源61の位置を中心として所定の広がりを持って生成されることとなる。   FIG. 4 shows reference virtual sound sources 61 and 65. The reference virtual sound source 61 is located closer to the listener 50 than the reference virtual sound source 65. When providing the virtual sound sources 62 and 63 in the vicinity of the reference virtual sound source 61, the filter coefficient setting unit 11b represents the respective positions of the virtual sound sources 62 and 63 with respect to the line segment connecting the listener 50 and the reference virtual sound source 61. Set the angle with α. As a result, a synthesized sound image 64 obtained by synthesizing the sound image of the virtual sound source 62 and the sound image of the virtual sound source 63 is generated with a predetermined spread around the position of the reference virtual sound source 61.

一方、フィルタ係数設定部11bは、基準仮想音源61よりも遠方にある基準仮想音源65の近傍に仮想音源66及び67を設ける際に、受聴者50と基準仮想音源65とを結んだ線分に対する仮想音源66及び67のそれぞれの位置を表す角度を、αよりも大きいβで設定する。この結果、仮想音源66の音像と仮想音源67の音像とが合成された合成音像68が、基準仮想音源65の位置を中心として、前述の合成音像64よりも大きい広がりを持って生成されることとなる。   On the other hand, when providing the virtual sound sources 66 and 67 in the vicinity of the reference virtual sound source 65 located farther than the reference virtual sound source 61, the filter coefficient setting unit 11b applies to the line segment connecting the listener 50 and the reference virtual sound source 65. An angle representing the position of each of the virtual sound sources 66 and 67 is set to β larger than α. As a result, a synthesized sound image 68 obtained by synthesizing the sound image of the virtual sound source 66 and the sound image of the virtual sound source 67 is generated with a larger spread than the synthesized sound image 64 with the position of the reference virtual sound source 65 as the center. It becomes.

したがって、受聴者50は、近い側の合成音像64の広がりよりも遠い側の合成音像68の広がりを大きく知覚することとなる。これは、現実空間において、音源の位置が受聴者から遠ざかっていく場合は、直接音成分が減少して間接音成分が増加するため音像が徐々にぼやけていき、受聴者が音像を明瞭に知覚できなくなる現象を再現できることを示している。反対に、現実空間において、音源の位置が受聴者に近づいてくる場合は、直接音成分が増加して間接音成分が減少するため音像が徐々に明瞭になり、受聴者が音像を明瞭に知覚できるようになる現象を再現できることを示している。   Therefore, the listener 50 perceives the spread of the synthesized sound image 68 farther than the spread of the synthesized sound image 64 on the near side. This is because when the position of the sound source moves away from the listener in real space, the sound image gradually blurs because the direct sound component decreases and the indirect sound component increases, and the listener perceives the sound image clearly. It shows that the phenomenon that can not be done can be reproduced. Conversely, when the position of the sound source approaches the listener in real space, the direct sound component increases and the indirect sound component decreases, so the sound image becomes gradually clearer and the listener perceives the sound image clearly. It shows that the phenomenon that becomes possible can be reproduced.

なお、図3及び図4においては、フィルタ係数設定部11bが、2つの位置においてフィルタ係数を設定する例を挙げて説明したが、本発明はこれに限定されるものではなく、3つ以上の位置おいてフィルタ係数を設定するようにしてもよい。また、図3及び図4は、説明を簡略化するため2次元で描いたものであるが、フィルタ係数設定部11bは、3次元の仮想空間において基準仮想音源51、61又は65の位置を中心として合成音像54、64又は68をそれぞれ生成するためのフィルタ係数を設定するものである。また、例えば合成音像54の中心の位置は、基準仮想音源51の位置と完全に一致する場合のみを限定するものではなく、基準仮想音源51の位置から所定距離だけ離れた場合も含む。   3 and 4, the filter coefficient setting unit 11b has been described with an example in which filter coefficients are set at two positions. However, the present invention is not limited to this, and three or more filter coefficients are set. The filter coefficient may be set at the position. 3 and 4 are two-dimensionally drawn for simplicity of explanation, the filter coefficient setting unit 11b is centered on the position of the reference virtual sound source 51, 61 or 65 in the three-dimensional virtual space. Filter coefficients for generating the synthesized sound images 54, 64 and 68, respectively. Further, for example, the position of the center of the synthesized sound image 54 is not limited to the case where it completely coincides with the position of the reference virtual sound source 51, but includes the case where it is separated from the position of the reference virtual sound source 51 by a predetermined distance.

引き続き、フィルタ係数設定部11bによって、フィルタ係数記憶手段12に記憶されたフィルタ係数が参照され、設定したフィルタ係数がフィルタ係数記憶手段12に存在するか否かが判断され、その判断結果の情報がフィルタ係数情報として合成フィルタ生成手段13に出力される(ステップS13)。ここで、例えば、図3(a)において、仮想音源52及び53を設けるためのフィルタ係数がフィルタ係数記憶手段12に存在する場合は、その旨を示す情報をフィルタ係数情報は含む。一方、上記フィルタ係数がフィルタ係数記憶手段12に存在しない場合は、フィルタ係数設定部11bが上記フィルタ係数を生成し、生成されたフィルタ係数と、フィルタ係数が生成された旨を示す情報とをフィルタ係数情報は含む。   Subsequently, the filter coefficient setting unit 11b refers to the filter coefficient stored in the filter coefficient storage unit 12, determines whether or not the set filter coefficient exists in the filter coefficient storage unit 12, and information on the determination result is obtained. The filter coefficient information is output to the synthesis filter generation means 13 (step S13). Here, for example, in FIG. 3A, when the filter coefficient for providing the virtual sound sources 52 and 53 exists in the filter coefficient storage unit 12, the filter coefficient information includes information indicating that fact. On the other hand, when the filter coefficient does not exist in the filter coefficient storage unit 12, the filter coefficient setting unit 11b generates the filter coefficient, and filters the generated filter coefficient and information indicating that the filter coefficient has been generated. Coefficient information is included.

なお、以下の説明において、フィルタ係数設定部11bは、図3(a)又は(b)に示すような仮想音源52及び53を設けるためのフィルタ係数を設定し、これらのフィルタ係数は、フィルタ係数記憶手段12に予め記憶されているものとする。   In the following description, the filter coefficient setting unit 11b sets filter coefficients for providing the virtual sound sources 52 and 53 as shown in FIG. 3A or 3B, and these filter coefficients are filter coefficients. Assume that the storage unit 12 stores the information in advance.

次いで、合成フィルタ生成手段13によって、フィルタ係数記憶手段12に記憶されたフィルタ係数の中から仮想音源52及び53を設けるためのフィルタ係数が選択され、選択されたフィルタ係数が合成フィルタ生成手段13のメモリにロードされる(ステップS14)。ここで、一般にフィルタ係数は左耳用及び右耳用の2つの組で構成されるので、フィルタ係数設定手段11が2つの位置でフィルタ係数を設定した場合、合成フィルタ生成手段13は、計4個のフィルタ係数をロードすることになる。   Next, a filter coefficient for providing virtual sound sources 52 and 53 is selected from the filter coefficients stored in the filter coefficient storage unit 12 by the synthesis filter generation unit 13, and the selected filter coefficient is selected by the synthesis filter generation unit 13. It is loaded into the memory (step S14). Here, since the filter coefficients are generally composed of two sets for the left ear and the right ear, when the filter coefficient setting means 11 sets the filter coefficients at two positions, the combined filter generation means 13 This will load filter coefficients.

さらに、合成フィルタ生成手段13によって、ロードしたフィルタ係数に基づいて合成フィルタが生成される(ステップS15)。ここで、合成フィルタ生成手段13の動作について、図5を用いて具体的に説明する。   Further, the synthesis filter generation means 13 generates a synthesis filter based on the loaded filter coefficient (step S15). Here, the operation of the synthesis filter generation means 13 will be specifically described with reference to FIG.

図5に示すように、合成フィルタ生成手段13は、まず、フィルタ係数13a及び13bをフィルタ係数記憶手段12からメモリにロードする。フィルタ係数13aは、左耳用のフィルタ係数であるフィルタ1Lと、右耳用のフィルタ係数であるフィルタ1Rとを有している。同様に、フィルタ係数13bは、左耳用のフィルタ係数であるフィルタ2Lと、右耳用のフィルタ係数であるフィルタ2Rとを有している。   As shown in FIG. 5, the synthesis filter generation means 13 first loads the filter coefficients 13a and 13b from the filter coefficient storage means 12 into the memory. The filter coefficient 13a includes a filter 1L that is a filter coefficient for the left ear and a filter 1R that is a filter coefficient for the right ear. Similarly, the filter coefficient 13b includes a filter 2L that is a filter coefficient for the left ear and a filter 2R that is a filter coefficient for the right ear.

次いで、合成フィルタ生成手段13は、ロードしたフィルタ係数を左耳用と右耳用とに分けて別々に加算する。すなわち、合成フィルタ生成手段13は、加算器13cを用いて左耳用のフィルタ係数であるフィルタ1Lとフィルタ2Lとを加算し、加算器13dを用いて右耳用のフィルタ係数であるフィルタ1Rとフィルタ2Rとを加算する。   Next, the synthesis filter generation unit 13 adds the loaded filter coefficients separately for the left ear and the right ear. That is, the synthesis filter generation means 13 adds the filter 1L that is the filter coefficient for the left ear using the adder 13c and the filter 2L, and the filter 1R that is the filter coefficient for the right ear using the adder 13d. The filter 2R is added.

さらに、合成フィルタ生成手段13は、アッテネータ13e及び13fを用いて左耳用及び右耳用のレベルをそれぞれ所定値に設定し、合成フィルタ13gを生成する。この合成フィルタ13gは、左耳用のフィルタ係数であるフィルタ3Lと、右耳用のフィルタ係数であるフィルタ3Rとを含んでいる。なお、アッテネータ13e及び13fによるレベル調整は、加算器13c及び13dでの加算処理の前に行ってもよい。   Further, the synthesis filter generation means 13 sets the left ear level and the right ear level to predetermined values using the attenuators 13e and 13f, and generates a synthesis filter 13g. The synthesis filter 13g includes a filter 3L that is a filter coefficient for the left ear and a filter 3R that is a filter coefficient for the right ear. The level adjustment by the attenuators 13e and 13f may be performed before the addition processing by the adders 13c and 13d.

続いて、音像定位手段15によって、合成フィルタ13gの係数がメモリにロードされる(ステップS16)。具体的には、音像定位手段15のLch側のメモリには左耳用のフィルタ係数であるフィルタ3Lがロードされ、Rch側のメモリには右耳用のフィルタ係数であるフィルタ3Rがロードされる。   Subsequently, the coefficient of the synthesis filter 13g is loaded into the memory by the sound image localization means 15 (step S16). Specifically, a filter 3L that is a filter coefficient for the left ear is loaded into the memory on the Lch side of the sound image localization means 15, and a filter 3R that is a filter coefficient for the right ear is loaded into the Rch side memory. .

そして、音像定位手段15によって、入力端子14に入力された音響信号に対して畳み込み処理が実行され、音像定位された音響信号が音像定位手段15からLch出力端子16a及びRch出力端子16bに出力される(ステップS17)。   Then, the sound image localization means 15 performs a convolution process on the acoustic signal input to the input terminal 14, and the sound image localized acoustic signal is output from the sound image localization means 15 to the Lch output terminal 16a and the Rch output terminal 16b. (Step S17).

以上のように、本実施の形態の音像定位装置10によれば、フィルタ係数設定手段11は、基準仮想音源51の位置を中心とする合成音像54が得られるフィルタ係数を生成し、合成フィルタ生成手段13は、合成音像54が得られる合成フィルタ13gを生成し、音像定位手段15は、合成フィルタ13gの係数をメモリにロードして合成音像54を定位処理する構成としたので、現実空間において音源から受聴者の位置までの距離に応じて間接音が増減し音像の広がりが変化するように合成音像54の大きさを変化させて定位処理することができ、仮想空間における音像の距離感を現実空間と同様に再現することができる。   As described above, according to the sound image localization apparatus 10 of the present embodiment, the filter coefficient setting unit 11 generates a filter coefficient for obtaining a synthesized sound image 54 centered on the position of the reference virtual sound source 51, and generates a synthesized filter. The means 13 generates the synthesis filter 13g from which the synthesized sound image 54 is obtained, and the sound image localization means 15 is configured to load the coefficients of the synthesis filter 13g into the memory and localize the synthesized sound image 54. Therefore, it is possible to perform localization processing by changing the size of the synthesized sound image 54 so that the indirect sound increases or decreases according to the distance from the position of the listener to the position of the listener, and the spread of the sound image changes. It can be reproduced in the same way as space.

また、本実施の形態の音像定位装置10によれば、従来のもののように、想定したすべての距離に対応するフィルタを予め用意したり、高速な演算処理装置を設けたりする必要がないので、従来のものよりも製造コストを低減することができる。   Further, according to the sound image localization apparatus 10 of the present embodiment, there is no need to prepare filters corresponding to all assumed distances in advance or to provide a high-speed arithmetic processing apparatus, unlike the conventional one. The manufacturing cost can be reduced as compared with the conventional one.

さらに、本実施の形態の音像定位装置10によれば、音像定位処理を行う前に合成フィルタ生成手段13が合成フィルタ13gを一度生成するだけで合成音像54を定位処理することができるので、直接音成分だけを音像定位処理する場合と同じ演算量で、仮想空間における音像の距離感を現実空間と同様に再現することができる。   Furthermore, according to the sound image localization apparatus 10 of the present embodiment, since the synthesis filter image generation unit 13 can generate the synthesis filter 13g once before performing the sound image localization process, the synthesis sound image 54 can be localized. The sense of distance of the sound image in the virtual space can be reproduced in the same manner as in the real space with the same amount of computation as when only the sound component is subjected to sound image localization processing.

なお、前述の実施の形態において、フィルタ係数記憶手段12をROMで構成する例を挙げて説明したが、本発明はこれに限定されるものではなく、フィルタ係数記憶手段12をリードライトが可能な例えば不揮発メモリで構成し、フィルタ係数設定手段11が設定したフィルタ係数を記憶する構成としても同様の効果が得られる。   In the above-described embodiment, the example in which the filter coefficient storage unit 12 is constituted by a ROM has been described. However, the present invention is not limited to this, and the filter coefficient storage unit 12 can be read / written. For example, the same effect can be obtained by a configuration in which the filter coefficient set by the filter coefficient setting means 11 is stored by a nonvolatile memory.

また、前述の実施の形態において、合成フィルタ生成手段13は、仮想音源52及び53を設けるためのフィルタ係数がフィルタ係数記憶手段12に存在しない場合はフィルタ係数設定部11bが生成したフィルタ係数を使用する例を挙げて説明したが、本発明はこれに限定されるものではなく、例えば、フィルタ係数記憶手段12に記憶されたフィルタ係数のうち、仮想音源52及び53の位置に最も近い位置に仮想音源を設定できるフィルタ係数を合成フィルタ生成手段13が選択する構成としてもよい。   In the above-described embodiment, the synthesis filter generation unit 13 uses the filter coefficient generated by the filter coefficient setting unit 11b when the filter coefficient for providing the virtual sound sources 52 and 53 does not exist in the filter coefficient storage unit 12. However, the present invention is not limited to this example. For example, among the filter coefficients stored in the filter coefficient storage unit 12, the virtual position is closest to the positions of the virtual sound sources 52 and 53. The synthesis filter generation unit 13 may select a filter coefficient that can set a sound source.

(第2の実施の形態)
まず、本発明の第2の実施の形態に係る音像定位装置の構成について説明する。
(Second Embodiment)
First, the configuration of the sound image localization apparatus according to the second embodiment of the present invention will be described.

図6に示すように、本実施の形態に係る音像定位装置20は、位置情報に基づいてフィルタ係数を設定するフィルタ係数設定手段21と、フィルタ係数を予め記憶するフィルタ係数記憶手段22と、合成フィルタを生成する合成フィルタ生成手段23と、音響信号を入力する入力端子24と、入力した音響信号に対して音像定位処理を行う音像定位手段25と、音像が定位された音響信号をLchに出力するLch出力端子26aと、音像が定位された音響信号をRchに出力するRch出力端子26bとを備えている。   As shown in FIG. 6, the sound image localization apparatus 20 according to the present embodiment includes a filter coefficient setting unit 21 that sets a filter coefficient based on position information, a filter coefficient storage unit 22 that stores a filter coefficient in advance, and a synthesis Synthetic filter generating means 23 for generating a filter, input terminal 24 for inputting an acoustic signal, sound image localization means 25 for performing sound image localization processing on the input acoustic signal, and outputting an acoustic signal in which the sound image is localized to Lch And an Rch output terminal 26b for outputting an acoustic signal with a localized sound image to the Rch.

フィルタ係数設定手段21は、入力された位置情報に基づいて基準仮想音源の位置を算出する位置算出部21aと、基準仮想音源の位置及びその近傍に複数の仮想音源を設けるためのフィルタ係数を設定する直間接音源フィルタ係数設定部21bとを備えている。このフィルタ係数設定手段21は、本発明の仮想音源設定手段を構成している。   The filter coefficient setting means 21 sets a position calculation unit 21a that calculates the position of the reference virtual sound source based on the input position information, and a filter coefficient for providing a plurality of virtual sound sources at and near the position of the reference virtual sound source. And a direct / indirect sound source filter coefficient setting unit 21b. This filter coefficient setting means 21 constitutes a virtual sound source setting means of the present invention.

なお、本実施の形態に係る音像定位装置20は、本発明の第1の実施の形態に係る音像定位装置10(図1参照)のフィルタ係数設定部11bを直間接音源フィルタ係数設定部21bに変更したものと同様であるので、音像定位装置10と同様の構成については説明を省略する。   The sound image localization apparatus 20 according to the present embodiment replaces the filter coefficient setting unit 11b of the sound image localization apparatus 10 (see FIG. 1) according to the first embodiment of the present invention with a direct / indirect sound source filter coefficient setting unit 21b. Since it is the same as that of what was changed, description is abbreviate | omitted about the structure similar to the sound image localization apparatus 10. FIG.

直間接音源フィルタ係数設定部21bは、位置算出部21aによって算出された基準仮想音源の位置と、その位置から所定距離だけ離れた複数の位置とに仮想音源を設けるためのフィルタ係数を設定するようになっている。   The direct / indirect sound source filter coefficient setting unit 21b sets filter coefficients for providing the virtual sound source at the position of the reference virtual sound source calculated by the position calculating unit 21a and a plurality of positions separated from the position by a predetermined distance. It has become.

次に、本実施の形態の音像定位装置20の動作について図6〜図9を用いて説明する。図7は、本実施の形態の音像定位装置20の各ステップのフロー図である。図8は、フィルタ係数の設定例を示す説明図である。図9は、合成フィルタ生成手段23の動作を説明するためのブロック図である。   Next, the operation of the sound image localization apparatus 20 according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart of each step of the sound image localization apparatus 20 of the present embodiment. FIG. 8 is an explanatory diagram illustrating an example of setting filter coefficients. FIG. 9 is a block diagram for explaining the operation of the synthesis filter generation means 23.

まず、フィルタ係数設定手段21の位置算出部21aによって、入力された位置情報に基づき、受聴者の位置から基準仮想音源までの距離及び角度が算出されることにより基準仮想音源の位置が算出される(ステップS21)。   First, the position calculation unit 21a of the filter coefficient setting unit 21 calculates the position of the reference virtual sound source by calculating the distance and angle from the position of the listener to the reference virtual sound source based on the input position information. (Step S21).

次いで、直間接音源フィルタ係数設定部21bによって、図8に示すように、位置算出部21aが算出した位置に基準仮想音源71を設けるためのフィルタ係数と、この基準仮想音源71から出力された音が例えば壁や物体に反射して受聴者70の位置に到達するのをモデル化するような2つの位置に仮想音源72及び73を設けるためのフィルタ係数とが設定される(ステップS22)。すなわち、直間接音源フィルタ係数設定部21bは、基準仮想音源71から出力される音のうち、基準仮想音源71から受聴者70に直接届く直接音成分を表現するためのフィルタ係数と、基準仮想音源71から仮想音源72又は73を経由して受聴者70に届く間接音成分を表現するためのフィルタ係数とを設定する。   Next, as shown in FIG. 8, the filter coefficient for providing the reference virtual sound source 71 at the position calculated by the position calculation unit 21 a and the sound output from the reference virtual sound source 71 by the direct / indirect sound source filter coefficient setting unit 21 b. For example, the filter coefficients for providing the virtual sound sources 72 and 73 are set at two positions that model the reflection to the wall or an object and reaching the position of the listener 70 (step S22). That is, the direct / indirect sound source filter coefficient setting unit 21b includes a filter coefficient for expressing a direct sound component that directly reaches the listener 70 from the reference virtual sound source 71 among sounds output from the reference virtual sound source 71, and a reference virtual sound source. A filter coefficient for expressing an indirect sound component that reaches the listener 70 from 71 via the virtual sound source 72 or 73 is set.

引き続き、直間接音源フィルタ係数設定部21bによって、フィルタ係数記憶手段22に記憶されたフィルタ係数が参照され、設定したフィルタ係数がフィルタ係数記憶手段22に存在するか否かが判断され、その判断結果の情報がフィルタ係数情報として合成フィルタ生成手段23に出力される(ステップS23)。   Subsequently, the direct / indirect sound source filter coefficient setting unit 21b refers to the filter coefficient stored in the filter coefficient storage unit 22, determines whether the set filter coefficient exists in the filter coefficient storage unit 22, and the determination result. Is output to the synthesis filter generation means 23 as filter coefficient information (step S23).

なお、以下の説明において、直間接音源フィルタ係数設定部21bは、図8に示すような基準仮想音源71と、仮想音源72及び73とを設けるためのフィルタ係数を設定し、これらのフィルタ係数は、フィルタ係数記憶手段22に予め記憶されているものとする。   In the following description, the direct / indirect sound source filter coefficient setting unit 21b sets filter coefficients for providing the reference virtual sound source 71 and the virtual sound sources 72 and 73 as shown in FIG. It is assumed that the filter coefficient storage means 22 stores in advance.

引き続き、合成フィルタ生成手段23によって、フィルタ係数情報に基づき、フィルタ係数記憶手段22に記憶されたフィルタ係数の中から、基準仮想音源71と、仮想音源72及び73とを設けるためのフィルタ係数が選択され、選択されたフィルタ係数が合成フィルタ生成手段23のメモリにロードされる(ステップS24)。ここで、一般にフィルタ係数は左耳用及び右耳用の2つの組で構成されるので、フィルタ係数設定手段21が3つの位置でフィルタ係数を設定した場合、合成フィルタ生成手段23は、計6個のフィルタ係数をロードすることになる。   Subsequently, a filter coefficient for providing the reference virtual sound source 71 and the virtual sound sources 72 and 73 is selected by the synthesis filter generation unit 23 from the filter coefficients stored in the filter coefficient storage unit 22 based on the filter coefficient information. Then, the selected filter coefficient is loaded into the memory of the synthesis filter generation means 23 (step S24). Here, since the filter coefficients are generally composed of two sets for the left ear and for the right ear, when the filter coefficient setting means 21 sets the filter coefficients at three positions, the combined filter generation means 23 has a total of 6 This will load filter coefficients.

さらに、合成フィルタ生成手段23によって、ロードしたフィルタ係数に基づいて合成フィルタが生成される(ステップS25)。ここで、合成フィルタ生成手段23の動作について、図9を用いて具体的に説明する。   Further, the synthesis filter generation means 23 generates a synthesis filter based on the loaded filter coefficient (step S25). Here, the operation of the synthesis filter generation means 23 will be specifically described with reference to FIG.

図9に示すように、合成フィルタ生成手段23は、まず、直接音成分を表現するためのフィルタ係数23aと、間接音成分を表現するためのフィルタ係数23b及び23cとをフィルタ係数記憶手段22からメモリにロードする。フィルタ係数23aは、左耳用のフィルタ係数であるフィルタ1Lと、右耳用のフィルタ係数であるフィルタ1Rとを有している。また、フィルタ係数23bは、左耳用のフィルタ係数であるフィルタ2Lと、右耳用のフィルタ係数であるフィルタ2Rとを有している。また、フィルタ係数23cは、左耳用のフィルタ係数であるフィルタ3Lと、右耳用のフィルタ係数であるフィルタ3Rとを有している。   As shown in FIG. 9, the synthesis filter generation unit 23 first obtains a filter coefficient 23 a for expressing a direct sound component and filter coefficients 23 b and 23 c for expressing an indirect sound component from the filter coefficient storage unit 22. Load into memory. The filter coefficient 23a includes a filter 1L that is a filter coefficient for the left ear and a filter 1R that is a filter coefficient for the right ear. The filter coefficient 23b includes a filter 2L that is a filter coefficient for the left ear and a filter 2R that is a filter coefficient for the right ear. The filter coefficient 23c includes a filter 3L that is a filter coefficient for the left ear and a filter 3R that is a filter coefficient for the right ear.

次いで、合成フィルタ生成手段23は、ロードしたフィルタ係数を左耳用と右耳用とに分けて別々に加算する。すなわち、合成フィルタ生成手段23は、加算器23dを用いて左耳用のフィルタ係数であるフィルタ1L、フィルタ2L、フィルタ3Lを加算し、加算器23eを用いて右耳用のフィルタ係数であるフィルタ1R、フィルタ2R、フィルタ3Rを加算する。   Next, the synthesis filter generation unit 23 adds the loaded filter coefficients separately for the left ear and for the right ear. That is, the synthesis filter generation unit 23 adds the filter 1L, the filter 2L, and the filter 3L that are filter coefficients for the left ear using the adder 23d, and the filter that is the filter coefficient for the right ear using the adder 23e. 1R, filter 2R, and filter 3R are added.

さらに、合成フィルタ生成手段23は、アッテネータ23f及び23gを用いて左耳用及び右耳用のレベルをそれぞれ所定値に設定し、合成フィルタ23hを生成する。この合成フィルタ23hは、左耳用のフィルタ係数であるフィルタ4Lと、右耳用のフィルタ係数であるフィルタ4Rとを含んでいる。なお、アッテネータ23f及び23gによるレベル調整は、加算器23d及び23eでの加算処理の前で行ってもよい。   Further, the synthesis filter generation means 23 sets the left and right ear levels to predetermined values using the attenuators 23f and 23g, respectively, and generates a synthesis filter 23h. The synthesis filter 23h includes a filter 4L that is a filter coefficient for the left ear and a filter 4R that is a filter coefficient for the right ear. The level adjustment by the attenuators 23f and 23g may be performed before the addition processing by the adders 23d and 23e.

続いて、音像定位手段25によって、合成フィルタ23hの係数がメモリにロードされる(ステップS26)。具体的には、音像定位手段25のLch側のメモリには左耳用のフィルタ係数であるフィルタ4Lがロードされ、Rch側のメモリには右耳用のフィルタ係数であるフィルタ4Rがロードされる。   Subsequently, the coefficient of the synthesis filter 23h is loaded into the memory by the sound image localization means 25 (step S26). Specifically, the filter 4L that is the filter coefficient for the left ear is loaded into the Lch side memory of the sound image localization means 25, and the filter 4R that is the filter coefficient for the right ear is loaded into the Rch side memory. .

そして、音像定位手段25によって、入力端子24に入力された音響信号に対して畳み込み処理が実行され、音像定位された音響信号が音像定位手段25からLch出力端子26a及びRch出力端子26bに出力される(ステップS27)。   Then, the sound image localization means 25 performs a convolution process on the acoustic signal input to the input terminal 24, and the sound image localized acoustic signal is output from the sound image localization means 25 to the Lch output terminal 26a and the Rch output terminal 26b. (Step S27).

以上のように、本実施の形態の音像定位装置20によれば、フィルタ係数設定手段21は、直接音成分及び間接音成分を表現するためのフィルタ係数を設定し、合成フィルタ生成手段23は、直接音成分及び間接音成分を表現するための合成フィルタ23hを生成し、音像定位手段25は、合成フィルタ23hの係数をメモリにロードして直接音成分及び間接音成分を定位処理する構成としたので、仮想空間における音像の距離感を現実空間と同様に再現することができる。   As described above, according to the sound image localization apparatus 20 of the present embodiment, the filter coefficient setting unit 21 sets filter coefficients for expressing the direct sound component and the indirect sound component, and the synthesis filter generation unit 23 The synthesis filter 23h for expressing the direct sound component and the indirect sound component is generated, and the sound image localization means 25 is configured to load the coefficient of the synthesis filter 23h into the memory and perform the localization process on the direct sound component and the indirect sound component. Therefore, the sense of distance of the sound image in the virtual space can be reproduced as in the real space.

また、本実施の形態の音像定位装置20によれば、従来のもののように、想定したすべての距離に対応するフィルタを予め用意したり、高速な演算処理装置を設けたりする必要がないので、従来のものよりも製造コストを低減することができる。   Further, according to the sound image localization apparatus 20 of the present embodiment, there is no need to prepare filters corresponding to all assumed distances in advance or to provide a high-speed arithmetic processing apparatus, unlike the conventional one. The manufacturing cost can be reduced as compared with the conventional one.

さらに、本実施の形態の音像定位装置20によれば、音像定位処理を行う前に合成フィルタ生成手段23が合成フィルタ23hの係数を一度生成するだけで直接音成分及び間接音成分を定位処理することができるので、直接音成分だけを音像定位処理する場合と同じ演算量で、仮想空間における音像の距離感を現実空間と同様に再現することができる。   Furthermore, according to the sound image localization apparatus 20 of the present embodiment, the synthesis filter generation unit 23 performs localization processing of the direct sound component and the indirect sound component only by generating the coefficient of the synthesis filter 23h once before performing the sound image localization processing. Therefore, it is possible to reproduce the sense of distance of the sound image in the virtual space in the same manner as in the real space with the same amount of computation as in the case where only the direct sound component is subjected to the sound image localization processing.

なお、前述の実施の形態において、直接音成分を表現するためのフィルタ係数を1つとし、間接音成分を表現するためのフィルタ係数を2つとする例を挙げて説明したが、本発明はこれに限定されるものではない。例えば、フィルタ係数設定手段21が、直接音成分を表現するためのフィルタ係数を異なる位置に2つ設定し、間接音成分を表現するためのフィルタ係数をそれぞれの位置に4つずつ設定する構成としても同様の効果が得られる。   In the above-described embodiment, the example in which the filter coefficient for expressing the direct sound component is one and the filter coefficient for expressing the indirect sound component is two has been described. It is not limited to. For example, the filter coefficient setting means 21 sets two filter coefficients for expressing the direct sound component at different positions and sets four filter coefficients for expressing the indirect sound component at each position. The same effect can be obtained.

(第3の実施の形態)
まず、本発明の第3の実施の形態に係る音像定位装置の構成について説明する。
(Third embodiment)
First, the configuration of a sound image localization apparatus according to the third embodiment of the present invention will be described.

図10に示すように、本実施の形態に係る音像定位装置30は、位置情報に基づいてフィルタ係数を設定するフィルタ係数設定手段31と、フィルタ係数を予め記憶するフィルタ係数記憶手段32と、合成フィルタを生成する合成フィルタ生成手段33と、音響信号を入力する入力端子34と、入力した音響信号に対して音像定位処理を行う音像定位手段35と、音像が定位された音響信号をLchに出力するLch出力端子36aと、音像が定位された音響信号をRchに出力するRch出力端子36bとを備えている。   As shown in FIG. 10, the sound image localization apparatus 30 according to the present embodiment includes a filter coefficient setting unit 31 that sets a filter coefficient based on position information, a filter coefficient storage unit 32 that stores a filter coefficient in advance, and a synthesis Synthetic filter generating means 33 for generating a filter, input terminal 34 for inputting an acoustic signal, sound image localization means 35 for performing sound image localization processing on the input acoustic signal, and outputting the acoustic signal with the localized sound image to Lch And an Rch output terminal 36b for outputting an acoustic signal with a localized sound image to the Rch.

フィルタ係数設定手段31は、入力された位置情報に基づいて基準仮想音源の位置を算出する位置算出部31aと、基準仮想音源の位置及びその近傍に複数の仮想音源を設けるためのフィルタ係数を設定する直間接音源フィルタ係数設定部31bと、遅延時間を設定する遅延時間設定部31cとを備えている。ここで、フィルタ係数設定手段31は、本発明の仮想音源設定手段を構成している。   The filter coefficient setting unit 31 sets a position calculation unit 31a that calculates the position of the reference virtual sound source based on the input position information, and sets a filter coefficient for providing a plurality of virtual sound sources at and near the position of the reference virtual sound source. A direct-indirect sound source filter coefficient setting unit 31b, and a delay time setting unit 31c for setting a delay time. Here, the filter coefficient setting means 31 constitutes a virtual sound source setting means of the present invention.

なお、本実施の形態に係る音像定位装置30は、本発明の第2の実施の形態に係る音像定位装置20(図6参照)のフィルタ係数設定手段21に遅延時間設定部31cを追加したものと同様であるので、音像定位装置20と同様の構成については説明を省略する。   The sound image localization apparatus 30 according to the present embodiment is obtained by adding a delay time setting unit 31c to the filter coefficient setting means 21 of the sound image localization apparatus 20 (see FIG. 6) according to the second embodiment of the present invention. Therefore, the description of the same configuration as that of the sound image localization device 20 is omitted.

遅延時間設定部31cは、直間接音源フィルタ係数設定部21bによって設定された間接音成分を表現するための仮想音源からの音が受聴者に届くまでの時間(以下「間接音成分の到達時間」という。)を、基準仮想音源からの音が受聴者に届くまでの時間(以下「直接音成分の到達時間」という。)よりも所定時間だけ遅延させるようになっている。   The delay time setting unit 31c is a time until sound from the virtual sound source for expressing the indirect sound component set by the direct / indirect sound source filter coefficient setting unit 21b reaches the listener (hereinafter referred to as “arrival time of indirect sound component”). Is delayed by a predetermined time from the time until the sound from the reference virtual sound source reaches the listener (hereinafter referred to as “the arrival time of the direct sound component”).

次に、本実施の形態の音像定位装置30の動作について図10〜図12を用いて説明する。図11は、本実施の形態の音像定位装置30の各ステップのフロー図である。図12は、合成フィルタ生成手段33の動作を説明するためのブロック図である。なお、本実施の形態におけるフィルタ係数の設定例については、前述の図8を用いて説明する。   Next, the operation of the sound image localization apparatus 30 according to the present embodiment will be described with reference to FIGS. FIG. 11 is a flowchart of each step of the sound image localization apparatus 30 of the present embodiment. FIG. 12 is a block diagram for explaining the operation of the synthesis filter generation means 33. Note that an example of setting filter coefficients in this embodiment will be described with reference to FIG.

まず、フィルタ係数設定手段31の位置算出部31aによって、入力された位置情報に基づき、受聴者の位置から基準仮想音源までの距離及び角度が算出されることにより基準仮想音源の位置が算出される(ステップS31)。   First, the position calculation unit 31a of the filter coefficient setting unit 31 calculates the position and the angle of the reference virtual sound source by calculating the distance and angle from the position of the listener to the reference virtual sound source based on the input position information. (Step S31).

次いで、直間接音源フィルタ係数設定部31bによって、図8に示すように、位置算出部31aが算出した位置に基準仮想音源71を設けるためのフィルタ係数と、この基準仮想音源71から出力された音が例えば壁や物体に反射して受聴者70の位置に到達するのをモデル化するような2つの位置に仮想音源72及び73を設けるためのフィルタ係数とが設定される(ステップS32)。すなわち、直間接音源フィルタ係数設定部31bは、基準仮想音源71から出力される音のうち、基準仮想音源71から受聴者70に直接届く直接音成分を表現するためのフィルタ係数と、基準仮想音源71から仮想音源72又は73を経由して受聴者70に届く間接音成分を表現するためのフィルタ係数とを設定する。   Next, as shown in FIG. 8, the filter coefficient for providing the reference virtual sound source 71 at the position calculated by the position calculation unit 31 a and the sound output from the reference virtual sound source 71 by the direct / indirect sound source filter coefficient setting unit 31 b. For example, the filter coefficients for providing the virtual sound sources 72 and 73 are set at two positions that model that the light reaches the position of the listener 70 after being reflected by a wall or an object (step S32). That is, the direct / indirect sound source filter coefficient setting unit 31b includes a filter coefficient for expressing a direct sound component that directly reaches the listener 70 from the reference virtual sound source 71 among the sounds output from the reference virtual sound source 71, and a reference virtual sound source. A filter coefficient for expressing an indirect sound component that reaches the listener 70 from 71 via the virtual sound source 72 or 73 is set.

引き続き、直間接音源フィルタ係数設定部31bによって、フィルタ係数記憶手段32に記憶されたフィルタ係数が参照され、設定したフィルタ係数がフィルタ係数記憶手段32に存在するか否かが判断され、その判断結果の情報がフィルタ係数情報として遅延時間設定部31cに出力される(ステップS33)。   Subsequently, the direct / indirect sound source filter coefficient setting unit 31b refers to the filter coefficient stored in the filter coefficient storage unit 32, determines whether the set filter coefficient exists in the filter coefficient storage unit 32, and the determination result. Is output to the delay time setting unit 31c as filter coefficient information (step S33).

なお、以下の説明において、直間接音源フィルタ係数設定部31bは、図8に示すような基準仮想音源71と、仮想音源72及び73とを設けるためのフィルタ係数を設定し、これらのフィルタ係数は、フィルタ係数記憶手段32に予め記憶されているものとする。   In the following description, the direct / indirect sound source filter coefficient setting unit 31b sets filter coefficients for providing the reference virtual sound source 71 and the virtual sound sources 72 and 73 as shown in FIG. It is assumed that the filter coefficient storage means 32 stores in advance.

次いで、遅延時間設定部31cによって、基準仮想音源71による直接音成分の到達時間に対し、仮想音源72及び73による間接音成分の到達時間が所定時間だけ遅延される(ステップS34)。この遅延された時間を示す遅延時間情報は、直間接音源フィルタ係数設定部31bからのフィルタ係数情報に付加されて合成フィルタ生成手段33に出力される(ステップS35)。   Next, the arrival time of the indirect sound component by the virtual sound sources 72 and 73 is delayed by a predetermined time with respect to the arrival time of the direct sound component by the reference virtual sound source 71 by the delay time setting unit 31c (step S34). The delay time information indicating the delayed time is added to the filter coefficient information from the direct / indirect sound source filter coefficient setting unit 31b and output to the synthesis filter generating means 33 (step S35).

引き続き、合成フィルタ生成手段33によって、遅延時間情報を含むフィルタ係数情報に基づき、フィルタ係数記憶手段32に記憶されたフィルタ係数の中から、基準仮想音源71と、仮想音源72及び73とを設けるためのフィルタ係数とが選択され、選択されたフィルタ係数が合成フィルタ生成手段33のメモリにロードされる(ステップS36)。ここで、一般にフィルタ係数は左耳用及び右耳用の2つの組で構成されるので、フィルタ係数設定手段31が3つの位置でフィルタ係数を設定した場合、合成フィルタ生成手段33は、計6個のフィルタ係数をロードすることになる。   Subsequently, the synthesis filter generation unit 33 provides the reference virtual sound source 71 and the virtual sound sources 72 and 73 from the filter coefficients stored in the filter coefficient storage unit 32 based on the filter coefficient information including the delay time information. Are selected, and the selected filter coefficients are loaded into the memory of the synthesis filter generation means 33 (step S36). Here, since the filter coefficients are generally composed of two sets for the left ear and the right ear, when the filter coefficient setting means 31 sets the filter coefficients at three positions, the combined filter generation means 33 has a total of 6 This will load filter coefficients.

さらに、合成フィルタ生成手段33によって、ロードしたフィルタ係数に基づいて合成フィルタが生成される(ステップS37)。ここで、合成フィルタ生成手段33の動作について、図12を用いて具体的に説明する。   Further, the synthesis filter generation unit 33 generates a synthesis filter based on the loaded filter coefficient (step S37). Here, the operation of the synthesis filter generation means 33 will be specifically described with reference to FIG.

図12に示すように、合成フィルタ生成手段33は、まず、直接音成分を表現するためのフィルタ係数33aと、間接音成分を表現するためのフィルタ係数33b及び33cとをフィルタ係数記憶手段32からメモリにロードする。フィルタ係数33aは、左耳用のフィルタ係数であるフィルタ1Lと、右耳用のフィルタ係数であるフィルタ1Rとを有している。また、フィルタ係数33bは、左耳用のフィルタ係数であるフィルタ2Lと、右耳用のフィルタ係数であるフィルタ2Rとを有している。また、フィルタ係数33cは、左耳用のフィルタ係数であるフィルタ3Lと、右耳用のフィルタ係数であるフィルタ3Rとを有している。   As shown in FIG. 12, the synthesis filter generation unit 33 first obtains a filter coefficient 33 a for expressing the direct sound component and filter coefficients 33 b and 33 c for expressing the indirect sound component from the filter coefficient storage unit 32. Load into memory. The filter coefficient 33a includes a filter 1L that is a filter coefficient for the left ear and a filter 1R that is a filter coefficient for the right ear. The filter coefficient 33b includes a filter 2L that is a filter coefficient for the left ear and a filter 2R that is a filter coefficient for the right ear. The filter coefficient 33c includes a filter 3L that is a filter coefficient for the left ear and a filter 3R that is a filter coefficient for the right ear.

次いで、合成フィルタ生成手段33は、遅延時間設定部31cによって設定された遅延時間だけ間接音成分の到達時間を直接音成分の到達時間よりも遅延させるための時間遅延手段33d及び33eを生成する。時間遅延手段33dは、フィルタ2L及び2Rにそれぞれ接続された遅延回路33f及び33gを備えている。また、時間遅延手段33eは、フィルタ3L及び3Rにそれぞれ接続された遅延回路33h及び33iを備えている。   Next, the synthesis filter generation unit 33 generates time delay units 33d and 33e for delaying the arrival time of the indirect sound component from the arrival time of the direct sound component by the delay time set by the delay time setting unit 31c. The time delay means 33d includes delay circuits 33f and 33g connected to the filters 2L and 2R, respectively. The time delay means 33e includes delay circuits 33h and 33i connected to the filters 3L and 3R, respectively.

さらに、合成フィルタ生成手段33は、フィルタ係数33b及び33cに対してそれぞれ時間遅延手段33d及び33eによって所定時間だけ遅延時間を付加する。   Further, the synthesis filter generation unit 33 adds a delay time to the filter coefficients 33b and 33c by a predetermined time by the time delay units 33d and 33e, respectively.

次いで、合成フィルタ生成手段33は、ロードしたフィルタ係数を左耳用と右耳用とに分けて別々に加算する。すなわち、合成フィルタ生成手段33は、加算器33jを用いて左耳用のフィルタ係数であるフィルタ1L、遅延回路33fを通過後のフィルタ2L、遅延回路33hを通過後のフィルタ3Lを加算し、加算器33kを用いて右耳用のフィルタ係数であるフィルタ1R、遅延回路33gを通過後のフィルタ2R、遅延回路33iを通過後のフィルタ3Rを加算する。   Next, the synthesis filter generation unit 33 adds the loaded filter coefficients separately for the left ear and the right ear. That is, the synthesis filter generation unit 33 adds the filter 1L, which is a filter coefficient for the left ear, the filter 2L after passing through the delay circuit 33f, and the filter 3L after passing through the delay circuit 33h, using the adder 33j, and adds Using the filter 33k, the filter 1R which is a filter coefficient for the right ear, the filter 2R after passing through the delay circuit 33g, and the filter 3R after passing through the delay circuit 33i are added.

さらに、合成フィルタ生成手段33は、アッテネータ33l及び33mを用いて左耳用及び右耳用のレベルをそれぞれ所定値に設定し、合成フィルタ33nを生成する。この合成フィルタ33nは、左耳用のフィルタ係数であるフィルタ4Lと、右耳用のフィルタ係数であるフィルタ4Rとを含んでいる。なお、アッテネータ33l及び33mによるレベル調整は、加算器33j及び33kの加算処理の前で行ってもよい。また、アッテネータ33l及び33mは、本発明の音量増減手段を構成している。   Further, the synthesis filter generation means 33 sets the left and right ear levels to predetermined values using the attenuators 33l and 33m, and generates a synthesis filter 33n. The synthesis filter 33n includes a filter 4L that is a filter coefficient for the left ear and a filter 4R that is a filter coefficient for the right ear. The level adjustment by the attenuators 33l and 33m may be performed before the addition processing of the adders 33j and 33k. Further, the attenuators 33l and 33m constitute the volume increasing / decreasing means of the present invention.

続いて、音像定位手段35によって、合成フィルタ33nの係数がメモリにロードされる(ステップS38)。具体的には、音像定位手段35のLch側のメモリには左耳用のフィルタ係数であるフィルタ4Lがロードされ、Rch側のメモリには右耳用のフィルタ係数であるフィルタ4Rがロードされる。   Subsequently, the coefficient of the synthesis filter 33n is loaded into the memory by the sound image localization means 35 (step S38). Specifically, the filter 4L that is the filter coefficient for the left ear is loaded into the Lch side memory of the sound image localization means 35, and the filter 4R that is the filter coefficient for the right ear is loaded into the Rch side memory. .

そして、音像定位手段35によって、入力端子34に入力された音響信号に対して畳み込み処理が実行され、音像定位された音響信号が音像定位手段35からLch出力端子36a及びRch出力端子36bに出力される(ステップS39)。   Then, the sound image localization means 35 performs a convolution process on the acoustic signal input to the input terminal 34, and the sound image localized acoustic signal is output from the sound image localization means 35 to the Lch output terminal 36a and the Rch output terminal 36b. (Step S39).

以上のように、本実施の形態の音像定位装置30によれば、フィルタ係数設定手段31は、直接音成分及び間接音成分を表現するためのフィルタ係数を設定し、合成フィルタ生成手段33は、直接音成分と、直接音成分よりも所定時間だけ到達時間が遅延された間接音成分とを表現するための合成フィルタ33nを生成し、音像定位手段35は、合成フィルタ33nの係数をメモリにロードして直接音成分及び間接音成分を定位処理する構成としたので、仮想空間における音像の距離感を現実空間と同様に再現することができる。   As described above, according to the sound image localization apparatus 30 of the present embodiment, the filter coefficient setting unit 31 sets the filter coefficient for expressing the direct sound component and the indirect sound component, and the synthesis filter generation unit 33 A synthesis filter 33n for expressing the direct sound component and the indirect sound component whose arrival time is delayed by a predetermined time from the direct sound component is generated, and the sound image localization means 35 loads the coefficient of the synthesis filter 33n into the memory. Since the direct sound component and the indirect sound component are localized, the sense of distance of the sound image in the virtual space can be reproduced as in the real space.

また、本実施の形態の音像定位装置30によれば、従来のもののように、想定したすべての距離に対応するフィルタを予め用意したり、高速な演算処理装置を設けたりする必要がないので、従来のものよりも製造コストを低減することができる。   Further, according to the sound image localization apparatus 30 of the present embodiment, it is not necessary to prepare filters corresponding to all assumed distances in advance or to provide a high-speed arithmetic processing apparatus, unlike the conventional one. The manufacturing cost can be reduced as compared with the conventional one.

さらに、本実施の形態の音像定位装置30によれば、音像定位処理を行う前に合成フィルタ生成手段33が合成フィルタ33nを一度生成するだけで直接音成分及び間接音成分を定位処理することができるので、直接音成分だけを音像定位処理する従来のものと同じ演算量で、仮想空間における音像の距離感を現実空間と同様に再現することができる。   Furthermore, according to the sound image localization apparatus 30 of the present embodiment, the direct sound component and the indirect sound component can be localized by the synthesis filter generation means 33 generating the synthesis filter 33n once before performing the sound image localization processing. Therefore, the sense of distance of the sound image in the virtual space can be reproduced in the same manner as in the real space with the same amount of computation as that of the conventional method that performs sound image localization processing on only the direct sound component.

以上のように、本発明に係る音像定位装置は、従来のものよりも低コストで仮想空間における音像の距離感を現実空間と同様に再現することができるという効果を有し、音像を定位させる音像定位装置等として有用である。   As described above, the sound image localization apparatus according to the present invention has an effect that the sense of distance of the sound image in the virtual space can be reproduced in the same manner as the real space at a lower cost than the conventional one, and the sound image is localized. It is useful as a sound image localization device.

本発明の第1の実施の形態に係る音像定位装置のブロック図1 is a block diagram of a sound image localization apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る音像定位装置の各ステップのフロー図The flowchart of each step of the sound image localization apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るフィルタ係数の設定例を示す説明図 (a)基準仮想音源から等間隔の位置にフィルタ係数を設定する例を示す図 (b)基準仮想音源に対して等角度でフィルタ係数を設定する例を示す図Explanatory drawing which shows the example of a setting of the filter coefficient which concerns on the 1st Embodiment of this invention (a) The figure which shows the example which sets a filter coefficient in the position of equal intervals from a reference | standard virtual sound source (b) With respect to a reference | standard virtual sound source The figure which shows the example which sets a filter coefficient by equiangularity 本発明の第1の実施の形態に係る音像定位装置が基準仮想音源の位置に応じてフィルタ係数を設定する例を示す図The figure which shows the example which the sound image localization apparatus which concerns on the 1st Embodiment of this invention sets a filter coefficient according to the position of a reference | standard virtual sound source. 本発明の第1の実施の形態に係る音像定位装置の合成フィルタ生成手段のブロック図The block diagram of the synthetic | combination filter production | generation means of the sound image localization apparatus which concerns on the 1st Embodiment of this invention 本発明の第2の実施の形態に係る音像定位装置のブロック図Block diagram of a sound image localization apparatus according to a second embodiment of the present invention 本発明の第2の実施の形態の音像定位装置の各ステップのフロー図Flow chart of each step of the sound image localization apparatus of the second embodiment of the present invention 本発明の第2及び第3の実施の形態に係るフィルタ係数の設定例を示す説明図Explanatory drawing which shows the example of a setting of the filter coefficient which concerns on the 2nd and 3rd embodiment of this invention. 本発明の第2の実施の形態に係る音像定位装置の合成フィルタ生成手段のブロック図The block diagram of the synthetic | combination filter production | generation means of the sound image localization apparatus which concerns on the 2nd Embodiment of this invention 本発明の第3の実施の形態に係る音像定位装置のブロック図Block diagram of a sound image localization apparatus according to a third embodiment of the present invention 本発明の第3の実施の形態の音像定位装置の各ステップのフロー図Flow chart of each step of sound image localization apparatus of third embodiment of the present invention 本発明の第3の実施の形態に係る音像定位装置の合成フィルタ生成手段のブロック図The block diagram of the synthetic | combination filter production | generation means of the sound image localization apparatus which concerns on the 3rd Embodiment of this invention 従来の音像定位装置のブロック図Block diagram of a conventional sound localization device 従来の音像定位装置のブロック図Block diagram of a conventional sound localization device

符号の説明Explanation of symbols

10、20、30 音像定位装置
11、21、31 フィルタ係数設定手段(仮想音源設定手段)
11a、21a、31a 位置算出部
11b フィルタ係数設定部
12、22、32 フィルタ係数記憶手段
13、23、33 合成フィルタ生成手段
13a、13b、23a〜23c、33a〜33c フィルタ係数
13c、13d、23d、23e、33j、33k 加算器
13e、13f、23f、23g アッテネータ
13g、23h、33n 合成フィルタ
14、24、34 入力端子
15、25、35 音像定位手段
16a、26a、36a Lch出力端子
16b、26b、36b Rch出力端子
21b、31b 直間接音源フィルタ係数設定部
31c 遅延時間設定部
33d、33e 時間遅延手段
33f〜33i 遅延回路
33l、33m アッテネータ(音量増減手段)
50、70 受聴者
51、61、65、71 基準仮想音源
52、53、62、63、66、67、72、73 仮想音源
54、64、68 合成音像
10, 20, 30 Sound image localization device 11, 21, 31 Filter coefficient setting means (virtual sound source setting means)
11a, 21a, 31a Position calculation unit 11b Filter coefficient setting unit 12, 22, 32 Filter coefficient storage unit 13, 23, 33 Synthetic filter generation unit 13a, 13b, 23a-23c, 33a-33c Filter coefficient 13c, 13d, 23d, 23e, 33j, 33k Adders 13e, 13f, 23f, 23g Attenuators 13g, 23h, 33n Synthesis filters 14, 24, 34 Input terminals 15, 25, 35 Sound image localization means 16a, 26a, 36a Lch output terminals 16b, 26b, 36b Rch output terminals 21b, 31b Direct / direct sound source filter coefficient setting unit 31c Delay time setting unit 33d, 33e Time delay means 33f-33i Delay circuit 33l, 33m Attenuator (volume increase / decrease means)
50, 70 Listeners 51, 61, 65, 71 Reference virtual sound source 52, 53, 62, 63, 66, 67, 72, 73 Virtual sound source 54, 64, 68 Synthetic sound image

Claims (6)

予め定められた基準仮想音源の位置から所定の距離だけ離れた複数の位置にそれぞれ仮想音源を設定する仮想音源設定手段と、前記複数の仮想音源によって合成された合成音像を所定の位置に定位させる合成フィルタを生成する合成フィルタ生成手段とを備え、
前記仮想音源設定手段は、前記基準仮想音源から受聴者の位置までの距離に応じて前記基準仮想音源から前記複数の仮想音源までのそれぞれの距離を設定することを特徴とする音像定位装置。
Virtual sound source setting means for setting a virtual sound source at a plurality of positions separated from a predetermined reference virtual sound source position by a predetermined distance, and a synthesized sound image synthesized by the plurality of virtual sound sources is localized at a predetermined position. A synthesis filter generating means for generating a synthesis filter;
The sound source localization apparatus, wherein the virtual sound source setting means sets each distance from the reference virtual sound source to the plurality of virtual sound sources according to a distance from the reference virtual sound source to a listener's position.
前記合成音像が定位される前記所定の位置は、前記基準仮想音源の位置であることを特徴とする請求項1に記載の音像定位装置。 The sound image localization apparatus according to claim 1, wherein the predetermined position where the synthesized sound image is localized is a position of the reference virtual sound source. フィルタ係数を記憶するフィルタ係数記憶手段を備え、
前記合成フィルタ生成手段は、前記フィルタ係数記憶手段に記憶された前記フィルタ係数の中から前記複数の仮想音源を生成するためのフィルタ係数を選択することを特徴とする請求項1又は請求項2に記載の音像定位装置。
A filter coefficient storage means for storing the filter coefficient;
The said synthetic | combination filter production | generation means selects the filter coefficient for producing | generating this several virtual sound source from the said filter coefficient memorize | stored in the said filter coefficient memory | storage means, The Claim 1 or Claim 2 characterized by the above-mentioned. The sound image localization apparatus described.
前記仮想音源設定手段は、前記基準仮想音源から前記受聴者の位置までの距離が遠くなるに従って前記基準仮想音源から前記複数の仮想音源までのそれぞれの距離を遠くすることを特徴とする請求項1から請求項3までのいずれか1項に記載の音像定位装置。 The virtual sound source setting means increases the distance from the reference virtual sound source to the plurality of virtual sound sources as the distance from the reference virtual sound source to the position of the listener increases. The sound image localization apparatus according to any one of claims 1 to 3. 前記仮想音源設定手段は、前記複数の仮想音源の位置に加えて、前記基準仮想音源の位置に仮想音源を設定することを特徴とする請求項1から請求項4までのいずれか1項に記載の音像定位装置。 5. The virtual sound source setting unit sets a virtual sound source at a position of the reference virtual sound source in addition to the positions of the plurality of virtual sound sources. 6. Sound image localization device. 前記合成フィルタ生成手段は、前記基準仮想音源によって出力された音が前記基準仮想音源から前記受聴者の位置までに到達する到達時間を遅延させる時間遅延手段と、前記音の音量を増減させる音量増減手段とを備えたことを特徴とする請求項5に記載の音像定位装置。 The synthesis filter generation means includes a time delay means for delaying an arrival time for the sound output from the reference virtual sound source to reach the listener's position, and a volume increase / decrease for increasing / decreasing the sound volume. The sound image localization apparatus according to claim 5, further comprising: means.
JP2005205529A 2005-07-14 2005-07-14 Sound image localization apparatus Pending JP2007028053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005205529A JP2007028053A (en) 2005-07-14 2005-07-14 Sound image localization apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005205529A JP2007028053A (en) 2005-07-14 2005-07-14 Sound image localization apparatus

Publications (1)

Publication Number Publication Date
JP2007028053A true JP2007028053A (en) 2007-02-01

Family

ID=37788244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005205529A Pending JP2007028053A (en) 2005-07-14 2005-07-14 Sound image localization apparatus

Country Status (1)

Country Link
JP (1) JP2007028053A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228155A (en) * 2007-03-15 2008-09-25 Oki Electric Ind Co Ltd Sound image localization processor, method, and program
JP2012065264A (en) * 2010-09-17 2012-03-29 Denso Corp Stereoscopic sound field generating apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008228155A (en) * 2007-03-15 2008-09-25 Oki Electric Ind Co Ltd Sound image localization processor, method, and program
JP2012065264A (en) * 2010-09-17 2012-03-29 Denso Corp Stereoscopic sound field generating apparatus

Similar Documents

Publication Publication Date Title
JP7367785B2 (en) Audio processing device and method, and program
JP5114981B2 (en) Sound image localization processing apparatus, method and program
US8254583B2 (en) Method and apparatus to reproduce stereo sound of two channels based on individual auditory properties
JP4501559B2 (en) Directivity control method of speaker device and audio reproducing device
US8873761B2 (en) Audio signal processing device and audio signal processing method
JP4913140B2 (en) Apparatus and method for controlling multiple speakers using a graphical user interface
CN108781341B (en) Sound processing method and sound processing device
JP4745392B2 (en) Apparatus and method for controlling a plurality of speakers by a DSP
US8041040B2 (en) Sound image control apparatus and sound image control method
JP2008522483A (en) Apparatus and method for reproducing multi-channel audio input signal with 2-channel output, and recording medium on which a program for doing so is recorded
JP4887290B2 (en) Sound image localization controller
US9226091B2 (en) Acoustic surround immersion control system and method
JP2006033847A (en) Sound-reproducing apparatus for providing optimum virtual sound source, and sound reproducing method
JP5206137B2 (en) SOUND PROCESSING DEVICE, SPEAKER DEVICE, AND SOUND PROCESSING METHOD
JP2007329631A (en) Acoustic correction device
JP5505395B2 (en) Sound processor
JP2007028053A (en) Sound image localization apparatus
JP5651813B1 (en) Audio signal processing apparatus and audio signal processing method
JP2007336080A (en) Sound compensation device
US11917393B2 (en) Sound field support method, sound field support apparatus and a non-transitory computer-readable storage medium storing a program
JP2008154082A (en) Sound field reproducing device
JP2007202021A (en) Audio signal processing apparatus, audio signal processing system, and program
JP5866883B2 (en) Speaker device
JP2009010475A (en) Speaker array system, signal processing method, and program
KR20210151792A (en) Information processing apparatus and method, reproduction apparatus and method, and program