JPH09191500A - Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it - Google Patents

Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it

Info

Publication number
JPH09191500A
JPH09191500A JP8254998A JP25499896A JPH09191500A JP H09191500 A JPH09191500 A JP H09191500A JP 8254998 A JP8254998 A JP 8254998A JP 25499896 A JP25499896 A JP 25499896A JP H09191500 A JPH09191500 A JP H09191500A
Authority
JP
Japan
Prior art keywords
transfer function
acoustic
acoustic transfer
sound source
image localization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8254998A
Other languages
Japanese (ja)
Inventor
Ikuichirou Kinoshita
郁一郎 木下
Shigeaki Aoki
茂明 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8254998A priority Critical patent/JPH09191500A/en
Publication of JPH09191500A publication Critical patent/JPH09191500A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)
  • Stereophonic Arrangements (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain localization of sound image onto an object position for lots of unspecified listeners by deciding an acoustic transfer function as to an object sound source position based on a major component among measured acoustic transfer function. SOLUTION: Data obtained by measuring left/right ears of plural reagents by changing a sound source position are stored in a measurement data storage section 26. A major component analysis section 27A of an arithmetic processing section 27 analyzes the sound transfer functions stored in the storage section 26 to obtain a weight vector corresponding to each sound transfer function. Then a representative value selection section 27B is used to obtain a scale between a center vector of weight vectors and each weight vector and a sound transfer function corresponding to the weight vector minimizing the distance scale is used for a representative value for the sound source position. Then an inverse convolution section 27C uses the decided representative value as a virtual sound image localization acoustic transfer function to write it to a transfer function representation storage section 24 to generate a virtual sound image localization transfer function table.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、音像定位制御に
使用される音響伝達関数表の作成方法、及びその表を記
憶した記憶媒体、及びその表を使った音響信号編集方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of creating an acoustic transfer function table used for sound image localization control, a storage medium storing the table, and an acoustic signal editing method using the table.

【0002】[0002]

【従来の技術】良好な音質で音楽を楽しめるCDが普及
して久しい。音楽、音声、音響情報、その他の音響サー
ビスを記憶媒体から、あるいはネットワークを通して提
供する場合、音源からの音響情報を処理しないでそのま
ま提供してヘッドホン又はスピーカから再生するのでは
なく、音量調整、ミキシング、残響付加、等の音響処理
を施してから受聴者に提供することは従来から行われて
きた。そのような音響処理の一形態として、音を所望の
位置に定位させる音像定位技術の利用は音響効果を付与
する処理技術としてまだ新しい。この技術を利用して、
音源が実在しない場所へ音を受聴者に知覚させることが
可能になる。例えば、ヘッドホンを用いて音を受聴させ
る場合(両耳受聴、バイノーラル受聴)でも、受聴者の
後方であたかも会話がなされているように知覚させるこ
とができる。あるいは、乗り物が目前を通過する音を模
擬する事もできる。
2. Description of the Related Art It has been a long time since a CD for enjoying music with good sound quality has spread. When providing music, voice, audio information, and other audio services from a storage medium or through a network, the audio information from the sound source is not directly provided and played back from headphones or speakers, but volume adjustment and mixing are performed. It has been conventionally practiced to provide a listener with sound after reverberation is added. As one form of such acoustic processing, the use of a sound image localization technique for locating a sound at a desired position is still new as a processing technique for imparting an acoustic effect. Utilizing this technology,
It is possible for the listener to perceive the sound in a place where the sound source does not actually exist. For example, even when a sound is heard using headphones (binaural listening, binaural listening), it can be perceived as if a conversation is being made behind the listener. Alternatively, it is possible to simulate the sound of a vehicle passing in front of you.

【0003】音楽CDなどのソフト制作以外の分野にお
いても、音像定位技術の新しい応用が展開している。仮
想現実感、サイバースペースなどにおける要求技術とし
て音像定位技術の利用が試みられている。また、身近な
音像定位技術の応用例として、ゲームにおける効果音が
挙げられる。このような音像定位処理された音響信号の
提供は、音像定位処理された音響信号を半導体ROM,
CD,MD,MTなどの記憶媒体に記録しておき、それ
を再生して利用者に提供するか、あるいは音源からの音
響信号をリアルタイムで音像定位処理して利用者に提供
する。
New applications of sound image localization technology are being developed in fields other than software production such as music CDs. Attempts have been made to use sound image localization technology as a required technology in virtual reality and cyberspace. In addition, sound effects in games are given as an example of familiar sound image localization technology applications. The provision of such an acoustic signal subjected to the sound image localization processing is performed by converting the acoustic signal subjected to the sound image localization processing into a semiconductor ROM,
It is recorded in a storage medium such as a CD, MD, or MT and then reproduced and provided to the user, or an acoustic signal from a sound source is subjected to sound image localization processing in real time and provided to the user.

【0004】音像定位とは、聴取した音の位置を受聴者
が判断することである。通例、音源位置と判断された位
置とは一致する。しかし、ヘッドホンなどを用いて再生
した場合(両耳受聴)でも、所望の目的位置へ音を受聴
者に知覚させることが可能である。基本原理は所望の目
的位置に設置された音源による音刺激を受聴者の両耳鼓
膜直近において模擬することにある。実現のためには、
この目的位置から受聴者の各耳までの音響伝達特性を反
映する係数を音響信号に各々畳込み演算したうえで再生
することが提案されてきた。その方法を以下に説明す
る。
The sound image localization means that the listener determines the position of the sound that is heard. Generally, the position determined as the sound source position matches. However, even when the sound is reproduced using headphones (binaural listening), it is possible for the listener to perceive the sound at a desired target position. The basic principle is to simulate sound stimulation by a sound source installed at a desired target position in the immediate vicinity of the eardrum of the listener. For realization,
It has been proposed that a coefficient that reflects the acoustic transfer characteristic from the target position to each ear of the listener is convolved with each acoustic signal before being reproduced. The method will be described below.

【0005】図1Aは1個の音源(スピーカ)11を用
いて音を再生する状況を示す。音源11に与えられる音
響信号をx(t)、音源11から受聴者12の左右各耳13
L,13Rの鼓膜直近までの間の音響伝達特性(頭部伝
達関数{Head Related Transfer Function}と称され
る)を各々hl(t),hr(t)と時刻tの関数で表わすことに
する。このとき、鼓膜直近における音響刺激は左右それ
ぞれ x(t)*hl(t) (1a) x(t)*hr(t) (1b) となる。記号*は畳込み演算を示す。伝達特性hl(t),h
r(t)は時間関数であるインパルス応答で表される。現実
的なディジタル音響信号処理においては、サンプリング
周期間隔の所定数の係数からなる係数列で与えられる。
FIG. 1A shows a situation in which sound is reproduced using one sound source (speaker) 11. The sound signal given to the sound source 11 is x (t), and the left and right ears 13 of the listener 12 from the sound source 11
Express the acoustic transfer characteristics (called head related transfer function {Head Related Transfer Function}) of L and 13R up to near the eardrum as functions of h l (t), h r (t) and time t, respectively. To In this case, the acoustic stimuli in the eardrum recently become the left and right x (t) * h l ( t) (1a) x (t) * h r (t) (1b). The symbol * indicates a convolution operation. Transfer characteristics h l (t), h
r (t) is represented by the impulse response which is a time function. In practical digital audio signal processing, it is given by a coefficient string consisting of a predetermined number of coefficients at sampling cycle intervals.

【0006】一方、図1Bはヘッドホン15等を用いて
左右各耳13L,13Rにおいて音を提示する状況(以
下、両耳受聴と称す)を示す。このとき、左右各耳13
L,13Rにおけるヘッドホン15等から鼓膜直近まで
の音響伝達特性(以下、外耳道伝達関数{Ear Canal Tr
ansfer Function }と称す)は各々el(t),er(t)とな
る。ここで、ヘッドホン15等で音を再生する前段に音
響信号x(t)に伝達特性が各々sl(t),sr(t)となる係数列
を左右畳込部16L,16Rでそれぞれ畳込み演算す
る。このとき、鼓膜直近における音響刺激は左右それぞ
れ x(t)*sl(t)*el(t) (2a) x(t)*sr(t)*er(t) (2b) となる。ここに、畳込み係数列sl(t),sr(t)を sl(t)=hl(t)/el(t) (3a) sr(t)=hr(t)/er(t) (3b) と定める。但し、記号/は逆畳込み演算を示す。式(1a)
と式(2a)、式(1b)と式(2b)は各々等しくなるため、図1
Aにおける音源11による音刺激が受聴者12の鼓膜直
近において模擬される。このとき、受聴者12は図1A
における音源11の位置に音像17を定位する。つま
り、目的位置に設置された音源(以下、目的音源と称
す)11による音刺激を受聴者12の鼓膜直近において
模擬することによって、受聴者12にその目的位置へ音
像17を定位させることが可能となる。
On the other hand, FIG. 1B shows a situation in which sound is presented in the left and right ears 13L and 13R by using the headphones 15 and the like (hereinafter referred to as binaural listening). At this time, the left and right ears 13
Acoustic transfer characteristics from the headphones 15 etc. to the immediate vicinity of the eardrum in L and 13R (hereinafter referred to as the ear canal transfer function {Ear Canal Tr
ansfer Function}) becomes e l (t) and e r (t), respectively. Here, before the sound is reproduced by the headphones 15 and the like, coefficient sequences having transfer characteristics s l (t) and s r (t) for the acoustic signal x (t) are folded by the left and right convolution units 16L and 16R, respectively. Performs a calculation. At this time, the acoustic stimuli in the immediate vicinity of the eardrum are x (t) * s l (t) * e l (t) (2a) x (t) * s r (t) * e r (t) (2b), respectively. Become. Here, the convolution coefficient sequences s l (t) and s r (t) are given as s l (t) = h l (t) / e l (t) (3a) s r (t) = h r (t) / e r (t) (3b) However, the symbol / indicates an inverse convolution operation. Formula (1a)
Since equation (2a) and equation (1b) and equation (2b) are the same,
The sound stimulation by the sound source 11 in A is simulated in the immediate vicinity of the eardrum of the listener 12. At this time, the listener 12 is shown in FIG.
The sound image 17 is localized at the position of the sound source 11 at. That is, it is possible to cause the listener 12 to localize the sound image 17 to the target position by simulating the sound stimulation by the sound source 11 (hereinafter referred to as the target sound source) 11 installed at the target position in the immediate vicinity of the eardrum of the listener 12. Becomes

【0007】前記の畳込み演算に用いられる係数列s
l(t),sr(t)は、頭外音像定位伝達関数(Sound Localiza
tion Transfer Function)と称され、外耳道伝達関数e
l(t),er(t) が補正された頭部伝達関数hl(t),hr(t)と
もみなせる。上記のように頭外音像定位伝達関数s
l(t),sr(t)を畳込み係数列として用いることによっ
て、頭部伝達関数hl(t),hr(t)のみを畳込み係数列とし
て用いる場合よりも音刺激の模擬が忠実になる。S.Shim
ada and S.Hayashi の文献FASE'92 Proceeding 157, 19
92によれば、頭外音像定位伝達関数を用いた場合に受聴
者が目的位置への音像定位を確実に行うことが確かめら
れている。
Coefficient sequence s used in the above convolution operation
l (t) and s r (t) are out-of-head sound localization transfer functions (Sound Localiza
transfer function), which is the transfer function of the ear canal.
It can be regarded as a head-related transfer function h l (t), h r (t) in which l (t) and e r (t) are corrected. As described above, the out-of-head sound localization transfer function s
By using l (t) and s r (t) as the convolution coefficient sequence, it is possible to simulate sound stimulation more than when only the head related transfer functions h l (t) and h r (t) are used as the convolution coefficient sequence. Become faithful. S.Shim
References by ada and S. Hayashi FASE'92 Proceeding 157, 19
According to 92, it has been confirmed that the listener surely performs sound image localization to the target position when using the out-of-head sound image localization transfer function.

【0008】更に、目的音源11への入力音響信号x(t)
に対する音響出力特性(以下、音源特性と称す)sp(t)
を考慮して頭外音像定位伝達関数sl(t),sr(t)を sl(t)=hl(t)/{sp(t)*el(t)} (3a') sr(t)=hr(t)/{sp(t)*er(t)} (3b') と定めれば、目的音源の出力特性sp(t) に依存しない頭
外音像定位伝達関数が得られる。
Further, the input acoustic signal x (t) to the target sound source 11
Sound output characteristics (hereinafter referred to as sound source characteristics) for s p (t)
Taking into account the out-of-head sound localization transfer functions s l (t) and s r (t), s l (t) = h l (t) / {s p (t) * e l (t)} (3a ' ) s r (t) = h r (t) / {s p (t) * e r (t)} (3b '), the out-of-head which does not depend on the output characteristic s p (t) of the target sound source The sound image localization transfer function is obtained.

【0009】或いは、図2に示すように、入力された1
チャネルの音響信号x(t)を左右分岐した後で、畳込み部
16HL,16HR及び逆畳込み部16EL,16ERによりその音響信号
x(t)に頭部伝達関数hl(t),hr(t)による畳込み演算と、
係数el(t),er(t)又はsp(t)*el(t),sp(t)*er(t)を用い
た逆畳込み演算とを次式 x(t)*hl(t)/el(t) (2a') x(t)*hr(t)/er(t) (2b') x(t)*hl(t)/{sp(t)*el(t)} (3a") x(t)*hr(t)/{sp(t)*er(t)} (3b") のように左右各々直列に実行しても、目的音源による音
刺激が受聴者の鼓膜直近において模擬され、受聴者は当
該目的位置に音を定位することができる。
Alternatively, as shown in FIG.
After convolving the acoustic signal x (t) of the channel to the left and right,
16HL, 16HR and deconvolution section 16EL, 16ER
The convolution operation of x (t) with the head related transfer functions h l (t) and h r (t),
The deconvolution operation using the coefficients e l (t), e r (t) or s p (t) * e l (t), s p (t) * e r (t) and the following equation x (t ) * h l (t) / e l (t) (2a ') x (t) * h r (t) / e r (t) (2b') x (t) * h l (t) / {s p (t) * e l (t)} (3a ") x (t) * h r (t) / {s p (t) * e r (t)} (3b") Even if executed, the sound stimulation by the target sound source is simulated in the immediate vicinity of the eardrum of the listener, and the listener can localize the sound at the target position.

【0010】他方、図3に示すように受聴者から離れた
左右の位置にそれぞれスピーカ11L,11Rを設置
し、これらを用いて音を提示する系(トランスオーラル
系と称される)を構成した場合でも、目的音源による音
刺激を受聴者の鼓膜直近において再現すれば、受聴者に
当該目的位置へ音像定位させることが可能になる。例え
ば、図2において左右の音の提示に用いられる音源(以
下、実音源と称す)11L,11Rから左右各耳13
L,13Rの鼓膜直近までの音響伝達特性をそれぞれe
ll(t),elr(t),erl(t),err(t)とする。但し、添え字
l,rは各々左、右を示す。例えばell(t)は左側音源1
1Lから左耳13Lの鼓膜直近までの音響伝達特性を表
す。ここに、音源11L,11Rで音を再生する前段に
おいて畳込み部16L,16Rで各々伝達特性を表す係
数列gl(t),gr(t)を畳込み演算する。このとき、鼓膜直
近における音響刺激は左右それぞれ x(t)*{gl(t)*ell(t)+gr(t)*erl(t)} (4a) x(t)*{gr(t)*err(t)+gl(t)*elr(t)} (4b) となる。ここで、目的音源による音響刺激を受聴者左右
各耳の鼓膜直近において再現するために、式(1a)と式(4
a)、式(1b)と式(4b)を各々等置することによって伝達特
性gl(t),gr(t)を定める。即ち、伝達特性gl(t),gr(t)
は gl(t)=Δhl(t)/Δe (5a) gr(t)=Δhr(t)/Δe (5b) と決定される。但し、 Δhl(t)=err(t)*hl(t)−erl(t)*hr(t) Δhr(t)=ell(t)*hr(t)−elr(t)*hl(t) Δe(t)=ell(t)*err(t)−elr(t)*erl(t) と定めた。式(3a'),(3b')と同様に目的音源特性sp(t)
を考慮すれば、伝達特性gl(t),gr(t)は gl(t)=Δhl(t)/{sp(t)*Δe(t)} (5a') gr(t)=Δhr(t)/{sp(t)*Δe(t)} (5b') となる。
On the other hand, as shown in FIG. 3, speakers 11L and 11R are respectively installed at left and right positions apart from the listener, and a system for presenting sounds (called a transaural system) is constructed by using these speakers. Even in this case, if the sound stimulus by the target sound source is reproduced in the immediate vicinity of the eardrum of the listener, it is possible for the listener to localize the sound image to the target position. For example, in FIG. 2, from the sound sources (hereinafter referred to as real sound sources) 11L and 11R used for presenting the left and right sounds to the left and right ears 13 respectively.
Sound transmission characteristics of L and 13R up to the eardrum
Let ll (t), e lr (t), e rl (t), and e rr (t). However, the subscripts l and r indicate left and right, respectively. For example, e ll (t) is left sound source 1
The sound transfer characteristics from 1 L to the eardrum 13 L of the left ear are shown. Here, in the previous stage where the sound is reproduced by the sound sources 11L and 11R, the convolution units 16L and 16R perform convolution calculation on the coefficient sequences g l (t) and g r (t), which represent the transfer characteristics. At this time, the acoustic stimuli in the immediate vicinity of the eardrum are x (t) * {g l (t) * e ll (t) + g r (t) * e rl (t)} (4a) x (t) * {g r (t) * e rr (t) + g l (t) * e lr (t)} (4b). Here, in order to reproduce the acoustic stimulation by the target sound source in the immediate vicinity of the eardrum of the left and right ears of the listener, Equation (1a) and Equation (4)
a), Equation (1b) and Equation (4b) are equalized to determine transfer characteristics g l (t) and g r (t). That is, the transfer characteristics g l (t), g r (t)
Is determined as g l (t) = Δh l (t) / Δe (5a) g r (t) = Δh r (t) / Δe (5b). Where Δh l (t) = e rr (t) * h l (t) −e rl (t) * h r (t) Δh r (t) = e ll (t) * h r (t) −e lr (t) * h l (t) Δe (t) = e ll (t) * e rr (t) −e lr (t) * e rl (t). Formula (3a '), (3b' ) in the same manner as the target sound source characteristic s p (t)
, The transfer characteristics g l (t) and g r (t) are g l (t) = Δh l (t) / {s p (t) * Δe (t)} (5a ') g r ( t) = Δh r (t) / {s p (t) * Δe (t)} (5b ').

【0011】図2の両耳受聴の場合と同様に、入力され
た1チャネルの音響信号x(t)を左右分岐した後で、畳込
み部16L、16Rにおいてその音響信号に係数Δh
l(t) 及びΔhr(t) を各々畳込み演算し、更にそれぞれ
係数Δe(t)又はsp(t)*Δe のどちらかを用いて逆畳込み
演算を行う。この場合も式(3a),(3b) 又は式(5a'),(5
b')を用いた場合と同様な目的音源による音刺激を受聴
者各耳の鼓膜直近において模擬できる。つまり、受聴者
に当該目的位置へ音像定位させることが可能になる。
As in the case of the binaural listening of FIG. 2, after the input one-channel acoustic signal x (t) is branched into left and right, the coefficients Δh are added to the acoustic signals in the convolution units 16L and 16R.
l a (t) and Delta] h r (t) respectively and convolution operation, performs deconvolution calculation using either further respective coefficients .DELTA.e (t) or s p (t) * Δe. Also in this case, equations (3a) and (3b) or equations (5a ') and (5
Similar to the case of using b '), the sound stimulation by the target sound source can be simulated near the eardrum of each ear of the listener. That is, it is possible for the listener to localize the sound image to the target position.

【0012】従って、例えば図1Aのシステムにおいて
予め受聴者に対し所定の方向θで所定の距離dに音源を
配置した場合の例えば式(3a),(3b)或いは(3a'),(3b')の
伝達関数を測定しておき、その伝達関数を例えば図1B
の再生システムにおける音源信号x(t)に対し、それら伝
達関数をフィルタ16L,16Rにより畳み込んで得た
信号をヘッドホン14L,14Rに与えることにより、
受聴者は音を目的音源位置に定位できることが知られて
いる(例えば島田、林;電気通信学会技術報告、EA-11,
1992、及び島田、他;電気通信学会技術報告、EA-93-
1, 1993)。そこで、例えば図1Aにおいて予め一定角
度間隔で所望の角度範囲に渡って式(3a),(3b)或いは(3
a'),(3b')による伝達関数の組を全て測定して表として
ROM,CD,MD,MTのような記憶媒体に記憶して
おく。図1Bの再生システムにおいて、時間と共に変化
する目的位置θに対応した伝達関数の組を記憶媒体の表
から読み出してフィルタ16L,16Rに設定する。こ
のとき、音像位置を時間と共に変化させることができ
る。
Therefore, for example, in the system of FIG. 1A, when a sound source is arranged in advance in a predetermined direction θ with respect to a listener at a predetermined distance d, for example, equations (3a), (3b) or (3a '), (3b') are used. ) Is measured, and the transfer function is measured, for example, in FIG. 1B.
The sound source signal x (t) in the reproduction system of 1 is given to the headphones 14L, 14R by giving the signals obtained by convolving the transfer functions by the filters 16L, 16R,
It is known that the listener can localize the sound to the target sound source position (eg Shimada, Hayashi; IEICE technical report, EA-11,
1992, and Shimada, et al .; IEICE Technical Report, EA-93-
1, 1993). Therefore, for example, in FIG. 1A, the equations (3a), (3b) or (3
All the sets of transfer functions according to a ') and (3b') are measured and stored as a table in a storage medium such as ROM, CD, MD, MT. In the reproducing system of FIG. 1B, a set of transfer functions corresponding to the target position θ that changes with time is read from the table of the storage medium and set in the filters 16L and 16R. At this time, the sound image position can be changed with time.

【0013】一般に音響伝達特性は受聴者本人の耳介、
頭部、体躯による音波の散乱を反映する。目的位置と受
聴者位置が同一であっても、受聴者によって音響伝達特
性は異なる。特に、耳介の形状における顕著な個人差に
よる影響が大きいといわれる。そのため、他の受聴者に
よる音響伝達特性を用いた場合には、所望の目的位置へ
の音像定位は保障されない。従って各受聴者毎に測定さ
れた頭部伝達関数hl(t),hr(t)、頭外音像定位伝達関数
sl(t),sr(t)、又は伝達特性gl(t),gr(t)(以下、音響
伝達関数と総称する)を用いなければ、左右各耳におけ
る忠実な音刺激の模擬はできない。
Generally, the acoustic transfer characteristics are as follows:
Reflects the scattering of sound waves by the head and body. Even if the target position and the listener position are the same, the acoustic transfer characteristics differ depending on the listener. In particular, it is said that the influence of remarkable individual differences in the shape of the pinna is large. Therefore, when the sound transfer characteristics of other listeners are used, sound image localization to a desired target position is not guaranteed. Therefore, the head-related transfer functions h l (t), h r (t) and the out-of-head sound localization transfer function measured for each listener
If s l (t), s r (t) or transfer characteristics g l (t) and g r (t) (hereinafter collectively referred to as acoustic transfer function) are not used, the faithful sound stimulus in each left and right ear It cannot be simulated.

【0014】[0014]

【発明が解決しようとする課題】しかし、各受聴者及び
各目的音源位置毎に音響伝達関数を測定することは非現
実的である。現実的には、各音源位置θについて左右1
組の音響伝達関数を代表させることが望ましい。そこ
で、疑似頭を用いて測定された音響伝達関数(D.W.Bega
ult, "3D-SOUND,"1994)、又はある1名の被験者によっ
て測定された音響伝達関数(E.M.Wensel et al, "Local
ization using nonindividualized head-related trans
fer functions," Journal of the Acoustical Society
of America 94(1),111)が用いられてきた。しかし、音
響伝達関数の代表値の決定に当たり定量的な検討が欠け
ていた。島田らは定量的に同一音源位置θにつき数組の
頭外音像定位伝達関数を予め準備することを提案した
(S.Shimada et al, "A Clustering Method for Sound
Localization Function," Journal of the Audio Engin
eering Society 42(7/8),577)。その場合でも、各目的
位置について最もこれに近接した位置への定位を可能に
する頭外音像定位伝達関数を受聴者自身が選択する必要
性が残されている。
However, it is unrealistic to measure the acoustic transfer function for each listener and each target sound source position. Realistically, left and right 1 for each sound source position θ
It is desirable to represent a set of acoustic transfer functions. Therefore, the acoustic transfer function (DWBega
ult, "3D-SOUND," 1994), or the acoustic transfer function measured by one subject (EMWensel et al, "Local
ization using nonindividualized head-related trans
fer functions, "Journal of the Acoustical Society
of America 94 (1), 111) have been used. However, quantitative determination was lacking in determining the representative value of the acoustic transfer function. Shimada et al. Proposed to quantitatively prepare several sets of out-of-head sound localization transfer functions for the same sound source position θ (S. Shimada et al, "A Clustering Method for Sound
Localization Function, "Journal of the Audio Engin
eering Society 42 (7/8), 577). Even in that case, it is still necessary for the listener to select an out-of-head sound image localization transfer function that enables localization to the position closest to the target position.

【0015】定位位置の設定を伴う音響信号の編集にお
いては、目的位置と音響伝達関数との一意の対応関係は
必須である。この様な編集は目的位置に対応する音響伝
達関数を利用した音響信号処理を含むためである。ま
た、受聴者毎に異なる音響伝達関数を準備を行うために
は膨大な記憶領域を必要とする。この発明の目的は、不
特定多数の受聴者に目的位置への音像定位を可能とする
統合的な仮想音像定位用音響伝達関数表を生成する方法
及びその表を記録した記憶媒体、及びそれを使った音響
信号の編集方法を提供することである。
In the editing of the acoustic signal accompanied by the setting of the localization position, the unique correspondence between the target position and the acoustic transfer function is essential. This is because such editing includes acoustic signal processing using the acoustic transfer function corresponding to the target position. In addition, a huge storage area is required to prepare different acoustic transfer functions for each listener. An object of the present invention is to provide a method for generating an integrated virtual sound image localization acoustic transfer function table that enables an unspecified number of listeners to perform sound image localization to a target position, a storage medium recording the table, and the method. It is to provide a method of editing the used acoustic signal.

【0016】[0016]

【課題を解決するための手段】この発明による仮想音像
定位用伝達関数表作成方法は以下のステップを含む: (a) 少なくとも3人以上の被験者について、少なくとも
1以上の目的音源位置のそれぞれから左右耳に至る予め
測定された音響伝達関数を主成分分析して前記音響伝達
関数にそれぞれ対応する重みベクトルを得て、(b) 各上
記目的音源位置についての上記重みベクトルの中心値ベ
クトルを求め、(c) 各上記目的音源位置について、上記
中心値ベクトルと各重みベクトルの距離尺度を求め、
(d) 各上記目的音源位置について、上記距離尺度が最小
となる重みベクトルに対応する上記音響伝達関数により
規定される伝達関数をその音源位置についての代表値と
定め、仮装音像定位用伝達関数表とする。
The method for creating a transfer function table for virtual sound image localization according to the present invention includes the following steps: (a) Left and right from each of at least one or more target sound source positions for at least three or more subjects. Obtaining a weight vector corresponding to each of the acoustic transfer functions by performing a principal component analysis on a pre-measured acoustic transfer function reaching the ears, (b) obtaining a center value vector of the weight vector for each of the target sound source positions, (c) For each of the above-mentioned target sound source positions, obtain the distance measure between the center value vector and each weight vector,
(d) For each of the target sound source positions, the transfer function defined by the acoustic transfer function corresponding to the weight vector that minimizes the distance scale is defined as a representative value for the sound source position, and the transfer function table for temporary sound image localization is set. And

【0017】[0017]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

主成分分析の導入 本発明で、音響伝達関数の代表値を決定するためには、
各受聴者による音響伝達関数の特徴量を定量的に実現す
ることが必要である。各音響伝達関数(インパルス応
答)を表現する一連の係数の数pは一般に大きい。例え
ば標本化周波数48kHz とすると、典型的な場合、数百以
上となり、代表値を決めるための演算処理量が膨大にな
る。一般に、ある要因に対する変動を示す係数の数を削
減するには、主成分分析を利用することが有効であるこ
とが知られている(例えば、A.A.Afifi and S.P.Azen "
Statistical Analysis, A Computer Oriented Approac
h," Academic Press 1972)。統計処理手法として周知
の主成分分析によれば音源方向や被験者による特徴を示
す変数の数を削減することができる。従って、演算量を
削減することができる(D.J.Kistler and F.L.Wightman
"A Model of Head-related Transfer Functions Based
on Principal Conponents Analysis and Minimum-Phas
e Reconstruction," Journal of the Acoustical Socie
ty of America 91, pp.1637-1647, 1992)。
Introduction of Principal Component Analysis In the present invention, in order to determine the representative value of the acoustic transfer function,
It is necessary to quantitatively realize the feature amount of the acoustic transfer function by each listener. The number p of a series of coefficients representing each acoustic transfer function (impulse response) is generally large. For example, if the sampling frequency is 48 kHz, it will typically be several hundreds or more, and the amount of calculation processing for determining the representative value will be enormous. It is generally known that it is effective to use the principal component analysis to reduce the number of coefficients showing the fluctuation for a certain factor (eg, AAAfifi and SPAzen ".
Statistical Analysis, A Computer Oriented Approac
h, "Academic Press 1972). According to the known principal component analysis as a statistical processing method, it is possible to reduce the number of variables that indicate the sound source direction and the characteristics of the subject. Therefore, the calculation amount can be reduced (DJKistler and FLWightman
"A Model of Head-related Transfer Functions Based
on Principal Conponents Analysis and Minimum-Phas
e Reconstruction, "Journal of the Acoustical Socie
ty of America 91, pp.1637-1647, 1992).

【0018】以下、代表値を決定するための基本的手順
の一例を説明する。この手順は、主成分分析処理と代表
値決定処理に大別される。まず、予め測定によって得ら
れた音響伝達関数hk(t) を主成分分析する。但し、音響
伝達関数hk(t) は時間tの関数である。kは被験者名、
耳(左右いずれか)及び音源位置による区別をするため
の指標である。主成分分析は以下のような手順で行われ
る。
An example of the basic procedure for determining the representative value will be described below. This procedure is roughly classified into a principal component analysis process and a representative value determination process. First, the acoustic transfer function h k (t) obtained by measurement in advance is subjected to principal component analysis. However, the acoustic transfer function h k (t) is a function of time t. k is the subject name,
It is an index for distinguishing by the ear (either left or right) and the sound source position. The principal component analysis is performed by the following procedure.

【0019】予め測定により得られている全ての音響伝
達関数hk(t) のそれぞれを高速フーリエ変換(FFT )
し、その絶対値の対数値(以下、単に振幅周波数特性と
称す)を特性値Hk(fi)とする。次に、特性値Hk(fi)の分
散・共分散行列Sの要素sij を次式により求める。
Each of all acoustic transfer functions h k (t) previously obtained by measurement is subjected to a fast Fourier transform (FFT)
Then, the logarithmic value of the absolute value (hereinafter, simply referred to as amplitude frequency characteristic) is set as the characteristic value H k (f i ). Next, the element s ij of the variance / covariance matrix S of the characteristic value H k (f i ) is calculated by the following equation.

【0020】[0020]

【数1】 [Equation 1]

【0021】但し、nは音響伝達関数の全数(被験者数
×2個{左/右耳}×音源方向数)、周波数fi,fj(i,j
=1,2,…,p)は可測定周波数における有限個の離散量であ
る。pは特性値Hk(fi)の対象となる振幅周波数特性を表
現するベクトルhk =[Hk(f1),Hk(f2),…,Hk(fp)]T の次元を示す。従って、分散・共分散行列Sの大きさは
p×pとなる。主成分ベクトル(係数ベクトル)は分散
・共分散行列Sの固有ベクトルuq(q=1,2,…,p)とし
て求められる。即ち Suq=λqq (7) の関係がある。λq は主成分(固有ベクトル)uq
対応する固有値であり、固有値λq の大きいものほど寄
与率が大きくなる。但し、序列qを固有値λq の降順 λ1≧λ2≧…≧λp (8) で定める。ここで、第q主成分の寄与率pqは、考慮する
特性値の集合全体について
However, n is the total number of acoustic transfer functions (number of subjects x 2 {left / right ear} x number of sound source directions), frequencies f i , f j (i, j)
= 1,2, ..., p) is a finite number of discrete quantities at measurable frequencies. p is a vector h k = [H k (f 1 ), H k (f 2 ), ..., H k (f p )] T that represents the amplitude frequency characteristic of the characteristic value H k (f i ). Indicates a dimension. Therefore, the size of the variance / covariance matrix S is p × p. The principal component vector (coefficient vector) is obtained as the eigenvector u q (q = 1,2, ..., P) of the variance / covariance matrix S. That is, there is a relation of Su q = λ q u q (7). λ q is an eigenvalue corresponding to the principal component (eigenvector) u q , and the larger the eigenvalue λ q , the larger the contribution rate. However, the order q is determined in descending order of eigenvalue λ q λ 1 ≧ λ 2 ≧ ... ≧ λ p (8). Here, the contribution rate p q of the q-th principal component is for the entire set of characteristic values to be considered.

【0022】[0022]

【数2】 [Equation 2]

【0023】となる。従って、累積寄与率PmIt becomes Therefore, the cumulative contribution ratio P m is

【0024】[0024]

【数3】 (Equation 3)

【0025】と表される。振幅周波数特性hk=[Hk(f
1),Hk(f2),…,Hk(fp)]Tの選択されたm個の主成分
1,u2,…,umに対する重みベクトルwk=[w
k1,wk2,…,w km]Tを用いて次式のように表現される。 wk=Uhk (11) この重みベクトルwkの次元数mはベクトルhkの次
元数pより縮小されたものとなる。但し、U=[u1,
2,…,um]Tである。
It is expressed as Amplitude frequency characteristic hk= [Hk(f
1), Hk(fTwo),…, Hk(fp)]TSelected m principal components of
u1, uTwo, ..., umWeight vector w fork= [W
k1, wk2, ..., w km]TIt is expressed as follows using. wk= Uhk (11) This weight vector wkThe dimension number m of is the vector hkNext to
It is smaller than the element p. However, U = [u1,
uTwo, ..., um]TIt is.

【0026】次に代表値を決定するための処理方法を説
明する。この発明では、左右各耳及び各目的音源位置
(θ,d)について音響伝達関数の代表値として、それぞれ
の重みベクトルwkと全重みベクトルの中心値である
中心値ベクトル<wz>の間の距離尺度が最小となる被
験者の伝達関数h(t)を選択する。重みベクトル<wz>
は次式
Next, a processing method for determining the representative value will be described. In this invention, the left and right ears and the respective target sound source positions
As a representative value of the acoustic transfer function for (θ, d), the transfer function h of the subject having the minimum distance scale between each weight vector w k and the center value vector <w z > which is the center value of all weight vectors. Select (t). Weight vector <w z >
Is

【0027】[0027]

【数4】 (Equation 4)

【0028】と与えられる。ここで、<wz>=[<wz1>,
<wz2>,…,<wzm>]T であり、nsは被験者数である。Σの
加算は、全被験者についての同一の目的音源位置と耳に
属するkについて行う。例えば、距離尺度としてマハラ
ノビス汎距離Dk を用いる。マハラノビス汎距離Dk
次式 Dk 2=(wk−<wz>)TΣ-1(wk−<wz>) (13) で求められる。Σ-1は分割・共分散行列Σの逆行列を示
す。分割・共分散行列の要素Σijは、次のように算出さ
れる。
Is given. Where <w z > = [<w z1 >,
<w z2 >, ..., <w zm >] T , and n s is the number of subjects. The addition of Σ is performed for the same target sound source position and k belonging to the ear for all subjects. For example, Mahalanobis general distance D k is used as the distance measure. The Mahalanobis general distance D k is obtained by the following equation D k 2 = (w k − <w z >) T Σ −1 (w k − <w z >) (13). Σ −1 indicates the inverse matrix of the partition / covariance matrix Σ. The element Σ ij of the partition / covariance matrix is calculated as follows.

【0029】[0029]

【数5】 (Equation 5)

【0030】本発明では、音響伝達関数の振幅周波数特
性を重みベクトルwkを用いて表現する。例えば、D.
J.Kistler and F.L.Wightman,"A Model of Head-relate
d Transfer Functions Based on Principal Components
Analysis and Minimum-Phase Reconstruction," Journ
al of the Acoustical Society of America 91, pp.163
7-1647 (1992)、及び、高橋、浜田、日本音響学会講演
論文集(I),2-6-19, pp.659-660,1994,10-11によれば、
累積寄与率Pm が90%以上で再構成された伝達関数で、
音源信号x(t)と畳込み演算した信号を受聴した場合、受
聴者は基の伝達関数で畳み込む受聴した場合と同様に所
望の位置に音像定位することが知られている。
In the present invention, the amplitude frequency characteristic of the acoustic transfer function is expressed using the weight vector w k . For example, D.
J. Kistler and FL Wightman, "A Model of Head-relate
d Transfer Functions Based on Principal Components
Analysis and Minimum-Phase Reconstruction, "Journ
al of the Acoustical Society of America 91, pp.163
7-1647 (1992) and Takahashi, Hamada, Acoustical Society of Japan Proceedings (I), 2-6-19, pp.659-660, 1994, 10-11,
A transfer function reconstructed with a cumulative contribution ratio P m of 90% or more,
It is known that, when a signal obtained by performing a convolution calculation with a sound source signal x (t) is received, a listener localizes a sound image at a desired position, as in the case where the convolution is performed with a base transfer function.

【0031】そのため、例えば第m主成分の重み係数w
km までの累積寄与率Pm が90%以上となるようにmを
選ぶ。一方、伝達関数の振幅周波数特性hk * を再構
成するには、重みベクトルwk及び係数行列Uを用い
てhk * =UTk (15) のように再構成できる。m≠pであるため、hk *
k となる。しかし、高次の主成分による寄与が少な
いので、hk *≒hk と見なせる。Kistler らの例に
よれば、mは5である。標本化周波数48kHz の場合、p
は通例数百以上であるが、上述のように主成分分析によ
れば振幅周波数特性を表現する変数(一連の係数列)の
数をmまで大きく減じることが可能になる。
Therefore, for example, the weighting coefficient w of the m-th principal component
Select m such that the cumulative contribution ratio P m up to km is 90% or more. On the other hand, in order to reconstruct the amplitude frequency characteristic h k * of the transfer function, it can be reconstructed as h k * = UT W k (15) using the weight vector w k and the coefficient matrix U. Since m ≠ p, h k *
h k . However, since the contribution of the higher-order principal component is small, it can be considered that h k * ≈h k . According to the example of Kistler et al., M is 5. If the sampling frequency is 48 kHz, p
Is usually several hundreds or more, but according to the principal component analysis as described above, the number of variables (a series of coefficient strings) expressing the amplitude frequency characteristic can be greatly reduced to m.

【0032】振幅周波数特性を表現する変数の数を削減
することは、音響伝達関数の代表値決定に次の点で好都
合である。第1に代表値決定のための演算量を削減でき
る点である。式(13)で示されるマハラノビス汎距離を代
表値決定のための尺度として用いる場合、逆行列演算が
必要となる。このように振幅周波数特性の変数の数を削
減することにより、距離計算の演算量を著しく削減でき
る。第2に代表値音を定位させようとする目的位置との
対応関係が明白になる点である。従来から振幅周波数特
性は上下又は前後方向への音像定位の手がかりになって
いると考えられている。その反面、振幅周波数特性と目
的位置との定量対応関係が不明瞭であった一因は、振幅
周波数特性が多数の変数から構成されていることにある
(例えば、ブラウエルト、森本、後藤、編著「空間音
響」鹿島出版会(1986)参照)。
Reducing the number of variables expressing the amplitude frequency characteristic is advantageous in determining the representative value of the acoustic transfer function in the following points. First, the amount of calculation for determining the representative value can be reduced. When the Mahalanobis general distance shown in Expression (13) is used as a measure for determining the representative value, the inverse matrix operation is required. By reducing the number of variables of the amplitude frequency characteristic in this way, the calculation amount of the distance calculation can be significantly reduced. Secondly, the correspondence with the target position where the representative value sound is localized is clarified. It has been conventionally considered that the amplitude frequency characteristic is a clue for sound image localization in the up-down direction or the front-back direction. On the other hand, one of the reasons why the quantitative correspondence between the amplitude frequency characteristic and the target position is unclear is that the amplitude frequency characteristic is composed of many variables (for example, Brauert, Morimoto, Goto, eds. "Spatial sound" (see Kashima Press (1986)).

【0033】本発明においては、音響伝達関数の代表値
として重みベクトルwkと中心値ベクトル<wz>間の
距離尺度が最小になる音響伝達関数測定値を選択する。
発明者らの実験によれば、図4に示すように、マハラノ
ビス汎距離Dk 2 の分布は、中心値ベクトル<wz>を中
心とした自由度mのχ2 分布に近似できる。つまり、重
みベクトルwkの分布は中心値付近が最も密になる中
心値ベクトル<wz>の回りのm次元正規分布と推定で
きる。これは代表値の振幅周波数特性が不特定多数の被
験者による音響伝達関数の振幅周波数特性を近似するこ
とを意味する。
In the present invention, as the representative value of the acoustic transfer function, the acoustic transfer function measurement value that minimizes the distance measure between the weight vector w k and the center value vector <w z > is selected.
According to the experiments by the inventors, as shown in FIG. 4, the distribution of the Mahalanobis general distance D k 2 can be approximated to a χ 2 distribution with a degree of freedom m centered on the central value vector <w z >. That is, it can be estimated that the distribution of the weight vector w k is an m-dimensional normal distribution around the center value vector <w z > in which the vicinity of the center value is densest. This means that the amplitude frequency characteristic of the representative value approximates the amplitude frequency characteristic of the acoustic transfer function by a large number of unspecified subjects.

【0034】理由は、実測された音響伝達関数を代表値
として選択する理由は、ここに目的位置への音像定位に
寄与する顕著な振幅周波数特性や初期反射や残響の情報
が含まれているためである。定位に寄与するこれらの成
分は、被験者間の音響伝達関数の単純平均による代表値
生成では、その平均処理による平滑化によって喪失され
る傾向にある。また、重みベクトルwkだけで音響伝
達関数を再構成することは不可能である。これは、重み
ベクトルwkを算出する際に、位相周波数特性が考慮
されないからである。仮に、中心値ベクトル<wz>か
ら音響伝達関数を再構成する場合を考える。位相周波数
特性として振幅周波数特性hk * から合成された最小
位相を用いれば、初期反射や残響が適切に合成されない
恐れがある。また、十分に多数の被験者について音響伝
達関数が測定されていれば、距離を最小とするよう選択
された重みベクトルwkとその中心値ベクトル<wz>
間の距離尺度Dk_sel はゼロに近似すると推定される。
The reason is that the actually measured acoustic transfer function is selected as a representative value because it includes remarkable amplitude frequency characteristics that contribute to sound image localization to the target position and information on initial reflection and reverberation. Is. These components that contribute to localization tend to be lost by the smoothing by the averaging process in the representative value generation by the simple average of the acoustic transfer functions between the subjects. In addition, it is impossible to reconstruct the acoustic transfer function using only the weight vector w k . This is because the phase frequency characteristic is not considered when calculating the weight vector w k . Let us consider a case where the acoustic transfer function is reconstructed from the central value vector <w z >. If the minimum phase synthesized from the amplitude frequency characteristic h k * is used as the phase frequency characteristic, the initial reflection and reverberation may not be properly synthesized. Also, if the acoustic transfer function is measured for a sufficiently large number of subjects, the weight vector w k selected to minimize the distance and its center value vector <w z >.
The distance measure between D k — sel is estimated to approximate zero.

【0035】また、与えられた集合の中で代表値に対応
する重みベクトルとの距離尺度Dk_ max を最大にする重
みベクトルwk_maxについて、その距離尺度Dk_max
は中心値ベクトル<wz>を代表値に対応する重みベク
トルとみなすことによって小さくなる。また、人間の聴
覚において、振幅周波数特性が類似、即ち重みベクトル
kと中心値ベクトルwz間の距離尺度Dk が小さく
なるほど、目的音源位置への音像定位が確実になる傾向
が見られる。
Further, the weight to maximize the distance measure D k_ max of the weight vector corresponding to the representative value among the set given vector w k_max, the distance measure D k_max
Is reduced by regarding the center value vector <w z > as a weight vector corresponding to the representative value. Further, in human hearing, there is a tendency that, as the amplitude frequency characteristics are similar, that is, as the distance measure D k between the weight vector w k and the center value vector w z becomes smaller, the sound image localization to the target sound source position becomes more reliable.

【0036】この発明の好ましい実施例では、主成分ベ
クトルwkと中心値ベクトル<w z>間の距離尺度とし
てマハラノビス汎距離Dk を用いる。その理由は、この
マハラノビス汎距離Dk を算出する過程で、重みベクト
ル空間における各主成分間の相関が考慮されるためであ
る。図5はこの出願の発明者らの実験結果であり、例え
ば第1主成分と第2主成分間の相関値が有意であること
を示している。
In a preferred embodiment of the invention, the main component
Cutle wkAnd central value vector <w z> As the distance measure between
Mahalanobis general distance Dk Is used. The reason is this
Mahalanobis general distance Dk In the process of calculating
This is because the correlation between each principal component in the rule space is considered.
You. FIG. 5 shows the experimental results of the inventors of this application.
For example, the correlation value between the first and second principal components is significant
Is shown.

【0037】また、この発明の他の実施例では、ある目
的音源位置から一方の耳までの音響伝達関数と、前記音
源位置と左右対称な方位角の音源位置から他方の耳まで
の音響伝達関数を同一に定める。その理由は、前記両音
響伝達関数の振幅周波数特性が互いに近似することにあ
る。これは各音源位置及び各耳ごとに前記音響伝達関数
の振幅周波数特性を表現する中心値の音源方位角依存性
が、ほぼ左右対称となることに基づく。 音響伝達関数表の作成とそれを用いた音響信号処理 図6Aは、この発明にかかわる音響伝達関数表の作成
と、その表を使って入力音響信号に対する処理とを実行
する構成を併せて示すブロック図である。予め各被験者
の左右耳について、音源位置(θ,d)を変えてそれぞれ測
定したhl(k,θ,d)、hr(k,θ,d)及びel(k),er(k) が測定
データ蓄積部26に蓄積されている。演算処理部27は
主成分分析部27Aと、代表値選択部27Bと逆畳込み
部27Cとから構成される。主成分分析部27Aは、得
られている頭部伝達関数hl(t),hr(t) 及び外耳道伝達
関数el(t),er(t)をそれぞれ主成分分析し、累積寄与率
が所定値(例えば90%)以上となる周波数特性の主成
分をそれぞれ決定し、その分析結果から次元数が縮小さ
れた重みベクトルをそれぞれ得る。
In another embodiment of the present invention, an acoustic transfer function from a target sound source position to one ear and an acoustic transfer function from a sound source position having an azimuth angle symmetrical to the sound source position to the other ear. Are determined to be the same. The reason is that the amplitude frequency characteristics of both acoustic transfer functions are similar to each other. This is based on the fact that the azimuth dependence of the center value expressing the amplitude frequency characteristic of the acoustic transfer function for each sound source position and each ear is substantially symmetrical. Creation of Acoustic Transfer Function Table and Acoustic Signal Processing Using the Same FIG. 6A is a block showing a configuration for creating an acoustic transfer function table according to the present invention and executing processing for an input acoustic signal using the table. It is a figure. For the left and right ears of each subject, h l (k, θ, d), h r (k, θ, d) and e l (k), e r ( k) is stored in the measurement data storage unit 26. The arithmetic processing unit 27 includes a principal component analysis unit 27A, a representative value selection unit 27B, and a deconvolution unit 27C. The principal component analysis unit 27A performs principal component analysis on the obtained head-related transfer functions h l (t) and h r (t) and ear canal transfer functions e l (t) and e r (t), respectively, and cumulatively contributes The main components of the frequency characteristics for which the ratio is equal to or greater than a predetermined value (for example, 90%) are determined, and the weight vector with the reduced dimension number is obtained from the analysis result.

【0038】代表値選択部27Bは各目的位置θと左右
各耳の組((θ,耳)と表記する) について全被験者から
得られている重みベクトルの中心値ベクトル<wz>と
それぞれの重みベクトルとの距離Dを求め、最小距離を
与えた重みベクトルwkに対応する頭部伝達関数hk
(t) を代表値h* k(t)として選択する。同様に左右各
耳について外耳道伝達関数についての重みベクトルから
その中心値ベクトルを求め、その中心値ベクトルと最も
距離の近い重みベクトルに対応する外耳道伝達関数を代
表値e* l,e* r として選択する。
The representative value selecting unit 27B, for each target position θ and each pair of left and right ears (denoted as (θ, ear)), obtains the center value vector <w z > of the weight vector obtained from all the subjects and each of them. The distance D from the weight vector is obtained, and the head related transfer function h k corresponding to the weight vector w k to which the minimum distance is given.
Select (t) as the representative value h * k (t). Similarly, for the left and right ears, find the center value vector from the weight vector for the ear canal transfer function, and select the ear canal transfer function corresponding to the weight vector closest to the center value vector as the representative values e * l , e * r. To do.

【0039】逆畳込み部27Cは、それぞれの組(θ,
耳) についての頭部伝達関数代表値h*(θ)に対し外耳道
伝達関数代表値e* l,e* rを逆畳込み演算して頭外音像定
位伝達関数sl(θ),sr(θ)を求め、記憶部24の表に書
き込む。従って、測定データ蓄積部26のデータからこ
の発明の方法に従って各目的位置(θ,d)に対応する伝達
関数sr(θ,d),sl(θ,d)が決定され、表として仮想音像
定位用音響伝達関数表記憶部24に書き込まれる。但
し、この実施例では簡単のため位置(θ,d)として音源の
方向θのみを制御し、距離dは一定とする。従ってマイ
クロホン22又は図示してない他の音響信号源からの音
響信号x(t)に対し処理を行う場合、目的音源位置設定部
25から設定すべき所望の目的音源位置(方向)を指定
する信号θを伝達関数表記憶部24に与えて、対応する
頭部伝達関数sl(θ),sr(θ)を読み出し、それぞれ音響
信号処理部23R、23Lに設定する。音響信号処理部
23R、23Lはそれぞれ入力音響信号x(t)に対し伝達
関数sl(θ),sr(θ)を畳み込んでその畳込み結果x(t)*s
l(θ),x(t)*sr(θ)を音響処理された音響信号yl(t),y
r(t)として端子31L、31Rに出力する。このように
して得られた出力音響信号yl(t),yr(t) を例えばヘッ
ドホン32で再生すれば、受聴者に指定された位置(方
向)θに音像を定位させることができる。出力信号y
l(t),yr(t)を録音部33に与えてCD,MD,テープ
等に記録する例も考えられる。
The deconvolution unit 27C includes the respective sets (θ,
Head-related transfer function representative value h*ear canal for (θ)
Typical transfer function e* l, E* rOut-of-head sound image
Order transfer function sl(θ), sr(θ) is calculated and written in the table of the storage unit 24.
Get in. Therefore, from the data of the measurement data storage unit 26
Transmission corresponding to each target position (θ, d) according to the method of the invention of
Function sr(θ, d), sl(θ, d) is determined and the virtual sound image is displayed as a table.
It is written in the localization acoustic transfer function table storage unit 24. However
However, in this embodiment, for the sake of simplicity, the position (θ, d) of the sound source
Only the direction θ is controlled, and the distance d is constant. Therefore my
Sound from the microphone 22 or other acoustic signal source not shown
When processing the sound signal x (t), the target sound source position setting unit
Specify the desired target sound source position (direction) to be set from 25
The transfer function table storage unit 24 is provided with a signal θ
Head related transfer function sl(θ), sr(θ) is read out and each sound
The signal processing units 23R and 23L are set. Acoustic signal processor
23R and 23L are transmitted respectively to the input acoustic signal x (t)
Function sl(θ), srConvolution of (θ) and the convolution result x (t) * s
l(θ), x (t) * srAcoustic signal y obtained by acoustically processing (θ)l(t), y
r(t) is output to the terminals 31L and 31R. in this way
Output acoustic signal yl(t), yr(t) for example
If it is played back on the phone 32, the position (direction
The sound image can be localized in the direction) θ. Output signal y
l(t), yr(t) is given to the recording unit 33, and CD, MD, tape
There may be an example in which the data is recorded in “etc.

【0040】図7は図6Aの音響信号処理部23R、2
3Lにおいて頭部伝達関数hl(θ),hr(θ)による
畳込み演算と外耳道伝達関数el,erによる逆畳込み演算
を分割して行うように構成する例である。この場合、仮
想音像定位用音響伝達関数表記億部24は、演算処理部
27がこの発明の方法により決定した頭部伝達関数の代
表値hr(θ),hl(θ)を各方向角θに対応した表と
して記憶する。従って演算処理部27は図6Aにおける
演算処理部27Aの逆畳込み部27Cを除去した構成と
同じである。また、音響信号処理部23R、23Lはそ
れぞれ畳込み部23HRと逆畳込み部23ERの組及び頭部伝達
関数畳込み部23HLと逆畳込み部23ELの組で構成され、畳
込み部23HR、23HLには指定された角度方向θに対応する
頭部伝達関数代表値hr(θ),hl(θ)がそれぞれ伝
達関数表記憶部24が読み出されて設定される。逆畳込
み部23ER,23ELには常時外耳道伝達関数代表値er,el
読み出されており、畳込み部23HR,23HLからの畳込み演
算出力x(t)*hr(θ),x(t)*hl(θ)に対しそれぞれer,el
により逆畳込み演算を行う。従って式(3a),(3b)から明
らかなように逆畳込み部23ER,23ELの出力は図6Aにお
ける音響信号処理部23R、23Lの出力x(t)*s
l(θ),x(t)*sr(θ)と結局同じになる。その他の構成と
動作は図6Aの場合と同様である。
FIG. 7 shows the acoustic signal processing units 23R and 2R of FIG. 6A.
In 3L, the convolution calculation by the head related transfer functions h l (θ) and h r (θ) and the deconvolution calculation by the ear canal transfer functions e l and e r are performed separately. In this case, the virtual sound image localization acoustic transfer function notation unit 24 determines the representative values h r (θ) and h l (θ) of the head related transfer function determined by the calculation processing unit 27 by the method of the present invention. It is stored as a table corresponding to θ. Therefore, the arithmetic processing unit 27 has the same configuration as the arithmetic processing unit 27A in FIG. 6A except that the deconvolution unit 27C is removed. The acoustic signal processing units 23R and 23L are respectively composed of a set of a convolution unit 23HR and a deconvolution unit 23ER and a set of a head related transfer function convolution unit 23HL and a deconvolution unit 23EL. , The head related transfer function representative values h r (θ) and h l (θ) corresponding to the designated angle direction θ are read from the transfer function table storage unit 24 and set. The ear canal transfer function representative values e r and e l are always read to the deconvolution units 23ER and 23EL, and the convolution operation outputs x (t) * h r (θ) from the convolution units 23HR and 23HL, x (t) * h l (θ) for e r and e l respectively
The inverse convolution operation is performed by. Therefore, as is clear from the equations (3a) and (3b), the outputs of the deconvolution units 23ER and 23EL are the outputs x (t) * s of the acoustic signal processing units 23R and 23L in FIG. 6A.
After all, it becomes the same as l (θ), x (t) * s r (θ). Other configurations and operations are the same as in the case of FIG. 6A.

【0041】図8は、図3と同様に2個のスピーカ11
R,11Lによる再生系における音響信号に対し、この
発明による仮想音像定位用音響伝達関数表記憶部24か
ら設定された伝達関数gr(θ),gl(θ)を畳み込む処理を
行う構成例を示すと共に、その仮想音像定位用音響伝達
関数表を作成するための機能ブロック構成を示してい
る。この再生系においては、式(5a),(5b)による伝達関
数gr(θ),gl(θ)を必要とするので、伝達関数記憶部2
4には各目的位置θに対応した伝達関数g* r(θ),g
* l(θ)が表として書き込まれている。演算処理部27の
主成分分析部27Aは、この発明の方法に従って測定デ
ータ蓄積部26を介して蓄積された頭部伝達関数h
r(t),hl(t)、実音源鼓膜間伝達関数err,erl,elr,e
llを主成分分析し、代表値選択部27Bはその分析結果
に基づいて各目的方向θと耳(左、右)の組(θ、耳)
毎に中心値ベクトルに最も近い重みベクトルを与える頭
部伝達関数hr(t),hl(t)及び実音源鼓膜間伝達関数
err,erl,elr,ellをそれぞれ選択し、代表値h
* r(θ),h* l(θ),e* rr,e* rl,e* lr,e* llとする。畳
込み部27Dは、各方位各θに対応する代表値h
* r(θ),h* l(θ)及び代表値e* rr,e* rl,e* rl,e* ll
らΔh* r(θ)、Δh* l(θ)を求めるための演算 Δh* r(θ)={e* rr*h* l(θ)-e* rl*h* r(θ)} 及び Δh* l(θ)={e* ll*h* r(θ)-e* lr*h* l(θ)} をそれぞれ行い、畳込み部27EでΔe*を求めるための
演算 Δe*={e* ll*e* rr-e* lr*e* rl} を行い、逆畳込み部27Fで逆畳込み演算gr *(θ)=Δh*
r/Δe*,gl *(θ)=Δh* l/Δe*により伝達関数gr *(θ),g
l *(θ)を計算し、伝達関数表記憶部24に書き込む。
FIG. 8 shows two speakers 11 similar to FIG.
R, to the acoustic signal in the reproduction system by 11L, configuration examples for performing processing convolving the virtual sound localization for acoustic transfer function table transfer function is set from the storage unit 24 g r (θ), g l (θ) according to the invention And the functional block configuration for creating the virtual sound image localization acoustic transfer function table. In this reproducing system, since the transfer functions g r (θ) and g l (θ) according to the equations (5a) and (5b) are required, the transfer function storage unit 2
4 shows the transfer function g * r (θ), g corresponding to each target position θ.
* l (θ) is written as a table. The principal component analysis unit 27A of the arithmetic processing unit 27 uses the head related transfer function h stored via the measurement data storage unit 26 according to the method of the present invention.
r (t), h l (t), real sound source interdrum transfer function e rr , e rl , e lr , e
ll is subjected to a principal component analysis, and the representative value selection unit 27B, based on the analysis result, sets (θ, ear) of each target direction θ and ear (left, right).
Head-related transfer functions h r (t) and h l (t) that give the weight vector closest to the center value vector for each
Select e rr , e rl , e lr , and e ll and select the representative value h
Let * r (θ), h * l (θ), e * rr , e * rl , e * lr , and e * ll . The convolution unit 27D has a representative value h corresponding to each direction θ.
Calculation of Δh * r (θ) and Δh * l (θ) from * r (θ), h * l (θ) and representative values e * rr , e * rl , e * rl and e * ll * r (θ) = {e * rr * h * l (θ) -e * rl * h * r (θ)} and Δh * l (θ) = {e * ll * h * r (θ) -e * performs lr * h * l a (theta)}, respectively, performs an operation .DELTA.e * = for obtaining the .DELTA.e * in convolution unit 27E {e * ll * e * rr -e * lr * e * rl}, reverse Inverse convolution operation in the convolution unit 27F g r * (θ) = Δh *
r / Δe * , g l * (θ) = Δh * l / Δe * Transfer function g r * (θ), g
l * (θ) is calculated and written in the transfer function table storage unit 24.

【0042】図9は図8の実施例において式(5a),(5b)
における逆畳込み演算を逆畳込み部27Fで行う代わり
に、図7と同様に再生系で逆畳込みを行うように構成し
た例を示す。即ち、畳込み部23HR,23HLは入力音響信号x
(t)に対し、 Δh* l(θ)={ell(θ)*hr(θ)-elr(θ)*hl(θ)} 及び Δh* r(θ)={err(θ)*hl(θ)-erl(θ)*hr(θ)} をそれぞれ畳込み演算を施し、それらの出力に対し逆畳
込み部23ER,23ELは Δe*={ell(θ)*err(θ)-elr(θ)*erl(θ)} によりそれぞれ逆畳込み演算を行い、それらの出力が編
集された音響信号yr(t),yl(t) としてスピーカ11R,
11Lにそれぞれ与えられる。従って、この実施例にお
ける伝達関数表記憶部24はΔe*と各目的位置θに対応
したΔh* r(θ),Δh* l(θ) を表として記憶する。この伝
達関数表を作成する演算処理部27においては、図8の
場合と同様に主成分分析部27Aによる分析結果に基づ
いて代表値選択部27Bにより選択された実音源鼓膜間
伝達関数err,erl,elr,ellをそれぞれ代表値e* rr,e*
rl,e* lr,e* llと決め、各目的位置θ毎に選択されたh
r(θ),h l(θ) をそれぞれ代表値h* r(θ),h* l(θ)と決
める。この実施例ではこのようにして決定された代表値
を使って更に畳込み演算部27Dにおいてθ毎に Δh* r(θ)={e* rr*hl(θ)-e* rl*hr(θ)} 及び Δh* l(θ)={e* ll*hr(θ)-e* lr*hl(θ)} を計算し、演算部27Eにおいて Δe*={e* ll*e* rr-e* lr*e* rl} を計算し、それらを伝達関数表記憶部24に書き込む。
FIG. 9 shows expressions (5a) and (5b) in the embodiment of FIG.
Instead of performing the deconvolution operation in
In the same way as in Fig. 7, the playback system is configured to perform deconvolution.
Here is an example. That is, the convolution units 23HR and 23HL generate the input acoustic signal x
For (t), Δh* l(θ) = (ell(θ) * hr(θ) -elr(θ) * hl(θ)} and Δh* r(θ) = (err(θ) * hl(θ) -erl(θ) * hr(θ)} are each subjected to convolutional operation, and their outputs are inversely convolved.
Insets 23ER and 23EL are Δe*= {Ell(θ) * err(θ) -elr(θ) * erl(θ)} performs deconvolution operation respectively and outputs
Collected acoustic signal yr(t), ylSpeaker (11R) as (t),
11L respectively. Therefore, in this example
The transfer function table storage unit 24*And corresponding to each target position θ
Δh* r(θ), Δh* lStore (θ) as a table. This biography
In the arithmetic processing unit 27 that creates the reaching function table,
Based on the analysis result by the principal component analysis unit 27A as in the case
Between the real sound source eardrum selected by the representative value selection unit 27B
Transfer function err, Erl, Elr, EllIs a typical value e* rr, e*
rl, e* lr, e* llAnd h selected for each target position θ
r(θ), h l(θ) is a typical value h* r(θ), h* lDetermined as (θ)
Confuse. In this example, the representative value thus determined
By using Δ in the convolution operation unit 27D for each θ* r(θ) = (e* rr* hl(θ) -e* rl* hr(θ)} and Δh* l(θ) = (e* ll* hr(θ) -e* lr* hl(θ)} is calculated, and Δe is calculated in the computing unit 27E.*= (e* ll* e* rr-e* lr* e* rl} And write them in the transfer function table storage unit 24.

【0043】上述の図8及び図9の実施例において、各
スピーカと受聴者の各耳が互いに交わる経路をとる実音
源鼓膜間伝達関数erl,elrを無視できる場合、上述の図
6の実施例と同様な構成を利用できる。その場合、外耳
道伝達関数er(t),el(t)の代替えとして、各スピーカと
受聴者の各耳が互いに向き合う経路をとる実音源鼓膜間
伝達関数err,ellがそれぞれ扱われる。このような例
は、各スピーカが受聴者の各耳にそれぞれ近接して配置
される場合に該当する。
In the embodiments of FIGS. 8 and 9 described above, when the real sound source inter-tympanic transfer functions e rl and e lr taking the path where each speaker and each ear of the listener cross each other can be ignored, A configuration similar to that of the embodiment can be used. In that case, as a substitute for the external auditory canal transfer functions e r (t) and e l (t), the real sound source inter-tympanic transfer functions e rr and e ll that take a path in which each speaker and each ear of the listener face each other are treated, respectively. . Such an example corresponds to the case where the speakers are arranged close to the ears of the listener.

【0044】上述の図6A、8及び9の実施例では、測
定された音響伝達関数をまず主成分分析して、それに基
づいて代表値を決定してから逆畳込み演算(図6A)、
畳込み演算と逆畳込み演算(図8、図9)を並列に行う
場合を示した。これらの逆畳込み演算、或いは畳込み演
算を予め行ってから主成分分析に基づく代表値の決定を
行ってもよい。
In the embodiments of FIGS. 6A, 8 and 9 described above, the measured acoustic transfer function is first subjected to principal component analysis, and a representative value is determined based on the principal component analysis, and then the deconvolution operation (FIG. 6A),
The case where the convolution operation and the deconvolution operation (FIGS. 8 and 9) are performed in parallel is shown. It is also possible to perform the deconvolution operation or the convolution operation in advance and then determine the representative value based on the principal component analysis.

【0045】例えば図10に示すように、図6Aにおけ
る逆畳込み演算部27Cを主成分分析部27Aの入力側
に設け、測定された全ての頭部伝達関数hr(t),hl(t)を
外耳道伝達関数er,elで予め逆畳込み演算する、得られ
た全ての頭外音像定位伝達関数sr(t),sl(t)を主成分分
析し、それに基づいて代表値s* r(θ),s* l(θ)を決定す
る。
For example, as shown in FIG. 10, the deconvolution operation unit 27C in FIG. 6A is provided on the input side of the principal component analysis unit 27A, and all the measured head related transfer functions h r (t), h l ( t) is deconvoluted in advance with the ear canal transfer functions e r and e l . All the obtained out-of-head sound localization transfer functions s r (t) and s l (t) are subjected to principal component analysis, and based on that, Determine the representative values s * r (θ) and s * l (θ).

【0046】或いは図11に示すように、図8の実施例
における畳込み演算部27D,27Eと逆畳込み部27
Fを主成分分析部27Aの入力側に設け、測定された全
ての頭部伝達関数hr(t),hl(t)及び実音源鼓膜間伝達関
数erl,ellから式(5a),(5b)により伝達関数gr,glを演
算する。それら伝達関数gr,glを主成分分析して代表値
g* r(θ),g* l(θ)を決定してもよい。
Alternatively, as shown in FIG. 11, the convolution operation units 27D and 27E and the deconvolution unit 27 in the embodiment of FIG.
F is provided on the input side of the principal component analysis unit 27A, and from all measured head-related transfer functions h r (t), h l (t) and real sound source inter-tympanic transfer functions e rl , e ll , equation (5a) is obtained. , (5b), the transfer functions g r and g l are calculated. A representative value is obtained by principal component analysis of the transfer functions g r and g l.
You may decide g * r (θ) and g * l (θ).

【0047】或いは図12に示すように、図9の実施例
における畳込み演算部27D,27Eを主成分分析部2
7Aの入力側に設け、測定された全頭部伝達関数h
r(θ),hl(θ)及び実音源鼓膜間伝達関数erl,ellから
式(5a),(5b)中のΔhr(θ),Δhl(θ),Δeを求める。
それらを主成分分析して代表値Δh* r(θ),Δh* l(θ),
Δe*を決定している。 伝達関数表作成方法 図13に、本発明の仮想音響伝達関数表作成方法の一実
施例の手順を示す。本実施例では、音響伝達関数の振幅
周波数特性の重みベクトルとその中心値ベクトル間の距
離尺度としてマハラノビス汎距離を用いる。以下、図1
3に従って本発明音響伝達関数の選択方法を説明する。 ステップS0:データ収集 不特定多数の受聴者に対し同じように音像定位可能な音
響伝達関数表を作成するため、例えば図1Aの受聴シス
テムで57名の被験者について、それぞれ式(3a)、(3b)
又は(3a')、(3b')で与えられる音源11から左右耳まで
の頭外音像定位伝達関数を求める。音源11の位置は例
えば被験者12から半径1.5mの円上に方向θ=-180°か
ら+180°までを15°間隔で24点を予め決める。各被験
者について、それら24点のそれぞれの位置に音源11
を設置して頭部伝達関数hl(t),hr(t)を測定す
る。式(3a'),(3b')による伝達関数sl(t),sr(t)を測定
する場合は音源(スピーカ)11の出力特性sp(t) も予
め1回測定しておく。例えば頭外音像定位伝達関数s
l(t),sr(t)を構成する係数の個数を2048とし、サンプ
リング周波数48.0kHz でサンプリングした離散時間関数
の入力音源信号x(t)に対するレスポンスを測定する。こ
れによって57×24対のhl(t),hr(t)が得られる。
el(t),er(t)は各被験者について1回測定するだけであ
る。これらのデータから式(3a)、(3b)又は(3a')、(3b')
により57×24対の頭外音像定位伝達関数sl(t),sr(t)が
得られる。得られた頭外音像定位伝達関数の一例を図1
4に示す。 ステップSA:主成分分析 ステップS1: まず、合計2736個(被験者57名×耳
(左右)2個×音源位置24方向)の頭外音像定位伝達
関数を各々高速フーリエ変換(FFT )する。さらに絶対
値をとったうえで対数値をとることによって振幅周波数
特性Hk(f) を得る。頭外音像定位伝達関数の振幅周波数
特性の一例を図15に示す。ナイキストの標本化定理に
よれば、標本化周波数48.0kHz の半値24.0kHz までの周
波数成分が表現できる。しかし、測定用の音源11が安
定に発生できる音波の周波数帯域は0.2〜15.0kHzであ
る。そのため、特性値として周波数帯域0.2〜15.0kHzに
対する振幅周波数特性が用いられる。標本化周波数fs=4
8.0kHzを頭外音像定位伝達関数を構成する係数の個数n0
=2048 で除することで周波数分解能Δf(約23.4Hz)が
求められる。従って、各頭外音像定位伝達関数に対応す
る特性値はP=632 次元のベクトルで構成される。
Alternatively, as shown in FIG. 12, the convolution operation units 27D and 27E in the embodiment of FIG.
Measured whole head related transfer function h provided on the input side of 7A
From r (θ), h l (θ) and real sound source inter-tympanic transfer functions e rl and e ll , Δh r (θ), Δh l (θ), and Δe in Eqs. (5a) and (5b) are obtained.
Principal values are analyzed by principal component analysis of Δh * r (θ), Δh * l (θ),
Δe * is determined. Transfer Function Table Creation Method FIG. 13 shows the procedure of an embodiment of the virtual acoustic transfer function table creation method of the present invention. In this embodiment, the Mahalanobis general distance is used as a distance measure between the weight vector of the amplitude frequency characteristic of the acoustic transfer function and its center value vector. Hereinafter, FIG.
A method of selecting the acoustic transfer function of the present invention will be described according to 3. Step S0: Data collection In order to create an acoustic transfer function table capable of sound localization in the same manner for an unspecified number of listeners, for example, for the 57 subjects in the listening system of FIG. 1A, equations (3a) and (3b )
Alternatively, the out-of-head sound image localization transfer function from the sound source 11 to the left and right ears given in (3a ′) and (3b ′) is obtained. For the position of the sound source 11, for example, 24 points are preliminarily determined on the circle having a radius of 1.5 m from the subject 12 in the direction θ = −180 ° to + 180 ° at 15 ° intervals. For each subject, the sound source 11 is placed at each of those 24 points.
Is set and the head related transfer functions h l (t) and h r (t) are measured. When measuring the transfer functions s l (t) and s r (t) according to equations (3a ') and (3b'), also measure the output characteristic s p (t) of the sound source (speaker) 11 once in advance. . For example, out-of-head sound localization transfer function s
Let 2048 be the number of coefficients that make up l (t) and s r (t), and measure the response to the input source signal x (t) of the discrete-time function sampled at a sampling frequency of 48.0 kHz. As a result, 57 × 24 pairs of h l (t) and h r (t) are obtained.
e l (t) and e r (t) are only measured once for each subject. From these data the formula (3a), (3b) or (3a '), (3b')
As a result, 57 × 24 pairs of out-of-head sound localization transfer functions s l (t) and s r (t) are obtained. An example of the obtained out-of-head sound image localization transfer function is shown in FIG.
It is shown in FIG. Step SA: Principal Component Analysis Step S1: First, a fast Fourier transform (FFT) is performed on a total of 2736 (57 subjects x 2 ears (left and right) x 24 sound source positions) out-of-head sound image localization transfer functions. Further, the amplitude frequency characteristic H k (f) is obtained by taking the absolute value and then taking the logarithmic value. FIG. 15 shows an example of the amplitude frequency characteristics of the out-of-head sound image localization transfer function. According to the Nyquist sampling theorem, the frequency component up to the half value 24.0kHz of the sampling frequency 48.0kHz can be expressed. However, the frequency band of the sound wave that the sound source 11 for measurement can stably generate is 0.2 to 15.0 kHz. Therefore, the amplitude frequency characteristic for the frequency band 0.2 to 15.0 kHz is used as the characteristic value. Sampling frequency f s = 4
8.0 kHz is the number of coefficients that make up the out-of-head sound localization transfer function n 0
By dividing by = 2048, the frequency resolution Δf (about 23.4Hz) can be obtained. Therefore, the characteristic value corresponding to each out-of-head sound localization function is composed of a P = 632-dimensional vector.

【0048】ステップS2: 次に、式(6) に従って分
散・共分散行列Sを求める。特性値ベクトルの大きさよ
り、分散・共分散行列Sの大きさは632×632となる。 ステップS3: 次に、式(7)を満足する分散・共分散
行列Sの固有値λq 及び固有ベクトル(主成分ベクト
ル)uqを求める。分散・共分散行列Sの序列qを式
(8) のように固有値λq の降順で定める。
Step S2: Next, the variance / covariance matrix S is obtained according to the equation (6). The size of the variance / covariance matrix S is 632 × 632 based on the size of the characteristic value vector. Step S3: Next, the eigenvalue λ q and the eigenvector (principal component vector) u q of the variance / covariance matrix S satisfying the expression (7) are obtained. Formula the order q of the variance / covariance matrix S
Determine in descending order of eigenvalue λ q as in (8).

【0049】ステップS4: 次に、式(10)を用いて、
固有値λq の大きい順に第1から第m主成分までの累積
寄与率Pm を求め、この累積寄与率Pm が90%以上と
なる最小のmを求める。本実施例では、累積寄与率Pm
は第1主成分から順に60.2,80.3,84.5,86.9,88.9,
90.5 % となった。従って、重みベクトルwkの次元
mを6と定める。第1〜第6主成分ベクトルuqの周
波数特性を図16に示す。各主成分は特徴的な周波数特
性を表している。
Step S4: Next, using the equation (10),
The cumulative contribution ratio P m from the first to the m-th principal component is calculated in the descending order of the eigenvalue λ q , and the minimum m at which the cumulative contribution ratio P m is 90% or more is calculated. In this embodiment, the cumulative contribution rate P m
Is 60.2, 80.3, 84.5, 86.9, 88.9, in order from the first principal component
It became 90.5%. Therefore, the dimension m of the weight vector w k is set to 6. FIG. 16 shows the frequency characteristics of the first to sixth principal component vectors u q . Each principal component represents a characteristic frequency characteristic.

【0050】ステップS5: 次いで、各被験者、耳、
音源方向について得たれた頭外音像定位伝達関数sl(t),
sr(t)の振幅周波数特性を、式(11) に従って、上記の各
主成分ベクトルuqと共役な重みベクトルwkで表現
する。よって、振幅周波数特性を表現する自由度をp(=
632)からm(=6)に減少できる。ここで、式(12)を用いれ
ば、左右耳、音源方向θごとに中心値ベクトル<wz>
を求められる。図17A,17B及び18A,18B
は、左及び右耳において測定された頭外音像定位伝達関
数の第1及び第2主成分と共役な重みの中心値及び標準
偏差をそれぞれ示す。但し、音源の方位角θを被験者正
面を0°として反半時計回りとした。分散分析によれ
ば、重みの音源方向依存性は有意である(各主成分につ
いて、いずれも有意水準 p<0.001となるF値が得られ
る)。つまり、音響伝達関数に対応する重みベクトル
は、被験者によって分散するが、音源位置に対して有意
に異なるといえる。また、図17A,17Bと図18
A,18Bを比較すれば明らかなように、左右各耳で測
定された頭外音像定位伝達関数について、重みの音源方
向特性がほぼ左右対称となる結果が得られる。 ステップSB:代表値決定処理 ステップS6: 次に、各耳(左右)、音源方向(θ)
について全被験者(k)の重みベクトルwkの中心値ベク
トル<wz>を式(12)から求める。
Step S5: Next, each subject, ear,
Out-of-head sound localization transfer function s l (t), obtained for the sound source direction,
The amplitude frequency characteristic of s r (t) is represented by a weight vector w k that is conjugate with each principal component vector u q according to equation (11). Therefore, the degree of freedom for expressing the amplitude frequency characteristic is p (=
It can be reduced from 632) to m (= 6). Here, using the equation (12), the center value vector <w z > for each of the left and right ears and the sound source direction θ.
Is required. 17A, 17B and 18A, 18B
Shows the central value and standard deviation of the weights conjugate with the first and second principal components of the out-of-head sound localization transfer function measured in the left and right ears, respectively. However, the azimuth angle θ of the sound source was counterclockwise with the front of the subject being 0 °. According to the analysis of variance, the dependence of the weight on the sound source direction is significant (for each principal component, an F value with a significance level p <0.001 is obtained). That is, it can be said that the weight vector corresponding to the acoustic transfer function is significantly different with respect to the sound source position, although it is dispersed depending on the subject. 17A and 17B and FIG.
As is clear from comparison between A and 18B, it is possible to obtain a result in which the sound source direction characteristics of the weights are substantially symmetrical with respect to the out-of-head sound image localization transfer function measured in each of the left and right ears. Step SB: Representative value determination process Step S6: Next, each ear (left and right), sound source direction (θ)
Then, the central value vector <w z > of the weight vector w k of all subjects (k) is calculated from the equation (12).

【0051】ステップS7: 各耳、各音源方向θにつ
いて得られた全被験者の重みベクトルwkの分散・共
分散行列Σを式(14)により求める。 ステップS8: 重みベクトルwkと中心値ベクトル<
z>との間の距離尺度として、式(13)で表されるマハ
ラノビス汎距離Dk を用い、各耳、各音源方向θについ
て全被験者の重みベクトルwkと中心値ベクトル<w
z>のマハラノビス汎距離Dkを計算する。
Step S7: The variance / covariance matrix Σ of the weight vector w k of all the subjects obtained for each ear and each sound source direction θ is obtained by the equation (14). Step S8: Weight vector w k and center value vector <
The Mahalanobis general distance D k expressed by the equation (13) is used as a distance measure between w z >, and the weight vector w k and the center value vector <w of all subjects for each ear and each sound source direction θ.
Compute the Mahalanobis generalized distance D k of z >.

【0052】ステップS9: マハラノビス汎距離Dk
が最小となる重みベクトルwkに対応する頭部伝達関
数hk(t) を代表値として選択し、図6Aの記憶部24に
耳、音源方向θと対応させて記憶する。このようにして
全ての耳、音源方向θについての選択された頭外音像定
位伝達関数を音響伝達関数の代表値として得られる。同
様にして、外耳道伝達関数er,elについてもステップS
1〜S9を実行して一組の外耳道伝達関数を代表値
e* r,e* lとして定め、記憶部24に記憶する。
Step S9: Mahalanobis general distance D k
The head-related transfer function h k (t) corresponding to the weight vector w k that minimizes is selected as a representative value and stored in the storage unit 24 of FIG. 6A in association with the ear and the sound source direction θ. In this way, the selected out-of-head sound image localization transfer function for all ears and sound source direction θ can be obtained as a representative value of the acoustic transfer function. Similarly, for the ear canal transfer functions e r and e l , step S
1 to S9 is executed to set a set of ear canal transfer functions as representative values
It is defined as e * r and e * l and stored in the storage unit 24.

【0053】図19に、頭外音像定位伝達関数の代表値
に対応する重みベクトル(SelectedL/R)及び疑似頭によ
る頭外音像定位伝達関数に対応する重みベクトル(D Hea
d L/R)についてマハラノビス汎距離を示す。代表値に対
するマハラノビス汎距離はいずれも1.0 以下となった。
この疑似頭による頭外音像定位伝達関数も式(11)を使っ
て求めたものである。但し主成分ベクトルuqの算出
にあたり疑似頭による頭外音像定位伝達関数を対象とし
て含めていない。つまり主成分ベクトルuq及び中心
値ベクトル<wz>は前記被験者57名に関するもので
ある。図19によれば、疑似頭による(D Head L/R)につ
いてのマハラノビス汎距離は、典型的な場合2.0 前後、
最大3.66、最小1.21となった。
FIG. 19 shows a weight vector (Selected L / R) corresponding to the representative value of the out-of-head sound image localization transfer function and a weight vector (D Hea) corresponding to the out-of-head sound image localization transfer function by the pseudo head.
Mahalanobis general distance is shown for d L / R). The Mahalanobis general distance to the representative value was 1.0 or less.
The out-of-head sound localization transfer function by this pseudo head is also obtained by using Eq. (11). However, the out-of-head sound image localization transfer function by the pseudo head is not included in the calculation of the principal component vector u q . That is, the principal component vector u q and the central value vector <w z > are related to the 57 subjects. According to FIG. 19, the Mahalanobis general distance for (D Head L / R) by the pseudo head is typically around 2.0,
The maximum was 3.66 and the minimum was 1.21.

【0054】図20に、選択された当該音像定位伝達関
数の被験者番号(1〜57) を示す。この図20は、全音源
方向θもしくは同一の耳について、必ずしも同一の被験
者が選択されないことを示している。各耳、音源方向に
ついて、人頭によって測定された音響伝達関数に対する
マハラノビス汎距離の二乗値D2 の分布は図4に示すよ
うに自由度6のχ2 分布に近似される。累積分布P(D2) P(D2)=∫0 D2χ6 2(t)dt (16) を用いて、結果を解析する。上記に挙げたマハラノビス
汎距離を用いれば、P(1.02)=0.0144,P(1.212)=0.037
8,P(2.02)=0.3233,P(3.662)=0.9584となる。即ち、疑
似頭による頭外音像定位伝達関数の振幅周波数特性は多
数の受聴者に関するものより大きく偏するといえる。つ
まり、従来から代表値として用いられる疑似頭による音
響伝達関数よりも、本発明によって選択された音響伝達
関数の方が多数の受聴者による振幅周波数特性を近似す
る。このようにして作成されたこの発明による音響伝達
関数表を使用することにより、不特定多数の受聴者に対
して目的音源方向(上述の例では受聴者を中心とする半
径d=1.5m円周上)への音像定位が可能となる。上述では
データ収集において音源11は受聴者を中心とする半径
1.5mの円周上に配置した場合、音響伝達関数表を作成し
たが、さらに他の半径d2,d3,…の円周上に音源11を
配置した場合についても同様の測定を行い図13の処理
に従って音響伝達関数を選択し、図6Bに示すように音
源方向θのみならず半径dごとに音響伝達関数を分類す
る表を作成してもよい。この場合、音像定位位置を半径
方向に制御する手がかりを与える。
FIG. 20 shows the subject numbers (1 to 57) of the selected sound image localization transfer function. FIG. 20 shows that the same subject is not necessarily selected for all sound source directions θ or the same ear. The distribution of the square value D 2 of the Mahalanobis general distance with respect to the acoustic transfer function measured by the human head for each ear and the direction of the sound source is approximated to a χ 2 distribution with 6 degrees of freedom as shown in FIG. The results are analyzed using the cumulative distribution P (D 2 ) P (D 2 ) = ∫ 0 D2 χ 6 2 (t) dt (16). Using the above Mahalanobis general distance, P (1.0 2 ) = 0.0144, P (1.21 2 ) = 0.037
8, P (2.0 2 ) = 0.3233, P (3.66 2 ) = 0.9584. That is, it can be said that the amplitude-frequency characteristics of the out-of-head sound image localization transfer function by the pseudo head are more biased than those for a large number of listeners. That is, the acoustic transfer function selected according to the present invention approximates the amplitude frequency characteristics of a large number of listeners, as compared with the acoustic transfer function based on the pseudo head that has been conventionally used as a representative value. By using the acoustic transfer function table according to the present invention created in this way, the target sound source direction (in the above example, the radius d = 1.5 m centered around the listener in the above example) The sound image localization to (upper) becomes possible. In the above, in the data collection, the sound source 11 has a radius centered on the listener.
When arranged on the circumference of 1.5 m, the acoustic transfer function table was created, but the same measurement was performed when the sound source 11 was arranged on the circumference of other radii d 2 , d 3 ,. An acoustic transfer function may be selected in accordance with the process of 13, and a table for classifying the acoustic transfer functions not only by the sound source direction θ but also by the radius d may be created as shown in FIG. 6B. In this case, a clue for controlling the sound image localization position in the radial direction is given.

【0055】上述の音響伝達関数表作成方法の一例とし
て、一音源位置から一方の耳までの音響伝達関数と、前
記音源位置と左右対称な方位角の音源位置から他方の耳
までの音響伝達関数を近似的に同じであるとみなし、同
一に決定する。例えば、ステップS9で音源位置方位角
30°から左耳までの選択された音響伝達関数を、音源
位置方位角−30°から右耳までの音響伝達関数として
も採用する。本方法の有効性は、図17A,17B及び
図18A,18Bに示すように、左右各耳で測定された
頭外音像定位伝達関数hl(t),hr(t)について、音源の方
位角θに関してほぼ左右対称な中心値ベクトルが得られ
ることに基づいている。本方法によれば、選択に必要な
音響伝達関数h(t)の数が半減され、従って全h(t)の測定
に要する時間、及び表作成のために要する時間を短縮で
き、かつ選択された音響伝達関数の記憶に必要な情報量
を半減できる。
As an example of the above acoustic transfer function table creating method, an acoustic transfer function from one sound source position to one ear and an acoustic transfer function from a sound source position having an azimuth angle symmetrical to the sound source position to the other ear. Are considered to be approximately the same and are determined to be the same. For example, in step S9, the selected acoustic transfer function from the sound source position azimuth angle of 30 ° to the left ear is also adopted as the acoustic transfer function from the sound source position azimuth angle of −30 ° to the right ear. As shown in FIGS. 17A and 17B and FIGS. 18A and 18B, the effectiveness of this method is that the azimuth of the sound source with respect to the out-of-head sound image localization transfer functions h l (t) and h r (t) measured in the left and right ears. It is based on the fact that a center value vector that is almost symmetrical about the angle θ is obtained. According to this method, the number of acoustic transfer functions h (t) required for selection is halved, and therefore the time required to measure all h (t) and the time required to create a table can be shortened and selected. The amount of information required to store the acoustic transfer function can be halved.

【0056】図6A及び図13を参照して説明した伝達
関数表の作成手順では、全ての測定された頭部伝達関数
hl(t),hr(t)及びel(t),er(t)をステップS1で高速フ
ーリエ変換して得られたそれぞれの周波数特性値を主成
分分析する場合を示した。別実施例として測定された全
ての頭部伝達関数hl(t),hr(t)と、外耳道伝達関数e
l(t),er(t)とを用いて式(3a),(3b)に従って予め求め
た頭外音像定位伝達関数sl(t),sr(t)を用いてもよい。
それらの頭外音像定位伝達関数sl(t),sr(t)を図13と
同様の手順で主成分分析して代表値s* l(t),s* r(t)を決
定し、伝達関数表を作成する。或いは、図8の2つのス
ピーカによる再生系(トランスオーラル)の場合は、図
11に示したように式(5a),(5b)で与えられる伝達関数
gl(t),gr(t)を測定データhl(t),hr(t),err(t),e
rl(t),elr(t),ell(t)から予め計算し、そのgl(t),gr
(t)を主成分分析して代表値g* l(t),g* r(t)の表を作成
してもよい。或いは、図9の場合は、図12に示すよう
にhl(t),hr(t),err(t),erl(t),elr(t),ell(t)から
式(5a),(5b)のΔhr(t),Δhl(t),Δe(t)を予め計算
し、これらの中から選択された代表値Δh* r(t),Δh
* l(t),Δe*を用いて伝達関数表を作成する。
In the procedure for creating the transfer function table described with reference to FIGS. 6A and 13, all measured head related transfer functions are used.
The case where the principal component analysis of each frequency characteristic value obtained by performing the fast Fourier transform of h l (t), h r (t) and e l (t), e r (t) in step S1 is shown. As another example, all head-related transfer functions h l (t) and h r (t) measured, and the ear canal transfer function e
l (t), e r ( t) and using the equation (3a), may be used out-of-head sound localization transfer previously determined according to (3b) function s l (t), s r (t).
The out-of-head sound localization transfer functions s l (t) and s r (t) are subjected to principal component analysis in the same procedure as in FIG. 13 to determine representative values s * l (t) and s * r (t). , Create a transfer function table. Alternatively, in the case of a reproduction system (trans-aural) with two speakers in FIG. 8, the transfer function given by equations (5a) and (5b) as shown in FIG.
g l (t), g r (t) are measured data h l (t), h r (t), e rr (t), e
It is calculated in advance from rl (t), e lr (t), and e ll (t), and its g l (t), g r
(t) may be subjected to principal component analysis to create a table of representative values g * l (t) and g * r (t). Alternatively, in the case of FIG. 9, as shown in FIG. 12, from h l (t), h r (t), e rr (t), e rl (t), e lr (t), and e ll (t), Δh r (t), Δh l (t), and Δe (t) in equations (5a) and (5b) are calculated in advance, and representative values selected from these Δh * r (t) and Δh
Create a transfer function table using * l (t) and Δe * .

【0057】図21は上述のように作成した仮想音像定
位用音響伝達関数表を使用した音響信号編集システムの
別実施例を示す。図6A及び図7では1系統の入力音響
信号x(t)に対して処理を行う音響信号編集システムの例
を示したが、図21の実施例では2系統の音響信号x
1(t) 及びx2(t) を入力とする例である。音響信号処理
部23L1,23R1,23L2,23R2から出力された音響信号をそ
れぞれの入力系統にわたって左右各チャネルごとに加算
し、1系統の左右2チャネルの音響信号として出力す
る。
FIG. 21 shows another embodiment of the acoustic signal editing system using the virtual sound image localization acoustic transfer function table created as described above. 6A and 7 show an example of the acoustic signal editing system which processes one input acoustic signal x (t), the embodiment of FIG.
In this example, 1 (t) and x 2 (t) are input. Acoustic signal processing unit 23L 1, 23R 1, 23L 2, 23R acoustic signal output from 2 is added to each right and left channels over respective input lines, output as left and right two-channel audio signals of one system.

【0058】入力端子211,212には例えば録音スタジオ
のマイクロホンからの音響信号x1,x2、あるいはすでに
録音されているCD,MD,テープ等から再生された音
響信号x1,x2が入力される。これら音響信号x1,x2はそ
れぞれ左右各チャネルに分岐され、それぞれ左右音響信
号処理部23L1,23R1及び23L2,23R2に与えられ、頭外音
像定位伝達関数表より設定された音響伝達関数s
l1),sr1)及びsl2),sr2) が畳み込まれ
る。ここで、θ12 は各々第1及び第2系統の音声
(音響信号x1,x2)に対する目的位置(ここでは方向)
を示す。音響信号処理部23L1,23R1及び23L2,23R2の出
力は左右加算部28L,28Rで対応するチャネルの音響信号
が加算され、出力端子31L,31R からヘッドホン32ある
いはCD,MD,テープ等への録音装置33に左右チャ
ネル音響信号yl(t),yr(t)として与えられる。
[0058] Input terminals 21 1, 21 2 acoustic signals x 1 from the example recording studio microphones to, x 2 or already CD being recorded, MD, acoustic signals x 1 reproduced from a tape or the like, x 2, Is entered. These acoustic signals x 1 and x 2 are branched into left and right channels, respectively, and are given to the left and right acoustic signal processing units 23L 1 , 23R 1 and 23L 2 , 23R 2 , respectively, and the acoustics set by the out-of-head sound localization transfer function table are set. Transfer function s
l1 ), s r1 ) and s l2 ), s r2 ) are convolved. Here, θ 1 and θ 2 are target positions (here, directions) with respect to the voices (acoustic signals x 1 and x 2 ) of the first and second systems, respectively.
Is shown. The outputs of the acoustic signal processing units 23L 1 , 23R 1 and 23L 2 , 23R 2 are added with the acoustic signals of the corresponding channels in the left and right addition units 28L, 28R, and the headphones 32 or CD, MD, tape, etc. from the output terminals 31L, 31R. The left and right channel acoustic signals y l (t) and y r (t) are given to the recording device 33 for recording.

【0059】目的音源位置設定部25は、指定された目
的位置信号θ1,θ2を出力し音響伝達関数表記憶部24
に与えられる。音響伝達関数表記憶部24には前述のよ
うにして作成された仮想音像定位用音響伝達関数表が記
憶されており、与えられた目的位置信号θ1,θ2に対応
する頭外音像定位伝達関数sl1),sr1),s
l2),sr2) を読み出し、音響信号処理部23L1,23
R1,23L2,23R2にそれぞれ設定する。これにより不特定
の受聴者は系統1、2の音声(音響信号x1,x2)に対し
て各々目的位置θ1,θ2への音像定位を実現する。
The target sound source position setting unit 25 outputs the designated target position signals θ 1 and θ 2 and outputs the acoustic transfer function table storage unit 24.
Given to. The acoustic transfer function table storage unit 24 stores the virtual sound image localization acoustic transfer function table created as described above, and outputs the out-of-head sound image localization transfer corresponding to the given target position signals θ 1 and θ 2. Functions s l1 ), s r1 ), s
l2 ) and s r2 ) are read out, and acoustic signal processing units 23L 1 and 23
Set to R 1 , 23L 2 and 23R 2 , respectively. As a result, the unspecified listener realizes sound image localization to the target positions θ 1 and θ 2 for the voices (acoustic signals x 1 and x 2 ) of the systems 1 and 2 , respectively.

【0060】図21の実施例において頭外音像定位伝達
関数sl1),sr1),sl2),s r2)の代わりに音
響伝達特性g* l1),g* r1),g* l2),g* r2)を
用い、出力音響信号yl,yrをスピーカで再生しても同様
に系統1、2の音声に対して各々位置θ1,θ2への定位
を不特定の受聴者に実現することができる。頭外音像定
位伝達関数sl1),sr1),sl2),sr2) 又は
伝達特性g* l1),g* r1),g* l2),g* r2) の
設定に関わる処理が逐次に行われれば、移動する音像を
知覚させる音響信号を実時間で編集できる。音響伝達関
数表記億部24としてはRAM 又はROM 等の記憶媒体を用
いることができる。該記憶媒体には、とり得る全ての音
源位置θにそれぞれ対応した頭外音像定位伝達関数s
l(θ),sr(θ)又は伝達特性g* l(θ),g* r(θ)を予め記
憶しておく。
Out-of-head sound image localization transmission in the embodiment of FIG.
Function sl1), Sr1), SlTwo), S rTwo) Instead of sound
Resonance transfer characteristic g* l1), G* r1), G* lTwo), G* rTwo)
Used, output acoustic signal yl, YrIs the same even if is played on the speaker
Position θ with respect to the sounds of lines 1 and 21, ΘTwoOrientation to
Can be realized for unspecified listeners. Out-of-head sound image determination
Order transfer function sl1), Sr1), SlTwo), SrTwo) Or
Transfer characteristic g* l1), G* r1), G* lTwo), G* rTwo) of
If the processing related to setting is performed sequentially, the moving sound image
The perceptual acoustic signal can be edited in real time. Sound transmission function
A storage medium such as a RAM or a ROM is used as the numeral notation 24.
Can be. The storage medium has all the possible sounds
Out-of-head sound localization transfer function s corresponding to each source position θ
l(θ), sr(θ) or transfer characteristic g* l(θ), g* rWrite (θ) in advance
Remember.

【0061】図21の実施例では図6Aの場合と同様に
多数の被験者について測定した頭部伝達関数hl(t),h
r(t)と外耳道伝達関数el(t),er(t)から決定した代表値
から予め頭外音像定位伝達関数sl(t),sr(t)を逆畳込み
により計算し、そのデータに基づいて各音源位置(音源
方向θ)に対応する代表値をsl(t),sr(t)から選択して
仮想音響伝達関数表を作成する場合を示したが、図7と
同様に頭外音像定位伝達関数sl(t),sr(t)を計算しない
で、測定した頭部伝達関数hl(t),hr(t)から各音源位置
(音源方向θ)に対応する代表値を図6Aと同様な手順
で選択して表を作成しても良い。その場合は、全ての被
験者について測定したel(t),er(t)から図6Aの手順で
1組のe* l(t),e* r(t)を代表値として選択しておき、表
に保存しておく。この仮想音像定位用音響伝達関数表を
用い音響信号を編集する場合、図1Bにおける畳込み部
16Lを図2に示すように頭部伝達関数畳込み部16HL
と外耳道伝達関数逆畳込み部16ELの縦続接続によって
構成し、同様に畳込み部16Rを頭部伝達関数畳込み部
16HRと外耳道伝達関数逆畳込み部16ERの縦続接続に
より構成すればよいことは式(3a),(3b)から明らかであ
る。
In the embodiment shown in FIG. 21, the head related transfer functions h l (t), h measured for a large number of subjects as in the case of FIG. 6A.
From the representative values determined from r (t) and the ear canal transfer functions e l (t) and e r (t), the out-of-head sound localization transfer functions s l (t) and s r (t) are calculated by deconvolution in advance. , A representative value corresponding to each sound source position (sound source direction θ) is selected from s l (t) and s r (t) based on the data to create a virtual acoustic transfer function table. As in 7, the out-of-head sound localization transfer functions s l (t) and s r (t) are not calculated, and the measured head-related transfer functions h l (t) and h r (t) are used to determine the sound source position (source direction). A representative value corresponding to θ) may be selected in the same procedure as in FIG. 6A to create a table. In that case, a set of e * l (t) and e * r (t) is selected as a representative value from the e l (t) and e r (t) measured for all subjects by the procedure of FIG. 6A. And save it in a table. When an acoustic signal is edited using this virtual sound image localization acoustic transfer function table, the convolution unit 16L in FIG. 1B is replaced by the head related transfer function convolution unit 16HL as shown in FIG.
And the external ear canal transfer function deconvolution unit 16EL are connected in series, and the convolution unit 16R is similarly formed by connecting the head-related transfer function convolution unit 16HR and the external auditory canal transfer function deconvolution unit 16ER in a cascade connection. It is clear from equations (3a) and (3b).

【0062】ところで、一般に、あるフィルタ係数の逆
フィルタ係数が存在するためには、そのフィルタ係数が
最小位相条件を満足しなければならないことは周知であ
る。つまり、任意の係数で逆畳込み演算(逆フィルタ処
理)を行った場合、一般に解(出力)が発散する。図6
A及び8の演算処理部27の逆畳込み部27C,27H
において実行される式(3a),(3b),(5a),(5b)による逆
畳込み演算についても同様のことがいえ、逆畳込み演算
の解が発散する場合がある。図7及び9の逆畳込み部23
ER,23ELについても同様である。このような解の発散が
起こらないような逆フィルタ係数を形成するためには、
最小位相課された係数で逆フィルタを構成すればよいこ
とが例えばA.V.Oppenheim, et al "Digital Signal Pro
cessing," PRENTICE-HALL,INC.1975に示されている。こ
の発明においても、このような逆畳込み演算における発
散を回避するためには、予め最小位相化された係数を用
いて逆畳込み演算を行えばよい。最小位相化の対象とし
て音刺激の提示に用いられる音源から受聴者の各耳まで
の音響伝達特性を反映した係数を用いる。例えば、式(3
a),(3b)におけるel(t),er(t)又は式(3a'),(3b')にお
けるsp(t)*el(t),s p*er(t)、もしくは式(5a),(5b)に
おけるΔe 又はsp(t)*Δeがこれに該当する。
By the way, in general, the inverse of a certain filter coefficient
If there is a filter coefficient, that filter coefficient
It is well known that the minimum phase condition must be met.
You. That is, an inverse convolution operation (inverse filter processing) with an arbitrary coefficient
However, the solution (output) generally diverges. FIG.
Deconvolution units 27C and 27H of the arithmetic processing unit 27 of A and 8
Inverse by the expressions (3a), (3b), (5a), and (5b) executed in
The same thing can be said about the convolution operation.
The solution of may diverge. Defolder 23 of FIGS. 7 and 9
The same applies to ER and 23EL. The divergence of such a solution
To create an inverse filter coefficient that will not happen,
It is only necessary to construct an inverse filter with the minimum phase imposed coefficient.
For example, A.V. Oppenheim, et al "Digital Signal Pro
cessing, "PRENTICE-HALL, INC. 1975.
Also in the invention of the above, the deconvolution operation
In order to avoid dispersion, use the coefficient that has been minimized in advance.
Then, the deconvolution operation may be performed. Target of minimum phase
From the sound source used to present sound stimulation to each ear of the listener
A coefficient that reflects the acoustic transfer characteristics of is used. For example, the expression (3
e in a) and (3b)l(t), erIn (t) or equations (3a ') and (3b')
Sp(t) * el(t), s p* er(t), or in equations (5a) and (5b)
Δe or sp(t) * Δe corresponds to this.

【0063】対象となる係数が2の累乗個の数値(フィ
ルタ長:n)で構成されるとき、最小位相化演算(MPを
表すことにする)は高速フーリエ変換(FFT)を用い
て次のように表される。 MP{h}=FFT-1(exp{FFT(W(FFT-1(log|FFT(h)|))} (17) ここで、FFT-1 は逆高速フーリエ変換、W(A)はフィルタ
係数ベクトルAに対する窓関数を示す。ただし、1番目
及びn/2+1番目のAをそのままの値とする。また、2番
目からn/2番目までのAを2倍し、n/2+2番目以降のAを
零とする。
When the coefficient of interest is composed of a number of powers of 2 (filter length: n), the minimum phasing operation (to represent MP) uses the fast Fourier transform (FFT) to Is represented as MP {h} = FFT -1 (exp {FFT (W (FFT -1 (log | FFT (h) |))} (17) where FFT -1 is the inverse fast Fourier transform and W (A) is the filter The window function for the coefficient vector A is shown, where the 1st and n / 2 + 1th A are the same values, and the 2nd to n / 2th A are doubled to obtain n / 2 + The second and subsequent A are set to zero.

【0064】このような最小位相化が施されても、演算
対象となる係数の振幅周波数特性は変化しない。また、
両耳間時間差は主に頭部伝達関数HRTFにおいて出現す
る。結果として、音像定位の手がかりと考えられる両耳
間時間差、レベル差及び周波数特性は最小位相化による
影響を受けない。この様な逆畳込み演算における発散が
起こらないように図6A〜8の実施例に最小位相化を適
用した場合の演算処理部27の構成例を以下に説明す
る。
Even if such a minimum phase is applied, the amplitude frequency characteristic of the coefficient to be calculated does not change. Also,
The interaural time difference mainly appears in the head related transfer function HRTF. As a result, the interaural time difference, the level difference, and the frequency characteristic, which are considered to be a clue for sound image localization, are not affected by the minimization of phase. A configuration example of the arithmetic processing unit 27 when the minimum phase conversion is applied to the embodiments of FIGS. 6A to 8 so that divergence does not occur in such an inverse convolution operation will be described below.

【0065】図22は図6Aにおける演算処理部27に
最小位相化を適用した場合を示す。演算処理部27内に
最小位相化部27Gが設けられ、代表値選択部27Bで
決定された外耳道伝達関数代表値e* l,e* rを最小位相化
処理する。これによって得られた最小位相化代表値MP{e
* l},MP{e* r}を逆畳込み部27Cに与えて、式(3a),(3
b)で表される逆畳込み演算を行う。得られた頭外音像定
位伝達関数s* l(θ),s * r(θ)は図6Aの伝達関数表記憶
部24に書き込まれる。
FIG. 22 shows the arithmetic processing section 27 in FIG. 6A.
The case where the minimum phasing is applied is shown. In the arithmetic processing unit 27
The minimum phase conversion unit 27G is provided, and the representative value selection unit 27B
Representative value e of the determined ear canal transfer function* l, E* rMinimum phase
To process. The minimum phased representative value MP {e obtained by this
* l}, MP {e* r} Is given to the deconvolution unit 27C, and equations (3a) and (3
The deconvolution operation represented by b) is performed. Obtained out-of-head sound image
Order transfer function s* l(θ), s * r(θ) is the transfer function table memory of FIG. 6A
Written to section 24.

【0066】図23は図22の実施例の変形実施例であ
り、主成分分析を行う前に、測定データ蓄積部26で蓄
積された外耳道伝達関数el(t),er(t)を最小位相化部2
7Gで最小位相化処理する。得られた最小位相化伝達関
数MP{er},MP{el}により、全ての目的位置に対する頭部
伝達関数hr(t),hl(t)を逆畳込み部27Cで各被験者毎
に逆畳込み演算する。求められた頭外音像定位伝達関数
sr(t),sl(t)を主成分分析して各目的位置θ毎に決定さ
れた代表値s* r(θ),s* l(θ)を図6Aの伝達関数表記憶
部24に書き込む。
FIG. 23 is a modification of the embodiment of FIG. 22, in which the ear canal transfer functions e l (t) and e r (t) stored in the measurement data storage unit 26 are analyzed before the principal component analysis. Minimum phasing unit 2
Minimize the phase with 7G. Using the obtained minimum phased transfer functions MP {e r }, MP {e l }, the head-related transfer functions h r (t) and h l (t) for all target positions are calculated by the deconvolution unit 27C for each subject. The deconvolution operation is performed for each. Obtained out-of-head sound localization transfer function
The transfer function table storage unit of FIG. 6A shows the representative values s * r (θ) and s * l (θ) determined for each target position θ by principal component analysis of s r (t) and s l (t). Write to 24.

【0067】図24は図7における演算処理部27に最
小位相化法を適用した場合である。図7における演算処
理部27内に最小位相化部27Gが設けられ、代表値選
択部27Bで決定された外耳道伝達関数代表値e* l,e* r
を最小位相化処理する。これによって得られた最小位相
化代表値MP{e* l},MP{e* r}は代表値選択部27Bで決定
された頭部伝達関数代表値h* r(θ),h* l(θ)と共に図7
の伝達関数表記憶部24に書き込まれる。
FIG. 24 shows the case where the minimum phase conversion method is applied to the arithmetic processing unit 27 in FIG. A minimum phase conversion unit 27G is provided in the arithmetic processing unit 27 in FIG. 7, and the ear canal transfer function representative values e * l , e * r determined by the representative value selection unit 27B.
Is subjected to minimum phase conversion processing. The minimum phased representative values MP {e * l }, MP {e * r } obtained by this are the head related transfer function representative values h * r (θ), h * l (determined by the representative value selection unit 27B. 7) together with θ)
Is written in the transfer function table storage unit 24.

【0068】図25は図24の実施例の変形実施例であ
る。主成分分析を行う前に、測定データ蓄積部26で蓄
積された外耳道伝達関数el(t),er(t)を最小位相化部2
7Gで最小位相化処理する。得られた最小位相化外耳道
伝達関数MP{er},MP{el}は測定データ蓄積部26で蓄積
された頭部伝達関数hr(t),hl(t)と並行して主成分分析
部27Bで分析され、その分析結果に基づいてそれぞれ
の代表値が代表値選択部27Bで決定される。得られた
最小位相化代表値MP{e* l},MP{e* r}と頭部伝達関数代表
値h* r(θ),h* l(θ)は共に図7の伝達関数表記憶部24
に書き込まれる。
FIG. 25 shows a modification of the embodiment shown in FIG. Before performing the principal component analysis, the ear canal transfer functions e l (t) and e r (t) accumulated by the measurement data accumulating unit 26 are calculated by the minimum phase converting unit 2.
Minimize the phase with 7G. The obtained minimum phased ear canal transfer functions MP {e r }, MP {e l } are parallel to the head related transfer functions h r (t), h l (t) accumulated in the measurement data accumulating unit 26. The component analysis unit 27B analyzes the representative value, and the representative value selection unit 27B determines each representative value based on the analysis result. The obtained minimum phased representative values MP {e * l }, MP {e * r } and head-related transfer function representative values h * r (θ), h * l (θ) are both stored in the transfer function table of FIG. Part 24
Is written to.

【0069】図26は図8における演算処理部27に最
小位相化法を適用した場合であり、図8における演算処
理部27内に最小位相化部27Gが設けられ、畳込み演
算部27Eで計算されたΔe*={ell*err-elr*erl}を最小
位相化部27Hで最小位相化処理する。これによって得
られた最小位相化代ベクトルMP{Δe*}を逆畳込み部27
Fに与えて、畳込み演算部27DからのΔh* r(θ),Δh
* l(θ)に対しそれぞれ式(5a),(5b)における逆畳込み演
算を行う。得られた頭外音像定位伝達関数g* r(θ),g* l
(θ)は図8の伝達関数表記憶部24に書き込まれる。
FIG. 26 shows a case where the minimum phase conversion method is applied to the arithmetic processing unit 27 in FIG. 8. The minimum phase conversion unit 27G is provided in the arithmetic processing unit 27 in FIG. The minimum phasing unit 27H performs the minimum phasing process on the obtained Δe * = {e ll * e rr -e lr * e rl }. The minimum convolution vector MP {Δe * } obtained by this is used in the deconvolution unit 27.
F is given to F, and Δh * r (θ), Δh from the convolution operation unit 27D
The deconvolution operation in Eqs. (5a) and (5b) is performed on * l (θ), respectively. Obtained out-of-head sound localization transfer function g * r (θ), g * l
(θ) is written in the transfer function table storage unit 24 in FIG.

【0070】図27は図26の変形実施例であり、図2
5における畳込み演算部27D,27E、最小位相化部
27H及び逆畳込み部27Fの一連の処理を、主成分分
析を行う前の全測定頭部伝達関数hr(t),hl(t)外耳道伝
達関数err(t),erl(t),elr(t),ell(t)に対して実行す
る。それによって得られた伝達関数gr(t),gl(t)に対し
主成分分析を行って、その分析結果に基づいて伝達関数
の代表値g* r(θ),g* l(θ)を決定し、図8の伝達関数表
記憶部24に書き込む。
FIG. 27 shows a modification of FIG. 26, and FIG.
5, the total head-related transfer functions h r (t), h l (t) before the principal component analysis is performed on the series of processes of the convolution operation units 27D and 27E, the minimum phase conversion unit 27H, and the deconvolution unit 27F. ) The ear canal transfer functions e rr (t), e rl (t), e lr (t), and e ll (t) are executed. Principal component analysis is performed on the transfer functions g r (t) and g l (t) thus obtained, and the representative values of the transfer functions g * r (θ) and g * l (θ ) Is determined and written in the transfer function table storage unit 24 in FIG.

【0071】図28は図9における演算処理部27に最
小位相化法を適用した場合であり、図9における演算処
理部27内に最小位相化部27Hが設けられ、畳込み演
算部27Eで計算されたΔe*={ell*err-elr*erl}を最小
位相化部27Hで最小位相化処理する。これによって得
られた最小位相化代ベクトルMP{Δe*}は、畳込み演算部
27DからのΔh* r(θ),Δh* l(θ)と共に図9の伝達関
数表記憶部24に書き込まれる。
FIG. 28 shows a case in which the minimum phasing method is applied to the arithmetic processing unit 27 in FIG. 9, and the minimum phasing unit 27H is provided in the arithmetic processing unit 27 in FIG. 9 and calculation is performed by the convolution arithmetic operation unit 27E. The minimum phasing unit 27H performs the minimum phasing process on the obtained Δe * = {e ll * e rr -e lr * e rl }. The minimum phasing vector MP {Δe * } obtained by this is written in the transfer function table storage unit 24 of FIG. 9 together with Δh * r (θ) and Δh * l (θ) from the convolution operation unit 27D. .

【0072】図29は図28の変形実施例であり、図2
7における畳込み演算部27D,27E及び最小位相化
部27Hの一連の処理を、主成分分析を行う前の全測定
頭部伝達関数hr(t),hl(t)外耳道伝達関数err(t),e
rl(t),elr(t),ell(t)に対して実行する。それによっ
て得られたΔhr(t),Δhl(t)及びMP{Δe} に対し主成分
分析を行って、その分析結果に基づいて伝達関数の代表
値Δh* r(θ),Δh* l(θ)及びMP{Δe*}を決定し、図9の
伝達関数表記憶部24に書き込む。
FIG. 29 shows a modification of FIG. 28, and FIG.
7. All the measured head related transfer functions h r (t), h l (t) external auditory canal transfer function e rr before the principal component analysis is performed for the series of processes of the convolution operation units 27D and 27E and the minimum phase conversion unit 27H in FIG. (t), e
Perform on rl (t), e lr (t), and e ll (t). Principal component analysis is performed on Δh r (t), Δh l (t) and MP {Δe} obtained thereby, and the representative values of the transfer function Δh * r (θ) and Δh * are based on the analysis results . l (θ) and MP {Δe * } are determined and written in the transfer function table storage unit 24 in FIG.

【0073】図30は図29の変形実施例であり、最小
位相化部27Hを代表値選択部27Bの出力側に設け、
決定された代表値Δe*を最小位相化している点が図29
と異なるだけである。
FIG. 30 shows a modification of FIG. 29, in which the minimum phase shifter 27H is provided on the output side of the representative value selector 27B.
FIG. 29 shows that the determined representative value Δe * is minimized.
Is only different.

【0074】[0074]

【発明の効果】以上説明したように、この発明の仮想音
像定位用音響伝達関数表作成方法においては、多数の被
験者について測定された音響伝達関数の中から主成分分
析に基づいて各目的音源位置につき左右1組の音響伝達
関数を少ない自由度で決定することができる。これによ
って作成された伝達関数表を使えば、不特定の受聴者に
対し正しく音像定位できるように音響信号を処理するこ
とが可能となる。
As described above, in the virtual sound image localization acoustic transfer function table preparation method of the present invention, each target sound source position is selected from the acoustic transfer functions measured for a large number of subjects based on the principal component analysis. A pair of left and right acoustic transfer functions can be determined with a small degree of freedom. By using the transfer function table created in this way, it becomes possible to process the acoustic signal so that the sound image can be correctly localized for an unspecified listener.

【0075】また、振幅周波数特性の距離尺度としてマ
ハラノビス汎距離を用いれば、分散又は共分散の絶対値
に関わらず音響伝達関数の確率分布の粗密を考慮して音
響伝達関数を決定できる。さらに、1音源位置から一方
の耳までの音響伝達関数と、前記音源位置と左右対称な
方位角の音源位置から他方の耳までの音響伝達関数を同
一に決定するれば、選択に必要な音響伝達関数の量、又
は、選択された音響伝達関数の記憶に必要な情報量を半
減できる。
If the Mahalanobis general distance is used as the distance measure of the amplitude frequency characteristic, the acoustic transfer function can be determined in consideration of the density of the probability distribution of the acoustic transfer function regardless of the absolute value of the variance or covariance. Further, if the acoustic transfer function from one sound source position to one ear and the acoustic transfer function from the sound source position of an azimuth angle symmetrical to the sound source position to the other ear are determined to be the same, the sound required for selection is selected. The amount of transfer function or the amount of information required to store the selected acoustic transfer function can be halved.

【0076】この発明による伝達関数表の作成方法にお
いて、実音源から各耳までの最小位相化された音響伝達
関数を反映した係数を用いて逆畳込み演算を行うことに
より、頭外音像定位伝達関数又は伝達特性、ひいては音
響信号の発散を回避することができる。
In the transfer function table creating method according to the present invention, the out-of-head sound localization transfer is performed by performing the deconvolution operation using the coefficient that reflects the acoustic transfer function from the real sound source to each ear with the minimum phase. A divergence of the function or transfer characteristic and thus the acoustic signal can be avoided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】Aは音源から左右耳の鼓膜までの音響伝達関数
(頭部伝達関数)を説明するための図、Bはヘッドホン
を用いた再生系における仮想音像定位の実現方法を説明
するための図。
FIG. 1A is a diagram for explaining an acoustic transfer function (head-related transfer function) from a sound source to the eardrums of the left and right ears, and B is a diagram for explaining a method of realizing virtual sound localization in a reproduction system using headphones. Fig.

【図2】ヘッドホンを用いた再生系において頭部伝達関
数と外耳道伝達関数を別個に扱った場合の仮想音像定位
の実現方法を示す図。
FIG. 2 is a diagram showing a method of realizing virtual sound image localization when a head related transfer function and an ear canal transfer function are separately handled in a reproduction system using headphones.

【図3】2つのスピーカを用いた再生系における仮想音
像定位の実現方法を説明するための図。
FIG. 3 is a diagram for explaining a method of realizing virtual sound image localization in a reproduction system using two speakers.

【図4】測定された音響伝達関数に対応する重みベクト
ルと中心値ベクトルの間のマハラノビス汎距離の分布を
示す。
FIG. 4 shows the distribution of Mahalanobis general distances between the weight vector and the median vector corresponding to the measured acoustic transfer function.

【図5】第1及び第2主成分に対応する重みの相関を示
す図。
FIG. 5 is a diagram showing a correlation of weights corresponding to first and second principal components.

【図6】Aはヘッドホンを用いた再生系のためのこの発
明による仮想仮想音像定位用音響伝達関数表作成方法と
その伝達関数表を用いた音響信号編集とを実施するため
の機能ブロック図、Bは仮想音像定位用音響伝達関数表
の他の形態を示す図。
FIG. 6A is a functional block diagram for carrying out a virtual virtual image localization acoustic transfer function table preparation method according to the present invention for a reproduction system using headphones and acoustic signal editing using the transfer function table; B is a figure which shows the other form of the acoustic transfer function table for virtual sound image localization.

【図7】ヘッドホンを用いた他の再生系のためのこの発
明による仮想音像定位用音響伝達関数表作成方法の他の
形態とその伝達関数表を用いた音響信号編集とを実施す
るための機能ブロック図。
FIG. 7 is a function for carrying out another mode of the method for creating a virtual sound image localization acoustic transfer function table according to the present invention for another reproducing system using headphones and editing an acoustic signal using the transfer function table. Block Diagram.

【図8】2個のスピーカを用いた再生系のための仮想音
像定位用音響伝達関数表作成方法と、その伝達関数表を
用いた音響信号編集とを実施するための機能ブロック
図。
FIG. 8 is a functional block diagram for carrying out a virtual sound image localization acoustic transfer function table creation method for a reproduction system using two speakers and an acoustic signal editing using the transfer function table.

【図9】2個のスピーカを用いた他の再生系のための仮
想音像定位用音響伝達関数表作成方法と、その伝達関数
表を用いた音響信号編集とを実施するための機能ブロッ
ク図。
FIG. 9 is a functional block diagram for implementing a virtual sound image localization acoustic transfer function table creation method for another reproduction system using two speakers and an acoustic signal editing using the transfer function table.

【図10】図6Aにおける演算処理部27の変形例を示
すブロック図。
FIG. 10 is a block diagram showing a modified example of the arithmetic processing unit 27 in FIG. 6A.

【図11】図8における演算処理部27の変形例を示す
ブロック図。
11 is a block diagram showing a modified example of the arithmetic processing unit 27 in FIG.

【図12】図9における演算処理部27の変形例を示す
ブロック図。
12 is a block diagram showing a modified example of the arithmetic processing unit 27 in FIG.

【図13】この発明による仮想音像定位用音響伝達関数
表作成方法を実施する手順を示すフロー。
FIG. 13 is a flowchart showing a procedure for carrying out the method for creating a virtual sound image localization acoustic transfer function table according to the present invention.

【図14】頭外音像定位伝達関数の時系列係数の例を示
す図。
FIG. 14 is a diagram showing an example of time series coefficients of an out-of-head sound image localization transfer function.

【図15】頭外音像定位伝達関数の振幅周波数特性の例
を示す図。
FIG. 15 is a diagram showing an example of amplitude frequency characteristics of an out-of-head sound image localization transfer function.

【図16】各主成分の周波数特性を示す図。FIG. 16 is a diagram showing frequency characteristics of each main component.

【図17】Aは左耳で測定された音響伝達関数に対応す
る重みベクトルの第1主成分の音源方向依存性を示す
図、Bは左耳で測定された音響伝達関数に対応する重み
ベクトルの第2主成分の音源方向依存性を示す図。
FIG. 17A is a diagram showing the sound source direction dependency of the first principal component of the weight vector corresponding to the acoustic transfer function measured in the left ear, and B is the weight vector corresponding to the acoustic transfer function measured in the left ear. FIG. 6 is a diagram showing the sound source direction dependency of the second principal component of FIG.

【図18】Aは右耳で測定された音響伝達関数に対応す
る重みベクトルの第1主成分の音源方向依存性を示す
図、Bは右耳で測定された音響伝達関数に対応する重み
ベクトルの第2主成分の音源方向依存性を示す図。
FIG. 18A is a diagram showing the sound source direction dependency of the first principal component of the weight vector corresponding to the acoustic transfer function measured in the right ear, and B is the weight vector corresponding to the acoustic transfer function measured in the right ear. FIG. 6 is a diagram showing the sound source direction dependency of the second principal component of FIG.

【図19】中心値ベクトルと各代表値間のマハラノビス
汎距離を示す図。
FIG. 19 is a diagram showing a Mahalanobis general distance between a central value vector and respective representative values.

【図20】選択された頭外音像定位伝達関数の被験者番
号を示す表。
FIG. 20 is a table showing subject numbers of selected out-of-head sound image localization transfer functions.

【図21】2系統の入力信号を編集する場合にこの発明
の音響伝達関数表を適用した再生系を示すブロック図。
FIG. 21 is a block diagram showing a reproduction system to which the acoustic transfer function table of the present invention is applied when editing input signals of two systems.

【図22】図6Aにおける演算処理部27に最小位相化
を適用した場合の構成を示すブロック図。
22 is a block diagram showing a configuration in the case where minimum phase conversion is applied to the arithmetic processing unit 27 in FIG. 6A.

【図23】図22の変形実施例を示すブロック図。FIG. 23 is a block diagram showing a modified example of FIG. 22.

【図24】図7における演算処理部27に最小位相化を
適用した場合の構成を示すブロック図。
24 is a block diagram showing a configuration in the case where minimum phase conversion is applied to the arithmetic processing unit 27 in FIG.

【図25】図24の変形実施例を示すブロック図。FIG. 25 is a block diagram showing a modification of FIG. 24.

【図26】図8における演算処理部27に最小位相化を
適用した場合の構成を示すブロック図。
26 is a block diagram showing a configuration in the case where minimum phase conversion is applied to the arithmetic processing unit 27 in FIG.

【図27】図26の変形実施例を示すブロック図。FIG. 27 is a block diagram showing a modified example of FIG. 26.

【図28】図9における演算処理部27に最小位相化を
適用した場合の構成を示すブロック図。
28 is a block diagram showing a configuration when minimum phase conversion is applied to the arithmetic processing unit 27 in FIG. 9.

【図29】図28の変形実施例を示すブロック図。FIG. 29 is a block diagram showing a modified example of FIG. 28.

【図30】図29の変形実施例を示すブロック図。FIG. 30 is a block diagram showing a modification of FIG. 29.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成8年10月9日[Submission date] October 9, 1996

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項15[Name of item to be corrected] Claim 15

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項19[Correction target item name] Claim 19

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項20[Correction target item name] Claim 20

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 仮想音像定位用音響伝達関数表の作成方
法であり、以下のステップを含む: (a) 複数の被験者について、複数の目的音源位置のそれ
ぞれから左右耳に至る予め測定された音響伝達関数を主
成分分析してそれぞれの音響伝達関数に対応する重みベ
クトルを得て、 (b) 各上記目的音源位置及び各左右耳についての上記重
みベクトルの中心値ベクトルを求め、 (c) 各上記目的音源位置及び各左右耳について、上記中
心値ベクトルと各重みベクトルの距離尺度を求め、 (d) 各上記目的音源位置について、上記距離尺度が最小
となる重みベクトルに対応する音響伝達関数を上記音源
位置についての代表値と決定し、仮想音像定位用伝達関
数表とする。
1. A method of creating a sound transfer function table for virtual sound localization, comprising the following steps: (a) Pre-measured sound from a plurality of target sound source positions to the left and right ears for a plurality of subjects. The transfer function is subjected to principal component analysis to obtain a weight vector corresponding to each acoustic transfer function, (b) a center value vector of the weight vector for each target sound source position and each left and right ear is obtained, and (c) each For the target sound source position and each of the left and right ears, determine the distance scale of the center value vector and each weight vector, (d) for each target sound source position, the acoustic transfer function corresponding to the weight vector that minimizes the distance scale. It is determined to be a representative value for the sound source position and used as a virtual sound image localization transfer function table.
【請求項2】 請求項1の仮想音像定位用音響伝達関数
表作成方法において、上記ステップ(d) は決定された上
記代表値を仮想音像定位用音響伝達関数として上記目的
音源位置及び各左右耳に対応させて記憶媒体に書き込む
ステップを含む。
2. The virtual sound image localization acoustic transfer function table creating method according to claim 1, wherein the step (d) uses the determined representative value as the virtual sound image localization acoustic transfer function. And writing to the storage medium in correspondence with.
【請求項3】 請求項1の仮想音像定位用音響伝達関数
表の作成方法において、上記距離尺度としてマハラノビ
ス汎距離を用いる。
3. The Mahalanobis general distance is used as the distance measure in the method for creating a virtual sound image localization acoustic transfer function table according to claim 1.
【請求項4】 請求項1の仮想音像定位用音響伝達関数
表の作成方法において、上記目的音源位置の1つから一
方の耳までの音響伝達関数代表値と、上記目的音源位置
の1つと被測定者に対して左右対称な方位角の目的音源
位置から他方の耳までの音響伝達関数代表値を同じ値に
決定する。
4. The method for creating a virtual sound image localization acoustic transfer function table according to claim 1, wherein the representative value of the acoustic transfer function from one of the target sound source positions to one ear and one of the target sound source positions and The representative value of the acoustic transfer function from the target sound source position of the azimuth angle symmetrical to the measurer to the other ear is determined to be the same value.
【請求項5】 請求項1の仮想音像定位用音響伝達関数
表作成方法において、上記予め測定された音響伝達関数
は上記目的音源位置から左右各耳の鼓膜に至る頭部伝達
関数及び上記左右各耳の外耳道伝達関数であり、上記代
表値として上記頭部伝達関数の上記目的音源位置及び各
耳毎の代表値と上記外耳道伝達関数の代表値を定める。
5. The virtual sound image localization acoustic transfer function table preparation method according to claim 1, wherein the pre-measured acoustic transfer function is a head-related transfer function from the target sound source position to the eardrum of each of the left and right ears and each of the left and right. It is the ear canal transfer function of the ear, and the target sound source position of the head related transfer function and the representative value of each ear and the representative value of the ear canal transfer function are determined as the representative values.
【請求項6】 請求項5の仮想音像定位用音響伝達関数
表作成方法において、上記方法は各目的音源位置及び各
耳に対応した上記頭部伝達関数代表値に対する外耳道伝
達関数代表値の逆畳込み演算に基づいて頭外音像定位伝
達関数を計算するステップを含むことを特徴とする。
6. The method of creating a virtual sound image localization acoustic transfer function table according to claim 5, wherein the method is an inverse convolution of the ear canal transfer function representative value with respect to the head related transfer function representative value corresponding to each target sound source position and each ear. It is characterized by including a step of calculating an out-of-head sound image localization transfer function based on a built-in operation.
【請求項7】 請求項6の仮想音像定位用音響伝達関数
作成方法において、上記逆畳込み演算に先立ち上記外耳
道伝達関数を予め最小位相化するステップを含む。
7. The method of creating an acoustic transfer function for virtual sound localization according to claim 6, further comprising the step of minimizing the phase of the ear canal transfer function prior to the deconvolution operation.
【請求項8】 請求項1の音像定位用伝達関数表作成方
法において、上記予め測定された音響伝達関数は上記1
個の目的音源位置から左右各耳の鼓膜に至る左右合計2
個の系数列からなる頭部伝達関数と、左右2個の再生用
音源のそれぞれから上記左右耳の鼓膜に至る合計4個の
系数列からなる音響伝達特性であり、それぞれ上記2個
の頭部伝達関数をhl(t),hr(t)及び上記4個の音響伝達
特性をell(t),elr(t),erl(t),err(t)で表すと、上記
代表値は各上記目的音源位置毎の上記2個の頭部伝達関
数の代表値h* l(t),h* r(t)と上記4個の音響伝達特性そ
れぞれの代表値e* ll(t),e* lr(t),e* rl(t),e* rr(t)で
あり、上記ステップ(e)における上記仮想音像定位用音
響伝達関数として gl(θ,t)={e* rr(t)*h* l(θ,t)−e* rl(t)*h* r(θ,t)}/
{e* ll(t)*e* rr(t)−e* lr(t)*e* rl(t)} gr(θ,t)={e* ll(t)*h* r(θ,t)−e* lr(t)*h* l(θ,t)}/
{e* ll(t)*e* rr(t)−e* lr(t)*e* rl(t)} を演算して得られる伝達特性gl(t),gr(t)を上記仮想音
像定位用音響伝達関数として上記記憶媒体に書き込み、
ここで/は逆畳込み演算を表す。
8. The sound image localization transfer function table preparation method according to claim 1, wherein the pre-measured acoustic transfer function is the above-mentioned 1
Total left and right from individual target sound source position to eardrum of left and right ears 2
Head-related transfer function consisting of a number of system sequences, and acoustic transfer characteristics consisting of a total of four system sequences from each of the left and right two reproduction sound sources to the eardrums of the left and right ears. When the transfer function is represented by h l (t), h r (t) and the above four acoustic transfer characteristics are represented by e ll (t), e lr (t), e rl (t), and e rr (t), The representative values are the representative values h * l (t), h * r (t) of the two head related transfer functions and the representative values e * ll of the four acoustic transfer characteristics for each of the target sound source positions. (t), e * lr (t), e * rl (t), and e * rr (t), and g l (θ, t) = as the virtual sound localization acoustic transfer function in step (e). {e * rr (t) * h * l (θ, t) −e * rl (t) * h * r (θ, t)} /
{e * ll (t) * e * rr (t) −e * lr (t) * e * rl (t)} g r (θ, t) = {e * ll (t) * h * r (θ , t) −e * lr (t) * h * l (θ, t)} /
The transfer characteristics g l (t) and g r (t) obtained by calculating {e * ll (t) * e * rr (t) −e * lr (t) * e * rl (t)} are Writing to the storage medium as an acoustic transfer function for virtual sound localization,
Here, / represents an inverse convolution operation.
【請求項9】 請求項8の仮想音像定位用音響伝達関数
表作成方法において、上記左右各耳の外耳道伝達関数の
代替えとして、上記各再生音源から各耳に至る左右2個
の係数列からなる音響伝達関数ell(t),err(t)を使用す
る。
9. The virtual sound image localization acoustic transfer function table creation method according to claim 8, comprising two left and right coefficient sequences extending from each reproduced sound source to each ear as a substitute for the external auditory canal transfer function of each of the left and right ears. Use the acoustic transfer functions e ll (t), e rr (t).
【請求項10】 請求項1又は2の仮想音像定位用音響
伝達関数表作成方法において、上記予め測定された音響
伝達関数は上記目的音源位置から左右各耳の鼓膜に至る
左右合計2個の系数列からなる頭部伝達関数と、左右2
個の再生用音源のそれぞれから上記左右耳の鼓膜に至る
合計4個系数列からなる音響伝達特性であり、それぞれ
上記2個の頭部伝達関数表をhl(t),hr(t)及び上記4個
の音響伝達特性をell(t),elr(t),erl(t),err(t) で
表すと、上記代表値は各上記目的音源位置毎の上記2個
の頭部伝達関数の代表値h* l(t),h* r(t)と上記4個の音
響伝達特性のそれぞれの代表値e* ll(t),e* lr(t),e* rl
(t),e* rr(t)であり、上記ステップ(d) における上記仮
想音像定位用音響伝達関数として Δh* r(θ,t)={e* rr(t)*h* l(θ,t)−e* rl(t)*h* r(θ,
t)} Δh* l(θ,t)={e* ll(t)*h* r(θ,t)−e* lr(t)*h* l(θ,
t)} Δe*(t)={e* ll(t)*e* rr(t)−e* lr(t)*e* rl(t)} を演算して得られる伝達特性Δh* r(θ),Δh* l(θ),Δ
e*を上記音像定位用左右伝達関数として上記記憶媒体に
書き込む。
10. The virtual sound image localization acoustic transfer function table preparation method according to claim 1 or 2, wherein the pre-measured acoustic transfer function is a total of two left and right coefficients from the target sound source position to the eardrum of each of the left and right ears. Head-related transfer function consisting of columns and left and right 2
It is the acoustic transfer characteristic consisting of a total of four systematic sequences from each of the reproduction sound sources to the eardrums of the left and right ears, and the above two head related transfer function tables are h l (t) and h r (t), respectively. And the four acoustic transfer characteristics are represented by e ll (t), e lr (t), e rl (t), and e rr (t), the representative values are the above two values for each target sound source position. Representative values h * l (t), h * r (t) of the head related transfer function and the representative values e * ll (t), e * lr (t), e * of the above four acoustic transfer characteristics, respectively . rl
(t), e * rr (t), and Δh * r (θ, t) = {e * rr (t) * h * l (θ) as the acoustic transfer function for virtual sound localization in step (d) above. , t) −e * rl (t) * h * r (θ,
t)} Δh * l (θ, t) = {e * ll (t) * h * r (θ, t) −e * lr (t) * h * l (θ, t)
t)} Δe * (t) = {e * ll (t) * e * rr (t) −e * lr (t) * e * rl (t)} The transfer characteristic Δh * r ( θ), Δh * l (θ), Δ
e * is written in the storage medium as the left-right transfer function for sound image localization.
【請求項11】 請求項1、3又は4の仮想音像定位用
音響伝達関数表作成方法における、上記仮想音像定位用
音響伝達関数を生成する演算に含まれる逆畳込み演算に
おいて、上記音響伝達関数のうち少なくとも1からなる
逆畳込み演算で作用する音響伝達特性を表す系数列を決
め最小位相化処理した系数列を用いる。
11. The acoustic transfer function in the deconvolution operation included in the operation for generating the acoustic transfer function for virtual sound image localization in the method for creating an acoustic transfer function table for virtual sound image localization according to claim 1, 3 or 4. Among them, at least one coefficient sequence representing the acoustic transfer characteristic acting in the deconvolution operation is determined, and the coefficient sequence subjected to the minimum phase processing is used.
【請求項12】 請求項1の仮想音像定位用音響伝達関
数表作成方法において、予め測定された左右各耳の外耳
道伝達関数を最小位相化処理するステップを含み、上記
最小位相化処理された左右各耳の外耳道伝達関数により
予め各目的音源位置から左右各耳に至る頭部伝達関数に
対しそれぞれ逆畳込み演算し頭外音像定位伝達関数を得
て、上記頭外音像定位伝達関数を上記音響伝達関数とす
る。
12. The method of creating an acoustic transfer function table for virtual sound localization according to claim 1, further comprising the step of performing a minimum phase conversion process on the ear canal transfer functions of the left and right ears that have been measured in advance. Using the external auditory canal transfer function of each ear, the head transfer function from each target sound source position to each of the left and right ears is deconvoluted in advance to obtain an out-of-head sound image localization transfer function, and the out-of-head sound image localization transfer function is converted into the acoustic Transfer function.
【請求項13】 請求項8の仮想音像定位用音響伝達関
数表作成方法において、上記伝達特性gl(t),gr(t)を得
るための上記逆畳込み演算を行う前に系数列 {e* ll(t)*e* rr(t)−e* lr(t)*e* rl(t)} を最小位相化処理するステップを含む。
13. A virtual sound image localization acoustic transfer function table creating method according to claim 8, wherein a sequence of coefficients is performed before performing the deconvolution operation for obtaining the transfer characteristics g l (t) and g r (t). The step of minimizing the phase of {e * ll (t) * e * rr (t) −e * lr (t) * e * rl (t)} is included.
【請求項14】 請求項10の仮想音像定位用音響伝達
関数表作成方法において、上記記憶媒体に書き込む前
に、上記代表値として得た上記伝達特性Δe*(t) を最小
位相化処理するステップを含む。
14. The method for creating a virtual sound image localization acoustic transfer function table according to claim 10, wherein the transfer characteristic Δe * (t) obtained as the representative value is subjected to a minimum phase conversion process before being written in the storage medium. including.
【請求項15】 請求項1〜14のいずれかの方法で作
成された仮想音蔵置位用音響伝達関数表。
15. A virtual sound storage position acoustic transfer function table created by the method according to any one of claims 1 to 14.
【請求項16】 請求項1〜14のいずれかの方法で作
成された仮想音像定位用音響伝達関数表を記録すること
を特徴とする記憶媒体製造方法。
16. A method of manufacturing a storage medium, characterized by recording a virtual sound image localization acoustic transfer function table created by the method according to any one of claims 1 to 14.
【請求項17】 請求項1〜12のいずれかの方法によ
って作成された仮想音像定位用音響伝達関数表が記録さ
れた記憶媒体。
17. A storage medium in which a virtual sound image localization acoustic transfer function table created by the method according to claim 1 is recorded.
【請求項18】 請求項1、3、4、6、7、8、9、
11、12又は13において作成された仮想音像定位用
音響伝達関数表から指定された目的音源位置に対応する
左右各チャネルに対応した音響伝達関数をそれぞれ読み
だし、各系統の入力モノラル音響信号に対しそれぞれ畳
込み演算を施すことによりステレオ音響信号を生成する
系統を少なくとも1系統有する音響信号編集方法。
18. The method according to claim 1, 3, 4, 6, 7, 8, 9,
The acoustic transfer functions corresponding to the left and right channels corresponding to the target sound source position specified in the virtual sound image localization acoustic transfer function table created in 11, 12, or 13 are read, and the input monaural acoustic signal of each system is read. An audio signal editing method having at least one system that generates a stereo audio signal by performing a convolution operation.
【請求項19】 請求項5の方法で作成された仮想音像
定位用音響伝達関数表から畳込み演算に用いられる係数
として、指定された目的音源位置θ及び左右各チャネル
に対応した上記頭部伝達関数h* l(θ,t),h* r(θ,t)と畳
込み演算に用いられる係数として左右各耳に対応した上
記外耳道伝達関数e* l(t),e* r(t)を読み出し、各系統の
入力モノラル音響信号に対し上記係数を用いて左右各チ
ャネル毎に畳込み演算及び逆畳込み演算を縦列に施す系
統を少なくとも1系統有する。
19. The head-related transfer corresponding to a specified target sound source position θ and left and right channels as coefficients used for convolution calculation from the virtual sound image localization acoustic transfer function table created by the method of claim 5. Functions h * l (θ, t), h * r (θ, t) and the above ear canal transfer functions e * l (t), e * r (t) corresponding to the left and right ears as coefficients used in the convolution operation. Of the input monaural audio signal of each system, and at least one system for performing convolutional operation and deconvolutional operation in cascade for each of the left and right channels using the above coefficient.
【請求項20】 請求項6又は7の方法で作成された仮
想音像定位用音響伝達関数表から畳込み演算に用いられ
る係数として指定された目的音源位置θ及び左右各耳に
対応した上記伝達特性Δh* l(θ,t),Δh* r(θ,t)と逆畳
込み演算に用いられる係数として上記伝達特性Δe*(t)
を読み出し、各系統の入力モノラル音響信号に対し上記
伝達特性Δh* l(θ,t),Δh* r(θ,t)を用いて左右各チャ
ネル毎に畳込み演算及び上記伝達特性Δe*(t) を用いて
各チャネルともに逆畳込み演算を縦列に施す系統を少な
くとも1系統有する。
20. The transfer characteristic corresponding to a target sound source position θ and left and right ears specified as a coefficient used in a convolution calculation from a virtual sound image localization acoustic transfer function table created by the method according to claim 6 or 7. Δh * l (θ, t), Δh * r (θ, t) and the transfer characteristic Δe * (t) as a coefficient used for deconvolution
Is read, and the transfer characteristics Δh * l (θ, t) and Δh * r (θ, t) are used for the input monaural audio signal of each system to perform convolution calculation for each of the left and right channels and the transfer characteristic Δe * ( Each channel has at least one system for performing deconvolution operation in cascade using t).
JP8254998A 1995-09-26 1996-09-26 Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it Pending JPH09191500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8254998A JPH09191500A (en) 1995-09-26 1996-09-26 Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP24815995 1995-09-26
JP7-248159 1995-09-26
JP7-289864 1995-11-08
JP28986495 1995-11-08
JP8254998A JPH09191500A (en) 1995-09-26 1996-09-26 Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it

Publications (1)

Publication Number Publication Date
JPH09191500A true JPH09191500A (en) 1997-07-22

Family

ID=27333681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8254998A Pending JPH09191500A (en) 1995-09-26 1996-09-26 Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it

Country Status (1)

Country Link
JP (1) JPH09191500A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028799A (en) * 1999-05-10 2001-01-30 Sony Corp Onboard sound reproduction device
WO2003009643A1 (en) * 2001-07-19 2003-01-30 Matsushita Electric Industrial Co., Ltd. Sound image localizer
WO2003075610A1 (en) * 2002-03-01 2003-09-12 Dimagic Co., Ltd. Acoustic signal transducing device and method
JP2008527821A (en) * 2005-01-10 2008-07-24 フランス テレコム Method and apparatus for individualizing HRTFs by modeling
JP2008312113A (en) * 2007-06-18 2008-12-25 Nippon Hoso Kyokai <Nhk> Head-related transfer function interpolation device
JP2010045489A (en) * 2008-08-11 2010-02-25 Nippon Hoso Kyokai <Nhk> Interpolation device of head acoustic transfer function, and program and method thereof
US8005244B2 (en) 2005-02-04 2011-08-23 Lg Electronics, Inc. Apparatus for implementing 3-dimensional virtual sound and method thereof
JP2013009112A (en) * 2011-06-23 2013-01-10 National Institute Of Advanced Industrial & Technology Sound acquisition and reproduction device, program and sound acquisition and reproduction method
CN115297423A (en) * 2022-09-30 2022-11-04 中国人民解放军空军特色医学中心 Sound source space layout method for real person HRTF measurement

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028799A (en) * 1999-05-10 2001-01-30 Sony Corp Onboard sound reproduction device
WO2003009643A1 (en) * 2001-07-19 2003-01-30 Matsushita Electric Industrial Co., Ltd. Sound image localizer
JP2003102099A (en) * 2001-07-19 2003-04-04 Matsushita Electric Ind Co Ltd Sound image localizer
KR100878457B1 (en) * 2001-07-19 2009-01-13 파나소닉 주식회사 Sound image localizer
WO2003075610A1 (en) * 2002-03-01 2003-09-12 Dimagic Co., Ltd. Acoustic signal transducing device and method
JP2003259499A (en) * 2002-03-01 2003-09-12 Dimagic:Kk Converter for sound signal and method for converting sound signal
JP2008527821A (en) * 2005-01-10 2008-07-24 フランス テレコム Method and apparatus for individualizing HRTFs by modeling
US8005244B2 (en) 2005-02-04 2011-08-23 Lg Electronics, Inc. Apparatus for implementing 3-dimensional virtual sound and method thereof
JP2008312113A (en) * 2007-06-18 2008-12-25 Nippon Hoso Kyokai <Nhk> Head-related transfer function interpolation device
JP2010045489A (en) * 2008-08-11 2010-02-25 Nippon Hoso Kyokai <Nhk> Interpolation device of head acoustic transfer function, and program and method thereof
JP2013009112A (en) * 2011-06-23 2013-01-10 National Institute Of Advanced Industrial & Technology Sound acquisition and reproduction device, program and sound acquisition and reproduction method
CN115297423A (en) * 2022-09-30 2022-11-04 中国人民解放军空军特色医学中心 Sound source space layout method for real person HRTF measurement

Similar Documents

Publication Publication Date Title
US5982903A (en) Method for construction of transfer function table for virtual sound localization, memory with the transfer function table recorded therein, and acoustic signal editing scheme using the transfer function table
US9918179B2 (en) Methods and devices for reproducing surround audio signals
JP4584416B2 (en) Multi-channel audio playback apparatus for speaker playback using virtual sound image capable of position adjustment and method thereof
US6574339B1 (en) Three-dimensional sound reproducing apparatus for multiple listeners and method thereof
JP3913775B2 (en) Recording and playback system
US6611603B1 (en) Steering of monaural sources of sound using head related transfer functions
US9215544B2 (en) Optimization of binaural sound spatialization based on multichannel encoding
US7215782B2 (en) Apparatus and method for producing virtual acoustic sound
US7231054B1 (en) Method and apparatus for three-dimensional audio display
US20040136538A1 (en) Method and system for simulating a 3d sound environment
JP2000050400A (en) Processing method for sound image localization of audio signals for right and left ears
JP2001500706A (en) Transaural stereo device
CN113170271A (en) Method and apparatus for processing stereo signals
Garí et al. Flexible binaural resynthesis of room impulse responses for augmented reality research
CN111556425B (en) Tone equalization method for virtual sound reproduction of loudspeaker
WO2022108494A1 (en) Improved modeling and/or determination of binaural room impulse responses for audio applications
Otani et al. Binaural Ambisonics: Its optimization and applications for auralization
JPH09191500A (en) Method for generating transfer function localizing virtual sound image, recording medium recording transfer function table and acoustic signal edit method using it
Gardner Spatial audio reproduction: Towards individualized binaural sound
Jot et al. Binaural concert hall simulation in real time
JP4407467B2 (en) Acoustic simulation apparatus, acoustic simulation method, and acoustic simulation program
KR100275779B1 (en) A headphone reproduction apparaturs and method of 5 channel audio data
Mickiewicz et al. Spatialization of sound recordings using intensity impulse responses
JP2005109914A (en) Method and device for reproducing high presence sound field, and method for preparing head transfer function database
US20240163624A1 (en) Information processing device, information processing method, and program