JPH09247799A - Stereoscopic acoustic processing unit using linear prediction coefficient - Google Patents

Stereoscopic acoustic processing unit using linear prediction coefficient

Info

Publication number
JPH09247799A
JPH09247799A JP8046105A JP4610596A JPH09247799A JP H09247799 A JPH09247799 A JP H09247799A JP 8046105 A JP8046105 A JP 8046105A JP 4610596 A JP4610596 A JP 4610596A JP H09247799 A JPH09247799 A JP H09247799A
Authority
JP
Japan
Prior art keywords
filter
linear prediction
signal
sound
linear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8046105A
Other languages
Japanese (ja)
Other versions
JP4306815B2 (en
Inventor
Naoji Matsuo
直司 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04610596A priority Critical patent/JP4306815B2/en
Priority to DE69637736T priority patent/DE69637736D1/en
Priority to EP07010496A priority patent/EP1816895B1/en
Priority to EP96113318A priority patent/EP0762804B1/en
Priority to US08/697,247 priority patent/US6023512A/en
Publication of JPH09247799A publication Critical patent/JPH09247799A/en
Priority to US09/330,017 priority patent/US6269166B1/en
Priority to US09/449,570 priority patent/US6553121B1/en
Application granted granted Critical
Publication of JP4306815B2 publication Critical patent/JP4306815B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic acoustic effect onto a listener in a reproduction sound field especially through a headphone or the like. SOLUTION: In this acoustic processing unit, a desired acoustic characteristic added to an original signal is formed by a linear synthesis filter using a linear prediction coefficient obtained by a linear prediction analysis of an impulse response representing the acoustic characteristic as its filter coefficient and the desired acoustic characteristic is provided to the original signal through the linear synthesis filter. The power spectrum of the impulse response representing the acoustic characteristic is divided into plural critical band width and the linear prediction analysis is made based on an impulse signal obtained from the power spectrum signal representing the signal tone of each critical band width to obtain the filter coefficient of the linear synthesis filter.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は音響処理技術に関
し、特にヘッドホン等を通した再生音場において聴取者
に立体的な音響効果を提供する立体音響処理装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound processing technique, and more particularly to a stereophonic sound processing device for providing a stereoscopic sound effect to a listener in a sound field reproduced through headphones or the like.

【0002】[0002]

【従来の技術】一般に、音像を正確に再現し若しくは定
位させるには、音源から聴取者までの原音場の音響特性
と、スピーカ又はヘッドホン等の音響出力機器から聴取
者までの再生音場の音響特性とを得ることが必要とな
る。実際の再生音場は、音源からの信号に前者の音響特
性を付加し、且つその信号から後者の音響特性を除去す
ることによって、スピーカ又はヘッドホンを用いた場合
でも原音場の音像を聴取者に正確に再現することができ
る。
2. Description of the Related Art Generally, in order to accurately reproduce or localize a sound image, acoustic characteristics of an original sound field from a sound source to a listener and sound of a reproduced sound field from an acoustic output device such as a speaker or headphones to a listener. It is necessary to obtain the characteristics and. In the actual playback sound field, by adding the former acoustic characteristic to the signal from the sound source and removing the latter acoustic characteristic from the signal, the sound image of the original sound field is presented to the listener even when using a speaker or headphones. Can be accurately reproduced.

【0003】図1は、音源10と聴取者11からなる原
音場の一例を示したものである。図1において、音源1
0から聴取者11の左右の耳(l ,r)に至る各音響空
間経路は、それらに対応する伝達特性Sl,Sr で示さ
れる。
FIG. 1 shows an example of an original sound field composed of a sound source 10 and a listener 11. In FIG. 1, sound source 1
Each acoustic spatial path from 0 to the left and right ears (l, r) of the listener 11 is indicated by their corresponding transfer characteristics Sl, Sr.

【0004】図2は、図1と同じ再生音場を聴取者11
に与えるための電気的な等価回路構成を示したものであ
る。図2において、図1の各音響空間経路の伝達特性S
l,Sr は対応する音響特性付加フィルタ(S→l)1
2,(S→r )13を用いて与えられる。なお、図2で
は聴取者11の左右のヘッドホン16,17の音響特性
を打ち消すために、さらに各ヘッドホンの逆特性h-1
4,15が付加されている。その結果、聴取者11は本
構成によって図1と同じ位置に同じ音像10を得ること
が可能となる。
FIG. 2 shows the same reproduction sound field as in FIG.
2 shows an electrical equivalent circuit configuration for applying the above. In FIG. 2, the transfer characteristic S of each acoustic space path of FIG.
l and Sr are corresponding acoustic characteristic addition filters (S → l) 1
2, (S → r) 13. In FIG. 2, in order to cancel the acoustic characteristics of the left and right headphones 16 and 17 of the listener 11, the inverse characteristic h −1 1 of each headphone is further added.
4, 15 are added. As a result, the listener 11 can obtain the same sound image 10 at the same position as in FIG. 1 by this configuration.

【0005】図3は、図2で示した音響特性付加フィル
タ12,13のフィルタ係数を求めるための一構成例を
示したものである。図3では、まず無響室で測定したイ
ンパルスレスポンスの自己相関係数処理18が行われ
る。前記処理によって得られた自己相関係数にさらに線
形予測解析処理19を行って線形予測係数を求める。そ
して、IIRフィルタを使いそのフィルタ係数として前
記線形予測係数を用いることで前記音響特性付加フィル
タ12,13を構成する。この場合、それ以前のFIR
フィルタを使った場合と比較して大幅にフィルタタップ
数を削減することができる。
FIG. 3 shows an example of the structure for obtaining the filter coefficients of the acoustic characteristic adding filters 12 and 13 shown in FIG. In FIG. 3, first, the autocorrelation coefficient processing 18 of the impulse response measured in the anechoic chamber is performed. A linear prediction analysis process 19 is further performed on the autocorrelation coefficient obtained by the above process to obtain a linear prediction coefficient. Then, the acoustic characteristic addition filters 12 and 13 are configured by using an IIR filter and using the linear prediction coefficient as the filter coefficient. In this case, the previous FIR
The number of filter taps can be significantly reduced compared to the case where a filter is used.

【0006】図4は、複数の仮想音源間の出力補間によ
って音像を移動させる一例を示したものである。図4の
(a)には、3個の仮想音源(A〜C)20−1〜20
−3を聴取者11の前方に配置した例が示されている。
また、図4の(b)には前記複数の仮想音源20−1〜
20−3間に音像を定位させるための回路構成例が示さ
れている。
FIG. 4 shows an example of moving a sound image by output interpolation between a plurality of virtual sound sources. In FIG. 4A, three virtual sound sources (A to C) 20-1 to 20
An example in which -3 is arranged in front of the listener 11 is shown.
Further, FIG. 4B shows the plurality of virtual sound sources 20-1 to 20-1.
A circuit configuration example for localizing a sound image between 20-3 is shown.

【0007】図4の(b)では、各仮想音源20−1〜
20−3の位置と対応し、前記各音源から聴取者11の
左右の耳に至るそれぞれの音響空間経路の伝達特性に応
じて3種類の音響特性付加フィルタ対21及び22,2
3及び24,そして25及び26が与えられている。各
音響特性付加フィルタは、音響空間経路の伝達特性を示
すフィルタ係数と入力信号に対するフィルタ演算出力結
果を保持するフィルタメモリとを有し、前記演算出力は
次段の可変増幅器(gA〜gC)27〜32に入力され
る。それらの増幅された出力は聴取者11の左右の耳に
対応する加算器33〜36で加算され、図2で示した音
響特性付加フィルタ12,13の各出力となる。以降
は、図2の説明と同様である。
In FIG. 4B, each virtual sound source 20-1 to 20-1
Corresponding to the position of 20-3, three types of acoustic characteristic addition filter pairs 21 and 22, 2 corresponding to the transfer characteristics of the respective acoustic spatial paths from the respective sound sources to the left and right ears of the listener 11.
3 and 24, and 25 and 26 are given. Each acoustic characteristic addition filter has a filter coefficient indicating a transfer characteristic of an acoustic space path and a filter memory for holding a filter calculation output result for an input signal, and the calculation output is a variable amplifier (gA to gC) 27 at the next stage. To 32. The amplified outputs are added by the adders 33 to 36 corresponding to the left and right ears of the listener 11, and become the respective outputs of the acoustic characteristic addition filters 12 and 13 shown in FIG. The subsequent steps are the same as those described with reference to FIG.

【0008】ここで、例えば前記可変増幅器(gA,g
B)27〜30の各ゲインを変える出力補間によって、
図4の(a)に示すように仮想音源(A)20−1と仮
想音源(B)20−2との間に音像を滑らかに移動させ
ることができる。仮想音源(B)20−2と仮想音源
(C)20−3との間も同様に処理できる。なお、上述
した各従来技術の詳細については本願と同一発明者及び
出願人による特願平7−231705号を参照された
い。
Here, for example, the variable amplifier (gA, g
B) By the output interpolation which changes each gain of 27 to 30,
As shown in FIG. 4A, the sound image can be smoothly moved between the virtual sound source (A) 20-1 and the virtual sound source (B) 20-2. The same processing can be performed between the virtual sound source (B) 20-2 and the virtual sound source (C) 20-3. For details of the above-mentioned conventional techniques, refer to Japanese Patent Application No. 7-231705 filed by the same inventor and applicant as the present application.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、図3で
示したように線形予測解析を行って元のインパルスレス
ポンスのサンプル数よりも少ない次数の合成フィルタ
(IIRフィルタ)や予測フィルタ(FIRフィルタ)
を用いて周波数特性を近似する場合に、特に元のインパ
ルスレスポンスの周波数特性が急峻な山や谷の部分を有
する複雑な場合には、その近似精度が低下するという問
題があった。
However, as shown in FIG. 3, linear prediction analysis is performed to synthesize a synthesis filter (IIR filter) or a prediction filter (FIR filter) having an order smaller than the number of original impulse response samples.
When the frequency characteristics are approximated by using, there is a problem that the approximation accuracy is lowered, especially when the frequency characteristics of the original impulse response are complicated with steep peaks and troughs.

【0010】また、その場合には前記合成フィルタのイ
ンパルスレスポンスの時間領域の波形と元のインパルス
レスポンスの波形とが大きく異なり、そのため聴取者1
1に対する両耳間時間差及びそのレベル差の制御が困難
になるという問題があった。
Further, in that case, the waveform of the impulse response of the synthesis filter in the time domain and the waveform of the original impulse response are greatly different from each other, so that the listener 1
There is a problem in that it is difficult to control the time difference between both ears and the level difference with respect to 1.

【0011】さらにまた、図4の(B)に示すように仮
想音源の出力補間によって音像定位処理を行う場合に、
各仮想音源対応に備えられたフィルタ係数とフィルタメ
モリを用い、例え音像が仮想音源AとBとの間にのみあ
るときでも仮想音源Cに関してそのフィルタ係数とフィ
ルタメモリを用いた定位処理が行われていた。そのた
め、図2に示す再生音場をDSP(Digital Signal Pro
cessor) 等を用いて実現する場合に、前記音響特性付加
フィルタの数が多いと演算処理手順やメモリ、レジスタ
等の管理が複雑になるという問題があった。
Furthermore, as shown in FIG. 4B, when performing sound image localization processing by output interpolation of a virtual sound source,
Using the filter coefficient and the filter memory provided for each virtual sound source, localization processing using the filter coefficient and the filter memory is performed on the virtual sound source C even when the sound image is only between the virtual sound sources A and B. Was there. Therefore, the reproduced sound field shown in FIG.
When there is a large number of the acoustic characteristic addition filters, there is a problem that the management of arithmetic processing procedures, memories, registers, etc. becomes complicated.

【0012】そこで本発明の目的は、上記各問題点に鑑
み、(1)自己相関係数を求めて線形予測解析を行う前
に、聴覚上変化が無いように元のインパルスレスポンス
の周波数特性を滑らかにし、さらに合成フィルタのイン
パルスレスポンスの時間領域での波形を補整して元のイ
ンパルスレスポンスの周波数特性に近づけること、
(2)全体の音響特性を変化させること無くフィルタの
数を減らすこと、そして(3)所望の音像定位を行うた
めに必要な仮想音源の定位処理のみ行うこと、を実現す
る立体音響処理装置を提供することにある。
In view of the above-mentioned problems, the object of the present invention is to (1) determine the frequency characteristic of the original impulse response so that there is no auditory change before performing the linear prediction analysis by obtaining the autocorrelation coefficient. Smoothing, and further adjusting the waveform of the impulse response of the synthesis filter in the time domain to bring it closer to the frequency characteristics of the original impulse response,
(2) A stereophonic processing apparatus which realizes (3) reducing the number of filters without changing the overall acoustic characteristics, and (3) performing only a localization process of a virtual sound source necessary for performing a desired sound image localization. To provide.

【0013】[0013]

【課題を解決するための手段】本発明によれば、原信号
に付加する所望の音響特性を、その音響特性を表すイン
パルスレスポンスの線形予測解析によって得られる線形
予測係数をフィルタ係数とする線形合成フィルタによっ
て形成し、前記線形合成フィルタを通して前記原信号に
所望の音響特性を付加する立体音響処理装置であって、
前記音響特性を表すインパルスレスポンスのパワースペ
クトラムを複数の臨界帯域内に分割し、前記各臨界帯域
内の信号音を代表させたパワースペクトラム信号から求
めたインパルス信号を基に前記線形予測解析を行って前
記線形合成フィルタのフィルタ係数を求めることを特徴
とする線形予測係数を用いた立体音響処理装置が提供さ
れる。
According to the present invention, a desired acoustic characteristic to be added to an original signal is linearly synthesized using a linear prediction coefficient obtained by a linear prediction analysis of an impulse response representing the acoustic characteristic as a filter coefficient. A stereophonic processing apparatus which is formed by a filter and adds desired acoustic characteristics to the original signal through the linear synthesis filter,
The power spectrum of the impulse response representing the acoustic characteristics is divided into a plurality of critical bands, and the linear prediction analysis is performed based on the impulse signal obtained from the power spectrum signal representing the signal sound in each of the critical bands. There is provided a stereophonic processing apparatus using a linear prediction coefficient, which is characterized by obtaining a filter coefficient of the linear synthesis filter.

【0014】前記各臨界帯域内の信号音を代表するペク
トラム信号には、各臨界帯域内のパワースペクトラムの
累積加算値、最大値又は平均値が用いられる。また、前
記各臨界帯域内の信号音を代表させたパワースペクトラ
ム信号間の出力補間が行われ、前記出力補間信号から求
めたインパルス信号を基に前記線形予測解析を行って前
記線形合成フィルタのフィルタ係数が求められる。前記
出力補間には、1次の直線補間や高次のテイラー級数を
用いた補間が用いられる。
For the vector signal representative of the signal sound in each critical band, the cumulative addition value, maximum value or average value of the power spectrum in each critical band is used. Further, output interpolation between power spectrum signals representing the signal tones in each of the critical bands is performed, and the linear prediction analysis is performed based on the impulse signal obtained from the output interpolation signal to filter the linear synthesis filter. The coefficient is calculated. For the output interpolation, first-order linear interpolation or interpolation using a higher-order Taylor series is used.

【0015】さらに、前記音響特性を示すインパルスレ
スポンスとして原音場における伝達経路と再生音場の逆
特性を持つ伝送経路を直列に結合した場合の音響特性を
示すインパルスレスポンスを用い、そして前記結合した
インパルスレスポンスを基に線形予測係数を求める前記
線形合成フィルタとして原音場における音響特性を付加
するフィルタと再音場における音響特性を除去するフィ
ルタを1つに結合したフィルタが用いられる。また、前
記線形予測係数を用いた線形合成フィルタのインパルス
レスポンスと前記音響特性を示すインパルスレスポンス
との間の誤差を小さくする補整用フィルタが用いられ
る。
Further, as the impulse response showing the acoustic characteristic, an impulse response showing the acoustic characteristic when a transmission path in the original sound field and a transmission path having an inverse characteristic of the reproduced sound field are connected in series is used, and the combined impulse is used. As the linear synthesis filter for obtaining the linear prediction coefficient based on the response, a filter combining an acoustic characteristic in the original sound field and a filter eliminating the acoustic characteristic in the re-sound field is used. Further, a compensation filter for reducing an error between the impulse response of the linear synthesis filter using the linear prediction coefficient and the impulse response showing the acoustic characteristic is used.

【0016】また本発明によれば、複数の仮想音源から
のレベル制御によって音像を定位させる立体音響処理装
置であって、その間に音像が定位する隣接した2つの前
記仮想音源に対して与えられ、前記仮想音源から聴取者
までの各音響空間経路の音響特性を示すインパルスレス
ポンスを付加する音響特性付加フィルタを有し、前記音
響特性付加フィルタは、前記隣接した2つの仮想音源の
フィルタ演算パラメータを記憶し、音像が前記2つの仮
想音源の内の1つを含む新たな隣接区間へ移動する際に
は前記1つの仮想音源に対応する音響特性フィルタの演
算パラメータを変えることなく、もう一方の音響特性フ
ィルタの演算パラメータを前記新たな隣接区間に存する
仮想音源のものに更新する立体音響処理装置が提供され
る。
Further, according to the present invention, there is provided a stereophonic processing apparatus which localizes a sound image by level control from a plurality of virtual sound sources, wherein the sound image is given to two adjacent virtual sound sources which are localized, An acoustic characteristic addition filter for adding an impulse response indicating acoustic characteristics of each acoustic space path from the virtual sound source to the listener is stored, and the acoustic characteristic addition filter stores filter calculation parameters of the two adjacent virtual sound sources. However, when the sound image moves to a new adjacent section including one of the two virtual sound sources, the acoustic characteristic of the other virtual characteristic is maintained without changing the calculation parameter of the acoustic characteristic filter corresponding to the one virtual sound source. There is provided a stereophonic processing apparatus for updating the calculation parameter of a filter to that of a virtual sound source existing in the new adjacent section.

【0017】上記本発明によれば、音響特性を示すイン
パルスレスポンスを周波数領域において臨界帯域幅を考
慮して変更する。そして、その結果から自己相関係数を
求める。前記臨界帯域幅を考慮して変更する場合に人間
の聴覚は位相のずれには鈍感なため、フェーズスペクト
ラムについては考慮しなくてもよい。臨界帯域幅を考慮
して、聴覚上変化が無いように元のインパルレスポンス
を滑らかにすることにより、少ない次数の線形予測係数
を用いて周波数特性を近似する場合の近似精度を高くす
ることができる。
According to the present invention, the impulse response showing the acoustic characteristic is changed in the frequency domain in consideration of the critical bandwidth. Then, the autocorrelation coefficient is obtained from the result. When the change is made in consideration of the critical bandwidth, human hearing is insensitive to the phase shift, and therefore the phase spectrum need not be considered. By considering the critical bandwidth and smoothing the original impulse response so that there is no auditory change, it is possible to improve the approximation accuracy when approximating the frequency characteristics using a linear prediction coefficient of a small order. .

【0018】また、合成フィルタのインパルスレスポン
スの時間領域での波形を補整することにより、両耳間時
間差とレベル差の制御が容易になる。これによって、全
体の音響特性を変化させることなく、フィルタの数を減
らすことができ、DSP等を用いた実現が容易となり、
さらに所望の音像定位を行うために必要な仮想音源の定
位処理のみ行うことで必要な処理量とメモリ量を小さく
することができる。
Further, by compensating the waveform of the impulse response of the synthesis filter in the time domain, it becomes easy to control the interaural time difference and the level difference. As a result, the number of filters can be reduced without changing the overall acoustic characteristics, and the implementation using a DSP or the like becomes easy,
Further, by performing only the localization processing of the virtual sound source necessary for performing the desired sound image localization, the required processing amount and memory amount can be reduced.

【0019】[0019]

【発明の実施の形態】図5は、本発明により音響特性を
付加する線形予測係数を求めるための原理構成を示した
ものである。なお、以降の各図面を用いた説明におい
て、従来例と同じものには同一の符号が付されており、
それらについては改めて説明しない。図5の(a)は、
本発明の最も基本的な処理ブロック構成を示したもので
ある。インパルスレスポンスは先ず本発明による臨界帯
域幅を考慮した前処理を行うための臨界帯域幅前処理部
110に入力される。なお、本例における自己相関係数
計算部18及び線形予測解析部19は図3の従来例と同
じものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 5 shows a principle configuration for obtaining a linear prediction coefficient to which an acoustic characteristic is added according to the present invention. In the following description using each drawing, the same components as those in the conventional example are designated by the same reference numerals,
I will not explain them again. FIG. 5A shows
1 shows the most basic processing block configuration of the present invention. The impulse response is first input to the critical bandwidth preprocessing unit 110 for performing preprocessing in consideration of the critical bandwidth according to the present invention. The autocorrelation coefficient calculation unit 18 and the linear prediction analysis unit 19 in this example are the same as those in the conventional example of FIG.

【0020】ところで、「臨界帯域幅」とは、“フレッ
チャー(Fletcher)”の定義によれば中心周波数が連続的
に変化する帯域フィルタで、(1)信号音に一番近い中
心周波数を持つ帯域フィルタが信号音の周波数分析を行
い、(2)信号音のマスキングに影響を及ぼす雑音成分
はこの帯域フィルタ内の周波数成分に限られるような帯
域フィルタのバンド幅をいう。
By the way, the "critical bandwidth" is a bandpass filter whose center frequency continuously changes according to the definition of "Fletcher", and (1) a band having a center frequency closest to a signal tone. The filter analyzes the frequency of the signal sound, and (2) the noise component that affects the masking of the signal sound is the bandwidth of the band filter that is limited to the frequency component in this band filter.

【0021】前記帯域フィルタは「聴覚フィルタ」とも
呼ばれ、そのフィルタの中心周波数とバンド幅との間に
は、中心周波数が低い場合には臨界帯域幅は狭く、反対
に中心周波数が高い場合には広くなることが種々の測定
から確認されている。例えば、中心周波数が500Hz
以下では臨界帯域幅はほぼ一定の100Hzとなる。
The bandpass filter is also called an "auditory filter", and between the center frequency and the bandwidth of the filter, the critical bandwidth is narrow when the center frequency is low, and conversely when the center frequency is high. It has been confirmed from various measurements that the value becomes wider. For example, the center frequency is 500Hz
Below, the critical bandwidth will be approximately constant 100 Hz.

【0022】そして、中心周波数f と臨界帯域の関係を
数式で表したのがバーク(Bark)尺度である。バーク尺度
は下記の式で与えられる。 Bark=13arctan(0.76f)+3.5arctan((f/7.5)2) ここで、バーク尺度1.0は上記臨界帯域幅に相当し、
従って上記臨界帯域幅の定義とも合まってバーク尺度
1.0で分割された帯域信号は聴覚的に識別し得る信号
音を表すことになる。
The Bark scale expresses the relationship between the center frequency f and the critical band by a mathematical expression. The Burk scale is given by the following formula. Bark = 13arctan (0.76f) + 3.5arctan ((f / 7.5) 2 ) where the Bark scale 1.0 corresponds to the above critical bandwidth,
Therefore, together with the above definition of the critical bandwidth, the band signal divided by the Bark scale of 1.0 represents a signal tone that can be audibly discriminated.

【0023】図5に戻って、図5の(b)及び(c)
は、図5の(a)の臨界帯域幅前処理部110の内部ブ
ロック構成例を示したものである。ここでは、図6〜図
10に示す臨界帯域処理の実施例を参照しながら説明す
る。図5の(b)及び(c)において、インパルスレス
ポンス信号はFFT(FirstFourier Transform) 処理部
111で高速フーリエ変換によって時間領域信号から周
波数領域信号に変換される。図6には、無響室で測定さ
れ、聴取者に対し左前方45度の音源から左耳までの音
響空間経路のインパルスレスポンスのパワースペクトラ
ムの一例が示されている。
Returning to FIG. 5, (b) and (c) of FIG.
5 shows an internal block configuration example of the critical bandwidth preprocessing unit 110 of FIG. Here, description will be made with reference to the embodiments of the critical band processing shown in FIGS. In (b) and (c) of FIG. 5, the impulse response signal is transformed from the time domain signal to the frequency domain signal by the fast Fourier transform (FFT) processing unit 111. FIG. 6 shows an example of the power spectrum of the impulse response of the acoustic space path from the sound source of 45 degrees left front to the left ear, which is measured in the anechoic chamber.

【0024】前記周波数領域信号は、次段の臨界帯域処
理部112,114において上述したバーク尺度1.0
の複数の帯域に分割され、図5の(b)の場合には各臨
界帯域内のパワースペクトラムの累積加算値が、また図
5の(c)の場合には各臨界帯域内のパワースペクトラ
ムの最大値又は平均値がその帯域信号を代表する信号音
として求められる。図7は、図6のパワースペクトラム
を臨界帯域幅で分割し、図5の(c)で示した各帯域に
おけるパワースペクトラムの最大値を求めた例を示した
ものである。
The frequency domain signal is converted into the above-described Bark scale 1.0 in the critical band processing units 112 and 114 in the next stage.
Of the power spectrum in each critical band in the case of FIG. 5B, and the cumulative value of the power spectrum in each critical band in the case of FIG. 5C. The maximum value or the average value is obtained as the signal sound representing the band signal. FIG. 7 shows an example in which the power spectrum of FIG. 6 is divided by the critical bandwidth and the maximum value of the power spectrum in each band shown in FIG. 5C is obtained.

【0025】また、臨界帯域処理部112,114で
は、さらに前記各臨界帯域毎に求めたパワースペクトラ
ムの累積加算値、最大値又は平均値の間を相互に滑らか
に結ぶ出力補間処理が行われる。前記補間には、一次の
直線補間や高次のテイラー級数による補間等が行われ
る。図8は、図7のパワースペクトルを出力補間するこ
とによって滑らかにしたパワースペクトラムの一例を示
している。
Further, the critical band processing units 112 and 114 further perform an output interpolation process for smoothly connecting the cumulative addition value, the maximum value or the average value of the power spectra obtained for each critical band. For the interpolation, first-order linear interpolation, higher-order Taylor series interpolation, and the like are performed. FIG. 8 shows an example of a power spectrum smoothed by output interpolation of the power spectrum of FIG.

【0026】最後に、前記滑らかにしたパワースペクト
ラムを逆FFT部113で逆フーリエ変換することによ
り周波数領域の信号を時間領域の信号に復元する。ここ
で、フェーズスペクトルは、元のインパルスレスポンス
のフェーズスペクトルをそのまま使用している。前記復
元されたインパルスレスポンス信号のこれ以降の処理に
ついては、図3で説明した従来例と同様である。
Finally, the smoothed power spectrum is inverse-Fourier-transformed by the inverse FFT unit 113 to restore the frequency domain signal to the time domain signal. Here, as the phase spectrum, the phase spectrum of the original impulse response is used as it is. The subsequent processing of the restored impulse response signal is the same as that of the conventional example described in FIG.

【0027】このように、本発明によれば臨界帯域幅を
用いて聴覚上の変化が生じないように信号音の特徴部分
を抽出し、それを滑らかに補間処理した後に近似として
の元のインパルレスポンスを復元する。これにより、本
発明のように特に少ない次数の線形予測係数を用いて周
波数特性を近似する場合に、複雑な元のインパルレスポ
ンスから直接周波数特性を近似する従来例と比較してそ
の近似精度を大幅に向上させることができる。
As described above, according to the present invention, the characteristic portion of the signal sound is extracted by using the critical bandwidth so that the auditory change does not occur, and the smoothed interpolation processing is performed on the characteristic portion of the signal sound, and then the original impal as an approximation is extracted. Restore the response. As a result, when the frequency characteristic is approximated by using a linear prediction coefficient having a particularly small order as in the present invention, the approximation accuracy is greatly improved as compared with the conventional example in which the frequency characteristic is directly approximated from the complicated original impulse response. Can be improved.

【0028】図9は、図5の(a)の処理によって得ら
れた線形予測係数(an,...,a2, a1)を用いた
合成フィルタ(IIR)121の一回路構成例を示した
ものでありる。図10は、図9の線形予測係数を用いた
10次の合成フィルタを使って近似処理後のインパルス
レスポンスから求めたパワースペクトラムの一例を示し
たものである。これから、パワースペクトラムの山の部
分の近似精度が向上しているのが分かる。
FIG. 9 shows a circuit configuration example of the synthesis filter (IIR) 121 using the linear prediction coefficients (an, ..., A2, a1) obtained by the process of FIG. It is a thing. FIG. 10 shows an example of the power spectrum obtained from the impulse response after the approximation processing using the 10th-order synthesis filter using the linear prediction coefficient of FIG. From this, it can be seen that the approximation accuracy of the peak portion of the power spectrum is improved.

【0029】図11は、図9に示す線形予測係数を用い
た合成フィルタ121の特性を補整する処理構成例を示
したものである。図11では、音響特性付加フィルタ1
20として前記線形予測係数を用いた合成フィルタ12
1に加えて、補整用フィルタ122が直列に接続され
る。図12及び図13には補整用フィルタ122の一例
がそれぞれ示されており、図12では周波数領域におけ
る谷の特性部分を近似するための予測フィルタ(FI
R)の例が、また図13では時間領域における両耳間遅
延時間差やレベル差を補整するための遅延・増幅回路の
例が示されている。
FIG. 11 shows an example of a processing configuration for correcting the characteristics of the synthesis filter 121 using the linear prediction coefficient shown in FIG. In FIG. 11, the acoustic characteristic addition filter 1
A synthesis filter 12 using the linear prediction coefficient as 20
In addition to 1, the compensation filter 122 is connected in series. 12 and 13 each show an example of the correction filter 122. In FIG. 12, a prediction filter (FI) for approximating the characteristic portion of the valley in the frequency domain is shown.
R), and FIG. 13 shows an example of a delay / amplification circuit for compensating for the interaural delay time difference and level difference in the time domain.

【0030】図11に示すように、実際の音響特性を表
すインパルスレスポンス信号を誤差計算部130の一方
の入力に与え、前記音響特性付加フィルタ120にはイ
ンパルス信号を入力する。前記インパルス信号の入力に
よって音響特性付加フィルタ120の出力には時間領域
の音響特性付加フィルタ特性信号が出力される。それを
前記誤差計算部130の他方の入力に与え、前記実際の
音響特性を表すインパルスレスポンス信号と比較する。
そして、前記比較による誤差分を小さくするよう補整用
フィルタ122を調整する。
As shown in FIG. 11, an impulse response signal representing the actual acoustic characteristic is given to one input of the error calculating section 130, and the impulse signal is inputted to the acoustic characteristic adding filter 120. When the impulse signal is input, the acoustic characteristic addition filter characteristic signal in the time domain is output to the output of the acoustic characteristic addition filter 120. It is applied to the other input of the error calculator 130 and compared with the impulse response signal representing the actual acoustic characteristic.
Then, the compensation filter 122 is adjusted so as to reduce the error amount due to the comparison.

【0031】一例として、図12に示すn次のFIRフ
ィルタ122を用いて、合成フィルタ121のインパル
スレスポンスの時間領域における波形の補整を行う場合
について説明する。ここで、フィルタ係数c0,c
1,...,cpは次のようにして求められる。合成フ
ィルタのインパルスレスポンスをx、元のインパルスレ
スポンスをyとすると次式が成立する。ここで、q≧p
とする。
As an example, a case will be described in which the nth-order FIR filter 122 shown in FIG. 12 is used to correct the waveform of the impulse response of the synthesis filter 121 in the time domain. Here, the filter coefficients c0 and c
1,. . . , Cp are obtained as follows. When the impulse response of the synthesizing filter is x and the original impulse response is y, the following equation holds. Where q ≧ p
And

【0032】[0032]

【数1】 [Equation 1]

【0033】上式の左辺の要素x(0),...,x
(q)の行列をX、要素c0,...,cpのベクトル
をCとし、右辺のベクトルをYとすると次式により、フ
ィルタ係数c0,c1,...,cpが求まる。 Xc=Y XT Xc=XT Y c=(XT X)-1T Y また、最急降下法により求める方法もある。
The left-hand side elements x (0) ,. . . , X
Let the matrix of (q) be X, elements c0 ,. . . , Cp is C and the right side vector is Y, the filter coefficients c0, c1 ,. . . , Cp is obtained. Xc = Y X T Xc = X T Y c = (X T X) -1 X T Y There is also a method of obtaining by the steepest descent method.

【0034】図14は、前記補整用フィルタ122を使
って線形予測係数を用いた合成フィルタ121の周波数
特性を変更した一例を示している。図14の点線波形は
補整前の合成フィルタ121の周波数特性の一例を示し
ており、図14の実線波形は図12の予測フィルタ12
2を使ってそれを補整した一例を示している。この補整
によって前記周波数特性の谷の部分の特性が明瞭になっ
たのが分かる。
FIG. 14 shows an example in which the frequency characteristic of the synthesis filter 121 using the linear prediction coefficient is changed by using the compensation filter 122. The dotted line waveform in FIG. 14 shows an example of the frequency characteristic of the synthesis filter 121 before compensation, and the solid line waveform in FIG. 14 is the prediction filter 12 in FIG.
2 shows an example in which it is adjusted by using 2. It can be seen that the characteristic of the valley portion of the frequency characteristic is clarified by this correction.

【0035】図15は、上述した本発明の1応用例を示
したものである。図2で説明したように、従来は音響特
性付加フィルタ12,13とヘッドホン特性の逆特性フ
ィルタ14,15とをそれぞれ別々に求め、それらを直
列接続する構成としていた。この場合、例えば前段のフ
ィルタ12(又は13)で128タップ及び後段のフィ
ルタ14(又は15)で128タップをそれぞれ使用す
ると仮定した場合に、それらを直列接続して信号の収束
を保証するためにはその約2倍の255タップが必要で
あった。
FIG. 15 shows one application example of the present invention described above. As described with reference to FIG. 2, conventionally, the acoustic characteristic adding filters 12 and 13 and the inverse characteristic filters 14 and 15 of the headphone characteristic are individually obtained and connected in series. In this case, for example, if it is assumed that 128 taps are used in the filter 12 (or 13) in the preceding stage and 128 taps are used in the filter 14 (or 15) in the subsequent stage, they are connected in series to guarantee the convergence of the signal. Needed about twice as many as 255 taps.

【0036】それに対し、図15では最初から音響特性
付加フィルタとヘッドホンの逆特性フィルタとを結合し
た1つのフィルタ141又は142を用いる。本発明に
よれば、図5の(a)に示すように音響特性の線形予測
解析を行う前に臨界帯域幅を考慮した前処理110が行
われる。その処理過程で上述したように聴覚上の変化が
生じない範囲で信号音の特徴部分の抽出と補間処理が行
われる。その結果、より少ない次数の線形予測係数を用
いて周波数特性が近似され、従来のように前段と後段を
直列接続する場合と比べて大幅なフィルタ回路の簡略化
が可能となる。
On the other hand, in FIG. 15, one filter 141 or 142 in which the acoustic characteristic addition filter and the inverse characteristic filter of the headphones are combined is used from the beginning. According to the present invention, as shown in FIG. 5A, the pre-processing 110 considering the critical bandwidth is performed before performing the linear prediction analysis of the acoustic characteristics. In the processing process, as described above, the extraction and the interpolation processing of the characteristic portion of the signal sound are performed within the range where the auditory change does not occur. As a result, the frequency characteristic is approximated by using a linear prediction coefficient of a smaller order, and the filter circuit can be significantly simplified as compared with the case where the former stage and the latter stage are connected in series as in the conventional case.

【0037】図16は、ヘッドホンのパワースペクトラ
ムの逆特性(h-1)の一例を示したものである。また、
図17は、実際の音響特性とヘッドホンの逆特性の結合
フィルタ(S→l・h-1)のパワースペクトラムの一例
を示したものである。図18は、図17のパワースペク
トラムを臨界帯域幅で分割して各帯域における最大値で
代表させた結果を示したものである。そして、図19
は、図18のパワースペクトラムの代表値に補間処理を
行った場合の例を示している。図17と図19のパワー
スペクトラムを比較すると、後者の方がより少ない次数
の線形予測係数を用いてより正確に近似できることが分
かる。
FIG. 16 shows an example of the inverse characteristic (h -1 ) of the power spectrum of the headphones. Also,
FIG. 17 shows an example of the power spectrum of the coupling filter (S → l · h −1 ) having the actual acoustic characteristics and the inverse characteristics of the headphones. FIG. 18 shows the result of dividing the power spectrum of FIG. 17 by the critical bandwidth and representing it by the maximum value in each band. And FIG.
Shows an example of the case where interpolation processing is performed on the representative value of the power spectrum of FIG. Comparing the power spectra of FIG. 17 and FIG. 19, it can be seen that the latter can be more accurately approximated using a linear prediction coefficient of a smaller order.

【0038】図20は、本発明により複数の仮想音源間
の出力補間で音像定位を行う処理の原理構成を示したも
のである。図20の(a)では、2個所の仮想音源
(A,B)20−1及び20−2から聴取者11の左右
の耳に至るまでの各音響空間経路の伝達特性を付加する
ために、4個の音響特性演算用メモリ151〜154が
設けられている。そして、前記仮想音源(A)20−1
と仮想音源(B)20−2との間に音像を定位させ若し
くはスムーズに移動させるために次段の増幅器27〜3
0の各ゲインが調整される。
FIG. 20 shows a principle configuration of a process for performing sound image localization by output interpolation between a plurality of virtual sound sources according to the present invention. In (a) of FIG. 20, in order to add the transfer characteristics of each acoustic spatial path from the two virtual sound sources (A, B) 20-1 and 20-2 to the left and right ears of the listener 11, Four acoustic characteristic calculation memories 151 to 154 are provided. Then, the virtual sound source (A) 20-1
And the virtual sound source (B) 20-2, the amplifiers 27 to 3 of the next stage are provided to localize or smoothly move the sound image.
Each gain of 0 is adjusted.

【0039】次に、図20の(b)に示すように、前記
音像を続く次の仮想音源(B,C)20−2及び20−
3の間に定位若しくは移動させる場合に、前記4個の音
響特性演算用メモリ151〜154の内、仮想音源
(A)20−1用に割り当てられていた2個の音響特性
演算用メモリ151及び152が仮想音源(C)20−
3のために割り当てられる。この場合、仮想音源(B)
20−2の音響特性演算用メモリ153及び154は変
更されることなくそのまま使用される。そして、図20
の(a)と同様に前記仮想音源(B)20−2と仮想音
源(C)20−3との間に音像を定位させ若しくはスム
ーズに移動させるために次段の増幅器27〜30の各ゲ
インが調整される。
Next, as shown in FIG. 20 (b), the next virtual sound source (B, C) 20-2 and 20- following the sound image.
In the case of locating or moving during the period of 3, the two acoustic characteristic calculation memories 151-154 allocated to the virtual sound source (A) 20-1 among the four acoustic characteristic calculation memories 151 to 154 and 152 is a virtual sound source (C) 20-
Allocated for 3. In this case, virtual sound source (B)
The acoustic characteristic calculation memories 153 and 154 of 20-2 are used as they are without being changed. And FIG.
In the same manner as in (a) above, each gain of the amplifiers 27 to 30 in the next stage is used to localize or smoothly move the sound image between the virtual sound source (B) 20-2 and the virtual sound source (C) 20-3. Is adjusted.

【0040】すなわち、上記構成によれば(1)音響特
性演算用メモリは2個の仮想音源に対応するだけでよ
く、また次段の増幅器やその出力加算回路も同様であ
る。(2)音像の移動によって発音区域外となった仮想
音源(上記の例ではA)の音響特性演算用メモリは、新
たに発音区域内に置かれる仮想音源(上記の例ではC)
用の音響特性演算用メモリとして使用される。そして
(3)前記いずれの発音区域にも属する仮想音源(上記
の例ではB)はそのまま音響特性演算用メモリの使用を
継続する。
That is, according to the above configuration, (1) the acoustic characteristic calculation memory only needs to correspond to two virtual sound sources, and the amplifier at the next stage and its output addition circuit are also the same. (2) The acoustic characteristic calculation memory of the virtual sound source (A in the above example) outside the sounding area due to the movement of the sound image is a virtual sound source newly placed in the sounding area (C in the above example).
Is used as a memory for calculating acoustic characteristics. Then, (3) the virtual sound source (B in the above example) belonging to any of the sounding areas continues to use the acoustic characteristic calculation memory.

【0041】これより、(1)から音像の移動に必要な
メモリ量等のハードウェアが最小限に抑えられ、その結
果演算制御も簡易で高速なものとなる。。また、(2)
及び(3)から発音区域の切り換わりの際には(3)の
仮想音源(B)のみが発音し、他の仮想音源(A,C)
の増幅器ゲインはゼロである。従って、上記発音区間の
切り換わりによるクリック音は発生しない。
As a result, the hardware required for moving the sound image, such as the amount of memory, from (1) can be minimized, and as a result, the arithmetic control becomes simple and fast. . Also, (2)
When switching the sounding area from (3) and (3), only the virtual sound source (B) of (3) sounds, and other virtual sound sources (A, C).
The amplifier gain is zero. Therefore, no click sound is generated due to the switching of the sounding section.

【0042】図21及び図22は、図20のより具体的
な実施例を示したものである。いずれも新たに音像の位
置情報が与えられ、それからフィルタ係数やメモリの選
択設定を行うメモリ制御部155と、増幅器27〜30
の各音像位置に対するゲイン計算を行うゲイン制御部1
56とを有している。図21は図20の(a)に対応
し、そして図22は図20の(b)にそれぞれ対応して
いる。
21 and 22 show a more specific embodiment of FIG. In each case, the position information of the sound image is newly given, and then the memory control unit 155 which performs the filter coefficient and the selective setting of the memory and the amplifiers 27 to 30.
Gain control unit 1 for performing gain calculation for each sound image position of
56 and. 21 corresponds to FIG. 20A, and FIG. 22 corresponds to FIG. 20B.

【0043】[0043]

【発明の効果】以上述べたように、本発明の立体音響処
理装置によれば、臨界帯域幅を考慮し、それによって聴
覚上変化が無いように元のインパルレスポンスを滑らか
にすることで、少ない次数の線形予測係数を用いて周波
数特性を近似する場合の近似精度を高くすることができ
る。その際、合成フィルタのインパルスレスポンスの時
間領域での波形を補整することにより、両耳間時間差と
レベル差等の制御も容易にすることができる。
As described above, according to the stereophonic processing apparatus of the present invention, the critical bandwidth is taken into consideration, and the original impulse response is smoothed so that there is no auditory change, thereby reducing It is possible to improve the approximation accuracy when approximating the frequency characteristic using the linear prediction coefficient of the order. At this time, by correcting the waveform of the impulse response of the synthesis filter in the time domain, it is possible to easily control the interaural time difference and the level difference.

【0044】さらに、本発明により所望の音像定位を行
う際に必要な仮想音源の定位処理のみを行うことで、必
要な処理量とメモリ量を必要最小限にすると共に仮想音
源切り換わり時のクリック音の発生を防止することがで
きる。このように、本発明によれば全体の音響特性を変
化させることなく、フィルタの数を減らし、その結果D
SP等を用いた立体音像の制御実現を容易に実現するこ
とができる。
Further, according to the present invention, by performing only the localization processing of the virtual sound source necessary for performing the desired sound image localization, the required processing amount and memory amount can be minimized and the click at the time of switching the virtual sound source can be performed. It is possible to prevent the generation of sound. Thus, according to the present invention, the number of filters is reduced without changing the overall acoustic characteristics, resulting in D
It is possible to easily realize control of a stereoscopic sound image using SP or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の音像定位技術の説明図(1)である。FIG. 1 is an explanatory diagram (1) of a conventional sound image localization technique.

【図2】従来の音像定位技術の説明図(2)である。FIG. 2 is an explanatory diagram (2) of a conventional sound image localization technique.

【図3】従来の音像定位技術の説明図(3)である。FIG. 3 is an explanatory diagram (3) of a conventional sound image localization technique.

【図4】従来の音像定位技術の説明図(4)である。FIG. 4 is an explanatory diagram (4) of a conventional sound image localization technique.

【図5】本発明により音響特性を付加するための線形予
測係数を求めるための基本原理図である。
FIG. 5 is a basic principle diagram for obtaining a linear prediction coefficient for adding an acoustic characteristic according to the present invention.

【図6】音響空間経路のインパルスレスポンスのパワー
スペクトラムの一例を示した図である。
FIG. 6 is a diagram showing an example of a power spectrum of an impulse response in an acoustic space path.

【図7】図6に示すパワースペクトラムを臨界帯域幅で
分割してそのパワースペクトラムの最大値で代表させた
例を示す図である。
FIG. 7 is a diagram showing an example in which the power spectrum shown in FIG. 6 is divided by a critical bandwidth and is represented by the maximum value of the power spectrum.

【図8】図7に示すパワースペクトラムの出力補間によ
って滑らかなパワースペクラムを得る一例を示した図で
ある。
8 is a diagram showing an example of obtaining a smooth power spectrum by output interpolation of the power spectrum shown in FIG.

【図9】線形予測係数を用いた合成フィルタの一構成例
を示した図である。
FIG. 9 is a diagram showing a configuration example of a synthesis filter using linear prediction coefficients.

【図10】本発明による線形予測係数を用いた10次の
合成フィルタのパワースペクトラムの一例を示した図で
ある。
FIG. 10 is a diagram showing an example of a power spectrum of a 10th-order synthesis filter using a linear prediction coefficient according to the present invention.

【図11】本発明による線形予測係数を用いた合成フィ
ルタの補整処理の一構成例を示した図である。
FIG. 11 is a diagram showing a configuration example of a correction process of a synthesis filter using a linear prediction coefficient according to the present invention.

【図12】予測フィルタの一例を示した図である。FIG. 12 is a diagram showing an example of a prediction filter.

【図13】遅延・増幅回路の一例を示した図である。FIG. 13 is a diagram showing an example of a delay / amplification circuit.

【図14】補整フィルタにより周波数特性の補整を行っ
た一例を示した図である。
FIG. 14 is a diagram showing an example in which frequency characteristics are corrected by a correction filter.

【図15】本発明によって音響特性付加フィルタとヘッ
ドホンの逆特性を結合した例を示した図である。
FIG. 15 is a diagram showing an example in which the inverse characteristics of the acoustic characteristic addition filter and the headphones are combined according to the present invention.

【図16】ヘッドホンのパワースペクトラムの逆特性の
一例を示した図である。
FIG. 16 is a diagram showing an example of an inverse characteristic of the power spectrum of headphones.

【図17】音響特性付加フィルタとヘッドホンの逆特性
の結合フィルタによるパワースペクトラムの一例を示し
た図である。
FIG. 17 is a diagram showing an example of a power spectrum by an acoustic characteristic addition filter and a coupling filter having an inverse characteristic of headphones.

【図18】図17に示すパワースペクトラムを臨界帯域
幅で分割してその最大値で代表させた一例を示した図で
ある。
FIG. 18 is a diagram showing an example in which the power spectrum shown in FIG. 17 is divided by the critical bandwidth and represented by its maximum value.

【図19】図18のパワースペクトラムを補間した一例
を示す図である。
FIG. 19 is a diagram showing an example in which the power spectrum of FIG. 18 is interpolated.

【図20】本発明による仮想音響空間の音像定位のため
の基本構成を示した図である。
FIG. 20 is a diagram showing a basic configuration for sound image localization in a virtual acoustic space according to the present invention.

【図21】図20の(a)の具体例を示した図である。FIG. 21 is a diagram showing a specific example of FIG.

【図22】図20の(b)の具体例を示した図である。22 is a diagram showing a specific example of FIG. 20 (b).

【符号の説明】[Explanation of symbols]

18…自己相関係数計算部 19…線形予測解析部 110…臨界帯域幅前処理部 111…高速フーリエ変換処理部 112…臨界帯域内累積加算部 113…逆高速フーリエ変換処理部 114…臨界帯域内最大/平均処理部 122…補整用フィルタ部 141,142…結合フィルタ 18 ... Autocorrelation coefficient calculation unit 19 ... Linear prediction analysis unit 110 ... Critical bandwidth pre-processing unit 111 ... Fast Fourier transform processing unit 112 ... In-critical band cumulative addition unit 113 ... Inverse fast Fourier transform processing unit 114 ... In critical band Maximum / average processing unit 122 ... Compensation filter unit 141, 142 ... Combined filter

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 原信号に付加する所望の音響特性を、そ
の音響特性を表すインパルスレスポンスの線形予測解析
によって得られる線形予測係数をフィルタ係数とする線
形合成フィルタによって形成し、前記線形合成フィルタ
を通して前記原信号に所望の音響特性を付加する立体音
響処理装置であって、 前記音響特性を表すインパルスレスポンスのパワースペ
クトラムを複数の臨界帯域に分割し、前記各臨界帯域内
の信号音を代表させたパワースペクトラム信号から求め
たインパルス信号を基に前記線形予測解析を行って前記
線形合成フィルタのフィルタ係数を求めることを特徴と
する線形予測係数を用いた立体音響処理装置。
1. A desired acoustic characteristic to be added to an original signal is formed by a linear synthesis filter whose filter coefficient is a linear prediction coefficient obtained by linear prediction analysis of an impulse response representing the acoustic characteristic, and is passed through the linear synthesis filter. A stereophonic processing apparatus for adding desired acoustic characteristics to the original signal, wherein a power spectrum of an impulse response representing the acoustic characteristics is divided into a plurality of critical bands, and a signal sound in each of the critical bands is represented. A stereophonic processing apparatus using a linear prediction coefficient, wherein the linear prediction analysis is performed based on an impulse signal obtained from a power spectrum signal to obtain a filter coefficient of the linear synthesis filter.
【請求項2】 前記各臨界帯域内の信号音を代表するペ
クトラム信号には、各臨界帯域内のパワースペクトラム
の累積加算値が用いられる請求項1記載の線形予測係数
を用いた立体音響処理装置。
2. A stereophonic processing apparatus using a linear prediction coefficient according to claim 1, wherein a cumulative sum value of power spectra in each critical band is used for a spectrum signal representing a signal tone in each critical band. .
【請求項3】 前記各臨界帯域内の信号音を代表するペ
クトラム信号には、各臨界帯域内のパワースペクトラム
の最大値が用いられる請求項1記載の線形予測係数を用
いた立体音響処理装置。
3. The stereophonic processing apparatus using a linear prediction coefficient according to claim 1, wherein the maximum value of the power spectrum in each critical band is used for the spectrum signal representing the signal sound in each critical band.
【請求項4】 前記各臨界帯域内の信号音を代表するペ
クトラム信号には、各臨界帯域内のパワースペクトラム
の平均値が用いられる請求項1記載の線形予測係数を用
いた立体音響処理装置。
4. The stereophonic sound processing apparatus using a linear prediction coefficient according to claim 1, wherein an average value of a power spectrum in each critical band is used for a spectrum signal representative of a signal sound in each critical band.
【請求項5】 さらに前記各臨界帯域内の信号音を代表
させたパワースペクトラム信号間の出力補間を行い、前
記出力補間信号から求めたインパルス信号を基に前記線
形予測解析を行って前記線形合成フィルタのフィルタ係
数を求める請求項1記載の線形予測係数を用いた立体音
響処理装置。
5. The linear synthesis is performed by further performing output interpolation between power spectrum signals that represent the signal tones in each of the critical bands, and performing the linear prediction analysis based on the impulse signal obtained from the output interpolation signal. The stereophonic processing apparatus using the linear prediction coefficient according to claim 1, wherein the filter coefficient of the filter is obtained.
【請求項6】 前記出力補間には、1次の直線補間を行
う請求項5記載の線形予測係数を用いた立体音響処理装
置。
6. The stereophonic processing apparatus using a linear prediction coefficient according to claim 5, wherein the output interpolation is linear linear interpolation.
【請求項7】 前記出力補間には、高次のテイラー級数
を用いた補間を行う請求項5記載の線形予測係数を用い
た立体音響処理装置。
7. The stereophonic processing apparatus using a linear prediction coefficient according to claim 5, wherein the output interpolation is performed by using a higher-order Taylor series.
【請求項8】 前記音響特性を示すインパルスレスポン
スとして原音場における伝達経路と再生音場の逆特性を
持つ伝送経路を直列に結合した場合の音響特性を示すイ
ンパルスレスポンスを用い、そして前記結合したインパ
ルスレスポンスを基に線形予測係数を求める前記線形合
成フィルタとして原音場における音響特性を付加するフ
ィルタと再音場における音響特性を除去するフィルタを
1つに結合したフィルタを用いる請求項1記載の線形予
測係数を用いた立体音響処理装置。
8. An impulse response showing acoustic characteristics when a transmission path in an original sound field and a transmission path having an inverse characteristic of a reproduced sound field are connected in series as an impulse response showing the acoustic characteristics, and the combined impulse is used. The linear prediction according to claim 1, wherein a filter that adds an acoustic characteristic in the original sound field and a filter that removes the acoustic characteristic in the re-sound field is used as the linear synthesis filter for obtaining the linear prediction coefficient based on the response. 3D sound processing device using coefficients.
【請求項9】 さらに、前記線形予測係数を用いた線形
合成フィルタのインパルスレスポンスと前記音響特性を
示すインパルスレスポンスとの間の誤差を小さくする補
整用フィルタを用いる請求項1記載の線形予測係数を用
いた立体音響処理装置。
9. The linear prediction coefficient according to claim 1, further comprising a compensation filter for reducing an error between an impulse response of a linear synthesis filter using the linear prediction coefficient and an impulse response showing the acoustic characteristic. The stereophonic processing device used.
【請求項10】 複数の仮想音源からのレベル制御によ
って音像を定位させる立体音響処理装置であって、その
間に音像が定位する隣接した2つの前記仮想音源に対し
て与えられ、前記仮想音源から聴取者までの各音響空間
経路の音響特性を示すインパルスレスポンスを付加する
音響特性付加フィルタを有し、 前記音響特性付加フィルタは、前記隣接した2つの仮想
音源のフィルタ演算パラメータを記憶し、音像が前記2
つの仮想音源の内の1つを含む新たな隣接区間へ移動す
る際には前記1つの仮想音源に対応する音響特性フィル
タの演算パラメータを変えることなく、もう一方の音響
特性フィルタの演算パラメータを前記新たな隣接区間に
存する仮想音源のものに更新することを特徴とする立体
音響処理装置。
10. A stereophonic processing apparatus for localizing a sound image by level control from a plurality of virtual sound sources, wherein a sound image is given to two adjacent virtual sound sources, wherein sound images are localized between the virtual sound sources. An acoustic characteristic addition filter that adds an impulse response indicating the acoustic characteristic of each acoustic space path to the person, the acoustic characteristic addition filter stores the filter calculation parameters of the two adjacent virtual sound sources, and the sound image is the Two
When moving to a new adjacent section including one of the two virtual sound sources, the calculation parameter of the other acoustic characteristic filter is changed without changing the calculation parameter of the acoustic characteristic filter corresponding to the one virtual sound source. A stereophonic sound processing device characterized by updating to a virtual sound source existing in a new adjacent section.
JP04610596A 1995-09-08 1996-03-04 Stereophonic sound processor using linear prediction coefficients Expired - Fee Related JP4306815B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP04610596A JP4306815B2 (en) 1996-03-04 1996-03-04 Stereophonic sound processor using linear prediction coefficients
EP07010496A EP1816895B1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor which uses linear predictive coefficients
EP96113318A EP0762804B1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor which uses linear predictive coefficients
DE69637736T DE69637736D1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor with application of linear predictive coefficients
US08/697,247 US6023512A (en) 1995-09-08 1996-08-21 Three-dimensional acoustic processor which uses linear predictive coefficients
US09/330,017 US6269166B1 (en) 1995-09-08 1999-06-11 Three-dimensional acoustic processor which uses linear predictive coefficients
US09/449,570 US6553121B1 (en) 1995-09-08 1999-11-29 Three-dimensional acoustic processor which uses linear predictive coefficients

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04610596A JP4306815B2 (en) 1996-03-04 1996-03-04 Stereophonic sound processor using linear prediction coefficients

Publications (2)

Publication Number Publication Date
JPH09247799A true JPH09247799A (en) 1997-09-19
JP4306815B2 JP4306815B2 (en) 2009-08-05

Family

ID=12737723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04610596A Expired - Fee Related JP4306815B2 (en) 1995-09-08 1996-03-04 Stereophonic sound processor using linear prediction coefficients

Country Status (1)

Country Link
JP (1) JP4306815B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002148292A (en) * 2000-11-08 2002-05-22 Hioki Ee Corp Digital flicker meter
JPWO2006030692A1 (en) * 2004-09-16 2008-05-15 松下電器産業株式会社 Sound image localization device
JP2012037577A (en) * 2010-08-03 2012-02-23 Dainippon Printing Co Ltd Method and apparatus for modifying noise source to comfortable sound
JP2014090464A (en) * 2008-07-31 2014-05-15 Fraunhofer Ges Zur Foerderung Der Angewandten Forschung Ev Signal generation for binaural signal
JP2014112793A (en) * 2012-12-05 2014-06-19 Nippon Hoso Kyokai <Nhk> Impulse response length conversion device, impulse response length conversion method and impulse response length conversion program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002148292A (en) * 2000-11-08 2002-05-22 Hioki Ee Corp Digital flicker meter
JPWO2006030692A1 (en) * 2004-09-16 2008-05-15 松下電器産業株式会社 Sound image localization device
JP4684234B2 (en) * 2004-09-16 2011-05-18 パナソニック株式会社 Sound image localization device
JP2014090464A (en) * 2008-07-31 2014-05-15 Fraunhofer Ges Zur Foerderung Der Angewandten Forschung Ev Signal generation for binaural signal
US9226089B2 (en) 2008-07-31 2015-12-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Signal generation for binaural signals
JP2012037577A (en) * 2010-08-03 2012-02-23 Dainippon Printing Co Ltd Method and apparatus for modifying noise source to comfortable sound
JP2014112793A (en) * 2012-12-05 2014-06-19 Nippon Hoso Kyokai <Nhk> Impulse response length conversion device, impulse response length conversion method and impulse response length conversion program

Also Published As

Publication number Publication date
JP4306815B2 (en) 2009-08-05

Similar Documents

Publication Publication Date Title
EP0762804B1 (en) Three-dimensional acoustic processor which uses linear predictive coefficients
US9918179B2 (en) Methods and devices for reproducing surround audio signals
US6243476B1 (en) Method and apparatus for producing binaural audio for a moving listener
JP3264489B2 (en) Sound reproduction device
US8605909B2 (en) Method and device for efficient binaural sound spatialization in the transformed domain
US5774562A (en) Method and apparatus for dereverberation
TWI451772B (en) Rendering center channel audio
US6078669A (en) Audio spatial localization apparatus and methods
KR100739776B1 (en) Method and apparatus for reproducing a virtual sound of two channel
US10531217B2 (en) Binaural synthesis
JP2001507879A (en) Stereo sound expander
JPH08182100A (en) Method and device for sound image localization
TW202027517A (en) Spectral defect compensation for crosstalk processing of spatial audio signals
JP3618159B2 (en) Sound image localization apparatus and parameter calculation method thereof
JP4306815B2 (en) Stereophonic sound processor using linear prediction coefficients
US8059824B2 (en) Joint sound synthesis and spatialization
JPH0833092A (en) Design device for transfer function correction filter of stereophonic reproducing device
JP4963356B2 (en) How to design a filter
JP2755081B2 (en) Sound image localization control method
JP3500746B2 (en) Sound image localization device and filter setting method
JPH08102999A (en) Stereophonic sound reproducing device
JPH09327100A (en) Headphone reproducing device
EP0948875A1 (en) Processing audio signals
JP2870562B2 (en) Method of sound image localization control
JP2002262385A (en) Generating method for sound image localization signal, and acoustic image localization signal generator

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060718

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060728

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090428

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees