JP4395550B2 - Sound image localization apparatus, sound image localization method, and program - Google Patents

Sound image localization apparatus, sound image localization method, and program Download PDF

Info

Publication number
JP4395550B2
JP4395550B2 JP2002130913A JP2002130913A JP4395550B2 JP 4395550 B2 JP4395550 B2 JP 4395550B2 JP 2002130913 A JP2002130913 A JP 2002130913A JP 2002130913 A JP2002130913 A JP 2002130913A JP 4395550 B2 JP4395550 B2 JP 4395550B2
Authority
JP
Japan
Prior art keywords
sound image
signal
sound
position information
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002130913A
Other languages
Japanese (ja)
Other versions
JP2003324800A (en
Inventor
紳治 永田
Original Assignee
紳治 永田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 紳治 永田 filed Critical 紳治 永田
Priority to JP2002130913A priority Critical patent/JP4395550B2/en
Publication of JP2003324800A publication Critical patent/JP2003324800A/en
Application granted granted Critical
Publication of JP4395550B2 publication Critical patent/JP4395550B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を定位させる音像定位装置、音像定位方法、及びプログラムに関する。
【0002】
【従来の技術】
従来の音像定位装置は、左右両チャネルのステレオ信号を生成し、これらを左右のスピーカに供給することで音像を定位させる技術が知られている。この音像定位技術は、主として左右の音量のバランスを変えることにより音像を定位させるものであった。しかしながら、このような構成からなる音像定位装置では、左右のスピーカの間にしか音像を定位させることができないという不具合があったので、近年、左チャンネルの音に右チャンネルの音の逆相の音を混合させるとともに、右チャンネルの音に左チャンネルの音の逆相の音を混合させて、左右のスピーカの外側に音像を定位させることが可能な音像定位装置が開発されている。
【0003】
【発明が解決しようとする課題】
上記スピーカの外側に音像を定位させる音像定位装置は、1つのオーディオ信号の音像を1個だけ形成するものであり、複数の楽曲信号ごとに楽曲信号の音像を定位させるものではなかった。このため、複数の楽曲信号からなる音を比較する処理を行う職業の人、例えば、作曲家、アーティスト等により、楽曲信号ごとの音像を複数定位させる音像定位装置が要望されていた。
【0004】
この発明は、上述した問題点に鑑み、楽曲信号ごとの音像を複数定位させることができる音像定位装置等を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するため、この発明の第1の観点に係る音像定位装置は、複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させる音像定位装置であって、前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータが記憶されている基本パラメータ記憶手段と、前記音場の中の任意の位置に音像を生成させる位置情報を入力する音像位置情報入力手段と、前記基本パラメータ記憶手段に記憶されている基本パラメータをもとにして、音像位置情報入力手段により入力された複数の位置情報に示された位置に、音像を定位させる音像信号を生成させるパラメータを算出するパラメータ算出手段と、複数の前記楽曲信号から所定長の信号を読み出す信号読出し手段と、前記信号読出し手段から読み出された信号ごとに、前記パラメータ算出手段により算出された前記パラメータが示す音像信号を生成する音像信号生成手段と、前記音像信号生成手段により生成された各音像信号の出力タイミングを同一にするように各楽曲の音像信号の出力を遅延する遅延手段と、前記遅延手段により同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力する合成信号生成手段と、を備えることを特徴とする。
【0006】
このような構成によれば、複数のスピーカにより形成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させることができる。
【0007】
パラメータ算出手段は、前記位置情報に示された位置が、4つの前記基本位置により指定される最小単位の領域のうちのいずれの領域に属するかを決定する領域決定手段と、前記領域決定手段により決定された領域を指定する基本位置のうち、前記位置情報に示された位置に最も近い基本位置を特定位置として特定する特定位置指定手段と、前記特定位置指定手段により特定された特定位置に示された基本パラメータをもとにして、前記位置情報に示された位置のパラメータを算出する算出手段とを備えるようにしてもよい。このことにより、音像位置情報に示された位置のパラメータを簡単に算出することができる。
【0008】
音像の位置を表示する表示手段を備え、前記表示手段は、位置情報入力手段により入力された時間とともに変化する前記位置情報に従い音像を表示し、前記音像信号生成手段は、前記表示手段に表示された音像の音像信号を生成するようにしてもよい。このことにより、音像位置の変化を視覚的にとらえることができる。
【0009】
また、この発明の第2の観点に係る音像定位方法は、複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させる音像定位方法であって、前記音場の中の任意の位置に音像を生成させる位置情報を入力し、予め記憶されている前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータをもとにして、入力された複数の前記位置情報に示された位置に音像を定位させる音像信号を生成させるパラメータを算出し、複数の前記楽曲信号から所定長の信号を読み出し、読み出された信号ごとに算出された前記パラメータが示す音像信号を生成し、生成された各楽曲の音像信号の出力タイミングを同一にするように各音像信号の出力を遅延し、同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力することを特徴とする。
【0010】
このような構成によれば、複数のスピーカにより形成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させることができる。
【0011】
前記位置情報に示された位置が、4つの前記基本位置により指定される最小単位の領域のうちのいずれの領域に属するかを決定し、決定された領域を指定する基本位置のうち、前記位置情報に示された位置に最も近い基本位置を特定位置として特定し、特定された特定位置に示された基本パラメータをもとにして、前記位置情報に示された位置のパラメータを算出するようにしてもよい。このことにより、音像位置情報に示された位置のパラメータを簡単に算出することができる。
【0012】
また、この発明の第3の観点に係るプログラムは、複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させるプログラムであって、前記音場の中の任意の位置に音像を生成させる位置情報を入力する手順、予め記憶されている前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータをもとにして、入力された複数の前記位置情報に示された位置に音像を定位させる音像信号を生成させるパラメータを算出する手順、複数の前記楽曲信号から所定長の信号を読み出す手順、読み出された信号ごとに算出された前記パラメータが示す音像信号を生成する手順、生成された各楽曲の音像信号の出力タイミングを同一にするように各音像信号の出力を遅延する手順、同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力する手順、をコンピュータに実行させる。
【0013】
このような構成によれば、複数のスピーカにより形成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させることができる。
【0014】
【発明の実施の形態】
以下、この発明の実施の形態に係る音声出力装置を説明する。図1は、この発明の実施形態に係る音声出力装置の構成を示すブロック図である。この実施形態の音声出力装置は、図1に示すように、制御部10と、記憶部11と、入力部12、表示部13と、音像信号生成部14と、遅延部15L、15R、バッファ部16と、DA変換部(デジタルアナログ変換部)17と、ミキシング部18L、18Rと、リスナーより左側に設置されているスピーカ19L、右側に設置されているスピーカ19Rとから構成されている。
【0015】
制御部10は、CPU(Central Processing Unit)等により構成され、制御プログラムにより、例えば下記に示すような処理を実行する。例えば、制御部10は、入力部12から読み取られた第i(i=1,2,・・・,9)楽曲信号を記憶部11中の楽曲信号記憶領域111に記憶する。また、制御部10は、音場に形成される音像の位置情報を入力部12により供給されると、記憶部11の位置情報テーブル112に記憶する。さらに、制御部10は、実際にスピーカに音を出力するときには、位置情報テーブル112に記憶されている位置情報をもとにして、音像信号(後述する)を形成させる情報を備えるパラメータを生成し、生成したパラメータをパラメータファイル114に記憶する。
【0016】
記憶部11は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置等とから構成され、制御プログラム(図示せず)と、楽曲信号を記憶する楽曲信号記憶領域111と、上記位置情報テーブル112と、基準点パラメータテーブル113と、パラメータファイル114と、制御部10の作業領域(図示せず)を備えている。
【0017】
楽曲信号記憶領域111は、入力部12より読み取られた第1〜第9のデジタル信号を記憶する。
【0018】
位置情報テーブル112は、図2に示すように、各音声データについて、スピーカ19L、19Rにより形成される音場に生成される、第1〜第9楽曲信号の音像位置を指定する情報を備える。
【0019】
基準点パラメータテーブル113は、図3に示すように、位置情報テーブル112に記憶された音像位置に楽曲信号の音像を生成する際に必要となる、基準点とその基準点におけるパラメータとを対応させた情報を記憶する。各基準点のパラメータは、後述する遅延量であって、mが大きい程音像位置がリスナーより遠い箇所にあることを示す。なお、1〜9の基準点は、例えば図4に示す各位置に対応する。
【0020】
パラメータファイル114は、図5に示すように、位置情報テーブル112に記憶されている各楽曲信号の音像位置に音像を形成するためのパラメータが記憶されている。
【0021】
図1に示す入力部12は、キーボード、マウス等から構成され、キーボードにより出力された押下信号、マウスにより出力された操作信号を制御部10に入力する。例えば、マウスにより入力された音像の位置情報が制御部10に出力される。また、入力部12は、AD変換器を備え、アナログ信号からなる楽曲信号をデジタル信号に変換し、変換したデジタル信号からなる楽曲信号を制御部10に出力する。
【0022】
表示部13は、CRT(Cathode Ray Tube)、液晶表示装置等により構成され、制御部10から出力された表示データにもとづいた表示画面も生成する。例えば、各楽曲信号の音像位置Ciが表示される。
【0023】
音像信号生成部14は、図6に示すように、逆相信号生成部141と、記憶部142とから構成されている。逆相信号生成部141は、図7に示すように、リスナーにとって音像の位置を自己の位置より離れた位置に感じさせる信号を生成するものであって、左逆相用減衰器141Lと、右逆相用減衰器141Rと、左逆相用遅延器142Lと、右逆相用遅延器142Rと、左逆相用演算器143Lと、右逆相用演算器143Rとから構成されている。
【0024】
左逆相用減衰器141L、右逆相用減衰器141R、左逆相用遅延器142L、右逆相用遅延器142R、左逆相用演算器143L及び右逆相用演算器143Rは、DSP(Digital Signal Processor)により構成される。
【0025】
左逆相用減衰器141L及び右逆相用減衰器141Rは、ゲインe(0<e<1)を有する。左逆相用減衰器141Lは、第i楽曲信号の左入力信号SLiを信号処理し、eSLiの信号を出力する。同様に、右逆相用減衰器141Rは、第i楽曲信号の右入力信号SRiを信号処理し、eSRiの信号を出力する。
【0026】
左逆相用遅延器142L及び右逆相用遅延器142Rは同一の遅延係数mを有する。左逆相用遅延器142Lは、左逆相用減衰器141Lから出力されたeSLiの信号を信号処理し、eZ−mSLiの信号を出力する。同様、右逆相用遅延器142Rは、右逆相用減衰器141Rから出力されたeSRiの信号を信号処理し、eZ−mSRiの信号を出力する。
【0027】
左逆相用演算器143Lは、左逆相用減衰器141Lより出力したeSLiの信号から右逆相遅延器142Rより出力したeZ−mSRiの信号を減算して得たeSLi−eZ−mSRiの信号SLi1を出力する。同様、右逆相用演算器143Rは、右逆相用減衰器141Rより出力したeSRiの信号から左逆相用遅延器142Lより出力したeZ−mSLiの信号を減算して得たeSRi−eZ−mSLiの信号SRi1を出力する。
【0028】
ここで、遅延係数mは、スピーカからそのスピーカ側の耳に到達する音の時間と逆側の耳に到達する音(このおとをストローク音という)の時間差を示す数値であるので、上記eSLi−eZ−mSRiの信号により生成される左側のスピーカ19Lから出力された音は、右耳付近で打ち消しあうことになる。同様に、上記eSRi−eZ−mSLiの信号により生成される右側のスピーカ19Rから出力された音は、左耳付近で打ち消しあうことになる。
【0029】
この処理により、クロストークキャンセル処理に近い現象が発生する。従って、音像は耳の近くに形成される。しかしながら、逆相信号生成部141は、ゲイン、回折による周波数変化等を考慮していないので、正確なクロストークキャンセル処理を行っていない。このため、リスナーは、音像を耳元でなくスピーカ19L、19Rの外側に感じるようになる。
【0030】
なお第1〜第9の楽曲信号を取得する際に、アナログ信号を60KHzでサンプリングした場合には、遅延係数mは10程度とすることができる。また、記憶部142より読み出される記録第i楽曲信号の長さは、第1〜第9楽曲信号の各音像を同時に形成するための信号処理を考慮に入れた長さである。この音像装置の場合には、2バイトである。
【0031】
記憶部142は、RAMにより構成され、図6に示すように、パラメータ記憶部1421と、逆相信号生成部141が上述した信号処理を実行するための制御プログラム(図示せず)と、逆相信号生成部141が音声処理を行うときに使用される作業領域(図示せず)とを備えている。
【0032】
パラメータ記憶部1421には、第1〜第9楽曲信号Siの音像を形成するために必要とされるパラメータが記憶されている。これらのパラメータは、制御部10により供給されたものである。
【0033】
図1に示す遅延部15L、15Rのそれぞれは、音像信号生成部14から出力された信号SLi1(i=1,2,・・・,9)、及びSRi1(i=1,2,・・・,9)を同一タイミングでバッファ部16に出力するものであり、図8に示すような構成からなる。図8に示すように、遅延部15Lは、信号SLi1に対応する♯iの遅延回路151を8個備える。同様に、遅延部15Rは、信号SRi1に対応する♯iの遅延回路151を8個備える。各遅延回路151はシフトレジスタから構成されている。♯iの遅延回路151は、音像信号生成部14より出力した信号SLi1、SRi1(i=1,2,・・・,8)が入力され、後述する時間分だけ遅延してバッファ部16に信号SLi2(i=1,2,・・・,8)を出力する。
【0034】
なお、音像信号生成部14より出力されたSL91及びSR92のそれぞれは、遅延回路を通さずに信号SL92、SR92としてバッファ部16に出力される。
【0035】
♯iの遅延回路151の遅延時間Tiは、第1楽曲信号の入力信号SL11、SR11が入力されたのち、第9楽曲信号の入力信号SL91、SR91が入力されるまでの時間差を8等分した値に(9−i)倍した値である。
【0036】
図1に示す楽曲信号バッファ部16は、遅延部15L及び遅延部15Rのそれぞれから出力された信号SLi2及び信号SRi2(i=1,2,・・・,9)に対応するFIFO(First-In First-Out)メモリ18個により構成されている。それぞれのメモリは、対応する信号SLi2、信号SRi2を記憶する。
【0037】
図1に示すDA変換部17は、楽曲信号バッファ部16から読み出されたデジタル信号からなる信号SLi3(i=1,2,・・・,9)をアナログ信号に変換する♯i(i=1,2,・・・,9)のDAコンバータ171Lと、楽曲信号バッファ部16から読み出されたデジタル信号からなる右音像信号SRi3(i=1,2,・・・,9)をアナログ信号に変換する♯i(i=1,2,・・・,9)のDAコンバータ171Rとから構成されている。
【0038】
図1に示すミキシング部18Lは、DA変換部17より出力されたアナログ信号からなる信号SLi4(i=1,2,・・・,9)をミキシングし、ミキシングされた信号SLをスピーカ19Lに出力する。同様、ミキシング部18Rは、DA変換部17より出力されたアナログ信号からなる信号SRi4(i=1,2,・・・,9)をミキシングし、ミキシングされた信号SRをスピーカ19Rに出力する。
【0039】
次に、この実施形態の音像定位装置の動作を図面を参照して説明する。
【0040】
1)入力された音像位置に音像を生成するためのパラメータを生成する処理を、図9に示すフローチャートを参照して説明する。制御部10は、操作者により、音像位置を指定するための画面を表示部13に表示させるように指示を受けると、例えば、図10に示すような画面を表示部13に表示する(ステップS1)。
【0041】
操作者は、画面中に表示されている第i楽曲信号の音像の位置を指定するアイコンCiを、入力部12を構成するマウスでドラックして希望する音像を形成する位置まで移動する。その後、操作者は、その位置においてそのアイコンをダブルクリックする。図中では、第5楽曲信号の音像の位置を指定するアイコンC5についての場合が表示されている。
【0042】
すると、制御部10は、アイコンiの位置を算出し、算出した位置を第1楽曲信号の音像位置として記憶部11中の位置情報テーブル112に記憶する(ステップS2)。同様にして、制御部10は、第1〜第9楽曲信号の音像位置を位置情報テーブル112に記憶する。
【0043】
その後、制御部10は、「パラメータ生成」ボタンがクリックされた旨を受ける、変数iを記憶部11の作業領域に設定し、変数iに1を設定する(ステップS3)。次に、制御部10は、記憶部11中の位置情報テーブル112から図2に示す第i楽曲信号の音像位置Ci(Xi,Yi)(i=1,2,・・・,9)を読み出す(ステップS4)。
【0044】
次に、制御部10は、記憶部11中の基準点パラメータテーブル113を参照し、先に読み出した音像位置Ci(Xi,Yi)が、基準点パラメータテーブル113に登録されている9つの基準点により形成される図11に示す領域R1、R2、R3、R4のうちのどの領域Ri(i=1,2,3,4)に属するかを調べる(ステップS5)。例えば、読み出された音像位置Ci(Xi、Yi)が、C1(X1,Y1)(X21≦X1<X31、Y21≦Y1<Y22)である場合には、制御部10は、属する領域を領域R3と決定する。
【0045】
制御部10は、読み出した音像位置情報Ciの領域Riを決定すると、決定した領域Riを指定する4つの基準点の中から、音像位置Ci(Xi,Yi)から最も距離が近いものを計算基準点として決定する(ステップS6)。例えば、上述した音像位置情報C1(X1,Y1)の場合には、制御部10は、図11に示すように、領域R3を形成する基準点「4」、「5」、「7」、及び「8」のうち基準点「7」が音像位置C1(X1,Y1)に最も近いので、基準点「7」を計算基準点とする。
【0046】
次に、制御部10は、計算基準点Kが保有するパラメータと、この計算基準点kとX方向にある他の基準点が保有するパラメータとから式1を用いて音像位置Ci(Xi,Yi)におけるパラメータaixを算出する。
aix=ak+(ax−ak)×{(Xi−Xk)/(Xx−Xk)} 式1
ここで、aixは音像位置Ciにおけるパラメータであり、akは計算基準点kにおけるパラメータであり、axは計算基準点kとX方向にある他の基準点におけるパラメータである。Xkは計算基準点kのX座標の位置であり、Xiは音像CiのX座標の位置であり、Xxは計算基準点kとX方向にある他の基準点のX座標の位置である。
【0047】
続いて、制御部10は、同様にして、計算基準点が保有するパラメータと、この計算基準点kとY方向にあるもう1つの他の基準点が保有するパラメータとから式2を用いて音像位置Ci(Xi,Yi)におけるパラメータaiyを算出する。
aiy=ak+(ay−ak)×{(Yi−Yk)/(Yy−Yk)} 式2
式の内容は、上記式1においてXをYに変更したものであってその内容は同一である。その後、制御部10は、上述したようにして求めたaixとaiyとを平均し、その値を音像位置Ciのパラメータmiとする(ステップS7)。
【0048】
次に、制御部10は、先に算出したパラメータmi、及び音像位置Ciとからパラメータデータを生成し、生成したパラメータデータをパラメータファイル114に記憶する(ステップS8)。
【0049】
その後、制御部10は、iに1を加算し(ステップS9)、加算した変数iが9以下であるか否かを判別する(ステップS10)。制御部10は、変数iが9以下である場合には(ステップS10;YES)、ステップS4に移行し、上述したものと同様の処理を行う。一方、制御部10は、9より大きいと判断した場合には(ステップS10;NO)、パラメータ生成処理を終了する。
【0050】
2)楽曲信号を用いて所定箇所に音像を生成する音をスピーカに出力する処理を、図1を参照して説明する。
【0051】
上述のようにしてパラメータが生成されたのち、制御部10は、「実行」ボタンがクリックされると、パラメータファイル114に記憶されているC1〜C9の音像位置のパラメータmを読み出し、これを音像信号生成部14に出力する。
【0052】
音像信号生成部14は、上記パラメータを受信すると、記憶部142のパラメータ記憶部1421に記憶する。その後、音像信号生成部14は、記憶部142の作業領域に設けられている変数iに1をセットする。その後、音像信号生成部14は、第i楽曲信号から2バイトの信号Siを左入力信号SLiと右入力信号SRiとして読み出し、これらの信号SLi及びSRiを音像信号生成部14を構成する逆相信号生成部141に出力する。
【0053】
逆相信号生成部141は、入力された左入力信号SLiを信号処理してeSL−eZ−mSRで示される信号SLi1と、入力された右入力信号SRiを信号処理してeSR−eZ−mSLで示される信号SRi1とをそれぞれ遅延部15L、遅延部15Rに出力する。
【0054】
このようにして、音像信号生成部14は、第1楽曲信号から順に第9楽曲信号Siを記憶部11より順次読み出し、その信号Siをもとにして上述したような処理を行い信号SLi1(i=1,2,・・・,9)及び信号SRi1(i=1,2,・・・,9)を生成し、これらを遅延部15L、15Rに出力する。
【0055】
遅延部15L、15Rのそれぞれは、上記信号SLi1及び信号SRi1のそれぞれを同一タイミングでバッファ部16に出力する信号SLi2(i=1,2,・・・,9)、信号SRi2(i=1,2,・・・,9)をバッファ部16に出力する。
【0056】
バッファ部16は、遅延部15L、15Rのそれぞれから出力された信号SLi2、SRi2を記憶する。
【0057】
DA変換部17は、バッファ部16から読み出されたデジタル信号からなる信号SLi3、SRi3(i=1,2,・・・,9)のそれぞれをアナログ信号に変換した信号SLi4、SRi4をミキシング部18L、18Rに出力する。
【0058】
ミキシング部18L、18Rのそれぞれは、DA変換部17より出力された信号SLi4、SRi4をミキシングし、ミキシングされた信号SL、SRをそれぞれスピーカ19L、19Rに出力する。
【0059】
スピーカ19L、19Rはそれぞれ、ミキシング部18L、18Rより入力された信号SL、SRを人間の耳に聞こえる音に変換して出力する。スピーカ19L、19Rから出力された音により、リスナーは、複数の楽曲の音像が図12に示すように、スピーカ19L、19Rの外側の位置に形成されているように思われる。
【0060】
この実施形態の音像定位装置によれば、複数の基準点におけるパラメータを参照して、予め入力された複数の音像位置におけるパラメータを算出するので、算出したパラメータを用いて複数の楽曲信号の音像を生成することができる。
【0061】
<他の実施形態>
この実施形態の音像定位装置は、予め記憶されている音像位置Ciを用いて、各楽曲信号の音像を生成するために必要となるパラメータを生成するように構成されているが、これ以外として、下記のようにしてもよい。すなわち、音像位置Ciを時系列的に変化するようなプログラム(関数)を記憶部11に記憶しておく。そして、制御部10は、このプログラムを実行することにより、表示部13に音像位置Ciを移動表示させるととともに、音像Ciを生成させるパラメータを生成する。制御部10は、生成したパラメータをもとにして表示部13に表示された位置に音像を形成するようにする。こうすることにより、楽曲信号の音像を時間的に変化させることができる。
【0062】
この音像定位装置は、左右のスピーカにより形成された音場に、複数の楽曲信号について音像を生成する構成のものであった。これ以外として、リスナーの回りに4つのスピーカ19L1、19L2、19R1及び19R2により形成された音場に、例えば、図13に示すような音像を生成する構成のものであってもよい。
【0063】
【発明の効果】
以上、この発明によれば、複数のスピーカにより形成された音場に、複数の楽曲信号に対応する複数の音像を定位させることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施形態に係る音像定位装置の構成を示すブロック図である。
【図2】 図1中の位置情報テーブルの例を示す図である。
【図3】 図1中の基準点パラメータテーブルの例を示す図である。
【図4】 基準点の位置の例を示す図である。
【図5】 図1中のパラメータファイルの例を示す図である。
【図6】 図1中の音像信号生成部の構成を示す図である。
【図7】 図6中の逆相信号生成部の構成を示す図である。
【図8】 図1中の遅延部の構成を示す図である。
【図9】 パラメータ生成処理を示すフローチャートである。
【図10】 音像位置指定画面の例を示す図である。
【図11】 基準点により生成される領域の例を示す図である。
【図12】 実施形態に係る音像定位装置により生成される音像の例を示す図である。
【図13】 他の実施形態に係る音像定位装置により生成される音像の例を示す図である。
【符号の説明】
10 制御部
11 記憶部
111 音声信号記憶領域
112 位置情報テーブル
113 基準点パラメータテーブル
114 パラメータファイル
12 入力部
13 表示部
14 音像信号生成部
15L、15R 遅延部
16 バッファ部
17 DA変換部
18L、18R ミキシング部
19L、19R、スピーカ
[0001]
BACKGROUND OF THE INVENTION
The present invention provides a plurality of sound fields generated by a plurality of speakers. Music signal Multiple corresponding to The present invention relates to a sound image localization apparatus that localizes a sound image, a sound image localization method, and a program.
[0002]
[Prior art]
A conventional sound image localization apparatus is known in which a stereo image of both left and right channels is generated and a sound image is localized by supplying these signals to left and right speakers. This sound image localization technique mainly localizes a sound image by changing the balance between left and right sound volumes. However, since the sound image localization apparatus having such a configuration has a problem that the sound image can be localized only between the left and right speakers, in recent years, the sound of the phase opposite to the sound of the right channel is mixed with the sound of the left channel. In addition, a sound image localization device has been developed that can mix the sound of the right channel with the sound of the opposite phase of the sound of the left channel and localize the sound image outside the left and right speakers.
[0003]
[Problems to be solved by the invention]
The sound image localization apparatus that localizes a sound image outside the speaker forms only one sound image of one audio signal, Music For each signal Music The sound image of the signal was not localized. For this reason, there has been a demand for a sound image localization apparatus that localizes a plurality of sound images for each music signal by a person, such as a composer or artist, who performs processing for comparing sounds composed of a plurality of music signals.
[0004]
In view of the problems described above, the present invention Music It is an object of the present invention to provide a sound image localization device or the like that can localize a plurality of sound images for each signal.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a sound image localization apparatus according to the first aspect of the present invention has a plurality of sound fields generated by a plurality of speakers. Music signal Multiple corresponding to Sound image at the same time A sound image localization device for localization, basic parameter storage means for storing basic parameters including information for forming the sound image at a plurality of basic positions in the sound field, and an arbitrary position in the sound field Sound image position information input means for inputting position information for generating a sound image, and a plurality of position information input by the sound image position information input means based on the basic parameters stored in the basic parameter storage means. Parameter calculating means for calculating a parameter for generating a sound image signal for localizing the sound image at the position, and a plurality of the aforementioned Music A signal reading means for reading a signal of a predetermined length from the signal; a sound image signal generating means for generating a sound image signal indicated by the parameter calculated by the parameter calculating means for each signal read from the signal reading means; The output timing of each sound image signal generated by the sound image signal generation means is made the same. For each song Delay means for delaying the output of the sound image signal; and a synthesized signal generating means for generating a synthesized signal obtained by synthesizing the sound image signals output at the same timing by the delay means, and outputting the generated synthesized signal to the speaker; It is characterized by providing.
[0006]
According to such a configuration, a sound field formed by a plurality of speakers is Music Corresponding to the signal plural Sound image at the same time Can be localized.
[0007]
The parameter calculating means includes an area determining means for determining which of the four minimum basic areas specified by the basic position the position indicated in the position information belongs to, and the area determining means. Among the basic positions for designating the determined area, the specific position specifying means for specifying the basic position closest to the position indicated in the position information as the specific position, and the specific position specified by the specific position specifying means Based on the obtained basic parameters, the parameters of the position indicated in the position information are calculated. Calculation means May be provided. As a result, the parameter of the position indicated in the sound image position information can be easily calculated.
[0008]
Display means for displaying the position of the sound image, wherein the display means displays a sound image according to the position information that changes with time input by the position information input means, and the sound image signal generation means is displayed on the display means. A sound image signal of a sound image may be generated. This makes it possible to visually grasp the change in the sound image position.
[0009]
In addition, the sound image localization method according to the second aspect of the present invention provides a plurality of sound fields generated by a plurality of speakers. Music signal Multiple corresponding to Sound image at the same time A sound image localization method for localization, wherein position information for generating a sound image is input at an arbitrary position in the sound field, and information for forming the sound image at a plurality of basic positions in the sound field stored in advance A parameter for generating a sound image signal for localizing a sound image at a position indicated by a plurality of input position information based on a basic parameter comprising: Music A signal of a predetermined length is read from the signal, and a sound image signal indicated by the parameter calculated for each read signal is generated and generated. For each song Delaying the output of each sound image signal so that the output timing of the sound image signal is the same, generating a synthesized signal by synthesizing each sound image signal output at the same timing, and outputting the generated synthesized signal to the speaker It is characterized by.
[0010]
According to such a configuration, a sound field formed by a plurality of speakers is Music Corresponding to the signal plural Sound image at the same time Can be localized.
[0011]
The position indicated in the position information is determined as to which of the minimum unit areas specified by the four basic positions belongs, and the position among the basic positions specifying the determined area The basic position closest to the position indicated in the information is specified as the specific position, and the parameter of the position indicated in the position information is calculated based on the basic parameter indicated in the specified specific position. May be. As a result, the parameter of the position indicated in the sound image position information can be easily calculated.
[0012]
Further, a program according to the third aspect of the present invention provides a plurality of sound fields generated by a plurality of speakers. Music signal Multiple corresponding to Sound image at the same time A program for localization, a procedure for inputting position information for generating a sound image at an arbitrary position in the sound field, and information for forming the sound image at a plurality of basic positions in the sound field stored in advance. A procedure for calculating a parameter for generating a sound image signal for locating a sound image at a position indicated by a plurality of input position information based on a basic parameter provided; Music A procedure for reading a signal of a predetermined length from a signal, a procedure for generating a sound image signal indicated by the parameter calculated for each read signal, For each song A procedure for delaying the output of each sound image signal so that the output timing of the sound image signal is the same, a synthesized signal obtained by synthesizing each sound image signal output at the same timing is generated, and the generated synthesized signal is output to the speaker Make the computer execute the procedure.
[0013]
According to such a configuration, a sound field formed by a plurality of speakers is Music Corresponding to the signal plural Sound image at the same time Can be localized.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an audio output device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of an audio output device according to an embodiment of the present invention. As shown in FIG. 1, the audio output device of this embodiment includes a control unit 10, a storage unit 11, an input unit 12, a display unit 13, a sound image signal generation unit 14, delay units 15L and 15R, and a buffer unit. 16, a DA conversion unit (digital / analog conversion unit) 17, mixing units 18 </ b> L and 18 </ b> R, a speaker 19 </ b> L installed on the left side of the listener, and a speaker 19 </ b> R installed on the right side.
[0015]
The control unit 10 is configured by a CPU (Central Processing Unit) or the like, and executes, for example, the following processing using a control program. For example, the control unit 10 receives the i th (i = 1, 2,..., 9) read from the input unit 12. Music The signal is stored in the storage unit 11 Music Store in the signal storage area 111. Further, when the position information of the sound image formed in the sound field is supplied from the input unit 12, the control unit 10 stores the position information table 112 in the storage unit 11. Furthermore, when the sound is actually output to the speaker, the control unit 10 generates a parameter including information for forming a sound image signal (described later) based on the position information stored in the position information table 112. The generated parameters are stored in the parameter file 114.
[0016]
The storage unit 11 includes a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk device, and the like, and a control program (not shown), Music signal Remember Music A signal storage area 111, the position information table 112, a reference point parameter table 113, a parameter file 114, and a work area (not shown) of the control unit 10 are provided.
[0017]
Music The signal storage area 111 stores the first to ninth digital signals read from the input unit 12.
[0018]
As shown in FIG. 2, the position information table 112 is generated in the sound field formed by the speakers 19L and 19R for each audio data. Music Information for designating the sound image position of the signal is provided.
[0019]
The reference point parameter table 113 is stored in the position information table 112 as shown in FIG. At the sound image position each Music Corresponds to the reference point and parameters at that reference point, which are required when generating the sound image of the signal Let Store information. The parameter of each reference point is a delay amount to be described later, and indicates that the larger m is, the farther the sound image position is from the listener. The reference points 1 to 9 correspond to the positions shown in FIG. 4, for example.
[0020]
The parameter file 114 is stored in the position information table 112 as shown in FIG. Music Parameters for forming a sound image at the sound image position of the signal are stored.
[0021]
The input unit 12 illustrated in FIG. 1 includes a keyboard, a mouse, and the like, and inputs a pressing signal output from the keyboard and an operation signal output from the mouse to the control unit 10. For example, the position information of the sound image input by the mouse is output to the control unit 10. In addition, the input unit 12 includes an AD converter and includes an analog signal. Music Converts a signal to a digital signal and consists of the converted digital signal Music The signal is output to the control unit 10.
[0022]
The display unit 13 includes a CRT (Cathode Ray Tube), a liquid crystal display device, and the like, and generates a display screen based on display data output from the control unit 10. For example, each Music The sound image position Ci of the signal is displayed.
[0023]
As shown in FIG. 6, the sound image signal generation unit 14 includes a reverse phase signal generation unit 141 and a storage unit 142. As shown in FIG. 7, the negative phase signal generation unit 141 generates a signal that causes the listener to feel the position of the sound image at a position away from his / her own position. The negative phase attenuator 141R, the left negative phase delay unit 142L, the right negative phase delay unit 142R, the left negative phase calculator 143L, and the right negative phase calculator 143R are configured.
[0024]
Left negative phase attenuator 141L, right negative phase attenuator 141R, left negative phase delay device 142L, right negative phase delay device 142R, left negative phase operator 143L and right negative phase operator 143R are D SP (Digital Signal Processor).
[0025]
The left reverse phase attenuator 141L and the right reverse phase attenuator 141R have a gain e (0 <e <1). The left-phase attenuator 141L has an i-th Music The left input signal SLi of the signal is subjected to signal processing, and an eSLi signal is output. Similarly, the right reverse phase attenuator 141R includes the i th Music The signal right input signal SRi is subjected to signal processing, and an eSRi signal is output.
[0026]
The left reverse phase delay unit 142L and the right reverse phase delay unit 142R have the same delay coefficient m. The left reverse phase delay unit 142L performs signal processing on the eSLi signal output from the left reverse phase attenuator 141L, and outputs eZ -M The SLi signal is output. Similarly, the right negative phase delay unit 142R performs signal processing on the eSRi signal output from the right negative phase attenuator 141R, and eZ -M The SRi signal is output.
[0027]
The left negative phase computing unit 143L calculates the right negative phase from the eSLi signal output from the left negative phase attenuator 141L. for EZ output from delay unit 142R -M ESLi-eZ obtained by subtracting SRi signal -M The SRi signal SLi1 is output. Similarly, the right negative phase computing unit 143R outputs the eZi signal output from the left negative phase delay unit 142L from the eSRi signal output from the right negative phase attenuator 141R. -M ESRi-eZ obtained by subtracting SLi signal -M The SLi signal SRi1 is output.
[0028]
Here, the delay coefficient m is a numerical value indicating the time difference between the time of the sound that reaches the ear on the speaker side from the speaker and the sound that reaches the ear on the opposite side (this man is called a stroke sound). -EZ -M The sound output from the left speaker 19L generated by the SRi signal cancels out near the right ear. Similarly, the above eSRi-eZ -M The sound output from the right speaker 19R generated by the SLi signal cancels out near the left ear.
[0029]
This process causes a phenomenon close to the crosstalk cancellation process. Therefore, the sound image is formed near the ear. However, the anti-phase signal generation unit 141 does not consider the frequency change due to gain, diffraction, and the like, and thus does not perform an accurate crosstalk cancellation process. For this reason, the listener feels the sound image outside the speakers 19L and 19R instead of the ears.
[0030]
In addition , 1st to 9th Music When the signal is acquired, if the analog signal is sampled at 60 KHz, the delay coefficient m can be about 10. In addition, the recording ith read out from the storage unit 142 Music Signal length Are first through ninth Music The length takes into account signal processing for simultaneously forming the sound images of the signal. In the case of this sound image apparatus, it is 2 bytes.
[0031]
The storage unit 142 includes a RAM. As illustrated in FIG. 6, the parameter storage unit 1421, a control program (not shown) for the reverse phase signal generation unit 141 to execute the signal processing described above, And a work area (not shown) used when the signal generation unit 141 performs sound processing.
[0032]
The parameter storage unit 1421 includes first to ninth Music Parameters necessary for forming a sound image of the signal Si are stored. These parameters are supplied by the control unit 10.
[0033]
Each of the delay units 15L and 15R shown in FIG. 1 includes signals SLi1 (i = 1, 2,..., 9) and SRi1 (i = 1, 2,...) Output from the sound image signal generation unit 14. , 9) are output to the buffer unit 16 at the same timing, and are configured as shown in FIG. As shown in FIG. 8, the delay unit 15L includes eight delay circuits 151 of #i corresponding to the signal SLi1. Similarly, the delay unit 15R includes eight delay circuits 151 for #i corresponding to the signal SRi1. Each delay circuit 151 includes a shift register. The #i delay circuit 151 receives the signals SLi1, SRi1 (i = 1, 2,..., 8) output from the sound image signal generation unit 14 and delays them by a time described later. Buffer part 16 outputs a signal SLi2 (i = 1, 2,..., 8).
[0034]
Note that SL91 and SR92 output from the sound image signal generation unit 14 are output to the buffer unit 16 as signals SL92 and SR92 without passing through the delay circuit.
[0035]
The delay time Ti of the delay circuit 151 of #i is the first Music After the signal input signals SL11 and SR11 are input, Music This is a value obtained by multiplying a value obtained by dividing the time difference until the signal input signals SL91 and SR91 are input into eight equal parts by (9−i).
[0036]
As shown in FIG. Music signal of The buffer unit 16 includes a FIFO (First-In First-Out) memory 18 corresponding to the signal SLi2 and the signal SRi2 (i = 1, 2,..., 9) output from the delay unit 15L and the delay unit 15R, respectively. It is composed of pieces. Each memory stores a corresponding signal SLi2 and signal SRi2.
[0037]
The DA converter 17 shown in FIG. Music signal of DA of #i (i = 1, 2,..., 9) that converts the signal SLi3 (i = 1, 2,..., 9) composed of digital signals read from the buffer unit 16 into analog signals. A converter 171L; Music signal of #I (i = 1, 2,..., 9) which converts the right sound image signal SRi3 (i = 1, 2,..., 9) composed of the digital signal read from the buffer unit 16 into an analog signal. DA converter 171R.
[0038]
The mixing unit 18L shown in FIG. 1 mixes the signal SLi4 (i = 1, 2,..., 9) composed of analog signals output from the DA conversion unit 17, and outputs the mixed signal SL to the speaker 19L. To do. Similarly, the mixing unit 18R mixes the signal SRi4 (i = 1, 2,..., 9) that is an analog signal output from the DA conversion unit 17, and outputs the mixed signal SR to the speaker 19R.
[0039]
Next, the operation of the sound image localization apparatus of this embodiment will be described with reference to the drawings.
[0040]
1) Processing for generating a parameter for generating a sound image at the input sound image position will be described with reference to a flowchart shown in FIG. When the control unit 10 receives an instruction to display a screen for designating a sound image position on the display unit 13 by the operator, for example, a screen as shown in FIG. 10 is displayed on the display unit 13 (step S1). ).
[0041]
The operator can change the i-th displayed on the screen. Music The icon Ci that designates the position of the sound image of the signal is moved to a position where a desired sound image is formed by dragging with the mouse constituting the input unit 12. Thereafter, the operator double-clicks the icon at that position. In the figure, the fifth Music A case of the icon C5 that designates the position of the sound image of the signal is displayed.
[0042]
Then, the control unit 10 calculates the position of the icon i and sets the calculated position as the first position. Music The sound image position of the signal is stored in the position information table 112 in the storage unit 11 (step S2). Similarly, the control part 10 is 1st-9th. Music The sound image position of the signal is stored in the position information table 112.
[0043]
Thereafter, the control unit 10 receives that the “parameter generation” button has been clicked, sets the variable i in the work area of the storage unit 11, and sets 1 to the variable i (step S3). Next, the control unit 10 reads the i-th position shown in FIG. Music The sound image position Ci (Xi, Yi) (i = 1, 2,..., 9) of the signal is read (step S4).
[0044]
Next, the control unit 10 refers to the reference point parameter table 113 in the storage unit 11, and the nine reference points whose sound image positions Ci (Xi, Yi) read out earlier are registered in the reference point parameter table 113. Region R1, R2, R3, R4 shown in FIG. Out of It is checked which region Ri (i = 1, 2, 3, 4) belongs to (step S5). For example, when the read sound image position Ci (Xi, Yi) is C1 (X1, Y1) (X21 ≦ X1 <X31, Y21 ≦ Y1 <Y22), the control unit 10 determines the region to which the sound belongs. R3 is determined.
[0045]
When the control unit 10 determines the area Ri of the read sound image position information Ci, the control unit 10 calculates, from among four reference points designating the determined area Ri, the one closest to the sound image position Ci (Xi, Yi). point k (Step S6). For example, in the case of the above-described sound image position information C1 (X1, Y1), as shown in FIG. 11, the control unit 10 has the reference points “4”, “5”, “7”, and Since the reference point “7” of “8” is closest to the sound image position C1 (X1, Y1), the reference point “7” is set as the calculation reference point. k And
[0046]
Next, the control unit 10 uses the equation 1 to calculate the sound image position Ci (Xi, Yi) from the parameters held by the calculation reference point K and the parameters held by the calculation reference point k and other reference points in the X direction. ) Is calculated.
aix = ak + (ax−ak) × {(Xi−Xk) / (Xx−Xk)} Equation 1
Here, aix is a parameter at the sound image position Ci, ak is a parameter at the calculation reference point k, and ax is a parameter at the calculation reference point k and another reference point in the X direction. Xk is the X coordinate position of the calculation reference point k, Xi is the X coordinate position of the sound image Ci, and Xx is the X coordinate position of the calculation reference point k and another reference point in the X direction.
[0047]
Subsequently, the control unit 10 similarly calculates the calculation reference point. k The parameter ayy at the sound image position Ci (Xi, Yi) is calculated using Equation 2 from the parameter held by and the parameter held by this calculation reference point k and another other reference point in the Y direction.
ayy = ak + (ay−ak) × {(Yi−Yk) / (Yy−Yk)} Equation 2
The content of the formula is the same as that in the above formula 1 except that X is changed to Y. Thereafter, the control unit 10 performs as described above. Sought Aix and aiy are averaged, and the value is set as the parameter mi of the sound image position Ci (step S7).
[0048]
Next, the control unit 10 generates parameter data from the previously calculated parameter mi and the sound image position Ci, and stores the generated parameter data in the parameter file 114 (step S8).
[0049]
Thereafter, the control unit 10 adds 1 to i (step S9), and determines whether or not the added variable i is 9 or less (step S10). When the variable i is 9 or less (step S10; YES), the control unit 10 proceeds to step S4 and performs the same processing as described above. On the other hand, if the control unit 10 determines that the value is greater than 9 (step S10; NO), the parameter generation process ends.
[0050]
2) Music A process of outputting a sound for generating a sound image at a predetermined location using a signal to a speaker will be described with reference to FIG.
[0051]
After the parameter is generated as described above, when the “execute” button is clicked, the control unit 10 reads the parameter m of the sound image positions of C1 to C9 stored in the parameter file 114, and reads this as the sound image. The signal is output to the signal generator 14.
[0052]
When receiving the parameters, the sound image signal generation unit 14 stores the parameters in the parameter storage unit 1421 of the storage unit 142. Thereafter, the sound image signal generation unit 14 sets 1 to a variable i provided in the work area of the storage unit 142. Thereafter, the sound image signal generation unit 14 Music The 2-byte signal Si is read out from the signal as the left input signal SLi and the right input signal SRi, and these signals SLi and SRi are output to the reverse phase signal generation unit 141 constituting the sound image signal generation unit 14.
[0053]
The negative phase signal generation unit 141 performs signal processing on the input left input signal SLi and performs eSL-eZ -M The signal SLi1 indicated by SR and the input right input signal SRi are subjected to signal processing, and eSR-eZ -M The signal SRi1 indicated by SL is output to the delay unit 15L and the delay unit 15R, respectively.
[0054]
In this way, the sound image signal generation unit 14 Music 9th in order from signal Music The signal Si is sequentially read from the storage unit 11, and the processing as described above is performed based on the signal Si, and the signal SLi1 (i = 1, 2,..., 9) and the signal SRi1 (i = 1, 2, .., 9) are generated and output to the delay units 15L and 15R.
[0055]
Each of the delay units 15L and 15R includes a signal SLi2 (i = 1, 2,..., 9) and a signal SRi2 (i = 1, 1) for outputting the signal SLi1 and the signal SRi1 to the buffer unit 16 at the same timing. 2,..., 9) are output to the buffer unit 16.
[0056]
The buffer unit 16 stores the signals SLi2 and SRi2 output from the delay units 15L and 15R, respectively.
[0057]
The DA conversion unit 17 is a mixing unit that converts the signals SLi3 and SRi3 (i = 1, 2,..., 9), which are digital signals read from the buffer unit 16, into analog signals. Output to 18L and 18R.
[0058]
Each of the mixing units 18L and 18R mixes the signals SLi4 and SRi4 output from the DA conversion unit 17, and outputs the mixed signals SL and SR to the speakers 19L and 19R, respectively.
[0059]
The speakers 19L and 19R convert the signals SL and SR input from the mixing units 18L and 18R into sounds that can be heard by human ears, respectively, and output them. The listener outputs a plurality of sounds according to the sound output from the speakers 19L and 19R. Of music As shown in FIG. Speaker It seems to be formed at positions outside 19L and 19R.
[0060]
According to the sound image localization apparatus of this embodiment, the parameters at the plurality of sound image positions input in advance are calculated with reference to the parameters at the plurality of reference points. Music A sound image of the signal can be generated.
[0061]
<Other embodiments>
The sound image localization apparatus of this embodiment uses each sound image position Ci stored in advance, Music Although it is configured to generate a parameter necessary for generating a sound image of a signal, the following may be used instead. That is, a program (function) that changes the sound image position Ci in time series is stored in the storage unit 11. And the control part 10 produces | generates the parameter which produces | generates the sound image Ci while moving and displaying the sound image position Ci on the display part 13 by running this program. The control unit 10 forms a sound image at a position displayed on the display unit 13 based on the generated parameter. By doing this, Music The sound image of the signal can be changed with time.
[0062]
This sound image localization device has a plurality of sound fields formed by left and right speakers. Music It was the structure which produces | generates a sound image about a signal. Other than this, for example, a sound image as shown in FIG. 13 may be generated in a sound field formed by four speakers 19L1, 19L2, 19R1, and 19R2 around the listener.
[0063]
【The invention's effect】
As described above, according to the present invention, a sound field formed by a plurality of speakers has a plurality of sound fields. Music Corresponding to the signal plural Sound image can be localized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a sound image localization apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a position information table in FIG.
FIG. 3 is a diagram illustrating an example of a reference point parameter table in FIG. 1;
FIG. 4 is a diagram illustrating an example of the position of a reference point.
FIG. 5 is a diagram illustrating an example of a parameter file in FIG. 1;
6 is a diagram illustrating a configuration of a sound image signal generation unit in FIG. 1. FIG.
7 is a diagram illustrating a configuration of a negative phase signal generation unit in FIG. 6. FIG.
8 is a diagram showing a configuration of a delay unit in FIG. 1. FIG.
FIG. 9 is a flowchart showing parameter generation processing;
FIG. 10 is a diagram showing an example of a sound image position designation screen.
FIG. 11 is a diagram illustrating an example of a region generated by a reference point.
FIG. 12 is a diagram illustrating an example of a sound image generated by the sound image localization apparatus according to the embodiment.
FIG. 13 is a diagram illustrating an example of a sound image generated by a sound image localization apparatus according to another embodiment.
[Explanation of symbols]
10 Control unit
11 Memory unit
111 Audio signal storage area
112 Location information table
113 Reference point parameter table
114 Parameter file
12 Input section
13 Display section
14 Sound image signal generator
15L, 15R delay unit
16 Buffer part
17 DA converter
18L, 18R mixing section
19L, 19R, speaker

Claims (6)

複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させる音像定位装置であって、
前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータが記憶されている基本パラメータ記憶手段と、
前記音場の中の任意の位置に音像を生成させる位置情報を入力する音像位置情報入力手段と、
前記基本パラメータ記憶手段に記憶されている基本パラメータをもとにして、音像位置情報入力手段により入力された複数の位置情報に示された位置に、音像を定位させる音像信号を生成させるパラメータを算出するパラメータ算出手段と、
複数の前記楽曲信号から所定長の信号を読み出す信号読出し手段と、
前記信号読出し手段から読み出された信号ごとに、前記パラメータ算出手段により算出された前記パラメータが示す音像信号を生成する音像信号生成手段と、
前記音像信号生成手段により生成された各楽曲の音像信号の出力タイミングを同一にするように各音像信号の出力を遅延する遅延手段と、
前記遅延手段により同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力する合成信号生成手段と、
を備えることを特徴とする音像定位装置。
A sound image localization device that simultaneously localizes a plurality of sound images corresponding to a plurality of music signals in a sound field generated by a plurality of speakers,
Basic parameter storage means for storing basic parameters comprising information for forming the sound image at a plurality of basic positions in the sound field;
Sound image position information input means for inputting position information for generating a sound image at an arbitrary position in the sound field;
Based on the basic parameters stored in the basic parameter storage means, a parameter for generating a sound image signal for localizing the sound image at a position indicated by a plurality of position information input by the sound image position information input means is calculated. Parameter calculation means for
Signal reading means for reading a signal of a predetermined length from the plurality of music signals;
Sound image signal generating means for generating a sound image signal indicated by the parameter calculated by the parameter calculating means for each signal read from the signal reading means;
Delay means for delaying the output of each sound image signal so that the output timing of the sound image signal of each music generated by the sound image signal generating means is the same;
Generating a synthesized signal obtained by synthesizing the sound image signals output at the same timing by the delay unit, and outputting the generated synthesized signal to the speaker;
A sound image localization apparatus comprising:
パラメータ算出手段は、
前記位置情報に示された位置が、4つの前記基本位置により指定される最小単位の領域のうちのいずれの領域に属するかを決定する領域決定手段と、
前記領域決定手段により決定された領域を指定する基本位置のうち、前記位置情報に示された位置に最も近い基本位置を特定位置として特定する特定位置指定手段と、
前記特定位置指定手段により特定された特定位置に示された基本パラメータをもとにして、前記位置情報に示された位置のパラメータを算出する算出手段と、
を備えることを特徴とする請求項1に記載の音像定位装置。
The parameter calculation means is
Area determining means for determining which of the minimum unit areas designated by the four basic positions the position indicated in the position information belongs to;
Among the basic positions that specify the area determined by the area determining means, the specific position specifying means that specifies the basic position closest to the position indicated in the position information as a specific position;
Calculation means for calculating the parameter of the position indicated in the position information based on the basic parameter indicated in the specific position specified by the specific position specifying means;
The sound image localization apparatus according to claim 1, further comprising:
音像の位置を表示する表示手段を備え、
前記表示手段は、
位置情報入力手段により入力された時間とともに変化する前記位置情報に従い音像を表示し、
前記音像信号生成手段は、
前記表示手段に表示された音像の音像信号を生成することを特徴とする請求項1又は2に記載の音像定位装置。
A display means for displaying the position of the sound image;
The display means includes
A sound image is displayed according to the position information that changes with time input by the position information input means,
The sound image signal generating means is
The sound image localization apparatus according to claim 1, wherein a sound image signal of the sound image displayed on the display unit is generated.
複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させる音像定位方法であって、
前記音場の中の任意の位置に音像を生成させる位置情報を入力し、
予め記憶されている前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータをもとにして、入力された複数の前記位置情報に示された位置に音像を定位させる音像信号を生成させるパラメータを算出し、
複数の前記楽曲信号から所定長の信号を読み出し、
読み出された信号ごとに算出された前記パラメータが示す音像信号を生成し、
生成された各楽曲の音像信号の出力タイミングを同一にするように各音像信号の出力を遅延し、
同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力する、
ことを特徴とする音像定位方法。
A sound image localization method for simultaneously localizing a plurality of sound images corresponding to a plurality of music signals in a sound field generated by a plurality of speakers,
Input position information for generating a sound image at an arbitrary position in the sound field,
A sound image that localizes a sound image at a position indicated by a plurality of input position information based on basic parameters including information for forming the sound image at a plurality of basic positions in the sound field stored in advance. Calculate the parameters that generate the signal,
Read a signal of a predetermined length from the plurality of music signals,
Generating a sound image signal indicated by the parameter calculated for each read signal;
Delay the output of each sound image signal so that the output timing of the sound image signal of each generated music is the same,
Generating a composite signal by combining the sound image signals output at the same timing, and outputting the generated composite signal to the speaker;
A sound image localization method characterized by the above.
前記位置情報に示された位置が、4つの前記基本位置により指定される最小単位の領域のうちのいずれの領域に属するかを決定し、
決定された領域を指定する基本位置のうち、前記位置情報に示された位置に最も近い基本位置を特定位置として特定し、
特定された特定位置に示された基本パラメータをもとにして、前記位置情報に示された位置のパラメータを算出する、
ことを特徴とする請求項4に記載の音像定位方法。
Determining whether the position indicated by the position information belongs to one of the minimum unit areas specified by the four basic positions;
Among the basic positions that specify the determined area, identify the basic position closest to the position indicated in the position information as a specific position,
Based on the basic parameters indicated at the specified specific position, the parameter of the position indicated in the position information is calculated.
The sound image localization method according to claim 4, wherein:
複数のスピーカにより生成された音場に、複数の楽曲信号に対応する複数の音像を同時に定位させるプログラムであって、
前記音場の中の任意の位置に音像を生成させる位置情報を入力する手順、
予め記憶されている前記音場中の複数の基本位置に前記音像を形成させる情報を備える基本パラメータをもとにして、入力された複数の前記位置情報に示された位置に音像を定位させる音像信号を生成させるパラメータを算出する手順、
複数の前記楽曲信号から所定長の信号を読み出す手順、
読み出された信号ごとに算出された前記パラメータが示す音像信号を生成する手順、
生成された各楽曲の音像信号の出力タイミングを同一にするように各音像信号の出力を遅延する手順、
同一タイミングで出力された各音像信号を合成した合成信号を生成し、生成した該合成信号を前記スピーカに出力する手順、
をコンピュータに実行させるプログラム。
A program for simultaneously localizing a plurality of sound images corresponding to a plurality of music signals in a sound field generated by a plurality of speakers,
A procedure for inputting position information for generating a sound image at an arbitrary position in the sound field;
A sound image that localizes a sound image at a position indicated by a plurality of input position information based on basic parameters including information for forming the sound image at a plurality of basic positions in the sound field stored in advance. A procedure for calculating parameters for generating a signal;
A procedure for reading a signal having a predetermined length from a plurality of the music signals,
A procedure for generating a sound image signal indicated by the parameter calculated for each read signal;
A procedure for delaying the output of each sound image signal so that the output timing of the sound image signal of each music generated is the same;
Generating a synthesized signal obtained by synthesizing each sound image signal output at the same timing, and outputting the generated synthesized signal to the speaker;
A program that causes a computer to execute.
JP2002130913A 2002-05-02 2002-05-02 Sound image localization apparatus, sound image localization method, and program Expired - Fee Related JP4395550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002130913A JP4395550B2 (en) 2002-05-02 2002-05-02 Sound image localization apparatus, sound image localization method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002130913A JP4395550B2 (en) 2002-05-02 2002-05-02 Sound image localization apparatus, sound image localization method, and program

Publications (2)

Publication Number Publication Date
JP2003324800A JP2003324800A (en) 2003-11-14
JP4395550B2 true JP4395550B2 (en) 2010-01-13

Family

ID=29543784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002130913A Expired - Fee Related JP4395550B2 (en) 2002-05-02 2002-05-02 Sound image localization apparatus, sound image localization method, and program

Country Status (1)

Country Link
JP (1) JP4395550B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028738B2 (en) * 2004-11-11 2012-09-19 ヤマハ株式会社 Acoustic signal processing apparatus and program
US10306394B1 (en) 2017-12-29 2019-05-28 Samsung Electronics Co., Ltd. Method of managing a plurality of devices

Also Published As

Publication number Publication date
JP2003324800A (en) 2003-11-14

Similar Documents

Publication Publication Date Title
KR100736434B1 (en) Method and apparatus for harmonizing colors by harmonic sound and converting sound into colors mutually
EP1473971B1 (en) Sound field controller
JP6316407B2 (en) Mixing control device, audio signal generation device, audio signal supply method, and computer program
US7812239B2 (en) Music piece processing apparatus and method
KR20060051592A (en) Audio signal processing apparatus and method for the same
JP2006080708A (en) Sound signal processor and sound signal processing method
US9877129B2 (en) Device and method for playing sound
KR100909971B1 (en) Multi-channel audio converter
JP5703807B2 (en) Signal processing device
EP2133865A2 (en) Sound synthesizer
JP4395550B2 (en) Sound image localization apparatus, sound image localization method, and program
JP2017143469A (en) Information processing device and information processing method
Qian et al. The role of spectral modulation cues in virtual sound localization
JP2779983B2 (en) Electronic musical instrument
JP3552244B2 (en) Sound field playback device
JP5742472B2 (en) Data retrieval apparatus and program
WO2023228437A1 (en) Information processing method, information processing system, and program
JP2012163861A (en) Signal processing device
JP7248913B2 (en) Audio information generation program, audio playback program, and audio playback device
JP5861275B2 (en) Sound processor
KR101993585B1 (en) Apparatus realtime dividing sound source and acoustic apparatus
JP6114492B2 (en) Data processing apparatus and program
JPH0984199A (en) Stereoscopic acoustic processor using linear prediction coefficient
Sarroff et al. Predicting the perceived spaciousness of stereophonic music recordings
JP2010152381A (en) Device, method, and program for acoustic signal analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060313

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061020

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061108

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20181030

Year of fee payment: 9

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees