JP4055054B2 - 音響処理装置 - Google Patents
音響処理装置 Download PDFInfo
- Publication number
- JP4055054B2 JP4055054B2 JP2002140135A JP2002140135A JP4055054B2 JP 4055054 B2 JP4055054 B2 JP 4055054B2 JP 2002140135 A JP2002140135 A JP 2002140135A JP 2002140135 A JP2002140135 A JP 2002140135A JP 4055054 B2 JP4055054 B2 JP 4055054B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- processing
- reverb
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
【発明の属する技術分野】
本発明は、収録済の原音に対して所定の音響処理を施すための音響処理装置に関する。
【0002】
【従来の技術】
オーディオ信号に対して効果音を付加するための装置の1つとして、残響付加装置(リバーブレータ:reverberator)が知られている。この装置は、例えば録音スタジオでオーディオ信号に残響音を付加し、音に広がりや深みを出すために多く用いられている。スタジオ等で録音された音に残響音を付加することで、実際にホールで演奏されているような効果や、さらに特殊な効果を与えることができる。
【0003】
古くは、残響音の付加は、実際にホール等の残響音を得られるような場所で録音を行うか、あるいは、鉄板やスプリング等の機械的振動を利用して残響音的な効果を得るようにした鉄板エコー装置やスプリングエコー装置等を用いて行われていた。
【0004】
実際にホール等で録音を行うと、より自然な残響音を得ることができる。しかしながら、実際のホールでは、残響音に関するパラメータ(例えば、残響時間等)を変更できないこと、瞬時にマイクロホンの位置や銘柄(特性)を変えることができないこと、膨大な機材が必要なこと、および空調機器等の騒音がありS/Nが悪いこと、等の問題点がある。また、鉄板エコー装置やスプリングエコー装置のような機械式の残響付加装置は、経年変化がありメンテナンスが大変であると共に、機械式なので、振動や外来のノイズに弱い。さらに、残響時間の調整可能範囲が制限されることに加え、再現性にも乏しい。さらに、装置自身が重厚長大であること、およびS/Nが悪いこと、等の問題点もある。
【0005】
近年の残響付加装置では、これらの効果が電気的に実現されている。さらに、最近では、ディジタル信号処理技術の発達に伴い、ディジタル的に残響音を合成するような方法が普及してきている。この方法の1つに、例えば巡回型のディジタルフィルタを用いる方法がある。この方法では、入力されたディジタルオーディオ信号が減衰されながら巡回され、残響音が生成される。この残響音を元のディジタルオーディオ信号に混合する。実際には、直接音に対して所定期間遅延された位置に初期反射音が加えられ、さらに所定期間後に残響音が加えられる。直接音に対する残響音の遅延時間は、プリディレイと称される。この方法によれば、残響時間の調整、副残響音の付加、および細かなレベル調整等を行うことが可能で、幅広い音作りができる。
【0006】
ところで、実際のホール等での残響音は、ホールの形状や音源の位置等により、音が様々に反射や干渉等を起こし、より複雑な波形となっている。しかしながら、上記した方法のように、ディジタルフィルタを用いて元のディジタルオーディオ信号をフィルタ処理するようにした場合には、単純に減衰した波形が得られるだけなので、どうしても人工的な印象を免れなかった。また、上記の方法では、元の信号をフィルタ処理により巡回させるようにしているので、入力がなくなった後の最終的な残響音のピッチが、巡回型フィルタ内部のフィードバックループのピッチとなってしまい、高品位で自然な残響音を得ることができなかった。
【0007】
【発明が解決しようとする課題】
そこで、実際にホールや鉄板エコー等で残響音を発生させて、この残響音に基づきインパルス応答を収集し、収集されたインパルス応答をフィルタ処理により入力データと共にたたみ込むという方法が既に提案されている。ここで、インパルス応答とは、一般に、あるシステムに単位インパルス(所定の高さの細いパルス状の入力)を与えたときにそのシステムから出力される応答パルス列をいう。上記のようなたたみ込み法により、実際の空間や装置のインパルス応答に基づいた、より自然でリアルな残響音を得ることができる。そのようなたたみ込み処理を実現するハードウェア回路構成の一例が、例えば特開2000−97762号公報に記載されている。この公報に開示されたハードウェア回路は、FIR(Finite Impulse Response) フィルタを用いて、時間軸上でインパルス応答をたたみ込むようにしたものである。
【0008】
しかしながら、上記のように、時間軸方向にインパルス応答をたたみ込む方法では、膨大な数の遅延回路と係数乗算器とが必要になり、回路規模が極めて大きくなってしまうという問題点がある。
【0009】
これを解決するために、例えば同公報に示されているように、入力ディジタルオーディオ信号およびインパルス応答データをそれぞれハードウェア回路を用いてフーリエ変換することにより周波数要素データに変換し、この周波数軸上で両者をたたみ込むという方法が提案されている。この方法では、上記した時間軸上でたたみ込みを行う方法に比べて、ハードウェア回路の規模が小さくて済むという利点がある。
【0010】
また、インパルス応答のたたみ込みに関する上記の諸問題を解決するため、例えば特表平8−501667号公報に記載されているように、インパルス応答データを時間軸上で分割し、分割されたそれぞれのインパルス応答によって入力データのたたみ込みを行う方法も提案されている。
【0011】
このように、従来より、オーディオ信号に関する処理については様々な試みがなされていたものの、必ずしも十分な臨場感をユーザに与え得るものではなかった。例えば、一部のクラシック音楽ファンやロック音楽ファンのような熱狂的な音楽ファンにあっては、実際のコンサートホールでの名演奏の視聴を希望しながらも、その場に行くことができないことがある。そのようなとき、彼らは、そのコンサートホールの雰囲気を仮想的に体験したいと希望する場合が多い。しかしながら、上記したいずれの方法においても、音響効果のみが考慮されており、その他の要素についてはまったく配慮がなされていなかった。
【0012】
また、上記のいずれの方法においても、インパルス応答のたたみ込み処理にハードウェア回路を用いていることから、一般のコンスーマ(例えば、PC(パーソナルコンピュータ)ユーザ等)にとっては、手持ちのコンテンツ(例えばCDに記録された形で保有している既存の楽曲)に簡単に音響効果処理を施して臨場感のある音場を手軽に生成することは技術面およびコスト面の両面で困難であった。
【0013】
本発明はかかる問題点に鑑みてなされたもので、その第1の目的は、記録媒体に記録された音楽等の収録音を、ユーザが十分な臨場感をもって楽しむことを可能とする音響処理装置を提供することにある。また、本発明の第2の目的は、音楽等の既存の収録音に対する音響処理を容易かつ低コストで行うことを可能にする音響処理装置を提供することにある。また、本発明の第3の目的は、記録媒体に記録された音楽等の収録音を再生する際に、ユーザに不自然な違和感を与えることなく音響処理を施すことが可能な音響処理装置を提供することにある。
【0014】
【課題を解決するための手段】
本発明の音響処理装置は、原音に対して、実在する音響空間の響きに対応したインパルス応答データをたたみ込むことにより、効果音を生成するたたみ込み手段と、画像を再生して出力する画像再生手段と、画像再生手段からの再生画像の出力に沿って、原音とたたみ込み手段からの効果音とを重畳させて音響処理音を生成し出力するように画像再生手段およびたたみ込み手段を制御する制御手段とを備えると共に、この制御手段が、インパルス応答データのたたみ込み処理を行う際に生ずる遅延時間に相当する箇所から原音に対するたたみ込み処理を開始するようにたたみ込み手段の制御を行うと共に、音響処理の開始が指示された時点から遅延時間の経過時点までの間は原音をそのまま外部に出力する外部出力制御を行う一方、遅延時間の経過時点以降は原音と効果音とを重畳させて音響処理音を生成し出力する重畳制御を行うようにしたものである。この場合において、少なくともたたみ込み手段はソフトウェアにより構成するのが好ましく、また、インパルス応答データは、画像再生手段からの再生画像と関連したものであることが好ましい。ここで、原音とは、対象となる音響処理が未だ施されていない音響をいい、音響処理音とは、原音に基づいて作られた効果音をその原音に重畳して得られる音響をいう。効果音とは、原音にインパルス応答データをたたみ込むことにより得られる音響をいう。以下、本明細書において同様である。
【0015】
本発明の音響処理装置では、たたみ込み手段によって原音にインパルス応答データをたたみ込むことにより効果音が生成され、さらに、この効果音が原音に重畳されて音響処理音が生成される。この音響処理音は、画像再生手段からの再生画像の出力に合わせて出力される。インパルス応答データは実在する音響空間の響きに対応したものなので、実際にその音響空間で音響を聴いているかのような臨場感を聴き手に与えることになる。しかも、音響処理音に連動して再生画像が出力されるので、聴き手に視覚的な臨場感をも与えることになる。
また、このようなたたみ込み処理の際には遅延が生ずる。このたたみ込み処理は、原音のうち、上記の遅延した時間を差し引いた箇所(遅延分をオフセットした位置)から開始される。そして、音響処理開始が指示された時点から遅延時間の経過時点までの間は原音がそのまま外部に出力される一方、遅延時間の経過時点以降は原音と効果音とを重畳させて生成された音響処理音が出力される。この結果、聴き手は、遅延時間に相当する当初の期間は原音を、その後は音響処理音を聴くことになる。このため、たたみ込み処理による遅延に起因する再生開始直後の無音期間がなくなる。
【0016】
また、本発明の音響処理装置では、実在する第1の音響空間の響きに対応して得られた第1のインパルス応答データを保持する手段と、音響処理が施された音の再生出力が行われる予定の実在する第2の音響空間の響きに対応して得られた第2のインパルス応答データを保持する手段とを備えると共に、たたみ込み手段が、原音に対して第1および第2のインパルス応答データをたたみ込むことにより効果音を生成するようにするのが好ましい。このように構成した場合、実在する第1の音響空間の響きに対応して得られた第1のインパルス応答データと、音響処理が施された音の再生出力が行われる予定の実在する第2の音響空間の響きに対応して得られた第2のインパルス応答データとを原音にたたみ込むことにより、効果音が生成される。そして、この効果音が原音に重畳されて音響処理音が生成され、出力される。すなわち、収録空間としての第1の音響空間のみならず、再生空間としての第2の音響空間の音響特性をも加味した音響処理が行われることになる。このため、視聴する空間の良し悪しに左右されることなく、ほぼ一定の安定した音響特性を保った臨場感を聴き手に与えることになる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
【0023】
[音響処理装置]
《第1の実施の形態》
図1は、本発明の第1の実施の形態に係る音響処理装置を用いて構成したオーディオビジュアルシステム(以下、AVシステムという。)の概略構成を表すものである。このAVシステムは、収録済の原音に所定の音響処理を施して音響処理音を生成する音響処理装置1と、生成された音響処理音(オーディオデータ)を出力する4つのスピーカ2A〜2Dと、音響処理装置1により再生された画像(以下、適宜、映像ともいう。)を表示する表示装置3とを含んで構成されている。スピーカ2A〜2Dは、それぞれ、信号増幅機能を有するオーディオアンプ4A〜4Dを介して、音響処理装置1に接続されている。表示装置3もまた音響処理装置1に接続されている。
【0024】
音響処理装置1は、例えばパーソナルコンピュータ等で構成されるが、その他の情報処理装置を用いて構成することも可能である。4つのスピーカのうち、スピーカ2A,2Bは、このシステムのユーザ(視聴者)Uの前方に配置されるフロントスピーカであり、スピーカ2C,2Dは、ユーザUの後方に配置されるリアスピーカである。これらの4つのスピーカによって、いわゆるサラウンドシステム(surround system )が実現されるようになっている。
【0025】
ここで、サラウンドシステムとは、一般に、周囲に4個以上のスピーカーを配して、音の到達時間を変えたり、壁や天井からの反射による間接音や残響に相当する音を出したりすることにより、視聴者が感じる音の像に左右の広がりだけでなく、奥行も感じられるようにした音響再生システムであり、コンサートホールや映画館の臨場感を出すことを目的として用いられる。このサラウンドシステムでは、左右の音声信号の時間的ずれ、位相差と音量差によって、リアエフェクト音声を作り出し、これを後方や横に置かれたエフェクトスピーカから再生することにより、できる限り実際の音声に近づけることができる。
【0026】
表示装置3は、通常、ユーザUの正面に配置される。表示装置3としては、例えば、大画面のCRT(cathode −ray tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、EL(electoroluminescence)ディスプレイ、FED(Field Emission Display)、あるいは液晶プロジェクタ等が用いられる。
【0027】
このAVシステムには、音響処理装置1による音響処理の結果生成された音響処理音および画像(ビデオデータ)を記録・再生することが可能な記録再生装置5を含めることも可能である。この記録再生装置5としては、例えば、追記型または書き替え可能型のDVD( Digital Versatile Disk )装置や、ビデオカセットレコーダ(VTR)等が用いられる。この記録再生装置5には、ヘッドフォン6が接続可能である。ユーザUは、記録再生装置5から再生されて表示装置3に表示される画像を見ながら、記録再生装置5から再生された音響処理音をヘッドフォン6を通じて聴取することができるようになっている。なお、記録再生装置5としては、音声の記録・再生のみが可能な装置、例えばMD(Mini Disc )やカセットテープレコーダ等のような携帯可能な小型の装置を用いるようにしてもよい。また、記録再生装置5を音響処理装置1に内蔵するようにしてもよく、その場合には、この記録再生装置5が本発明の「着脱可能記録媒体に記録する記録手段」の一具体例に対応する。
【0028】
音響処理装置1は、オーディオソース(音源)7からオーディオデータ7Aを取り込むと共に、コンテンツソース(素材源)8から処理用コンテンツデータ8Cを取り込み、この処理用コンテンツデータ8Cを用いてオーディオデータ7Aに所定の音響処理(リバーブ処理、より具体的には、たたみ込み処理)を施すという機能を有している。
【0029】
オーディオソース7は、例えば、CD(Compact Disc)、MDおよびDVDのような音声記録媒体であってもよいし、あるいはインターネットウェブサイト (すなわち、インターネット上に開設されている音楽配信サイト)のホームページ(HP)であってもよい。コンテンツソース8は、処理用コンテンツデータ8Cを提供するためのものであり、例えばCD−ROMやフロッピーディスク等のデータ記録媒体の形で配布されるものであってもよいし、あるいは、インターネットウェブサイト(すなわち、インターネット上に開設されているコンテンツ配信サイト)のホームページ(HP)であってもよい。そのようなコンテンツ配信サイトについては後述する。
【0030】
オーディオデータ7Aは、既に収録された各種の音楽や音色(例えば楽器の音や鐘の音等)を表すデータである。処理用コンテンツデータ8Cは、リバーブデータ、画像データ、付帯データおよびリンクデータの4者よりなる複合データである。なお、以下の説明では、「処理用コンテンツデータ8C」を単に「コンテンツデータ8C」と略記する。
【0031】
リバーブデータは、音声データに対して後述の音響処理(たたみ込み処理)を施すときに用いられる音響処理用データ(具体的には、インパルス応答データ)であり、実在する音響空間において採取されたものである。音響空間およびインパルス応答データについては後述する(図9参照)。
【0032】
画像データは、リバーブデータと関連した内容の画像を表すデータであり、静止画もしくは動画のいずれか一方または双方を含むデータである。画像データには、例えば、インパルス応答データが採取された音響空間自体を撮影して得られる静止画または動画を表すデータや、その音響空間を想起させるような絵画または意匠等を表すデータ等が含まれる。この画像データは、圧縮されたデータである。具体的には、静止画の場合には、例えばjpeg(joint photographic expert group )形式等の圧縮データが用いられ、動画の場合には、例えばMPEG(motion pictures expert group)形式等の圧縮データが用いられる。
【0033】
付帯データは、コンテンツデータ8Cの内容に関する補足情報であり、リバーブデータのタイトルと、画像データのタイトルと、画像データに関わる説明とを含む。ここで、「画像データに関わる説明」としては、例えば、そのリバーブデータが採取された施設(音響空間)の紹介(例えば、その施設の規模や歴史)や、その施設がある都市の紹介、さらには、その施設や都市にまつわる人物やエピソード等の紹介が挙げられる。
【0034】
リンクデータは、リバーブデータと画像データおよび付帯データとをリンクさせる(関連付ける)ための定義付け情報である。
【0035】
なお、リバーブデータ、画像データ、付帯データおよびリンクデータの具体的内容、ならびにそれらのデータの相互関係については後述する(図4参照) 。
【0036】
ここで、図9を参照して、リバーブデータとして用いられるインパルス応答データの意義について説明する。
【0037】
図9は、ある音響空間について得られたインパルス応答データの一例を表すものである。なお、ここにいう音響空間とは、例えば、ウイーン・コンツェルトハウスやライプツィヒ・ゲヴァントハウスのような著名なコンサートホール、東京ドームのようなイベントホール、さらには、グランドキャニオンのような地表の壮大な空間や、鍾乳洞あるいは鉱石採掘跡のような地下空間等、およそ自然界に存在して音を伝播可能なすべての空間を意味するものとする。
【0038】
図9において、横軸は時間軸を表し、縦軸はデータの値を表す。ここにいうインパルス応答データとは、ある音響空間に単位インパルス音を与えたときにそこに生ずる残響音を所定の時間間隔でサンプリングして得られるパルス列のデータをいい、その音響空間がもつ固有の音響特性、具体的には残響音特性を表している。なお、図9では、サンプリングポイント数をNs(Nsは正の整数)として描いている。この図に示したように、インパルス応答データは、一般に、時間の経過と共にほぼ指数関数的に減衰する形を有している。但し、その厳密な形は、音響空間の大きさ、形状、構造および構成材料等に応じて音響空間ごとに異なるのが普通であり、それぞれ独特の形をしている。
【0039】
このように、インパルス応答データは、それが得られた音響空間と一体不可分の関係にある。そこで、本実施の形態では、画像データとして、例えば、その音響空間自体を撮影して得られる静止画または動画を表すデータや、その音響空間を想起させるような絵画または意匠等を表すデータを用い、この画像データを各音響空間に対応付けて提供すると共に、インパルス応答データを用いて生成した音響処理音に関連付けて画像データを取り扱うようにしている。その詳細については後述する。
【0040】
図2は、図1に示した音響処理装置1の概略構成を表すものである。この音響処理装置1は、CPU(中央処理装置)11と、CPU11が行うデータ処理に必要な作業データ等の随時書き込みと随時読み出しとが可能なRAM12と、BIOS(Basic Input/Output System )等が格納された読み出し専用のROM(Read Only Memory)13とを備えている。音響処理装置1はまた、OS(operating system)およびアプリケーションプログラム等のプログラムを含む様々なデータを格納すると共にこれらのデータのランダム読出が可能なハードディスクドライブ(HDD)14と、インターネットに接続可能な通信I/F15と、CDドライブ16と、オーディオビジュアルインタフェイス(AV−I/F)17とを備えている。音響処理装置1は、さらに、データ入力用のキーボード18Kおよびマウス18Mと、表示デバイス(DPLY)19とを備えている。以上列挙した各部は、バスBによって相互に接続されている。
【0041】
CPU11は、この音響処理装置1の全体に係わる動作を制御するほか、後述するたたみ込み演算等を高速で処理する機能を有する。CPU11としては、動作クロックが例えば500MHz以上の高速タイプのデバイスを用いるのが好ましい。ここで、CPU11が、本発明における「たたみ込み手段」、「画像再生手段」および「制御手段」を実現するハードウェアの一具体例に対応する。
【0042】
HDD14は、上記したOSのほかに、少なくともリバーブアプリケーションプログラム14Pと、コンテンツライブラリ14Cとを格納できるだけの記憶容量を有する。リバーブアプリケーションプログラム14Pは、オーディオソース7(図1)から供給される原音(オーディオデータ7A)に音響処理であるリバーブ処理(たたみ込み処理)を施すためのプログラムであり、例えばCDドライブ16を用いてCD−ROM16PからHDD14にインストールされるようになっている。コンテンツライブラリ14Cは、コンテンツソース8(図1)から供給された、リバーブデータ、画像データ、付帯データおよびリンクデータからなるコンテンツデータ8Cを集めたファイルライブラリである。なお、図2に示した例では、オーディオソースは音楽CD16Aであり、コンテンツソースはインターネット上のウェブサイトである。
【0043】
AV−I/F17は、オーディオアンプ4A〜4D、表示装置3および記録再生装置5(図1)とバスBとの間を接続し、ディジタル信号(ディジタルオーディオデータおよびディジタル画像データ)を、アナログ信号(アナログオーディオデータおよびアナログ画像データ)に変換する信号変換機能等を有している。通信I/F15としては、例えば、ISDN回線用であればターミナルアダプタ(TA)、アナログ回線用であればモデム(modem )等が用いられる。CDドライブ16は、通常の音楽CD16Aを駆動してオーディオデータ7AをHDD14に取り込むことができるほか、プログラムが記録されたCD−ROM16Pを駆動してリバーブアプリケーションプログラム14PをHDD14に取り込むことができるようになっている。なお、CDドライブ16は、読み出し専用メディアであるCDやCD−ROMを駆動可能なもののほか、追記型メディアであるCD−R(Recordable)や、書き替え可能型メディアであるCD−RW(Rewitable )等の駆動が可能な複合型ドライブであってもよい。さらに、CDドライブ16に代えて、書込専用DVDや書き替え可能型DVDの駆動が可能なDVDドライブを用いるようにしてもよい。
【0044】
図3は、音響処理装置1がHDD14内のコンテンツライブラリ14Cを用いて行う機能の要部を表したものである。なお、図3において、「データ」という用語は、意味的なまとまりをもった一連の情報を意味し、「ファイル」という用語は、記憶装置に格納された複数の同種データの集合体を意味するものとする。例えば、リバーブファイルRFは、複数種類のリバーブデータRDi (i=1,2,3,…) を含むデータファイルであり、画像ファイルIMFは、複数種類の画像データIMj (j=1,2,3,…) を含むデータファイルである。付帯ファイルAXFは、複数の付帯データAXi (i=1,2,3,…) を含むデータファイルであり、リンクファイルLFは、複数のリンクデータLi (i=1,2,3,…) を含むデータファイルである。
【0045】
図4は、リンクファイルの内容の一具体例を表すものである。リンクファイルLFは、複数のリンクデータL1,L2,L3,…を含んでいる。各リンクデータLi (i=1,2,3,…)は、1つのリバーブデータと、1または複数の画像データと、1つの付帯データとを相互に対応付ける定義付けデータである。例えば、リンクデータL1は、リバーブデータRD1と、3つの画像データ[IM1,IM2,IM3]と、付帯データAX1 とを対応付けており、リンクデータL2は、リバーブデータRD2と、3つの画像データ[IM4,IM5,IM6]と、付帯データAX2 とを対応付けている。リンクデータL3は、リバーブデータRD3と、4つの画像データ[IM4,IM5,IM6,IM1]と、付帯データAX3 とを対応付けている。なお、図4におけるRDi,IMj ,AXiの表記は各データの中身自体を示すものではなく、データの中身が実際に格納されている場所(ハードディスク14上のアドレス)を表しているにすぎない。
【0046】
画像データIM1〜IM6の実際のデータ内容は、例えば、
IM1:IMAGE1.bmp,IM2:IMAGE2.bmp,IM3:IMAGE3.bmp
IM4:VIDEO1.mpg,IM5:VIDEO2.mpg,IM6:VIDEO3.mpg
である。ここで、拡張子「bmp 」はビットマップ形式の静止画データであることを示し、拡張子「mpg 」はMPEG(Moving Picture Experts Group)形式で圧縮された動画データであることを示す。
【0047】
図4に示した例において、リンクデータL1は、「リバーブデータRD1が選択された場合に、3つの静止画像データIMAGE1.bmp,IMAGE2.bmp,IMAGE3.bmpをそれぞれ所定の時間ずつ順次表示させると共に、これらの静止画像の表示に同期して付帯データAX1の内容を表示する」ことを意味している。リンクデータL2は、「リバーブデータRD2が選択された場合に、3つの動画像データVIDEO1.mpg,VIDEO2.mpg,VIDEO3.mpgを順次表示させると共に、これらの静止画像の表示に同期して付帯データAX2の内容をオーバーラップ表示する」ことを意味している。リンクデータL3は、「リバーブデータRD3が選択された場合に、3つの動画像データVIDEO1.mpg,VIDEO2.mpg,VIDEO3.mpgを順次表示させたのち、静止画像データIMAGE1.bmpを所定時間表示させ、その後、2番目の動画像データVIDEO2.mpgを表示させると共に、これらの静止画像の表示に同期して付帯データAX3の内容をオーバーラップ表示する」ことを意味している。その他のリンクデータについても同様である。なお、リンクデータL3における「Go To #2」は、2番目の画像データに制御を移すことを意味するが、このような記述が存在しない場合には、先頭の画像データに制御を移すようになっている。
【0048】
図3に示したように、リバーブアプリケーションプログラム14Pは、少なくとも、リバーブモジュールREV、画像再生モジュールREPおよびリンク制御モジュールLCという3つのプログラムモジュールを含んで構成されている。リンク制御モジュールLCは、ユーザによって指定されたリンクデータLi をリンクファイルLFから読み出し、このリンクデータLi の内容に従って、リバーブモジュールREVおよび画像再生モジュールREPを制御するようになっている。リバーブモジュールREVおよび画像再生モジュールREPは、それぞれ、リンク制御モジュールLCによる制御の下、互いに同期して、リバーブデータRDi と、画像データIMi および付帯データAXi とを読み出し、以下に述べる処理を行うようになっている。画像再生モジュールREPが、本発明における「画像再生手段」の一具体例に対応し、リンク制御モジュールLCが本発明における「制御手段」の一具体例に対応する。
【0049】
すなわち、リバーブモジュールREVは、リバーブファイルRFからリバーブデータRDi を読み出し、このリバーブデータRDi を用いて、音楽CD16A(図2、図3参照)から出力されるオーディオデータ7A(図1〜図3参照)に対して、後述するリバーブ処理(たたみ込み処理)を行い、スピーカ2A〜2Dに出力するという音響処理機能を有する。
【0050】
一方、画像再生モジュールREPは、画像ファイルIMFから画像データIMj を読み出してその圧縮状態を解凍し、これをリバーブモジュールREVの出力に合わせて表示装置3に出力するという画像デコード機能を有する。画像再生モジュールREPはまた、付帯ファイルAXFから付帯データAXi を読み出し、画像再生出力に同期して表示装置3に出力するという機能も有している。リバーブモジュールREVは以下に述べるような構造を有している。
【0051】
図5は、図3に示したリバーブモジュールREVの機能構造を詳細に表すものである。なお、この図に示した各機能ブロックは、いずれもソフトウェアによって実現されるものである。
【0052】
このリバーブモジュールREVは、ステレオ入力/ステレオ出力の機能を有する。すなわち、このリバーブモジュールREVは、Lチャンネル(左チャンネル)の入力オーディオデータLinとRチャンネル(右チャンネル)の入力オーディオデータRinとからなるオーディオデータ7A(図1、図2,図3参照)を入力とし、Lチャンネルの出力オーディオデータLout とRチャンネルの出力オーディオデータRout とからなる音響処理データ7Bを出力するようになっている。
【0053】
リバーブモジュールREVは、Lチャンネルの入力オーディオデータLinに対してたたみ込み処理を行うための2つのたたみ込み処理部51L1,51L2と、Rチャンネルの入力オーディオデータRinに対してたたみ込み処理を行うための2つのたたみ込み処理部51R1,51R2とを含んで構成されている。リバーブモジュールREVはまた、Lチャンネルの入力オーディオデータLinを遅延させるための遅延処理部52Lと、Rチャンネルの入力オーディオデータRinを遅延させるための遅延処理部52Rとを含んでいる。Lチャンネルの入力オーディオデータLinは3経路に分岐されて入力され、各分岐されたデータが、それぞれ、たたみ込み処理部51L1,51L2および遅延処理部52Lに入力されるようになっている。同様に、Rチャンネルの入力オーディオデータRinは3経路に分岐されて入力され、各分岐されたデータが、それぞれ、たたみ込み処理部51R1,51R2および遅延処理部52Rに入力されるようになっている。ここで、たたみ込み処理部51L1,51L2,51R1,51R2が本発明における「たたみ込み手段」の一具体例に対応する。
【0054】
たたみ込み処理部51L1,51L2,51R1,51R2には、リバーブデータRDi (図3〜図5参照)が個別に供給され、これを用いて、入力オーディオデータLin,Rinに対するたたみ込み処理が行われるようになっている。たたみ込み処理部51L1,51L2,51R1,51R2にはまた、リバーブ時間調整データ56が供給され、これにより、リバーブ時間を個別に設定できるようになっている。このリバーブ時間は、入力オーディオデータLin,Rinに対して実際にたたみ込み処理を施す時間の長さであり、通常、リバーブデータが採取された音響空間が有する固有の残響時間の長短に応じて設定される。なお、一般に、残響時間は音が止まってから音圧レベルが60dB減衰するまでの時間を意味する。
【0055】
たたみ込み処理部51L1の出力とたたみ込み処理部51R2の出力とは、加算部53L1に入力され、ここで互いに加算されて、効果音(ウェット音)データWLとして出力されるようになっている。一方、たたみ込み処理部51L2の出力とたたみ込み処理部51R1の出力とは、加算部53R1に入力され、ここで互いに加算されて、効果音データWRとして出力される。加算部53L1から出力された効果音データWLは乗算部54L1に入力され、ここで、Lチャンネル用のウェット成分調整データ57Lと乗ぜられる。一方、加算部53R1から出力された効果音データWRは乗算部54R1に入力され、ここで、Rチャンネル用のウェット成分調整データ57Rと乗ぜられるようになっている。ここで、ウェット成分調整データとは、最終的に視聴に供される音響処理済みの音の全体(すなわち、音響処理音)に占める効果音の割合を決定する係数である。具体的には、ウェット成分調整データ57Lは、出力オーディオデータLout のうち効果音データWLが占める割合を表し、ウェット成分調整データ57Rは出力オーディオデータRout のうち効果音データWRが占める割合を表す。
【0056】
遅延処理部52Lから出力された原音(たたみ込みがなされていないドライ音)データDLは乗算部54L2に入力され、ここでLチャンネル用のドライ成分調整データ58Lと乗ぜられるようになっている。一方、遅延処理部52Rから出力された原音データDRは乗算部54R2に入力され、ここでRチャンネル用のドライ成分調整データ58Rと乗ぜられる。ここで、ドライ成分調整データとは、最終的に視聴に供される音響処理音に占める原音の割合を表す係数である。具体的には、ドライ成分調整データ57Lは、出力オーディオデータLout のうち原音データDLが占める割合を表す係数であり、ドライ成分調整データ57Rは、出力オーディオデータRout のうち原音データDRが占める割合を表す係数である。
【0057】
乗算部54L1,54L2の各出力は、加算部53L2で互いに加算(重畳)され、これにより、Lチャンネルの原音データDLと効果音データWLとが所定の比率(すなわち、ドライ成分調整データ58Lとウェット成分調整データ57Lの比)で混合された出力オーディオデータLout が生成される。一方、乗算部54R1,54R2の各出力は、加算部53R2で互いに加算(重畳)され、これにより、Rチャンネルの原音データDRと効果音データWRとが所定の比率で混合された出力オーディオデータRout が生成されるようになっている。
【0058】
図6は、図5におけるたたみ込み処理部51L1の機能構造をより詳細に表すものである。このたたみ込み処理部51L1は、Lチャンネルの入力オーディオデータLinが入力されるバッファ処理ブロック61と、バッファ処理ブロック61の出力が供給されるFFT(Fast Fourier Transformation )処理ブロック62と、リバーブデータRDi (i=1,2,3,…;図3〜図5参照)が入力されるバッファ処理ブロック63と、バッファ処理ブロック63の出力が供給されるFFT処理ブロック64とを含んで構成されている。たたみ込み処理部51L1はまた、FFT処理ブロック62の出力とFFT処理ブロック62の出力とが供給される乗算ブロック65と、乗算ブロック65の出力が供給されるIFFT処理ブロック66とを含んでいる。
【0059】
バッファ処理ブロック61は、音楽CD16A(図2,図3)からLチャンネルの入力オーディオデータLinを読み出し、これをメモリ(図2;RAM12)に所定量蓄積したのちに出力する処理を行うブロックである。このバッファ処理ブロック61によってメモリに蓄積されるデータの量は、リバーブ時間調整データ56によって設定されるようになっている。具体的には、例えば512k(=219=524,288)ポイント分のサンプリングデータがバッファ処理ブロック61に格納される。
【0060】
バッファ処理ブロック63は、HDD14(図2)のリバーブファイルRF (図3)からいずれかのリバーブデータRDi を読み出し、これをメモリ(図2;RAM12)に所定量蓄積したのち出力する処理を行うブロックである。このバッファ処理ブロック63によってメモリに蓄積されるデータ量もまた、リバーブ時間調整データ56によって設定される。
【0061】
FFT処理ブロック62は、バッファ処理ブロック61から出力された時間軸上のオーディオデータを高速フーリエ変換(FFT) によって周波数軸上のデータに変換する処理を行うブロックである。このブロックにより、Lチャンネルの入力オーディオデータLinは、例えば、0.1Hz毎の周波数要素データに変換されるようになっている。FFT処理ブロック64は、バッファ処理ブロック63から出力された時間軸上のリバーブデータRDi を高速フーリエ変換によって周波数軸上のデータに変換する処理を行うブロックである。
【0062】
乗算ブロック65は、FFT処理ブロック62の出力にFFT処理ブロック64の出力を乗ずるたたみ込み演算処理を行うブロックである。このときの乗算は、互いに周波数成分が一致するデータ同士で行われる。
【0063】
IFFT処理ブロック66は、乗算ブロック65から出力された周波数軸上のデータを逆高速フーリエ変換(IFFT ;Inverse Fast Fourier Transformation) によって時間軸上のデータに変換し、効果音(ウェット音)67として出力する処理を行うブロックである。
【0064】
なお、他のたたみ込み処理部51L2は、たたみ込み処理部51L1と同様のブロック構造および機能を有する。また、たたみ込み処理部51R1,51R2は、入力がRチャンネルの入力オーディオデータRinである点を除き、たたみ込み処理部51L1と同様のブロック構造および機能を有する。但し、これらの4つのたたみ込み処理部51L1〜51R2で行われる処理は、実際には、CPU11(図2)によって時分割的に実行される処理である。
【0065】
次に、主に図7および図8を参照して、以上のような構成の音響処理装置の全体動作および作用を説明する。
【0066】
図7は、ユーザU(図1)が音響処理装置1を用いて音響処理を行う場合の操作を含めた全体の流れを表し、図8は、リバーブモジュールREV(図3,図5参照)における音響処理のタイミングを表すものである。ここでは、図2に示したように、ユーザUはすでに、CD−ROM16Pによって提供されたリバーブアプリケーションプログラム14PをCDドライブ16を用いてHDD14にインストールする作業を終了しているものとする。このリバーブアプリケーションプログラム14Pを記録したCD−ROM16Pは、例えば音楽雑誌の付録として提供するようにしてもよい。なお、リバーブアプリケーションプログラム14Pは、CD−ROM以外の記憶媒体で提供されるようにしたり、あるいはインターネットのホームページからダウンロードにより提供されるようにすることも可能である。
【0067】
ユーザUはまず、音響処理装置1を操作して、コンテンツソース8(図1)から、リバーブデータ、画像データ、付帯データおよびリンクデータからなるコンテンツデータ8Cを取得する。ここでは、コンテンツソース8がインターネット上の任意のコンテンツ配信サイトのサーバ(図示せず)であるものとする。この場合、ユーザUは、コンテンツ配信サイトのホームページ(図示せず)にアクセスして、コンテンツデータ8Cをダウンロードし(図7;ステップS101)、これをHDD14のコンテンツライブラリ14C(図2)に格納する。このとき、ユーザUは、1つのサイトから複数種類のコンテンツデータ8Cをダウンロードしたり、あるいは、複数のサイトからコンテンツデータ8Cをダウンロードすることにより、HDD14のコンテンツライブラリ14Cに複数のコンテンツデータ8Cを蓄積することができる。なお、コンテンツデータ8CをCD−ROM等の物理的な記憶媒体を介して取得することも可能である。
【0068】
次に、ユーザUが、CDドライブ16(図2)にオーディオソースである音楽CD16Aをセットし、HDD14内のリバーブアプリケーションプログラム14Pを起動して所定の操作を行うと(ステップS102)、リバーブアプリケーションプログラム14Pは、HDD14のコンテンツライブラリ14Cの内容をディスプレイ19にリスト表示すると共に、音楽CD16Aの中の楽曲(音楽プログラム)のリストを表示する(ステップS103)。
【0069】
コンテンツライブラリ14Cの内容表示は、次のようにして行われる。すなわち、リバーブアプリケーションプログラム14Pのリンク制御モジュールLC(図3)は、コンテンツライブラリ14C内のリンクファイルLF(図3,図4)に含まれるすべての付帯データAXiの内容を参照し、リバーブデータRDi のタイトルと、このリバーブデータRDi に対応する画像データIMj のタイトルとをリスト形式でディスプレイ19に表示する。具体的には、リバーブデータRDi のタイトルとして、例えばそのリバーブデータRDi が採取された音響空間(施設や場所)の名称(例えば、「ウィーンコンツェルトハウス」等)が表示され、画像データIMj のタイトルとして、その画像の内容を簡潔に表すタイトル(例えば、「ウィーンコンツェルトハウスの全景とウィーンの春の風景」等)が表示される。
【0070】
こうして表示された楽曲リストおよびコンテンツライブラリリストの中から、ユーザUによっていずれかの楽曲とリバーブデータRDi とが選択されると(ステップS104;Y)、リバーブアプリケーションプログラム14Pは、選択された楽曲の再生と、選択されたリバーブデータRDi が指し示す画像の再生とを開始する。
【0071】
具体的には、リンク制御モジュールLCは、まず、リンクファイルLFから、その選択されたリバーブデータRDi に関するリンクデータLi を読み出し、このリンクデータLi の内容に従って、選択されたリバーブデータRDi に対応する画像データIMj の再生表示を開始するよう、画像再生モジュールREP(図3)に指示する。さらに、リンク制御モジュールLCは、選択されたリバーブデータRDi を用いて、選択された楽曲のオーディオデータ7A(図1〜図3)にリバーブ音響処理を行うよう、リバーブモジュールREV(図3,図5)に指示する。
【0072】
例えばリバーブデータR1が選択されたとすると、リンク制御モジュールLCは、コンテンツライブラリ14CのリンクファイルLFから、対応するリンクデータL1を読み出す。そして、そのリンクデータL1中に列挙されている画像データIMj (図4に示した例では、静止画データIMAGE1.bmp,IMAGE2.bmp,IMAGE3.bmp)の再生出力を画像再生モジュールREPに指示する。さらに、リンク制御モジュールLCは、ユーザによって選択された楽曲(オーディオデータ7A)を音楽CD16Aから読み出し、このオーディオデータ7Aに対し、リバーブデータR1を用いたリバーブ音響処理を開始するよう、リバーブモジュールREVに指示する。
【0073】
リンク制御モジュールLCからの指示を受けた画像再生モジュールREPは、画像再生を開始する(ステップS105)。具体的には、指示された圧縮状態の画像データIMj を画像ファイルIMF(図3)から読み出し、これを伸長(デコード)し、AV−I/F17を介して表示装置3に出力する。これにより、表示装置3に、画像データIMj の内容(静止画IMAGE1.bmp,IMAGE2.bmp,IMAGE3.bmp)が、所定の時間間隔で順次表示される。なお、ユーザUによる指示があった場合には、リンク制御モジュールLCは、リンクデータL1の付帯データAX1をも読み出し、これを画像再生モジュールREPに渡す。画像再生モジュールREPは、付帯データAX1の内容を静止画と共に表示装置3にオーバーラップさせて表示する(図3では図示せず)。
【0074】
例えば、選択されたリバーブデータR1のタイトルが上記したように「ウィーンコンツェルトハウス」であったとすると、表示装置3には、ウィーンコンツェルトハウスの外観、内観およびウィーンの春の景色等が、このウィーンコンツェルトハウスの規模および歴史の解説や音楽の都ウィーンにまつわる作曲家のエピソード等の付帯データAXi と共に表示されることになる。
【0075】
一方、リンク制御モジュールLCからの指示を受けたリバーブモジュールREVは、選択された楽曲に対するリバーブ処理を開始する(ステップS106)。具体的には、まず、オーディオデータ7Aに対し、その曲頭から、リバーブデータRD1 によるたたみ込み処理を開始すると共に、この開始時点から所定の時間τが経過したところで、原音(ドライ音)に効果音(ウェット音)が重畳した音響処理音の出力を開始する(ステップS107)。なお、上記した「所定の時間τ」については後述する。
【0076】
こうして原音に効果音が重畳されて出力された音響処理音は、各チャンネルごとにオーディオアンプ4A,4B(図1)によって増幅されたのち、スピーカ2A,2B(図1,図3)から出力され、ユーザUによって聴取される。この音響処理音は、ユーザUが選択したリバーブデータRDi が採取された現実の音響空間(例えば、ウィーンコンツェルトハウス)においてその曲を演奏した場合に得られるものと同等の残響音を含んだ臨場感のある音響になっている。このため、ユーザUは、あたかも、実際にその音響空間に行ってその曲を聞いているかのような疑似的聴取体験をすることができる。
【0077】
さらに、このような臨場感のある音響処理音の出力と並行して、表示装置3には、画像再生モジュールREPによって再生された画像(例えば、ウィーンコンツェルトハウスの内観やウィーンの町並み等を表す絵や写真)が表示される。この再生画像の内容は、ユーザUの選択に応じたもの(例えば、現にスピーカから出力されている音響処理音が形作る音場と対応したもの)になっているため、ユーザUは、その音響空間の情景をイメージとして描きながら音楽を聞くことができる。すなわち、ユーザUは、聴覚的な効果に加えて、視覚的にも臨場感のあるリアルな仮想体験をすることができる。しかも、ユーザUの選択により、再生画像と共に、その擬似的創出の対象となった現実の音響空間に関する解説文もまた表示装置3に表示されるので、ユーザUは、その音響空間等についての知識や理解を深めることができる。
【0078】
次に、図5,図6および図8を参照して、リバーブモジュールREVが行うリバーブ音響処理について詳細に説明する。
【0079】
図5において、音楽CD16A(図3参照)から読み出されたオーディオデータ7Aのうち、Lチャンネルの入力オーディオデータLinは、たたみ込み処理部51L1,51L2および遅延処理部52Lに入力され、Rチャンネルの入力オーディオデータRinは、たたみ込み処理部51R1,51R2および遅延処理部52Rに入力される。たたみ込み処理部51L1,51L2,51R1,51R2には、ユーザUによって選択されたリバーブデータRDi も入力される。
【0080】
たたみ込み処理部51L1,51R2は、それぞれ、リバーブデータRDi に基づいて、入力オーディオデータLin,Rinに対してたたみ込み処理(図6参照)を行い、その処理結果を、共に加算部53L1に供給する。加算部53L1は、たたみ込み処理部51L1,51R2の各出力同士を加算(混合)し、その結果を乗算部54L1に供給する。
【0081】
一方、たたみ込み処理部51L2,51R1は、それぞれ、リバーブデータRDi に基づき、入力オーディオデータLin,Rinに対して、たたみ込み処理を行い、その処理結果を、共に加算部53R1に供給する。加算部53R1は、たたみ込み処理部51L2,51R1の各出力同士を加算(混合)し、その結果を乗算部54R1に供給する。
【0082】
遅延処理部52Lは、入力オーディオデータLinに対して所定時間τの遅延を与える処理を行い、その出力を原音データDLとして乗算部54L2に供給する。一方、遅延処理部52Rは、入力オーディオデータRinに対して所定時間τの遅延を与える処理を行い、その出力を原音データDRとして乗算部54R2に供給する。
【0083】
原音データDL,DRに遅延を与える理由は次の通りである。すなわち、たたみ込み処理部51L1(図5)では、後述するように、バッファ処理ブロック61(図6)において、必要な残響時間に対応する分の入力オーディオデータLinを、一旦メモリ(図2のRAM12)に所定量蓄積したのちに読み出して、この読み出したデータにたたみ込み処理を行うようになっているため、効果音データ(ウェット音)WLには所定の時間遅延が生ずる。そこで、効果音とドライ音との間のマッチング(曲ずれ防止)を図るために、効果音データ(ウェット音)WLの遅延量と同一の時間遅延を、遅延処理部52L(図5)によって原音(ドライ音)データDLにも与えるようにしているのである。
【0084】
なお、遅延時間τは、オーディオデータ7Aのサンプリング周波数、たたみ込みのサンプル数、およびたたみ込み処理部51L1,51L2,51R1,51R2における処理速度(すなわち、CPU11の動作周波数)等に依存して決まるが、通常は6秒程度に設定される。
【0085】
乗算部54L1は、加算部53L1からの出力に対して、予め設定されたウェット成分調整データ57Lを乗じ、その結果を加算部53L2に供給する。乗算部54L2は、遅延処理部52Lからの出力に対して、予め設定されたドライ成分調整データ58Lを乗じ、その結果を加算部53L2に供給する。加算部53L2は、乗算部54L1,54L2の各出力同士を加算(重畳)し、その結果をLチャンネルの出力オーディオデータLout として出力する。出力オーディオデータLout は、オーディオアンプ4A(図1)によって増幅され、スピーカ2A(図1)から出力される。
【0086】
一方、乗算部54R1は、加算部53R1からの出力に対して、予め設定されたウェット成分調整データ57Rを乗じ、その結果を加算部53R2に供給する。乗算部54R2は、遅延処理部52Rからの出力に対して、予め設定されたドライ成分調整データ58Rを乗じ、その結果を加算部53R2に供給する。加算部53R2は、乗算部54R1,54R2の各出力同士を加算(重畳)し、その結果をRチャンネルの出力オーディオデータRout として出力する。出力オーディオデータRout は、オーディオアンプ4B(図1)によって増幅され、スピーカ2B(図1)から出力される。
【0087】
ここで、図6を参照して、たたみ込み処理部51L1における処理内容を詳細に説明する。なお、他のたたみ込み処理部51L2,51R1,51R2における処理も同様であるので、その説明を省略する。
【0088】
図6に示したたたみ込み処理部51L1において、バッファ処理ブロック61は、Lチャンネルの入力オーディオデータLinを一旦蓄積したのち、FFT処理ブロック62に供給する。一方、バッファ処理ブロック63は、リバーブデータRDi を一旦蓄積したのち、FFT処理ブロック64に供給する。その際、バッファ処理ブロック61,63は、蓄積するデータの量をリバーブ時間調整データ56に応じて決定する。この蓄積データ量は、遅延処理部52Lでの遅延時間τに対応したものである。
【0089】
FFT処理ブロック62は、バッファ処理ブロック61の出力に対して高速フーリエ変換を行うことにより、時間軸上のデータである入力オーディオデータLinを周波数軸上のデータに変換し、乗算ブロック65へと出力する。一方、FFT処理ブロック64は、バッファ処理ブロック63の出力に対して高速フーリエ変換を行うことにより、時間軸上のデータであるリバーブデータRDi を周波数軸上のデータに変換し、乗算ブロック65に供給する。
【0090】
乗算ブロック65は、FFT処理ブロック62からの出力にFFT処理ブロック64からの出力を乗ずるたたみ込み演算を行い、その結果をIFFT処理ブロック66に供給する。このとき、乗算ブロック65は、互いに周波数成分が一致するデータ同士で乗算を行う。
【0091】
例えば、入力オーディオデータLinのサンプリング周波数が48kHzであり、必要とされる残響時間に対応するサンプル数が218=256kであったとすると、遅延時間τは約5.3秒程度となる。CPU11は、このようなたたみ込み処理を、4つのたたみ込み処理部51L1,51L2,51R1,51R2において時分割的に並行して行うことになる。この場合、CPU11として動作周波数が500MHz程度のものを用い、32ビットのフローティングポイント演算を行うようにすれば、十分実現可能である。
【0092】
IFFT処理ブロック66は、乗算ブロック65の出力に対して逆高速フーリエ変換を行うことにより、周波数軸上のデータであるたたみ込み演算の結果を時間軸上のデータに戻して出力する。このようにして、Lチャンネル用の加算部53L1(図5)に供給されるべきデータが生成される。
【0093】
次に、図8を参照して、図3,図5に示したリバーブモジュールREVにおけるデータ処理のタイミングを説明する。この図の(A)は、リバーブモジュールREVに原音 (=ドライ音=入力オーディオデータLin, Rin)が入力されるタイミングを表し、(B)は、遅延処理部52L,52Rからドライ音が出力されるタイミングを表す。(C)は、リバーブモジュールREVのたたみ込み処理部51L1,51L2,51R1,51R2におけるたたみ込み処理のタイミングを表し、(D)は、たたみ込み処理部51L1,51L2,51R1,51R2の出力タイミングを表す。(E)は、加算部53L2,53R2の出力タイミング、すなわち、リバーブモジュールREVから最終的に音響処理音(ドライ音+ウェット音)が出力されるタイミングを表す。なお、図8において、加算部53L1,53R1,53L2,53R2、および乗算部54L1,54L2,54R1,54R2における演算時間は、たたみ込み処理部51L1等における演算時間に比べて十分小さいので、これを無視して描いている。
【0094】
この図の(C)に示したように、時刻T0において、原音の曲頭からたたみ込み処理部51L1におけるたたみ込み処理が開始し、これから時間τだけ遅れて、(E)に示したように、時刻T1において、最初の処理済みデータ(音響処理音)が出力される。この遅延は、上記したように、時間軸に沿って入力された原音およびリバーブデータRDi をそれぞれバッファ処理ブロック61,62に一旦蓄積してから周波数軸上のデータに変換するようにしていること、および、4つのたたみ込み処理部51L1,51L2,51R1,51R2の演算処理がソフトウェアによって行われるためCPU11の処理能力に応じた遅延が生ずること、等の理由による。
【0095】
このように、たたみ込み処理部51L1,51L2,51R1,51R2では入力に対して出力が時間τだけ遅れることから、遅延処理部52L,52Rは、(A),(B)に示したように、その遅れ分に対応した時間τだけドライ音を遅延させて出力するようにしている。この結果、リバーブ処理が開始してから時間τが経過するまでは無音期間となる。そして、この無音期間τの経過後に、(E)に示したように、ドライ音とウェット音とが重畳された音響処理音の出力が開始する。
【0096】
以上のように、本実施の形態に係る音響処理装置1によれば、現実の音響空間
において採取されたリバーブデータRDi を用いた音響処理を原音に施して出力するようにしたので、臨場感のある音響を得ることができる。さらに、本実施の形態では、音響処理音の出力と並行して、ユーザUの選択に応じ、出力中の音響処理音が形作る音場と対応した画像を表示装置3に表示することを可能にしたので、ユーザUは、その音響空間の情景をイメージとして描きながら音楽を聞くこともできる。このため、ユーザUは、聴覚的にも視覚的にも臨場感のあるリアルな仮想体験、すなわち、あたかも、実際にその音響空間に身を置いてその曲を聞いているかのような疑似的聴取体験をすることができる。さらに、ユーザUの選択により、再生画像と共に解説文もまた表示装置3に表示されるようにしたので、その音響空間等についての知識や理解を深めることもでき、仮想体験のリアル性を高めることができる。
【0097】
また、本実施の形態の音響処理装置1によれば、たたみ込み処理をソフトウェアを用いて行うようにしたので、ユーザUは、自分の所持しているパーソナルコンピュータにアプリケーションプログラム14Pをインストールするだけでよく、特別のハードウェア装置を購入する必要がない。したがって、ユーザUは、自分が既に所有しているCD等に収録された音楽等に対する音響処理を、容易かつ低コストで行うことが可能になる。
【0098】
次に、第1の実施の形態における音響処理装置1についてのいくつかの変形例を説明する。
【0099】
〈変形例1−1〉
本変形例の音響処理装置は、図5のリバーブモジュールREVに代えて、図10のようなモノラル入力/ステレオ出力の機能を有するリバーブモジュールREV−Aを用いるようにしたものであり、CPU11の処理能力が不足している場合に好適である。この図で、図5における要素と同一要素には同一の符号を付し、適宜説明を省略するものとする。
【0100】
図10に示したように、本変形例のリバーブモジュールREV−Aは、L,Rの両チャンネルの入力オーディオデータを1つに合成してモノラルの入力オーディオデータとし、このモノラルのオーディオデータを2分岐して、それぞれについてたたみ込み処理を行うようにしたものである。以下、詳細に説明する。
【0101】
このリバーブモジュールREV−Aは、Lチャンネルの入力オーディオデータLinの一部とRチャンネルの入力オーディオデータRinの一部とを合成してモノラルの入力オーディオデータを生成する加算部53と、Lチャンネルの入力オーディオデータLinを遅延させるための遅延処理部52Lと、Rチャンネルの入力オーディオデータRinを遅延させるための遅延処理部52Rとを備えている。Lチャンネルの入力オーディオデータLinは2分岐されて、一方は加算部53に入力され、他方は遅延処理部52Lに入力される。Rチャンネルの入力オーディオデータRinもまた2分岐されて、一方が加算部53に入力され、他方が遅延処理部52Rに入力されるようになっている。加算部53から出力されたモノラルの入力オーディオデータは2分岐されて、それぞれ、たたみ込み処理部51L1,51R1に入力されるようになっている。たたみ込み処理部51L1,51R1には、それぞれ、リバーブデータRDi およびリバーブ時間調整データ56が供給され、これらのデータに基づき、モノラルの入力オーディオデータに対するリバーブ処理が行われるようになっている。
【0102】
たたみ込み処理部51L1から出力された効果音データWLは、乗算部54L1に入力され、ここでウェット成分調整データ57Lが乗ぜられる。たたみ込み処理部51R1から出力された効果音データWRは、乗算部54R1に入力され、ここでドライ成分調整データ57Rが乗ぜられるようになっている。
【0103】
遅延処理部52Lから出力された原音データDLは、乗算部54L2に入力され、ここでLチャンネル用のドライ成分調整データ58Lが乗ぜられる。遅延処理部52Rから出力された原音データDRは、乗算部54R2に入力され、ここでRチャンネル用のドライ成分調整データ58Rが乗ぜられる。
【0104】
乗算部54L1,54L2の各出力は、加算部53L2で加算され、これにより、Lチャンネルの原音と効果音とが所定の比率で混合された出力オーディオデータLout が生成され、出力されるようになっている。乗算部54R1,54R2の各出力は、加算部53R2で加算され、これにより、Rチャンネルの原音と効果音とが所定の比率で混合された出力オーディオデータRout が生成され、出力されるようになっている。
【0105】
その他の構成は上記第1の実施の形態と同様である。
【0106】
上記第1の実施の形態では、LおよびRチャンネルの入力オーディオデータLin,Rinに対して、4つのたたみ込み処理部51L1,51L2,51R1,51R2によってたたみ込み処理を行うようにしている。これに対し、本変形例では、Lチャンネルの入力オーディオデータLinとRチャンネルの入力オーディオデータRinとを、一旦、加算部53によってモノラルの入力オーディオデータに合成し、このモノラルの入力オーディオデータに対して、2つのたたみ込み処理部51L1,51R1によってたたみ込み処理を行うようにしている。このため、これをソフトウェアで実行するCPU11への負担が軽減されるという利点がある。したがって、さほど高速でないマイクロプロセッサであっても実現可能である。
【0107】
〈変形例1−2〉
本変形例の音響処理装置は、図5のリバーブモジュールREVに代えて、図11に示したようなモノラル入力/4チャンネル出力(サラウンド出力)の機能を有するリバーブモジュールREV−Bを用いるようにしたものである。その他の構成は上記第1の実施の形態と同様である。
【0108】
図11に示したように、本変形例に係るリバーブモジュールREV−Bは、上記〈変形例1−1〉のリバーブモジュールREV−A(図10)に、たたみ込み処理部51L2,51R2と、加算部54L3,54R3とを追加したものである。本変形例では、加算部53の出力を4分岐し、そのうちの2つをたたみ込み処理部51L1,51R1に入力し、他の2つをたたみ込み処理部51L2,51R2に入力するようにしている。
【0109】
たたみ込み処理部51L2の出力WLRは、加算部54L3に入力され、ここで、Lチャンネル用のドライ成分調整データ59Lが乗ぜられて、リアLチャンネルの出力オーディオデータLout (R)が生成される。たたみ込み処理部51R2の出力WRRは、加算部54R3に入力され、ここで、Rチャンネル用のドライ成分調整データ59Rが乗ぜられて、リアRチャンネルの出力オーディオデータRout (R)が生成される。これらの出力オーディオデータLout (R),Rout (R)は、それスピーカ2C,2D(図1,図3)に出力される。
【0110】
一方、加算部53L2,53R2の各出力は、それぞれ、フロントLチャンネルの出力オーディオデータLout (F)およびフロントRチャンネルの出力オーディオデータRout (F)として、それぞれ、スピーカ2A,2B(図1,図3)に出力される。
【0111】
このようにして、本変形例では、モノラル入力に対するたたみ込み処理を行うことにより、4チャンネルの出力が得られ、サラウンドモードでの聴取が可能になるので、ユーザは、図10の場合よりも一層豊かな臨場感を享受することができる。なお、本変形例の音響処理装置は、サラウンド対応のオーディオ機器を所有しているユーザにとって特に利用価値が高い。一般に、ステレオ録音されたCDは多く出回っているが、サラウンド対応で録音されたCDは少ないという現実があるからである。すなわち、高価なサラウンド対応オーディオ機器を折角所有しながら、サラウンド対応の音楽ソフトの流通量が寡少であることによって、そのような高価な機器を十分に生かしきれていないユーザにとって、ステレオ録音CDを用いてサラウンドオーディオを聞くことができるのは願ってもない福音だからである。
【0112】
なお、音響空間が、例えば音楽スタジオのような空間の場合には、残響時間が比較的短いので、そこで得られたリバーブデータRDi については3秒程度のたたみ込みで十分である。このような短い残響音の空間においては、モノラル入力に対してたたみ込み処理を行うよりも、ステレオ入力に対してたたみ込み処理を行うようにした方が、特に前方での定位がはっきりする。すなわち、ユーザの前方位置にはっきりした音像ができる。3秒のたたみ込み処理は6秒のたたみ込み処理に比べて半分の時間で行うことができるので、少なくとも前方についてはステレオ入力/ステレオ出力とするのが好ましい。
【0113】
さらに、バーチャルサウンド処理をすれば、2本のスピーカのみを用いて出力した場合や、ヘッドホーンを用いた場合でも、リアルな響きに包まれるような臨場感のある効果を期待することができる。
【0114】
《第2の実施の形態》
次に、本発明の第2の実施の形態に係る音響処理装置について説明する。
【0115】
上記第1の実施の形態において説明したように、リバーブモジュールREVのたたみ込み処理部51L1(図5)では、バッファ処理ブロック61(図6)において、必要な残響時間に対応する分の入力オーディオデータLinを、一旦メモリ(図2のRAM12)に所定量蓄積したのちに読み出して、この読み出したデータにたたみ込み処理を行うようになっているため、効果音データ(ウェット音)WLには所定の時間遅延τが生ずる。そこで、この効果音データ(ウェット音)WLの遅延量に相当する時間を、遅延処理部52L(図5)によって原音(ドライ音)データDLにも与え、効果音とドライ音との間のマッチング(曲ずれ防止)を図っている。したがって、第1の実施の形態においては、ユーザが楽曲再生開始の操作を行ってから最初の音が出力されるまでに比較的長い時間(例えば数秒)がかかり、ユーザにとっては曲頭の無音期間が異常に長く感じられる結果、視聴時の快適さが損われる。
【0116】
本実施の形態は、この点に改善を加えたもので、曲頭の長い無音期間をなくすように構成したものである。以下、図12〜図14を参照して、本実施の形態を詳細に説明する。
【0117】
図12は、本実施の形態の音響処理装置におけるリバーブモジュールREV−Cの構成を表すもので、上記第1の実施の形態のリバーブモジュールREV(図5)に代わるものである。
【0118】
このリバーブモジュールREV−Cは、上記第1の実施の形態のリバーブモジュールREV(図5)から遅延処理部52L,52Rを除いた構成となっている。したがって、入力オーディオデータLinは、遅延されることなく、Lチャンネルの原音データである入力オーディオデータLin(T0)として加算部54L2に入力され、入力オーディオデータRinは、遅延されることなく、Rチャンネルの原音データである入力オーディオデータRin(T0)として加算部54R2に入力されるようになっている。
【0119】
本実施の形態の音響処理装置では、入力オーディオデータLin,Rinは、音楽CD16AからリバーブモジュールREV−Cに直接入力されるのではなく、一旦、「記録再生手段」としてのHDD14に書き込まれたのちに、所定のタイミングで読み出され、リバーブモジュールREV−Cに供給されるようになっている。なお、上記した「所定のタイミング」については後述する。
【0120】
本実施の形態に係る音響処理装置における上記以外の構成は、第1の実施の形態の場合(図1〜図4,図6)と同様である。また、処理の概要については、音楽CD16AとリバーブモジュールREV−Cとの間にHDD14(図2)が配置されている点、および、リバーブモジュールREV−Cに入力オーディオデータLin,Rinが供給されるタイミング(後述)が異なる点を除き、上記第1の実施の形態(図3)と同様である。
【0121】
次に、本実施の形態の音響処理装置の動作を説明する。
【0122】
図13は、ユーザU(図1)が音響処理装置1を用いて音響処理を行う場合の操作を含めた全体の流れを表し、図14は、リバーブモジュールREV−C(図3,図12参照)における音響処理のタイミングを表すものである。なお、図13に示した処理のうち、ステップS201〜S205については、第1の実施の形態の場合(図7)と同様であるので、説明を省略する。
【0123】
図13のステップS205において、画像再生モジュールREP(図3)は、リンク制御モジュールLCからの指示に基づいて画像再生を開始するが、これと同時に、リバーブモジュールREVは、リンク制御モジュールLCからの指示に基づいて、選択された楽曲についての原音(ドライ音)再生とリバーブ処理とを同時に開始する(ステップS206)。
【0124】
具体的には、図12に示したように、まず、音楽CD16Aからオーディオデータ7Aを入力オーディオデータLin,RinとしてHDD14に一旦書き込んだのち、Lチャンネルの入力オーディオデータLinを2つの互いに異なるタイミング(図14の時刻T0,T1)で読み出すと共に、Rチャンネルの入力オーディオデータRinを2つの互いに異なるタイミング(時刻T0,T1)で読み出し、これらの4つのデータをリバーブモジュールREV−Cに入力する。より具体的には、タイミングT0において、曲頭から入力オーディオデータLin,Rinを読み出し、これらをそれぞれ入力オーディオデータLin(T0),Rin(T0)として、加算部54L2,54R2(図12)に入力する。一方、タイミングT1では、曲頭から時間τだけ進んだ位置から入力オーディオデータLin,Rinを読み出し、この読み出した入力オーディオデータLin(T1)をたたみ込み処理部51L1,51L2に入力し、読み出した入力オーディオデータRin(T1)をたたみ込み処理部51R1,51R2に入力する。
【0125】
ここで、T0,T1は、T1−T0=τを満たすように設定される。なお、τは、図8におけるτと同じものであり、たたみ込み処理部51L1において生ずる遅延時間である。
【0126】
時刻T0からT1までの期間τにおいては、たたみ込み処理部51L1等から加算部54L2,54R2への入力はないので、その間、原音である入力オーディオデータLin(T0),Rin(T0)がそのまま出力される。
【0127】
一方、たたみ込み処理部51L1,51L2およびたたみ込み処理部51R1,51R2は、時刻T0において、入力オーディオデータLin(T1),Rin (T1)に対して、その曲頭より時間τだけ進んだ位置から、リバーブデータRDi によるたたみ込み処理を開始する。そして、この開始時点から所定の時間τが経過した時刻T1において、効果音(ウェット音)の出力を開始する。これ以降、原音(ドライ音)に効果音(ウェット音)が重畳した音響処理音が出力される(ステップS207)。
【0128】
このようにして、時刻T0からT1までの期間は原音がそのまま出力され、時刻T1以降は、原音に効果音が重畳された音響処理音が出力される。これらの原音および音響処理音は、各チャンネルごとにオーディオアンプ4A,4B(図1)によって増幅されたのち、スピーカ2A,2B(図1,図3)から出力され、ユーザUによって聴取される。
【0129】
次に、図14を参照して、図12に示したリバーブモジュールREV−Cにおけるデータ処理のタイミングを説明する。この図の(A)は、リバーブモジュールREV−Cに原音(ドライ音=入力オーディオデータLin(T0), Rin(T0))が入力されるタイミングを表す。(B)は、リバーブモジュールREV−Cのたたみ込み処理部51L1,51L2,51R1,51R2におけるたたみ込み処理のタイミングを表し、(C)は、たたみ込み処理部51L1,51L2,51R1,51R2の出力タイミングを表す。(D)は、加算部53L2,53R2の出力タイミング、すなわち、リバーブモジュールREV−Cから最終的に音響処理音(ドライ音+ウェット音)が出力されるタイミングを表す。なお、図14では、図8と同様に、加算部53L1,53R1,53L2,53R2、および乗算部54L1,54L2,54R1,54R2における演算時間を無視して描いている。
【0130】
図14に示したように、本実施の形態では、時刻T0において、原音の曲頭より時間τだけ進んだ位置からたたみ込み処理部51L1等によってたたみ込み処理が開始される(図14(A))と同時に、原音の出力が開始される(同図(B))。たたみ込み処理部は、時刻T0より時間τだけ遅れた時刻T1に効果音の出力を開始する(同図(C))。これ以降、原音に効果音が重畳した音響処理音が出力される(同図(D))。
【0131】
このように、本実施の形態によれば、リバーブ処理が開始した直後から時間τが経過するまでは原音をそのまま出力し、時間τの経過後以降はドライ音とウェット音とが重畳された音響処理音を出力するようにしたので、上記第1の実施の形態の場合(図8)とは異なり、曲頭からτの時間にわたって無音期間が続くということがない。すなわち、ユーザが再生操作をした直後から楽曲の再生が開始されるので、ユーザにとってあまり違和感がなく、視聴時の快適さが損われることがない。
【0132】
なお、本実施の形態では、音楽CD16Aからの出力タイミングと、リバーブモジュールREV−Cへの入力タイミングとの間の調整を行うための手段としてHDD14を利用するようにしたが、これに代えて、例えば図15に示したように、バッファメモリ12Aを利用してタイミング調整を行うようにしてもよい。この場合、バッファメモリ12Aは、例えば、RAM12の一部を利用して構成することができる。
【0133】
《第3の実施の形態》
上記第1および第2の実施の形態では、収録済の音響データ(原音)に、実在の音楽ホール等の音響空間について予め得られているインパルス応答データ(リバーブデータ)を適用したリバーブ処理を行うことにより、その音があたかもその実在の音響空間で収録されたものであるかのような仮想現実的印象を聴き手 (ユーザ)に与えることができるようにしている。
【0134】
しかしながら、ユーザの視聴環境、すなわち、ユーザが実際に音楽を鑑賞する音響空間(例えば、ユーザ宅のオーディオルーム等。以下、ユーザ音響空間という。)は多様であり、音響効果を考慮して作られた広くて本格的なオーディオルームで音楽を楽しむユーザもいれば、ごく狭いリビングルームで音楽を鑑賞するユーザもいる。したがって、折角、仮想現実的な音響処理を施して音響を再生しているにもかかわらず、その効果が十分に発揮されない場合もあり得る。この場合、ユーザは、その実在の音響空間に実際に行って音響を聴いているかのように感じる仮想体験を十分にすることができない。
【0135】
本実施の形態は、この点に改善を加えたもので、収録済の音響データ(原音)を再生する際に、実在の音楽ホール等の音響空間について予め得られているインパルス応答データを用いたリバーブ処理(以下、第1のリバーブ処理という。)に加えて、ユーザ音響空間について予め得られているインパルス応答データを用いたリバーブ処理(以下、第2のリバーブ処理という。)をも行うことにより、ユーザ音響空間の音響特性をも加味した、より忠実な音響再生を可能にしたものである。以下、図16および図17を参照して、本実施の形態を詳細に説明する。なお、本実施の形態に係る音響処理装置のハードウェア構成は図2に示したものと同様であり、また、この音響処理装置が図1に示したAVシステムに適用される点もまた同様である。
【0136】
図16は、本発明の第3の実施の形態に係る音響処理装置のリバーブモジュールREV−D(図3,図5)におけるたたみ込み処理部151L1の構成を表すもので、上記第1の実施の形態のたたみ込み処理部51L1(図6)に代わるものである。なお、図16において、図6に示した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。
【0137】
このたたみ込み処理部151L1は、図6に示したたたみ込み処理部51L1を構成する各要素に加えて、ユーザリバーブデータRDUが入力されるバッファ処理ブロック68と、バッファ処理ブロック68の出力が供給されるFFT処理ブロック69と、乗算ブロック65の出力とFFT処理ブロック69の出力とが供給される乗算ブロック70とを備えている。乗算ブロック70の出力は、IFFT処理ブロック66に供給されるようになっている。ユーザリバーブデータRDUは、ユーザ音響空間の音響特性を表すインパルス応答データであり、上記した第2のリバーブ処理に用いられる。このユーザリバーブデータRDUは、後述するリバーブデータ収集装置(図17)を用いて各ユーザによって予め収集され、例えばHDD14に格納される。ここで、ユーザリバーブデータRDUが本発明における「第2のインパルス応答データ」の一具体例に対応する。
【0138】
バッファ処理ブロック68およびFFT処理ブロック69の各機能は、バッファ処理ブロック63およびFFT処理ブロック64の各機能と同様である。すなわち、バッファ処理ブロック68は、HDD14(図2)からユーザリバーブデータRDUを読み出し、これをメモリ(図2;RAM12)に所定量蓄積したのち出力する処理を行う。FFT処理ブロック69は、バッファ処理ブロック68から出力された時間軸上のオーディオデータを高速フーリエ変換によって周波数軸上のデータに変換する処理を行う。バッファ処理ブロック68によってメモリに蓄積されるデータ量は、リバーブ時間調整データ56によって設定可能になっている。
【0139】
なお、リバーブモジュールREV−DにおけるLチャンネル用の他のたたみ込み処理部は、たたみ込み処理部151L1と同様のブロック構造および機能を有する。また、Rチャンネル用の2つのたたみ込み処理部は、入力がRチャンネルの入力オーディオデータRinである点を除き、たたみ込み処理部151L1と同様のブロック構造および機能を有する。但し、これらの4つのたたみ込み処理部151L1等で行われる処理は、実際には、CPU11(図2)によって時分割的に実行される処理である。
【0140】
本実施の形態に係る音響処理装置における上記以外の構成は、第1の実施の形態の場合(図1〜図4,図6)と同様である。
【0141】
次に、図16を参照して、たたみ込み処理部151L1における処理内容を詳細に説明する。なお、他のたたみ込み処理部151L2,151R1,151R2における処理も同様であるので、その説明を省略する。
【0142】
図16において、バッファ処理ブロック61、FFT処理ブロック62、バッファ処理ブロック63、FFT処理ブロック64および乗算ブロック65は、図6の場合と同様に、Lチャンネルの入力オーディオデータLinに対し、リバーブデータRDi を用いてたたみ込み処理を行い、その処理されたデータを乗算ブロック70に入力する。ここで、リバーブデータRDi が本発明における「第1のインパルス応答データ」の一具体例に対応する。
【0143】
一方、バッファ処理ブロック68は、ユーザリバーブデータRDUを一旦蓄積したのち、FFT処理ブロック69に供給する。その際、バッファ処理ブロック68は、蓄積するユーザリバーブデータRDUの量をリバーブ時間調整データ56に応じて決定する。この蓄積データ量は、遅延処理部52L(図5)での遅延時間τに対応したものである。FFT処理ブロック69は、バッファ処理ブロック68の出力に対して高速フーリエ変換を行うことにより、時間軸上のデータであるユーザリバーブデータRDUを周波数軸上のデータに変換し、乗算ブロック70に供給する。
【0144】
乗算ブロック70は、乗算ブロック65からの出力にFFT処理ブロック69からの出力を乗ずるたたみ込み演算を行い、その結果をIFFT処理ブロック66に供給する。このとき、乗算ブロック70は、互いに周波数成分が一致するデータ同士で乗算を行う。
【0145】
IFFT処理ブロック66は、乗算ブロック70の出力に対して逆高速フーリエ変換を行うことにより、周波数軸上のデータであるたたみ込み演算の結果を時間軸上のデータに戻して出力する。こうして、Lチャンネル用の加算部53L1(図5)に供給されるべきデータが生成される。
【0146】
それ以降のリバーブモジュールREV−Dにおける処理は、上記第1の実施の形態のリバーブモジュールREVにおけるものと同様であり、最終的に、Lチャンネルの出力オーディオデータLout とRチャンネルの出力オーディオデータRout が出力される。これらの出力オーディオデータLout ,Rout は、実在の音響空間についてのインパルス応答データを用いて原音に対するたたみ込み処理を行って得られたデータに対して、さらに、ユーザ音響空間についてのインパルス応答データをたたみ込んで得られたデータであるので、これらの出力オーディオデータLout ,Rout に基づく音響(楽曲等)が実際にそのユーザ音響空間で再生出力された際には、そのユーザ音響空間がもつ特有の音響特性が相殺される。その結果、そこでの響きは、実在の音響空間で演奏されたときに得られる響きに、より一層近づき、ユーザは、よりリアルな臨場感を得ることができる。
【0147】
次に、第2のリバーブ処理で用いられるユーザリバーブデータRDU(インパルス応答データ)を収集する方法について説明する。
【0148】
図17は、ユーザリバーブデータRDUを収集するためのリバーブデータ収集装置の概略構成を表すものである。この装置は、ユーザが実際に音楽を鑑賞するユーザ音響空間45(例えば、ユーザ宅のオーディオルーム等)において得られる残響音をインパルス応答として測定し、収集するためのもので、例えばパーソナルコンピュータを利用して構成される。
【0149】
このリバーブデータ収集装置30は、インパルス応答測定用の信号を発生する機能と、測定対象のユーザ音響空間45から得られた測定結果を収集して測定結果をインパルス応答データに変換する機能とを備えている。測定対象のユーザ音響空間45には、音源40と、1対の音響検出部41L,41Rとを配置する。音源40は、例えば、球面上の互いに異なる12方向にスピーカが設けられた12面体スピーカにより構成されており、リバーブデータ収集装置30から供給されたインパルス応答測定用の信号に応じた音響を発生するようになっている。音響検出部41L,41Rは、それぞれ、LおよびRチャンネル用のマイクロフォンで構成されており、音源40から発せられた音響に応じてそれぞれ検出したLおよびRチャンネルのオーディオ信号をリバーブデータ収集装置30に供給するようになっている。
【0150】
リバーブデータ収集装置30は、測定用信号発生ブロック31と、D/A(ディジタル/アナログ)変換ブロック32と、増幅ブロック33と、A/D(アナログ/ディジタル)変換ブロック部34と、同期加算ブロック35と、インパルス応答変換部36とを備えている。
【0151】
測定用信号発生ブロック31は、インパルス応答測定用の信号であるTSP(タイムストレッチパルス)信号を発生するためのものである。このTSP信号は、スイープ信号の一種であり、それ自身を逆特性の信号で除することによりインパルス信号が得られる。インパルス応答を測定するためには、直接的にインパルス信号を発生させるのがより好ましいが、測定が困難であるため、このような間接的な方法を用いる。なお、TSP信号の発生は、後述するようにN回行われる。測定用信号発生ブロック31から出力されたTSP信号は、D/A変換ブロック32および増幅ブロック33を介して音源40に供給されるようになっている。
【0152】
同期加算ブロック35は、N回分のTSP信号に対応して音響検出部41L,41Rから出力された信号を同期加算するためのものである。同期加算は、例えばTSP信号の発生タイミングに基づき出力信号を揃えるようにして行われるようになっている。
【0153】
インパルス応答変換ブロック36は、同期加算ブロック35から供給されたデータを、TSP信号の逆特性を有するデータで除することにより、インパルス応答データ(ユーザリバーブデータRDU)に変換するためのものである。
【0154】
次に、このリバーブデータ収集装置30の動作を説明する。
【0155】
測定用信号発生ブロック31から出力されたTSP信号37Aは、D/A変換ブロック32によりアナログ信号に変換され、増幅ブロック33で増幅されたのち、音源40に供給される。これにより、音源40からは、TSP信号37Aに対応した音響が出力される。音響検出部41L,41Rは、音源40から出力された再生音響に応じたLおよびRチャンネルのオーディオ信号37BL,37BRを出力し、リバーブデータ収集装置30に入力供給する。
【0156】
リバーブデータ収集装置30に入力されたLおよびRチャンネルのオーディオ信号37BL,37BRは、A/D変換ブロック34で所定のサンプリング周波数(例えば、48kHzあるいは96kHz)および量子化ビット数(例えば、24ビット)でサンプリングされ、LおよびRチャンネルのディジタルオーディオデータ37CL,37CRとなる。なお、一般に、残響時間は、音が止まってから音圧レベルが60dB減衰するまでの時間を意味するが、本実施の形態では、量子化ビット数(24ビット)の各ビットに対して6dBが割り当てられる。
【0157】
A/D変換ブロック34から出力されたディジタルオーディオデータ37CL,37CRは、同期加算ブロック35に入力される。同期加算ブロック35は、入力されたディジタルオーディオデータ37CL,37CRの各々について、TSP信号37Aの発生回数(N回)と同数回にわたってそれぞれ同期加算を行う。同期加算は、例えばTSP信号37Aの発生タイミングに基づいて加算対象データ(ディジタルオーディオデータ37CL,37CR)を揃えるようにして行われる。このように、N回分のオーディオデータの同期加算を行うことにより、再現性のある信号のみが加算され、ランダムなノイズ成分は加算されないため、S/N比が向上する。
【0158】
同期加算ブロック35から出力されたLおよびRチャンネルの同期加算データ37DL,37DRは、インパルス応答変換ブロック36に供給される。インパルス応答変換ブロック36では、供給された同期加算データ37DL,37DRを、それぞれ、TSP信号37Aの逆特性を有する信号データで除する演算を行う。これにより、「TSP信号37Aを予めインパルス信号に変換し、このインパルス信号を音源40に供給し、音源40で発生した残響音を収集し、この残響音に基づいてインパルス応答を得た」場合と同等の結果(インパルス応答データ38L,38R)が得られる。このインパルス応答データ38L,38Rは、サンプリング周波数に対応した間隔で得られる波高値である。
【0159】
インパルス応答変換ブロック36から出力されたLおよびRチャンネルのインパルス応答データ38L,38Rは、HDD14や図示しないMOディスク等の記録媒体に記録され、上記したユーザリバーブデータRDU(図16)として利用される。
【0160】
なお、以上のようなユーザリバーブデータの収集は、音源40の位置を様々に変えたり、音源40であるスピーカの種類等を様々に変えて行うようにしてもよい。同様に、音響検出部41L,41Rであるマイクロフォンについても、その配設位置や種類等を様々に変えて収集するようにしてもよい。この場合には、1つのユーザ音響空間45について複数のユーザリバーブデータが収集されることになる。ユーザは、音響を再生させる際のバリエーションとして、これらの複数のユーザリバーブデータの中から任意の一つを選択することができる。
【0161】
また、リバーブデータ収集装置30により得られたインパルス応答データは、必要に応じて適宜加工することができる。通常、オーディオデータには、音の伝搬によるシステムディレイ部分が存在するが、後からの加工処理により、このシステムディレイ部分の値を“0”に固定することにより、この部分のノイズを除去することが可能である。また、データの後半については、データの終端を“0”に収束させるためのフェードアウト処理を施すことで後半の微小レベル信号部分のノイズを除去するようにしてもよい。
【0162】
以上説明したように、本実施の形態によれば、収録済の音響データ(原音)を再生する際に、実在の音楽ホール等の音響空間について予め得られているインパルス応答データを用いた第1のリバーブ処理に加えて、ユーザ音響空間45について予め得られているインパルス応答データを用いた第2のリバーブ処理をも行うようにしたので、ユーザ音響空間45の音響特性をも加味した音響再生を行うことができる。したがって、ユーザの視聴環境に応じた音響再生が可能となり、上記第1の実施の形態の場合に比べて、忠実性(すなわち、実際に音楽ホール等に赴いて聴取しているかのように感ずるリアリティの度合い)が向上する。
【0163】
以上、いくつかの実施の形態および変形例を挙げて本発明の音響処理装置について説明したが、本発明はこれらの実施の形態等に限定されず、種々の変形が可能である。例えば、上記の各実施の形態では、インパルス応答データのたたみ込みをソフトウェアによって行うようにしたが、ハードウェアを用いるようにしてもよい。すなわち、図3に示したアプリケーションプログラム14Pの機能のうち、リバーブモジュールREVの機能のすべてまたは一部をハードウェアに置き換えるようにしてもよい。さらに、アプリケーションプログラム14Pの機能のうち、画像再生モジュールREPの機能のすべてまたは一部をハードウェアに置き換えることも可能である。
【0164】
また、上記各実施の形態では、4つのスピーカ2A〜2Dを用いて再生するようにしたが、もう1つのスピーカを前方の2つのスピーカ2A,2Bの間に追加して、5スピーカシステムにしてもよい。これにより、臨場感をさらに高めることができる。
【0165】
[音響処理用データの配信方法]
次に、本発明の一実施の形態に係る音響処理用データの配信方法について説明する。この配信方法は、例えば上記各実施の形態の音響処理装置において利用される音響処理用データである処理用コンテンツデータ8C(図1,図2)を、インターネットを介してユーザに配信して利用に供するための方法である。以下、この配信方法について、これを適用して構築されるビジネスモデルと共に説明する。
【0166】
図18は本実施の形態に係る音響処理用データの配信方法が適用されるネットワークシステムの要部を表すものである。このシステムは、コンテンツ配信事業者100が運用するサーバシステム101と、ユーザ200が保有するユーザシステム201と、コンテンツ提供者300が運用するコンテンツ提供システム301と、これらの各システムに接続された広域通信網としてのインターネット400とを含んで構成されている。サーバシステム101、ユーザシステム201およびコンテンツ提供システム301は、例えば、一般的なパーソナルコンピュータやワークステーション等のコンピュータを用いて構成される。
【0167】
サーバシステム101は、第1に、様々な実在の音響空間について提供された処理用コンテンツデータ8Cを蓄積するコンテンツソース8(図1)としての機能を有する。より詳細には、サーバシステム101は、コンテンツ提供システム301からインターネット400を介して提供されたコンテンツ83を受信すると共に、受信したコンテンツ83に含まれるリバーブデータ、画像データおよび付帯データをリンクデータによって相互にリンクさせるデータ加工を行い、その加工結果を処理用コンテンツデータ8Cの形で蓄積するようになっている。なお、処理用コンテンツデータ8Cは、図1および図2に示したものと同じもので、リバーブデータ(インパルス応答データ)、画像データ、付帯データおよびリンクデータを含む。
【0168】
サーバシステム101は、第2の機能として、ユーザシステム201からの要求に応じて、その要求をしたユーザシステム201に処理用コンテンツデータ8Cをインターネット400を介して配信する配信機能を備え、さらに、第3の機能として、処理用コンテンツデータ8Cの配信に応じた料金をその配信先のユーザ200に課金する課金機能を備えている。サーバシステム101はさらに、第4の機能として、ユーザシステム201に対する処理用コンテンツデータ8Cの配信回数に応じた料金を、その処理用コンテンツデータ8Cを提供したコンテンツ提供者300に支払う支払機能を備えている。
【0169】
サーバシステム101は、上記した第1〜第4の機能を実現するために、後述するように、コンテンツデータベースDB1(図19)と、コンテンツ管理データベースDB2(図20)と、ユーザ管理データベースDB3(図21)とを備えている。
【0170】
ユーザシステム201は、例えば上記の図2に示した構成を有するもので、収録済の原音に対して実在の音響空間の響きに対応したリバーブデータをたたみ込む音響処理機能と、インターネット400を介してサーバシステム101と通信を行う通信機能とを備えている。その詳細な構成および機能は、上記各実施の形態において説明した通りである。
【0171】
コンテンツ提供システム301は、リバーブデータ、画像データおよび付帯データを含むコンテンツ83を少なくとも一時的に保有する保有機能と、保有するコンテンツ83をインターネット400を介してサーバシステム101に送信する通信機能とを備えている。
【0172】
次に、サーバシステム101における各データベースについて説明する。
【0173】
図19はコンテンツデータベースDB1の概略構造を表すものである。このデータベースは、コンテンツ提供者300等から提供されたコンテンツ83(リバーブデータ、画像データおよび付帯データ)を格納するもので、各コンテンツ83ごとに、コンテンツ番号が付されている。
【0174】
図20はコンテンツ管理データベースDB2の概略構造を表すものである。このデータベースは、コンテンツデータベースDB1に格納された各コンテンツ83のコンテンツ番号ごとに、コンテンツ提供者情報と、アップロード情報と、使用権確認フラグと、ダウンロード回数とが対応付けられて構成されている。
【0175】
コンテンツ提供者情報は、コンテンツ83を提供した者の氏名や銀行口座番号等を含む情報である。ここで、銀行口座番号は、後述するように、提供されたコンテンツ83の利用じきに応じた対価をその提供者に支払う際に必要となるものである。
【0176】
アップロード情報は、アップロードライセンスと、アップロード年月日とを含む。アップロードライセンスは、コンテンツ配信事業者100がコンテンツ提供者300からコンテンツ83の提供を受けるに際して、不特定の者からの悪意のアップロード(いわゆるハッキング)を防ぐために、予めコンテンツ配信事業者100からコンテンツ提供者300に発行する許可情報である。アップロード年月日は、コンテンツ配信事業者100がコンテンツ提供者300から実際にコンテンツ提供を受けたときの日付情報である。
【0177】
使用権確認フラグは、コンテンツ提供者300から提供されたコンテンツ83が正規のコンテンツ使用許諾を得たものであるか否かを示すフラグ情報であり、「確認済」または「未確認」のいずれかの状態をとる。具体的には、使用権確認フラグは、リバーブデータが得られた音響空間(音楽ホール等)の所有者や管理者等から、その音響空間の名前の使用、そのリバーブデータの使用、およびその音響空間に関わる画像データの使用を許可されていることを示すもので、これが「確認」状態になって初めて、そのコンテンツ83のダウンロードが可能となる。これにより、その音響空間に関わる権利の無断使用を防止することができる。
【0178】
ダウンロード回数は、ある特定のコンテンツ83がユーザ200によってどのくらい利用されたかを示すためのもので、実際にダウンロードされた回数を表す。
【0179】
図21はユーザ管理データベースDB3の概略構造を表すものである。このデータベースは、ユーザ識別番号ごとに、ユーザ情報と、利用ライセンス情報と、利用コンテンツ番号とが対応付けられて構成されている。
【0180】
ユーザ識別番号は、個々のユーザ200ごとに付された識別情報である。ユーザ情報は、ユーザの氏名やクレジットカード番号等を含む個人情報である。ここで、クレジットカード番号は、そのコンテンツ83の利用に対する対価についての課金処理に用いられる。
【0181】
利用ライセンス情報は、ユーザ200によってダウンロードされた鍵付きのコンテンツ83の鍵を外して利用可能な状態にするために用いられるもので、例えば、ユーザ200のクレジットカード番号とコンテンツの内容の一部とを用いて作成される。
【0182】
利用コンテンツ番号は、ユーザ200によってダウンロードされ利用可能になったコンテンツ83についてのコンテンツ番号を示す。
【0183】
次に、図22および図23を参照して、以上のような構成のネットワークシステムにおける処理内容を説明する。図22は、コンテンツ提供システム301とサーバシステム101との間で行われる処理、およびそれぞれにおける処理を表すものである。図23は、ユーザシステム201とサーバシステム101との間で行われる処理、およびそれぞれにおける処理を表すものである。
【0184】
まず、図18および図22を参照して、コンテンツ提供者300がコンテンツ提供システム301からサーバシステム101にコンテンツ83をアップロードして登録する場合の処理を説明する。
【0185】
コンテンツ提供者300のコンテンツ提供システム301には、予め取得したコンテンツ83が格納されているものとする。コンテンツ提供者300は、取得したコンテンツ83をコンテンツ配信事業者100に提供するに際し、まず、コンテンツ提供システム301からウェブ上のサーバシステム101にアクセスし、サーバシステム101からコンテンツ登録画面(図示せず)の送信を受ける(ステップS301)。次に、コンテンツ提供者300は、ウェブ上のコンテンツ登録画面(図示せず)から、自己の氏名や、コンテンツ提供の対価の振込を希望する銀行口座番号等の個人情報を含むアップロード申込情報81(図18)を入力し、送信する(ステップS302)。
【0186】
サーバシステム101は、コンテンツ提供システム301からアップロード申込情報81が送られてくると、そのコンテンツ提供者300のコンテンツ提供システム301に対し、コンテンツ83のアップロードを許可するアップロードライセンス情報82(図18)を送信する(ステップS303)。アップロードライセンス情報82は、例えば、コンテンツ提供者300がアップロード申込時に送信した個人情報(例えば、アップロード申込情報81のうちの口座番号等)を用いて生成するのが好ましい。ここで、アップロードライセンス情報82が本発明における「第2の認証情報」の一具体例に対応する。
【0187】
コンテンツ提供システム301は、サーバシステム101からアップロードライセンス情報82を受信する(ステップS304)。これにより、コンテンツ提供者300は、アップロードライセンス情報82を取得する。
【0188】
ここで、コンテンツ提供者300が、コンテンツ提供システム301からサーバシステム101に対してコンテンツ83のアップロードを要求すると、サーバシステム101は、コンテンツアップロード画面(図示せず)をコンテンツ提供システム301に送信する(ステップS305)。このコンテンツアップロード画面において、取得したアップロードライセンス情報82を入力すると(ステップS306)、コンテンツ提供システム301は、コンテンツアップロード可能状態に移行する(ステップS307)。これにより、コンテンツ提供者300は、コンテンツ83を送信することができる(ステップS308)。
【0189】
サーバシステム101は、コンテンツ83を受信し(ステップS309)、その受信したコンテンツ83に含まれるリバーブデータ、画像データおよび付帯データを相互にリンクさせるリンクデータを作成し、これらをひとまとまりのコンテンツデータとしてコンテンツ番号を付してコンテンツデータベースDB1(図19)に記録する。さらに、サーバシステム101は、コンテンツ提供者300に関わるコンテンツ提供者情報と、アップロードライセンスやアップロード年月日等を含むアップロード情報とをコンテンツ管理データベースDB2(図20)に記録する(ステップS310)。但し、この段階では、コンテンツ管理データベースDB2における、そのコンテンツに関する使用権確認フラグ(図20)は、まだ「未確認」となっている。
【0190】
次に、コンテンツ提供者300は、コンテンツ配信事業者100に対し、電子メールまたはファクシミリあるいは文書等を用いて、使用権の存在を示す使用権証明書を提供する。この証明書は、リバーブデータが得られた音響空間(音楽ホール等)の所有者や管理者等から、その音響空間の名前の使用、そのリバーブデータの使用、およびその音響空間に関わる画像データの使用を許可されていることを示すものである。
【0191】
コンテンツ配信事業者100は、コンテンツ提供者300から使用権証明書を受けると、サーバシステム101のコンテンツ管理データベースDB2における該当コンテンツ番号についての使用権確認フラグを「確認済」に変更する。これにより、コンテンツ提供に対する対価支払処理に必要なコンテンツ登録手続のすべてが完了し、これ以降、ユーザへのコンテンツ提供(ダウンロード)が可能となる。
【0192】
次に、図18および図23を参照して、ユーザシステム201がサーバシステム101からコンテンツをダウンロードして利用する場合の処理を説明する。なお、ユーザシステム201には、予め、音響処理用プログラム(図1および図2のリバーブアプリケーションプログラム14P)がインストールされているものとする。この音響処理用プログラムは、後述するロック解除情報を生成する機能を有するものとする。
【0193】
ユーザ200は、ユーザシステム201からサーバシステム101にアクセスし、サーバシステム101からコンテンツダウンロード画面の送信を受ける(ステップS401)。ユーザ200がコンテンツダウンロード画面において所望のコンテンツデータの番号を選択すると(ステップS402)、サーバシステム101は、コンテンツデータベースDB1から、その選択された番号の処理用コンテンツデータ8Cを読み出し、ユーザシステム201に送信する(ステップS403)。
【0194】
ユーザ200は、サーバシステム101からユーザシステム201にダウンロードされたコンテンツデータを用いて所定の期間または回数だけ試視聴を行うこと(すなわち、例えば自分の持っている楽曲に、ダウンロードしたコンテンツデータを適用することにより、音響効果と画像を確認すること)ができる(ステップS404)。なお、この試視聴機能は、予めアプリケーションプログラム14Pが備えている機能である。
【0195】
ユーザ200は、そのダウンロードしたコンテンツデータの購入を希望するときは(ステップS405;Y)、購入申込画面を開いて自己の氏名、クレジットカード番号および購入を希望するコンテンツのコンテンツ番号等を含む購入申込情報84(図18)を入力し、これをサーバシステム101に送信する(ステップS406)。
【0196】
サーバシステム101は、ユーザシステム201から購入申込情報84が送られてくると、この購入申込情報84を基に利用ライセンス情報85(図18)を生成し、これをユーザシステム201に送信する(ステップS407)。利用ライセンス情報85の生成は、例えば、購入申込情報84から抽出したクレジットカード番号と、購入対象コンテンツデータの中のリバーブデータの一部(例えば、先頭よりmバイト目からnバイト目までのデータ(m,nは整数))とを用いて行うのが好ましい。ここで、利用ライセンス情報85が本発明における「第1の認証情報」の一具体例に対応する。クレジットカード番号が本発明における 「ユーザ個人情報」の一具体例に対応し、購入対象コンテンツデータ中のリバーブデータの一部が本発明における「データ固有情報」の一具体例に対応する。
【0197】
利用ライセンス情報85の生成にクレジットカード番号を用いるようにしている理由は次の通りである。すなわち、一般に、ユーザにとってクレジットカード番号は非常に重要な情報であり、これを気軽に他人に教えることは殆ど考えられない。したがって、後述するように、このクレジットカード番号を入力しない限り、ダウンロードしたコンテンツの利用ができないようにしておけば、第3者による無断コピーによるコンテンツの使用を排除することができるのである。
【0198】
また、利用ライセンス情報85の生成に購入対象コンテンツデータ中のリバーブデータの一部を用いるようにしているのは、あるコンテンツについてのみ利用ライセンスを受けたユーザが、試視聴のためにダウンロードした他のコンテンツを自由に利用することを不可能にするためである。
【0199】
サーバシステム101はさらに、購入申込情報84から抽出したユーザの氏名、クレジットカード番号および購入対象コンテンツのコンテンツ番号、ならびに、これらから生成した利用ライセンス情報85をユーザ管理データベースDB3(図21)に登録する(ステップS408)と共に、コンテンツ管理データベースDB2の利用回数を1つカウントアップする。これにより、ユーザ200によるコンテンツ利用に対する課金処理に必要なユーザ登録処理が完了すると共に、コンテンツ提供の対価に関するコンテンツ提供者300への支払いに必要なデータエントリ処理が完了する。
【0200】
ユーザシステム201は、サーバシステム101から送られてきた利用ライセンス情報85を受信すると(ステップS409)、この利用ライセンス情報85をメモリ(例えば図2のRAM12)に記憶する。これにより、ユーザ200による処理用コンテンツデータ8Cの購入処理が完了する。
【0201】
ここで、ユーザ200が、ユーザシステム201においてリバーブアプリケーションプログラム14Pを起動し、利用するコンテンツ83の番号を指定した上で、キー番号としてクレジットカード番号を入力する(ステップS410;Y)。すると、リバーブアプリケーションプログラム14Pは、その入力されたキー番号(クレジットカード番号)と、その指定されたコンテンツ83の中のリバーブデータの一部とに基づいて、ロック解除情報を生成し、これを、既にサーバシステム101から取得し記憶している利用ライセンス情報85と照合する(ステップS411)。この結果、両者が一致したときは(ステップS412;Y)、リバーブアプリケーションプログラム14Pが楽曲再生可能状態へと移行する(ステップS413)。一方、一致しないときは、処理用コンテンツデータ8Cを用いた楽曲再生は禁止され、「キー番号または指定したコンテンツ番号が違っています」等のメッセージが表示される。なお、キー番号としてのクレジットカード番号が入力されたのち、これを暗号化しておけば、簡単にクレジットカード番号を盗まれるおそれがないので、ユーザ200にとっては安心である。
【0202】
このようにして、サーバシステム101は、ユーザ200が処理用コンテンツデータ8Cを購入するごとに、ユーザ管理データベースDB3へのユーザ登録(課金処理)を行う。コンテンツ配信事業者100は、購入処理が行われる都度、あるいは定期的にユーザ管理データベースDB3を参照して、購入したユーザ200に対して料金請求手続きを行うことにより、コンテンツ利用に対する対価の支払いをユーザ200から受けることとなる。なお、サーバシステム101に請求処理用のソフトウェアをインストールしておき、ユーザ200に対する請求処理を自動的に行うようにすることも可能である。
【0203】
また、サーバシステム101は、処理用コンテンツデータ8Cが利用(購入)されるごとに、コンテンツ管理データベースDB2の利用回数をカウントアップする。コンテンツ配信事業者100は、例えば一定期間(例えば1カ月)ごとに利用回数をチェックし、その利用回数に応じた対価の支払いをコンテンツ提供者300に対して行うこととなる。なお、サーバシステム101に支払い処理用のソフトウェアをインストールしておき、コンテンツ提供者300に対する対価の支払い処理を自動的に行うようにすることも可能である。
【0204】
以上のように、本実施の形態に係る音響処理用データの配信方法によれば、インターネットを通じて、世界中から広く、リバーブデータや画像データ等を含むコンテンツを収集することを容易に実現することができる。また、世界中のユーザに対して様々なコンテンツを提供することを容易に実現することができる。このため、ユーザは自宅に居ながらにして、世界中の著名な音楽ホール等へ実際に行って音楽を聴いているかのような仮想体験を得ることが可能になる。
【0205】
また、コンテンツ配信事業者にとっては、多くのユーザにコンテンツを配信することにより、配信回数に応じた利益を得ることができる。この場合、コンテンツの種類や内容等に応じて配信料金の額を適宜設定することが可能である。また、サーバシステム101を用いて、コンテンツの収集と配信とを自動的に管理するようにしたことにより、これらの一連の複雑な処理を自動的に行うことができ、極めて効率よくコンテンツ配信事業を運営することができる。
【0206】
さらに、コンテンツ提供者にとっては、貴重なあるいは人気のあるコンテンツを探して、これをコンテンツ配信事業者に提供することにより、ユーザによる購入の回数(利用回数)に応じた利益を得ることができる。
【0207】
また、コンテンツ提供者からコンテンツ配信事業者にコンテンツを提供するに際して、アップロードライセンス情報の入力を要求するようにしたので、不特定の者からの悪意のアップロード(いわゆるハッキング)を防ぐことができる。
【0208】
以上、実施の形態を挙げて本発明に係る音響処理用データの配信方法を説明したが、本発明はこの実施の形態に限定されず、以下に列挙するように、種々の変形が可能である。
【0209】
上記実施の形態では、配信する対象の音響処理用データが、リバーブデータのほかに、画像データおよび付帯データ、ならびにこれらをリンクさせるためのリンクデータを含むものとして説明したが、これには限定されない。例えば、画像データを含まずに、リバーブデータ、付帯データおよびリンクデータからなるようにしてもよい。あるいは、リバーブデータだけを含むようにしてもよい。
【0210】
上記実施の形態では、利用ライセンス情報およびこれと照合されるロック解除情報を生成する際に、クレジットカード番号のほかに、リバーブデータの一部を用いるようにしたが、これには限定されない。リバーブデータ、画像データおよび付帯データのうちの少なくとも1つを用いて生成するようにしてもよい。その際の各データの用い方については、単にそれぞれのデータの一部を抽出してそのまま用いるのではなく、各データに基づいて所定の演算を行って得られる演算結果データを用いるようにしてもよい。
【0211】
コンテンツデータをダウンロードして利用するユーザは、一般家庭の個人であってもよいが、カラオケハウスやゲームセンター等の娯楽施設に来店したユーザであってもよい。この場合には、これらの娯楽施設に来店した客からのオプション料金の支払いを条件として、その客がコンテンツをダウンロードして利用できるようにすればよい。
【0212】
コンテンツ配信事業者100が運営するサーバシステム101は、リバーブデータおよび画像データ等を主とするコンテンツデータを配信するための専門サイトであってもよいが、一般的な音楽配信サイトであってもよい。この場合には、例えば、配信楽曲を選択するためのウェブ画面上に音響効果体験ボタンを設けて、これをクリックするだけでリバーブ効果を体験できるようにしておき、この画面から購入もできるようにすればよい。
【0213】
【発明の効果】
以上説明したように、請求項1ないし請求項7のいずれかに記載の音響処理装置によれば、原音に実在する音響空間の響きに対応したインパルス応答データをたたみ込むことにより生成した効果音を原音に重畳して音響処理音を生成し、この音響処理音を画像再生手段からの再生画像の出力に合わせて出力するようにしたので、聴き手は、実際にその音響空間で音響を聴いているかのような音響的な臨場感と視覚的な臨場感とを得ることができる。
また、原音にインパルス応答データをたたみ込む際に生じた遅延時間を差し引いた箇所(遅延分をオフセットした位置)から原音に対するたたみ込み処理を開始し、音響処理開始が指示された時点から遅延時間の経過時点までの間は原音をそのまま外部に出力する一方、遅延時間の経過時点以降は原音と効果音とを重畳させて生成した音響処理音を出力するようにしたので、聴き手は、遅延時間に相当する当初の期間は原音を、その後は音響処理音を聴くことになる。このため、たたみ込み処理による遅延に起因する再生開始直後の無音期間がなくなり、聴き手が違和感を覚えたりイライラすることがない。
【0214】
特に、請求項2に記載の音響処理装置によれば、少なくともたたみ込み手段をソフトウェアにより構成するようにしたので、特別なハードウェア機器を用いなくても、音響処理を行うことができる。例えば一般家庭に広く普及しているパーソナルコンピュータにソフトウェアをインストールするだけで、臨場感溢れる仮想視聴体験を手軽に楽しむことができる。
【0215】
また、特に、請求項3に記載の音響処理装置によれば、画像再生手段からの再生画像が実在する音響空間と関連したものであるようにしたので、聴き手は、今聴いている音の響きに重ねてその音響空間の情景をイメージとして描きながら音楽を聞くこともできる。このため、聴き手は、あたかも、実際にその音響空間に身を置いてその音響空間を見ながらその曲を聞いているかのように感じられるという疑似的視聴体験を実現することができる。
【0216】
また、特に、請求項4に記載の音響処理装置によれば、さらに、生成された音響処理音と画像再生手段からの再生画像とを着脱可能記録媒体に記録する記録手段を備えるようにしたので、一旦作成した画像付き音響処理音のうち、気に入ったものを保存しておくことができる。さらには、お気に入りの画像付き音響処理音を集めた疑似的視聴体験ライブラリを手軽に作成することも可能である。
【0218】
また、請求項7に記載の音響処理装置によれば、実在する第1の音響空間の響きに対応して得られた第1のインパルス応答データのみならず、音響処理が施された音の再生出力が行われる予定の実在する第2の音響空間の響きに対応して得られた第2のインパルス応答データをも原音にたたみ込むことにより効果音を生成し、この効果音を原音に重畳して音響処理音を生成するようにしたので、収録空間としての第1の音響空間のみならず、再生空間としての第2の音響空間の音響特性をも加味した音響処理が行われる。このため、視聴する空間の良し悪しに左右されることなく、ほぼ一定の安定した音響特性を保った臨場感を聴き手に与えることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る音響処理装置を用いて構成したオーディオビジュアルシステムの概略構成を表すブロック図である。
【図2】図1における音響処理装置のハードウェア構成の概略を表すブロック図である。
【図3】図1における音響処理装置の機能構成の要部を表すブロック図である。
【図4】図3におけるリンクファイルの一例を表す図である。
【図5】図3におけるリバーブモジュールの機能構造を表すブロック図である。
【図6】図5におけるたたみ込み処理部の機能構造を表すブロック図である。
【図7】本発明の第1の実施の形態に係る音響処理装置を用いて音響処理を行う場合のユーザ操作を含めた全体の流れを表す流れ図である。
【図8】図5に示したリバーブモジュールにおける音響処理のタイミングを表すタイミング図である。
【図9】インパルス応答データの一例を表す図である。
【図10】本発明の第1の実施の形態の一変形例に係る音響処理装置におけるリバーブモジュールの機能構造を表すブロック図である。
【図11】本発明の第1の実施の形態の他の変形例に係る音響処理装置におけるリバーブモジュールの機能構造を表すブロック図である。
【図12】本発明の第2の実施の形態に係る音響処理装置におけるリバーブモジュールの機能構造を表すブロック図である。
【図13】本発明の第2の実施の形態に係る音響処理装置を用いて音響処理を行う場合のユーザ操作を含めた全体の流れを表す流れ図である。
【図14】図12のリバーブモジュールにおける音響処理のタイミングを表すタイミング図である。
【図15】本発明の第2の実施の形態の一変形例に係る音響処理装置におけるリバーブモジュールの機能構造を表すブロック図である。
【図16】本発明の第3の実施の形態に係る音響処理装置におけるリバーブモジュールの機能構造を表すブロック図である。
【図17】ユーザリバーブデータを収集するためのリバーブデータ収集装置の概略構成を表すブロック図である。
【図18】本発明の一実施の形態に係る音響処理用データの配信方法が適用されるネットワークシステムの要部を表すシステム構成図である。
【図19】図18におけるサーバシステムに設けられたコンテンツデータベースの一例を表す図である。
【図20】図18におけるサーバシステムに設けられたコンテンツ管理データベースの一例を表す図である。
【図21】図18におけるサーバシステムに設けられたユーザ管理データベースの一例を表す図である。
【図22】コンテンツ提供システムとサーバシステムとの間で行われる処理、およびこれらのシステムの各々における処理を表す流れ図である。
【図23】ユーザシステムとサーバシステムとの間で行われる処理、およびこれらのシステムの各々における処理を表す流れ図である。
【符号の説明】
1…音響処理装置、2A〜2D…スピーカ、3…表示装置、5…記録再生装置、7…オーディオソース、7A…オーディオデータ、8…コンテンツソース、8C…処理用コンテンツデータ、11…CPU、12…RAM、13…ROM、14…ハードディスク装置、14C…コンテンツライブラリ、14P…リバーブアプリケーションプログラム、16…CDドライブ、16A…音楽CD、16P…CD−ROM、51L1,51L2, 51R1,51R2…たたみ込み処理部、52L,52R…遅延処理部、62,64,69…FFT処理ブロック、65…たたみ込み演算処理ブロック、66…IFFT処理ブロック、Li …リンクデータ、RDi …リバーブデータ、IMi …画像データ、AXi …付帯データ、REV…リバーブモジュール、LC…リンクモジュール、REP…画像再生モジュール、82…アップロードライセンス情報、83…コンテンツ、85…利用ライセンス情報、101…サーバシステム、201…ユーザシステム、301…コンテンツ提供システム、400…インターネット、DB1…コンテンツデータベース、DB2…コンテンツ管理データベース、DB3…ユーザ管理データベース。
Claims (7)
- 収録済の原音に対して所定の音響処理を施すための装置であって、
前記原音に対して、実在する音響空間の響きに対応したインパルス応答データをたたみ込むことにより、効果音を生成するたたみ込み手段と、
画像を再生して出力する画像再生手段と、
前記画像再生手段からの再生画像の出力に沿って、前記原音と前記たたみ込み手段からの効果音とを重畳させて音響処理音を生成し出力するように前記画像再生手段およびたたみ込み手段を制御する制御手段と
を備え、
前記制御手段は、前記インパルス応答データのたたみ込み処理を行う際に生ずる遅延時間に相当する箇所から前記原音に対するたたみ込み処理を開始するように前記たたみ込み手段の制御を行うと共に、前記音響処理の開始が指示された時点から前記遅延時間の経過時点までの間は前記原音をそのまま外部に出力する外部出力制御を行う一方、前記遅延時間の経過時点以降は前記原音と前記効果音とを重畳させて音響処理音を生成し出力する重畳制御を行う
ことを特徴とする音響処理装置。 - 少なくとも前記たたみ込み手段が、ソフトウェアにより構成されている
ことを特徴とする請求項1に記載の音響処理装置。 - 前記画像再生手段からの再生画像は、前記実在する音響空間と関連したものである
ことを特徴とする請求項1に記載の音響処理装置。 - さらに、前記生成された音響処理音と前記画像再生手段からの再生画像とを着脱可能記録媒体に記録する記録手段を備えた
ことを特徴とする請求項1に記載の音響処理装置。 - 前記原音の全体を記録することが可能な記録媒体を有すると共に、この記録媒体の任意の箇所から前記原音を再生する機能を有する記録再生手段をさらに備え、
前記制御手段は、前記記録再生手段からの原音の再生を制御することにより、前記たたみ込み手段の制御と、前記外部出力制御と、前記重畳制御とを行う
ことを特徴とする請求項1に記載の音響処理装置。 - 前記原音を一時的に蓄積するバッファメモリを備え、
前記制御手段は、前記バッファメモリからの原音の再生を制御することにより、前記たたみ込み手段の制御と、前記外部出力制御と、前記重畳制御とを行う
ことを特徴とする請求項1に記載の音響処理装置。 - 実在する第1の音響空間の響きに対応して得られた第1のインパルス応答データを保持する手段と、
前記音響処理が施された音の再生出力が行われる予定の実在する第2の音響空間の響きに対応して得られた第2のインパルス応答データを保持する手段と
を備え、
前記たたみ込み手段は、前記原音に対して前記第1および第2のインパルス応答データをたたみ込むことにより、前記効果音を生成する
ことを特徴とする請求項1に記載の音響処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002140135A JP4055054B2 (ja) | 2002-05-15 | 2002-05-15 | 音響処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002140135A JP4055054B2 (ja) | 2002-05-15 | 2002-05-15 | 音響処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003330477A JP2003330477A (ja) | 2003-11-19 |
JP4055054B2 true JP4055054B2 (ja) | 2008-03-05 |
Family
ID=29701088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002140135A Expired - Fee Related JP4055054B2 (ja) | 2002-05-15 | 2002-05-15 | 音響処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4055054B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0416577A (pt) * | 2003-12-02 | 2007-01-30 | Thomson Licensing | método para codificação e decodificação de respostas a impulso de sinais de áudio |
US8660280B2 (en) | 2007-11-28 | 2014-02-25 | Qualcomm Incorporated | Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture |
US8515106B2 (en) | 2007-11-28 | 2013-08-20 | Qualcomm Incorporated | Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques |
JP6260768B2 (ja) * | 2013-10-17 | 2018-01-17 | カシオ計算機株式会社 | 効果付与装置、効果付与方法およびプログラム |
WO2019176244A1 (ja) * | 2018-03-15 | 2019-09-19 | ソニー株式会社 | 残響付加装置、残響付加方法及び残響付加プログラム |
EP4390918A2 (en) * | 2018-06-14 | 2024-06-26 | Magic Leap, Inc. | Reverberation gain normalization |
-
2002
- 2002-05-15 JP JP2002140135A patent/JP4055054B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003330477A (ja) | 2003-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5442607B2 (ja) | 選択可能なパフォーマーにより再生可能なメディア | |
US7184557B2 (en) | Methods and apparatuses for recording and playing back audio signals | |
JP6484605B2 (ja) | 複数のオーディオステムからの自動マルチチャネル音楽ミックス | |
US7725203B2 (en) | Enhancing perceptions of the sensory content of audio and audio-visual media | |
AU756265B2 (en) | Apparatus and method for presenting sound and image | |
JP2007043334A (ja) | 音声信号処理方法、音場再現システム | |
EP2743917B1 (en) | Information system, information reproducing apparatus, information generating method, and storage medium | |
JP4055054B2 (ja) | 音響処理装置 | |
US20050047619A1 (en) | Apparatus, method, and program for creating all-around acoustic field | |
JP4196509B2 (ja) | 音場創出装置 | |
JP3315333B2 (ja) | カラオケ装置 | |
JP2021021870A (ja) | コンテンツ収集・配信システム | |
JPH06110480A (ja) | カラオケ装置 | |
JP2001216418A (ja) | 音楽データ販売方法、および著作物データ販売方法 | |
JP2005086537A (ja) | 高臨場音場再現情報送信装置、高臨場音場再現情報送信プログラム、高臨場音場再現情報送信方法および高臨場音場再現情報受信装置、高臨場音場再現情報受信プログラム、高臨場音場再現情報受信方法 | |
JP2004040450A (ja) | 情報配信システム、情報処理装置および方法、再生装置および方法、記録媒体、並びにプログラム | |
JP4150580B2 (ja) | 配信システム、再生機器およびコンテンツ再生方法 | |
JP4642685B2 (ja) | 歌曲録音作品を随所で随時に再生できる通信カラオケシステム、カラオケ装置、方法 | |
WO2022113394A1 (ja) | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 | |
WO2022113393A1 (ja) | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 | |
JPH07281687A (ja) | 映像カラオケ装置 | |
Logan | Recording the Classical Guitar: A Documentation and Sound Analysis of Great Classical Guitar Recordings with a Guide for Sonic Emulation | |
KR20100055662A (ko) | 클라이언트 단말 장치, 공연 감상 서비스 장치, 공연 감상 서비스 시스템 및 그 방법 | |
JP3671756B2 (ja) | 音場再生装置 | |
JP5510435B2 (ja) | カラオケ装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071128 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |