JP2014506416A - オーディオ空間化および環境シミュレーション - Google Patents

オーディオ空間化および環境シミュレーション Download PDF

Info

Publication number
JP2014506416A
JP2014506416A JP2013546391A JP2013546391A JP2014506416A JP 2014506416 A JP2014506416 A JP 2014506416A JP 2013546391 A JP2013546391 A JP 2013546391A JP 2013546391 A JP2013546391 A JP 2013546391A JP 2014506416 A JP2014506416 A JP 2014506416A
Authority
JP
Japan
Prior art keywords
channel
input
signal
channels
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013546391A
Other languages
English (en)
Inventor
マハバブ,ジェリー
ベルンゼー,シュテファン・エム
スミス,ゲイリー
Original Assignee
ジェノーディオ,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェノーディオ,インコーポレーテッド filed Critical ジェノーディオ,インコーポレーテッド
Publication of JP2014506416A publication Critical patent/JP2014506416A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

オーディオ音源を処理して四次元空間化音響を形成する方法および装置を開示する。指定された時間期間にわたって三次元空間における経路に沿って仮想音源を移動させて、四次元音響定位を遂行することができる。本明細書において説明する種々の実施形態は、既存のモノ、2チャネルおよび/またはマルチチャネル・オーディオ信号を、2つ以上のオーディオ・チャネルを有する空間化オーディオ信号に変換する方法およびシステムを提供する。着信オーディオ信号は、ダウン・ミキシング、アップ・ミキシング、またはそれ以外の変換を行い、もっと少ない、もっと多い、または同じ数のオーディオ・チャネルにすることができる。また、種々の実施形態では、1つ以上のチャネルを有する着信オーディオ信号から、低周波効果および中央チャネル信号を生成する方法、システム、および動作についても説明する。
【選択図】図36

Description

関連出願に対する相互引用
このPCT特許出願は、発明者Jerry Mahubub et al.,の名義で2010年12月22日に出願された、"Audio Spatialization and Environment Simulation"(オーディオ空間化および環境シミュレーション)と題する米国仮特許出願第61/426,210号に対する優先権を主張する。この出願の開示および内容全体は、この出願をここで引用したことによって、本願にも含まれるものとする。
本願は、発明者Jerry Mahubub et al.,の名義で2009年10月21日に出願された、"Audio Spatialization and Environment Simulation"(オーディオ空間化および環境シミュレーション)と題する同時係属中の米国通常特許出願第12/582,449号に対する優先権を主張する。この出願の開示および内容全体は、この出願をここで引用したことによって、本願にも含まれるものとする。また、本願は、発明者Jerry Mahubub et al.,の名義で2008年3月3日に出願された、"Audio Spatialization and Environment Simulation"(オーディオ空間化および環境シミュレーション)と題する同時係属中の米国通常特許出願第12/041,191号に対する優先権を主張する。この出願の開示および内容全体は、この出願をここで引用したことによって、本願にも含まれるものとする。
1.技術分野
本開示は、一般的には、音響設計に関し、更に特定すれば、オーディオ波形を計算および作成するためのディジタル信号処理方法および装置に関する。このオーディオ波形をヘッドホン、スピーカ、または他の再生デバイスによって再生すると、四次元空間における少なくとも1つの空間座標から発する少なくとも1つの音響をエミュレートする。
従来技術
音響は、四次元空間における種々の地点から発する。これらの音響を聴く人間は、種々の聴覚的キュー(cue)を用いて、音響が発生する空間的地点を判定することができる。例えば、人間の脳は、内耳時間遅延(inner-aural time delays)(即ち、各鼓膜に衝撃を与える音響間の時間遅延)、リスナーの両耳間における音圧レベル差、左および右耳に衝撃を与える音響の知覚の位相ずれ等のような音響定位キューを素早くそして効果的に処理して、音響の発生点を精度高く特定する。一般に、「音響定位キュー」とは、リスナーの両耳間における時間および/またはレベルの差、音波の時間および/またはレベル差、更にはオーディオ波形についてのスペクトル情報を指す。(「四次元空間」とは、本明細書において用いる場合、一般に、時間の経過を含む三次元空間、または時間の関数としての三次元座標変位、および/またはパラメータによって定義される曲線を指す。四次元空間は、通例、4空間座標または位置ベクトル、例えば、矩形系では{x,y,z,t}、球系では{r,θ,φ,t}等を用いて定義される。)
人間の脳および聴覚系が音響の発生源(origin)を三角測量することの有効性は、2つ以上のスピーカに跨がる再生のために音響を複製および空間化(spatialize)しようと試みるオーディオ・エンジニアや他の人々に対して、特別な課題を提起する。一般に、過去の手法は洗練された音響前処理および後処理を採用しており、デコーダ・ボードまたはロジックというような、特殊なハードウェアを必要とする場合もある。現在知られているエンコード処理および圧縮技術の相応しい例には、Dolby LabsのDOLBYディジタル処理、DTS、SonyのSDDSフォーマット等が含まれる。現在知られているオーディオ空間化技術の相応しい例には、Qsound Labs, IncのQSOUND Q3D Positional 3D Audio、Wave Arts Inc.のPANORAMA5、およびArkamys, Inc.の3DSOUNDが含まれる。これらの手法はある程度の成功を収めてはるが、これらは費用および労働集約的である。更に、処理したオーディオを再生するには、通例、比較的高価なオーディオ・コンポーネントが必要となる。加えて、これらの手法は、全てのタイプのオーディオ、または全てのオーディオ用途に適している訳ではない。
したがって、固定または移動音源の仮想球体(または、シミュレーションによるいずれかの形状またはサイズの仮想環境)の中央にリスナーを置き、2つだけのスピーカまたはヘッドホンから真に迫る音響体験を提供するオーディオ空間化の新たな手法が求められている。
概して言うと、本開示の一実施形態は、四次元空間化音響を創作する方法および装置の形態を取る。広義の態様では、オーディオ波形を空間化することによって空間化音響を創作する方法例は、球座標系またはデカルト座標系において空間点を決定する動作と、この空間点に対応するインパルス応答フィルタをオーディオ波形の第1セグメントに適用して空間化波形を生成する動作とを含む。空間化波形は、その空間点から発する非空間化波形(non-spatialized waveform)のオーディオ特性をエミュレートする。即ち、空間化波形が1対のスピーカから再生されると、その音響が、スピーカの代わりに、選択した空間点から発する如くに聞こえるような、位相、振幅、内耳遅延等が得られる。
頭部関係(head-related)伝達関数は、種々の境界条件を考慮に入れた、所与の空間点についての音響特性(acoustic properties)のモデルとなる。本実施形態では、頭部関係伝達関数は、所与の空間点について球座標系において計算される。球座標を用いることによって、一層正確な伝達関数(したがって、一層正確なインパルス応答フィルタ)を創作することができる。更には、このために一層精度高いオーディオ空間化が可能になる。
認めることができるであろうが、本実施形態は、多数の頭部関係伝達関数を採用し、したがって多数のインパルス応答フィルタを採用して、種々の空間点に対してオーディオを空間化することができる。(本明細書において用いる場合、「空間点」および「空間座標」とう用語は、相互交換可能である。)つまり、本実施形態は、オーディオ波形に種々の音響特性をエミュレートさせて、異なる時点において異なる空間点から発するように感じさせることができる。2つの空間点間において滑らかな推移を得るため、したがって滑らかな四次元オーディオ体験を提供するために、補間プロセスによって種々の空間化波形を互いに畳み込むことができる。
尚、デコーダ・ボードやアプリケーションというような特殊なハードウェアや追加のソフトウェア、更にはDOLBYまたはDTS処理機器を採用したステレオ機器は、本実施形態において完全なオーディオの空間化を遂行するためには不要であることは、注記してしかるべきである。逆に、空間化オーディオ波形は、2つ以上のスピーカを有するオーディオ・システムであればいずれでも、論理処理またはデコードを行っても行わなくても、再生することができ、全範囲の四次元空間化を遂行することができる。
一実施形態では、1つ以上の受け取った入力オーディオ信号から定位ステレオ出力オーディオ信号を生成する方法について記載する。各オーディオ信号には対応するオーディオ・チャネルが関連付けられている。この実施形態では、プロセッサが、入力オーディオ信号の少なくとも1つのチャネルを受け取り、2つ以上の定位チャネル出力オーディオ信号を生成するために、入力オーディオ信号の少なくとも1つのチャネルを処理し、少なくとも2つのチャネルを有する定位ステレオ出力オーディオ信号を生成するために、2つ以上の定位チャネル出力オーディオ信号の各々をミキシングするように構成することができる。更に、入力オーディオ信号を2つ以上のパケットのシーケンスで受け取るのでもよく、各パケットが固定フレーム長を有する。入力オーディオ信号は、モノ・チャネル入力オーディオ信号であってもよい。定位ステレオ出力オーディオ信号は、2つ以上の出力チャネルを含んでもよい。
少なくとも1つの実施形態において、2つ以上の定位チャネル出力オーディオ信号を生成するために、入力オーディオ信号の少なくとも1つのチャネルを処理してもよい。加えておよび/または代わりに、1つ以上のDSPパラメータを利用して、受け取った入力オーディオ信号の各チャネルを処理してもよい。利用するDSPパラメータは、例えば、2つ以上の定位オーディオ信号の内少なくとも1つと共に用いるために指定される方位角と関連付けられるとよい。更に、バイパス・モードの選択に基づいて、方位角を指定してもよく、指定した方位角を、モノ・チャネル・オーディオ信号のような入力オーディオ信号に適用するフィルタを特定するために、ディジタル信号プロセッサによって利用してもよい。このフィルタは、有限インパルス応答フィルタ、無限インパルス応答フィルタ、または他の形式のフィルタを利用してもよい。
少なくとも1つの実施形態において、ロー・パス・フィルタおよびロー・パス信号エンハンサの内少なくとも1つを用いることによって、入力オーディオ信号の少なくとも1つのチャネルを処理してもよい。また、残響、利得、およびパラメータ均一化(parametric equalization)設定、またはその他の設定値の内少なくとも1つを調節するために、2つ以上の定位チャネル出力オーディオ信号の各々を処理してもよい。更に、2つ以上の定位チャネル出力オーディオ信号を処理するとき、対応する出力チャネルの1つ以上の一致対を選択するとよい。このような一致対は、前部チャネル、側部チャネル、後部チャネル、およびサラウンド・チャネルから成る一群から選択するとよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、1つ以上のDSPパラメータの特定する動作を含んでもよい。このようなDSPパラメータは、ディジタル信号プロセッサにアクセス可能な記憶媒体にDSPパラメータを格納するとよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、入力オーディオ信号のN.Mチャネルを含む入力オーディオ信号と共に利用してもよく、Nが1よりも大きい整数であり、Mが整数であり、定位ステレオ出力オーディオ信号が、少なくとも2つのチャネルを含む。更に、特定は、Q.Rチャネルを含む所望の出力チャネル構成に対して行うのでもよく、または受け取るのでもよく、Qが1よりも大きい整数であり、Rが整数である。更に、Q.Rチャネルの各々を含むように定位ステレオ出力オーディオ信号を生成するために、入力オーディオ信号を処理するのでもよい。尚、QはNよりも大きい、Nよりも小さい、またはNと等しいことも可能であることは認められよう。同様に、MおよびRのいずれか1つ、または双方が1の数値に等しいことも可能である。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、1対の対応する入力チャネルに対するバイパス・構成の選択を含むとよい。この入力チャネルは、入力信号のNチャネルの対応する前部チャネルの対および対応する後部チャネルの対から選択するとよい。更に、入力信号のNチャネルの対応する前部チャネルの対および対応する後部チャネルの対から選択少なくとも1つのチャネルに対するバイパス・構成の選択は、選択した入力チャネルの対応する対の各々に対して方位角を指定する動作を含んでもよい。尚、各方位角は、選択した入力チャネルの対応する対の各々と関連付けられた仮想オーディオ出力コンポーネントに対する関係に基づいて指定するとよいことは認められよう。同様に、このような指定は、中央チャネル・オーディオ信号を出力するように構成された仮想オーディオ出力コンポーネントに関して行うのでもよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、入力信号の選択されなかった対応する対の各々に対して、第2方位角設定値を指定する動作を含んでもよく、入力チャネルの選択されなかった対応する対の各々と関連付けられた仮想オーディオ出力コンポーネントの、中央チャネル・オーディオ信号を出力するように構成された仮想オーディオ出力コンポーネントに対する関係に基づいて、第2方位角設定値の各々を指定する。更に具体的には、少なくとも1つの実施形態において、対応する後部チャネルの対を選択してもよく、選択した後部入力チャネルの対応する対の各々に対して指定した方位角は、110°に等しい。
少なくとも1つの実施形態において、 定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、対応する前部チャネルの対の各々に対して、22.5°から30°までの範囲で第2方位角設定値を指定する動作を含んでもよく、それぞれの左前部仮想オーディオ・コンポーネントおよび右前部仮想オーディオ・コンポーネントの各々の中央チャネル・オーディオ信号を出力するように構成された仮想オーディオ出力コンポーネントに対する関係に基づいて、各指定第2方位角設定値を指定する。また、仮想オーディオ・コンポーネントの各々は、中央チャネル・オーディオ信号を出力するように構成された仮想オーディオ出力コンポーネントに対して、入力オーディオ信号のNチャネルの内対応する入力チャネルと関連付けられていてもよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、 更に、入力オーディオ信号から、1つ以上の入力チャネルを選択する動作と、入力チャネル毎に仰角を指定する動作と、各入力チャネルに対して指定した仰角に基づいて、選択した各入力チャネルに適用するIIRフィルタを特定する動作とを含んでもよい。更に、本プロセスは、N個の定位チャネルを生成するために、IIRフィルタによって選択した入力チャネルの各々をフィルタリングする動作を含んでもよい。更におよび/または代わりに、本プロセスは、場合によっては、N個の定位チャネルの各々を、2つのステレオ対出力チャネルにダウン・ミキシングする動作を含んでもよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、更に、N個の入力オーディオ信号のチャネルの各々に、ロー・パス周波数フィルタを適用する動作を含んでもよい。N個の入力オーディオ・チャネルは、少なくとも2つの側部チャネルを含む。更におよび/または代わりに、本方法は、第1架空中央チャネルを生成するために、各側部チャネルを中央−側部デコーディングする動作を含んでもよい。更に、N個の入力オーディオ・チャネルが、少なくとも2つの前部チャネルを含み、更に、1つ以上の架空中央チャネルを生成するために、1組以上のチャネルの各々を中央−側部デコーディングしてもよいことは認められよう。このような中央−側部デコーディングは、例えば、前部チャネル、側部チャネル、サラウンド・チャネル、および後部チャネルから成る一群から選択した対応するチャネル対に適用するとよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、入力オーディオ・チャネルのN個のチャネルの各々に、ロー・パス周波数フィルタリング、利得および均一化を適用することによって、入力オーディオ・チャネルのN個のチャネルの各々によって供給されるいずれの低周波信号も特定し強調する動作を含んでもよい。更におよび/または代わりに、本プロセスは、N個の入力オーディオ信号チャネルの内、ステレオ・チャネルの前対に対応する各々を中央−側部デコーディングする動作を含んでもよい。更におよび/または代わりに、本プロセスは、N個のオーディオ信号チャネルの各々を、定位ステレオ・オーディオ出力信号にダウン・ミキシングする動作を含んでもよい。更におよび/または代わりに、本プロセスは、N個のオーディオ信号チャネルの各々を、定位ステレオ・オーディオ出力信号にアップ・ミキシングする動作を含んでもよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法は、(a)第1架空中央チャネルおよび第2架空中央チャネルを合算する動作と、(b)合算動作の結果を2で除算する動作と、(c)除算動作の商を第2架空中央チャネルから差し引く動作とを実行することによって、仮想中央モノ・チャネルを生成する動作を含んでもよい。
少なくとも1つの実施形態において、定位ステレオ出力オーディオ信号を1つ以上の受け取った入力オーディオ信号から生成する方法では、入力オーディオ信号の少なくとも1つのチャネルが、LtRt信号における信号を含んでもよい。更におよび/または代わりに、本プロセスは、右後部オーディオ信号を左後部LtRtオーディオ信号から差し引くことによって、左後部サラウンド・チャネルを入力オーディオ信号から分離する動作と、左後部オーディオ信号を右後部LtRtオーディオ信号から差し引くことによって、右後部サラウンド・チャネルを入力オーディオ信号から分離する動作とを含んでもよい。
本開示のこれらおよびその他の利点ならびに特徴は、以下の説明および特許請求の範囲を読むことによって、明白となろう。
図1は、4つのスピーカの間にある「スウィート・スポット」を占めるリスナーの上面図(top-down view)、および方位座標系の一例を示す。 図2は、図1に示したリスナーの前面図、および高度座標系の一例を示す。 図3は、図1に示したリスナーの側面図、および図2の高度座標系の一例を示す。 図4は、本開示の一実施形態のソフトウェア・アーキテクチャの上位図を示す。 図5は、本開示の一実施形態のモノラルまたはステレオ信号源の信号処理チェーンを示す。 図6は、本開示の一実施形態の上位ソフトウェア・プロセスのフローチャートである。 図7は、仮想音源の3D位置をどのように設定するかを示す。 図8は、既存の既定(existing pre-defined)HTRFフィルタから新たなHTRFフィルタをどのように補間すればよいかを示す。 図9は、左および右HTRFフィルタ係数間の内耳時間差を示す。 図10は、本開示の一実施形態の音源定位のためのDSPソフトウェア処理フローを示す。 図11は、固定および移動音源に対するドプラ・シフト効果を示す。 図12は、リスナーと固定音源との間の距離がどのように単純な遅延として知覚されるかを示す。 図13は、リスナーの位置または音源の位置を移動させると、音源の音高知覚がどのように変化するかを示す。 図14は、フィード・フォワードおよびフィードバック経路を有する遅延エレメントとして実現した全パス・フィルタのブロック図である。 図15は、定位される仮想音源の近傍にある物体からの多数の反射をシミュレートするための全パス・フィルタのネスティングを示す。 図16は、全パス・フィルタ・モデルの結果、好ましい波形(入来直接音響)、および音源からリスナーへの早期反射(early reflections)を示す。 図17は、ステレオ信号の左および右チャネルが実質的に同一であるときにおける音源の見かけ上の位置を示す。 図18は、信号が右チャネルのみに現れるときにおける音源の見かけ上の位置を示す。 図19は、左および右チャネル間におけるサンプルの短期分散を示す、典型的なステレオ音楽信号の角度計出力を示す。 図20は、中央信号バンド・パス・フィルタリングを利用する本開示の一実施形態の信号導出を示す。 図21は、重複STFTフレームを用いて長い入力信号をどのようにブロック処理するかを示す。 図22は、ステレオ出力定位プロセスへのモノ信号入力を示す。 図23は、図22に示したステレオ出力定位プロセスへのモノ信号入力と共に用いるように構成された配線図である。 図24は、マルチチャネル入力−2チャネル出力定位プロセスへのを示す。 図25は、図24に示したマルチチャネル入力−2チャネル出力定位プロセスと共に用いるように構成された配線図である。 図26は、マルチチャネル入力−3チャネル出力定位プロセスを示す。 図27は、図26に示したマルチチャネル入力−3チャネル出力定位プロセスと共に用いるように構成された配線図である。 図28は、2チャネル入力−3チャネル出力定位プロセスを示す。 図29は、図28に示した2チャネル入力−3チャネル出力定位プロセスと共に用いるように構成された配線図である。 図30は、ステレオ入力−ステレオ出力/中央チャネル定位プロセスと共に示す。 図31は、図30に示したステレオ入力−ステレオ出力/中央チャネル定位プロセスと共に用いるように構成された配線図である。 図32aは、2チャネルLtRt入力−仮想マルチチャネル・ステレオ出力プロセスを示す。 図32bは、代わりの2チャネルLtRt入力−仮想マルチチャネル・ステレオ出力プロセスを示す。 図33aは、図32aに示した2チャネルLtRt入力−仮想マルチチャネル・ステレオ出力プロセスと共に用いるように構成された配線図である。 図33bは、図32bに示した2チャネルLtRt入力−仮想マルチチャネル・ステレオ出力プロセスと共に用いるように構成された配線図である。 図34は、%−中央バイパス・プロセスと共に用いるように構成された中央−側部デコーダ(mid-side decoder)を用いる配線図である。 図35は、図34の配線図の一方からの斜視図を示す。 図36は、マルチチャネル入力ダウン・ミキシング−マルチチャネル出力プロセスを示す。 図37は、図36に示したプロセスと共に用いるように構成された配線図である。 図38は、2チャネル入力−アップ・ミキシング5.1マルチチャネル出力プロセスを示す。 図39は、図38に示したプロセスと共に用いるように構成された配線図である。
1.本開示の全体像
概して、本開示の一実施形態は、音響定位技術を利用して、あらゆるサイズ/形状の固定および移動音響の仮想球体または仮想部屋の中央にリスナーを置く。これによって、わずか2つのスピーカまたは1対のヘッドホンを用いて、リスナーに真に迫った音響体験を提供する。任意の位置における仮想音源の印象を形成するには、オーディオ信号を処理してこれを左耳チャネルおよび右耳チャネルに分割し、別個のフィルタを2つのチャネルの各々に適用して(「両耳フィルタリング」)、処理したオーディオの出力ストリームを形成するとよく、この処理したオーディオは、スピーカまたはヘッドホンによって再生するか、あるいは後に再生するためにファイルに格納することができる。
本開示の一実施形態では、オーディオ源を処理して、四次元(「4D」)音響定位を遂行する。4D処理によって、仮想音源を三次元(「3D」)空間における経路に沿って、指定された時間期間にわたって移動させることができる。多数の空間座標(通例、空間内で「移動する」音源を複製するため)間で空間化波形が推移するとき、この空間座標間の推移を滑らかにすると、一層現実的で精度の高い体験を創作することができる。言い換えると、空間化波形を操作すると、空間化音響が空間内における不連続点間で急激に変化するのではなく、一方の空間座標から他方に見かけ上滑らかに推移させることができる(空間化音響が実際に1つ以上のスピーカ、1対のヘッドホン、または他の再生デバイスから発していても)。言い換えると、空間化波形に対応する空間化音響は、再生デバイス(1つまたは複数)によって占められる点(1つまたは複数)以外の3D空間における1点から発するように思われるだけでなく、見かけ上の放出点が時間の経過と共に変わっていくことができる。本実施形態では、空間化波形を第1空間座標から第2空間座標に、自由空間内において、方向には関係なく、および/または拡散場両耳(diffuse field binaural)環境内において畳み込むことができる。
三次元音響定位(そして、究極的には、4D定位)は、所定の頭部関係伝達フィルタ(「HRTF」)または頭部関係インパルス応答(「HRIR」)から導き出された1組のフィルタによって、入力オーディオ・データをフィルタリングすることによって行うことができる。 所定の頭部関係伝達フィルタ(「HRTF」)または頭部関係インパルス応答(「HRIR」)は、所与の3D座標から発する音に対する耳毎の周波数に対する位相および振幅の分散(variance)を数学的にモデル化することができる。即ち、各三次元座標は、一意のHRTFおよび/またはHRIRを有することができる。予め計算したフィルタHRTFまたはHRIRがない空間座標について、推定フィルタ、HRTFまたはHRIRを、近隣のフィルタ/HRTF/HRIRから作成することができる。このプロセスについては、以下で更に詳しく説明する。HRTFおよび/またはHRIRをどのようにして導き出すかについての詳細は、2004年3月16日に出願された米国特許出願第10/802,319号において見いだすことができる。この出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。
HRTFは、耳の耳介内における反射または反響、耳介の不規則な形状によって生ずる歪み、リスナーの肩および/または胴体からの音響反射、リスナーの鼓膜間の距離等というような、種々の生理学的要素を考慮に入れることができる。HRTFは、このような要素を組み込んで、洗練された音響の一層忠実なまたは精度が高い再現(reproduction)を行うことができる。
インパルス応答フィルタは、HRTFの空間特性をエミュレートするために作成または計算することができる。一口に言えば、しかしながら、インパルス応答フィルタはHRTFの数値/ディジタル表現である。
ステレオ波形は、インパルス応答フィルタまたはその近似を本発明によって適用して、空間化波形を作成することによって変換することができる。ステレオ波形上の各点(または時間間隔によって分離された各点)は、対応する音響が発する空間座標に効果的にマッピングされる。ステレオ波形は、サンプリングしてインパルス応答フィルタにかけることができる。このフィルタは、「定位フィルタ」(Localization Filter)と一般的に呼んでもよく、前述のHRTFを近似する。
定位フィルタは、そのタイプおよびその係数によって指定され、一般に波形を修正して(modify)空間化音響を複製する。定位フィルタの係数が定義されると、これらを追加の二分波形(dichotic waveform)(ステレオまたはモノのいずれか)に適用し、定位フィルタを毎回生成する中間ステップを飛ばして、これらの波形に対して音響を空間化することができる。
本実施形態は、三次元空間内の1点における音響を複製し、仮想環境の大きさが小さくなるに連れて正確度を高めることができる。本開示の一実施形態では、任意の大きさにした部屋を、仮想環境として、仮想部屋の中央からその境界まで、0から100までの相対的測定単位を用いて測定する。本実施形態は、球座標を採用して、仮想部屋内における空間化点の位置を測定する。尚、当該の空間化点は、リスナーに対するものであることは、注記してしかるべきである。即ち、リスナーの頭部の中央が、球座標系の原点に対応する。つまり、先に与えられた複製の相対的な正確度は、部屋の大きさに関するものであり、空間化点のユーザの知覚を高める。
本開示の一実施形態例では、1組で7337個の予め計算したHRTFフィルタの集合を採用し、単位球体上に配置する。各フィルタ組の中には、左および右HRTFフィルタがある。本明細書で用いる場合、「単位球体」とは、方位角および仰角が度を単位として測定される球座標系とする。空間内における他の点は、その位置に対してフィルタ係数を近似的に補間することによって、シミュレートすることができる。これについては、以下で更に詳しく説明する。
2.球座標系
一般に、本実施形態は球座標系(即ち、半径r、高度θ、および方位角φを座標として有する座標系)を採用するが、標準的なデカルト座標系における入力にも対応する。デカルト座標の入力は、本開示のある種の実施形態によって、球座標に変換することができる。球座標は、シミュレートした空間点のマッピング、HRTFフィルタ係数の計算、2つの空間点間における畳み込み、および/または本明細書において記載する実質的に全ての計算に用いることができる。一般に、球座標系を採用することによって、HRTFフィルタの精度(つまり、再生中における波形の空間精度)を向上させることができる。したがって、種々の空間化動作を球座標系において実行すると、精度および正確度の向上というような一定の利点を得ることができる。
加えて、ある種の実施形態では、球座標の使用によって、HRTFフィルタを作成し空間点間において空間オーディオを畳み込むために利用する処理時間、および本明細書において記載する他の処理動作を最少限に抑えることができる。音響/オーディオ波は一般に球形波(spherical wave)のような媒体を通じて伝搬するので、球座標系は音響波の挙動をモデル化するには、つまり音響を空間化するには、非常に適している。代替実施形態では、デカルト座標系を含む他の座標系を採用することもできる。
本文書では、実施形態例について論ずるときには、具体的な球座標の慣例を採用する。更に、ゼロ方位100、ゼロ高度105、および十分な長さのゼロでない半径が、それぞれ、図1および図3に示すように、リスナーの頭部の中央前方にある点に対応する。前述のように、「高度」および「仰角」という用語は、本明細書では、通常相互交換可能である。本実施形態では、方位角は時計回り方向に増加し、180度がリスナーの真後ろにあたる。方位角は0から359度までを範囲とする。代替実施形態では、図1に示すように、反時計回り方向に方位角が増加してもよい。同様に、高度は、図2に示すように、90度(リスナーの頭部の真上)から−90度(リスナーの頭部の真下)までを範囲とする。図3は、本明細書において用いられる高度座標系の側面図を示す。
尚、前述の座標系についての本文書の論述において、リスナーは主要な1対のスピーカ、即ち、前方にある1対のスピーカ110,120に面していることを仮定することは注記してしかるべきである。つまり、図1に示すように、前部スピーカの設置に対応する方位角半球が0から90度および270から359度までを範囲とし、一方後部スピーカの設置に対応する方位角半球は90から270度までを範囲とする。リスナーが前部スピーカ110、120に対する彼の回転軸合わせを変更した場合、座標系は変化しない。言い換えると、方位角および高度はスピーカに依存し、リスナーには依存しない。しかしながら、空間化オーディオが、リスナーが着用しているヘッドホンを通じて再生されるときは、ヘッドホンがリスナーと共に動く限りは、基準座標系はリスナーに依存する。本明細書における論述に限って、リスナーは1対の前部スピーカ110、120の間で相対的に中央にあり、スピーカ110、120から等しい距離のところに居続けると仮定する。後部の、または追加の周囲スピーカ130、140は任意選択肢である。座標系の原点160は、リスナーの頭部250の中央、即ち、図1のスピーカ設定における「スイート・スポット」にほぼ対応する。しかしながら、いずれの球座標表記(notation)でも本実施形態と共に採用してもよいことは注記してしかるべきである。この表記は、限定として示されるのではなく、便宜上示されるに過ぎない。加えて、オーディオ波形の空間化、およびスピーカまたは他の再生デバイスを通じて再生されるときの対応する空間化の効果は、必ずしも「スイート・スポット」を占めるリスナーや、再生デバイス(1つまたは複数)に対する他のいずれの位置を占めるリスナーにも依存する訳ではない。空間化波形は、標準的なオーディオ再生装置によって再生され、再生中仮想音源位置150から発する空間化オーディオの空間的幻想を創作することができる。
3.ソフトウェア・アーキテクチャ
図4は、ソフトウェア・アーキテクチャの上位図を示す。本開示の一実施形態では、クライアント−サーバ・ソフトウェア・アーキテクチャを利用する。このようなアーキテクチャは、様々な異なる形態で本開示のインスタンス化を可能にとし、4Dオーディオ後処理用の専門的オーディオ設計アプリケーション、マルチチャネル・プレゼンテーション・フォーマット(例えば、5.1オーディオ)を2チャネル・ステレオ出力においてシミュレートするための専門的なオーディオ設計ツール、家庭オーディオ・ミキシング熱狂者または小さな独立スタジオ用の対称的な3D定位後処理を可能にする「プロシューマ」(例えば、「玄人はだしの消費者」)アプリケーション、ならびに1組の予め選択された仮想ステレオ・スピーカ位置を仮定してステレオ・ファイルをリアル・タイムで定位する消費者用アプリケーションが含まれるが、これらに限定されるのではない。これらのアプリケーションは全て、同じ基礎的処理原理を利用し、そして多くの場合コードも利用する。更に、本開示のアーキテクチャは、消費者用電子機器(CE)におけるアプリケーションも有することができ、モノ入力、ステレオ入力、またはマルチチャネル入力を、(a)1つ以上のモノ入力の場合のような1つの点源(point source)、(b)ステレオ拡張または仮想マルチチャネル出力知覚のためのステレオ入力、(c)真のマルチチャネル入力のステレオ出力からの仮想マルチチャネル聴取体験の再現(reproducing)、あるいは(d)真のマルチチャネル入力のマルチチャネルから、および任意にマルチチャネルに追加の統合ステレオ出力を加えたものからの異なる仮想マルチチャネル聴取体験の再現、のリアル・タイムの仮想化として処理することができる。これらのアプリケーションは単独(例えば、コンピュータ・アプリケーション)であることができ、またはある種のCEデバイス内に埋め込むこともできる。これについては、本開示の第8章において以下で更に詳しく説明する。
図4に示すように、一実施形態例では、様々なサーバ側ライブラリがある。ホスト・システム適合化ライブラリ400は、ホスト・アプリケーションとサーバ側ライブラリとの間における直接通信を可能にするアダプタおよびインターフェースの集合体を提供する。ディジタル信号処理ライブラリ405は、入力信号を3Dおよび4D定位信号に変換するフィルタおよびオーディオ処理ソフトウェア・ルーチンを含む。信号再生ライブラリ410は、再生、一時停止、早送り、巻き戻しというような基本的な再生機能を提供し、1つ以上の処理されたオーディオ信号を記録する。曲線モデリング・ライブラリ415は、仮想音源に対して空間における静止3D点をモデリングし、更に時間の経過と共に去来する空間における動的4D経路をモデリングする。データ・モデリング・ライブラリ420は、入力およびシステム・パラメータをモデル化し、通例、楽器ディジタル・インターフェース設定値、ユーザ選好設定値、データ暗号化、およびデータ複製保護を含む。総合ユーティリティ・ライブラリ425は、座標変換、ストリング操作、時間関数、および基本的数学関数というような、全てのライブラリに共通して用いられる機能を提供する。
本開示の種々の実施形態は、ビデオ・ゲーム・コンソール430、ミキシング・コンソール435、リアル・タイム・オーディオ・スイート・インターフェース440を含むがこれらに限定されないホスト・ベース・プラグイン、TDMオーディオ・インターフェース、仮想スタジオ技術インターフェース445、およびオーディオ・ユニット・インターフェースを含む種々のホスト・システムにおいて採用することができ、あるいは、パーソナル計算デバイス(デスクトップまたはラップトップ・コンピュータのような)上で実行する単体アプリケーション、ウェブ系アプリケーション450、仮想サラウンド・アプリケーション455、拡張ステレオ・アプリケーション460、iPodまたは他のMP3再生デバイス、SDまたはHD無線受信機、ホーム・シアター受信機またはプロセッサ、自動車用音響システム、セル・フォン、パーソナル・ディジタル・アシスタントまたは他のハンドヘルド計算デバイス、コンパクト・ディスク(「CD」)プレーヤ、ディジタル・バーサタイル・ディスク(「DVD」)プレーヤまたはブルーレイ・プレーヤ、その他の消費者用または専門的オーディオ再生または操作電子システムまたはアプリケーション等において採用され、処理されたオーディオ・ファイルがスピーカまたはヘッドホンを通じて再生されるときに、空間における任意の位置に現れる仮想音源を設けることができる。更に、本開示の実施形態は、ヘッドホン、サウンド・バー(sound bars)に埋め込まれるというように、あるいはヘッドホン/スピーカを差し込むかそれ以外で接続することができる別個の処理コンポーネントに埋め込まれるというように、埋め込みアプリケーションにも採用することができる。本明細書において記載する埋め込みアプリケーションは、例えば、1つよりも多いマイクロフォンによって音響を記録するCEデバイスにおいて、位置マイクロフォン(positional microphone)のような入力デバイスと共に用いることができ、各マイクロフォンからの音響は、固定方位角および仰角の入力として処理されてから、デバイスの物理媒体に記録される。このアプリケーションであれば、記録を再生するときに、しかるべき定位効果が得られる。
即ち、空間化波形は、標準的なオーディオ再生装置によって再生することができ、再生の間仮想音源位置から発する空間化オーディオの空間的幻想を創作するために特殊なデコーディング機器を必要としない。言い換えると、DOLBY、DTS等を用いることによってエンコードされた音源をデコードする音響システムを必要とする多くのオーディオ源とは異なり、再生装置は、入力波形の空間化を精度高く再現するためには、特別のプログラミングもハードウェアも全く含む必要はない。同様に、ヘッドホン、2チャネル・オーディオ、3チャネル・オーディオ、4チャネル・オーディオ、5チャネル以上のオーディオ等を含む、いずれのスピーカ構成からでも、サブウーハがあってもなくても、空間化を精度高く体験することができる。
図5は、所望の出力が3Dまたは4D空間における空間化点である構成における、モノラル500またはステレオ505オーディオ源入力ファイルあるいはデータ・ストリーム(サウンド・カードのようなプラグイン・カードからのオーディオ信号)のための信号処理チェーンを示す。3D空間では1つの音源が置かれるのが一般的であるので、ステレオのようなマルチチャネル・オーディオ源は、ディジタル信号プロセッサ(「DSP」)525によって処理される前に、ミキシングされて1つのモノラル・チャネル510になる。尚、DSPは特殊目的ハードウェア上に実装されていてもよく、または汎用コンピュータのCPU上に実装されてもよい。入力チャネル・セレクタ515は、ステレオ・ファイルのいずれかのチャネル、または双方のチャネルを処理することを可能にする。続いて、1つのモノラル・チャネルを2つの同じ入力チャネルに分割し、これらのチャネルを更に処理するために、DSP525に導出することができる。
本開示の実施形態の中には、多数の入力ファイルまたはデータ/ストリームを同時に処理することを可能にするものもある。一般に、同時に処理される追加の入力ファイル毎に、図5と同じ構成を設ける(replicate)。グローバル・バイパス・スイッチ520は、全ての入力ファイルがDSP525をバイパスすることを可能にする。これは、出力の「A/B」比較に有用である(例えば、ファイルまたは波形の処理後と未処理との比較)。
加えて、個々の入力ファイルまたはデータ・ストリームは各々、DSP525を通過するのではなく、直接左出力530、右出力535、または中央/低周波放出出力540に導出することもできる。これは、例えば、多数の入力ファイルまたはデータ・ストリームを同時に処理し、1つ以上のファイルをDSPによって処理しないときに用いることができる。例えば、左前部チャネルおよび右前部チャネルのみを定位しようとする場合、定位されない中央チャネルは多くの場合コンテキストを規定するために利用することができ、DSPをバイパスして導出するとよい。加えて、オーディオ・ファイルまたはデータ・ストリームが極端に低い周波数を有する場合(例えば、中央オーディオ・ファイルまたはデータ・ストリームが概略的に20から500Hzの範囲の周波数を有する)、殆どのリスナーが低周波数の発生源を正確に指摘するのは困難であるのが通例である限りにおいて、空間化する必要がない場合がある。このような周波数を有する波形は、HRTFフィルタの使用によって空間化することもできるが、関連する音響定位キュー(sound localization cue)を検出することに殆どのリスナーは困難を体験するので、このような空間化の有効性が最小になる。したがって、このようなオーディオ・ファイルまたはデータ・ストリームは、本開示のコンピュータ実装実施形態において利用される計算時間および処理パワーを低減するために、DSPをバイパスして導出するとよい。
図6は、本開示の一実施形態の上位ソフトウェア・プロセス・フローのフローチャートである。このプロセスは動作600において開始し、ここで本実施形態はソフトウェアを初期化する。次いで、動作605を実行する。動作605は、プラグインからの処理すべきオーディオ・データまたはデータ・ストリームをインポート(import)する。動作610は、定位すべき場合にはオーディオ・ファイルに仮想音源位置を選択し、またはオーディオ・ファイルを定位しない場合には通過(pass through)を選択するために実行する。動作615において、処理すべき入力オーディオ・ファイルが他にもあるか否か判断するためにチェックを行う。他のオーディオ・ファイルもインポートすべき場合、動作605を再度実行する。インポートすべきオーディオ・ファイルが他にはない場合、本実施形態は動作620に進む。
動作620では、オーディオ入力ファイルまたはデータ・ストリーム毎に、再生選択肢を設定する(configure)。再生選択肢は、ループ再生および処理すべきチャネル(左、右、双方等)を含むことができる。次いで、動作625を実行し、オーディオ・ファイルまたはデータ・ストリームに音響経路が形成されているか否か判定を行う。音響ファイルが形成されている場合、動作630を実行して音響経路データをロードする。音響経路データは、種々の三次元空間位置において音響を経時的に音響経路に沿って定位するために用いられる1組のHRTFフィルタである。音響経路データは、ユーザによってリアル・タイムで入力し、永続的メモリまたは他の適した記憶媒体に格納することができる。動作630に続いて、本実施形態は、以下で説明するように、動作635を実行する。しかしながら、本実施形態が動作625において音響経路が形成されていないと判定した場合、動作630の代わりに動作635にアクセスする(言い換えると、動作630を飛ばす)。
動作635では、処理されている入力信号のオーディオ信号セグメントを再生する。次いで、動作640を実行して、入力オーディオ・ファイルまたはデータ・ストリームをDSPによって処理するか否か判定を行う。ファイルまたはストリームをDSPによって処理する場合、動作645を実行する。動作640において、DSP処理を実行しないと判定した場合、動作650を実行する。
動作645では、オーディオ入力ファイルまたはデータ・ストリームをDSPによって処理して、定位したステレオ音響出力ファイルを生成する。次いで、動作650を実行し、本実施形態はオーディオ・ファイル・セグメントまたはデータ・ストリームを出力する。即ち、本開示の実施形態では、入力オーディオを実質的にリアル・タイムで処理することができる。動作655において、本実施形態は、入力オーディオ・ファイルまたはデータ・ストリームの終点に達したか否か判定を行う。ファイルまたはデータ・ストリームの終点に達していない場合、動作660を実行する。オーディオ・ファイルまたはデータ・ストリームの終点に達している場合、処理は停止する。
動作660では、入力オーディオ・ファイルまたはデータ・ストリームの仮想音響位置を移動させて4D音響を創作するか否か判定を行う。尚、初期構成設定の間に、ユーザが音源の3D位置を指定し、追加の3D位置を、音源がその位置にあるべきときのタイム・スタンプと共に供給してもよいことを注記しておく。音源が移動している場合、動作665を実行する。それ以外の場合、動作635を実行する。
動作665では、仮想音源に新たな位置を設定する。次いで、動作630を実行する。
尚、動作625,630,635,640,645,650,655,660,665は、通例、同時に処理される入力オーディオ・ファイルまたはデータ・ストリーム毎に並列に実行されることは注記してしかるべきである。即ち、各入力オーディオ・ファイルまたはデータ・ストリームを、セグメント毎に、他の入力ファイルまたはデータ・ストリームと同時に処理する。
4.音源位置の指定および両耳フィルタ補間
図7は、3D空間において仮想音源の位置を指定するために、本開示の一実施形態が採用する基本プロセスを示す。図7において記載されている動作および方法は、しかるべく構成された計算デバイスであればいずれでも実行することができる。一例として、本方法は、図7の方法を具体化するソフトウェアを実行するコンピュータによって実行することができる。動作700を実行して、3D音響位置の空間座標を入手する。ユーザは、通例、ユーザ・インターフェースを介して3D位置を入力する。あるいは、この3D位置は、ファイル、ハードウェア・デバイスによって入力すること、または静的に定義することもできる。3D音源位置は、矩形座標(x、y、z)または球座標(r、シータ、パイ)において指定することができる。次いで、動作705を実行して、音響の位置が矩形座標内にあるか否か判定を行う。3D音響位置が矩形座標内にある場合、動作710を実行して、この矩形座標を球座標に変換する。次いで、動作715を実行して、3D位置の球座標を更に処理するために利得値と共にしかるべきデータ構造に格納する。利得値は、信号の「ボリューム」の独立した制御を行う手段となる(provide)。一実施形態では、入力オーディオ信号ストリームまたはファイル毎に別の利得値を使用可にする(enable)。
本明細書において既に述べたように、本開示の一実施形態では、7,337個の既定の両耳フィルタを格納し、各々が単位球体の離散位置にある。各両耳フィルタは2つのコンポーネント、HRTFLフィルタ(概略的にインパルス応答フィルタ、例えば、IRLフィルタによって近似される)およびHRTFRフィルタ(一般にインパルス応答フィルタ、例えば、IRRフィルタによって近似される)を有し、合わせてフィルタ集合をなす。各フィルタ集合は、単位球体上に配置されたHRIR形態におけるフィルタ係数として供給することができる。これらのフィルタ集合は、種々の実施形態では、単位球体の周囲に均一にまたはばらばらに分散させることができる。他の実施形態では、これらよりも多いまたは少ない両耳フィルタ集合を格納することができる。動作715の後、動作720を実行する。動作720では、指定された3D位置が既定の両耳フィルタの1つによってカバーされないときに最も近いN個の近隣フィルタを選択する。実際の3D位置が既定の両耳定位フィルタによってカバーされない場合、所望の位置におけるフィルタ出力を、以下の2つの方法(725a,725b)のいずれかによって生成することができる。
1.最も近い近隣フィルタ(725a):所望の位置と格納されている3D球体上におけるフィルタ座標との間の距離を計算することによって、定位すべき点に対して最も近い近隣フィルタを選択する。次いで、このフィルタを処理に用いる。定位した位置における急激なジャンプを回避するために、選択したフィルタの出力と、以前に選択したフィルタのオーディオ出力との間のクロス・フェード(cross fade)を計算する。
2.フィルタ出力のダウン・ミキシング(down-mixing)(725b):指定された空間位置を取り囲む3つ以下の近隣フィルタを選択する。全ての近隣フィルタを並列に用いて、同じ入力信号を処理し、3つ以下のフィルタリングした出力信号を形成する。各出力信号はフィルタの位置に対応する。次いで、個々のフィルタ位置と定位した位置との間の相対的距離にしたがって、3つ以下のフィルタの出力をミキシングする。これによって、定位した位置に最も近いフィルタが、フィルタリングし組み合わせた出力信号に対して最も大きく寄与するように、加重和を得る。他の実施形態では、これらよりも多いまたは少ない既定のフィルタを用いて新たなフィルタを生成することもできる。
更に他の実施形態では、レムズ交換(Remez Exchange)法のような、無限インパルス応答(「IIR」)フィルタ設計プロセスを用いることによって、新たなフィルタを生成することもできる。
尚、HRTFフィルタは波形に特定ではないことは言うまでもない。即ち、各HRTFフィルタは、いずれの入力波形のいずれの部分についてもオーディオを空間化することができ、スピーカまたはヘッドホンによって再生するときに、仮想音源位置から発するように思わせることができる。
図8は、様々な既定のHRTFフィルタ集合を示し、各々、Xで示されており、位置800に配置される新たなHRTFフィルタを生成するために利用される単位球体上に位置する。位置800は、所望の3D仮想音源位置であり、その方位角および仰角によって指定される(0.5,1.5)。この位置は、既定のフィルタ集合の1つによってカバーされない。この例示では、3つの最も近い近隣の既定フィルタ集合805,810,815が、位置800に対してフィルタ集合を生成するために用いられる。位置800に対してしかるべき3つの近隣フィルタ集合を選択するには、ピタゴラスの距離関係にしたがって、所望の位置と単位球体上の全ての格納されている位置との間の距離Dを最小にすることによって行う。
D=SQRT((e−e+(a−a
ここで、eおよびaは、格納されている位置kにおける仰角および方位角であり、eおよびaは、所望の位置xにおける仰角および方位角である。
このように、位置800に対してフィルタリングした出力を得るために、フィルタ集合805,810,815を一実施形態によって用いることができる。他の実施形態では、中間フィルタ出力の生成のために、これらよりも多いまたは少ない既定のフィルタを用いることもできる。
所望の位置の出力を計算するとき、一般的に内耳時間差(「ITD」(inner-aural time difference))を考慮するとよい。各HRIRは、内在的な遅延を有し、この遅延は、図9に示すように、それぞれの外耳道と音源との間の距離に依存する。このITDは、HRIRにおいて、実際のフィルタ係数の前方におけるゼロでないオフセットとして現れる。したがって、既知の位置kおよびk+1から所望の位置xにおいてHRIRに類似するフィルタを作成するのは困難な場合もある。既定のフィルタが格子に密度高く実装されているときは、誤差が小さいので、ITDによって引き起こされる遅延は無視することができる。しかしながら、本明細書における計算を行う計算デバイスにおいてメモリが限られている場合、これは選択肢にならない場合がある。
メモリが限られている場合、および/または計算パワーを保存しようとする場合、補間プロセスの間に、右フィルタならびに左フィルタの遅延DおよびDに対するITDの寄与を除去できるように、右外耳道および左外耳道に対するITD905,910を、それぞれ、推定するとよい。本開示の一実施形態では、HRIRがHRIR最大絶対値の5%を超過するオフセットを調べることによって、ITDを決定することができる。この推定値は正確ではない。何故なら、ITDは、サンプリング間隔の分解能を超えた遅延時間Dの断片的遅延であるからである。実際の遅延の断片は、HRIRにおけるピークを跨ぐ放物線補間(parabolic interpolation)を用いて、ピークの実際の位置Tを推定することによって決定される。これは、一般的には、数学的に次のように表すことができる3つの既知の点に当てはまる放物線の最大値を求めることによって行われる。
=|h|−|hT−1
=|h|−|hT+1
D=t+(p−p)/(2*(p)+p+ε)
ここで、εは分母がゼロでないことを確保するための小さな値である。
HRIRは、ITDを考慮してフィルタ・インパルス応答からこれを除去するために、時間ドメインにおいて時間シフトすることができる(h’t=ht+D)。
新たな出力を生成した後、右外耳道および左外耳道をそれぞれ量DまたはDだけ遅延させることによって、ITDを再度加算する。また、表現している(render)音源の現在の位置にしたがって、遅延を補間する。即ち、外耳道毎に、
D=αDk+1+(1−α)D
ここで、α=x−kである。
5.ディジタル信号処理およびHRTFフィルタリング
一旦指定された3D音響位置に対して両耳フィルタ係数を決定したなら、各入力オーディオ・ストリームを処理して、ステレオ出力を定位して供給することができる。本開示の一実施形態では、DSPユニットを3つの別々のサブプロセスに再分割する。これらは、両耳フィルタリング、ドプラ・シフト処理、および周囲(ambience)処理である。図10は、本開示の一実施形態の音源定位のためのDSPソフトウェア処理フローを示す。
最初に、動作1000を実行して、DSPによる更なる処理のために、オーディオ入力チャネルに対するオーディオ・データのブロックを得る。次いで、動作1005を実行して、このブロックに両耳フィルタリングの処理を行う。次いで、動作1010を実行して、このブロックにドプラ・シフトの処理を行う。最後に、処理1015を実行して、このブロックに部屋シミュレーション(room simulation)の処理を行う。他の実施形態では、両耳フィルタリング1005、ドプラ・シフト処理1010、および部屋シミュレーション処理1015を異なる順序で実行してもよい。
両耳フィルタリング動作1005の間、動作1020を実行して、指定された3D位置に対するHRIRフィルタ集合を読み込む。
オーディオ・データのブロックの部屋シミュレーション処理(動作1015)の間に、動作1050を実行する。動作1050では、部屋の形状およびサイズに合わせてオーディオ・データのブロックを処理する。次いで、動作1055を実行する。動作1055では、壁、床、および天井の材料に合わせてオーディオ・データのブロックを処理する。次いで、動作1060を実行する。動作1060では、3D音源位置およびリスナーの耳からの距離を反映するように、オーディオ・データのブロックを処理する。
人間の耳は、音響キューの周囲ならびに外耳および耳介を含む人間の聴覚系との様々な相互作用から、この音響キューの位置を推論する。異なる位置からの音響は、人間の聴覚系において異なる共鳴(resonance)および相殺(cancellation)を生じ、空間における音響キューの相対的位置を判定することを、人間の脳に可能にする。
音響キューの環境、耳、および耳介との相互作用によって生ずるこれらの共鳴および相殺は、本質的に性質上線形であり、したがって、線形時間不変(「LTI」)システムの外部刺激に対する応答として、定位された音響を表現することによって取り込むことができる。これは、本開示の種々の実施形態によって計算することができる。(一般に、本明細書において明記する計算、式、およびその他の動作は、本開示の実施形態によって実行することができ、そうするのが通例である。つまり、例えば、一実施形態例は、本明細書において開示するタスク、計算、動作等を実行することができるように、しかるべく構成されたコンピュータ・ハードウェアまたはソフトウェアの形態をなすことができる。したがって、このようなタスク、式、動作、計算等(纏めて、「データ」)の論述は、このようなデータを実行する、このようなデータにアクセスする、またはそれ以外で利用することを含む、実施形態例のコンテキストで明記されることは、理解されてしかるべきである。)
いずれの離散LTIシステムの1つのインパルス応答に対する応答も、システムの「インパルス応答」と呼ばれる。このようなシステムのインパルス応答h(t)を想定すると、任意の入力信号s(t)に対するその応答y(t)は、時間ドメインにおける畳み込みと呼ばれるプロセスを通じて、一実施形態によって構築することができる。即ち、
y(t)=s(t)・h(t)
ここで、「・」は畳み込みを示す。
オーディオ・データのブロックに両耳フィルタリングを行った後、本開示の実施形態は、更に、ドプラ・シフトを考慮するためまたは形成するために(図10の動作1010)、オーディオ・データのブロックを更に処理することもできる。他の実施形態では、オーディオ・データのブロックに両耳フィルタリングを行う前に、このデータのブロックにドプラ・シフトの処理を行うこともできる。ドプラ・シフトとは、図11に示すように、音源のリスナーに対する相対的な移動の結果知覚される音源の音高変化である。図11に示すように、固定の音源には音高の変化は起こらない。しかしながら、音源1310がリスナーに向かって移動するに連れて音高は高くなるように知覚され、一方音源が移動してリスナーから離れるに連れて、音高は低くなるように知覚される。音速は334メートル/秒であり、移動する音源の速度よりも数倍高いので、音源がゆっくり移動する場合でも、ドプラ・シフトには容易に気付くことができる。つまり、本実施形態は、定位プロセスがドプラ・シフトを考慮に入れて、リスナーが移動する音源の速度および方向を判定することができるように、構成することができる。
ドプラ・シフトの効果は、本開示の実施形態によって、ディジタル信号処理を用いて創作することができる。音源とリスナーとの間の最大距離にサイズが比例するデータ・バッファを作成する。これより図12を参照すると、オーディオ・データのブロックをバッファの「入力タップ」(in tap)1405に供給する。「入力タップ」1405は、バッファのインデックス0にあるとよく、仮想音源の位置に対応する。「出力タップ」1415は、リスナーの位置に対応する。固定の仮想音源では、リスナーと仮想音源との間の距離は、図12に示すように、単純な遅延として知覚される。
仮想音源を経路に沿って移動させるとき、リスナー・タップまたは音源タップを移動させて知覚される音響の音高を変化させることによって、ドプラ・シフト効果を導入することができる。例えば、図13に示すように、リスナーのタップ位置1515を左に移動させると、音源1500に向かって移動することを意味し、音波のピークおよび谷がリスナーの位置に当たるのが速くなる。これは、音高が高くなることと同等である。あるいは、知覚される音高を低くするためには、リスナーのタップ位置1515を移動させて音源1500から離すことができる。
本実施形態は、左耳および右耳に別個にドプラ・シフトを生じさせて、リスナーに対して放射方向に移動するだけでなく、回転移動する音源をシミュレートすることができる。ドプラ・シフトは、音源がリスナーに近づきつつあるときには、周波数が高くなる音高を形成することができるので、そして入力信号は臨界でサンプリングされることがあるので、音高の上昇の結果一部の周波数がナイキスト周波数を外れてしまい、エリアシングを生ずる可能性がある。エリアシングが起こるのは、レートSrでサンプリングした信号がナイキスト周波数=Sr/2以上の周波数を含むときである(例えば、44.1kHzでサンプリングした信号は、22,050Hzのナイキスト周波数を有し、この信号は、エリアシングを回避するためには、22,050Hz未満の周波数内容を有するとよい)。ナイキスト周波数よりも高い周波数は、それよりも低い周波数の位置に現れて、望ましくないエリアシング効果を生ずる。本開示の実施形態は、ドプラ・シフト処理の前または最中にアンチ・エリアシング・フィルタを採用し、音高のいずれの変化も、処理されたオーディオ信号内において他の周波数とエリアスする周波数を生じないようにすることができる。
左および右耳のドプラ・シフトを互いに独立して処理するので、本開示の実施形態をマルチプロセッサ・システム上で実行すると、耳毎に別のプロセッサを利用し、オーディオ・データのブロックの全体的な処理時間を最少限に抑えることができる。
本開示の実施形態は、オーディオ・データのブロックに対して周囲処理を実行することができる(図10の動作1015)。周囲処理は、部屋の特性を考慮に入れるための反射処理(図10の動作1050および1055)および距離処理(図10の動作1060)を含む。
音源のラウドネス(デシベル・レベル)は、音源とリスナーとの間の距離の関数である。リスナーまでの途中で、音波のエネルギの一部が、摩擦および消散(空気の吸収)によって熱に変換される。また、3D空間における波の伝搬によって、音波のエネルギは、リスナーおよび音源が離れる程、広い空間の容積全体に分散される(距離減衰)。
理想的な環境では、音源から距離d2におけるリスナーとの間の音圧レベルの減衰A(dB単位)の基準レベルは、d1の距離において測定され、以下のように表すことができる。
A=20log10(d2/d1)
この関係は、一般に、完全に損失がない雰囲気において、干渉する物体が全くない場合でなければ有効でない。本開示の一実施形態では、距離d2にある音源に対する減衰係数(attenuation factor)を計算するために、この関係を用いる。
音波は、一般に、環境内にある物体と相互作用し、音波は反射、屈折、または回折を受ける。表面からの反射によって、離散反響(discrete echoes)が信号に追加され、一方屈折および回折の方が、一般に、周波数依存性が高く、周波数と共に変化する時間遅延を生ずる。したがって、本開示の実施形態では、音源の距離知覚を強化するために直近の周囲についての情報を組み込む。
音波の物体との相互作用をモデル化するためには、様々な方法を本開示の実施形態によって使用することができ、これらの方法には、光線追跡、ならびに櫛形および全通過フィルタリングを用いる残響(ray tracing and reverb)処理が含まれる。光線追跡では、仮想音源の反射をリスナーの位置から音源まで逆に追跡する。これによって、本当の部屋の現実的な近似を可能にする。何故なら、このプロセスは音波の経路をモデル化するからである。
櫛形および全通過フィルタリングを用いる残響処理では、実際の環境は通例モデル化されない。むしろ、現実的な音響効果を代わりに再現する。広く用いられている1つの方法では、"Colorless artificial reverberation" (無色人工的残響)、M.R. Schroeder and B.F. Logan, IRE Transactions, Vol. AU-9, pp.209-214, 1961という論文に記載されているように、櫛形および全通過フィルタを直列および並列構成に配列する。この論文をここで引用したことにより、その内容が本願にも含まれるものとする。
全通過フィルタ1600は、図14に示すように、フィード・フォワード1610およびフィードバック1615経路を有する遅延エレメント1605として実装することができる。全通過フィルタの構造では、フィルタiは、以下の式で示される伝達関数を有する。
(z)=(k+z−1)/(1+k−1
理想的な全通過フィルタは、長周期単位振幅応答(そのため全域通過という)により周波数依存の遅延を作り出す。そのため、全域通過フィルタは、長周期位相スペクトルに対してのみ効果を有する。本開示の一実施形態では、定位される仮想音源の近傍にある物質により加えられる多重反響の音響効果を遂行するために、図15に示すように、全域通過フィルタ1705,1710をネストすることができる。特定的な一実施形態では、16個のネストされた全域通過フィルタのネットワークを、共有メモリ・ブロック(蓄積バッファ)全体にわたって実装する。オーディオ・チャンネル毎に8個である、追加の16個の出力タップが、仮想音源及びリスナーの周囲にある壁、天井及び床の存在をシミュレートする。
蓄積バッファへのタップは、それらの時間遅延が、一次反響時間と、リスナーの2つの耳と仮想音源との空間内における経路長とに対応するように、間隔を空けて置かれるとよい。図16は、全域通過フィルタ・モデル、優先波形(preferential waveform)1805(直接入射音)、および仮想音源からリスナーまでの初期反響1810,1815,1820,1825,1830の結果を示す。
6.更なる処理の改善
ある種の条件下において、HRTFフィルタは、特定の周波数を望ましくなく強調するスペクトルの不平衡をひきおこす可能性がある。これは、フィルタの振幅スペクトル に、処理された信号が平坦な振幅スペクトルを有する場合に隣接周波数領域間の不平衡を起こす可能性がある、大きなディップ(dip)及びピークがあることにより発生する。
定位キューを生成するために一般に用いられる小規模のピークに影響することなく、この音の不平衡効果を中和するために、周波数によって異なる全体利得係数をフィルタ振幅スペクトルに適用する。この利得係数は、周波数スペクトルにおける変化を平滑化し、全体的にその平坦性を最大化して、理想的なフィルタ・スペクトルからの大規模な逸脱を最小限に抑えるイコライザとして動作する。
加えて、両耳フィルタの一部の効果は、リスナーの位置に対して対称的に位置付けられた2つの仮想スピーカを通じてステレオ・トラックが再生されるときに相殺されることもある。これは、フィルタ双方の内耳レベル差(「ILD」),ITDおよび位相応答の対称性によるものと考えられる。即ち、ILD,ITDならびに左耳フィルタおよび右耳フィルタの位相応答は、通常、互いの逆数となる。
図17は、2つの仮想スピーカ2305、2310を通じてモノラル信号を再生するときのように、ステレオ信号の左および右チャネルが実質的に同一であるときに生ずる場合がある状況を示す。この設定はリスナー2315に対して対称的であるので、
ITD L−R = ITD L−L、およびITD L−L = ITD R−R
となる。
ここで、ITD L−Rは左チャンネルから右耳へのITDであり、ITD R−Lは右チャンネルから左耳へのITDであり、ITD L−Lは左チャンネルから左耳へのITDであり、ITD R−Rは右チャンネルから右耳へのITDである。
図17に示すような、2つの対称的に配置された仮想スピーカ2305、2310で再生されるモノラル信号について、一般に、仮想音源が中央2320から来るように感じられるように、ITDを足し合わせる。
更に、図18は、信号が右2405(又は左2410)チャンネルのみに現れる状況を示す。そのような状況では、右(左)フィルタ集合、ならびにそのITD、ILD、および位相および振幅応答のみを信号に適用し、この信号が、スピーカ領域の外側にある遠方の右(遠方の左)の位置2415から来るかのように感じさせる。
最後に、図19に示すように、ステレオ・トラックを処理するとき、エネルギの大半は、一般に、ステレオ領域2500の中央に配置される。これは、一般に、多くの楽器を含むステレオ・トラックでは、大抵の楽器はステレオ・イメージの中央にパンニングされ、一部の楽器だけがステレオ・イメージの両側にあるように感じられることを意味する。
2つ以上のスピーカを通じて再生される定位ステレオ信号の定位をより効果的にするために、2つのステレオ・チャンネル間のサンプル分配を、ステレオ・イメージのエッジに向けてバイアスするとよい。これによって、より多くの入力信号が両耳聴フィルタによって定位されるように、2つの入力チャンネルを相関付けないことによって、両チャンネルに共通な全信号を効果的に低減する。
しかしながら、ステレオ・イメージの中央部を減衰することにより、他の問題を招く可能性がある。特に、声及びリード楽器(lead instruments)の減衰が引き起こされ、望ましくないカラオケのような効果が生み出されることがある。本開示の実施形態では、音声及びリード楽器を事実上処理されていない状態のまま残すように中央の信号にバンド・パス・フィルタリングを加えることによって、これを無効にする。
図20は、中央信号のバンド・パス・フィルタリングを用いる本開示の一実施形態の信号導出を示す。これは、本実施形態によって、図5の動作525に組み込んでもよい。
再度図5を参照すると、DSP処理モードは、DSP信号経路の多数のインスタンスを形成するために、多数の入力ファイル又はデータ・ストリームを受け入れることができる。信号経路毎のDSP処理モードでは、一般に、1つのステレオ・ファイル又はデータ・ストリームを入力として受け入れ、入力信号を左右のチャンネルに分割し、DSPプロセスのための2つのインスタンスを形成し、1つのインスタンスをモノラル信号として左チャンネルに、もう1つのインスタンスをモノラル信号としての右チャンネルに割り当てる。図20は、処理モード内における左インスタンス2605及び右インスタンス2610を示す。
図20の左インスタンス2605は、図示された全てのコンポーネントを含むが、左チャンネルにある信号のみを有する。右インスタンス2610は、左インスタンスと同様であるが、右チャンネルにある信号のみを有する。左インスタンスの場合、信号は加算器2615に行く半分と、左減算器2620に行く半分とに分割される。加算器2615は、ステレオ信号の中央分配のモノラル信号を生成し、この信号は、特定の周波数範囲が減衰器2630への通過を許されるバンド・パス・フィルタ2625に入力される。中央の寄与(contribution)を左減算器と組み合わせて、ステレオ信号の最も左の様相(aspect)または左の様相のみを生成する。次いで、これらは、定位のために左HRTFフィルタ2635によって処理される。最後に、左に定位された信号を、減衰された中央寄与信号と組み合わせる。同様の処理が右インスタンス2610にも行われる。
左右のインスタンスを組み合わせて最終出力を得ることができる。これによって、元の信号の中央寄与の存在を保持しつつ、遠方の左右の音響の定位を強めることができる。
一実施形態では、バンド・パス・フィルタ2625は、12dB/オクターブのスティープネス、300Hzの下側周波数カットオフ値、および2kHzの上側周波数カットオフ値を有する。一般に、減衰率が20〜40%である場合に良好な結果が得られる。他の実施形態では、バンド・パス・フィルタに対する異なる設定値、および/または異なる減衰率を用いても良い。
7.ブロックに基づく処理
一般に、音声入力信号は非常に長くなる場合がある。そのような長い入力信号は、定位ステレオ出力を生成するように、時間ドメインにおいて両耳聴フィルタによって畳み込むとよい。しかしながら、本開示の実施形態によって信号をディジタル処理するとき、入力オーディオ信号をオーディオ・データのブロック単位に処理するとよい。
オーディオ・データは、ブロック2705において、図21に示すようにブロックが重なり合うように処理するとよい。ブロックは、kサンプル毎に取り込まれ(kサンプルのストライドと呼ぶ)、ここでkは、変換フレーム・サイズNよりも小さい整数である。この結果、隣接するブロックが、(N−k)/Nによって定められるストライド率だけ重なり合うことになる。実施形態の中には、このストライド率を変更できるものもある。
オーディオ信号は、ブロックのエッジにおいて信号がカットオフされる際に生じるエッジ効果を最小に抑えるために、重なり合うブロック単位で処理するとよい。種々の実施形態では、ブロック内部にあるデータにウィンドウ2710(漸減関数)を適用して、ブロックの開始および終了において徐々にゼロになるようにすることができる。一実施形態では、ハン・ウィンドウ(Hann window)を漸減関数として用いることができる。
ハン・ウィンドウ関数は、数学的には、次のように表される。
y=0.5−0.5cos(2πt/N)
他の実施形態では、ハミング、ガウス、およびカイザー・ウィンドウを含むがこれらには限定されないような、他の適したウィンドウを採用してもよい。
個々のブロックから継ぎ目のない出力を形成するために、以前に用いたのと同じストライドを用いて、処理済みブロックからの結果を纏めて合算する。これは、「重複保存」(overlap-save)と呼ばれる技法を用いて行うことができ、次のフレームとのクロスフェードを適用するように、各ブロックの一部を格納する。適正なストライドが使用された場合、個々のフィルタリングされたブロックがひと続きにされると、ウィンドウ関数の効果が相殺される(即ち、合計で1になる)。これによって、それぞれにフィルタリングされたブロックから、グリッチがない出力を生成する。一実施形態では、FETブロック・サイズの50%に等しいストライドを利用することができる。即ち、4096のFETフレーム・サイズに対して、ストライドを2048に設定することができる。この実施形態では、それぞれ処理されたセグメントが、前のセグメントと50%ずつ互いに重なり合う。即ち、ブロックiの後ろ半分は、ブロックi+1の前半分に足し合わされて、最終的な出力信号が得られる。これにより、一般に、フレーム間のクロスフェードを遂行するために信号処理期間に格納するデータ量が少なくなる。
一般に、クロスフェードを行うには少量のデータを格納すればよいので、入力信号と出力信号との間に生ずるレイテンシ(遅延)は僅かであると考えられる。この遅延は通例20msよりも遙かに短く、全ての処理されるチャネルで概ね同じであるので、処理された信号に対する効果は無視できる程度であるのが一般的である。また、生で処理するよりも、ファイルからデータを処理するとよく、このような遅延が無関係になることは、注記してしかるべきである。
更に、ブロックに基づく処理は、秒毎のパラメータ更新回数を抑制することができる。本開示の一実施形態では、各変換フレームを、1組のHRTFフィルタを用いて処理することができる。したがって、ブロックの期間中に音源位置の変化は起こらない。これが通常気がつかないのは、隣接するブロック間のクロスフェードも、2つの異なる音源位置の描出(rendering)の間に滑らかにクロスフェードするからである。あるいは、0サンプルの重複に達するまで、ストライドkを増加させることもでき、これによって連続出力が得られる。または、より多くの重複が生ずるようにストライドkを減少させることもできるが、1秒当たり処理するブロック数が増加する。
一実施形態では、オーディオ・ファイル・ユニットが信号処理システムに入力を供給することもできる。このオーディオ・ファイル・ユニットは、オーディオ・ファイルを読み取って、二進パルス・コード変調(「PCM」)データに変換する(デコードする)。PCMデータは、元の音響の音圧レベルに比例して変化する。最終的な入力データ・ストリームは、IEEE754浮動小数点データ・フォーマット(即ち、44.1kHzでサンプリングされ、データ値が−0.1から+0.1の範囲に制限される)とすることができる。これによって、処理チェーン全体にわたって一貫した正確度を得ることができる。尚、処理されるオーディオ・ファイルは一般に一定レートでサンプリングされることは注記してしかるべきである。他の実施形態では、他のフォーマットでエンコードされたオーディオ・ファイル、および/または異なるレートでサンプリングされたオーディオ・ファイルを利用することもできる。更に他の実施形態では、サウンド・カードのようなプラグイン・カードからのデータの入力オーディオ・ストリームを、実質的にリアル・タイムで処理することもできる。
先に論じたように、一実施形態では、7,337個の予め定義されたフィルタを有するHRTFフィルタ集合を利用することができる。これらのフィルタは、24ビットの長さの係数を有することができる。HRTFフィルタ集合は、アップ・サンプリング、ダウン・サンプリング、分解能向上、または分解能低下によって新たな1組のフィルタ(即ち、フィルタの計数)に変更し、元の44.1kHz、24ビットのフォーマットをいずれかのサンプリング・レートおよび/または分解能に変更することができる。次いで、この新たなフィルタ集合は、異なるサンプリング・レートおよび分解能(例えば、88.2kHz、32ビット)を有する入力音声波形に適用することができる。
オーディオ・データの処理後、ユーザは、出力をファイルに保存することができる。ユーザは、内部でミキシング・ダウンされた1つのステレオ・ファイルに出力を保存することができ、または各定位トラックを独立のステレオ・ファイルとして保存してもよい。また、ユーザは、結果的に得られたファイル・フォーマットを選択することができる(例えば、*.mp3、*. aif、*.au、*.wav、*.wma等)。結果的に得られた定位ステレオ出力は、定位ステレオ音声の再現に必要とされる何の特別な装置も用いることなく、従来のオーディオ装置で再生することができる。更に、一旦格納されたファイルは、CDプレーヤーでの再生のために標準のCDオーディオに変換することもできる。CDオーディオ・ファイル・フォーマットの一例に、.CDAフォーマットがある。また、DVDオーディオ、HDオーディオ及びVHSオーディオ・フォーマットを含むがそれらに限定されない他のフォーマットにファイルを変換することもできる。
8.埋め込みプロセス
本開示の実施形態は、消費者用電子機器(CE)市場に合わせた種々の用途においてオーディオ空間化用DSPを設けるように構成することができる。具体的には、サード・パーティ製のハードウェア、ファームウェア、またはオペレーティング・システム・カーネル内に本開示にしたがって提供される埋め込みアプリケーションは、2つ以上のチャネルに定位を用いることができる。このようなオーディオ・チェーンは、特殊DSPプロセッサ、あるいは他の標準的なまたはリアル・タイム埋め込みプロセッサ内で動作することもできる。例えば、埋め込みプロセスは、種々の消費者用電子デバイスのオーディオ出力チェーン内に実装することができる。消費者用電子デバイスには、ハンドヘルド・メディア・デバイス、セル・フォン、スマート・フォン、MP3プレーヤ、ブロードキャストまたはストリーミング・メディア・デバイス、衛星、ケーブル、インターネット、またはブロードキャスト・ビデオ用セット・トップ・ボックス、インターネット・ブロードキャスト用ストリーミング・メディア・サーバ、オーディオ受信機/プレーヤ、DVD/ブルーレイ・プレーヤ、家庭用、携帯用、または自動車用無線機(アナログまたはディジタル)、ホーム・シアター受信機またはプリアンプ、テレビジョン、ディジタル・オーディオ記憶および再生デバイス、ナビゲーションおよび「インフォテインメント」(infotainment)システム、自動車用ナビゲーションおよび/または「インフォテインメント」システム、ハンドヘルドGPSユニット、入力/出力システム、外部スピーカ、ヘッドホン、外部、独立、出力信号修正デバイス(即ち、再生音源とスピーカまたはヘッドホンシステムとの間に常駐し、DSP処理をサポートするしかるべき回路を内蔵する非永続的、単体デバイス)、あるいはマイクロフォン(モノ、ステレオ、またはマルチチャネル入力)を含むことができるが、これらに限定されるのではない。埋め込みDSPに適した他のCEアプリケーションも当業者には周知であり、そして当業者には認められよう。このようなアプリケーションは、本開示の範囲に該当することを意図している。
オーディオ空間化のための埋め込みDSPは、オーディオを取り込み、再生し、および/または表現する電子ハードウェア・デバイスの能力を向上させることができる。この能力は、このようなデバイスを真に3Dオーディオ対応にすること、またそうでなければ、3Dオーディオをエミュレートすることを可能にし、これによって現実的な音響光景(soundscape)を提供し、オーディオ・コンテンツを一層明確にする潜在的な可能性が得られる。
以下に示すのは、様々な一般的なCEシステム構成におけるオーディオ空間化のための埋め込みプロセスの説明である。これらには、モノ入力−ステレオ出力、マルチチャネル入力−2チャネル出力、マルチチャネル入力−ダウン・ミキシング・マルチチャネル出力、マルチチャネル入力−3チャネル出力、2チャネル入力−3チャネル出力、ステレオ入力−定位中央チャネルを有するステレオ出力、2チャネルLtRt(左総合/右総合)−仮想マルチチャネル・ステレオ出力(2つの代替構成における)、そして2チャネル入力−アップ・ミキシング5.1マルチチャネル出力が含まれる。これらのシステム構成は、性質上例示であることを意図しており、当業者は、以下の開示に基づくいずれのシステム構成においても、オーディオ空間化を可能にするために種々の変更を行うことができよう。
以下で説明する各埋め込みプロセスに付随する図(即ち、図22、図24、図26、図28、図30、図32a、図32b、図36、および図38)に関して、その中に描かれている矢印は、種々のタイプの情報の流れを表すが、性質上広義に例示的であることを意図しており、矢印間に厳密な接続がなくても不連続な情報の流れを意味するのではない(例えば、図22に関して、外部動作3000を、3020bを介してプロセス3025に接続する矢印は、動作3030aおよび3030bに至る矢印とは、厳密に言えば、接続されていないが、これによって不連続な情報の流れを意図しているのではない)。更に、図において、情報が組み合わされて1つの流れになったり、情報が1つよりも多い流れに分けられる場合、その中で種々のシンボル(例えば、バー、菱形、円等)を用いても、1つの特定のシンボルが必ずしも同じ図または他の図において同様のシンボルの機能を表す訳ではなく、これらのシンボルは性質上広義に例示的であることを意図している(例えば、再度図22に関して、バーのシンボルは、情報フローの分離(例えば、動作3030aおよび3030bに別れる)を示すため、および情報フローの結合(例えば、動作3035に結合する)を表すための双方で用いられる。このように、本出願人は、本明細書において紹介するいずれの図もいずれの特定の慣例の表現様式にも必ずしも従うとは限らず、本開示のある種の態様を広義に例示することを意図しているということを念頭に入れている。
A.モノ入力−ステレオ出力
本開示によるモノ信号定位のための埋め込みプロセスは、空間化プロセスの外部にある何らかのタイプのイベント・キューに基づいて、1つの入力モノ信号と、関連するDSPパラメータとを受け取る。一般に、これらのイベントは、何らかの外部刺激によって、他のプロセスによって自動的に生成されるが、何らかの人−機械インターフェースを通じて人間が開始することもできる。例えば、モノ信号定位プロセスは、イベント・シミュレータならびに自動車用「インフォテインメント」およびナビゲーション・システムにおける警報、通知、および効果のために、直接応用することができる。更に他の用途には、コンピュータのハードウェアまたはゲーミング・ソフトウェア、およびコンソール・ビデオ・ゲーミング・システム内における、人間のゲーム・プレー入力に対する応答を含むことができる。
モノ信号定位プロセスは、多数の独立したモノ入力信号をサポートすることができる。出力は、各々共通の固定フレーム長を有する多数の入力バッファ(音源毎に1つずつ)を採用し、各入力バッファを直列に処理し、次いで入力信号を纏めて合算することによって結果的に得られた信号を一緒にミキシングして1つの出力バッファを得ることによって、同期することができる。このプロセスは、以下の式によって表すことができる。
OutputBufferLeft = Σ(InputBufferLeft[i]*gain[i])
OutputBufferRight = Σ(InputBufferRight[i]*gain[i])
ここで、iは定位された各モノ音源を表す。尚、ミキシングする同時入力信号の実際の数は、プロセッサ速度の要素(factor)であることは認められよう。
既に開示したように、DSPパラメータは、具体的に、結果的に定位される信号に適用される一定の方位角[0°,359°]、仰角[90°,−90°]、および距離キュー・データ[0,100](ここで、0の場合、頭部の中央で音響が知覚され、100は任意の離れた位置である)を含む。これらのパラメータ値を本プロセスにリアル・タイムで、いずれかの任意のレートで送り出すことができ、聴くことができる動きの感覚が得られる(例えば、前述のような4D効果)。
図22は、本開示によるモノ信号定位のためのプロセス・フローの一実施形態を示す。定位の前に、外部イベントが行われると(3000)、センサ3005aまたは人間によって開始される動作3005bによって検出することができる。この時点において、本システムは、イベント検出メッセージを生成し(3010)、その後正しいイベント応答を判定することができる(3015)。このような応答は、本システムが正しいオーディオ・ファイルまたはストリームを入れるように指示する(cue)(3020a)ことを含むとよく、あるいは正しいDSPおよび定位パラメータを入れるように指示する(3020b)ことも含むとよい。勿論、他の応答も可能である。図22に示すように、動作3000から3020(a,b)までは、モノ信号定位プロセス325の前に、そして外部で行われる。
一旦正しいオーディオ・ファイルまたはストリーム、ならびに正しいDSPおよび定位パラメータが指示されたなら、モノ信号を定位するために以下の動作を実行することができる(3025)。指示されたオーディオ・ファイルまたはストリームについて、本プロセスは固定フレーム・サイズを有するオーディオの入力バッファを受け取る(3030a)。指示されたDSPおよび定位パラメータについて、本プロセスはこのようなパラメータを受け取り(3030b)、処理のためにこれらを格納する(3031)。その後、動作3035において、動作3030bからの方位角および仰角入力パラメータを含むDSPおよび定位パラメータを適用して、正しいIIRフィルタを調べて読み出す。動作3040において、ロー・パス・フィルタ、LFE利得およびEQを用いて、低周波数強調のためにオーディオを処理することができる。動作3045において、動作3035からのフィルタ、ならびに距離および残響入力値を用いて、既に説明したように処理方法の定位効果を適用し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用して、あらゆるトーン・カラライゼーション(tone colorization)を補正する。最後に、動作3050において、出力バッファに処理した信号を入力し、オーディオ・バッファを外部プロセスに戻す。
図23は、図22において先に説明したプロセスと共に用いるように構成されたコンポーネントの配線図の一例を示す。DSPパラメータ・マネージャ3100は、動作3030(a、b)から3035までを実行するコンポーネントである。ロー・パス・フィルタ3105、ITD補償3110、および位相反転(phase flip)3115のコンポーネントは、動作3040を実行する。動作3045に関して、HRTFコンポーネント3120はしかるべきIIRフィルタを直接適用し、一方内耳時間遅延コンポーネント3125および内耳振幅差コンポーネント3130は、定位効果を完成するために、必要な左耳/右耳タイミング情報を適用する。動作3040の最終的な態様(aspect)は、距離コンポーネント3135によって適用され、現実的な部屋のシミュレーション(または自由な場)に合わせた距離および残響のために信号減衰を適用する。左/右遅延コンポーネント3140は、自動車オーディオ用途において運転手または乗員にオーディオの中心を置くという要望というような、ある種の用途のために左−右バイアスを信号に適用する任意のコンポーネントである。
B.マルチチャネル入力−2チャネル出力
本開示による、定位マルチチャネル入力−ダウン・ミキシング2チャネル出力のための埋め込みプロセスでは、仮想マルチチャネル構成指定に加えて、1組の離散マルチチャネル・モノ・オーディオ信号を入力として受け取る。このプロセスは、2.1,3.1,4.0,5.1,6.1,7.1,10.2等を含むがこれらに限定されない、いずれのマルチチャネル入力にも適用することができる。したがって、本プロセスは少なくとも2.1−チャネル入力を有するいずれのマルチチャネル構成でもサポートする。
いずれのマルチチャネル入力でも用いてもよいが、本開示では、例示の目的に限って、標準的な5.1入力(左前部、右前部、中央、左サラウンド、右サラウンド、および低周波数効果)を代表的なマルチチャネル音源として用いる。この構成指定は、チャネルのどの対(前部対または後部対、あるいは両方)に定位効果が適用されるのかに影響を及ぼす。全ての構成において、中央およびLFE信号を分割して、前部対に加算し、別々の利得段を各々に適用する。ステレオ信号が前部対にある場合、架空中央信号を隔離してそれを前部信号対に加算するために、中央−側部デコーディング(Mid-Side Decoding)を適用することができる(中央−側部デコーディングの詳細な説明については、副章Gにおいて以下で示す、本明細書の詳細な説明を参照のこと)。
ここで説明しているマルチチャネル入力/2チャネル出力プロセスの特有の用途が、コンピュータ、TV、および他のCEデバイスにおいて見られるような、マルチチャネル音楽および映画出力にある。この用途では、マルチチャネル信号を入力として受け取ることができるが、デバイス自体は出力のために1対のステレオ・スピーカを内蔵するに過ぎない。他の用途例が、特殊マルチチャネル・マイクロフォン入力にあり、この場合所望の出力は2チャネル仮想マルチチャネルである。
5.1マルチチャネル入力の例に関して、前部対および後部対(物理的)位置角度に対するITU775サラウンド音響標準を、仮想方位角および仰角定位予備設定(presets)として予め構成することができる。ITU775は、信号の前部対が前方に面する中央に対して22.5から30°の角度を有することを指定し、信号の後部対が前方に面する中央に対して110°の角度を有することを指定する。ITU775を用いることができるが、これは制約ではなく、いずれの任意の定位角度でも適用することができる。
一構成では、信号の前部対は修正されないまま通過するが、後部対は定位される。他の構成では、信号の前部対が定位されるが、信号の後部対は修正されないまま残される。更に他の構成では、前部および後部の信号対双方が定位される。このような構成では、一方の対の他方の対に対する角度の広がりを増加させて、各対が他方を音響的に相補することが望ましい場合がある。マルチチャネル音源における実際のチャネル数に基づいて、これらの構成の組み合わせをしかるべく拡張してもよい。
図24は、5.1入力を一例として用いる、本開示による2チャネル信号定位のプロセス・フローの一実施形態を示す。図24に示すように、5.1(または他の入力)構成3200を確立し、選択したオーディオ・ファイルまたはストリーム3205を送る動作は、2チャネル信号定位プロセス3210の前に、そしてこのプロセスの外部で行われる。
2チャネル信号定位プロセスは、パラメータ設定経路において、外部プロセスからマルチチャネル構成入力パラメータを受け取る動作(3215)から開始する。また、DSP入力パラメータも外部プロセスから受け取る(3220)。動作3215および3220からのパラメータを処理のために格納する(3225)。その後、利得、EQ値等のような、定位に関係ないDSPパラメータを処理のために設定する(3230)。
代わりの動作3235a、3235b、および3235cでは、前部ステレオ対(後部定位のみが得られる)または後部ステレオ対(前方定位のみが得られる)に対する定位をバイパスするために、マルチチャネル構成を用いるか、または前部ステレオ対に対する方位角定位パラメータを設定する。この例では、ステップ3235cを実行する場合、前部対方位角値を標準的なITU775値に設定する。
代わりの動作3240a、3240b、および3240は、それぞれ、動作3235a、3235b、および3235cに対応し、定位のためにマルチチャネル構成を使用して関連する方位角パラメータ設定を完了することによって、動作3235a、3235b、および3235cを引き立たせる(compliment)。この例では、動作3235aを実行する場合、続いて動作3240aを実行し、後部ステレオ対方位角値を標準的なITU775値に設定する。3235b/3240b経路および3235c/3240c経路は同様に、この場合もITU775の角度を一例として用いて、定位のために方位角パラメータを設定する。
これよりプロセス3210のオーディオ信号経路を参照すると、動作3245は、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセスから受け取る。手順3250において、方位角および仰角入力パラメータを用いて、正しいIIRフィルタを調べて読み出す。その後、ロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用する(3255)。前部ステレオ対が架空の中央チャネルを含む場合、動作3260において中央−側部デコード・プロセスによってこれを抽出することができる。
動作3265において、動作3240からのフィルタ、ならびに距離および残響入力値を用いて、本処理方法の定位効果を適用することによって、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用して、あらゆるトーン・カラライゼーションを補正する。
最後に、動作3270において、定位した前部信号、定位した後部信号、中央信号、およびLFE信号を合算して合成ステレオ対を得ることによって、これらの信号をダウン・ミキシングすることができる。この出力ステレオ・バッファには、その後動作3275において、処理した信号を入力し、このオーディオ・バッファを外部プロセスに戻す。
図25は、図24において上で説明した手順と共に用いるように構成されたコンポーネントの配線図の一例を示す。(可変率中央バイパス動作(percent-center bypass operation)に関しては、その詳細な説明を副章Gにおいて以下で示す)。HRTF3300、内耳時間遅延3305、および内耳振幅差3310、ならびに距離および残響3315コンポーネント(図示する各チャネルにおける)は、図23に関して先に説明したような機能を実行し、前述のような2チャネル定位プロセスを実行するために利用されるコンポーネントを備えている。左前部および右前部の定位のために、このようなコンポーネントの集合が2組あり、更に左後部および右後部の定位のために2組ある。
いずれの2回で1組の定位のために2チャネル定位プロセスを実行するために用いられるコンポーネントも、いずれのモノ入力信号にも適用することができる。例えば、前に述べた2チャネル定位プロセスのいずれかを左前部、右前部、左後部、および/または右後部信号に適用することに加えてまたはその代わりに、1つ以上の実施形態では、中央チャネル信号に対して定位を行うように構成することもできる。尚、このような中央チャネル信号は、マルチチャネル入力ストリームにおいてしばしば供給されるような、真の中央チャネル入力であってもよく、あるいはM−Sデコーダまたは他の中央チャネル・デコーディング・アルゴリズムから導き出してもよい。同様に、前に述べた2チャネル定位プロセスは、構成に関係なく、いずれの入力信号にも適用することができる。例えば、少なくとも1つの実施形態において図25のコンポーネントを用いて、離散入力信号定位を、7.1、10.2、および他のマルチチャネル入力構成に、必要に応じておよび/または所望通りに適用することができる。
C.マルチチャネル入力対3チャネル出力
本開示によるマルチチャネル入力対3チャネル(左、中央、および右、またはLCR)の埋め込みプロセスでは、1組の離散マルチチャネル・モノ・オーディオ信号を、仮想マルチチャネル構成指定に加えて、受け取る。このプロセスは、いずれのマルチチャネル入力にも適用することができ、3.0,3.1,4.0,5.1,6.1,7.1,10.2等を含むがこれらに限定されるのではない。つまり、本プロセスは最小でも3チャネル入力を有するいずれのマルチチャネル構成でもサポートする。このプロセスは、上の副章Bにおいて既に説明したマルチチャネル入力/2チャネル出力プロセスと同様である。2チャネル構成と3チャネル構成との間の相違には、左前部および右前部信号に適用される可変率中央バイパス・(副章Gにおいて以下に示すその詳細な説明を参照のこと)がなく、入力中央チャネルを直接出力中央チャネルに、利得を適用して、導くことが含まれる。
例示の目的で、本開示は、標準5.1入力(左前部、右前部、中央、左サラウンド、右サラウンド、および低周波数効果)を代表的マルチチャネル音源として再度採用する。標準的な5.1設定(左前部、右前部、中央、左サラウンド、右サラウンド、および低周波数効果)とした1組の離散モノ・オーディオ信号が入力として与えられると、実際の中央チャネル出力を有する仮想5.1出力を形成することができる。この変種(variant)は、最小のフェーズで信号対(例えば、左/右前部または後部対)の独立した定位を可能にする。このタイプの定位は、いずれの数のマルチチャネル入力にも拡張することができる。以前の2チャネルの例と同様、方位角定位パラメータは標準的なITU775値に設定されるが、これは本プロセスの要件ではなく、一例として用いられるに過ぎない。
3チャネルの変種は、仮想マルチチャネル効果が望まれ、(第3の)物理的中央チャネルが出力に利用可能ないずれの埋め込み解決策(embedded solution)にも適用することができる。その効果は、従前のステレオ・スピーカ音場の外側であっても、明確で均衡の取れた出力が得られることである(即ち、大きく拡大したスイート・スポットが得られる)。
先に説明したマルチチャネル入力対2チャネル出力と同様、種々の信号定位構成の組み合わせも、マルチチャネル音源内にある実際のチャネル数に基づいて、しかるべく拡張することができる。
図26は、5.1入力を一例として用いる、本開示による3チャネル信号定位のためのプロセス・フローの一実施形態を示す。図26に示すように、5.1(または他の入力)構成を確立し(3400)、選択したオーディオ・ファイルまたはストリームを送る(3405)動作は、3チャネル信号定位プロセス3410の前に、そしてその外部で行われる。
3チャネル信号定位プロセスは、パラメータ設定経路において、外部プロセスからマルチチャネル構成入力パラメータを受け取る動作(3415)から開始する。DSP入力パラメータも、外部プロセスから受け取る(3420)。動作3415および3420からのパラメータを処理のために格納する(3425)。その後、利得、EQ値等のような、定位に関係ない全てのDSPパラメータを処理のために設定する(3430)。
代わりの動作3435a、3435b、および3435cでは、前部ステレオ対(後部定位のみが得られる)または後部ステレオ対(前方定位のみが得られる)に対する定位をバイパスするために、マルチチャネル構成を用いるか、または前部ステレオ対に対する方位角定位パラメータを設定する。この例では、ステップ3435cを実行する場合、前部対方位角値を標準的なITU775値に設定する。
代わりの動作3440a,3440b,3440は、それぞれ、動作3435a,3435b,3435cに対応し、定位のためにマルチチャネル構成を使用して関連する方位角パラメータ設定を完了することによって、動作3435a,3435b,3435cを引き立たせる(compliment)。この例では、動作3435aを実行する場合、続いて動作3440aを実行し、後部ステレオ対方位角値を標準的なITU775値に設定する。3435b/3440b経路および3435c/3440c経路は同様に、この場合もITU775を一例として用いて、定位のために方位角パラメータを設定する。
これよりプロセス3410のオーディオ信号経路を参照すると、動作3445は、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセスから受け取る。手順3450において、方位角および仰角入力パラメータを用いて、正しいIIRフィルタを調べて読み出す。その後、ロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用する(3455)。
入力信号が専用中央チャネルを含むので、動作3460は入力中央チャネルを出力チャネルに導き、動作3430において設定した利得値を適用することを含む。動作3450からのフィルタ、ならびに距離および残響入力値を用いて、本処理方法の定位効果を適用することによって、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用して、あらゆるトーン・カラライゼーションを補正する(動作3465)。
最後に、動作3470において、定位した前部信号、定位した後部信号、中央信号、およびLFE信号を合算して合成ステレオ対を得ることによって、これらの信号をダウン・ミキシングすることができる。この出力ステレオ・バッファおよび中央チャネル出力モノ・バッファには、その後動作3475において、処理した信号を入力し、このオーディオ・バッファを外部プロセスに戻す。
図27は、図26において先に説明したプロセスと共に用いるように構成されたコンポーネントの配線図の一例を示す。HRTF3500、内耳時間遅延3505、および内耳振幅差3510、ならびに距離および残響3515コンポーネント(示されている各チャネルにおいて)が、図23に関して先に説明した機能を実行し、以上で説明したような、3チャネル定位プロセスを実行するために利用されるコンポーネントを備えている。左前部および右前部の定位のために、このようなコンポーネントが2組あり、更に左後部および右後部の定位のために2組ある。しかしながら、図25と比較して、中央チャネル(Cin,out)が中央バイパス3501を介して接続されていない。
D.2チャネル入力対3チャネル出力
本開示による2チャネル入力対3チャネル(左、中央、および右、またはLCR)出力のための埋め込みプロセスは、ステレオ信号を入力として受け取り、現実感のある中央チャネル出力を有するステレオ拡張出力を形成する。この構成に独特な2つの側面(aspects)は、最小のフェーズによるステレオ拡張、および鮮明な(non-smeared)中央信号である。左および右信号を合算することによって、真のモノ中央信号が得られる。しかしながら、架空中央と呼ばれる、ある量の中央情報が、拡張側部(expanded side)信号に現れる。側部信号からこの架空中央を分離するために、中央−側部デコーディング(Mid-Side Decoding)を用いることができる(その詳細な説明については、副章Gにおいて以下で示す、本明細書の詳細な説明を参照のこと)。真のモノ中央を、分離した中間信号から差し引いて、ステレオ拡張によって汚されていない明確な中央信号を残す。
この構成は、ステレオ入力信号の拡張が望まれ、更に(第3の)物理的中央チャネルが出力に利用可能ないずれの埋め込み解決策(embedded solution)にも適用することができる。その効果は、従前のステレオ・スピーカ音場の外側であっても、明確で均衡の取れた出力が得られることである(即ち、先に説明したように、大きく拡大したスイート・スポットが得られる)。
図28は、本開示による、ステレオ入力対3チャネル出力のためのプロセス・フローの一実施形態を示す。図28に示すように、実行可能ファイルを初期化する動作(3600)は、3チャネル信号定位プロセス(3605)の前に、そしてその外部で行われる。
この信号定位プロセスは、外部プロセスから入力パラメータを受け取る動作(動作3610)から開始し、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセスから受け取る(動作3620)。これらの入力パラメータを処理のために格納する(動作3615)。動作3625において、動作3610からの方位角および仰角入力パラメータを用いて、真のIIRフィルタを調べて読み出すことができる。
グローバル・バイパス・パラメータが設定されていない場合(判断ブロック3629)、動作3630においてロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用することができる。その後、動作3625からのフィルタ、ならびに距離および残響入力値を用いて、本処理方法の定位効果を適用し、合成ステレオ信号を生成することができ、更に部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正する。同時に、中央−側部デコード・プロセス(その詳細な説明については、副章Gにおいて以下で示す、本明細書の詳細な説明を参照のこと)によって、架空中央チャネルを前部ステレオ対から抽出することができる。その後、動作3645において、右および左入力信号を合算し(そして2で除算し)、3640において抽出した架空中央からこのモノ信号を差し引き、それを専用出力中央チャネルに導き、動作3615においてプリアンプ利得値を適用することによって、中央モノ・チャネルを形成することができる。動作3650において、左および右信号を合算することができる。1つ以上の出力バッファに、処理したステレオ信号およびモノ中央信号を入力することができ、オーディオ・バッファを外部プロセスに戻すことができる。
グローバル・バイパス・パラメータが設定されている場合(判断ブロック3629)、本プロセスは直接動作3625から前述の動作3650に直接進む。
図29は、図28において先に説明したプロセスと共に用いるように構成されたコンポーネントの配線図の一例を示す。HRTF3700、内耳時間遅延3705、および内耳振幅差3710、ならびに距離および残響3715のコンポーネント(示される各チャネルにおいて)が、図23に関して先に説明した機能を実行し、前述のような、定位プロセスを実行するために利用するコンポーネントを備えている。
E.中央チャネル定位
本開示による中央チャネル定位のための埋め込みプロセスでは、ステレオ対信号を受け取り、定位中央チャネルを有する定位ステレオ出力を生成する。このプロセスは、副章Dにおいて既に説明したステレオ入力プロセスに類似する。これらのプロセス間の相違には、このプロセスでは専用の出力チャネルがないことが含まれる。加えて、ここで今説明している中央チャネル定位プロセスは、入力ステレオ対からの架空中央を用い、それを定位する。これは、通例、追加の仰角および距離を求めるためである(しかし、左または右方位角によって偏倚される可能性がある)。
例示のみを目的として、標準的な2チャネル・ステレオ入力をこの開示では採用する。しかしながら、このプロセスは、2.0,4.0,6.0等を含むがこれらには限定されない、あらゆる数のステレオ対入力にも拡張することができる。
中央−側部デコーディング(副章Gにおいて以下で示すこの処理の詳細な説明を参照のこと)を用いることによって、既に説明したように、いわゆる「架空」中央チャネル信号を取り込み、そしてその後左および右出力チャネルにダウン・ミキシングする前に、モノ定位コンポーネントを経由してこれを導き出すことができる。このプロセスには、仮想オーディオ単位球体上に中央チャネルを押し出すという音響効果があり、リスナーはこの仮想球体の中央にいる。この技法は、特に、ヘッドホンで聴くときに有益である。何故なら、ヘッドホン・スピーカの位置付けのために、中央チャネルが、リスナーの前方外ではなく、「リスナーの頭部中心」(即ち、実物のスピーカの水平面)において通例体験されるからである。しかしながら、外部スピーカの構成においても応用することができる。中央信号をリスナーの前方外に押し出すことによって、中央信号が拡張/定位した側部信号と相応することが可能になる。勿論、距離に加えて中央信号に仰角キューを適用させることができるように、最大限の定位を適用する。
このシステム構成は、ステレオ入力信号の拡張が望まれ、出力デバイス自体は1対のステレオ・スピーカしか有していない場合に、あらゆる埋め込み解決策において適用することができる。特に、このシステム構成は、ヘッドホンに直接に適用することができ、ヘッドホン自体の内部にあるプロセッサに埋め込まれていても、またはヘッドホンが接続されている別個のユニットに埋め込まれていてもよい。
図30は、本開示による中央チャネル定位のためのプロセス・フローの一実施形態を示す。図30に示すように、実行可能ファイルを初期化する動作(3800)は、通例、中央チャネル定位プロセス3805の前に、そしてこのプロセスの外部で行われる。
中央チャネル定位プロセスは、外部プロセスから入力パラメータを受け取る動作3810から開始し、更に、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセス3820から受け取る(3820)。動作3815において、これらの入力パラメータを処理のために格納する。動作3825において、動作3810からの方位角および仰角入力パラメータを用いて、正しいIIRフィルタを調べて読み出すことができる。動作3827において、本実施形態は、グローバル・バイパス・パラメータが設定されているか否か判定を行う。
グローバル・バイパス・パラメータが設定されていない場合(判断ブロック3829)、動作3630においてロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用することができる。図28に関して説明した3チャネルの例と比較すると、中央チャネル定位プロセスは、中央−側部デコード・プロセスによって、「架空」中央チャネルならびに左および右側部信号を抽出し、前部ステレオから分離する動作3831を含む。その後、動作3835において、動作3825からのフィルタ、ならびに距離および残響入力値を用いて、本処理方法の定位効果を適用し、合成ステレオ信号を生成することができ、更に部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正する。同時にまたは順次、中央−側部デコード・プロセスによって、架空中央チャネルを前部ステレオ対から抽出することができる(3840)。動作3835および3840からの出力を動作3850に受け渡し、そして任意に組み合わせることができる(動作3835/3840および3850間の菱形によって示されるように)。動作3850において、左および右信号を合算することができる。1つ以上の出力バッファに、処理したステレオ信号およびモノ中央信号を入力することができ、オーディオ・バッファを外部プロセスに戻すことができる。
グローバル・バイパス・パラメータが設定されている場合(判断ブロック3829)、前述のように、本プロセスは直接動作3825から前述の動作3850に直接進む。
図31は、図30において先に説明したプロセスと共に用いるように構成されたコンポーネントの配線図の一例を示す。HRTF3900、内耳時間遅延3905、および内耳振幅差3910、ならびに距離および残響3915のコンポーネント(示されている4つのチャネルの各々において)が、図23に関して先に説明した機能を実行し、前述のように、定位プロセスを実行するために利用するコンポーネントを備えている。左前部および右前部の定位のために、このようなコンポーネントの集合が2組あり、更に左中央および右中央の定位のために2組ある。
F.LtRt信号の2チャネル入力
本発明によるLtRt(左総合/右総合)信号の2チャネル入力のための埋め込みプロセスは、LtRtとしてエンコードされたステレオ対信号を受け取り、仮想マルチチャネル聴取体験として、定位されたステレオ出力を生成する。具体的には、このプロセスはマトリクス化サラウンド情報(matrixed surround information)を抽出し、それを1つの仮想サラウンド・チャネルとして定位する。LtRt信号は、マルチチャネルをミキシングによってステレオにする、例えば、5.1をステレオに落とす(folded-down)LCRS(左、中央、右、およびサラウンド)マトリクス縮減プロセス(matrix fold-down process)の結果である。LtRtオーディオが正しいデコーダを通じて供給された場合、その結果、元のサラウンド・ミキシングが戻される。ここで説明している定位プロセスは、中央チャネル定位に関する先の副章Eにおいて説明したステレオ入力プロセスに類似するが、後部チャネル情報をLtRt入力から抽出し、それを1つの仮想後部サラウンド・チャネルとして定位する追加のプロセスを有する。更に、ここで説明している定位プロセスは、3チャネル出力システムがある場合(即ち、専用の実在する中央スピーカ)、2チャネル入力対3チャネル出力に関して先に副章Dにおいて説明したプロセスと組み合わせる(またはこのプロセスに適用する)ことができる。
このシステム構成は、入力LtRt信号(映画からのような)を仮想マルチチャネル・ステレオとして出力しようとしており、出力デバイス自体には1つの対のステレオ・スピーカしかない場合に、あらゆる埋め込み解決策において適用することができる。特に、このシステム構成は、ヘッドホンに直接に適用することができ、ヘッドホン自体の内部にあるプロセッサに埋め込まれていても、またはヘッドホンが接続されている別個のユニットに埋め込まれていてもよい。
図32aは、本開示によるLtRt信号定位のためのプロセス・フローの一実施形態を示す。図32aに示すように、実行可能ファイルを初期化する動作(4000a)は、通例、LtRt信号定位プロセス4005aの前に、そしてこのプロセスの外部で行われる。
LtRt信号定位プロセスは、外部プロセスから入力パラメータを受け取る動作4010aから開始し、更に、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセスから受け取る(4020a)。動作4015aにおいて、これらの入力パラメータを処理のために格納する。動作4025aにおいて、動作4010aからの方位角および仰角入力パラメータを用いて、正しいIIRフィルタを調べて読み出すことができる。
グローバル・バイパス・パラメータが設定されていない場合(判断ブロック4029a)、動作4030aにおいてロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用することができる。動作4031aにおいて、本プロセスは、LeftBiasedRear = L - RおよびRightBiasedRear = R - Lを取り込み、これらを合算し、2で除算し、調整可能なロー・パス・フィルタ([20Hz,10KHz]の範囲で)を適用することによって、左バイアスおよび右バイアス位相外れサラウンド・チャネル情報を抽出し、CenterRearSurroundチャネルを生成することができる。
プロセス4032aにおいて、本プロセスは、中央−側部デコード・プロセス(副章Gにおいて以下で示すこの処理の詳細な説明を参照のこと)によって、架空中央チャネルならびに左および右側部信号を抽出し、前部ステレオ対から分離することができ、これによって、CenterLeftおよびCenterRight信号に利得を適用させることができる。次いで、本プロセスは、動作4033aにおいて、MonoCenter=L+Rを取り込み、動作4031aにおいて形成したCenterRearSurroundを差し引くことによって、TrueCenterチャネルを得ることができる。
その後、動作4035aにおいて、本プロセスは、距離および残響入力値を含む、動作4025aからのパラメータを用いて、本処理アルゴリズムの定位効果を、動作4032aから抽出した両側部信号に適用し、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正することができる。同時に、動作4040aにおいて、本プロセスは、距離および残響入力値を含む、動作4025aからのパラメータを用いて、本処理アルゴリズムの定位効果を、動作4033aから抽出したTrueCenter信号に適用し、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正することができる。尚、距離キューおよび残響の使用は、この動作では任意であることを注記しておく。また、同時に、動作4045aにおいて、本プロセスは、距離および残響入力値を含む、動作4025aからのパラメータを用いて、本処理アルゴリズムの定位効果を、動作4031aから抽出したCenterRearSurround信号に適用し、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正することができる。その後、本プロセスは左および右信号を合算し、出力バッファに、処理したステレオ信号を入力し、そして動作4050aにおいてオーディオ・バッファを外部プロセスに戻すことができる。
グローバル・バイパス・パラメータが設定されている場合(判断ブロック4029a)、前述のように、本プロセスは直接動作4025aから前述の動作4050aに直接進む。
図33aは、図32aにおいて先に説明したアルゴリズムと共に用いるように構成されたコンポーネントの配線図の一例を示す。HRTF4100a、内耳時間遅延4105a、および内耳振幅差4110a、ならびに距離および残響4115aのコンポーネントは(示されている4つのチャネルの各々において)、図23に関して先に説明した機能を実行し、前述のようにLtRt信号定位プロセスを実行するために利用したコンポーネントを備えている。左前部および右前部の定位のために、このようなコンポーネントの集合が2組あり、更に仮想中央前および仮想中央後部の定位のために2組ある。更に、図33aに示すように、距離キューおよび残響セクションをバイパスし、定位した信号を(音響的に知覚される)単位球体上に置くことができる。
本開示によるLtRt信号の2チャネル入力のための代わりの埋め込みプロセスを図32bおよび図33bに示す。この代わりのプロセスは、図32aおよび図33aに関して先に示し説明したプロセスに関係があるが、全体的に後部サラウンド・チャネルをどのように扱うかに関して相違する。前述のプロセスと同様、この代わりの埋め込みプロセスも、LtRtとしてエンコードされたステレオ対信号を取り込み、定位ステレオ出力を仮想マルチチャネル聴取体験として生成する。しかしながら、この代わりの方法は、1つの後部サラウンドに定位するのではなく、各後部サラウンド・チャネル(左および右サラウンド)を個別に定位する。
前述のプロセスと同様、この代わりのプロセスも、入力LTRT信号(映画からの信号というような)を仮想マルチチャネル・ステレオとして出力しようとしており、出力デバイス自体には1つの対のステレオ・スピーカしかない場合に、あらゆる埋め込み解決策において適用することができる。特に、この代替案は、ヘッドホンに直接に適用することができ、ヘッドホン自体の内部にあるプロセッサに埋め込まれていても、またはヘッドホンが接続されている別個のユニットに埋め込まれていてもよい。
図32bは、本開示によるLtRt信号定位のための代わりのプロセス・フローの一実施形態を示す。図32bに示すように、実行可能ファイルを初期化する動作(4000b)は、LtRt信号定位プロセス4005bの前に、そしてこのプロセスの外部で行われる。
LtRt信号定位プロセスは、外部プロセスから入力パラメータを受け取る動作4010bから開始し、更に、フレーム・サイズが固定の入力オーディオ・バッファを外部プロセスから受け取る(4020b)。動作4015bにおいて、これらの入力パラメータを処理のために格納する。動作4025bにおいて、動作4010bからの方位角および仰角入力パラメータを用いて、正しいIIRフィルタを調べて読み出すことができる。
グローバル・バイパス・パラメータが設定されていない場合(判断ブロック4029b)、動作4030bにおいてロー・パス・フィルタ、LFE利得、およびEQを用いることによって、低周波数強調を適用することができる。LtRt信号定位プロセスは、右信号を左(左バイアス後部サラウンドを与える)から差し引くことにより、そして左信号を右(右バイアス後部サラウンドを与える)から差し引くことによって、後部サラウンド・チャネルを抽出し分離する動作4031bを含む。その後、調整可能なロー・パス・フィルタ([20Hz、10KHz]の範囲で)を適用することができる。中央チャネル定位プロセスと同様に、LtRt信号定位プロセスは、中央−側部デコード・プロセスによって、「架空」中央チャネルならびに左および右側部信号を抽出し、前部ステレオから分離する動作4032bを含む。
その後、動作4035bにおいて、動作4025bからのフィルタならびに距離および残響入力値を用いて、本処理アルゴリズムの定位効果を適用して、合成ステレオ信号を生成し、部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正することができる。同時に、動作4040bにおいて、中央−側部デコード・プロセス4032bによって、中央チャネルを前部ステレオ対から抽出することができる。また同時に、動作4045bにおいて、4025bからのフィルタならびに距離および残響入力値を用いて、本処理アルゴリズムの定位効果を、動作4031bから抽出した左後部および右後部サラウンド信号に適用し、2つの合成ステレオ信号を生成し、更に部屋シミュレーション残響およびパラメータEQの多数の帯域を適用してあらゆるトーン・カラライゼーションを補正することができる。最後に、動作4050bにおいて、左および右信号を合算することができる。1つ以上の出力バッファに、処理したステレオ信号を入力し、更にモノ中央信号を入力し、オーディオ・バッファを外部プロセスに戻すことができる。
グローバル・バイパス・パラメータが設定されている場合(判断ブロック4029b)、前述のように、本プロセスは直接動作4025bから前述の動作4050bに直接進む。
図33bは、図32bにおいて先に説明した代わりのアルゴリズムと共に用いるように構成されたコンポーネントの配線図の一例を示す。 HRTF4100b、内耳時間遅延4105b、および内耳振幅差4110b、ならびに距離および残響4115bのコンポーネントは(示されている6つのチャネルの各々において)、図23に関して先に説明した機能を実行し、前述のようにLtRt信号定位プロセスを実行するために利用したコンポーネントを備えている。このようなコンポーネントの集合は、左前部および右前部の定位のために2組あり、左中央および右中央定位のために2組あり、更に左および右仮想後部定位のために2組ある。
G.パーセント−中央バイパス・(Percent-Center Bypass)
既に開示したシステム構成の中には、それぞれの配線図例に示すように、パーセント−中央バイパス・(以後「%−中央バイパス・」)プロセスを採用するものがいくつかある。本開示による%−中央バイパス・プロセスを図34に示す。
%−中央バイパス・は、中央−側部デコーダを用いる。このプロセスは、図面上のそれぞれのブロックを大括弧付きで参照しつつ、以下のように説明することができる。
centerConcentrationを範囲(0.1)における実数値とする[ブロック4200]。
L=左ステレオ信号、およびR=右ステレオ信号とし、その信号をコピーする[ブロック4205,4210]。
centerBus(L)をMS−デコード・プロセスによって生成した架空中央信号の左側(ステレオ対の意味で)とし[ブロック4225]、centerBus(R)を右側とする[ブロック4230]。
sideChan(L)をMS−デコード・プロセスによって生成した側部信号の左側(ステレオ対の意味で)とし[ブロック4235]、sideChan(R)を右側とする[ブロック4240]。
Mono = (L + R) / 2[ブロック4220]
CenterBus(L) = centerConcentration * mono + (1 - centerConcentration) * L;
centerBus(R) = centerConcentration * mono + (1 - centerConcentration) * R;
sideChan(L) = centerConcentration * (L - mono);および
sideChan(R) = centerConcentration * (R - mono)
centerConcentration制御は、合成中央チャネル情報の量を調節する。即ち、%−中央バイパス・を制御する。側部信号のみが、定位のためのそれぞれのシステム情勢処理コンポーネントに受け渡される。centerConcentrationを100%(1.0)に設定すると、中央チャネルはモノのみを受け取り、一方、側部チャネルは元の信号(original)からモノを差し引いて受け取る。この設定の結果、元のステレオ入力信号に含まれる架空中央情報が完全に無視され、側部信号が定位処理のために分離されることになる。対極において、centerConcentrationを0%(0.0)に設定すると、中央チャネルは、モノのない、元の分離された左および右チャネルを受け取り、側部信号は消去される(zero out)。この設定の結果、定位する側部信号はなくなり、中央チャネルにはバイアス合成信号が得られる。50%では、左および右チャネルは6dbだけ減衰し、中央は半分がモノで半分が側部信号を合わせた信号を受け取る。側部信号の定位処理の後、左信号の全てを合算し、右信号の全てを合算する。
Lfinal = centerBus(L) + sideChan(L)
Rfinal = centerBus(R) + sideChan(R)
ステレオ対の一方側、例えば、左側を処理する観点からは、単一側配線図は、図35に示すようになり、この観点は、本文書内においてこれまでに開示した配線図の内、%−中央バイパス・を用いるもの全てに示される。
H.マルチチャネル入力ダウン・ミキシング−マルチチャネル出力
本開示によるマルチチャネル入力ダウン・ミキシング−マルチチャネル出力のための埋め込みプロセスは、1組の離散マルチチャネル・オーディオ信号と、所望のマルチチャネル出力構成の指定を受け取ることができる。例えば、マルチチャネル入力オーディオ信号は、5.1、7.1、10.2またはその他というようないずれのフォーマットでもよく、所望の出力構成は、マルチチャネル入力オーディオ信号において供給される成分と同じ成分またはそれより少ない成分を含む。例えば、7.1入力信号を5.1成分構成で出力すること、または5.1入力信号を3.1成分構成で出力することが望ましい。少なくとも1つの実施形態では、この入力信号をそれよりも少ない出力成分にミキシングすることに対処するために、本明細書において説明した種々の定位効果を応用することができる。一実施形態では、1つ以上の定位効果を、1つ1つの信号から一致した対に適用すると、その結果左および右出力信号成分双方に同等の効果が適用されることになる。他の実施形態では、定位効果を多数の入力信号に適用すると、多数の出力信号成分にわたって同等の効果が適用されることになる。例えば、定位効果を離散7.1入力に適用することができ、その結果、混合仮想離散5.1出力が得られ、オーディオ信号(例えば、後部信号)の内1つのチャネルのみが仮想化され、オーディオ信号の残りのチャネルは、修正されず離散のまま留まる。本明細書において説明した3−Dおよび/または4−D定位効果というような、1つ以上の定位効果は、多数の入力信号に適用することができる。すると、定位した入力信号からステレオ信号が得られ、このステレオ信号を所望の左−右出力チャネル対、例えば、サラウンド左およびサラウンド右チャネル対に導出する、または言い換えると供給することができる。少なくとも1つの実施形態では、残りの出力信号、例えば、左前部および右前部は、修正されずに、離散出力として留まる。加えておよび/または代わりに、1つ以上の定位効果を1つよりも多い一致した対に適用することもできる。このような実施態様は、入力および出力チャネルの数が等しいが、それでも他の定位効果が望まれるときに望ましいと考えられる。例えば、7.1チャネル入力信号が本来全く定位効果を含んでいない場合、本明細書において説明した効果の内1つ以上によって定位して、定位7.1チャネル出力信号を供給し、7.1出力成分構成に供給することができる。出力信号チャネル数を減らさずに定位を適用するとき(受け取った入力信号チャネルの数に基づくというように)、いずれの定位効果を適用する場合でも、1つ以上の新たな信号をミキシングすることによって、しかるべき1対の出力チャネルまたはそれ以上を生成することは認められよう。このような定位効果を適用すると、オーディオ入力ストリームを強調して、所望通りに、音源の仰角の仮想上昇および/または低下を含む、拡張音響、またそうでなければ定位音響を、いずれのドメイン(3−Dおよび/または4−D)においても供給することができる。尚、本明細書において説明した種々の定位効果の内1つ以上を適用することにより、更に一層現実感のあるオーディオ環境を創作できることは認められよう。例えば、オンライン・ゲームに参加しているリスナーにとって、例えば、第1パス(pass)上の戦闘機の存在が(仮想的に)より高く思われる場合、第2の機銃掃射パス上におけるこの戦闘機の存在は、コンポーネント構成およびその配置を実際に/物理的に変更しない。
更に具体的に、ダウン・ミキシング、および/または1つ以上の定位効果をマルチチャネル入力信号に適用して同じ数または少ない数のチャネル・コンポーネントの定位出力信号を形成する一実施形態例について、7.1入力信号の実施形態を参照して説明する。しかしながら、以下の説明は、入力信号チャネルのいずれの他の構成にも、いずれの所与の実施形態および構成についても所望通りに、適用できることは認められよう。広く一般に認められているように、7.1入力チャネル信号は、通例、左前部、右前部、中央、左サラウンド、右サラウンド、左後部、右後部、およびLFEチャネルを含む。これらの信号の各々は、個々のモノ・オーディオ信号として特徴付けることができ、これらの信号から、混合仮想化5.1出力信号を生成することが望ましい。本明細書において説明した1つ以上のステレオ拡張技法を、左前部および右前部出力信号というような出力成分信号から選択した1対に適用し、一方左後部および右後部出力信号(7.1信号フォーマットにおいて供給される)を3Dにおける空間配置のために完全に仮想化し、そして残りの中央チャネル、LFE、ならびに左および右サラウンド信号は無修正のままで、元々供給されたときの離散形態になっている。尚、本明細書において説明した1つ以上の定位および/または仮想化効果を適用すると、出力信号が独立して定位された後部信号の特性を有し(対応する前部チャネルによってリスナーに提示されるように)、前信号対によって供給される拡張音響段(expanded sound stage)が最小限の位相不連続および/または歪みを有するという結果を得ることができることは認められよう。
更に、マルチチャネル入力ダウン・ミキシング−マルチチャネル出力プロセスは、マルチチャネル出力コンポーネント構成に3−D効果が望まれるあらゆる埋め込み解決手段において適用できることは認められよう。例えば、公開劇場設定または個人の(例えば、ホーム・シアター)劇場設定において、入力源のオーディオ入力信号が、所与の出力コンポーネント構成に利用可能なオーディオ入力信号よりも多い場合、もっと多くのコンポーネントを追加することによってシアターを変更するのではなく、本明細書において説明した定位効果の内1つ以上を入力信号に適用し、所与の出力コンポーネント構成に相応する出力信号を生成することができる。本明細書において説明したアルゴリズムの1つ以上をオーディオ再生システム内に埋め込むことによって、またはそれ以外ではこのオーディオ再生システムに利用可能にすることによって(例えば、ファームウェアのダウンロード、インターネット接続を通じたオフサイト処理システムへのコール、またはその他によって利用可能にすることができる)、本明細書において説明した種々の実施形態の構成変更可能な本質のために、いずれの数の入力チャネルであっても処理して、いずれの数の出力チャネルにでも(チャネル数が少なくなる場合も多くなる場合も含む)導出することが可能になる。また、適用する具体的な定位効果も、コンテンツのタイプ(例えば、ゲーム愛好家は、コンサートを聴く人とは異なる定位を望むかもしれない)、利用可能な入力チャネルの数、利用可能な入力チャネルのタイプ、利用可能な出力コンポーネントの数、およびこのような出力コンポーネントの特性というような、種々の要因に基づいて、リアル・タイムで選択することができる。例えば、前部のスピーカが最大出力に設定した高パワー・コンポーネントであるが、サラウンドまたは他の利用可能なスピーカがそれよりも少ないまたは多い特定の能力を有するという所与の出力コンポーネント構成では、所与の1つ以上の定位効果を適用するのか、または他の利用可能な定位効果を適用するのか、という選択になるのでもよい。
これより図36を参照すると、マルチチャネル入力信号を同じ数または少ない数の定位出力信号に定位するプロセスの一実施形態例が示されている。図示のように、このプロセスは、7.1入力チャネル信号源から、定位5.1出力チャネル信号を得ることに関して示されている。しかしながら、本明細書において説明した概念、プロセス・フロー、および原理は、入力信号および定位出力信号のいずれの所望の組み合わせにも適用することができる。
本明細書に記載した他の実施形態例に関して先に示したように、破線エリアの外側で行われる動作は、今説明している定位プロセスの外部で行われてもよい。したがって、本プロセスは、オーディオ・システムが入力信号の構成の識別(identification)を受け取ったとき(動作5000)に実施すればよい。例えば、7.1チャネル入力信号源の入力構成は、入力信号自体の内部で規定され、オーディオ・システムの操作者によって選択され、他の入力パラメータに基づいてデコードされる、またはその他であってもよい。入力信号特性をどのように受け取る、判断する、または検出するかには関係なく、これを特定したときに、本プロセスは続いて、選択したオーディオ・ファイルまたはストリームをオーディオ・システム・コンポーネントに伝達し、本明細書において説明した1つ以上の定位効果を適用する(動作5002)。
この時点において、図36に示す動作は、少なくとも2本の処理経路に沿って進む。しかしながら、これらの処理経路の各々の多数のインスタンスが、同時にまたは実質的に同時に、いずれかの所与のオーディオ・システム・コンポーネントにおいて行われてもよいことは、認められよう。例えば、クアッド・コア・プロセッサ(quad core processor)上で動作するソフトウェアにおいてディジタル信号プロセッサとして設けられたオーディオ・システム・コンポーネントは、所望に応じて、いずれかまたは双方の経路の多数のインスタンスを実行することもできる。つまり、以下の論述は各経路を別個に説明することは認められようが、各経路は、1つ以上のプロセス・ステップとして処理されるとき(ハードウェアおよび/またはソフトウェアにおいてインスタンス化することができる)、多数のインスタンスおよび/またはその変形と組み合わせて、および/または多数のインスタンスおよび/またはその変形において、別個に行うことができる。
最初に図36に示す「パラメータ設定経路」から始めると、本プロセスは、入力チャネル信号構成(例えば、7.1)を受け取る動作(動作5004)を含むことができる。尚、この動作および本明細書において説明した他の動作は、いずれかの所与の実施態様に基づいて、任意選択肢と見なしてもよいことは認められよう。例えば、所与の構成は、常にある一定の特性(例えば、7.1)の入力信号のみを受け取るように常に構成されていることもあり、この場合、構成パラメータを受け取る必要はなくてもよく、本明細書において説明した他のプロセス・ステップも実施しなくてもよいか、または必要でなくてもよい。
また、本プロセスは、出力信号構成およびDSPパラメータ、および/または所望のダウン・ミキシングおよび定位を遂行するために利用される他のパラメータを受け取る動作(動作5006)も含むことができる。DSPパラメータは、具体的に、結果的に得られる定位信号に適用すべき、所要の方位角[0°,359°]、仰角[90°、−90°]、および距離キュー・データ[0,100](0の場合、頭の中央で音響が知覚され、100は任意の離れた位置である)を含むことができる。前述のように、適用する定位効果は、例えば、出力コンポーネント構成、コンポーネントの特性、コンテンツのタイプ、およびリスナーの好みに基づいて様々であってよい。更に、受け取られるパラメータおよび/または定位効果は、埋め込む、ダウンロードする、(離れてホストされているサービスまたはそれ以外のホストされているサービスに)コールする、またそうでなければ特定し、利用するのであってもよいことは認められよう。これらのDSPパラメータは、格納する、またはそうでなければ、必要に応じて、DSPまたは入力信号に望まれる1つ以上の定位効果を適用する他のプロセッサに利用可能にするのでもよい(動作5008)。尚、このような格納は、指定されたアクセス時刻および他の動作パラメータを満たすのであれば、いずれのローカル記憶デバイスまたはリモート記憶デバイスにおいても行うことができることは認められよう。
更に、本プロセスは利得、イコライザ値、および他のパラメータというような非定位DSPパラメータを設定する動作も含むことができる(動作5010)。尚、非定位入力チャネルおよび対応する出力チャネル・パラメータは、1つ以上の入力チャネル信号に適用しようとする1つ以上の定位効果に基づいて調節することが必要になる場合もあることは認められよう。本プロセスは、いずれかの所与の時点において望まれる、このような非定位パラメータを決定し適用するロジックを含むことができる。このロジックの例については、以上で説明した。
本プロセスは、少なくともこの実施形態については、3つのプロセス例の実施を、いずれかの所与の時点において含むことができる。これらのプロセス例の内第1のプロセスは、前部ステレオ出力チャネル対の定位をバイパスするために備えることができる(動作5012)。第2のプロセス例は、対応する後部ステレオ出力チャネル対(即ち、左後部および右後部)をバイパスするために備えることができる(動作5014)。第3のプロセス例は、前部ステレオ出力チャネル対に対して特定の方位角(または他の寸法パラメータ)を指定するために備えることができる(動作5016)。方位角範囲の例は、0°超から90°未満まで任意に変化することができるが、公称上は22.5°から30°までである。
次に、そして動作5012、5014、および/または5016において指定された直前のプロセスに基づいて、相補動作を選択し実行する。これらの相補動作には、方位角を有するように左後部および右後部チャネルを設定することを含む。この方位角は、後部中央から0°超から後部中央から90°未満まで任意に変化することができるが、公称上は後部中央から30°である(動作5018および5022)。または、公称上22.5°から30°の任意の方位角を有するように、対応する前部チャネルを指定する(動作5020)。更にまたは代わりに、出力チャネル・コンポーネントのいずれの特定の構成と、それに対して遂行しようとする所望の1つ以上の定位効果との関係に基づいて、他の指定も適用することができる。
これより、図36に示す「オーディオ信号経路」を参照すると、本プロセスは、処理のためにオーディオ信号のフレーム、パケット、セグメント、ブロック、またはストリームを受け取る動作も含むことができる(動作5024)。尚、このようなオーディオ・ストリームまたは複数のストリームは、アナログ・ドメインまたはディジタル・ドメインにおいて供給し、オーディオ信号の所与のセグメントを本明細書において説明した定位効果の内1つ以上による修正に適したパケットまたはフレームに(必要に応じて)変換するように、適した前処理を行うようにしてもよいことは認められてしかるべきである。
また、本プロセスは、1つ以上の定位効果を適用するために用いられる1つ以上のIIRフィルタを入手する動作も含む(動作5026)。このようなフィルタは、1つ以上の方位角、仰角、および/または所与の定位効果に対して望まれる他のパラメータに基づいて入手するとよい。尚、フィルタの選択は、動作5024においてオーディオ信号の1つまたは複数のセグメントを受け取る前、受け取るのと同時、または受け取った後に行ってもよいことは認められよう。更に、利用しようとするフィルタは、ユーザの好み、コンテンツのタイプ、および/または他の要因に基づいて、時間の経過と共に変化してもよい。
次に、受け取ったオーディオ信号の所与のセグメントに適用するために選択した1つ以上のIIRフィルタを適用する(動作5028および5030)。図36に示すように、1つ以上の選択したフィルタリング・プロセスまたはフィルタリング以外のプロセス(non-filter process)(例えば、距離、残響、パラメータ等価、トーン・カラライゼーション補正、およびその他)の所与の入力オーディオ信号への適用は、並列で行われてもよい。あるいは、フィルタを直列にまたはそれ以外で適用してもよい。選択した1つ以上のフィルタは、前述のように、望まれる定位効果を得るために、入力オーディオ信号(1つまたは複数)に適用される。この実施形態例では、選択したフィルタを対応する後部入力信号に適用し(動作5028)、更に対応する前部入力信号に適用する(動作5030)。
また、本プロセスは、8つの入力信号(7.1入力信号の場合に供給されるような)を6個の出力信号(5.1コンポーネント構成において用いられるような)にダウン・ミキシングする動作を含むことができる(動作5032)。一実施形態では、このようなダウン・ミキシングは、後部入力信号を側部チャネルの合成ステレオ対(即ち、サラウンド左およびサラウンド右)に合算することによって行うことができる。他の実施形態では、後部入力信号の半分を対応する前部チャネルに合算し、半分を対応する側部チャネルに合算することによって、ダウン・ミキシングを行うこともできる。他の実施形態では、中央チャネルおよび/または前部チャネルおよび/または側部チャネルがあるおよび/またはないLFEを利用することもできる。実際には、前部、側部、中央、および/またはLFEチャネルのいずれの組み合わせでも、様々な可変比率で、後部入力信号と合算して、数が多い入力信号の構成(7.1のような)から数が少ない出力信号の構成(5.1のような)にダウン・ミキシングすることができる。
本プロセスは、例えば、1つ以上の出力バッファを用いて、処理した信号および未処理の信号を供給し、必要に応じて更にオーディオ処理を行うために、本開示にしたがって定位処理のために信号を入手した元のオーディオ処理ストリームにこれらの信号を戻すことによって終結する(動作5034)。
これより図37を参照すると、図36において先に説明したプロセスと共に用いるように構成されたコンポーネントの配線図の一例が示されている。図37において示した配線図、および以上の配線図例のいずれの場合と同様、それによって設けられる機能は、ハードウェア(例えば、チップ上および/または専用DSP内のシステムとして)、ソフトウェア(例えば、汎用、目的限定、または特殊プロセッサによって実施される1つ以上の動作ルーチンとして)、またはその組み合わせとして実現できることは認められよう。図37に示すように、7.1チャネル入力信号を5.1チャネル出力信号に定位する実施形態では、左前部、右前部、左後部、および右後部チャネル(後部チャネルは、代わりに、「サラウンド」チャネルであると見なしてもよい)に対するプロセス・コアの例を示す。これらのプロセス・コアは、HRTF5036、内耳時間遅延5038、内耳振幅差5040、ならびに距離および残響5042のコンポーネント(示される各チャネルにおいて)を含むことができ、これらは図23に関して先に説明したような機能を実行する。集合的に、これらのコンポーネントは、前述のような、3チャネル定位プロセスを実行する。この7.1から5.1へのダウン・ミキシングの実施形態例について示すように、対応する後部ブロックを、ステレオ拡張および定位のために対応する前部チャネルに適用し、更に7.1構成の後部チャネルを、後部定位のために、対応する5.1構成の側部チャネルに適用する。しかしながら、特定の実施態様に望まれる通りに、7.1構成の後部チャネルは、加えておよび/または代わりに、対応する5.1構成の前部チャネル、および/または5.1構成の前部チャネルおよび側部チャネルの組み合わせに適用できることは認められよう。
I.マルチチャネル入力対アップ・ミキシング・マルチチャネル出力
本明細書において説明した種々の定位およびその他のオーディオ効果処理は、2つ以上の入力チャネルを有する入力信号を、それよりも多い出力チャネルを有する出力信号にアップ・ミキシングするためにも利用することができる。例えば、一実施形態では、本明細書において説明した種々の定位プロセス、IIRフィルタ、および技法を用いて、2チャネル入力信号を、5.1チャネル出力信号にアップ・ミキシングすることができる。いずれの数の入力信号でも、所望の数の出力信号にアップ・ミキシングすることができるが、この例では、2チャネル・ステレオ入力信号を受け取り、その構成部分を擬似離散5.1出力信号に定位することを仮定する。少なくとも1つの実施形態では、このようなアップ・ミキシングおよび擬似離散マルチチャネル出力信号の生成は、受け取ったチャネル数が少ない入力信号の各チャネルを、一連のロー・パス・フィルタに通過させることによって行うことができる。このような一実施形態では、ロー・パス・フィルタを縦続状に構成して、一意の信号特性の特定および分離において一層高い特殊性が得られるようにする。
他の実施形態では、他の構成のロー・パス・フィルタ、バンド・パス・フィルタ、ハイ・パス・フィルタ、およびその他のフィルタ構成も、所与の実施形態に対して望まれる通りに、1つ以上の元の入力信号から所望の信号特性を特定する、フィルタリングする、および/または選択するために利用することができる。多重層のフィルタリングに加えて、1つ以上の中央−側部デコーディング・ブロックも用いて、元の入力ステレオ信号から特定の信号特性を分解する、言い換えると特定する、および/または分離するために用いることができる。フィルタおよびデコーディングのときに、所与の実施態様について指定される通りに、本明細書において説明した1つ以上の定位技法をこのような信号に適用すると、仮想的に信号を前部チャネルおよび/または後部チャネルに位置付けることができる。ある種の実施形態では、中央チャネルおよびLFEチャネルが離散のまま留まってもよく、即ち、元の入力信号からフィルタリングおよびデコードするが、定位技法をこれらには適用しないのでもよい。
少なくとも1つの実施形態では、定位のときに、少なくとも2組のステレオ対出力信号、即ち、前部および後部のステレオ対出力信号を生成する(双方の組に左および右チャネルを生成する)。したがって、別の状況では離散ステレオ入力信号であったものから、4つの擬似離散チャネルおよび2つの離散チャネルを生成する。また、これらの技法は、5.1入力を7.1出力にアップ・ミキシングするというように、数が少ない方のいずれのチャネル入力信号から、数が多い方のチャネル出力信号にアップ・ミキシングするためにも利用できることも認められよう。これらのアップ・ミキシング技法が商業的に実用可能な実施形態には、入力信号が2チャネルを有するが、出力コンポーネント構成がそれよりも多い数のコンポーネント、およびそれに関連するチャネルをサポートする、あらゆる音楽および映画の環境が含まれる。
5.1出力チャネル構成において利用する場合、少なくとも1つの実施形態では、ITU775サラウンド音響規格を利用して、前部および後部対の配置角度(location angle)を指定するとよい。この規格をここで引用したことにより、その内容が本願にも含まれるものとする。広く一般に知られているように、これらの角度は、中央に面するスピーカに対するこのようなコンポーネントにとって最適な物理的位置を指定する。実際の構成は様々になりそうに思われるが、このような仕様は基準線を規定し、この基準線から、あらゆる所与の実際の実施態様に望まれるように、いずれの定位効果も調節することができる。具体的には、ITU775規格は、スピーカ・コンポーネントの前部対(これらから発せられる信号)が、前方に向いている中央スピーカに対して22.5から30°の角度を有することを指定し、スピーカの後部対が、110°の角度を有すること(この場合も中央スピーカに対して)を指定する。再度言うが、ITU775は明確な基準線を規定するが、このような基準線は任意選択肢であり、必須ではないことは認められよう。いずれの定位角度でも利用してもよく、それと共に利用される種々の定位効果アルゴリズムに、望ましい調節を適用すればよい。
これより図38を参照すると、マルチチャネル入力信号をそれよりも数が多い定位出力信号に定位するプロセスの一実施形態例を示す。この実施形態では、2チャネル入力源を5.1チャネル出力信号にアップ・ミキシングすることが望ましい。先に示したように、このプロセスも2つの外部動作を含む。即ち、出力5.1構成を確立する動作(動作5100)、およびアップ・ミキシングすることが望まれる2チャネル入力信号を本プロセスに送る動作(動作5102)である。また、本プロセスは、同時に行われる「パラメータ設定経路」および「オーディオ信号経路」と並列に実施してもよい(所望に応じて)。
これより、「パラメータ設定経路」を参照すると、このプロセス・フローは、DPS入力パラメータを受け取る動作を含み、DSPパラメータは、具体的に、一定の方位角[0°,359°]、仰角[90°,−90°]、および距離キュー・データ[0,100](ここで、0の場合、頭部の中央で音響が知覚され、100は任意の離れた位置である)を含み、これらを、結果的に得られる定位信号に適用する。DSPパラメータは、望まれる出力チャネルの数、およびそれらの構成に基づくことができる(動作5104)。次いで、これらのパラメータを格納することができる(動作5106)。先と同様、このような格納は、所望の定位効果処理を遂行するために所与の実施形態において用いられるのに適した、DSPに対してローカルまたはリモートの記憶デバイス、および/または他のプロセッサであればいずれにおいてでも行うことができる。
尚、ある種の実施形態では、パラメータを予め格納することは、任意選択肢であること、および/または不要である場合もあることは認められよう。また、本プロセスは、種々の非定位DSPパラメータの指定および/または設定も含む。その例には、利得レベル、イコライザ値、残響、およびその他の共通オーディオ成分を含むことができる(動作5108)。また、本プロセスは、左前部/右前部の対をなすスピーカ(動作5110)および左後部/右後部の対を成すスピーカ(動作5112)に対して、いずれかの望まれる方位角値を指定する(specify)、言い換えると指示する(designate)ことも含む。一実施形態では、これらの方各値はITU775の値(例えば、デフォルト設定値として)を利用してもよい。他の実施形態では、測定、指定、予備設定、および/または適応的に設定した値を、所与のスピーカおよび/またはスピーカ対のいずれに対しても、方位角値として利用することもできる。図38では、これらの動作が指定されたシーケンスで行われるように示すが、このようなシーケンスは、これらのステップの一部を含むのでも、全然含まないのでもよいことは認められよう。例えば、所与のオーディオ・システムを、一旦中央チャネル・スピーカに対する前および後部スピーカの位置に関して構成し、次いでこのような構成をロードし、例えば、動作5110および5112において指定することもできる。同様に、一旦所与の1組のDSPパラメータを、動作5104と同様に、所与のオーディオ・システム構成に合わせて指定するが、利得のような非定位設定値は、操作者によって変更するのであってもよい。つまり、「パラメータ設定経路」に沿って指定されている動作の一部または全部を、本明細書において説明した実施形態のいずれの所与の実施態様とでも利用することができ、あるいはこれらの動作を利用しなくてもよいことは認められよう。
これより、「オーディオ信号経路」部分を参照すると、図38に示すように、このプロセス・フローは、SDPのようなオーディオ・システム・コンポーネントが入力オーディオ信号を受け取ったときに開始される(動作5114)。既に本明細書において説明した実施形態と同様、このようなオーディオ信号は、オーディオまたはディジタル・フォーマットで受け取ることができる(適した信号処理が行われ、1つ以上の定位効果を適用するのに適したフォーマットに、この信号を変換する)。また、この信号は、フレーム、パケット、ブロック、ストリーム、またはその他として受け取ることもできる。少なくとも1つの実施形態では、動作5114においてDSPがそれを受け取る前に、入力信号を固定サイズの多数のパケット(またはフレーム)に区分する。
所望のドメインおよびサイズで入力信号を受け取ったとき(サイズが所与の実施形態に対して指定される場合)、本プロセスは続いて、先に説明したIIRフィルタのような、1つ以上の定位フィルタを選択し入手する(動作5116)。フィルタは、少なくとも1つの実施形態では、所与のオーディオ・システム構成に合わせて指定された方位角および/または仰角パラメータであればいずれに基づいてでも選択することができる。更に、フィルタは、動作5106においてアクセス可能な記憶デバイスに予め格納されているものから選択することもできる。他の実施形態では、他の人のような音響に干渉する物体、背景ノイズ、またはその他の存在または不在というような、リアル・タイム入力に基づいて選択することもできる。
フィルタの選択時に、および/またはフィルタの選択と併せて、本プロセスは、更に、1つ以上のロー・パス・フィルタを着信信号の各チャネルに適用し、LFE互換信号を求める動作も含むことができる(動作5118)。尚、所与の1組の着信信号が、通例では所与の1組の2つののみの標準スピーカ(ヘッドホンのような)では提示できないが、相応しく構成されたLFEオーディオ・コンポーネントによって提示できるロー・パス信号を含む場合もあることは認められよう。同様に、着信信号を、1つ以上の中央−側部デコード・プロセスに引き渡すために1つ以上の高い帯域の(higher-band)バンド・パス・フィルタ(動作5118において用いるロー・パス・フィルタと比較して)によってフィルタリングすることもできる(動作5120)。このようなフィルタリングおよび中央−側部デコーディングの結果、前(左/右)チャネルへの最終的な出力(更なる処理の後)に適した、少なくとも1組の側部信号が得られることが望ましい。
中央−側部デコーディング、そして相応にフィルタリングされ動作5120によって生成された信号は、後部(左/右)出力信号を生成するように、第2の中央−側部デコード・プロセスにも引き渡すことができ、中央−側部デコーディングによって検出された信号を、中央チャネル出力信号に指定する(動作5122)。尚、動作5118,5120,5122は、所与のDSPが3つのプロセス・ストリームに複製された入力信号を分析するのに十分な処理能力を有するときには、並列に行われてもよいことは認められよう。このような並列処理は、オーディオ信号の生のストリーミングを定位しているときには望ましいと考えられる。
前対信号および後部対信号を特定および生成すると(動作5120および5122による)、本処理は続いて、1つ以上の定位フィルタを、既に生成されている前部信号および後部信号に適用することができる(それぞれ、動作5126および5128)。動作5106を参照して先に説明したように、このように以前に特定した定位フィルタを予め格納しておいてもよい。少なくとも1つの実施形態では、しかしながら、このようなフィルタをリアル・タイムで入手することができる。このように、使用前にフィルタを予め格納することは、任意選択肢であり、本明細書に記載した実施形態のいずれの実施態様にも必須とは見なすべきでない。1つ以上の定位フィルタを対応する前部信号および/または後部信号に適用することによって、合成ステレオ信号を生成し、追加のフィルタリングおよび/またはその他共通して知られているオーディオ処理技法を、このステレオ信号に、所与の実施態様に対して望まれる通りに適用することができる。これは、利得、残響、およびパラメータ均一化を調節して、あらゆるトーン・カラライゼーションまたは他の望ましくない効果に対して調節を行うことを含むが、これらには限定されない。
本プロセスは、マルチチャネル出力信号の同期ブロックのパケットの生成で終結し、更に処理して最終的に出力するために、このパケットをいずれかの外部プロセスに戻す。
これより図39を参照すると、図38において先に説明したプロセスと共に用いるように構成したコンポーネントの配線図の一例が示されている。図39に示す配線図、および以上の配線図例のいずれの場合と同様、それによって設けられる機能は、ハードウェア(例えば、チップ上および/または専用DSP内のシステムとして)、ソフトウェア(例えば、汎用、目的限定、または特殊プロセッサによって実施される1つ以上の動作ルーチンとして)、またはその組み合わせとして実現できることは認められよう。2チャネル入力信号を5.1チャネル出力信号にアップ・ミキシングする実施形態について図39に示すように、左前部、右前部、左後部、および右後部チャネル(後部チャネルは、代わりに、「サラウンド」チャネルであると見なしてもよい)に対するプロセス・コアの例が示されている。これらのプロセス・コアは、HRTF5132、内耳時間遅延5134、内耳振幅差5136、ならびに距離および残響5138のコンポーネント(示されている各チャネルにおいて)を含むことができ、これらが、図23に関して先に説明したように機能を実行する。集合的に、これらのコンポーネントは、前述のように、アップ・ミキシングおよび定位プロセスを実行する。この2チャネルから5.1チャネルへのアップ・ミキシングの実施形態例について示すように、対応する2つの入力信号にロー・パス・フィルタをかけ、中央−側部デコーディングを2回行い、次いで対応するコンポーネント5132,5134,5136,5138によって定位効果を適用する。中央チャネルの生成は、%−中央バイパス・の実施形態を参照して章Gにおいて先に説明した通りである。
以上で説明した処理アルゴリズムのいずれに関しても(例えば、図22から図39まで、およびそれに関して設けられた説明)、各主要処理ブロックは任意選択肢である(即ち、リアル・タイムでバイパスすることができる)。具体的には、全ての定位処理ブロック、全ての距離キュー処理ブロック、全ての残響処理ブロック、全ての中央チャネル処理ブロック、および全てのLFE処理ブロックをリアル・タイムでバイパスすることができる。これによって、処理アルゴリズムを使用用途に一層合わせて個々に形成することが可能になる。所与の処理ブロックが不要であるまたは望まれない場合、あるいは追加の処理を必要とせずに音響効果全体を強調する場合、このような余分な処理ブロックをバイパスすればよい。この特徴が含意するのは、処理ブロックをバイパスするとき、CPU処理の削減があり、このようなブロックへの入力信号はいずれも、不変のまま出力段に受け渡され、不変の信号の最終出力との均衡を高めるために、ある量の利得だけを加えることである。
9.用途
定位ステレオ(またはマルチチャネル)音響は、方向性オーディオ・キューを供給し、リスナーに一層大きな現実的感覚を与えるために、多くの異なる用途に応用することができる。例えば、定位2チャネル・ステレオ音響出力を5.1のようなマルチ・スピーカ設定に流すことができる。これは、定位ステレオ・ファイルをDigiDesignのProToolsのようなミキシング・ツールにインポートして、最終的な5.1出力ファイルを生成することによって行うことができる。このような技法は、時間の経過と共に3D空間を動く多数の音源の現実感のある知覚を与えることによって、高品位無線、家庭用、自動車用、商用受信システムおよび携帯用音楽システムに応用することができる。また、この出力をTVにブロードキャストし、DVD音響を強調するため、または映画の音響を強調するために用いることもできる。
本文書において説明した動作および方法は、しかるべく構成された計算デバイスであればいずれによってでも実行することができる。一例として、本方法は、本明細書において開示した方法の1つ以上を具体化するソフトウェアを実行するコンピュータによって実行することができる。つまり、定位音響は、非定位音響データから生成し、コンピュータ・アクセス可能記憶媒体上に1つ以上のデータ・ファイルとして格納することができ、このファイルにアクセスすると、コンピュータまたはこれと通信する他のデバイスが、定位音響を再生することを可能にする。このデータは、標準的なオーディオ機器(受信機、ヘッドホン、ミキサ等)が同様に定位音響を再生できるように、フォーマットし格納することができる。
また、本技術は、ビデオ・ゲームの仮想現実環境の現実性を高め体験全体を改良するためにも用いることができる。トレッドミルまたは固定自転車のような運動機器と組み合わせることによっても、仮想投射を強調し、一層楽しい運動トレーニングを提供することができる。航空機、自動車、およびボート・シミュレータのようなシミュレータも、仮想指向性音響を組み込むことによって、一層現実的にすることができる。
ステレオ音源は、遙かに多く広がって響くようにすることによって、一層楽しい聴取体験を提供することができる。このようなステレオ音源は、家庭用および商用ステレオ受信機、ならびに携帯用音楽プレーヤを含むことができる。
また、本技術は、ディジタル補聴器にも組み込み、一方の耳において部分的に聴覚を失った人々が、身体の聞こえない方の側からの音響定位を体験できるようにすることも可能である。一方の耳において完全に聴覚を失った人も、聴覚の損失が先天的でなければ、この体験を有することができる。
本技術は、多数の同時(即ち、会議)通話をサポートするセルラ・フォン、「スマート」フォン、およびその他のワイヤレス通信デバイスにも組み込むことができ、各発呼者をリアル・タイムで離れた仮想空間位置に置くようにすることができる。即ち、本技術は、ボイス・オーバーIPおよび平凡な古い電話サービス、ならびに移動体セルラ・サービスにも応用することができる。
加えて、本技術は、軍需用および民生用ナビゲーション・システムが一層正確な方向性キューをユーザに供給することを可能にすることもできる。このような改良は、より良い方向性オーディオ・キューを供給し、ユーザが一層容易に音響位置を特定することを可能にすることによって、衝突回避システムを使用するパイロット、対空攻撃の状況に関与する軍のパイロット、およびGPSナビゲーション・システムのユーザを補助することができる。
以上の本開示の実施形態例の説明から当業者には認められるように、記載した実施形態には多数の変形も、本開示の主旨および精神から逸脱することなく、行うことができる。例えば、HRTFフィルタ集合は、もっと多くても少なくても、格納することができ、他のタイプのインパルス応答フィルタを用いてHRTFを近似することもでき、フィルタ計数を別々に(SQLデータベースにおけるエントリのように)格納することもできる。更に、具体的な実施形態およびプロセスのコンテキストで本開示について説明したが、このような説明は一例であり、限定ではない。したがって、本開示の適正な範囲は、以上の例によって特定されるのではなく、以下の特許請求の範囲によって特定されるものとする。

Claims (39)

  1. 1つ以上の受け取った入力オーディオ信号から定位ステレオ出力オーディオ信号を生成する方法であって、各オーディオ信号が対応するオーディオ・チャネルに関連付けられており、
    プロセッサにおいて、
    入力オーディオ信号における少なくとも1つのチャネルを受け取るステップと、
    2つ以上の定位チャネル出力オーディオ信号を生成するために、入力オーディオ信号における前記少なくとも1つのチャネルを処理するステップと、
    少なくとも2つのチャネルを有する定位ステレオ出力オーディオ信号を生成するために、前記2つ以上の定位チャネル出力オーディオ信号の各々をミキシングするステップと、
    を含む方法。
  2. 請求項1記載の方法において、前記入力オーディオ信号を2つ以上のパケットのシーケンスで受け取り、各パケットが固定フレーム長を有する、方法。
  3. 請求項1記載の方法において、前記入力オーディオ信号が、モノ・チャネル入力オーディオ信号である、方法。
  4. 請求項1記載の方法において、前記定位ステレオ出力オーディオ信号が、2つ以上の出力チャネルを含む、方法。
  5. 請求項1記載の方法において、2つ以上の定位チャネル出力オーディオ信号を生成するために入力オーディオ信号における前記少なくとも1つのチャネルを処理する前記ステップが、更に、
    1つ以上のDSPパラメータを利用して、前記受け取った入力オーディオ信号の各チャネルを処理するステップを含む、方法。
  6. 請求項5記載の方法において、前記利用する1つ以上のDSPパラメータの内少なくとも1つが、前記2つ以上の定位オーディオ信号の内少なくとも1つと共に用いるために指定される方位角と関連付けられる、方法。
  7. 請求項6記載の方法において、選択したバイパス・モードに基づいて、方位角を指定する、方法。
  8. 請求項6記載の方法において、前記指定した方位角を、前記モノ・チャネル・オーディオ信号に適用するフィルタを特定するために、前記ディジタル信号プロセッサによって利用する、方法。
  9. 請求項8記載の方法において、前記フィルタをIIRフィルタとして構成する、方法。
  10. 請求項1記載の方法であって、更に、ロー・パス・フィルタおよびロー・パス信号エンハンサの内少なくとも1つを用いることによって、入力オーディオ信号における前記少なくとも1つのチャネルを処理するステップを含む、方法。
  11. 請求項5記載の方法であって、更に、
    残響、利得、およびパラメータ均一化設定の内少なくとも1つを調節するために、前記2つ以上の定位チャネル出力オーディオ信号の各々を処理するステップを含む、方法。
  12. 請求項11記載の方法において、前記処理された2つ以上の定位チャネル出力オーディオ信号が、前部チャネル、側部チャネル、後部チャネル、およびサラウンド・チャネルから成る一群から選択した、対応する出力チャネルの1つ以上の一致対を含む、方法。
  13. 請求項5記載の方法であって、更に、
    前記1つ以上のDSPパラメータの特定を受け取るステップを含む、方法。
  14. 請求項13記載の方法であって、更に、ディジタル信号プロセッサにアクセス可能な記憶媒体に前記DSPパラメータを格納するステップを含む、方法。
  15. 請求項1記載の方法において、前記入力オーディオ信号が入力オーディオ信号のN.Mチャネルを含み、ここでNは1よりも大きい整数であり、Mは整数であり、前記定位ステレオ出力オーディオ信号が、少なくとも2つのチャネルを含む、方法。
  16. 請求項15記載の方法であって、更に、
    Q.Rチャネルを含む所望の出力チャネル構成の特定を受け取るステップであって、Qは1よりも大きい整数であり、Rは整数である、ステップと、
    前記Q.Rチャネルの各々を含むように定位ステレオ出力オーディオ信号を生成するために、前記入力オーディオ信号を処理するステップと、
    を含む方法。
  17. 請求項15記載の方法において、Q>Nである、方法。
  18. 請求項15記載の方法において、Q≦Nである、方法。
  19. 請求項16記載の方法において、M=1およびR=1の内少なくとも1つである、方法。
  20. 請求項15記載の方法であって、更に、
    前記入力オーディオ信号のNチャネルの対応する前部チャネルの対および対応する後部チャネルの対から選択した、1対の対応する入力チャネルを、バイパス構成として選択するステップを含む、方法。
  21. 請求項20記載の方法において、前記入力オーディオ信号のNチャネルの対応する前部チャネルの対および対応する後部チャネルの対から選択した、1対の対応する入力チャネルを、バイパス構成として選択する前記ステップが、更に、
    前記選択した入力チャネルの対応する対の各々に対して方位角を指定するステップを含み、前記選択した入力チャネルの対応する対の各々と関連付けられた仮想オーディオ出力コンポーネントの、中央チャネル・オーディオ信号を出力するために構成された仮想オーディオ出力コンポーネントに対する関係に基づいて、各方位角を指定する、方法。
  22. 請求項21記載の方法であって、更に、
    前記入力信号の選択されなかった対応する対の各々に対して、第2方位角設定値を指定するステップを含み、前記入力チャネルの選択されなかった対応する対の各々と関連付けられた仮想オーディオ出力コンポーネントの、中央チャネル・オーディオ信号を出力するように構成された前記仮想オーディオ出力コンポーネントに対する関係に基づいて、前記第2方位角設定値の各々を指定する、方法。
  23. 請求項20記載の方法において、前記対応する後部チャネルの対を選択し、前記選択した後部入力チャネルの対応する対の各々に対して指定した方位角が110°に等しい、方法。
  24. 請求項23記載の方法であって、更に、
    前記対応する前部チャネルの対の各々に対して、22.5°から30°までの範囲で第2方位角設定値を指定するステップを含み、それぞれの左前部仮想オーディオ・コンポーネントおよび右前部仮想オーディオ・コンポーネントの各々の、中央チャネル・オーディオ信号を出力するように構成された前記仮想オーディオ出力コンポーネントに対する関係に基づいて、各指定第2方位角設定値を指定し、前記仮想オーディオ・コンポーネントの各々が、前記入力オーディオ信号のNチャネルの内対応する入力チャネルと関連付けられている、方法。
  25. 請求項1記載の方法において、前記処理ステップが、更に、
    前記入力オーディオ信号から、1つ以上の入力チャネルを選択するステップと、
    入力チャネル毎に仰角を指定するステップと、
    各入力チャネルに対して指定した仰角に基づいて、選択した各入力チャネルに適用するIIRフィルタを特定するステップと、
    を含む方法。
  26. 請求項25記載の方法であって、更に、N個の定位チャネルを生成するために、IIRフィルタによって前記選択した入力チャネルの各々をフィルタリングするステップを含む方法。
  27. 請求項26記載の方法であって、更に、
    前記N個の定位チャネルの各々を、2つのステレオ対出力チャネルにダウン・ミキシングするステップを含む方法。
  28. 請求項26記載の方法であって、更に、
    前記N個の定位チャネルの各々を、2つのステレオ対出力チャネルにアップ・ミキシングするステップを含む方法。
  29. 請求項26記載の方法であって、更に、
    前記N個の入力オーディオ信号のチャネルの各々に、ロー・パス周波数フィルタを適用するステップを含む方法。
  30. 請求項26記載の方法において、前記N個の入力オーディオ・チャネルが、少なくとも2つの側部チャネルを含み、更に、
    第1架空中央チャネルを生成するために、各側部チャネルを中央−側部デコーディングするステップを含む方法。
  31. 請求項30記載の方法において、前記N個の入力オーディオ・チャネルが、少なくとも2つの前部チャネルを含み、更に、
    第2架空中央チャネルを生成するために、前記前部チャネルの各々を中央−側部デコーディングするステップを含む方法。
  32. 請求項1記載の方法において、前記入力オーディオ信号が少なくとも2つのチャネルを含み、更に、
    架空中央チャネルを生成するために、前記入力オーディオ信号の少なくとも2つのチャネルを中央側デコーディングするステップを含む方法。
  33. 請求項32記載の方法において、前部チャネル、側部チャネル、サラウンド・チャネル、および後部チャネルから成る一群から選択した対応するチャネル対に、前記中央−側部デコーディングを適用する、方法。
  34. 請求項20記載の方法であって、更に、
    入力オーディオ・チャネルの前記N個のチャネルの各々に、ロー・パス周波数フィルタリング、利得および均一化を適用することによって、入力オーディオ・チャネルの前記N個のチャネルの各々によって供給されるいずれの低周波信号も特定し強調するステップと、
    前記N個の入力オーディオ信号チャネルの内、ステレオ・チャネルの前対に対応する各々を中央−側部デコーディングするステップと、
    を含む方法。
  35. 請求項34記載の方法であって、更に、
    前記N個のオーディオ信号チャネルの各々を、前記定位ステレオ・オーディオ出力信号にダウン・ミキシングするステップを含む方法。
  36. 請求項34記載の方法であって、更に、
    前記N個のオーディオ信号チャネルの各々を、前記定位ステレオ・オーディオ出力信号にアップ・ミキシングするステップを含む方法。
  37. 請求項31記載の方法であって、更に、
    (a)前記第1架空中央チャネルおよび前記第2架空中央チャネルを合算する動作、(b)前記合算ステップの結果を2で除算する動作、並びに(c)前記除算ステップの商を前記第2架空中央チャネルから差し引く動作を実行することによって、仮想中央モノ・チャネルを生成するステップを含む、方法。
  38. 請求項1記載の方法において、前記入力オーディオ信号の少なくとも1つのチャネルが、LtRt信号における信号を含む、方法。
  39. 請求項38記載の方法であって、更に、
    右後部オーディオ信号を左後部LtRtオーディオ信号から差し引くことによって、左後部サラウンド・チャネルを前記入力オーディオ信号から分離するステップと、
    左後部オーディオ信号を右後部LtRtオーディオ信号から差し引くことによって、右後部サラウンド・チャネルを前記入力オーディオ信号から分離するステップと、
    を含む方法。
JP2013546391A 2010-12-22 2011-12-21 オーディオ空間化および環境シミュレーション Pending JP2014506416A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201061426210P 2010-12-22 2010-12-22
US61/426,210 2010-12-22
PCT/US2011/066623 WO2012088336A2 (en) 2010-12-22 2011-12-21 Audio spatialization and environment simulation

Publications (1)

Publication Number Publication Date
JP2014506416A true JP2014506416A (ja) 2014-03-13

Family

ID=46314906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013546391A Pending JP2014506416A (ja) 2010-12-22 2011-12-21 オーディオ空間化および環境シミュレーション

Country Status (5)

Country Link
US (1) US9154896B2 (ja)
EP (1) EP2656640A2 (ja)
JP (1) JP2014506416A (ja)
TW (1) TWI517028B (ja)
WO (1) WO2012088336A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180088721A (ko) * 2015-12-07 2018-08-06 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 신호 처리 장치 및 방법
JP2021503628A (ja) * 2017-11-17 2021-02-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848118B2 (en) 2004-08-10 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US11431312B2 (en) 2004-08-10 2022-08-30 Bongiovi Acoustics Llc System and method for digital signal processing
US8284955B2 (en) 2006-02-07 2012-10-09 Bongiovi Acoustics Llc System and method for digital signal processing
US10158337B2 (en) 2004-08-10 2018-12-18 Bongiovi Acoustics Llc System and method for digital signal processing
US9413321B2 (en) 2004-08-10 2016-08-09 Bongiovi Acoustics Llc System and method for digital signal processing
US9281794B1 (en) 2004-08-10 2016-03-08 Bongiovi Acoustics Llc. System and method for digital signal processing
US11202161B2 (en) 2006-02-07 2021-12-14 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10701505B2 (en) 2006-02-07 2020-06-30 Bongiovi Acoustics Llc. System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10848867B2 (en) 2006-02-07 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US10069471B2 (en) 2006-02-07 2018-09-04 Bongiovi Acoustics Llc System and method for digital signal processing
US9348904B2 (en) 2006-02-07 2016-05-24 Bongiovi Acoustics Llc. System and method for digital signal processing
US9615189B2 (en) 2014-08-08 2017-04-04 Bongiovi Acoustics Llc Artificial ear apparatus and associated methods for generating a head related audio transfer function
US9195433B2 (en) 2006-02-07 2015-11-24 Bongiovi Acoustics Llc In-line signal processor
JP6007474B2 (ja) * 2011-10-07 2016-10-12 ソニー株式会社 音声信号処理装置、音声信号処理方法、プログラムおよび記録媒体
US9167368B2 (en) * 2011-12-23 2015-10-20 Blackberry Limited Event notification on a mobile device using binaural sounds
TWI498014B (zh) * 2012-07-11 2015-08-21 Univ Nat Cheng Kung 建立最佳化揚聲器聲場之方法
US9075697B2 (en) * 2012-08-31 2015-07-07 Apple Inc. Parallel digital filtering of an audio channel
WO2014035903A1 (en) * 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation Bi-directional interconnect for communication between a renderer and an array of individually addressable drivers
US9215020B2 (en) * 2012-09-17 2015-12-15 Elwha Llc Systems and methods for providing personalized audio content
JP6079119B2 (ja) 2012-10-10 2017-02-15 ティアック株式会社 録音装置
JP6056356B2 (ja) * 2012-10-10 2017-01-11 ティアック株式会社 録音装置
US9344828B2 (en) 2012-12-21 2016-05-17 Bongiovi Acoustics Llc. System and method for digital signal processing
US10203839B2 (en) 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US9892743B2 (en) * 2012-12-27 2018-02-13 Avaya Inc. Security surveillance via three-dimensional audio space presentation
US9913064B2 (en) 2013-02-07 2018-03-06 Qualcomm Incorporated Mapping virtual speakers to physical speakers
US9236058B2 (en) 2013-02-21 2016-01-12 Qualcomm Incorporated Systems and methods for quantizing and dequantizing phase information
US9208775B2 (en) 2013-02-21 2015-12-08 Qualcomm Incorporated Systems and methods for determining pitch pulse period signal boundaries
US9344826B2 (en) * 2013-03-04 2016-05-17 Nokia Technologies Oy Method and apparatus for communicating with audio signals having corresponding spatial characteristics
WO2014159376A1 (en) 2013-03-12 2014-10-02 Dolby Laboratories Licensing Corporation Method of rendering one or more captured audio soundfields to a listener
US20140270182A1 (en) * 2013-03-14 2014-09-18 Nokia Corporation Sound For Map Display
KR101764660B1 (ko) 2013-03-14 2017-08-03 애플 인크. 스피커 및 핸드헬드 청취 디바이스를 사용한 적응적 공간 등화
CN105393456B (zh) * 2013-03-26 2018-06-22 拉克伦·保罗·巴拉特 虚拟采样率增加的音频滤波
US9263055B2 (en) 2013-04-10 2016-02-16 Google Inc. Systems and methods for three-dimensional audio CAPTCHA
FR3004883B1 (fr) 2013-04-17 2015-04-03 Jean-Luc Haurais Procede de restitution sonore d'un signal numerique audio
CN108806704B (zh) 2013-04-19 2023-06-06 韩国电子通信研究院 多信道音频信号处理装置及方法
KR102150955B1 (ko) 2013-04-19 2020-09-02 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US9883318B2 (en) 2013-06-12 2018-01-30 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9264004B2 (en) 2013-06-12 2016-02-16 Bongiovi Acoustics Llc System and method for narrow bandwidth digital signal processing
US9398394B2 (en) * 2013-06-12 2016-07-19 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9858932B2 (en) 2013-07-08 2018-01-02 Dolby Laboratories Licensing Corporation Processing of time-varying metadata for lossless resampling
EP2830043A3 (en) * 2013-07-22 2015-02-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for Processing an Audio Signal in accordance with a Room Impulse Response, Signal Processing Unit, Audio Encoder, Audio Decoder, and Binaural Renderer
EP2830335A3 (en) * 2013-07-22 2015-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method, and computer program for mapping first and second input channels to at least one output channel
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
US9426300B2 (en) 2013-09-27 2016-08-23 Dolby Laboratories Licensing Corporation Matching reverberation in teleconferencing environments
KR20160072130A (ko) * 2013-10-02 2016-06-22 슈트로밍스위스 게엠베하 2개 이상의 기본 신호로부터 다채널 신호의 유도
US9067135B2 (en) 2013-10-07 2015-06-30 Voyetra Turtle Beach, Inc. Method and system for dynamic control of game audio based on audio analysis
US10063982B2 (en) 2013-10-09 2018-08-28 Voyetra Turtle Beach, Inc. Method and system for a game headset with audio alerts based on audio track analysis
US9716958B2 (en) * 2013-10-09 2017-07-25 Voyetra Turtle Beach, Inc. Method and system for surround sound processing in a headset
US9338541B2 (en) 2013-10-09 2016-05-10 Voyetra Turtle Beach, Inc. Method and system for in-game visualization based on audio analysis
US8979658B1 (en) 2013-10-10 2015-03-17 Voyetra Turtle Beach, Inc. Dynamic adjustment of game controller sensitivity based on audio analysis
US9397629B2 (en) 2013-10-22 2016-07-19 Bongiovi Acoustics Llc System and method for digital signal processing
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
CN104683933A (zh) 2013-11-29 2015-06-03 杜比实验室特许公司 音频对象提取
CN103646656B (zh) * 2013-11-29 2016-05-04 腾讯科技(成都)有限公司 音效处理方法、装置、插件管理器及音效插件
CN104768121A (zh) 2014-01-03 2015-07-08 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
CN105874820B (zh) 2014-01-03 2017-12-12 杜比实验室特许公司 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
EP3114859B1 (en) 2014-03-06 2018-05-09 Dolby Laboratories Licensing Corporation Structural modeling of the head related impulse response
CA2944355C (en) 2014-03-28 2019-06-25 Samsung Electronics Co., Ltd. Method and apparatus for rendering acoustic signal, and computer-readable recording medium
EP3131313B1 (en) 2014-04-11 2024-05-29 Samsung Electronics Co., Ltd. Method and apparatus for rendering sound signal, and computer-readable recording medium
US10820883B2 (en) 2014-04-16 2020-11-03 Bongiovi Acoustics Llc Noise reduction assembly for auscultation of a body
US10639000B2 (en) 2014-04-16 2020-05-05 Bongiovi Acoustics Llc Device for wide-band auscultation
US9615813B2 (en) 2014-04-16 2017-04-11 Bongiovi Acoustics Llc. Device for wide-band auscultation
CN104023304B (zh) * 2014-06-24 2015-11-11 武汉大学 一种五扬声器***精简为四扬声器***的方法
US9564146B2 (en) 2014-08-01 2017-02-07 Bongiovi Acoustics Llc System and method for digital signal processing in deep diving environment
US9782672B2 (en) * 2014-09-12 2017-10-10 Voyetra Turtle Beach, Inc. Gaming headset with enhanced off-screen awareness
DE202015009711U1 (de) 2014-11-30 2019-06-21 Dolby Laboratories Licensing Corporation Mit sozialen Medien verknüpftes großformatiges Kinosaaldesign
US9551161B2 (en) 2014-11-30 2017-01-24 Dolby Laboratories Licensing Corporation Theater entrance
US9743187B2 (en) * 2014-12-19 2017-08-22 Lee F. Bender Digital audio processing systems and methods
US9638672B2 (en) 2015-03-06 2017-05-02 Bongiovi Acoustics Llc System and method for acquiring acoustic information from a resonating body
EP3067885A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding a multi-channel signal
WO2016179648A1 (en) * 2015-05-08 2016-11-17 Barratt Lachlan Controlling dynamic values in digital signals
TWI559296B (zh) * 2015-05-26 2016-11-21 tian-ci Zhang How to handle tracks
GB2539875B (en) * 2015-06-22 2017-09-20 Time Machine Capital Ltd Music Context System, Audio Track Structure and method of Real-Time Synchronization of Musical Content
US9854376B2 (en) * 2015-07-06 2017-12-26 Bose Corporation Simulating acoustic output at a location corresponding to source position data
JP6578813B2 (ja) * 2015-08-20 2019-09-25 株式会社Jvcケンウッド 頭外定位処理装置、及びフィルタ選択方法
US20170223474A1 (en) * 2015-11-10 2017-08-03 Bender Technologies, Inc. Digital audio processing systems and methods
JP2018537910A (ja) 2015-11-16 2018-12-20 ボンジョビ アコースティックス リミテッド ライアビリティー カンパニー 表面音響変換器
US9621994B1 (en) 2015-11-16 2017-04-11 Bongiovi Acoustics Llc Surface acoustic transducer
US10045144B2 (en) 2015-12-09 2018-08-07 Microsoft Technology Licensing, Llc Redirecting audio output
US10293259B2 (en) 2015-12-09 2019-05-21 Microsoft Technology Licensing, Llc Control of audio effects using volumetric data
US10142755B2 (en) * 2016-02-18 2018-11-27 Google Llc Signal processing methods and systems for rendering audio on virtual loudspeaker arrays
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
WO2017165968A1 (en) * 2016-03-29 2017-10-05 Rising Sun Productions Limited A system and method for creating three-dimensional binaural audio from stereo, mono and multichannel sound sources
US9800990B1 (en) * 2016-06-10 2017-10-24 C Matter Limited Selecting a location to localize binaural sound
KR102513586B1 (ko) * 2016-07-13 2023-03-27 삼성전자주식회사 전자 장치 및 전자 장치의 오디오 출력 방법
TWI599236B (zh) * 2016-08-19 2017-09-11 山衛科技股份有限公司 儀器測試系統、儀器測試之方法及其電腦程式產品
US20200045419A1 (en) * 2016-10-04 2020-02-06 Omnio Sound Limited Stereo unfold technology
WO2018073759A1 (en) * 2016-10-19 2018-04-26 Audible Reality Inc. System for and method of generating an audio image
KR20180093676A (ko) * 2017-02-14 2018-08-22 한국전자통신연구원 스테레오 오디오 신호에 대한 태그 삽입 장치 및 태그 삽입 방법, 그리고, 태그 추출 장치 및 태그 추출 방법
JP6481905B2 (ja) * 2017-03-15 2019-03-13 カシオ計算機株式会社 フィルタ特性変更装置、フィルタ特性変更方法、プログラムおよび電子楽器
US9942687B1 (en) 2017-03-30 2018-04-10 Microsoft Technology Licensing, Llc System for localizing channel-based audio from non-spatial-aware applications into 3D mixed or virtual reality space
US10257633B1 (en) * 2017-09-15 2019-04-09 Htc Corporation Sound-reproducing method and sound-reproducing apparatus
US10250983B1 (en) * 2017-09-15 2019-04-02 NIO USA Inc. Distributed and upgradable audio system
DE102017124046A1 (de) * 2017-10-16 2019-04-18 Ask Industries Gmbh Verfahren zur Durchführung eines Morphingvorgangs
US10152966B1 (en) * 2017-10-31 2018-12-11 Comcast Cable Communications, Llc Preventing unwanted activation of a hands free device
CN111316353B (zh) * 2017-11-10 2023-11-17 诺基亚技术有限公司 确定空间音频参数编码和相关联的解码
CN107993668A (zh) * 2017-11-27 2018-05-04 上海航天测控通信研究所 一种基于McASP接口的多路数字语音混音的方法
US10375504B2 (en) * 2017-12-13 2019-08-06 Qualcomm Incorporated Mechanism to output audio to trigger the natural instincts of a user
US11109178B2 (en) * 2017-12-18 2021-08-31 Dolby International Ab Method and system for handling local transitions between listening positions in a virtual reality environment
US10652686B2 (en) 2018-02-06 2020-05-12 Sony Interactive Entertainment Inc. Method of improving localization of surround sound
US10523171B2 (en) 2018-02-06 2019-12-31 Sony Interactive Entertainment Inc. Method for dynamic sound equalization
US10609503B2 (en) * 2018-04-08 2020-03-31 Dts, Inc. Ambisonic depth extraction
US11540079B2 (en) * 2018-04-11 2022-12-27 Dolby International Ab Methods, apparatus and systems for a pre-rendered signal for audio rendering
US11211043B2 (en) 2018-04-11 2021-12-28 Bongiovi Acoustics Llc Audio enhanced hearing protection system
GB2574667A (en) * 2018-06-15 2019-12-18 Nokia Technologies Oy Spatial audio capture, transmission and reproduction
WO2020014506A1 (en) 2018-07-12 2020-01-16 Sony Interactive Entertainment Inc. Method for acoustically rendering the size of a sound source
US10959035B2 (en) 2018-08-02 2021-03-23 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
WO2020044244A1 (en) 2018-08-29 2020-03-05 Audible Reality Inc. System for and method of controlling a three-dimensional audio engine
US10966041B2 (en) * 2018-10-12 2021-03-30 Gilberto Torres Ayala Audio triangular system based on the structure of the stereophonic panning
US10425762B1 (en) * 2018-10-19 2019-09-24 Facebook Technologies, Llc Head-related impulse responses for area sound sources located in the near field
US11304021B2 (en) 2018-11-29 2022-04-12 Sony Interactive Entertainment Inc. Deferred audio rendering
US10595149B1 (en) 2018-12-04 2020-03-17 Facebook Technologies, Llc Audio augmentation using environmental data
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
US11347832B2 (en) * 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
JP7451896B2 (ja) * 2019-07-16 2024-03-19 ヤマハ株式会社 音響処理装置および音響処理方法
WO2021041668A1 (en) * 2019-08-27 2021-03-04 Anagnos Daniel P Head-tracking methodology for headphones and headsets
EP4085660A4 (en) 2019-12-30 2024-05-22 Comhear Inc. METHOD FOR PROVIDING A SPATIAL SOUND FIELD
US11246001B2 (en) 2020-04-23 2022-02-08 Thx Ltd. Acoustic crosstalk cancellation and virtual speakers techniques
US11924628B1 (en) * 2020-12-09 2024-03-05 Hear360 Inc Virtual surround sound process for loudspeaker systems
US11521623B2 (en) 2021-01-11 2022-12-06 Bank Of America Corporation System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording
US20230044356A1 (en) * 2021-02-02 2023-02-09 Spacia Labs Inc. Digital audio workstation augmented with vr/ar functionalities
US11285393B1 (en) * 2021-04-07 2022-03-29 Microsoft Technology Licensing, Llc Cue-based acoustics for non-player entity behavior
JP7332745B2 (ja) * 2021-04-10 2023-08-23 英霸聲學科技股▲ふん▼有限公司 音声処理方法及び音声処理装置
TWI817177B (zh) * 2021-08-11 2023-10-01 宏碁股份有限公司 聲音播放系統及可適性音場調整方法
TWI802127B (zh) * 2021-12-03 2023-05-11 松聲生技股份有限公司 音訊調節系統及音訊調節方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304498A (ja) * 1997-04-30 1998-11-13 Kawai Musical Instr Mfg Co Ltd ステレオ拡大装置及び音場拡大装置
JPH1132398A (ja) * 1997-05-16 1999-02-02 Victor Co Of Japan Ltd デュプリケーションシステム、編集システム及び記録媒体の作成方法
WO2006070782A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. マルチチャンネルオーディオシステム、ならびに、マルチチャンネルオーディオ信号多重化装置、復元装置およびプログラム
WO2007046288A1 (ja) * 2005-10-18 2007-04-26 Pioneer Corporation 定位制御装置、定位制御方法、定位制御プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009022023A (ja) * 1997-08-13 2009-01-29 Microsoft Corp タップ遅延線初期化を備えた3dサウンド用の無限インパルス応答フィルタ
JP2009532985A (ja) * 2006-04-03 2009-09-10 エスアールエス・ラブス・インコーポレーテッド オーディオ信号処理
WO2010048157A1 (en) * 2008-10-20 2010-04-29 Genaudio, Inc. Audio spatialization and environment simulation
JP2010520671A (ja) * 2007-03-01 2010-06-10 ジェリー・マハバブ 音声空間化及び環境シミュレーション
WO2010082471A1 (ja) * 2009-01-13 2010-07-22 パナソニック株式会社 音響信号復号装置及びバランス調整方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3969682A (en) * 1974-10-21 1976-07-13 Oberheim Electronics Inc. Circuit for dynamic control of phase shift
JPH0228200U (ja) * 1988-08-12 1990-02-23
US5572591A (en) * 1993-03-09 1996-11-05 Matsushita Electric Industrial Co., Ltd. Sound field controller
US5857026A (en) * 1996-03-26 1999-01-05 Scheiber; Peter Space-mapping sound system
JP4766491B2 (ja) * 2006-11-27 2011-09-07 株式会社ソニー・コンピュータエンタテインメント 音声処理装置および音声処理方法
JP4823030B2 (ja) * 2006-11-27 2011-11-24 株式会社ソニー・コンピュータエンタテインメント 音声処理装置および音声処理方法
US7764802B2 (en) * 2007-03-09 2010-07-27 Srs Labs, Inc. Frequency-warped audio equalizer
US8705748B2 (en) * 2007-05-04 2014-04-22 Creative Technology Ltd Method for spatially processing multichannel signals, processing module, and virtual surround-sound systems

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304498A (ja) * 1997-04-30 1998-11-13 Kawai Musical Instr Mfg Co Ltd ステレオ拡大装置及び音場拡大装置
JPH1132398A (ja) * 1997-05-16 1999-02-02 Victor Co Of Japan Ltd デュプリケーションシステム、編集システム及び記録媒体の作成方法
JP2009022023A (ja) * 1997-08-13 2009-01-29 Microsoft Corp タップ遅延線初期化を備えた3dサウンド用の無限インパルス応答フィルタ
WO2006070782A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. マルチチャンネルオーディオシステム、ならびに、マルチチャンネルオーディオ信号多重化装置、復元装置およびプログラム
WO2007046288A1 (ja) * 2005-10-18 2007-04-26 Pioneer Corporation 定位制御装置、定位制御方法、定位制御プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009532985A (ja) * 2006-04-03 2009-09-10 エスアールエス・ラブス・インコーポレーテッド オーディオ信号処理
JP2010520671A (ja) * 2007-03-01 2010-06-10 ジェリー・マハバブ 音声空間化及び環境シミュレーション
WO2010048157A1 (en) * 2008-10-20 2010-04-29 Genaudio, Inc. Audio spatialization and environment simulation
JP2012506673A (ja) * 2008-10-20 2012-03-15 ジェノーディオ,インコーポレーテッド オーディオ空間化および環境シミュレーション
WO2010082471A1 (ja) * 2009-01-13 2010-07-22 パナソニック株式会社 音響信号復号装置及びバランス調整方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180088721A (ko) * 2015-12-07 2018-08-06 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 신호 처리 장치 및 방법
US20180324541A1 (en) 2015-12-07 2018-11-08 Huawei Technologies Co., Ltd. Audio Signal Processing Apparatus and Method
US10492017B2 (en) 2015-12-07 2019-11-26 Huawei Technologies Co., Ltd. Audio signal processing apparatus and method
KR102172051B1 (ko) * 2015-12-07 2020-11-02 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 신호 처리 장치 및 방법
JP2021503628A (ja) * 2017-11-17 2021-02-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
JP2022058577A (ja) * 2017-11-17 2022-04-12 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
US11367454B2 (en) 2017-11-17 2022-06-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding
JP7175980B2 (ja) 2017-11-17 2022-11-21 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法
US11783843B2 (en) 2017-11-17 2023-10-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using different time/frequency resolutions
JP7372360B2 (ja) 2017-11-17 2023-10-31 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法

Also Published As

Publication number Publication date
TW201246060A (en) 2012-11-16
US20120213375A1 (en) 2012-08-23
WO2012088336A3 (en) 2012-11-15
WO2012088336A2 (en) 2012-06-28
EP2656640A2 (en) 2013-10-30
TWI517028B (zh) 2016-01-11
US9154896B2 (en) 2015-10-06

Similar Documents

Publication Publication Date Title
US9154896B2 (en) Audio spatialization and environment simulation
US9197977B2 (en) Audio spatialization and environment simulation
US11178503B2 (en) System for rendering and playback of object based audio in various listening environments
US8374365B2 (en) Spatial audio analysis and synthesis for binaural reproduction and format conversion
EP2891335B1 (en) Reflected and direct rendering of upmixed content to individually addressable drivers
JP6674902B2 (ja) 音響信号のレンダリング方法、該装置、及びコンピュータ可読記録媒体
CN110326310B (zh) 串扰消除的动态均衡
CN113170271B (zh) 用于处理立体声信号的方法和装置
Wiggins An investigation into the real-time manipulation and control of three-dimensional sound fields
KR20100081300A (ko) 오디오 신호의 디코딩 방법 및 장치
KR20160001712A (ko) 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US20220369061A1 (en) Spatial Audio Representation and Rendering
CN112019993B (zh) 用于音频处理的设备和方法
JP2022552474A (ja) 空間オーディオ表現およびレンダリング
Malham Approaches to spatialisation
Pelzer et al. 3D reproduction of room acoustics using a hybrid system of combined crosstalk cancellation and ambisonics playback
US11924623B2 (en) Object-based audio spatializer
US11665498B2 (en) Object-based audio spatializer
KR20190060464A (ko) 오디오 신호 처리 방법 및 장치
JP2023070650A (ja) 音場の少なくとも一部の位置決めによる空間オーディオ再生
TW202234385A (zh) 用以呈現音訊物件之設備與方法
Tsakostas et al. Real-time spatial mixing using binaural processing

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141031

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141128

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324