JP2016525715A - オーディオチャネル及びオーディオオブジェクトのためのオーディオ符号化及び復号化の概念 - Google Patents

オーディオチャネル及びオーディオオブジェクトのためのオーディオ符号化及び復号化の概念 Download PDF

Info

Publication number
JP2016525715A
JP2016525715A JP2016528435A JP2016528435A JP2016525715A JP 2016525715 A JP2016525715 A JP 2016525715A JP 2016528435 A JP2016528435 A JP 2016528435A JP 2016528435 A JP2016528435 A JP 2016528435A JP 2016525715 A JP2016525715 A JP 2016525715A
Authority
JP
Japan
Prior art keywords
audio
channels
channel
decoder
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016528435A
Other languages
English (en)
Other versions
JP6268286B2 (ja
Inventor
アダミ,アレキサンデル
ボルス,クリスチャン
ディック,サッシャ
エルテル,クリスチャン
フェーク,シモーネ
ヘルレ,ユルゲン
ヒルペルト,ヨハネス
ヘルツェル,アンドレアス
クラッツシュメール,ミヒャエル
ケッヒ,ファビアン
クンツ,アヒム
ムルタザ,アドリアン
プロクティース,ヤン
ジルツル,アンドレアス
シュテンツェル,ハンネ
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2016525715A publication Critical patent/JP2016525715A/ja
Application granted granted Critical
Publication of JP6268286B2 publication Critical patent/JP6268286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

オーディオ入力データ(101)を符号化してオーディオ出力データ(501)を取得するオーディオ符号器は、複数のオーディオチャネルと複数のオーディオオブジェクトと前記複数のオーディオオブジェクトの1つ以上に関連するメタデータとを受信する入力インターフェイス(100)と、前記複数のオブジェクトと前記複数のチャネルとをミキシングして複数のプレミクス済みチャネルを取得するミキサー(200)であって、各プレミクスされたチャネルは1つのチャネルのオーディオデータと少なくとも1つのオブジェクトのオーディオデータとを含む、ミキサー(200)と、コア符号器入力データをコア符号化するコア符号器(300)と、前記複数のオーディオオブジェクトの1つ以上に関連する前記メタデータを圧縮するメタデータ圧縮部(400)とを備える。前記オーディオ符号器は、前記コア符号器がコア符号器入力データとして前記入力インターフェイスにより受信された前記複数のオーディオチャネルと前記複数のオーディオオブジェクトとを符号化する第1モードと、前記コア符号器(300)が前記コア符号器入力データとして前記ミキサー(200)により生成された前記複数のプレミクス済みチャネルを受信する第2モードとを含む、少なくとも2つのモードからなる1クループの両モードにおいて作動するよう構成されている。【選択図】 図1

Description

本発明はオーディオ符号化/復号化に関し、特に、空間オーディオ符号化及び空間オーディオオブジェクト符号化に関する。
空間オーディオ符号化ツールは当該技術において公知であり、例えばMPEGサラウンド標準で標準化されている。空間オーディオ符号化は、5個又は7個のチャネルなどのオリジナル入力チャネルから開始し、それらチャネルは再生設定におけるそれらの配置によって識別される。即ち、左チャネル、中央チャネル、右チャネル、左サラウンドチャネル、右サラウンドチャネル、及び低周波数強化チャネルである。空間オーディオ符号器は、典型的にはオリジナルチャネルから1つ以上のダウンミクスチャネルを導出し、加えて空間的キューに関連するパラメトリックデータを導出しており、その空間的キューにはチャネルコヒーレンス値におけるチャネル間レベル差(interchannel level differences)、チャネル間位相差(interchannel phase differences)、チャネル間時間差(interchannel time differences)などがある。1つ以上のダウンミクスチャネルは、空間的キューを示すパラメトリックサイド情報と一緒に空間オーディオ復号器へと伝送され、その復号器は、ダウンミクスチャネルとその関連するパラメトリックデータとを復号化して、オリジナル入力チャネルの近似されたバージョンである出力チャネルを最終的に取得する。出力設定におけるチャネルの配置は典型的には固定されており、例えば5.1フォーマット、7.1フォーマットなどである。
加えて、空間オーディオオブジェクト符号化ツールは、当該技術において公知であり、MPEG SAOC標準(SAOC=空間オーディオオブジェクト符号化)において標準化されている。オリジナルチャネルから開始する空間オーディオ符号化とは対照的に、空間オーディオオブジェクト符号化はオーディオオブジェクトから開始し、それらオブジェクトはあるレンダリング再生設定に対して自動的に専用となる訳ではない。代わりに、再生シーン内におけるオーディオオブジェクトの配置には柔軟性があり、あるレンダリング情報を空間オーディオオブジェクト符号化・復号器へと入力することによりユーザーが決定することもできる。代替的又は追加的に、レンダリング情報、即ち再生設定におけるどの位置に、あるオーディオオブジェクトが典型的には時間にわたって配置されるべきかという情報は、追加的サイド情報又はメタデータとして伝送され得る。あるデータ圧縮を得るために幾つかのオーディオオブジェクトがSAOC符号器によって符号化され、その符号器は、あるダウンミクス情報に従ってオブジェクトをダウンミクスすることで入力オブジェクトから1つ以上の転送チャネルを計算する。更に、SAOC符号器は、オブジェクトレベル差(OLD)、オブジェクトコヒーレンス値などのオブジェクト間キューを表現しているパラメトリックサイド情報を計算する。SAC(SAC=空間オーディオ符号化)においては、オブジェクト間のパラメトリックデータが個別の時間/周波数タイルについて計算される。即ち、例えば1024個又は2048個のサンプルを有するオーディオ信号のあるフレームについて、最終的に各フレーム及び各周波数帯域に対してパラメトリックデータが存在するように、24個,32個又は64個などの周波数帯域が考慮される。一例として、あるオーディオピースが20フレームを有し、各フレームが32個の周波数帯域へと分割される場合、時間/周波数タイルの数は640個となる。
これまでのところ、低ビットレートで許容可能なオーディオ品質が得られるように、チャネル符号化を一方としオブジェクト符号化を他方としてそれらを組み合わせるような、柔軟性のある技術が存在していない。
本発明の目的は、オーディオ符号化及びオーディオ復号化についての改善された概念を提供することである。
この目的は、請求項1に記載のオーディオ符号器と、請求項8に記載のオーディオ復号器と、請求項22に記載のオーディオ符号化方法と、請求項23に記載のオーディオ復号化方法と、請求項24に記載のコンピュータプログラムとによって達成される。
本発明は、柔軟性を有することを一方とし、良好なオーディオ品質で良好な圧縮効率を提供することを他方とする最適なシステムが、空間オーディオ符号化、即ちチャネルベースのオーディオ符号化と、空間オーディオオブジェクト符号化、即ちオブジェクトベースの符号化と、を組み合わせることによって達成されるという知見に基づいている。特に、オブジェクトとチャネルとをミキシングするためのミキサーを符号器側で既に準備することは、如何なるオブジェクト伝送も不要にすることが可能であり、又は伝送されるべきオブジェクトの個数を削減し得るので、特に低ビットレートのアプリケーションに対して良好な柔軟性を提供することになる。他方、オーディオ符号器が2つの異なるモードにおいて制御され得るように、柔軟性が要求される。即ち、一方のモードにおいては、オブジェクトがコア符号化される前にチャネルとミキシングされ、他方のモードにおいては、オブジェクトデータとチャネルデータとがそれらの間で何もミキシングされずに直接的にコア符号化される。
これにより、ユーザーが、一方で処理済みオブジェクト及びチャネルを符号器側で分離することが可能になり、その結果、増大するビットレートという代償を払うとは言え、復号器側において完全な柔軟性が得られる。他方で、ビットレートの要件がより厳しい場合には、本発明は既に、符号器側でミキシング/プレレンダリングを実行することを許可している。即ち、オーディオオブジェクトの一部又は全部が既にチャネルとミキシングされており、その結果、コア符号器はチャネルデータを符号化するだけであり、ダウンミックス形式又はパラメトリックなオブジェクト間データ形式のいずれかでオーディオオブジェクトデータを送信するために必要な如何なるビットも要求されない。
復号器側では、ユーザーは、同じオーディオ復号器が2つの異なるモードで操作を可能にしているという事実からも、高い柔軟性を得ることになる。即ち、第1モードでは、個々の又は別個のチャネル符号化とオブジェクト符号化とが実行され、復号器は、オブジェクトのレンダリング及びチャネルデータとのミキシングに対して完全な柔軟性を有する。他方、符号器側でミキシング/プレレンダリングが既に実行されている場合には、復号器は、中間的なオブジェクト処理が何もない状態で、後処理を実行するよう構成されている。しかし、その後処理は、他のモードでも、即ち、オブジェクトレンダリング/ミキシングが復号器側で実行される場合でも、データに対して適用できる。このように、本発明は、符号器側だけでなく復号器側においても、資源の多大な再利用を可能にするような処理作業の枠組みを可能にする。この後処理とは、目標とする再生レイアウトなどの最終的なチャネルシナリオを取得するための、ダウンミキシング及びバイノーラル化、又は任意の他の処理を指しても良い。
更に、非常に低いビットレート要件の場合には、本発明は、ユーザーに対してその低いビットレート要件に対応するために十分な柔軟性を提供する。即ち、符号器側でプレレンダリングすることにより、幾分かの柔軟性を代償とするとは言え、復号器側において非常に良好なオーディオ品質が取得可能となる。それは、符号器から復号器へとオブジェクトデータを全く提供しないことで節約されたビットが、チャネルデータをより良好に符号化するために使用できるという事実に起因するものであり、その良好な符号化は、十分なビットが使用可能な場合に、チャネルデータをより細かく量子化することや、品質を向上させるため又は符号化損失を低減するための任意の他の手段などによって可能になる。
本発明の好適な実施形態において、符号器はSAOC符号器を更に含み、符号器に入力されたオブジェクトを符号化できるだけでなく、チャネルデータをSAOC符号化して、更に低いビットレート要件においても良好なオーディオ品質を取得できるようにする。本発明の更なる実施形態は、バイノーラルレンダラー及び/又はフォーマット変換部を含む後処理機能を許可する。更に、復号器側の全体的な処理は、22又は32チャネルのラウドスピーカ設定などのような、多数個のラウドスピーカに対して既に実行されることが好ましい。しかし、次にフォーマット変換部が例えば5.1出力だけ、即ちチャネルの最大数よりも少数の再生レイアウトの出力が必要であると決定した場合、フォーマット変換部は、USAC復号器又はSAOC復号器のいずれか、又は両方の装置を制御して、最後にはフォーマット変換の中へとダウンミックスされるとは言え、復号化において如何なるチャネルも生成されないように、コア復号化操作及びSAOC復号化操作を制限するのが望ましい。典型的には、アップミックス済みチャネルの生成はデコリレーション処理を必要とし、各デコリレーション処理はあるレベルのアーチファクトを導入してしまう。従って、コア復号器及び/又はSAOC復号器を最終的に要求される出力フォーマットにより制御することで、この相互作用が存在しない状況と比較して、かなり大量の追加的なデコリレーション処理が節約される。その結果、オーディオ品質が向上するだけでなく、復号器の演算量が低減され、結局は電力消費も低減させることになり、この点は特に、本発明の符号器又は本発明の復号器を収容しているモバイル機器にとって有益である。しかしながら、本発明の符号器/復号器は、携帯電話、スマートホン、ノート型コンピュータ又はナビゲーション装置などのモバイル機器に導入され得るだけでなく、単純なデスクトップ・コンピュータや他の如何なる非モバイル器具にも使用され得る。
上述の構成、即ち幾つかのチャネルを生成しない構成は、最適とは言えない可能性もある。なぜなら、幾つかの情報(ダウンミックスされるであろうチャネル間のレベル差など)が失われる可能性があるからである。このレベル差情報は重要ではないかもしれないが、そのダウンミックスがアップミックス済みチャネルに対して異なるダウンミックス・ゲインを適用すれば、異なるダウンミックス出力信号をもたらす可能性もある。1つの改善された解決策は、アップミックスにおけるデコリレーションを単にスイッチオフすることであり、(パラメトリックSACにより信号伝達されたような)正確なレベル差を用いて全てのアップミックスチャネルを生成することである。この第2の解決策はより良好なオーディオ品質をもたらす一方で、上述の第1の解決策はより大きな演算量の低減をもたらす。
以下に、好ましい実施形態を添付の図面を参照しながら説明する。
符号器の第1実施形態を示す。 復号器の第1実施形態を示す。 符号器の第2実施形態を示す。 復号器の第2実施形態を示す。 符号器の第3実施形態を示す。 復号器の第3実施形態を示す。 本発明の実施形態に係る符号器/復号器が操作され得る、個別のモードを表すマップを示す。 フォーマット変換部の具体的な構成を示す。 バイノーラル変換部の具体的な構成を示す。 コア復号器の具体的な構成を示す。 クワッドチャネル要素(QCE)を処理する符号器と対応するQCE復号器の具体的な構成を示す。
図1は、本発明の一実施形態に係る符号器を示す。この符号器は、オーディオ入力データ101を符号化してオーディオ出力データ501を取得するよう構成されている。この符号器は、CHで示された複数のオーディオチャネルとOBJで示された複数のオーディオオブジェクトとを受信する入力インターフェイスを備える。更に、図1に示すように、入力インターフェイス100は、複数のオーディオオブジェクトOBJの1つ以上に関連するメタデータを追加的に受信する。更に、この符号器は、複数のオブジェクトと複数のチャネルとをミキシングして複数のプレミクス済みチャネルを取得するミキサー200を備え、各プレミクス済みチャネルは1つのチャネルのオーディオデータと少なくとも1つのオブジェクトのオーディオデータとを含む。
更に、この符号器は、コア符号器入力データをコア符号化するコア符号器300と、複数のオーディオオブジェクトの1つ以上に関連するメタデータを圧縮するメタデータ圧縮部400とを備える。更に、この符号器は、ミキサー、コア符号器及び/又は出力インターフェイス500を複数の動作モードの1つで制御する、モード制御部600を備え、第1モードでは、コア符号器は、入力インターフェイス100により受信された複数のオーディオチャネル及び複数のオーディオオブジェクトを、ミキサーによる相互作用なしに、即ちミキサー200による如何なるミキシングなしに、符号化するよう構成されている。しかし、ミキサー200が活性化していた第2モードでは、コア符号器は、複数のミクス済みチャネル、即ちブロック200により生成された出力を符号化する。後者の場合、それ以上のオブジェクトデータを符号化しないことが好ましい。代わりに、オーディオオブジェクトの位置を示すメタデータは、このメタデータによって示された通りにオブジェクトをチャネル上へとレンダリングするために、ミキサー200によって既に使用されている。換言すれば、ミキサー200は、複数のオーディオオブジェクトに関連するメタデータを使用してオーディオオブジェクトをプレレンダリングし、次に、プレレンダリング済みオーディオオブジェクトはチャネルとミキシングされて、ミキサーの出力においてミクス済みチャネルが得られる。この実施形態では、いずれのオブジェクトも必ずしも伝送される必要がなく、このことは、ブロック400により出力される圧縮済みメタデータにも当てはまる。しかし、インターフェイス100に入力された全てのオブジェクトがミキシングされる訳でなく、ある量のオブジェクトだけがミキシングされる場合には、ミキシングされない残りのオブジェクト及び関連するメタデータだけがコア符号化300又はメタデータ圧縮部400へとそれぞれ伝送される。
図3は、SAOC符号器800を追加的に含む、符号器の更なる実施形態を示す。SAOC符号器800は、空間オーディオオブジェクト符号器入力データから、1つ以上の転送チャネル及びパラメトリックデータを生成するよう構成されている。図3に示すように、空間オーディオオブジェクト符号器入力データは、プレレンダラー/ミキサーによって処理されなかったオブジェクトである。代替的に、個別のチャネル/オブジェクト符号化が活性化しているモード1におけるように、プレレンダラー/ミキサーが迂回されていた場合には、入力インターフェイス100に入力された全てのオブジェクトはSAOC符号器800により符号化される。
更に、図3に示すように、コア符号器300は、好ましくはUSAC符号器、即ちMPEG−USAC標準(USAC=統合されたスピーチ及びオーディオ符号化)の中で定義されかつ標準化されているような符号器として構成される。図3に示す全体的な符号器の出力は、個別のデータタイプについてコンテナ状構造を有しているMPEG4データストリームである。更に、メタデータは「OAM」データとして示され、図1におけるメタデータ圧縮部400は、圧縮済みOAMデータを取得するOAM符号器400に対応し、その圧縮済みOAMデータはUSAC符号器300へ入力され、USAC符号器300は、図3に示すように、MP4出力データストリームを取得するための出力インターフェイスを追加的に含み、そのMP4出力データストリームは符号化済みチャネル/オブジェクトデータだけでなく圧縮済みOAMデータをも有する。
図5は符号器の更なる実施形態を示し、ここでは、図3とは対照的に、SAOC符号器はSAOC符号化アルゴリズムを用いて、このモードにおいて活性化していないプレレンダラー/ミキサー200により提供されたチャネルを符号化するか、又は代替的にプレレンダリング済みチャネル+オブジェクトをSAOC符号化するか、の何れかを実行するよう構成されている。従って、図5においては、SAOC符号器800は3種類の異なる入力データ、即ち、プレレンダリング済みオブジェクトを持たないチャネル、チャネル及びプレレンダリング済みオブジェクト、又はオブジェクトのみ、に対して作動できる。更に、図5に追加的なOAM復号器420を設け、SAOC符号器800がその処理のために復号器側と同じデータを使用できるように、即ち、オリジナルOAMデータよりも寧ろ損失の多い圧縮により得られたデータを使用できるようにすることが好ましい。
図5の符号器は、複数の個別モードで作動できる。
図1の文脈の中で説明した第1モード及び第2モードに加え、図5の符号器は追加的に第3モードでも作動でき、そのモードでは、プレレンダラー/ミキサー200が活性化していなかった場合、コア符号器が個別のオブジェクトから1つ以上の転送チャネルを生成する。代替的又は追加的に、この第3モードにおいて、図1のミキサー200に対応するプレレンダラー/ミキサー200が活性化していなかった場合、SAOC符号器800はオリジナルチャネルから1つ以上の代替的又は追加的な転送チャネルを生成することができる。
最後に、符号器が第4モードで構成されている場合、SAOC符号器800は、プレレンダラー/ミキサーによって生成されたチャネル+プレレンダリング済みオブジェクトを符号化することができる。そのため、第4モードにおいては、最低ビットレートのアプリケーションが次のような事実により良好な品質を提供できる。つまり、チャネルとオブジェクトとが、個別のSAOC転送チャネル及び図3と図5の中で「SAOC−SI」として示すような関連するサイド情報へと完全に変換されており、加えて、この第4モードではいずれの圧縮済みメタデータも伝送される必要がないからである。
図2は本発明の一実施形態に係る復号器を示す。この復号器は、入力として符号化済みオーディオデータ、即ち図1のデータ501を受信する。
この復号器は、メタデータ解凍部1400と、コア復号器1300と、オブジェクト処理部1200と、モード制御部1600と、後処理部1700とを備える。
具体的には、この復号器は符号化済みオーディオデータを復号化するよう構成されており、入力インターフェイスは符号化済みオーディオデータを受信するよう構成されており、符号化済みオーディオデータは、あるモードにおける、複数の符号化済みチャネルと、複数の符号化済みオブジェクトと、複数のオブジェクトに関連する圧縮済みメタデータと、を含む。
更に、コア復号器1300は複数の符号化済みチャネルと複数の符号化済みオブジェクトとを復号化するよう構成されており、追加的に、メタデータ解凍部は圧縮済みメタデータを解凍するよう構成されている。
更に、オブジェクト処理部1200は、コア復号器1300により生成された複数の復号化済みオブジェクトを、解凍済みメタデータを使用して処理し、オブジェクトデータと復号化済みチャネルとを含む所定数の出力チャネルを得るよう構成されている。符号1205で示されたこれら出力チャネルは、次に後処理部1700へと入力される。後処理部1700は、幾つかの出力チャネル1205を、バイノーラル出力フォーマット又は5.1や7.1などの出力フォーマットのようなラウドスピーカ出力フォーマットであり得る、ある出力フォーマットへと変換するよう構成されている。
好ましくは、この復号器は、符号化済みデータを分析してモード指示を検出するよう構成された、モード制御部1600を備える。従って、モード制御部1600は図2の入力インターフェイス1100に接続されている。しかし、代替的に、モード制御部が必ずしも存在する必要はない。代わりに、柔軟性のあるオーディオ復号器は、ユーザー入力や任意の他の制御のような、他の如何なる種類の制御データによってもプリセットされ得る。好ましくはモード制御部1600により制御される図2の復号器は、その一方では、オブジェクト処理部を迂回して複数の復号化済みチャネルを後処理部1700へと供給するよう構成される。これは、図1の符号器においてモード2が適用されていた場合のモード2、即ちプレレンダリング済みチャネルだけが受信される場合における作動である。代替的に、符号器においてモード1が適用されていた場合、即ち符号器が個別のチャネル/オブジェクト符号化を実行していた場合、オブジェクト処理部1200は迂回されず、複数の復号化済みチャネルと複数の復号化済みオブジェクトとが、メタデータ解凍部1400によって生成された解凍済みメタデータと一緒にオブジェクト処理部1200へと供給される。
好ましくは、モード1又はモード2が適用されるべきかどうかの指示は符号化済みオーディオデータの中に含まれており、よって、モード制御部1600がモード指示を検出するために符号化済みデータを分析する。符号化済みオーディオデータは符号化済みチャネルと符号化済みオブジェクトとを含むとモード指示が示すときには、モード1が使用され、他方、符号化済みオーディオデータはオーディオオブジェクトを何も含まない、即ち、図1の符号器のモード2によって得られたプレレンダリング済みチャネルだけを含むとモード指示が示すときには、モード2が適用される。
図4は、図2の復号器と比較した好適な実施形態を示し、図4の実施形態は図3のオーディオ符号器に対応する。図2の復号器構成に加えて、図4の復号器はSAOC復号器1800を含む。更に、図2のオブジェクト処理部1200は、別個のオブジェクトレンダラー1210及びミキサー1220として構成されているが、モードに依存して、オブジェクトレンダラー1210の機能はSAOC復号器1800によっても実行され得る。
更に、後処理部1700は、バイノーラルレンダラー1710又はフォーマット変換部1720として構成され得る。代替的に、図2のデータ1205の直接的な出力もまた、1730で示されるように構成され得る。従って、より小さなフォーマットが要求される場合には、柔軟性を持ち、かつ次に後処理するために、復号器内の処理は22.2や32などの最大数のチャネルに対して実行することが好ましい。しかしながら、5.1フォーマットのような小さなフォーマットだけが要求されることが正に最初から明白になる場合には、図2又は図6におけるショートカット1727で示すように、不要なアップミクス操作及び後続のダウンミクス操作を防止するための、SAOC復号器及び/又はUSAC復号器に対するある制御を適用し得ることが望ましい。
本発明の好適な実施形態において、オブジェクト処理部1200はSAOC復号器1800を含み、そのSAOC復号器は、コア復号器により出力される1つ以上の転送チャネル及び関連するパラメトリックデータを復号化し、かつ解凍済みメタデータを使用して、複数のレンダリング済みオーディオオブジェクトを取得するよう構成されている。この目的で、OAM出力がボックス1800に接続されている。
更に、オブジェクト処理部1200は、コア復号器により出力された復号化済みオブジェクトをレンダリングするよう構成されており、そのオブジェクトはSAOC転送チャネルの中で符号化されたものではなく、オブジェクトレンダラー1210により示されるように、典型的には単一チャネル化された要素の中で個別に符号化されたものである。更に、復号器は、ミキサーの出力をラウドスピーカへと出力するための、出力1730に対応する出力インターフェイスを備える。
更なる実施形態において、オブジェクト処理部1200は、符号化済みオーディオ信号又は符号化済みオーディオチャネルを表現している1つ以上の転送チャネル及び関連するパラメトリックサイド情報を復号化する、空間オーディオオブジェクト符号化・復号器1800を含む。その空間オーディオオブジェクト符号化・復号器は、関連するパラメトリック情報及び解凍済みメタデータを、出力フォーマットを直接的にレンダリングするために使用可能な、例えばSAOCの初期バージョンで定義されているような、符号変換済みパラメトリックサイド情報へと符号変換するよう構成されている。後処理部1700は、復号化済み転送チャネルと符号変換済みパラメトリックサイド情報とを使用して、出力フォーマットのオーディオチャネルを計算するよう構成されている。後処理部により実行される処理は、MPEGサラウンド処理と類似していてもよく、又はBCC処理などのような他の如何なる処理であってもよい。
更なる一実施形態において、オブジェクト処理部1200は、(コア復号器による)復号化済み転送チャネルとパラメトリックサイド情報とを使用して、出力フォーマットのためのチャネル信号を直接的にアップミクス及びレンダリングするよう構成された、空間オーディオオブジェクト符号化・復号器1800を含む。
更にかつ重要なことに、図2のオブジェクト処理部1200は、チャネルとミキシングされたプレレンダリング済みオブジェクトが存在する場合、即ち図1のミキサー200が活性化していた場合、入力としてUSAC復号器1300により出力されたデータを直接的に受信する、ミキサー1220をさらに備える。加えて、ミキサー1220は、SAOC復号化を用いずにオブジェクトレンダリングを実行しているオブジェクトレンダラーからのデータを受信する。更にミキサーは、SAOC復号器出力データ、即ちSAOCレンダリング済みオブジェクトを受信する。
ミキサー1220は、出力インターフェイス1730とバイノーラルレンダラー1710とフォーマット変換部1720とに接続されている。バイノーラルレンダラー1710は、頭部関連伝達関数又はバイノーラル室内インパルス応答(BRIR)を使用して、出力チャネルを2つのバイノーラルチャネルへとレンダリングするよう構成されている。フォーマット変換部1720は、出力チャネルを、ミキサーの出力チャネル1205よりも少数のチャネルを有する出力フォーマットへと変換するよう構成されており、そのフォーマット変換部1720は、5.1スピーカなどのような再生レイアウトについての情報を必要とする。
図6の復号器は、図4の復号器とは以下の点で異なる。即ち、SAOC復号器は、レンダリング済みオブジェクトだけでなくレンダリング済みチャネルをも生成しており、このことは、図5の符号器が使用され、チャネル/プレレンダリング済みオブジェクトとSAOC符号器800の入力インターフェイスとの間の接続900が活性化している場合であるという点である。
更に、ベクトル方式振幅パニング(VBAP)ステージ1810は、SAOC復号器から再生レイアウトについての情報を受信し、かつSAOC復号器に対してレンダリング行列を出力するよう構成され、その結果、SAOC復号器が、ミキサーの更なる動作を必要とせずに、レンダリング済みチャネルを高度のチャネルフォーマット1205で、即ち32個のラウドスピーカに提供できるようになる。
VBAPブロックは、好適には復号化済みOAMデータを受信してレンダリング行列を導出する。より一般的には、VBAPブロックは、再生レイアウトの幾何学的情報だけでなく、入力信号がその再生レイアウト上にレンダリングされるべき位置の幾何学的情報をも要求することが好ましい。この幾何学的入力データは、オブジェクトについてのOAMデータであってもよく、又は、SAOCを用いて伝送されてきたチャネルについてのチャネル位置情報であってもよい。
しかしながら、ある特異な出力インターフェイスだけが要求される場合、VBAPステージ1810は、例えば5.1出力についての必要なレンダリング行列を既に供給することができる。その場合、SAOC復号器1800は、SAOC転送チャネルと関連するパラメトリックデータと解凍済みメタデータとから、直接的レンダリング、即ち、ミキサー1220の相互作用を何も受けずに要求された出力フォーマットへの直接的なレンダリングを実行する。しかしながら、モード間のあるミキシングが適用される場合、即ち、複数のチャネルがSAOC符号化されているが全てのチャネルがSAOC符号化されてはいない場合、複数のオブジェクトがSAOC符号化されているが全てのオブジェクトがSAOC符号化されてはいない場合、又は、プレレンダリング済みオブジェクトとチャネルとのある量だけがSAOC復号化され、残りのチャネルがSAOC処理されない場合には、ミキサーは、個別の入力部分からのデータ、即ちコア復号器1300とオブジェクトレンダラー1210とSAOC復号器1800とからの直接的なデータを、結合するであろう。
次に、本発明の高度な柔軟性を有しかつ高度な品質のオーディオ符号器/復号器の概念を適用し得る、幾つかの符号器/復号器モードを示す図7について説明する。
第1符号化モードによれば、図1の符号器内のミキサー200は迂回され、従って、図2の復号器内のオブジェクト処理部は迂回されない。
第2モードでは、図1内のミキサー200は活性化しており、図2内のオブジェクト処理部は迂回される。
次に、第3符号化モードでは、図3のSAOC符号器は活性化しているが、しかし、チャネル又はミキサーによって出力されたチャネルよりは寧ろ、オブジェクトをSAOC符号化するだけである。従って、モード3では、図4に示された復号器側において、SAOC復号器がオブジェクトだけに対して活性化し、かつレンダリング済みオブジェクトを生成することが求められる。
図5に示された第4符号化モードにおいて、SAOC符号器は、プレレンダリング済みチャネルをSAOC符号化するよう構成されており、即ち、ミキサーは第2モードと同様に活性化している。復号器側においては、プレレンダリング済みオブジェクトに対してSAOC復号化が実行され、第2の符号化モードと同様に、オブジェクト処理部は迂回される。
更に、モード1〜4の如何なる混合でもあり得る第5の符号化モードが存在する。特に、図6内のミキサー1220がUSAC復号器からチャネルを直接的に受信し、さらに、USAC復号器からプレレンダリング済みオブジェクトを有するチャネルを受信する場合に、混合型符号化モードが存在するであろう。更に、この混合型符号化モードにおいて、オブジェクトは、好ましくはUSAC復号器の単一のチャネル要素を使用して直接的に復号化される。この文脈において、オブジェクトレンダラー1210は、これらの復号化済みオブジェクトをレンダリングして、それらをミキサー1220へと出力するであろう。更に、複数のオブジェクトがSAOC符号器によって追加的に符号化されており、SAOC技術によって符号化された複数のチャネルが存在する場合、SAOC復号器がレンダリング済みオブジェクト及び/又はレンダリング済みチャネルをミキサーへと出力するであろう。
ミキサー1220の各入力部は、次に、符号1205で示す32個のような幾つかのチャネルを受信する少なくとも潜在能力を有する。つまり、基本的に、ミキサーは、USAC復号器からの32個のチャネルと、追加的にUSAC復号器から32個のプレレンダリング済み/ミクス済みチャネルと、追加的にオブジェクトレンダラーからの32個の「チャネル」と、追加的にSAOC復号器からの32個の「チャネル」と、を受信することができ、ここで、ブロック1210及び1218を一方とし、ブロック1220を他方とする間の各「チャネル」が、対応するオブジェクトの対応するラウドスピーカチャネル内における寄与を有しており、次に、ミキサー1220が、各ラウドスピーカチャネルのための個別の寄与を、ミキシング、即ち合計する。
本発明の好ましい実施形態において、符号化/復号化システムは、チャネル及びオブジェクト信号の符号化のためのMPEG−D USACコーデックに基づいている。多量のオブジェクトを符号化する効率を高めるために、MPEG−SAOC技術が適応されてきた。3つのタイプのレンダラーが、オブジェクトをチャネルへとレンダリングし、チャネルをヘッドホンへとレンダリングし、又はチャネルを様々なラウドスピーカ設定へとレンダリングする作業を実行する。オブジェクト信号がSAOCを用いて明示的に伝送され又はパラメトリック的に符号化されている場合、対応するオブジェクトメタデータ情報は圧縮され、符号化済み出力データの中に多重化される。
一実施形態において、プレレンダラー/ミキサー200が、符号化の前にチャネル+オブジェクト入力シーンをチャネルシーンへと変換するために使用される。機能的には、それは図4又は図6に示された復号器側のオブジェクトレンダラー/ミキサーの結合と同じであり、図2のオブジェクト処理部1200と同じである。オブジェクトのプレレンダリングにより、符号器入力における決定論的な信号エントロピーが保証され、これは同時に活性化しているオブジェクト信号の個数とは基本的に無関係である。オブジェクトのプレレンダリングにより、オブジェクトメタデータの伝送が不要となる。離散的なオブジェクト信号が、符号器が使用するよう構成されるチャネルレイアウトへとレンダリングされる。各チャネルに対するオブジェクトの重みは、関連するオブジェクトメタデータOAMから矢印402で示すように得られる。
ラウドスピーカチャネル信号、離散的オブジェクト信号、オブジェクトダウンミックス信号、及びプレレンダリング済み信号のためのコア/符号器/復号器として、USAC技術が好ましい。その技術は、多数の信号の符号化を、チャネル及びオブジェクトマッピング情報(入力チャネル及びオブジェクト割当の幾何学的及び意味論的情報)を作成することで行う。このマッピング情報は、図10に示すように、入力チャネル及びオブジェクトが、どのようにUSACチャネル要素へとマップされるかを記述するものであり、即ち、チャネルペア要素(CPE)、単一チャネル要素(SCE)、クワッドチャネル要素(QCE)及び対応する情報が、コア符号器からコア復号器へと伝送される。SAOCデータやオブジェクトメタデータのような全ての追加的なペイロードは、拡張要素を通じて伝達されており、符号器のレート制御において考慮されている。
オブジェクトの符号化は、レート/歪み要件とレンダラーに関する相互作用要件とに依存して、種々の方法で可能である。以下のようなオブジェクト符号化の派生形が可能である。
・プレレンダリング済みオブジェクト:オブジェクト信号は、符号化の前にプレレンダリングされて、22.2チャネル信号へとミキシングされる。後続の符号化チェーンは22.2チャネル信号を作る。
・離散的オブジェクト波形:オブジェクトはモノラル波形として符号器に供給される。符号器は単一チャネル要素SCEを使用して、チャネル信号に加えてオブジェクトをも伝送する。復号化されたオブジェクトが受信機側においてレンダリング及びミキシングされる。圧縮済みオブジェクトメタデータ情報も並んで受信機/レンダラーに対して伝送される。
・パラメトリック・オブジェクト波形:オブジェクト特性とそれらの相互関係が、SAOCパラメータによって記述される。オブジェクト信号のダウンミックスがUSACを用いて符号化される。パラメトリック情報も並んで伝送される。ダウンミックスチャネルの数は、オブジェクトの数と全体的なデータレートとに依存して選択される。圧縮済みオブジェクトメタデータ情報がSAOCレンダラーへと伝送される。
オブジェクト信号のためのSAOC符号器及び復号器は、MPEG SAOC技術に基づいている。そのシステムは、幾つかのオーディオオブジェクトを、その個数より少数の伝送されたチャネルと追加的なパラメトリックデータ(OLD,IOC(オブジェクト間コヒーレンス),DMG(ダウンミックス・ゲイン))とに基づいて、再生し、修正し、レンダリングすることができる。追加的なパラメトリックデータは、全てのオブジェクトを個別に伝送するために必要なデータレートよりも有意に低いデータレートを示し、符号化の効率を著しく向上させる。
SAOC符号器は、入力として、オブジェクト/チャネル信号をモノラル波形として受け取り、パラメトリック情報(3Dオーディオビットストリーム内へとパックされる)と、SAOC転送チャネル(単一チャネル要素を使用して符号化され伝送される)とを出力する。
SAOC復号器は、復号化されたSAOC伝送チャネル及びパラメトリック情報からオブジェクト/チャネル信号を再生し、再生レイアウトと、解凍されたオブジェクトメタデータ情報と、任意ではあるがユーザー相互作用情報と、に基づいて出力オーディオシーンを生成する。
各オブジェクトについて、3D空間におけるそのオブジェクトの幾何学的位置及び音量を特定する関連するメタデータが、時間及び空間におけるオブジェクト特性の量子化により、効率的に符号化される。圧縮済みオブジェクトメタデータOAMがサイド情報として受信機へと送信される。オブジェクトの音量は、各オーディオオブジェクトの空間的広がりについての情報及び/又はオーディオ信号の信号レベルについての情報を含み得る。
オブジェクトレンダラーは、圧縮済みオブジェクトメタデータを利用して、所与の再生フォーマットに従ってオブジェクト波形を生成する。各オブジェクトは、そのメタデータに従って、幾つかの出力チャネルへとレンダリングされる。このブロックの出力は、部分結果の合計からもたらされる。
チャネルベースのコンテンツと離散的/パラメトリック・オブジェクトとの両方が復号化されると、チャネルベースの波形とレンダリング済みオブジェクト波形とは、結果として得られる波形を出力する前に(又はそれらをバイノーラルレンダラーやラウドスピーカレンダラー・モジュールのような後処理モジュールへと供給する前に)ミキシングされる。
バイノーラルレンダラー・モジュールは、多チャネルオーディオ材料のバイノーラルダウンミックスを、各入力チャネルが1つの仮想音源によって表現されるように、生成する。その処理は、QMF(直交ミラーフィルタバンク)ドメインでフレーム毎に実行される。
バイノーラル化は、測定されたバイノーラル室内インパルス応答に基づいている。
図8は、フォーマット変換部1720の好適な実施形態を示す。ラウドスピーカレンダラー又はフォーマット変換部は、転送チャネル構成と所望の再生フォーマットとの間の変換を行う。このフォーマット変換部は、より少数の出力チャネルへの変換を実行、即ち、ダウンミックスを作成する。この目的で、好ましくはQMFドメインで作動するダウンミキサー1722がミキサー出力信号1205を受信し、ラウドスピーカ信号を出力する。好ましくは、ダウンミキサー1722を構成する制御部1724が準備され、その制御部は、制御入力としてミキサー出力レイアウト、即ちそれに応じてデータ1205が決定されるレイアウトを受信し、さらに所望の再生レイアウトが、典型的には、図6で示すフォーマット変換ブロック1720へと入力されている。この情報に基づいて、制御部1724は、好ましくは自動的に、入力フォーマットと出力フォーマットとの所与の組合せのための最適なダウンミックス行列を生成し、これらの行列をダウンミキサーブロック1722の中でダウンミックス処理に適用する。フォーマット変換部は、標準的なラウドスピーカ構成だけでなく、非標準的なラウドスピーカ位置を有する変則的な構成をも可能にする。
図6の文脈において説明したように、SAOC復号器は、目標再生レイアウトへの後続のフォーマット変換ができるように、22.2のような予め定義されたチャネルレイアウトへとレンダリングするよう設計されている。しかし代替的に、SAOC復号器は、「低パワー」のモードをサポートするよう構成されており、そのモードでは、SAOC復号器が後続のフォーマット変換なしに再生レイアウトへと直接的に復号化するよう構成されている。この構成においては、SAOC復号器1800は、5.1ラウドスピーカ信号などのようなラウドスピーカ信号を直接的に出力し、そのSAOC復号器1800は、ダウンミックス情報を生成するためのベクトル方式振幅パニング又は任意の他の種類の処理が作動できるように、再生レイアウト情報とレンダリング行列とを要求する。
図9は、図6のバイノーラルレンダラー1710の更なる実施形態を示す。特に、モバイル機器にとって、バイノーラルレンダリングは、そのようなモバイル機器に取り付けられたヘッドホンのため、又は典型的に小型であるモバイル機器に直接取り付けられたラウドスピーカのために、必要となる。そのようなモバイル機器に対し、復号器及びレンダリングの複雑性を制限する制約が存在し得る。そのような処理シナリオにおけるデコリレーションを省略することに加え、ダウンミキサー1712を使用してある中間ダウンミックスへ、即ちより少数の出力チャネルへとまずダウンミックスし、その結果としてバイノーラル変換部1714にとってより少数の入力チャネルを得ることが望ましい。例示的に、22.2チャネル材料がダウンミキサー1712により5.1中間ダウンミックスへとダウンミックスされてもよく、又は代替的に、中間ダウンミックスが、図6のSAOC復号器1800により、ある種の「ショートカット」モードにおいて直接的に計算されてもよい。その場合、バイノーラルレンダリングは、異なる位置にある5個の個別のチャネルをレンダリングするために、10個のHRTF(頭部関連伝達関数)又はBRIR関数を適用するだけでよく、これは、22.2の入力チャネルが既に直接的にレンダリングされていたと仮定した場合に44個のHRTF又はBRIR関数を適用するのとは対照的である。特に、バイノーラルレンダリングのために必要な畳み込み演算は、大量の処理パワーを要求する。従って、この処理パワーを低減しながら、同時に許容可能なオーディオ品質を得ることは、モバイル機器にとって特に有益である。
好適には、制御ライン1727により示す「ショートカット」は、復号器1300をより少数のチャネルを復号化するように制御すること、即ち、復号器内の完全なOTT処理ブロックをスキップし又はより少数のチャネルへフォーマット変換すること、を含み、図9に示すように、バイノーラルレンダリングはより少数のチャネルに対して実行される。同様の処理は、図6のライン1727で示すように、バイノーラル処理だけでなくあるフォーマット変換についても適用し得る。
更なる実施形態においては、処理ブロック間の効率的なインターフェイス化が必要となる。特に図6において、異なる処理ブロック間のオーディオ信号経路が示されている。SBR(スペクトル帯域複製)が適用された場合、バイノーラルレンダラー1710とフォーマット変換部1720とSAOC復号器1800とUSAC復号器1300との全てが、QMF又はハイブリッドQMFドメインにおいて作動する。一実施形態によれば、これら全ての処理ブロックは、QMF又はハイブリッドQMFのインターフェイスを提供し、オーディオ信号が互いの間をQMFドメインで効率よく行き交うことを可能にする。加えて、ミキサーモジュール及びオブジェクトレンダラー・モジュールも同様に、QMFドメイン又はハイブリッドQMFドメインで作動するよう構成することが好ましい。結果として、別個のQMF又はハイブリッドQMF分析及び合成のステージを回避することができ、結果として相当な演算量の節約がもたらされ、その場合、符号1730で示すラウドスピーカ信号を生成するため、ブロック1710の出力におけるバイノーラルデータを生成するため、又はブロック1720の出力における再生レイアウトスピーカ信号を生成するために、1つの最終的なQMF合成ステージだけが必要となる。
次に、クワッドチャネル要素(QCE)を説明するため、図11を参照されたい。USAC−MPEG標準において定義されたチャネルペア要素とは対照的に、クワッドチャネル要素は4つの入力チャネル90を必要とし、符号化済みQCE要素91を出力する。一実施形態において、2−1−2モードの2つのMPEGサラウンドボックス又は2つのTTO(TTO=2から1)ボックスからなる階層構造と、MPEG USAC又はMPEGサラウンドに定義された追加的なジョイントステレオ符号化ツール(例えばMS−ステレオなど)とが提供され、QCE要素は、2つのジョイントステレオ符号化済みダウンミックスチャネルと、任意の2つのジョイントステレオ符号化済み残余チャネルと、加えて例えば2つのTTOボックスから導出されたパラメトリックデータとを含む。復号器側においてはある構造が適用され、その構造では、2つのダウンミックスチャネル、及び任意の2つの残余チャネルのジョイントステレオ復号化が適用され、2つのOTTボックスを持つ第2ステージにおいて、ダウンミックスと任意の残余チャネルとが4個の出力チャネルへとアップミックスされる。しかしながら、階層的な操作に代えて、1つのQCE符号器のための代替的な処理操作も適用され得る。このように、2つのチャネルからなるグループのジョイントチャネル符号化に加え、コア符号器/復号器は、4個のチャネルからなるグループのジョイントチャネル符号化も追加的に使用する。
更に、1200kbpsで妥協なしのフル帯域(18kHz)符号化を可能とするために、強化されたノイズ充填処理を実行することが好ましい。
符号器は、ダイナミックデータのためのレートバッファとして、1チャネル当たり最大6144ビットを使用して、「ビットリザーバ付き一定レート(constant rate with bit-reservoir)」の方式で作動されてきた。
SAOCデータ又はオブジェクトメタデータなどの全ての追加的ペイロードは、拡張要素を通して受け渡され、符号器のレート制御の中で考慮されてきた。
3DオーディオコンテンツについてもSAOC機能の利点を活かすため、MPEG SAOCへの以下の拡張が実行されてきた。
・任意数のSAOC転送チャネルへのダウンミックス
・多数のラウドスピーカ(22.2まで)を有する出力構成への強化されたレンダリング
バイノーラルレンダラー・モジュールは、(LFEチャネルを除く)各入力チャネルが1つの仮想音源によって表現されるように、多チャネルオーディオ材料のバイノーラルダウンミックスを生成する。その処理は、QMFドメインでフレーム毎に実行される。
バイノーラル化は、測定されたバイノーラル室内インパルス応答に基づいている。直接音と早期反射は、QMFドメインの高速畳み込みオントップを使用する疑似FFTドメインにおける畳み込み手法を介して、オーディオ材料へと刷り込まれる。
これまで装置の文脈で幾つかの態様を示してきたが、これらの態様は対応する方法の説明をも表しており、1つのブロック又は装置が1つの方法ステップ又は方法ステップの特徴に対応することは明らかである。同様に、方法ステップを説明する文脈で示した態様もまた、対応する装置の対応するブロックもしくは項目又は特徴を表している。方法ステップの幾つか又は全てが、例えばマイクロプロセッサ、プログラマブルコンピュータ、又は電子回路のようなハードウエア装置によって(又は使用して)実行されてもよい。幾つかの実施形態では、主要な方法ステップの1つ又はそれ以上がそのような装置によって実行されてもよい。
所定の構成要件にもよるが、本発明の実施形態は、ハードウエア又はソフトウエアにおいて構成可能である。この構成は、例えばフレキシブルディスク,DVD,ブルーレイ(商標),CD,ROM,PROM,EPROM,EEPROM,フラッシュメモリなどのデジタル記憶媒体のような非一時的記憶媒体を使用して実行することができ、その記憶媒体は、その中に格納される電子的に読み取り可能な制御信号を有し、本発明の各方法が実行されるようにプログラム可能なコンピュータシステムと協働する(又は協働可能である)。よって、このデジタル記憶媒体はコンピュータ読み取り可能である。
本発明に従う幾つかの実施形態は、上述した方法の1つを実行するようプログラム可能なコンピュータシステムと協働可能で、電子的に読み取り可能な制御信号を有するデータキャリアを含む。
一般的に、本発明の実施例は、プログラムコードを有するコンピュータプログラム製品として構成することができ、そのプログラムコードは当該コンピュータプログラム製品がコンピュータ上で作動するときに、本発明の方法の一つを実行するよう作動可能である。そのプログラムコードは例えば機械読み取り可能なキャリアに記憶されていても良い。
本発明の他の実施形態は、上述した方法の1つを実行するための、機械読み取り可能なキャリアに格納されたコンピュータプログラムを含む。
換言すれば、本発明の方法のある実施形態は、そのコンピュータプログラムがコンピュータ上で作動するときに、上述した方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
本発明の他の実施形態は、上述した方法の1つを実行するために記録されたコンピュータプログラムを含む、データキャリア(又はデジタル記憶媒体、又はコンピュータ読み取り可能な媒体)である。データキャリア、デジタル記憶媒体、又は記録媒体は典型的には有形及び/又は非遷移的である。
よって、本発明方法の他の実施形態は、上述した方法の1つを実行するためのコンピュータプログラムを表現するデータストリーム又は信号列である。そのデータストリーム又は信号列は、例えばインターネットのようなデータ通信接続を介して伝送されるよう構成されても良い。
他の実施形態は、上述した方法の1つを実行するように構成又は適応された、例えばコンピュータ又はプログラム可能な論理デバイスのような処理手段を含む。
他の実施形態は、上述した方法の1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
本発明にかかる更なる実施形態は、ここで説明した方法の1つを実行するためのコンピュータプログラムを受信器に対して(例えば電子的又は光学的に)転送するよう構成された装置又はシステムを含む。その受信器は、例えばコンピュータ、携帯機器、メモリ装置などであってもよい。この装置又はシステムは、例えばコンピュータプログラムを受信器へ転送するためのファイルサーバを備えていてもよい。
幾つかの実施形態においては、(例えば書換え可能ゲートアレイのような)プログラム可能な論理デバイスが、上述した方法の幾つか又は全ての機能を実行するために使用されても良い。幾つかの実施形態では、書換え可能ゲートアレイは、上述した方法の1つを実行するためにマイクロプロセッサと協働しても良い。一般的に、そのような方法は、好適には任意のハードウエア装置によって実行される。
上述した実施形態は、本発明の原理を単に例示的に示したに過ぎない。本明細書に記載した構成及び詳細について修正及び変更が可能であることは、当業者にとって明らかである。従って、本発明は、本明細書に実施形態の説明及び解説の目的で提示した具体的詳細によって限定されるものではなく、添付した特許請求の範囲によってのみ限定されるべきである。
更に、オブジェクト処理部1200は、コア復号器1300により生成された複数の復号化済みチャネルと複数の復号化済みオブジェクトを、解凍済みメタデータを使用して処理し、復号化済みオブジェクトと復号化済みチャネルとを含む所定数の出力チャネルを得るよう構成されている。符号1205で示されたこれら出力チャネルは、次に後処理部1700へと入力される。後処理部1700は、幾つかの出力チャネル1205を、バイノーラル出力フォーマット又は5.1や7.1などの出力フォーマットのようなラウドスピーカ出力フォーマットであり得る、ある出力フォーマットへと変換するよう構成されている。
ミキサー1220の各入力部は、次に、符号1205で示す32個のような幾つかのチャネルを受信する少なくとも潜在能力を有する。つまり、基本的に、ミキサーは、USAC復号器からの32個のチャネルと、追加的にUSAC復号器から32個のプレレンダリング済み/ミクス済みチャネルと、追加的にオブジェクトレンダラーからの32個の「チャネル」と、追加的にSAOC復号器からの32個の「チャネル」と、を受信することができ、ここで、ブロック1210及び1800を一方とし、ブロック1220を他方とする間の各「チャネル」が、対応するオブジェクトの対応するラウドスピーカチャネル内における寄与を有しており、次に、ミキサー1220が、各ラウドスピーカチャネルのための個別の寄与を、ミキシング、即ち合計する。

Claims (24)

  1. オーディオ入力データ(101)を符号化してオーディオ出力データ(501)を取得するオーディオ符号器であって、
    複数のオーディオチャネルと、複数のオーディオオブジェクトと、前記複数のオーディオオブジェクトの1つ以上に関連するメタデータとを受信する入力インターフェイス(100)と、
    前記複数のオブジェクトと前記複数のチャネルとをミキシングして、複数のプレミクス済みチャネルを取得するミキサー(200)であって、各プレミクスされたチャネルは1つのチャネルのオーディオデータと少なくとも1つのオブジェクトのオーディオデータとを含む、ミキサー(200)と、
    コア符号器入力データをコア符号化するコア符号器(300)と、
    前記複数のオーディオオブジェクトの1つ以上に関連する前記メタデータを圧縮するメタデータ圧縮部(400)と、を備え、
    前記オーディオ符号器は、前記コア符号器がコア符号器入力データとして前記入力インターフェイスにより受信された前記複数のオーディオチャネルと前記複数のオーディオオブジェクトとを符号化する第1モードと、前記コア符号器(300)が前記コア符号器入力データとして前記ミキサー(200)により生成された前記複数のプレミクス済みチャネルを受信する第2モードとを含む、少なくとも2つのモードからなる1クループの両モードにおいて作動するよう構成されている、オーディオ符号器。
  2. 請求項1に記載のオーディオ符号器であって、
    空間オーディオオブジェクト入力データから1つ以上の転送チャネルとパラメトリックデータとを生成する、空間オーディオオブジェクト符号器(800)をさらに備え、
    前記オーディオ符号器は、前記コア符号器(300)が前記空間オーディオオブジェクト入力データから導出された前記1つ以上の転送チャネルを符号化する第3モードで追加的に作動するよう構成され、前記空間オーディオオブジェクト入力データは前記複数のオーディオオブジェクト又は追加的若しくは選択的に2つ以上の前記複数のオーディオチャネルを含む、オーディオ符号器。
  3. 請求項1又は2に記載のオーディオ符号器であって、
    空間オーディオオブジェクト入力データから1つ以上の転送チャネルとパラメトリックデータとを生成する、空間オーディオオブジェクト符号器(800)をさらに備え、
    前記オーディオ符号器は、前記コア符号器が前記空間オーディオオブジェクト入力データとして前記プレミクス済みチャネルから前記空間オーディオオブジェクト符号器(800)によって導出された転送チャネルを符号化する第4モードで追加的に作動するよう構成されている、オーディオ符号器。
  4. 請求項1乃至3のいずれか1項に記載のオーディオ符号器であって、
    前記第1モードにおいて前記入力インターフェイス(100)の出力を前記コア符号器(300)の入力に接続し、前記第2モードにおいて前記入力インターフェイス(100)の出力を前記ミキサー(200)の入力に接続しかつ前記ミキサー(200)の出力を前記コア符号器(300)の入力に接続する、接続部と、
    ユーザーインターフェイスから受信され、又は前記オーディオ入力データ(101)から抽出される、モード指示に従って前記接続部を制御するモード制御部(600)と、
    をさらに備えるオーディオ符号器。
  5. 請求項1乃至4のいずれか1項に記載のオーディオ符号器であって、
    前記オーディオ出力データ(501)として出力信号を提供する出力インターフェイス(500)をさらに備え、前記出力信号は、前記第1モードでは前記コア符号器(300)の出力と圧縮済みメタデータとを含み、前記第2モードでは如何なるメタデータを持たずに前記コア符号器(300)の出力を含み、前記第3モードでは前記コア符号器(300)の出力とSAOCサイド情報と前記圧縮済みメタデータとを含み、前記第4モードでは前記コア符号器(300)の出力とSAOCサイド情報とを含む、オーディオ符号器。
  6. 請求項1乃至5のいずれか1項に記載のオーディオ符号器であって、
    前記ミキサー(200)は、前記メタデータと前記複数のチャネルが関連している再生設定における各チャネルの位置の指示とを使用して、前記複数のオーディオオブジェクトをプレレンダリングするよう構成され、
    前記ミキサー(200)は、前記メタデータによって決定されているように、前記再生設定においてこの少なくとも2つのオーディオチャネル間に前記オーディオオブジェクトが配置されるべきとき、1つのオーディオオブジェクトを少なくとも2つのオーディオチャネルとミキシングするよう構成され、オーディオチャネルの全体数とミキシングするよう構成されている、オーディオ符号器。
  7. 請求項1乃至6のいずれか1項に記載のオーディオ符号器であって、
    前記メタデータ圧縮部(400)によって出力された圧縮済みメタデータを解凍するメタデータ解凍部(420)をさらに備え、
    前記ミキサー(200)は、解凍済みメタデータに従って前記複数のオブジェクトをミキシングするよう構成され、前記メタデータ圧縮部(400)によって実行される前記圧縮操作は、量子化ステップを含むロスの多い圧縮操作である、オブジェクト符号器。
  8. 符号化済みオーディオデータを復号化するオーディオ復号器であって、
    符号化済みオーディオデータを受信する入力インターフェイス(1100)であって、前記符号化済みオーディオデータが、複数の符号化済みチャネル、複数の符号化済みオブジェクト、又は前記複数のオブジェクトに関連する圧縮済みメタデータを含む、入力インターフェイス(1100)と、
    前記複数の符号化済みチャネルと前記複数の符号化済みオブジェクトとを復号化するコア復号器(1300)と、
    前記圧縮済みメタデータを解凍するメタデータ解凍部(1400)と、
    前記複数の復号化済みオブジェクトを解凍済みメタデータを使用して処理し、前記オブジェクト及び復号化済みチャネルからのオーディオデータを含む幾つかの出力チャネル(1205)を取得する、オブジェクト処理部(1200)と、
    前記幾つかの出力チャネル(1205)を出力フォーマットへ変換する後処理部(1700)と、を備え、
    前記オーディオ復号器は、前記符号化済みオーディオデータが如何なるオーディオオブジェクトも含まないとき、前記オブジェクト処理部を迂回し、かつ複数の復号化済みチャネルを前記後処理部(1700))へと供給するよう構成され、前記符号化済みオーディオデータが符号化済みチャネルと符号化済みオブジェクトとを含むとき、前記複数の復号化済みオブジェクトと前記復号化済みチャネルとを前記オブジェクト処理部(1200)へ供給するよう構成されている、オーディオ復号器。
  9. 請求項8に記載のオーディオ復号器であって、
    前記後処理部(1700)は、前記幾つかの出力チャネル(1205)を、バイノーラル表現又は前記出力チャネルの数よりも少数のチャネルを有する再生フォーマットへと変換するよう構成され、
    前記オーディオ復号器は、ユーザーインターフェイスから導出され、又は前記符号化済みオーディオ入力から抽出される、制御入力に従って前記後処理部(1700)を制御するよう構成されている、オーディオ復号器。
  10. 請求項8又は9に記載のオーディオ復号器であって、
    前記オブジェクト処理部は、
    解凍済みメタデータを使用して復号化済みオブジェクトをレンダリングするオブジェクトレンダラーと、
    レンダリング済みオブジェクトと復号化済みチャネルとをミキシングして前記幾つかの出力チャネル(1205)を得るミキサー(1220)と、を備えるオーディオ復号器。
  11. 請求項8乃至10のいずれか1項に記載のオーディオ復号器であって、
    前記オブジェクト処理部(1200)は、符号化済みオーディオオブジェクトを表現している1つ以上の転送チャネルと関連するパラメトリックサイド情報とを復号化する、空間オーディオオブジェクト符号化復号器を備え、
    前記空間オーディオオブジェクト符号化復号器は、前記オーディオオブジェクトの配置に関連するレンダリング情報に従って復号化済みオーディオオブジェクトをレンダリングし、かつ前記レンダリング済みオーディオオブジェクトと前記復号化済みオーディオチャネルとをミキシングして前記幾つか出力チャネル(1205)を得るよう、前記オブジェクト処理部を制御するよう構成されている、オーディオ復号器。
  12. 請求項8乃至10のいずれか1項に記載のオーディオ復号器であって、
    前記オブジェクト処理部(1200)は、符号化済みオーディオオブジェクトと符号化済みオーディオチャネルとを表現している1つ以上の転送チャネルと関連するパラメトリックサイド情報とを復号化する、空間オーディオオブジェクト符号化復号器(1800)を備え、
    前記空間オーディオオブジェクト符号化復号器は、前記1つ以上の転送チャネルと前記関連するパラメトリックサイド情報とを使用して前記符号化済みオーディオオブジェクトと前記符号化済みオーディオチャネルとを復号化するよう構成され、前記オブジェクト処理部は、前記解凍済みメタデータを使用して前記複数のオーディオオブジェクトをレンダリングし、かつ前記チャネルを復号化し、これらをレンダリング済みオブジェクトとミキシングして前記幾つかの出力チャネル(1205)を得るよう構成されている、オーディオ復号器。
  13. 請求項8乃至10のいずれか1項に記載のオーディオ復号器であって、
    前記オブジェクト処理部(1200)は、符号化済みオーディオオブジェクトと符号化済みオーディオチャネルとを表現している1つ以上の転送チャネルと関連するパラメトリックサイド情報とを復号化する、空間オーディオオブジェクト符号化復号器(1800)を備え、
    前記空間オーディオオブジェクト符号化復号器は、前記関連するパラメトリックサイド情報と前記解凍済みメタデータとを、前記出力フォーマットへと直接的にレンダリングするために使用可能な変換符号化済みパラメトリックサイド情報へと変換符号化するよう構成され、前記後処理部(1700)は、前記復号化済み転送チャネルと前記変換符号化済みパラメトリックサイド情報とを使用して、前記出力フォーマットのオーディオチャネルを計算するよう構成されているか、又は
    前記空間オーディオオブジェクト符号化復号器は、前記復号化済み転送チャネルと前記パラメトリックサイド情報とを使用して、前記出力フォーマットのためにチャネル信号を直接的にアップミックスしかつレンダリングするよう構成されている、オーディオ復号器。
  14. 請求項1乃至13のいずれか1項に記載のオーディオ復号器であって、
    前記オブジェクト処理部(1200)は、前記コア復号器(1300)によって出力された1つ以上の転送チャネルと関連するパラメトリックデータと解凍済みメタデータとを復号化し、複数のレンダリング済みオーディオオブジェクトを得る、空間オーディオオブジェクト符号化復号器を備え、
    前記オブジェクト処理部(1200)は、前記コア復号器(1300)によって出力された復号化済みオブジェクトをレンダリングするよう構成され、
    前記オブジェクト処理部(1200)は、レンダリング済み復号化済みオブジェクトを復号化済みチャネルとミキシングするようさらに構成され、
    前記オーディオ復号器は、前記ミキサー(1220)の出力をラウドスピーカへ出力するための出力インターフェイス(1730)をさらに含み、
    前記後処理部は、
    頭部関連伝達関数又はバイノーラルインパルス応答を使用して、前記出力チャネルを2つのバイノーラルチャネルへとレンダリングするバイノーラルレンダラーと、
    再生レイアウトに関する情報を使用して、前記出力チャネルを前記ミキサー(1220)の出力チャネルよりも少数のチャネルを有する出力フォーマットへと変換するフォーマット変換部(1720)と、をさらに含む、
    オーディオ復号器。
  15. 請求項8乃至14のいずれか1項に記載のオーディオ復号器であって、
    前記複数の符号化済みチャネル要素又は前記複数の符号化済みオーディオオブジェクトは、チャネルペア要素、単一のチャネル要素、低周波要素又はクワッドチャネル要素として符号化されており、1つのクワッドチャネル要素は4個のオリジナルチャネル又はオブジェクトを含み、
    前記コア復号器(1300)は、1つのチャネルペア要素、単一のチャネル要素、低周波要素又はクワッドチャネル要素を示す、前記符号化済みオーディオデータに含まれたサイド情報に従って、前記チャネルペア要素、単一のチャネル要素、低周波要素又はクワッドチャネル要素を復号化するよう構成されている、オーディオ復号器。
  16. 請求項8乃至15のいずれか1項に記載のオーディオ復号器であって、
    前記コア復号器(1300)は、ノイズ充填操作を使用して、スペクトル帯域複製操作を使用せずに、全帯域復号化操作を適用するよう構成されている、オーディオ復号器。
  17. 請求項14に記載のオーディオ復号器であって、
    前記バイノーラルレンダラー(1710)、前記フォーマット変換部(1720)、前記ミキサー(1220)、前記SAOC復号器(1800)、前記コア復号器(1300)、及び前記オブジェクトレンダラー(1210)を含む要素は、直交ミラーフィルタバンク(QMF)ドメインで作動し、直交ミラーフィルタバンクドメインデータは、如何なる合成フィルタバンク及びそれに続く分析フィルタバンク処理を経ずに前記要素の他の要素の1つから伝送される、オーディオ復号器。
  18. 請求項8乃至17のいずれか1項に記載のオーディオ復号器であって、
    前記後処理部(1700)は前記オブジェクト処理部(1200)によって出力されたチャネルを、3つ以上のチャネルを有しかつ前記オブジェクト処理部(1200)の出力チャネル(1205)の数より少ないチャネルを有するフォーマットへダウンミクスして、中間ダウンミクスを取得するよう構成され、かつ前記中間ダウンミクスのチャネルを2チャネルのバイノーラル出力信号へとバイノーラルレンダリング(1210)するよう構成されている、オーディオ復号器。
  19. 請求項8乃至15のいずれか1項に記載のオーディオ復号器であって、
    前記後処理部(1700)は、
    ダウンミックス行列を適用する制御されたダウンミキサー(1722)と、
    前記オブジェクト処理部(1200)の出力のチャネル構成に関する情報と所望の再生レイアウトに関する情報とを使用して特定のダウンミックス行列を決定する制御部(1724)と、を備える、
    オーディオ復号器。
  20. 請求項8乃至19のいずれか1項に記載のオーディオ復号器であって、
    前記コア復号器(1300)又は前記オブジェクト処理部(1200)は制御可能であり、
    前記後処理部(1700)は、前記出力フォーマットに関する情報に従って前記コア復号器(1300)又は前記オブジェクト処理部(1200)を制御するよう構成され、
    その制御は、
    前記出力フォーマットの中で個別のチャネルとして発生しないオブジェクト又はチャネルのデコリレーション処理を負うようなレンダリングが低減又は省略されるように、行われるか、又は、
    前記出力フォーマットの中で前記個別のチャネルとして発生しない前記オブジェクト又はチャネルに対する如何なるデコリレーション処理も活性化されていない場合を除き、前記出力フォーマットの中で前記個別のチャネルとして発生しないオブジェクト又はチャネルに対し、アップミックス又は復号化の操作が、あたかも前記オブジェクト又はチャネルが前記出力フォーマットの中で前記個別のチャネルとして発生するかのように実行されるように、行われる、オーディオ復号器。
  21. 請求項8乃至20のいずれか1項に記載のオーディオ復号器であって、
    前記コア復号器(1300)は、単一チャネル要素に対して変換復号化とスペクトル帯域複製復号化とを実行するよう構成され、チャネルペア要素及びクワッドチャネル要素に対して変換復号化とパラメトリックステレオ復号化とスペクトル帯域複製復号化とを実行するよう構成されている、オーディオ復号器。
  22. オーディオ入力データ(101)を符号化してオーディオ出力データ(501)を取得する方法であって、
    複数のオーディオチャネルと、複数のオーディオオブジェクトと、前記複数のオーディオオブジェクトの1つ以上に関連するメタデータとを受信するステップ(100)と、
    前記複数のオブジェクトと前記複数のチャネルとをミキシングして、複数のプレミクス済みチャネルを取得するステップ(200)であって、各プレミクスされたチャネルは1つのチャネルのオーディオデータと少なくとも1つのオブジェクトのオーディオデータとを含む、ステップ(200)と、
    コア符号化入力データをコア符号化するステップ(300)と、
    前記複数のオーディオオブジェクトの1つ以上に関連する前記メタデータを圧縮するステップ(400)と、を備え、
    前記オーディオを符号化する方法は、前記コア符号化がコア符号化入力データとして受信された前記複数のオーディオチャネルと前記複数のオーディオオブジェクトとを符号化する第1モードと、前記コア符号化(300)が前記コア符号化入力データとして前記複数のプレミクス済みチャネルを受信する第2モードとを含む、少なくとも2つのモードからなる1クループの両モードにおいて作動する、方法。
  23. 符号化済みオーディオデータを復号化する方法であって、
    前記符号化済みオーディオデータを受信するステップ(1100)であって、前記符号化済みオーディオデータが、複数の符号化済みチャネル、複数の符号化済みオブジェクト、又は前記複数のオブジェクトに関連する圧縮済みメタデータを含む、ステップ(1100)と、
    前記複数の符号化済みチャネルと前記複数の符号化済みオブジェクトとをコア復号化するステップ(1300)と、
    前記圧縮済みメタデータを解凍するステップ(1400)と、
    前記複数の復号化済みオブジェクトを解凍済みメタデータを使用して処理し、前記オブジェクト及び復号化済みチャネルからのオーディオデータを含む幾つかの出力チャネル(1205)を取得するステップ(1200)と、
    前記幾つかの出力チャネル(1205)を出力フォーマットへ変換するステップ(1700)と、を備え、
    前記オーディオを復号化する方法において、前記符号化済みオーディオデータが如何なるオーディオオブジェクトも含まないとき、前記複数の復号化済みオブジェクトを処理するステップ(1200)が迂回され、かつ複数の復号化済みチャネルが前記後処理ステップ(1700)へと供給され、前記符号化済みオーディオデータが符号化済みチャネルと符号化済みオブジェクトとを含むとき、前記複数の復号化済みオブジェクトと前記複数の復号化済みチャネルとが前記複数の復号化済みオブジェクトを処理するステップ(1200)へと供給される、方法。
  24. コンピュータ又はプロセッサ上で作動されたとき、請求項22又は23に記載の方法を実行するコンピュータプログラム。
JP2016528435A 2013-07-22 2014-07-16 オーディオチャネル及びオーディオオブジェクトのためのオーディオ符号化及び復号化の概念 Active JP6268286B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13177378.0 2013-07-22
EP20130177378 EP2830045A1 (en) 2013-07-22 2013-07-22 Concept for audio encoding and decoding for audio channels and audio objects
PCT/EP2014/065289 WO2015010998A1 (en) 2013-07-22 2014-07-16 Concept for audio encoding and decoding for audio channels and audio objects

Publications (2)

Publication Number Publication Date
JP2016525715A true JP2016525715A (ja) 2016-08-25
JP6268286B2 JP6268286B2 (ja) 2018-01-24

Family

ID=48803456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016528435A Active JP6268286B2 (ja) 2013-07-22 2014-07-16 オーディオチャネル及びオーディオオブジェクトのためのオーディオ符号化及び復号化の概念

Country Status (18)

Country Link
US (3) US10249311B2 (ja)
EP (3) EP2830045A1 (ja)
JP (1) JP6268286B2 (ja)
KR (2) KR101979578B1 (ja)
CN (2) CN110942778B (ja)
AR (1) AR097003A1 (ja)
AU (1) AU2014295269B2 (ja)
BR (1) BR112016001143B1 (ja)
CA (1) CA2918148A1 (ja)
ES (1) ES2913849T3 (ja)
MX (1) MX359159B (ja)
PL (1) PL3025329T3 (ja)
PT (1) PT3025329T (ja)
RU (1) RU2641481C2 (ja)
SG (1) SG11201600476RA (ja)
TW (1) TWI566235B (ja)
WO (1) WO2015010998A1 (ja)
ZA (1) ZA201601076B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507314A (ja) * 2018-01-18 2021-02-22 ドルビー ラボラトリーズ ライセンシング コーポレイション 音場表現信号を符号化する方法及びデバイス
JP2022506581A (ja) * 2018-11-01 2022-01-17 ノキア テクノロジーズ オーユー 空間メタデータを符号化するための装置、方法およびコンピュータプログラム
JP7504091B2 (ja) 2018-11-02 2024-06-21 ドルビー・インターナショナル・アーベー オーディオ・エンコーダおよびオーディオ・デコーダ

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2830045A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
US20170086005A1 (en) * 2014-03-25 2017-03-23 Intellectual Discovery Co., Ltd. System and method for processing audio signal
JP6797197B2 (ja) 2015-10-08 2020-12-09 ドルビー・インターナショナル・アーベー 圧縮された音または音場表現のための層構成の符号化
EP3208800A1 (en) * 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for stereo filing in multichannel coding
US10386496B2 (en) * 2016-03-18 2019-08-20 Deere & Company Navigation satellite orbit and clock determination with low latency clock corrections
EP3469589B1 (en) * 2016-06-30 2024-06-19 Huawei Technologies Duesseldorf GmbH Apparatuses and methods for encoding and decoding a multichannel audio signal
US9913061B1 (en) 2016-08-29 2018-03-06 The Directv Group, Inc. Methods and systems for rendering binaural audio content
EP3566473B8 (en) * 2017-03-06 2022-06-15 Dolby International AB Integrated reconstruction and rendering of audio signals
EP3605531A4 (en) 2017-03-28 2020-04-15 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
GB2563635A (en) * 2017-06-21 2018-12-26 Nokia Technologies Oy Recording and rendering audio signals
SG11202007182UA (en) * 2018-02-01 2020-08-28 Fraunhofer Ges Forschung Audio scene encoder, audio scene decoder and related methods using hybrid encoder/decoder spatial analysis
JP7396267B2 (ja) * 2018-03-29 2023-12-12 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN115346539A (zh) 2018-04-11 2022-11-15 杜比国际公司 用于音频渲染的预渲染信号的方法、设备和***
IL276619B2 (en) * 2018-07-02 2024-03-01 Dolby Laboratories Licensing Corp Methods and devices for encoding and/or decoding embedded audio signals
KR102671308B1 (ko) 2018-10-16 2024-06-03 돌비 레버러토리즈 라이쎈싱 코오포레이션 저음 관리를 위한 방법 및 디바이스
JP7468359B2 (ja) * 2018-11-20 2024-04-16 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
CN109448741B (zh) * 2018-11-22 2021-05-11 广州广晟数码技术有限公司 一种3d音频编码、解码方法及装置
GB2582910A (en) * 2019-04-02 2020-10-14 Nokia Technologies Oy Audio codec extension
EP3761672B1 (en) 2019-07-02 2023-04-05 Dolby International AB Using metadata to aggregate signal processing operations
KR102471715B1 (ko) * 2019-12-02 2022-11-29 돌비 레버러토리즈 라이쎈싱 코오포레이션 채널-기반 오디오로부터 객체-기반 오디오로의 변환을 위한 시스템, 방법 및 장치
CN113724717B (zh) * 2020-05-21 2023-07-14 成都鼎桥通信技术有限公司 车载音频处理***、方法、车机控制器和车辆
EP4377957A1 (en) * 2021-07-29 2024-06-05 Dolby International AB Methods and apparatus for processing object-based audio and channel-based audio
WO2023077284A1 (zh) * 2021-11-02 2023-05-11 北京小米移动软件有限公司 一种信号编解码方法、装置、用户设备、网络侧设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008258A (ja) * 2009-06-23 2011-01-13 Korea Electronics Telecommun 高品質マルチチャネルオーディオ符号化および復号化装置
JP2014525048A (ja) * 2011-03-16 2014-09-25 ディーティーエス・インコーポレイテッド 3次元オーディオサウンドトラックの符号化及び再生

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2605361A (en) 1950-06-29 1952-07-29 Bell Telephone Labor Inc Differential quantization of communication signals
JP3576936B2 (ja) 2000-07-21 2004-10-13 株式会社ケンウッド 周波数補間装置、周波数補間方法及び記録媒体
EP1427252A1 (en) * 2002-12-02 2004-06-09 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing audio signals from a bitstream
EP1571768A3 (en) * 2004-02-26 2012-07-18 Yamaha Corporation Mixer apparatus and sound signal processing method
GB2417866B (en) 2004-09-03 2007-09-19 Sony Uk Ltd Data transmission
US7720230B2 (en) 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
SE0402651D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
SE0402649D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
SE0402652D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
EP1691348A1 (en) 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
ATE473502T1 (de) 2005-03-30 2010-07-15 Koninkl Philips Electronics Nv Mehrkanal-audiocodierung
ATE406651T1 (de) 2005-03-30 2008-09-15 Koninkl Philips Electronics Nv Audiokodierung und audiodekodierung
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
CN101288115A (zh) 2005-10-13 2008-10-15 Lg电子株式会社 用于处理信号的方法和装置
KR100888474B1 (ko) 2005-11-21 2009-03-12 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법
CN101410891A (zh) 2006-02-03 2009-04-15 韩国电子通信研究院 使用空间线索控制多目标或多声道音频信号的渲染的方法和装置
DE602007004451D1 (de) * 2006-02-21 2010-03-11 Koninkl Philips Electronics Nv Audiokodierung und audiodekodierung
EP2005787B1 (en) 2006-04-03 2012-01-25 Srs Labs, Inc. Audio signal processing
US8027479B2 (en) 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
US8326609B2 (en) * 2006-06-29 2012-12-04 Lg Electronics Inc. Method and apparatus for an audio signal processing
MY151651A (en) 2006-07-04 2014-06-30 Dolby Int Ab Filter compressor and method for manufacturing compressed subband filter impulse responses
EP2575129A1 (en) 2006-09-29 2013-04-03 Electronics and Telecommunications Research Institute Apparatus and method for coding and decoding multi-object audio signal with various channel
MX2008012250A (es) 2006-09-29 2008-10-07 Lg Electronics Inc Metodos y aparatos para codificar y descodificar señales de audio basadas en objeto.
MY145497A (en) * 2006-10-16 2012-02-29 Dolby Sweden Ab Enhanced coding and parameter representation of multichannel downmixed object coding
WO2008063034A1 (en) 2006-11-24 2008-05-29 Lg Electronics Inc. Method for encoding and decoding object-based audio signal and apparatus thereof
KR101111520B1 (ko) 2006-12-07 2012-05-24 엘지전자 주식회사 오디오 처리 방법 및 장치
EP2595148A3 (en) 2006-12-27 2013-11-13 Electronics and Telecommunications Research Institute Apparatus for coding multi-object audio signals
CN101542596B (zh) 2007-02-14 2016-05-18 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
WO2008100100A1 (en) 2007-02-14 2008-08-21 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
RU2394283C1 (ru) 2007-02-14 2010-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
KR20080082917A (ko) 2007-03-09 2008-09-12 엘지전자 주식회사 오디오 신호 처리 방법 및 이의 장치
JP5541928B2 (ja) 2007-03-09 2014-07-09 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
JP5161893B2 (ja) 2007-03-16 2013-03-13 エルジー エレクトロニクス インコーポレイティド オーディオ信号の処理方法及び装置
US7991622B2 (en) * 2007-03-20 2011-08-02 Microsoft Corporation Audio compression and decompression using integer-reversible modulated lapped transforms
KR101422745B1 (ko) 2007-03-30 2014-07-24 한국전자통신연구원 다채널로 구성된 다객체 오디오 신호의 인코딩 및 디코딩장치 및 방법
ES2452348T3 (es) 2007-04-26 2014-04-01 Dolby International Ab Aparato y procedimiento para sintetizar una señal de salida
MY146431A (en) 2007-06-11 2012-08-15 Fraunhofer Ges Forschung Audio encoder for encoding an audio signal having an impulse-like portion and stationary portion, encoding methods, decoder, decoding method, and encoded audio signal
US7885819B2 (en) * 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
WO2009049895A1 (en) * 2007-10-17 2009-04-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding using downmix
MX2010002629A (es) 2007-11-21 2010-06-02 Lg Electronics Inc Metodo y aparato para procesar una señal.
KR101024924B1 (ko) 2008-01-23 2011-03-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
KR101061129B1 (ko) 2008-04-24 2011-08-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
AU2009267525B2 (en) 2008-07-11 2012-12-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio signal synthesizer and audio signal encoder
EP2146522A1 (en) 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
PL2146344T3 (pl) * 2008-07-17 2017-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sposób kodowania/dekodowania sygnału audio obejmujący przełączalne obejście
KR20100035121A (ko) 2008-09-25 2010-04-02 엘지전자 주식회사 신호 처리 방법 및 이의 장치
US8798776B2 (en) 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
MX2011011399A (es) 2008-10-17 2012-06-27 Univ Friedrich Alexander Er Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto.
US8351612B2 (en) * 2008-12-02 2013-01-08 Electronics And Telecommunications Research Institute Apparatus for generating and playing object based audio contents
KR20100065121A (ko) 2008-12-05 2010-06-15 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
EP2205007B1 (en) 2008-12-30 2019-01-09 Dolby International AB Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction
US8620008B2 (en) 2009-01-20 2013-12-31 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8139773B2 (en) 2009-01-28 2012-03-20 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
WO2010090019A1 (ja) 2009-02-04 2010-08-12 パナソニック株式会社 結合装置、遠隔通信システム及び結合方法
RU2520329C2 (ru) * 2009-03-17 2014-06-20 Долби Интернешнл Аб Усовершенствованное стереофоническое кодирование на основе комбинации адаптивно выбираемого левого/правого или среднего/побочного стереофонического кодирования и параметрического стереофонического кодирования
WO2010105695A1 (en) 2009-03-20 2010-09-23 Nokia Corporation Multi channel audio coding
US8909521B2 (en) 2009-06-03 2014-12-09 Nippon Telegraph And Telephone Corporation Coding method, coding apparatus, coding program, and recording medium therefor
TWI404050B (zh) * 2009-06-08 2013-08-01 Mstar Semiconductor Inc 多聲道音頻信號解碼方法與裝置
US20100324915A1 (en) * 2009-06-23 2010-12-23 Electronic And Telecommunications Research Institute Encoding and decoding apparatuses for high quality multi-channel audio codec
CN102460573B (zh) 2009-06-24 2014-08-20 弗兰霍菲尔运输应用研究公司 音频信号译码器、对音频信号译码的方法
CN102171754B (zh) 2009-07-31 2013-06-26 松下电器产业株式会社 编码装置以及解码装置
KR101805212B1 (ko) 2009-08-14 2017-12-05 디티에스 엘엘씨 객체-지향 오디오 스트리밍 시스템
TWI463485B (zh) 2009-09-29 2014-12-01 Fraunhofer Ges Forschung 音訊信號解碼器或編碼器、用以提供上混信號表示型態或位元串流表示型態之方法、電腦程式及機器可存取媒體
WO2011048067A1 (en) 2009-10-20 2011-04-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Apparatus for providing an upmix signal representation on the basis of a downmix signal representation, apparatus for providing a bitstream representing a multichannel audio signal, methods, computer program and bitstream using a distortion control signaling
US9117458B2 (en) 2009-11-12 2015-08-25 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
TWI557723B (zh) 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
CN102823273B (zh) * 2010-03-23 2015-12-16 杜比实验室特许公司 用于局域化感知音频的技术
US8675748B2 (en) 2010-05-25 2014-03-18 CSR Technology, Inc. Systems and methods for intra communication system information transfer
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
CN103080623A (zh) 2010-07-20 2013-05-01 欧文斯科宁知识产权资产有限公司 阻燃聚合物护套
US8908874B2 (en) 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
TWI489450B (zh) 2010-12-03 2015-06-21 Fraunhofer Ges Forschung 用以產生音訊輸出信號或資料串流之裝置及方法、和相關聯之系統、電腦可讀媒體與電腦程式
TWI716169B (zh) 2010-12-03 2021-01-11 美商杜比實驗室特許公司 音頻解碼裝置、音頻解碼方法及音頻編碼方法
WO2012122397A1 (en) * 2011-03-09 2012-09-13 Srs Labs, Inc. System for dynamically creating and rendering audio objects
US9754595B2 (en) * 2011-06-09 2017-09-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding 3-dimensional audio signal
KR102185941B1 (ko) 2011-07-01 2020-12-03 돌비 레버러토리즈 라이쎈싱 코오포레이션 적응형 오디오 신호 생성, 코딩 및 렌더링을 위한 시스템 및 방법
CA3151342A1 (en) 2011-07-01 2013-01-10 Dolby Laboratories Licensing Corporation System and tools for enhanced 3d audio authoring and rendering
JP5740531B2 (ja) * 2011-07-01 2015-06-24 ドルビー ラボラトリーズ ライセンシング コーポレイション オブジェクトベースオーディオのアップミキシング
CN102931969B (zh) 2011-08-12 2015-03-04 智原科技股份有限公司 数据提取的方法与装置
EP2560161A1 (en) 2011-08-17 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optimal mixing matrices and usage of decorrelators in spatial audio processing
CN103890841B (zh) 2011-11-01 2017-10-17 皇家飞利浦有限公司 音频对象编码和解码
WO2013075753A1 (en) 2011-11-25 2013-05-30 Huawei Technologies Co., Ltd. An apparatus and a method for encoding an input signal
CN105229731B (zh) * 2013-05-24 2017-03-15 杜比国际公司 根据下混的音频场景的重构
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008258A (ja) * 2009-06-23 2011-01-13 Korea Electronics Telecommun 高品質マルチチャネルオーディオ符号化および復号化装置
JP2014525048A (ja) * 2011-03-16 2014-09-25 ディーティーエス・インコーポレイテッド 3次元オーディオサウンドトラックの符号化及び再生

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507314A (ja) * 2018-01-18 2021-02-22 ドルビー ラボラトリーズ ライセンシング コーポレイション 音場表現信号を符号化する方法及びデバイス
US11322164B2 (en) 2018-01-18 2022-05-03 Dolby Laboratories Licensing Corporation Methods and devices for coding soundfield representation signals
JP2022506581A (ja) * 2018-11-01 2022-01-17 ノキア テクノロジーズ オーユー 空間メタデータを符号化するための装置、方法およびコンピュータプログラム
JP7208385B2 (ja) 2018-11-01 2023-01-18 ノキア テクノロジーズ オーユー 空間メタデータを符号化するための装置、方法およびコンピュータプログラム
US12027174B2 (en) 2018-11-01 2024-07-02 Nokia Technologies Oy Apparatus, methods, and computer programs for encoding spatial metadata
JP7504091B2 (ja) 2018-11-02 2024-06-21 ドルビー・インターナショナル・アーベー オーディオ・エンコーダおよびオーディオ・デコーダ

Also Published As

Publication number Publication date
TW201528252A (zh) 2015-07-16
KR20160033769A (ko) 2016-03-28
ZA201601076B (en) 2017-08-30
US20220101867A1 (en) 2022-03-31
AU2014295269B2 (en) 2017-06-08
AR097003A1 (es) 2016-02-10
PT3025329T (pt) 2022-06-24
WO2015010998A1 (en) 2015-01-29
EP3025329B1 (en) 2022-03-23
CA2918148A1 (en) 2015-01-29
RU2641481C2 (ru) 2018-01-17
MX2016000910A (es) 2016-05-05
KR20180019755A (ko) 2018-02-26
EP4033485A1 (en) 2022-07-27
ES2913849T3 (es) 2022-06-06
EP3025329A1 (en) 2016-06-01
MX359159B (es) 2018-09-18
BR112016001143B1 (pt) 2022-03-03
BR112016001143A2 (ja) 2017-07-25
CN110942778B (zh) 2024-07-02
AU2014295269A1 (en) 2016-03-10
US10249311B2 (en) 2019-04-02
SG11201600476RA (en) 2016-02-26
US11984131B2 (en) 2024-05-14
RU2016105518A (ru) 2017-08-25
US11227616B2 (en) 2022-01-18
CN110942778A (zh) 2020-03-31
US20160133267A1 (en) 2016-05-12
TWI566235B (zh) 2017-01-11
CN105612577A (zh) 2016-05-25
CN105612577B (zh) 2019-10-22
PL3025329T3 (pl) 2022-07-18
KR101979578B1 (ko) 2019-05-17
JP6268286B2 (ja) 2018-01-24
KR101943590B1 (ko) 2019-01-29
EP2830045A1 (en) 2015-01-28
US20190180764A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
US11984131B2 (en) Concept for audio encoding and decoding for audio channels and audio objects
CN105580073B (zh) 音频解码器、音频编码器、方法和计算机可读存储介质
US9966080B2 (en) Audio object encoding and decoding
AU2014295216B2 (en) Apparatus and method for enhanced spatial audio object coding
CN105474310B (zh) 用于低延迟对象元数据编码的装置及方法
KR20160033734A (ko) 렌더러 제어 공간 업믹스
JP6732739B2 (ja) オーディオ・エンコーダおよびデコーダ

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

R150 Certificate of patent or registration of utility model

Ref document number: 6268286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250