JP6313439B2 - ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ - Google Patents
ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ Download PDFInfo
- Publication number
- JP6313439B2 JP6313439B2 JP2016525036A JP2016525036A JP6313439B2 JP 6313439 B2 JP6313439 B2 JP 6313439B2 JP 2016525036 A JP2016525036 A JP 2016525036A JP 2016525036 A JP2016525036 A JP 2016525036A JP 6313439 B2 JP6313439 B2 JP 6313439B2
- Authority
- JP
- Japan
- Prior art keywords
- gain
- value
- downmix matrix
- speaker
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011159 matrix material Substances 0.000 title claims description 239
- 238000000034 method Methods 0.000 title claims description 78
- 238000013507 mapping Methods 0.000 claims description 26
- 230000001174 ascending effect Effects 0.000 claims description 21
- 230000005236 sound signal Effects 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000009877 rendering Methods 0.000 description 35
- 238000013459 approach Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 19
- 238000004590 computer program Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- PEIBAWRLFPGPAT-UHFFFAOYSA-N 1-(diazomethyl)pyrene Chemical compound C1=C2C(C=[N+]=[N-])=CC=C(C=C3)C2=C2C3=CC=CC2=C1 PEIBAWRLFPGPAT-UHFFFAOYSA-N 0.000 description 1
- 101100018996 Caenorhabditis elegans lfe-2 gene Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/083—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
ここで、(1)は、ビットベクトルが0で終わる場合の仮想の終端を表す。上に示すラン長は、適切な符号化方式、例えば可変長プレフィックス符号を各々の数に割り当てる限定的ゴロム・ライス符号化、を用いて符号化することによって全体ビット長を最小化することができる。ゴロム・ライス符号化アプローチは、以下のように、負でない整数パラメータp≧0を用いて負でない整数n≧0を符号化するために用いられる。最初に、数
h=n/2p
は、単項符号化を用いて符号化され、h個の1のビットの後に終端のゼロ・ビットが続く。次に、pビットを用いて数l=n−h・2pを均一に符号化する。
hmax=(N−1)/2p
を符号化する際に終端のゼロ・ビットを含まない。より正確には、h=hmaxを符号化するためには、終端のゼロ・ビットのないh個の1のビットのみを用いる。終端のゼロ・ビットは、デコーダがこの状態を黙示的に検出できるため、必要ではない。
次に、このリストを、例えば限定的ゴロム・ライス符号化を用いて符号化することができる。図6に関して説明した実施例と比較して、このリストは、より効率的に符号化することができることが分かる。コンパクト行列がテンプレート行列と同一である最善の場合、ベクトル全体はゼロのみから構成され、1つのラン長の数を符号化するだけで良い。
0, -3, -6, -1, -2, -4, -5, 1, 2, -0.5, -1.5, -2.5, -3.5, -4.5, -5.5, 0.5, 1.5
昇順:[空白]
降順:1,−2,−4,−5
昇順:2
降順:0.5,−0.5,−1.5,−2.5,−3.5,−4.5,−5.5
昇順:1.5
ゲイン値を符号化する場合、好ましくは、表の中でゲインを見つけて、その表内の位置を出力する。所望のゲインが常に見つかるが、それは、全てのゲインが、例えば1dB、0.5dB又は0.25dBといった特定された精度の最も近い整数倍数へ予め量子化されているからである。好ましい実施例によると、ゲイン値の位置には、表内の位置を示すインデックスが関連付けられ、ゲインのインデックスは、例えば限定的ゴロム・ライス符号化アプローチを用いて符号化され得る。その結果、大きなインデックスよりも小さなビット数を用いるための小さなインデックスが得られ、このようにして、頻繁に用いられる値、又は典型的な値、例えば0dB、−3dB又は−6dBは、最も小さいビット数を用いることになり、より「丸め誤差の少ない」値、例えば−4dBは、それほど丸め誤差の少なくない数(例えば−4.5dB)よりも小さなビット数を用いることになる。従って、上述の実施例を用いることによって、音声コンテンツの制作者が所望のゲインリストを生成できるだけでなく、これらのゲインが極めて効率的に符号化され得ることによって、更に別の実施例に従って上述のアプローチ全てを適用した場合、極めて効率的なダウンミックス行列の符号化が達成され得る。
表5−DownmixMatrixの各要素
フィールド:
paramConfig,
inputConfig,
outputConfig
記述・値:
各々のスピーカーについての情報を特定するチャネル構成ベクトル。各々の成分paramConfig[i]は、以下のメンバーを有する構造である。
‐AzimuthAngle、スピーカー方位角の絶対値
‐AzimuthDirection、方位方向、0(左)又は1(右)
‐ElevationAngle、スピーカー仰角の絶対値
‐ElevationDirection、仰角方向、0(上方向)又は1(下方向)
‐alreadyUsed、スピーカーが既に群の一部であることを示す。
‐isLFE、スピーカーがLFEスピーカーであるか否かを示す。
フィールド:
paramCount,
inputCount,
outputCount
記述・値:
対応するチャネル構成ベクトルにおけるスピーカー数
フィールド:
compactParamConfig,
compactInputConfig,
compactOutputConfig
記述・値:
各々のスピーカー群についての情報を特定するコンパクトチャネル構成ベクトル。各々の成分 compactParamConfig[i]は、以下のメンバーを有する構造である。
‐pairType、スピーカー群の種類。SYMMETRIC(2つのスピーカーの対称対)、CENTER、又はASYMMETRICのいずれかであり得る。
‐isLFE、スピーカー群がLFEスピーカーから構成されるか否かを示す。
‐originalPosition、群内の最初のスピーカー又は唯一のスピーカーの元のチャネル構成における位置
‐symmetricPair.originalPosition、SYMMETRIC群のみについて、群内の2番目のスピーカーの元のチャネル構成における位置
フィールド:
compactParamCount,
compactInputCount,
compactOutputCount
記述・値:
対応するコンパクトチャネル構成ベクトルにおけるスピーカー群の数
フィールド:
equalizerPresent
記述・値:
入力チャネルに適用されることになるイコライザ情報が存在するか否かを示すブーリアン
フィールド:
precisionLevel
記述・値:
ゲインの均一な量子化に用いられる精度。0=1dB、1=0.5dB、2=0.25dB、3は予備。
フィールド:
maxGain
記述・値:
dBで表現される行列内の実際の最大ゲイン。0〜22、線形1…12.589で可能な値。
フィールド:
minGain
記述・値:
dBで表現される行列内の実際の最小ゲイン。−1〜−47、線形0.891…0.004で可能な値。
フィールド:
isAllSeparable
記述・値:
出力スピーカー群全てが分離性の特性を満たすか否かを示すブーリアン
フィールド:
isSeparable[i]
記述・値:
インデックスiを有する出力スピーカー群が分離性の特性を満たすか否かを示すブーリアン
フィールド:
isAllSymmetric
記述・値:
出力スピーカー群全てが対称性の特性を満たすか否かを示すブーリアン
フィールド:
isSymmetric[i]
記述・値:
インデックスiを有する出力スピーカー群が対称性の特性を満たすか否かを示すブーリアン
フィールド:
mixLFEOnlyToLFE
記述・値:
LFEスピーカーがLFEスピーカーのみに混合されると同時に非LFEスピーカーが非LFEスピーカーのみに混合されるか否かを示すブーリアン
フィールド:
rawCodingCompactMatrix
記述・値:
compactDownmixMatrixが、符号化された未加工(1成分当り1ビットを使用)か、又はラン長の符号化とそれに続く限定的ゴロム・ライスとを用いて符号化されているかを示すブーリアン
フィールド:
compactDownmixMatrix[i][j]
記述・値:
入力スピーカー群i及び出力スピーカー群jに対応するcompactDownmixMatrix内の成分であって、関連付けられたゲインのいずれかが非ゼロか否かを示す。
0=全てのゲインがゼロ、1=少なくとも1つのゲインが非ゼロ
フィールド:
useCompactTemplate
記述・値:
ラン長符号化の効率性を向上させるために、予め規定されたコンパクトテンプレート行列を用いて要素単位のXORをcompactDownmixMatrixに適用するか否かを示すブーリアン。
フィールド:
runLGRParam
記述・値:
線形化されたflatCompactMatrixにおけるゼロ・ラン長を符号化するために用いられる限定的ゴロム・ライスパラメータ
フィールド:
flatCompactMatrix
記述・値:
既に適用された、予め規定されたコンパクトテンプレート行列を有するcompactDownmixMatrixの線形化バージョン。mixLFEOnlyToLFEが動作している場合、(非LFE及びFLE間の混合により)ゼロであると分かっている成分、又はLFEからLFEへの混合に用いられるものを含まない。
フィールド:
compactTemplate
記述・値:
予め規定されたコンパクトテンプレート行列。「典型的な」成分を有し、compactDownmixMatrixへと要素単位でXOR演算され、ほとんど全てがゼロの値の成分を作成することにより符号化効率を向上させる。
フィールド:
zeroRunLength
記述・値:
常に1が続くゼロ・ランの長さ。flatCompactMatrixにおけるもの。パラメータrunLGRParamを用いて、限定的ゴロム・ライス符号化によって符号化される。
フィールド:
fullForAsymmetricInputs
記述・値:
各々全ての非対象の入力スピーカー群についての対称性の特性を無視するか否かを示すブーリアン。動作している場合、各々全ての非対称入力スピーカー群は、isSymmetric[i]に関わらず、インデックスiを有する各々の対称出力スピーカー群について復号された2つのゲイン値を有する。
フィールド:
gainTable
記述・値:
precisionLevelの精度によってminGainとmaxGainとの間の全ての可能なゲインのリストを含む、動的に生成されたゲイン表
フィールド:
rawCodingNonzeros
記述・値:
非ゼロのゲイン値が符号化された未加工のものか(均一な符号化、ReadRange関数を用いる)、又はそれらのgainTableリストにおけるインデックスが限定的ゴロム・ライス符号化を用いて符号化されたものかを示すブーリアン
フィールド:
gainLGRParam
記述・値:
非ゼロのゲインインデックスを符号化するために用いられる限定的ゴロム・ライスパラメータ。gainTableリストにおける各々のゲインを探索することによって計算される。
ゴロム・ライス符号化は、以下のように、所与の負でない整数パラメータp≧0を用いて、任意の負でない整数n≧0を符号化するために用いられる。最初に、数
h=n/2p
を、単項符号化を用いて符号化し、h個の1のビットの後に終端のゼロ・ビットが続く。次に、pビットを用いて数l=n−h・2pを均一に符号化する。
hmax=(N−1)/2p
を符号化する際に終端のゼロ・ビットを含まない。より正確には、h=hmaxを符号化するためには、h個の1のビットのみを書くが、終端のゼロ・ビットは書かない。終端のゼロ・ビットは、デコーダがこの状態を黙示的に検出できるため、必要ではない。
ConvertToCompactConfig(paramConfig, paramCount)
{
for (i = 0; i < paramCount; ++i) {
paramConfig[i].alreadyUsed = 0;
}
idx = 0;
for (i = 0; i < paramCount; ++i) {
if (paramConfig[i].alreadyUsed) continue;
compactParamConfig[idx].isLFE = paramConfig[i].isLFE;
if ((paramConfig[i].AzimuthAngle == 0) ||
(paramConfig[i].AzimuthAngle == 180°) {
compactParamConfig[idx].pairType = CENTER;
compactParamConfig[idx].originalPosition = i;
} else {
j = SearchForSymmetricSpeaker(paramConfig, paramCount, i);
if (j != -1) {
compactParamConfig[idx].pairType = SYMMETRIC;
if (paramConfig.AzimuthDirection == 0) {
compactParamConfig[idx].originalPosition = i;
compactParamConfig[idx].symmetricPair.originalPosition = j;
} else {
compactParamConfig[idx].originalPosition = j;
compactParamConfig[idx].symmetricPair.originalPosition = i;
}
paramConfig[j].alreadyUsed = 1;
} else {
compactParamConfig[idx].pairType = ASYMMETRIC;
compactParamConfig[idx].originalPosition = i;
}
}
idx++;
}
compactParamCount = idx;
}
関数FindCompactTemplate(inputConfig,inputCount,outputConfig,outputCount)は、inputConfig及びinputCountによって表される入力チャネル構成と、outputConfig及びoutputCountによって表される出力チャネル構成とをマッチングするコンパクトテンプレート行列を見つけるために用いられる。
フィールド:
numEqualizers
記述・値:
存在するそれぞれ異なる等化フィルタの数
フィールド:
eqPrecisionLevel
記述・値:
ゲインの均一な量子化に用いられる精度。0=1dB, 1=0.5dB,2=0.25dB,3=0.1dB
フィールド:
eqExtendedRange
記述・値:
ゲインについての拡張された範囲を用いるか否かを示すブーリアン。動作している場合は、利用可能な範囲は2倍にされる。
フィールド:
numSections
記述・値:
等化フィルタのセクションの数。各セクションはピークフィルタである。
フィールド:
centerFreqLd2
記述・値:
ピークフィルタについての中央周波数の最初の2つの10進数。最大範囲は10…99である。
フィールド:
centerFreqP10
記述・値:
centerFreqLd2に付加されるゼロの数。最大範囲は0…3である。
フィールド:
qFactorIndex
記述・値:
ピークフィルタについての品質因数インデックス
フィールド:
qFactorExtra
記述・値:
1.0よりも大きい品質因数を復号するための余分なビット
フィールド:
centerGainIndex
記述・値:
ピークフィルタについての中央周波数でのゲイン
フィールド:
scalingGainIndex
記述・値:
等化フィルタについてのスケーリングゲイン
フィールド:
hasEqualizer[i]
記述・値:
インデックスiを有する入力チャネルにイコライザが関連付けられているか否かを示すブーリアン
フィールド:
eqalizerIndex[i]
記述・値:
インデックスiを有する入力チャネルに関連付けられたイコライザのインデックス
以下、実施例による復号プロセスの局面について説明する。まず、ダウンミックス行列の復号から説明する。
eqPrecisions[4] = {1.0, 0.5, 0.25, 0.1}
eqMinRanges[2][4] = {{-8.0, -8.0, -8.0, -6.4}, {-16.0, -16.0, -16.0, -12.8}}
eqMaxRanges[2][4] = {{7.0, 7.5, 7.75, 6.3}, {15.0, 15.5, 15.75, 12.7}}
パラメータscalingGainは、精度レベルmin(eqPrecisionLevel+1,3)を用い、これは、既に最後のものでなければ次善の精度レベルである。フィールドcenterGainIndex及びscalingGainIndexからゲインパラメータcenterGain及びscalingGainへのマッピングは、
参考文献
[1]Information technology - Coding of audio-visual objects - Part 3: Audio, AMENDMENT 4: New levels for AAC profiles, ISO/IEC 14496-3:2009/DAM 4, 2013
[2]ITU-R BS.775-3, “Multichannel stereophonic sound system with and without accompanying picture,” Rec., International Telecommunications Union, Geneva, Switzerland, 2012
[3]K. Hamasaki, T. Nishiguchi, R. Okumura, Y. Nakayama and A. Ando, "A 22.2 Multichannel Sound System for Ultrahigh-definition TV (UHDTV)," SMPTE Motion Imaging J., pp. 40-49, 2008
[4]ITU-R Report BS.2159-4, “Multichannel sound technology in home and broadcasting applications”, 2012
[5]Enhanced audio support and other improvements, ISO/IEC 14496-12:2012 PDAM 3, 2013
[6]International Standard ISO/IEC 23003-3:2012, Information technology - MPEG audio technologies - Part 3: Unified Speech and Audio Coding, 2012
[7]International Standard ISO/IEC 23001-8:2013, Information technology - MPEG systems technologies - Part 8: Coding-independent code points, 2013
Claims (32)
- 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を復号するための方法であって、前記入力チャネル(300)及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用することによって符号化され、前記方法は、
前記符号化されたダウンミックス行列(306)を表す符号化情報をエンコーダから受信するステップと、
前記復号されたダウンミックス行列(306)を得るための前記符号化情報を復号するステップと、を備え、
前記ダウンミックス行列(306)における入力チャネル(300)及び出力チャネル(302)のそれぞれの対(S1〜S11)には、所与の入力チャネル(300)が所与の出力チャネル(302)に寄与するレベルを適合させるためのそれぞれの混合ゲインが関連付けられ、
前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から、符号化された有意性値を復号するステップを備え、それぞれの有意性値は、前記入力チャネル(300)の対称スピーカー群及び前記出力チャネル(302)の対称スピーカー群の対(S1〜S11)に割り当てられ、前記有意性値は、前記入力チャネル(300)のうちの1つ以上についての混合ゲインがゼロか否かを示し、前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から、符号化された混合ゲインを復号するステップを備える、
方法。 - 前記有意性値は、ゼロの混合ゲインを示す第1の値と、ゼロでない混合ゲインを示す第2の値とを含み、
前記有意性値を符号化するステップは、予め規定された順番で前記有意性値を連結する1次元ベクトルであって、ラン長符号化された前記1次元ベクトルをデコードするステップを含む、
請求項1に記載の方法。 - 前記有意性値をデコードするステップは、テンプレート有意性値が関連付けられた、前記入力チャネル(300)のスピーカー群及び前記出力チャネル(302)のスピーカー群の同じ対を有するテンプレートに基づく、
請求項1に記載の方法。 - 前記有意性値及び前記テンプレート有意性値を論理的に組み合わせ、有意性値とテンプレート有意性値とが同一であることを第1の値で示すとともに有意性値とテンプレート有意性値とが異なることを第2の値で示す、1次元ベクトルであって、ラン長符号化された前記1次元ベクトルをデコードするステップを備える、
請求項3に記載の方法。 - 前記ラン長符号化された前記1次元ベクトルをデコードするステップは、ラン長を含むリストを前記1次元ベクトルに変換するステップを含み、ラン長は、前記第2の値によって終結される連続する第1の値の数である、
請求項2又は請求項4に記載の方法。 - 前記ラン長は、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項2、請求項4又は請求項5に記載の方法。 - 前記ダウンミックス行列(306)を復号することは、
前記ダウンミックス行列(306)において、出力チャネル(302)の各群について、対称性の特性及び分離性の特性が満足されるか否かを示すダウンミックス行列情報を表す情報から、1群の出力チャネル(302)が単一の入力チャネル(300)からの同じゲインと混合されること、又は1群の出力チャネル(302)が1群の入力チャネル(300)から等しく混合されること、を示す対称性の特性と、それぞれの左側又は右側で全ての信号を保持しながら、1群の出力チャネル(302)が1群の入力チャネル(300)から混合されることを示す分離性の特性と、を復号するステップを備える、
請求項1から請求項6のいずれかに記載の方法。 - 前記対称性の特性及び前記分離性の特性を満足させる出力チャネル(302)の群について、単一の混合ゲインが与えられる、
請求項7に記載の方法。 - 前記混合ゲインを保持するリストを提供するステップを備え、各々の混合ゲインが前記リスト中のインデックスに関連付けられ、前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から前記リスト中のインデックスを復号するステップと、
前記リストにある復号されたインデックスに従って前記リストから前記混合ゲインを選択するステップと、を備える、
請求項1から請求項8のいずれかに記載の方法。 - 前記インデックスは、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項9に記載の方法。 - 前記リストを提供するステップは、
前記ダウンミックス行列(306)を表す情報から、最小ゲイン値、最大ゲイン値及び所望の精度を復号するステップと、
前記最小ゲイン値及び前記最大ゲイン値間の複数のゲイン値を含むリストを作成するステップと、を備え、前記ゲイン値は、前記所望の精度を有するように提供され、前記ゲイン値が典型的に使用される頻度が高いほど、前記ゲイン値は前記リストの先頭に近くなり、前記リストの先頭は最も小さいインデックスを有する、
請求項9又は請求項10に記載の方法。 - 前記ゲイン値のリストは、以下のように作成され、即ち、
‐前記最小ゲイン(これを含む)と開始ゲイン値(これを含む)との間で降順に、最初のゲイン値である第1のゲイン値の整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第1のゲイン値の残りの整数倍数を加算し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第1の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第1の精度レベルの残りの整数倍数を加算し、
‐精度レベルが前記第1の精度レベルであれば、ここで停止し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第2の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第2の精度レベルの残りの整数倍数を加算し、
‐精度レベルが前記第2の精度レベルであれば、ここで停止し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第3の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第3の精度レベルの残りの整数倍数を加算する、
請求項11に記載の方法。 - 前記開始ゲイン値=0dBであり、前記第1のゲイン値=3dBであり、前記第1の精度レベル=1dBであり、前記第2の精度レベル=0.5dBであり、前記第3の精度レベル=0.25dBである、
請求項12に記載の方法。 - 対称スピーカー対(S1〜S9)に関連付けられたダウンミックス行列(306)にある入力チャネル(300)と、対称スピーカー対(S10〜S11)に関連付けられたダウンミックス行列(306)にある出力チャネル(302)とが、共通の列又は行にグループ付けられている、コンパクト行列をデコードするステップを含み、
前記コンパクト行列をデコードするステップは、
前記符号化された有意性値と、前記符号化された混合ゲインを受信するステップと、
前記符号化された有意性値をデコードし、前記デコードされたコンパクトダウンミックス行列(308)を生成し、前記混合ゲインをデコードするステップと、
前記デコードされた混合ゲインをゲインがゼロではないことを示す、対応する有意性値に割り当てるステップと、
前記デコードされたダウンミックス行列(306)を取得するためにグループ化された前記入力チャネル(300)と前記出力チャネル(302)とをグループ解除するステップと、
を含む、
請求項1に記載の方法。 - 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を符号化するための方法であって、前記入力チャネル及び前記出力チャネル(300、302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、
前記ダウンミックス行列を符号化するステップは、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用するステップを備え、
前記ダウンミックス行列(306)の入力チャネル及び出力チャネル(300、302)のそれぞれの対(S1〜S11)は、所与の入力チャネル(300)が所与の出力チャネル(302)に寄与するレベルを適用するために、それぞれの混合ゲインを関連付け、
それぞれの有意性値は、前記入力チャネル(300)の対称スピーカー群と、前記出力チャネル(302)の対称スピーカー群との対(S1〜S11)に割り当てられており、前記有意性値は、1以上の前記入力チャネル(300)の混合ゲインがゼロであるか否かを示すものであり、
前記方法は、さらに、
前記有意性値を符号化するステップと、
前記混合ゲインを符号化するステップと、
を備える、
方法。 - 前記有意性値は、ゼロの混合ゲインを示す第1の値と、ゼロでない混合ゲインを示す第2の値とを含み、前記有意性値を符号化するステップは、
予め規定された順番で前記有意性値を連結することで1次元ベクトルを形成するステップと、
ラン長方式を用いて前記1次元ベクトルを符号化するステップと、
を含む、
請求項15に記載の方法。 - 前記有意性値を符号化するステップは、
テンプレート有意性値が関連付けられた、前記入力チャネル(300)のスピーカー群及び前記出力チャネル(302)のスピーカー群の同じ対を有するテンプレートに基づき、それらにテンプレート有意性値を関連付ける、
請求項15に記載の方法。 - 有意性値とテンプレート有意性値とが同一であることを第1の値で示すとともに有意性値とテンプレート有意性値とが異なることを第2の値で示す1次元ベクトルを生成するために、前記有意性値及び前記テンプレート有意性値を論理的に組み合わせるステップと、
ラン長方式によって前記1次元ベクトルを符号化するステップと、
を備える、
請求項17に記載の方法。 - 前記1次元ベクトルを符号化するステップは、
前記1次元ベクトルを、ラン長を含むリストに変換するステップを含み、
ラン長は、前記第2の値によって終結される連続する第1の値の数である、
請求項16又は請求項18に記載の方法。 - 前記ラン長は、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項16、請求項18又は請求項19に記載の方法。 - 前記ダウンミックス行列(306)を符号化するステップは、
対称スピーカー対(S1〜S9)に関連付けられたダウンミックス行列(306)にある入力チャネル(300)と、対称スピーカー対(S10〜S11)に関連付けられたダウンミックス行列(306)にある出力チャネル(302)とを、共通の列又は行にグループ付けすることによって、前記ダウンミックス行列をコンパクトダウンミックス行列(308)に変換するステップと、
前記コンパクトダウンミックス行列(308)を符号化するステップと、
を含む、
請求項15から請求項20のいずれかに記載の方法。 - スピーカーの所定の位置は、前記聴取者の位置に対して前記スピーカー位置の方位角及び仰角に応じて規定され、
対称スピーカー対(S1〜S11)は、同じ仰角を有し、かつ、絶対値は同じであるが正負符号が異なる方位角を有するスピーカーによって構成されている、
請求項1から請求項21のいずれかに記載の方法。 - 前記入力チャネル及び前記出力チャネル(302)は、更に、1つ以上のセンタースピーカー及び1つ以上の非対称スピーカーに関連付けられたチャネルを含み、
非対称スピーカーは、前記入力チャネル及び前記出力チャネル(302)によって規定された構成において別の対称スピーカーを有さない、
請求項1から請求項22のいずれかに記載の方法。 - 複数の入力チャネル(300)を有する音声コンテンツを、前記入力チャネル(300)とは異なる複数の出力チャネル(302)を有するシステムに呈示するための方法であって、
前記方法は、
前記入力チャネル(300)を前記出力チャネル(302)に対してマッピングするために、前記音声コンテンツ及びダウンミックス行列(306)を提供するステップと、
前記音声コンテンツを符号化するステップと、
請求項15の記載に基づく前記ダウンミックス行列(306)を符号化するステップと、
前記符号化された音声コンテンツ及び前記符号化されたダウンミックス行列(306)を前記システムに送信するステップと、
前記音声コンテンツを復号するステップと、
請求項1の記載に基づく前記ダウンミックス行列(306)を復号するステップと、
前記復号されたダウンミックス行列(306)を用いて前記音声コンテンツの入力チャネル(300)を前記システムの出力チャネル(302)に対してマッピングするステップと、
を備え、
前記ダウンミックス行列(306)は、請求項1から請求項19のいずれかに記載の方法に従って符号化又は復号される、
方法。 - 前記ダウンミックス行列(306)はユーザによって特定される、
請求項24に記載の方法。 - 更に、前記入力チャネル(300)又はダウンミックス行列要素(304)に関連付けられたイコライザ・パラメータを送信するステップを備える、
請求項24又は請求項25に記載の方法。 - 請求項1から請求項26のいずれかに記載の方法をコンピュータに実行させるためのプログラム。
- 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を符号化するためのエンコーダであって、前記入力チャネル及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、
前記エンコーダは、
請求項15の記載に基づく前記ダウンミックス行列(306)を符号化するように構成されたプロセッサを備える、
エンコーダ。 - 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を復号するためのデコーダであって、前記入力チャネル及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用することによって符号化され、
前記デコーダは、
請求項1の記載に従い動作するように構成されたプロセッサを備える、
デコーダ。 - 音声信号を符号化するための音声エンコーダであって、請求項28のエンコーダを備える音声エンコーダ。
- 符号化された音声信号を復号するための音声デコーダであって、
前記音声デコーダは、請求項29に記載のデコーダを含む、
音声デコーダ。 - 前記復号されたダウンミックス行列(306)を受信するためのデコーダに結合されて、前記受信された復号ダウンミックス行列(306)に従って前記復号音声信号のフォーマットを変換するように動作する、フォーマット変換部を備える、
請求項31に記載の音声デコーダ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20130189770 EP2866227A1 (en) | 2013-10-22 | 2013-10-22 | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
EP13189770.4 | 2013-10-22 | ||
PCT/EP2014/071929 WO2015058991A1 (en) | 2013-10-22 | 2014-10-13 | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016538585A JP2016538585A (ja) | 2016-12-08 |
JP6313439B2 true JP6313439B2 (ja) | 2018-04-25 |
Family
ID=49474267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525036A Active JP6313439B2 (ja) | 2013-10-22 | 2014-10-13 | ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ |
Country Status (19)
Country | Link |
---|---|
US (4) | US9947326B2 (ja) |
EP (2) | EP2866227A1 (ja) |
JP (1) | JP6313439B2 (ja) |
KR (1) | KR101798348B1 (ja) |
CN (2) | CN110675882B (ja) |
AR (1) | AR098152A1 (ja) |
AU (1) | AU2014339167B2 (ja) |
BR (1) | BR112016008787B1 (ja) |
CA (1) | CA2926986C (ja) |
ES (1) | ES2655046T3 (ja) |
MX (1) | MX353997B (ja) |
MY (1) | MY176779A (ja) |
PL (1) | PL3061087T3 (ja) |
PT (1) | PT3061087T (ja) |
RU (1) | RU2648588C2 (ja) |
SG (1) | SG11201603089VA (ja) |
TW (1) | TWI571866B (ja) |
WO (1) | WO2015058991A1 (ja) |
ZA (1) | ZA201603298B (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2830051A3 (en) | 2013-07-22 | 2015-03-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals |
EP2866227A1 (en) | 2013-10-22 | 2015-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
WO2016204579A1 (ko) * | 2015-06-17 | 2016-12-22 | 삼성전자 주식회사 | 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치 |
KR102627374B1 (ko) * | 2015-06-17 | 2024-01-19 | 삼성전자주식회사 | 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치 |
KR20240050483A (ko) * | 2015-06-17 | 2024-04-18 | 삼성전자주식회사 | 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치 |
JP2019518373A (ja) | 2016-05-06 | 2019-06-27 | ディーティーエス・インコーポレイテッドDTS,Inc. | 没入型オーディオ再生システム |
US10701508B2 (en) * | 2016-09-20 | 2020-06-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10075789B2 (en) * | 2016-10-11 | 2018-09-11 | Dts, Inc. | Gain phase equalization (GPEQ) filter and tuning methods for asymmetric transaural audio reproduction |
US10659906B2 (en) * | 2017-01-13 | 2020-05-19 | Qualcomm Incorporated | Audio parallax for virtual reality, augmented reality, and mixed reality |
US10979844B2 (en) | 2017-03-08 | 2021-04-13 | Dts, Inc. | Distributed audio virtualization systems |
US10893373B2 (en) * | 2017-05-09 | 2021-01-12 | Dolby Laboratories Licensing Corporation | Processing of a multi-channel spatial audio format input signal |
US11089425B2 (en) * | 2017-06-27 | 2021-08-10 | Lg Electronics Inc. | Audio playback method and audio playback apparatus in six degrees of freedom environment |
JP7222668B2 (ja) * | 2017-11-17 | 2023-02-15 | 日本放送協会 | 音響処理装置及びプログラム |
KR20200099561A (ko) | 2017-12-19 | 2020-08-24 | 돌비 인터네셔널 에이비 | 통합 음성 및 오디오 디코딩 및 인코딩 개선을 위한 방법, 장치 및 시스템 |
GB2571572A (en) * | 2018-03-02 | 2019-09-04 | Nokia Technologies Oy | Audio processing |
BR112020019890A2 (pt) * | 2018-04-11 | 2021-01-05 | Dolby International Ab | Métodos, aparelho e sistemas para sinal pré-renderizado para renderização de áudio |
WO2020089302A1 (en) | 2018-11-02 | 2020-05-07 | Dolby International Ab | An audio encoder and an audio decoder |
GB2582749A (en) * | 2019-03-28 | 2020-10-07 | Nokia Technologies Oy | Determination of the significance of spatial audio parameters and associated encoding |
CN114303190A (zh) | 2019-08-15 | 2022-04-08 | 杜比国际公司 | 用于生成和处理经修改的音频比特流的方法和设备 |
CN114303392A (zh) * | 2019-08-30 | 2022-04-08 | 杜比实验室特许公司 | 多声道音频信号的声道标识 |
GB2593672A (en) * | 2020-03-23 | 2021-10-06 | Nokia Technologies Oy | Switching between audio instances |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6108633A (en) * | 1996-05-03 | 2000-08-22 | Lsi Logic Corporation | Audio decoder core constants ROM optimization |
US6697491B1 (en) * | 1996-07-19 | 2004-02-24 | Harman International Industries, Incorporated | 5-2-5 matrix encoder and decoder system |
US20040062401A1 (en) * | 2002-02-07 | 2004-04-01 | Davis Mark Franklin | Audio channel translation |
US6522270B1 (en) * | 2001-12-26 | 2003-02-18 | Sun Microsystems, Inc. | Method of coding frequently occurring values |
US7447317B2 (en) * | 2003-10-02 | 2008-11-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V | Compatible multi-channel coding/decoding by weighting the downmix channel |
US20090299756A1 (en) * | 2004-03-01 | 2009-12-03 | Dolby Laboratories Licensing Corporation | Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners |
WO2005086139A1 (en) * | 2004-03-01 | 2005-09-15 | Dolby Laboratories Licensing Corporation | Multichannel audio coding |
CN102122509B (zh) * | 2004-04-05 | 2016-03-23 | 皇家飞利浦电子股份有限公司 | 多信道解码器和多信道解码方法 |
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US8843378B2 (en) * | 2004-06-30 | 2014-09-23 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Multi-channel synthesizer and method for generating a multi-channel output signal |
TWI393121B (zh) * | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
WO2006022190A1 (ja) * | 2004-08-27 | 2006-03-02 | Matsushita Electric Industrial Co., Ltd. | オーディオエンコーダ |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
SE0402650D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Improved parametric stereo compatible coding of spatial audio |
US7787631B2 (en) * | 2004-11-30 | 2010-08-31 | Agere Systems Inc. | Parametric coding of spatial audio with cues based on transmitted channels |
US7903824B2 (en) * | 2005-01-10 | 2011-03-08 | Agere Systems Inc. | Compact side information for parametric coding of spatial audio |
KR101271069B1 (ko) * | 2005-03-30 | 2013-06-04 | 돌비 인터네셔널 에이비 | 다중채널 오디오 인코더 및 디코더와, 인코딩 및 디코딩 방법 |
WO2006108543A1 (en) * | 2005-04-15 | 2006-10-19 | Coding Technologies Ab | Temporal envelope shaping of decorrelated signal |
JP4988716B2 (ja) * | 2005-05-26 | 2012-08-01 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号のデコーディング方法及び装置 |
CA2610430C (en) * | 2005-06-03 | 2016-02-23 | Dolby Laboratories Licensing Corporation | Channel reconfiguration with side information |
US8050915B2 (en) * | 2005-07-11 | 2011-11-01 | Lg Electronics Inc. | Apparatus and method of encoding and decoding audio signals using hierarchical block switching and linear prediction coding |
PL1905006T3 (pl) * | 2005-07-19 | 2014-02-28 | Koninl Philips Electronics Nv | Generowanie wielokanałowych sygnałów audio |
US7974713B2 (en) * | 2005-10-12 | 2011-07-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Temporal and spatial shaping of multi-channel audio signals |
KR100888474B1 (ko) * | 2005-11-21 | 2009-03-12 | 삼성전자주식회사 | 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법 |
EP1974347B1 (en) * | 2006-01-19 | 2014-08-06 | LG Electronics Inc. | Method and apparatus for processing a media signal |
CN102693727B (zh) * | 2006-02-03 | 2015-06-10 | 韩国电子通信研究院 | 用于控制音频信号的渲染的方法 |
US7965848B2 (en) * | 2006-03-29 | 2011-06-21 | Dolby International Ab | Reduced number of channels decoding |
US8027479B2 (en) * | 2006-06-02 | 2011-09-27 | Coding Technologies Ab | Binaural multi-channel decoder in the context of non-energy conserving upmix rules |
MY151722A (en) * | 2006-07-07 | 2014-06-30 | Fraunhofer Ges Forschung | Concept for combining multiple parametrically coded audio sources |
EP2054875B1 (en) * | 2006-10-16 | 2011-03-23 | Dolby Sweden AB | Enhanced coding and parameter representation of multichannel downmixed object coding |
WO2008046530A2 (en) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi -channel parameter transformation |
DE102006050068B4 (de) * | 2006-10-24 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm |
CA2670864C (en) * | 2006-12-07 | 2015-09-29 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
AU2008215231B2 (en) * | 2007-02-14 | 2010-02-18 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
EP3712888B1 (en) * | 2007-03-30 | 2024-05-08 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
DE102007018032B4 (de) * | 2007-04-17 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Erzeugung dekorrelierter Signale |
KR101312470B1 (ko) * | 2007-04-26 | 2013-09-27 | 돌비 인터네셔널 에이비 | 출력 신호 합성 장치 및 방법 |
WO2009039897A1 (en) * | 2007-09-26 | 2009-04-02 | Fraunhofer - Gesellschaft Zur Förderung Der Angewandten Forschung E.V. | Apparatus and method for extracting an ambient signal in an apparatus and method for obtaining weighting coefficients for extracting an ambient signal and computer program |
RU2443075C2 (ru) * | 2007-10-09 | 2012-02-20 | Конинклейке Филипс Электроникс Н.В. | Способ и устройство для генерации бинаурального аудиосигнала |
DE102007048973B4 (de) * | 2007-10-12 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung |
MX2010004138A (es) * | 2007-10-17 | 2010-04-30 | Ten Forschung Ev Fraunhofer | Codificacion de audio usando conversion de estereo a multicanal. |
WO2009084916A1 (en) * | 2008-01-01 | 2009-07-09 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
US7733245B2 (en) * | 2008-06-25 | 2010-06-08 | Aclara Power-Line Systems Inc. | Compression scheme for interval data |
EP2154911A1 (en) * | 2008-08-13 | 2010-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | An apparatus for determining a spatial output multi-channel audio signal |
JP5520300B2 (ja) * | 2008-09-11 | 2014-06-11 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マイクロホン信号に基づいて一組の空間手がかりを供給する装置、方法およびコンピュータ・プログラムと2チャンネルのオーディオ信号および一組の空間手がかりを供給する装置 |
US8798776B2 (en) * | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
EP2175670A1 (en) * | 2008-10-07 | 2010-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Binaural rendering of a multi-channel audio signal |
BR122019023924B1 (pt) * | 2009-03-17 | 2021-06-01 | Dolby International Ab | Sistema codificador, sistema decodificador, método para codificar um sinal estéreo para um sinal de fluxo de bits e método para decodificar um sinal de fluxo de bits para um sinal estéreo |
US8000485B2 (en) * | 2009-06-01 | 2011-08-16 | Dts, Inc. | Virtual audio processing for loudspeaker or headphone playback |
ES2524428T3 (es) * | 2009-06-24 | 2014-12-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decodificador de señales de audio, procedimiento para decodificar una señal de audio y programa de computación que utiliza etapas en cascada de procesamiento de objetos de audio |
EP2360681A1 (en) * | 2010-01-15 | 2011-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for extracting a direct/ambience signal from a downmix signal and spatial parametric information |
TWI443646B (zh) * | 2010-02-18 | 2014-07-01 | Dolby Lab Licensing Corp | 音訊解碼器及使用有效降混之解碼方法 |
US8908874B2 (en) * | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
EP2477188A1 (en) * | 2011-01-18 | 2012-07-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoding and decoding of slot positions of events in an audio signal frame |
TWI573131B (zh) * | 2011-03-16 | 2017-03-01 | Dts股份有限公司 | 用以編碼或解碼音訊聲軌之方法、音訊編碼處理器及音訊解碼處理器 |
WO2012177067A2 (ko) | 2011-06-21 | 2012-12-27 | 삼성전자 주식회사 | 오디오 신호 처리방법 및 장치와 이를 채용하는 단말기 |
EP2560161A1 (en) * | 2011-08-17 | 2013-02-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optimal mixing matrices and usage of decorrelators in spatial audio processing |
KR20130093798A (ko) * | 2012-01-02 | 2013-08-23 | 한국전자통신연구원 | 다채널 신호 부호화 및 복호화 장치 및 방법 |
EP2862370B1 (en) * | 2012-06-19 | 2017-08-30 | Dolby Laboratories Licensing Corporation | Rendering and playback of spatial audio using channel-based audio systems |
US9761229B2 (en) * | 2012-07-20 | 2017-09-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for audio object clustering |
US9516446B2 (en) * | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
IN2015MN01952A (ja) * | 2013-02-14 | 2015-08-28 | Dolby Lab Licensing Corp | |
EP2976768A4 (en) * | 2013-03-20 | 2016-11-09 | Nokia Technologies Oy | AUDIO SIGNAL ENCODER COMPRISING A MULTI-CHANNEL PARAMETER SELECTOR |
EP2866227A1 (en) * | 2013-10-22 | 2015-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
-
2013
- 2013-10-22 EP EP20130189770 patent/EP2866227A1/en not_active Withdrawn
-
2014
- 2014-10-13 BR BR112016008787-9A patent/BR112016008787B1/pt active IP Right Grant
- 2014-10-13 MX MX2016004924A patent/MX353997B/es active IP Right Grant
- 2014-10-13 PT PT147836605T patent/PT3061087T/pt unknown
- 2014-10-13 WO PCT/EP2014/071929 patent/WO2015058991A1/en active Application Filing
- 2014-10-13 SG SG11201603089VA patent/SG11201603089VA/en unknown
- 2014-10-13 RU RU2016119546A patent/RU2648588C2/ru active
- 2014-10-13 PL PL14783660T patent/PL3061087T3/pl unknown
- 2014-10-13 CN CN201910973920.4A patent/CN110675882B/zh active Active
- 2014-10-13 KR KR1020167013337A patent/KR101798348B1/ko active IP Right Grant
- 2014-10-13 AU AU2014339167A patent/AU2014339167B2/en active Active
- 2014-10-13 JP JP2016525036A patent/JP6313439B2/ja active Active
- 2014-10-13 CN CN201480057957.8A patent/CN105723453B/zh active Active
- 2014-10-13 ES ES14783660.5T patent/ES2655046T3/es active Active
- 2014-10-13 CA CA2926986A patent/CA2926986C/en active Active
- 2014-10-13 EP EP14783660.5A patent/EP3061087B1/en active Active
- 2014-10-13 MY MYPI2016000689A patent/MY176779A/en unknown
- 2014-10-21 TW TW103136287A patent/TWI571866B/zh active
- 2014-10-22 AR ARP140103967A patent/AR098152A1/es active IP Right Grant
-
2016
- 2016-04-18 US US15/131,263 patent/US9947326B2/en active Active
- 2016-05-16 ZA ZA2016/03298A patent/ZA201603298B/en unknown
-
2018
- 2018-03-05 US US15/911,974 patent/US10468038B2/en active Active
-
2019
- 2019-09-23 US US16/579,293 patent/US11393481B2/en active Active
-
2022
- 2022-06-15 US US17/807,095 patent/US11922957B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6313439B2 (ja) | ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ | |
US20240029744A1 (en) | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals | |
EP3025329B1 (en) | Concept for audio encoding and decoding for audio channels and audio objects | |
JP4832507B2 (ja) | コンパクトなコードブックを用いるエントロピー符号化 | |
CN105659319B (zh) | 使用***值矩阵的多通道音频的渲染 | |
JP2020016884A (ja) | オーディオ・エンコーダおよびデコーダ | |
CN107077861B (zh) | 音频编码器和解码器 | |
EP3134897A1 (en) | Matrix decomposition for rendering adaptive audio using high definition audio codecs | |
WO2016168408A1 (en) | Audio encoding and rendering with discontinuity compensation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6313439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |