JP6329629B2 - 領域の音場データを圧縮および解凍するための方法および装置 - Google Patents
領域の音場データを圧縮および解凍するための方法および装置 Download PDFInfo
- Publication number
- JP6329629B2 JP6329629B2 JP2016530874A JP2016530874A JP6329629B2 JP 6329629 B2 JP6329629 B2 JP 6329629B2 JP 2016530874 A JP2016530874 A JP 2016530874A JP 2016530874 A JP2016530874 A JP 2016530874A JP 6329629 B2 JP6329629 B2 JP 6329629B2
- Authority
- JP
- Japan
- Prior art keywords
- sound field
- order
- harmonic component
- field data
- harmonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000004044 response Effects 0.000 claims description 69
- 230000003595 spectral effect Effects 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000006837 decompression Effects 0.000 claims description 3
- 239000004615 ingredient Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 3
- 230000008878 coupling Effects 0.000 claims 2
- 238000010168 coupling process Methods 0.000 claims 2
- 238000005859 coupling reaction Methods 0.000 claims 2
- 238000013144 data compression Methods 0.000 claims 2
- 238000000354 decomposition reaction Methods 0.000 description 20
- 230000002123 temporal effect Effects 0.000 description 11
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000009467 reduction Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000011045 prefiltration Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 101100259947 Homo sapiens TBATA gene Proteins 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
- G10L19/0208—Subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
Description
[2] Engdegard, J et al (2008) Spatial Audio Object Coding (SAOC) - The Upcoming MPEG Standard on Parametric Object Based Audio Coding, AES Convention Paper 7377 presented at the 125th Convention, Amsterdam, Netherlands
[3] Merimaa J and Pulkki V (2003) Perceptually-based processing of directional room responses for multichannel loudspeaker reproduction, IEEE Workshop on Applications of Signal Processing to Audio and Acoustics
[4] Pulkki, V (2007) Spatial Sound Reproduction with Directional Audio Coding, J. Audio Eng. Soc., Vol. 55. No.6
[5] Hellerud E et al (2008) Encoding Higher Order Ambisonics with AAC AES Convention Paper 7366 presented at the 125th Convention, Amsterdam, Netherlands
[6] Liindau A, Kosanke L, Weinzierl S (2010) Perceptual evaluation of physical predictors of the mixing time in binaural room impulse responses AES Convention Paper presented at the 128th Convention, London, UK
[7] Avni, A and Rafaely B (2009) Interaural cross correlation and spatial correlation in a sound field represented by spherical harmonics in Ambisonics Symposium 2009, Graz, Austria
[9] Goodwin M and Jot J-M (2007) Spatial audio coding based on universal spatial cues, US 8,379,868 B2
[10] Seefeldt A and Vinton M (2006) Controlling spatial audio coding parameters as a function of auditory events, EP 2296142 A2
[11] Faller C (2005) Parametric coding of spatial audio with object-based side information, US 8340306 B2
[12] Kordon S, Batke J-M, Krueger A (2011) Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an ambisonics representation of the sound field, EP 2592845 A1
[13] Corteel E and Rosenthal M (2011) Method and device for enhanced sound field reproduction of spatially encoded audio input signals, EP 2609759 A1
[14] Abeling S et al (2010) Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three, EP 2451196 A1
[15] Arumi P and Sole A (2008) Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction, EP 2205007 A1
Claims (21)
- 領域の音場データ(10)を圧縮するための装置であって、前記装置は、
前記音場データ(10)を、第1の部分(101)および第2の部分(102)に分割するためのデバイダ(100)と、
前記第1の部分(101)および前記第2の部分(102)を調和成分(141,182)に変換するためのコンバータ(140,180)であって、圧縮された音場データを得るために、前記コンバータ(140,180)は、前記第2の部分(102)を1つまたは数個の第2の次数の調和成分(141)に変換し、そして、前記第1の部分(101)を第1の次数の調和成分に変換するように構成され、ここで、前記第1の部分(101)を表す前記調和成分の前記第1の次数は、前記第2の部分(102)を表す前記調和成分の前記第2の次数よりも高い、コンバータ(140,180)と、を含み、
ここで、前記デバイダ(100)は、スペクトル分割を実行するように構成され、そして、異なるフィルタ・バンク・チャネル(140a,140b,140c)における音場データを得るために、前記音場データ(10)の少なくとも一部をフィルタするためのフィルタバンク(100b)を含み、
前記コンバータは、前記異なるフィルタ・バンク・チャネル(140a,140b,140c)の、前記第1の部分(101)を表す第1のフィルタ・バンク・チャネル(140a)からのサブバンド信号のために、前記第1の次数の前記調和成分を算出し、そして、前記異なるフィルタ・バンク・チャネル(140a,140b,140c)の、前記第2の部分(102)を表す第2のフィルタ・バンク・チャネル(140c)からのサブバンド信号のために、前記第2の次数の前記調和成分を算出するように構成され、前記第1のフィルタ・バンク・チャネル(140a)の中心周波数(fn)は、前記第2のフィルタ・バンク・チャネル(140c)の中心周波数(f1)よりも高い、
装置。 - 前記コンバータ(140,180)は、前記第1の部分(101)についての前記第1の次数の前記調和成分を算出するために構成され、前記第1の部分(101)は、前記第2の部分(102)よりも人の聴覚の方向認識にとって重要である、請求項1に記載の装置。
- 前記デバイダ(100)は、前記音場データ(10)を前記領域における第1の反射を含む前記第1の部分、および前記領域における第2の反射を含む前記第2の部分に分割するために構成され、前記第2の反射は、前記第1の反射より時間的に後で生ずる、請求項1または請求項2に記載の装置。
- 前記デバイダ(100)は、前記音場データ(10)を、前記領域における第1の反射を含む前記第1の部分、および前記領域における第2の反射を含む前記第2の部分に分割するように構成され、前記第2の反射は、前記第1の反射より時間的に後で生じ、そして、前記デバイダ(100)は、さらに、前記第1の部分をスペクトル部分(101,102)に分解し、そして、各々の前記スペクトル部分を1つまたは数個の異なる次数の調和成分に変換するように構成され、より高い周波数帯のスペクトル部分の次数は、より低い周波数帯のスペクトル部分の次数よりも高い、請求項1ないし請求項3のいずれかに記載の装置。
- さらに、伝送またはストレージのための前記第1の次数または前記第2の次数についての表示を含むサイド情報(300)とともに、前記1つまたは数個の前記第2の次数の調和成分(182)および前記第1の次数の前記調和成分(141)を供給するための出力インタフェース(190)を含む、請求項1ないし請求項4のいずれかに記載の装置。
- 前記音場データ(10)は、3次元領域を描写し、そして、前記コンバータは、前記調和成分として円筒調和成分を算出するように構成され、または
前記音場データ(10)は、3次元領域を描写し、そして、前記コンバータ(140,180)は、前記調和成分として球面調和成分を算出するように構成される、請求項1ないし請求項5のいずれかに記載の装置。 - 前記音場データ(10)は、離散的信号の第1の数として存在し、
前記第1の部分(101)および前記第2の部分(102)のための前記コンバータ(140,180)は、調和成分の第2の全数を供給し、前記調和成分の第2の全数は、前記第1の部分(101)のための調和成分の第1の数と、前記第2の部分(102)のための調和成分の第2の数の合計であり、
前記調和成分の第2の全数は、前記離散的信号の第1の数よりも小さい、請求項1ないし請求項6のいずれかに記載の装置。 - 前記デバイダ(100)は、音場データ(10)として、前記領域における異なる位置に割り当てられる複数の異なるインパルス応答を使用するように構成される、請求項1ないし請求項7のいずれかに記載の装置。
- 前記インパルス応答は、頭部伝達関数(HRTF)、またはバイノーラル室内インパルス応答(BRIR)関数、または前記領域の所定の位置に対する前記領域におけるそれぞれ別個の点のインパルス応答である、請求項8に記載の装置。
- 前記音場の解凍された表現を得るために、前記第1および第2の部分(101,102)の結合を使用して、そして調和成分表現から時間領域表現への変換を使用して、前記圧縮された音場データを解凍するためのデコーダ(2)と、
前記第1の次数または第2の次数に関して前記デバイダ(100)または前記コンバータ(140,180)を制御するためのコントローラ(4)であって、前記コントローラ(4)は、心理音響学的モジュールを使用して、前記解凍された音場データと前記音場データ(10)とを比較し、そして、前記比較を使用して、前記デバイダ(100)または前記コンバータ(140,180)を制御するように構成される、請求項1ないし請求項9のいずれかに記載の装置。 - 前記デコーダは、前記第2の次数の前記調和成分および前記第1の次数の前記調和成分(241,242)を変換し、そして、前記変換された調和成分の結合を実行するように構成されるか、または、
前記デコーダ(2)は、コンバイナ(245)において、前記第2の次数の前記調和成分および前記第1の次数の前記調和成分を結合し、そして、前記コンバイナ(245)における前記結合の結果を、調和成分領域から時間領域(244)に変換するように構成される、請求項10に記載の装置。 - 前記デコーダは、異なる次数(140a,140b)の異なるスペクトル部分の調和成分を変換し、
異なるスペクトル部分(304,306)について異なる処理時間を補い、
それを順に配列することによって、時間領域(244)に変換された前記第1の部分のスペクトル部分と前記時間領域(244)に変換された前記第2の部分の前記スペクトル部分を結合するように構成される、請求項10に記載の装置。 - 第1の次数までの第1の調和成分(HC n ,141)および第2の次数までの1つまたは数個の第2の調和成分(HC 1 ,182)を含む圧縮された音場データを解凍するための装置であって、前記第1の調和成分(HC n ,141)の前記第1の次数は、前記1つまたは数個の第2の調和成分(HC 1 ,182)の前記第2の次数よりも高く、
前記圧縮された音場データを得るための入力インタフェース(200)と、
解凍された音場の表現を得るために、第1の部分および第2の部分の結合を使用することによって、および調和成分表現を時間領域表現への変換を使用することによって、前記第1の調和成分(HC n ,141)および前記第2の調和成分(HC 1 ,182)を処理するためのプロセッサ(240)であって、前記第1の部分は、前記第1の調和成分(HC n ,141)によって表現され、前記第2の部分は、前記第2の調和成分(HC 1 ,182)によって表現される、プロセッサ(240)と、を含み、
ここで、前記第1の次数の前記第1の調和成分(HCn ,141)は、第1のスペクトル領域(241a)を表し、そして、前記1つまたは数個の前記第2の次数の調和成分(HC1 ,182)は、異なるスペクトル領域(241c)を表し、
前記プロセッサ(240)は、時間領域における音場データの表現を得るために、前記第1の次数の前記調和成分(HCn,141)を前記第1のスペクトル領域(241a)に変換し、前記1つまたは数個の前記第2の次数の第2の調和成分(HC1,182)を前記異なるスペクトル領域(241c)に変換し、そして、合成フィルタバンク(245)によって前記変換された調和成分を結合するように構成される、装置。 - 前記プロセッサ(240)は、
結合された調和成分を得るために、前記第1の調和成分(HC n ,141)および前記第2の調和成分(HC 1 ,182)を結合するためのコンバイナ(245)と、
前記結合された調和成分を時間領域に変換するためのコンバータ(244)と、
を含む、請求項13に記載の装置。 - 前記プロセッサは、
前記第1の調和成分(HC n ,141)および前記第2の調和成分(HC 1 ,182)を時間領域に変換するためのコンバータ(241,242)と、
前記解凍された音場データを得るために、前記時間領域に変換された前記調和成分を結合するためのコンバイナ(243,245)と、
を含む、請求項13に記載の装置。 - 前記プロセッサ(240)は、再生の配置(610,612,614)についての情報を得るように構成され、
前記プロセッサ(240)は、前記解凍された音場データ(602,604,606)を算出し、前記再生の配置についての前記情報に基づいて、再生の目的(608)のための前記解凍された音場データの前記音場データの部分を選択するように構成され、
前記プロセッサは、前記再生の配置のために必要とされる前記解凍された音場データの部分のみを算出するように構成される、請求項13ないし請求項15のいずれかに記載の装置。 - 前記第1の次数の前記第1の調和成分(HC n ,141)は、領域の前半の反射を表し、前記第2の次数の前記第2の調和成分(HC 1 ,182)は、前記領域の後半の反射を表し、そして、
前記プロセッサ(240)は、前記解凍された音場データを得るために、前記第1の調和成分(HC n ,141)および前記第2の調和成分(HC 1 ,182)を加え、前記加えた結果を時間領域に変換するように構成される、請求項13ないし請求項16のいずれかに記載の装置。 - 前記プロセッサは、変換のために、逆ルーム変換(604)および逆フーリエ変換(606)を実行するように構成される、請求項13ないし請求項17に記載の装置。
- 領域の音場データ(10)を圧縮するための方法であって、前記方法は、
前記音場データ(10)を、第1の部分(101)および第2の部分(102)に分割する(100)ステップと、
前記第1の部分(101)および前記第2の部分(102)を調和成分(141,182)に変換する(140,180)ステップであって、圧縮された音場データを得るために、前記第2の部分(102)は、1つまたは数個の第2の次数の調和成分(141)に変換され、そして、前記第1の部分(101)は、第1の次数の調和成分に変換され、前記第1の部分(101)を表す調和成分の前記第1の次数は、前記第2の部分(102)を表す調和成分の前記第2の次数よりも高い、変換する(140,180)ステップと、を含み、
ここで、分割する(100)ステップは、異なるフィルタ・バンク・チャネル(140a,140b,140c)における音場データを得るために、前記音場データ(10)の少なくとも一部をフィルタするためのフィルタバンク(100b)でフィルタすることによるスペクトル分割を含み、そして、
変換するステップは、前記異なるフィルタ・バンク・チャネル(140a,140b,140c)の、前記第1の部分(101)を表す第1のフィルタ・バンク・チャネル(140a)からのサブバンド信号のための前記第1の次数の前記調和成分の算出を、そして、前記異なるフィルタ・バンク・チャネル(140a,140b,140c)の、前記第2の部分(102)を表す第2のフィルタ・バンク・チャネル(140c)からのサブバンド信号のための前記第2の次数の前記調和成分の算出を表現し、前記第1のフィルタ・バンク・チャネル(140a)の中心周波数(fn)は、前記第2のフィルタ・バンク・チャネル(140c)の中心周波数(f1)よりも高い、
方法。 - 第1の次数までの第1の調和成分(HC n ,141)および1つまたは数個の第2の次数までの調和成分(HC 1 ,182)を含む圧縮された音場データを解凍するための方法であって、前記第1の調和成分(HC n ,141)の前記第1の次数は、前記1つまたは数個の第2の調和成分(HC 1 ,182)の前記第2の次数よりも高く、前記方法は、
前記圧縮された音場データを得る(200)ステップと、
前記音場の解凍された表現を得るために、第1の部分および第2の部分の結合を使用することによって、および調和成分表現から時間領域表現への変換を使用することによって、前記第1の調和成分(HC n ,141)および前記第2の調和成分(HC 1 ,182)を処理する(240)ステップであって、前記第1の部分は、前記第1の調和成分(HC n ,141)によって表され、前記第2の部分は、前記第2の調和成分(HC 1 ,182)によって表される、処理する(240)ステップと、を含み、
ここで、前記第1の次数の前記第1の調和成分(HCn ,141)は、第1のスペクトル領域(241a)を表し、そして、前記1つまたは数個の前記第2の次数の調和成分(HC1 ,182)は、異なるスペクトル領域(241c)を表し、
処理する(240)ステップは、時間領域における音場データの表現を得るために、前記第1の次数の前記第1の調和成分(HCn ,141)を前記第1のスペクトル領域(241a)に変換し、前記1または数個の前記第2の次数の第2の調和成分(HC1 ,182)を前記異なるスペクトル領域(241c)に変換し、そして、合成フィルタバンク(245)によって前記変換された調和成分を結合するように構成される、
方法。 - プログラムコードがコンピュータ上で実行されると、前記コンピュータが請求項19または請求項20の方法を実行する、前記プログラムコードを有するコンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013223201.2 | 2013-11-14 | ||
DE201310223201 DE102013223201B3 (de) | 2013-11-14 | 2013-11-14 | Verfahren und Vorrichtung zum Komprimieren und Dekomprimieren von Schallfelddaten eines Gebietes |
PCT/EP2014/073808 WO2015071148A1 (de) | 2013-11-14 | 2014-11-05 | Verfahren und vorrichtung zum komprimieren und dekomprimieren von schallfelddaten eines gebiets |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017500782A JP2017500782A (ja) | 2017-01-05 |
JP6329629B2 true JP6329629B2 (ja) | 2018-05-23 |
Family
ID=51846694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016530874A Expired - Fee Related JP6329629B2 (ja) | 2013-11-14 | 2014-11-05 | 領域の音場データを圧縮および解凍するための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20160255452A1 (ja) |
EP (1) | EP3069530B1 (ja) |
JP (1) | JP6329629B2 (ja) |
CN (1) | CN105766002B (ja) |
DE (1) | DE102013223201B3 (ja) |
WO (1) | WO2015071148A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2960903A1 (en) | 2014-06-27 | 2015-12-30 | Thomson Licensing | Method and apparatus for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values |
US10412531B2 (en) * | 2016-01-08 | 2019-09-10 | Sony Corporation | Audio processing apparatus, method, and program |
DE102016125886B4 (de) * | 2016-12-29 | 2019-08-29 | Symonics GmbH | Vorrichtung und Verfahren zur effizienten Berechnung einer Auralisation |
US10614788B2 (en) * | 2017-03-15 | 2020-04-07 | Synaptics Incorporated | Two channel headset-based own voice enhancement |
US10764684B1 (en) * | 2017-09-29 | 2020-09-01 | Katherine A. Franco | Binaural audio using an arbitrarily shaped microphone array |
US10721559B2 (en) | 2018-02-09 | 2020-07-21 | Dolby Laboratories Licensing Corporation | Methods, apparatus and systems for audio sound field capture |
EP3547305B1 (en) * | 2018-03-28 | 2023-06-14 | Fundació Eurecat | Reverberation technique for audio 3d |
CN111801732A (zh) * | 2018-04-16 | 2020-10-20 | 杜比实验室特许公司 | 用于定向声源的编码及解码的方法、设备及*** |
GB2574873A (en) * | 2018-06-21 | 2019-12-25 | Nokia Technologies Oy | Determination of spatial audio parameter encoding and associated decoding |
GB201818959D0 (en) * | 2018-11-21 | 2019-01-09 | Nokia Technologies Oy | Ambience audio representation and associated rendering |
EP3683794B1 (en) * | 2019-01-15 | 2021-07-28 | Nokia Technologies Oy | Audio processing |
CN110265042B (zh) * | 2019-05-31 | 2021-07-23 | 歌尔科技有限公司 | 声音信号处理方法、装置及设备 |
WO2021154211A1 (en) * | 2020-01-28 | 2021-08-05 | Hewlett-Packard Development Company, L.P. | Multi-channel decomposition and harmonic synthesis |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54149684A (en) * | 1978-05-15 | 1979-11-24 | Sanyo Electric Co Ltd | Reverberation meter |
JP3295139B2 (ja) * | 1992-09-28 | 2002-06-24 | 日本放送協会 | 残響付加装置 |
US5440639A (en) * | 1992-10-14 | 1995-08-08 | Yamaha Corporation | Sound localization control apparatus |
JP2002510921A (ja) * | 1998-03-31 | 2002-04-09 | レイク テクノロジー リミティド | 3次元オーディオ情報からの複雑な室内インパルス応答の公式化 |
US6016473A (en) * | 1998-04-07 | 2000-01-18 | Dolby; Ray M. | Low bit-rate spatial coding method and system |
FR2851879A1 (fr) * | 2003-02-27 | 2004-09-03 | France Telecom | Procede de traitement de donnees sonores compressees, pour spatialisation. |
JP5106115B2 (ja) * | 2004-11-30 | 2012-12-26 | アギア システムズ インコーポレーテッド | オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング |
TWI396188B (zh) * | 2005-08-02 | 2013-05-11 | Dolby Lab Licensing Corp | 依聆聽事件之函數控制空間音訊編碼參數的技術 |
US8379868B2 (en) * | 2006-05-17 | 2013-02-19 | Creative Technology Ltd | Spatial audio coding based on universal spatial cues |
DE102006050068B4 (de) * | 2006-10-24 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm |
JP4277234B2 (ja) * | 2007-03-13 | 2009-06-10 | ソニー株式会社 | データ復元装置、データ復元方法及びデータ復元プログラム |
KR101354430B1 (ko) * | 2008-07-31 | 2014-01-22 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 바이노럴 신호를 위한 신호생성 |
US9703756B2 (en) * | 2008-09-05 | 2017-07-11 | Adobe Systems Incorporated | Method and apparatus for converting spherical harmonics representations of functions into multi-resolution representations |
EP2205007B1 (en) * | 2008-12-30 | 2019-01-09 | Dolby International AB | Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction |
JP5168208B2 (ja) * | 2009-03-30 | 2013-03-21 | ヤマハ株式会社 | オーディオ信号処理装置およびスピーカ装置 |
KR101613684B1 (ko) * | 2009-12-09 | 2016-04-19 | 삼성전자주식회사 | 음향 신호 보강 처리 장치 및 방법 |
JPWO2011121955A1 (ja) * | 2010-03-30 | 2013-07-04 | パナソニック株式会社 | オーディオ装置 |
EP2375779A3 (en) * | 2010-03-31 | 2012-01-18 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for measuring a plurality of loudspeakers and microphone array |
JP4886881B2 (ja) * | 2010-06-30 | 2012-02-29 | 株式会社東芝 | 音響補正装置、音響出力装置、及び音響補正方法 |
WO2012025580A1 (en) * | 2010-08-27 | 2012-03-01 | Sonicemotion Ag | Method and device for enhanced sound field reproduction of spatially encoded audio input signals |
EP2451196A1 (en) * | 2010-11-05 | 2012-05-09 | Thomson Licensing | Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three |
EP2592845A1 (en) * | 2011-11-11 | 2013-05-15 | Thomson Licensing | Method and Apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an Ambisonics representation of the sound field |
EP2782094A1 (en) * | 2013-03-22 | 2014-09-24 | Thomson Licensing | Method and apparatus for enhancing directivity of a 1st order Ambisonics signal |
US9369818B2 (en) * | 2013-05-29 | 2016-06-14 | Qualcomm Incorporated | Filtering with binaural room impulse responses with content analysis and weighting |
CA3122726C (en) * | 2013-09-17 | 2023-05-09 | Wilus Institute Of Standards And Technology Inc. | Method and apparatus for processing multimedia signals |
-
2013
- 2013-11-14 DE DE201310223201 patent/DE102013223201B3/de not_active Expired - Fee Related
-
2014
- 2014-11-05 CN CN201480061929.3A patent/CN105766002B/zh not_active Expired - Fee Related
- 2014-11-05 EP EP14793183.6A patent/EP3069530B1/de not_active Not-in-force
- 2014-11-05 JP JP2016530874A patent/JP6329629B2/ja not_active Expired - Fee Related
- 2014-11-05 WO PCT/EP2014/073808 patent/WO2015071148A1/de active Application Filing
-
2016
- 2016-05-13 US US15/154,189 patent/US20160255452A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2015071148A1 (de) | 2015-05-21 |
CN105766002A (zh) | 2016-07-13 |
CN105766002B (zh) | 2018-04-20 |
US20160255452A1 (en) | 2016-09-01 |
DE102013223201B3 (de) | 2015-05-13 |
EP3069530B1 (de) | 2019-02-20 |
EP3069530A1 (de) | 2016-09-21 |
JP2017500782A (ja) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6329629B2 (ja) | 領域の音場データを圧縮および解凍するための方法および装置 | |
US20200335115A1 (en) | Audio encoding and decoding | |
JP6626581B2 (ja) | 1つの広帯域アライメント・パラメータと複数の狭帯域アライメント・パラメータとを使用して、多チャネル信号を符号化又は復号化する装置及び方法 | |
KR102231498B1 (ko) | 고차 앰비소닉스 신호 표현의 압축 및 압축 해제 방법 및 장치 | |
KR100928311B1 (ko) | 오디오 피스 또는 오디오 데이터스트림의 인코딩된스테레오 신호를 생성하는 장치 및 방법 | |
US8817991B2 (en) | Advanced encoding of multi-channel digital audio signals | |
JP2023126225A (ja) | DirACベース空間オーディオコーディングに関する符号化、復号、シーン処理、および他の手順のための装置、方法、およびコンピュータプログラム | |
CN112074902B (zh) | 使用混合编码器/解码器空间分析的音频场景编码器、音频场景解码器及相关方法 | |
TWI695370B (zh) | 用以解碼經編碼多聲道信號之裝置、方法及電腦程式 | |
JP2024512953A (ja) | 空間音声ストリームの結合 | |
CN115580822A (zh) | 空间音频捕获、传输和再现 | |
RU2427978C2 (ru) | Кодирование и декодирование аудио | |
EP2489036B1 (en) | Method, apparatus and computer program for processing multi-channel audio signals | |
JP2023549038A (ja) | パラメータ変換を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム | |
Cheng | Spatial squeezing techniques for low bit-rate multichannel audio coding | |
JP2023548650A (ja) | 帯域幅拡張を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム | |
CN113678199A (zh) | 空间音频参数的重要性的确定及相关联的编码 | |
MX2008010631A (es) | Codificacion y decodificacion de audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170725 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6329629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |