KR20090082340A - 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법 - Google Patents

오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법 Download PDF

Info

Publication number
KR20090082340A
KR20090082340A KR1020097001828A KR20097001828A KR20090082340A KR 20090082340 A KR20090082340 A KR 20090082340A KR 1020097001828 A KR1020097001828 A KR 1020097001828A KR 20097001828 A KR20097001828 A KR 20097001828A KR 20090082340 A KR20090082340 A KR 20090082340A
Authority
KR
South Korea
Prior art keywords
information
signal
signals
channel
downmix
Prior art date
Application number
KR1020097001828A
Other languages
English (en)
Other versions
KR101069268B1 (ko
Inventor
김동수
방희석
임재현
윤성용
이현국
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20090082340A publication Critical patent/KR20090082340A/ko
Application granted granted Critical
Publication of KR101069268B1 publication Critical patent/KR101069268B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0018Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 오브젝트 기반의 오디오 신호를 효율적으로 처리할 수 있도록 부호화 및 복호화하는 오디오 부호화 및 복호화 방법과 그 장치에 관한 것이다. 본 발명에 따른 오디오 복호화 방법은, 상대 오브젝트 에너지 정보와 절대 오브젝트 에너지 정보를 포함하는 적어도 두 개의 에너지 정보를 획득하여, 에너지 정보를 이용하여, 결합된 절대 오브젝트 에너지 정보와 결합된 상대 오브젝트 에너지 정보를 포함하는 결합된 에너지 정보를 생성한다.

Description

오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그 장치{methods and apparatuses for encoding and decoding object-based audio signals}
본 발명은 오브젝트 기반의 오디오 신호를 효율적으로 처리할 수 있도록 부호화 및 복호화하는 오디오 부호화 및 복호화 방법과 그 장치에 관한 것이다.
일반적으로 멀티채널 오디오 부호화 및 복호화에서는, 멀티채널로 구성된 여러 채널 신호들을 원래의 채널 수보다 작은 수의 채널의 신호로 다운믹스(downmix)하고, 추가적인 부가정보를 전송하여, 원래의 채널 수를 갖는 멀티채널 신호를 재생해 낸다.
오브젝트 기반의 오디오 부호화 및 복호화도, 여러 개의 음원들을 이보다 작은 수의 음원 신호로 다운믹스하고, 추가적인 부가정보를 전송하는 것은 멀티채널 오디오 부호화 및 복호화와 유사하다. 그러나, 오브젝트 기반의 오디오 부호화 및 복호화에서는, 오브젝트 신호를 멀티채널 오디오 부호화에서 채널 신호에 해당하는 신호로 간주하여 코딩을 수행한다. 이때, 오브젝트 신호는 하나의 악기 소리라던가, 사람의 목소리 등 코딩의 대상이 되는 신호를 구성하고 있는 기본적인 요소가 될 수 있는 것들을 지칭한다.
즉, 멀티채널 오디오 부호화 및 복호화에서는 코딩하고자 하는 하나의 채널 신호가 몇 개의 요소가 구성하고 있던지, 채널 신호간의 정보만을 가지고 멀티채널 오디오 코딩을 수행하는 반면, 오브젝트 기반의 오디오 부호화 및 복호화에서는 이러한 각각의 오브젝트 신호들을 독립적으로 하나의 코딩의 대상으로 본다는데 그 차이점이 존재한다.
[기술적 과제]
본 발명의 목적은, 다양한 환경에서 적용가능 하도록 효율적으로 오브젝트 신호를 부호화 및 복호화하는 오디오 부호화 및 복호화 방법과 그 장치를 제공하는데 있다.
[기술적 해결방법]
상기 목적을 달성하기 위한 본 발명에 따른 오디오 복호화 방법은, 상대 오브젝트 에너지 정보와 절대 오브젝트 에너지 정보를 포함하는 적어도 두 개의 에너지 정보를 획득하는 단계, 및 상기 에너지 정보를 이용하여, 결합된 절대 오브젝트 에너지 정보와 결합된 상대 오브젝트 에너지 정보를 포함하는 결합된 에너지 정보를 생성하는 단계를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명에 따른 오디오 복호화 방법은, 오브젝트 부호화된 제1 오디오 신호와 제2 오디오 신호를 수신하는 단계, 상기 제1 오디오 신호에 포함된 제1 오브젝트 에너지 정보와, 상기 제2 오디오 신호에 포함된 제2 오브젝트 에너지 정보를 이용하여 제3 오브젝트 에너지 정보를 생성하는 단계, 및 상기 제1 및 제2 오디오 신호가 결합되고, 상기 제3 오브젝트 에너지 정보를 포함하는 제3 오디오 신호를 생성하는 단계를 포함한다.
한편, 본 발명에 따른 오디오 복호화 장치는, 제1 오디오 신호에서 제1 다운믹스 신호와 제1 오브젝트 부가정보를 추출하고, 제2 오디오 신호에서 제2 다운믹스 신호와 제2 오브젝트 부가정보를 추출하는 디멀티플렉서, 및 상기 제1 및 제2 오브젝트 정보가 결합되고, 상기 제1 오브젝트 정보에 포함된 제1 오브젝트 에너지 정보와, 상기 제2 오브젝트 정보에 포함된 제2 오브젝트 에너지 정보를 이용하여 생성한 제3 오브젝트 에너지 정보를 포함하는 제3 오브젝트 정보를 포함하는 제3 오브젝트 정보와, 상기 제1 및 제2 다운믹스 신호를 결합한 제3 다운믹스 신호를 생성하는 멀티포인터 제어부를 포함한다.
그리고, 상기 목적을 달성하기 위하여 본 발명에서는, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
도 1은 일반적인 오브젝트 기반의 오디오 부호화/복호화 장치의 블럭도,
도 2은 본 발명의 제1 실시예에 따른 오디오 복호화 장치의 블럭도,
도 3는 본 발명의 제2 실시예에 따른 오디오 복호화 장치의 블럭도,
도 4는 본 발명의 제3 실시예에 따른 오디오 복호화 장치의 블럭도,
도 5는 본 발명의 제3 실시예에 따른 오디오 복호화 장치에서 사용가능한 ADG 모듈의 블럭도,
도 6은 본 발명의 제4 실시예에 따른 오디오 복호화 장치의 블럭도,
도 7은 본 발명의 제5 실시예에 따른 오디오 복호화 장치의 블럭도,
도 8은 본 발명의 제6 실시예에 따른 오디오 복호화 장치의 블럭도,
도 9는 본 발명의 제7 실시예에 따른 오디오 복호화 장치의 블럭도,
도 10은 본 발명의 제8 실시예에 따른 오디오 복호화 장치의 블럭도,
도 11 및 도 12는 트랜스코더의 동작 설명에 참조되는 도면,
도 13 내지 도 16은 오브젝트 정보를 구성하는 다양한 방법을 설명하기 위해 참조되는 도면,
도 17 내지 도 22은 오브젝트 정보를 결합하는 경우를 설명하기 위해 참조되는 도면,
도 24 내지 도 27은 전처리 과정의 설명에 참조되는 도면, 그리고
도 28 내지 도 33은 다수의 오브젝트 부호화된 비트스트림을 하나의 비트스트림으로 결합하는 경우를 설명하기 위해 참조되는 도면이다.
[발명의 실시를 위한 최선의 형태]
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명에 따른 오디오 부호화 및 복호화 방법은 기본적으로 오브젝트 기반으로 하는 오디오 신호의 처리 과정에 적용되지만, 반드시 이에 국한되는 것은 아니며 본 발명에 따른 조건을 만족하는 다른 신호의 처리 과정에 적용이 가능하다.
도 1은 일반적인 오브젝트 기반의 오디오 부호화 및 복호화 장치에 대한 블럭도이다. 일반적으로 오브젝트 기반의 오디오 부호화 장치에서 입력 신호는 멀티채널 상의 채널과는 무관하며 각각 독립적인 오브젝트 신호에 해당한다. 이러한 점 에서 입력 신호가 멀티채널 상의 각 채널 신호에 해당하는 멀티채널 오디오 부호화 장치와 차이점이 있다. 예컨대, 멀티채널 오디오 부호화 장치에서 입력 신호는 5.1 채널 신호의 프론트 래프트(front left) 신호나 프론트 라이트(front right) 신호 등과 같은 채널 신호가 된다. 이에 반해, 오브젝트 기반의 오디오 부호화 장치에서 입력 신호가 되는 오브젝트 신호는, 보통 채널 신호보다 작은 개체를 지칭하는 것으로서, 사람의 목소리나, 바이올린이나 피아노 등 하나의 악기소리 등이 이에 해당된다.
도 1을 참조하면, 오브젝트 기반의 오디오 부호화 장치에 포함되는 오브젝트 인코더(100)와, 오브젝트 기반의 복호화 장치에 포함되는 오브젝트 디코더(111)와 믹서/랜더러(113)가 도시되어 있다.
오브젝트 인코더(100)는 N 개의 오브젝트 신호를 입력받아, 하나 혹은 그 이상의 채널을 갖는 오브젝트 기반의 다운믹스 신호와, 각 오브젝트 오디오 신호에서 추출한 정보가 포함되는 오브젝트 정보(object information)를 생성한다. 이때, 각 오브젝트 신호들에서 추출한 정보는, 에너지 차(energy difference), 위상 차(phase difference), 코릴레이션(correlataion) 값 등에 기초한 것들이다.
오브젝트 정보에는, 채널에 근거한 오디오 코딩인지 오브젝트에 근거한 오디오 코딩인지를 식별하는 식별자(flag)를 두고, 이 값에 의해서 채널 기반의 복호화를 수행하거나 혹은 오브젝트 기반의 복호화를 수행하도록 구성할 수 있다. 또한, 오브젝트 정보에는, 오브젝트 신호의 에너지 정보, 오브젝트 신호의 그룹핑 정보, 오브젝트 신호에서 무음구간 정보, 다운믹스 게인 정보, 딜레이(delay) 정보 등이 포함될 수 있다.
오브젝트 인코더(100)에서 생성된 오브젝트 정보와 다운믹스 신호는 하나의 비트스트림으로 결합되어 복호화 장치로 전송될 수 있다.
오브젝트 디코더(111)는 오브젝트 기반의 오디오 부호화 장치로부터 전송된 다운믹스 신호와 오브젝트 정보를 사용하여 원래의 오브젝트 신호들과 유사한 성질의 오브젝트 신호들을 재생한다. 이때, 오브젝트 디코더(111)에서 생성되는 오브젝트 신호들은 멀티채널상의 특정 채널에 배치되어 있지 않은 신호들이다. 따라서, 오브젝트 디코더(111)에서 생성된 오브젝트 신호들은 믹서/랜더러(113)로 입력되어, 각 오브젝트 신호들은 제어 정보(control information)에 따라 멀티채널 공간상의 특정 위치에 특정 레벨로 배치되어 재생된다. 각 오브젝트 신호에 대한 제어 정보는 시간에 따라 변환가능하며, 이에 따라 특정 오브젝트 신호의 음상이 시간에 따라 공간상의 위치나 그 레벨이 변할 수 있다.
도 2는 본 발명의 제1 실시예에 따른 오디오 복호화 장치의 블럭도이다. 본 실시예에 따른 오디오 복호화 장치(120)는, 제어 정보의 분석을 통해 적응적 디코딩이 가능하도록 구성된다.
도 2를 참조하면, 본 실시예에 따른 오디오 신호 복호화 장치(120)는, 오브젝트 디코더(121), 믹서/랜더러(123), 및 파라미터 컨버터(125)를 포함한다. 도면에는 도시되어 있지 않으나, 복호화 장치는 디멀티플렉서(demultiplexer) 등을 포함하여 수신한 비트스트림에서 다운믹스 신호와 오브젝트 정보를 추출할 수 있으며, 이하 설명하는 다른 실시 예에 따른 복호화 장치에서도 마찬가지이다.
오브젝트 디코더(121)는 다운믹스 신호와, 파라미터 컨버터(125)에서 전달되는 변환된 오브젝트 정보(modified object information)를 이용하여 오브젝트 신호를 생성한다. 믹서/랜더러(123)는 오브젝트 디코더(121)에서 출력되는 각 오브젝트 신호들을 제어 정보에 따라 멀티채널의 공간상의 특정 위치에 특정 레벨로 배치한다. 파라미터 컨버터(125)는 오브젝트 정보에 제어 정보를 결합시켜 생성한 변환된 오브젝트 정보를 오브젝트 디코더(121)에 전달한다.
이와 같은 구성에 의해, 오브젝트 디코더(121)에서 변환된 오브젝트 정보에 결합된 제어 정보를 분석하여 적응적 복호화가 가능하게 된다.
예컨대, 제어 정보에 의해, 오브젝트1 신호와 오브젝트2 신호가 멀티채널 공간상에서 동일한 위치에 같은 레벨로 설정되는 경우, 일반적인 복호화 장치에서는 오브젝트1 신호와 오브젝트2 신호로 각각 별개로 디코딩한 후, 믹싱/랜더링 과정에서 제어 정보에 맞게 멀티채널 공간상에 배치된다. 그러나, 본 실시예에 따른 오디오 복호화 장치(120)에서 오브젝트 디코더(121)는, 변환된 오브젝트 정보에 결합된 제어 정보 으로부터 오브젝트1 신호와 오브젝트2 신호가 마치 하나의 음원처럼 동일한 레벨로 동일한 위치에 설정되어 있음을 알 수 있다. 이에 따라, 오브젝트 디코더(121)는 오브젝트1 신호와 오브젝트2 신호를 각각 별개로 디코딩하지 않고 하나의 음원처럼 디코딩할 수 있다.
이와 같이 오브젝트1 신호와 오브젝트2 신호를 하나의 음원처럼 복호화하여, 복호화 과정의 복잡성을 줄일 수 있다. 또한, 믹싱/랜더링 과정에서도 처리해야할 음원이 줄어들게 되므로 역시 복잡성을 줄일 수 있다. 이와 같은 오디오 복호화 장 치(120)는, 오브젝트 신호의 수가 최종 출력 채널 수보다 많아, 확률적으로 다수의 오브젝트 신호가 같은 공간상에 배치되는 경우, 효과적으로 사용될 수 있다.
다른 예로써, 오브젝트1 신호와 오브젝트2 신호가 멀티채널 공간상에서 동일한 위치에 배치되지만, 오브젝트1 신호와 오브젝트2 신호의 레벨이 동일하지 않고, 어느 하나가 다른 하나 보다 큰 경우에도 사용될 수 있다. 이 경우에도, 오브젝트1 신호와 오브젝트 2 신호를 따로 디코딩한 후에 믹서/랜더러(123)의 입력으로 넣어주는 대신, 오브젝트1 신호와 오브젝트 2 신호의 레벨이 조정된 상태로 그 둘을 하나의 신호처럼 디코딩하게 된다. 이때, 오브젝트 디코더(121)는 변환된 오브젝트 정보에 결합된 제어 정보로부터, 오브젝트1 신호와 오브젝트2 신호에 대한 에너지 레벨 차이에 정보를 얻을 수 있으므로, 이 정보를 근거로 디코딩 할 수 있다. 이에 따라, 오브젝트1 신호와 오브젝트2 신호는 각각의 레벨이 조정된 상태로 하나의 음원처럼 복호화가 가능하게 된다.
또 다른 예로써, 오브젝트 디코더(121)가 제어 정보에 따라, 각 오브젝트 신호들의 레벨을 조정하도록 할 수 있다. 즉, 오브젝트 디코더(121)에서 제어 정보에 따라, 각 오브젝트 신호들이 레벨이 조정된 상태로 디코딩이 수행되도록 한다. 이 경우 믹서/랜더러(123)에서는 위치와 레벨을 모두 조정하는 대신, 레벨조정 없이 각 오브젝트 신호들의 멀티채널 공간상의 위치에 대해서만 배치작업을 하면 된다. 따라서, 제어 정보에 의한 레벨 조정 단계를 오브젝트 디코더(121)의 디코딩 과정에서 수행하여, 오브젝트 신호에 대하여 추가적인 레벨 조정을 하지 않고 바로 위치 배치가능하므로 복잡성을 줄일 수 있다.
이와 같이 본 실시예에 따른 오디오 복호화 장치(120)는, 제어 정보의 분석을 통해 오브젝트 디코더(121)가 적응적으로 디코딩을 수행할 수 있으므로, 디코딩 과정과 믹싱/랜더링 과정의 복잡성을 줄이는 효과를 얻을 수 있다. 또한, 전술한 여러 예에서 설명한 방법들은 결합시켜 동시에 사용할 수도 있다.
도 3은 본 발명의 제2 실시예에 따른 오디오 신호 복호화 장치의 블럭도이다. 도 3을 참조하면, 본 실시예에 따른 오디오 신호 복호화 장치(130)는, 오브젝트 디코더(131), 및 믹서/랜더러(133)를 포함한다. 본 실시예에 따른 오디오 신호 복호화 장치(130)는, 오브젝트 정보가 오브젝트 디코더(131) 외에 믹서/랜더러(133)에도 전달된다는데 특징이 있다.
이와 같은 구성에 의해, 오브젝트 신호들 중에 무음 구간이 존재하는 경우, 효율적으로 디코딩 작업을 수행할 수 있다. 예를 들어, 오브젝트2 ∼ 4 신호까지는 악기 소리가 연주되고 오브젝트1 신호에 해당하는 음성이 무음구간, 즉 반주 구간이 존재할 수 있다. 또한, 신호의 시간대 별로 특정 오브젝트 신호가 무음 구간인 경우가 존재한다. 이와 같은 경우 각 오브젝트 신호들의 무음 구간에 대한 정보가 오브젝트 정보에 포함되어 전송될 수 있다. 이때, 오브젝트 디코더(131)는 특정 오브젝트 신호가 무음 구간에 해당하는 경우, 그 특정 오브젝트 신호를 디코딩하지 않는 방식을 통해 복호화 과정의 복잡성을 최소화한다.
또한, 믹서/랜더러(133) 쪽에는 무음에 해당하는 오브젝트의 신호는 '0' 값으로 전달된다. 그러나, 이러한 무음신호, 즉 '0'으로 되어있는 신호들에 대해서도 믹서/랜더러(133)는 하나의 신호로 간주하여 믹싱/랜더링 작업을 수행하는 것이 일 반적이다.
그러나, 본 실시예에 따른 오디오 복호화장치(130)는 개개의 오브젝트 신호들의 무음구간에 대한 정보가 담겨있는 오브젝트 정보가 믹서/랜더러(133)에도 전달되어, 특정 오브젝트 신호가 무음 구간인 경우, 그 오브젝트 신호에 대하여 믹싱이나 랜더링 작업이 수행되지 않도록 구성될 수 있다.
도 4는 본 발명의 제3 실시예에 따른 오디오 복호화 장치의 블럭도이다. 본 실시예에 따른 오디오 복호화 장치는, 오브젝트 디코더와 믹서/랜더러 대신 멀티채널 디코더를 사용하여, 각 오브젝트 신호들이멀티채널 공간상에서 배치가 완료되어 디코딩되도록 구성된다.
도 4를 참조하면, 본 실시예에 따른 오디오 복호화 장치(140)는, 멀티채널 디코더(141) 및 파라미터 컨버터(145)를 포함한다. 멀티채널 디코더(141)는 다운믹스 신호와 파라미터 컨버터(145)에서 전달되는 채널기반의 파라미터 정보인 공간 파라미터(spatial parameter)를 이용하여 멀티채널 공간상에 배치가 완료된 멀티채널 신호를 출력한다. 파라미터 컨버터(145)에서는 오브젝트 정보와 제어 정보를 이용하여, 공간 파라미터를 생성한다. 즉, 오브젝트 정보와, playback setup, 믹싱 정보 등이 포함된 제어 정보를 취합하여 이를 토대로 멀티채널 디코더(141)에서 사용가능한 공간 파라미터를 생성한다. 이는 각 OTT(One-To-Two) 박스 혹은 TTT(Two-To-Three) 박스에 해당하는 공간 데이터로의 변환을 의미한다.
이와 같은 구성에 의해, 오브젝트 기반의 디코딩 및 믹싱/랜더링 과정은 멀티채널 디코딩 과정으로 완료되며, 중간 단계로서 각각의 오브젝트 신호를 생성하 는 과정이 생략되어, 복잡성을 줄이는 효과를 얻게 된다.
예를 들어, 10개의 오브젝트 신호가 있고, 최종 재생 채널은 5.1채널 스피커 재생 시스템인 경우, 일반적인 오브젝트 기반 오디오 복호화 장치에서는, 다운 믹스 신호와 오브젝트 정보를 사용하여 10개의 오브젝트 각각에 대하여 디코딩된 신호를 생성한다. 그리고, 10개의 오브젝트 신호와 믹싱/랜더링 정보를 사용하여 믹서/랜더러에서는 5.1채널 스피커 환경에 맞도록 각 오브젝트 신호를 멀티채널상의 특정 위치에 배치하여 최종적으로 5.1채널 신호를 생성한다. 이와 같이 최종 5.1채널 신호를 위하여 중간 단계에서 10개의 오브젝트 신호 각각을 생성해야 한다는 점에서 비효율적이며, 이러한 점은 최종 재생 채널 수와 오브젝트 신호의 수에 대한 차이가 클수록 더욱 비효율적이다.
그러나, 본 실시예에 따른 오디오 복호화 장치(140)를 사용하여 디코딩하는 경우, 오브젝트 정보와 제어 정보를 사용하여 5.1 채널 출력 구성에 맞는 공간 파라미터를 생성한다. 그리고, 공간 파라미터와 다운믹스 신호를 멀티채널 디코더(141)에 입력하여 5.1채널 신호를 출력한다. 즉, 최종 출력 채널이 5.1채널인 경우 중간 단계로 10개의 신호를 생성해 내는 과정 없이 바로 다운믹스 신호에서 5.1채널 신호를 생성해 내는 구조이므로 일반적인 방법에 비해 효율적이다.
따라서, 본 실시예에 따른 오디오 신호 복호화 장치(140)는 인코더에서 전송된 오브젝트 정보와 제어 정보의 분석을 통해 각 OTT, TTT박스의 공간 파라미터를 계산해 내는 데 필요한 계산량이, 모든 오브젝트 신호 각각을 디코딩 한 후 믹서/랜더러를 거치는 데 필요한 계산량보다 적을때 효율적이다.
또한, 본 실시예에 따른 오디오 신호 복호화 장치(140)는 오브젝트 정보와 제어 정보의 분석을 통해, 멀티채널 디코더에서 사용되는 공간 파라미터를 만들어내는 모듈만 추가하면 기존의 멀티채널 디코더를 그대로 사용하여, 오브젝트 기반의 오디오 복호화 장치를 구현할 수 있으며, 기존의 멀티채널 디코더와 호환성을 유지할 수 있는 장점이 있다. 또한, 일반적인 멀티채널 디코더 등에 있는 envelop shaping, STP(Sub-band Temporal Processing) tool, 디코릴레이터(decorrelator) 등의 기존 틀을 변형없이 사용하여 음질을 향상시킬 수 있다. 이러한 점들은 기존의 멀티채널 디코딩이 갖고 있는 장점들을 모두 오브젝트 복호화 과정에서도 사용가능 하다는 점을 내포하고 있다.
그리고, 파라미터 컨버터(145)에서 출력되어 멀티채널 디코더(141)로 전송되는 공간 파라미터는 데이터가 최대한도로 압축되어 전송에 적합한 형태일 수도 있고, 일반적인 멀티채널 인코더에서 전송되는 형태, 즉 호프만 디코딩(Huffman decoding), 파일롯(Pilot) 디코딩 등의 과정을 거쳐 실제 멀티채널 디코더의 각 모듈에 입력될 압축되지 않은 공간 파라미터의 형태로 출력될 수도 있다. 전자의 경우처럼 출력되는 경우 해당 공간 파라미터를 원격지에 있는 다른 멀티채널 디코더로 정보를 전송하는 데 유리하다. 후자의 경우 멀티채널 디코더에서 압축된 공간 파라미터를 실제 디코딩 작업에 사용될 실제 공간 파라미터로 다시 바꾸지 않아도 되는 장점이 있다.
한편, 오브젝트 정보와 제어 정보의 분석을 통해 공간 파라미터를 구성하는데 있어 딜레이(delay)가 발생할 수 있다. 이 경우 다운믹스 신호와 딜레이를 맞추 어 주는 과정이 필요하다. 이를 위해, 다운믹스 신호에 추가적인 버퍼(buffer)를 두어 다운믹스 신호와 비트스트림 간의 딜레이를 맞춰주는 방법과, 오브젝트 정보와 제어 정보로부터 얻어진 공간 파라미터에 추가적인 버퍼를 두어 딜레이를 맞춰주는 방법이 있다. 그러나, 이러한 방법은 추가적인 버퍼를 두어야 하는 단점이 있다. 이러한 점을 고려하여 오브젝트 정보 자체를 딜레이를 고려하여 다운믹스 신호보다 더 빠르게 보내는 방법도 가능하다. 이 경우 제어 정보와 결합하여 만들어진 공간 파라미터는 추가적인 딜레이를 보정할 필요 없이 적용 가능하다.
또한, 각 오브젝트 신호가 상대적 레벨(level)의 차이를 나타내는 경우, 제어 정보에 의해 주어지는 각 오브젝트 신호들의 상대적 크기는 다운믹스 신호를 직접 보정하는 ADG(Arbitrary Downmix Gains)에 의하여 수행하고, 오브젝트 신호들의 공간상의 특정 위치에 할당하는 것에 대해서는 CLD(Channel Level Difference), ICC(Inter Channel Correlation), CPC(Channel Prediction Coefficient) 등의 공간 파라미터에 의하여 수행하는 것이 가능하다.
예를 들어, 오브젝트 1 신호가 제어 정보에 의해 공간상의 특정한 위치에 배치됨과 동시에 다른 오브젝트 신호에 비하여 상대적으로 레벨이 커진 상태로 배치되어 경우, 일반적으로 멀티채널 기반의 디코더는 전송된 공간 파라미터를 이용하여 다운믹스 신호의 파라미터 밴드별 상대적 에너지 차이를 구한 후, 이를 바탕으로 전송된 다운믹스 신호를 출력 채널별로 나누는 방식을 사용하고 있다. 이러한 멀티채널 디코더의 경우 어떤 특정한 악기나 특정한 소리가 다운믹스 신호 자체에서 다른 신호들에 비해 상대적으로 작은 레벨 혹은 큰 레벨로 포함되어 있는 경우, 이를 최종 멀티채널 출력에서 해당 특정 신호의 크기만 키우거나 줄일 수 있는 방법이 없다. 즉, 멀티채널 디코더는 기본적인 개념 자체가 전송된 다운믹스 신호를 출력 채널에 각각 나누어 분배하는 형식이기 때문에 다운믹스 신호 자체에 작은 소리로 포함되어 있는 신호를 출력 신호에서 상대적으로 소리를 키우거나, 다운믹스 신호 자체에 큰 소리로 포함되어 있는 신호를 출력 신호에서 상대적으로 소리를 줄이는 역할을 수행하는 것이 어렵다.
따라서, 오브젝트 인코더에서 만들어진 다운믹스 신호를 사용하여, 제어 정보에서 요구하는 각 오브젝트 신호들의 공간상의 특정한 위치에 할당하는 것은 수월하지만, 특정 오브젝트 신호의 크기를 줄이거나 키우는 경우는 좀 더 특별한 방법이 필요하다. 즉, 오브젝트 인코더에서 만들어진 다운믹스 신호를 그대로 사용할 경우, 다운믹스 신호 내에 포함되어 있는 특정 오브젝트 신호의 소리를 줄이는 것이 어렵기 때문이다.
따라서, 본 실시예에서는 이러한 경우에 있어 제어 정보에 의한 오브젝트 신호들의 상대적 크기 변화를 적용하는 방법으로, 도 5에 도시한 바와 같이, ADG 모듈(147)을 사용할 수 있다. 이러한 ADG 모듈(147)은 멀티채널 디코더(141)내에 설치되거나, 멀티채널 디코더(141)와는 별도로 설치될 수도 있다.
ADG 모듈(147)을 사용할 경우 오브젝트 인코더에서 전송된 다운믹스 신호에서 특정 오브젝트 신호의 상대적 크기를 줄이거나 키우는 것이 가능하며, ADG 모듈(147)에 의하여 변환된 다운믹스 신호를 통해 멀티채널 디코딩을 거치는 것이 가능하다.
ADG 모듈(147)을 사용하여 다운믹스 신호를 변화시켜 오브젝트 신호들의 상대적 크기를 조절하는 방법을 사용할 경우, 오브젝트 디코딩을 기존의 멀티채널 디코더를 사용하여 수행할 수 있다는 장점이 있다. 오브젝트 인코더에서 만들어진 다운믹스 신호가 모노, 스테레오, 또는 3채널 이상의 신호일 경우에도 ADG 모듈(147)을 적용하는 것이 가능하며, 다운믹스 신호가 2채널 이상인 경우 크기를 조정하고자 하는 오브젝트 신호가 다운믹스의 특정 채널에만 존재할 경우 ADG 모듈(147)을 특정 다운믹스 채널에만 적용하는 것도 가능하다. 이 모든 경우 기존의 멀티채널 디코더의 구성을 바꾸지 않고 적용 가능하다.
또한, 최종 출력이 멀티채널 스피커(speaker) 재생이 아닌 바이노럴(binaural) 재생일 경우에도 동일하게 적용이 가능하여, 이 경우에도 오브젝트 신호간의 상대적 크기 변화는 ADG 모듈(147)을 사용하여 조절 가능하다.
이외에도, ADG 모듈(147)을 사용하여 오브젝트 신호들의 상대적 크기를 수정하는 방법을 사용하지 않고, 각 파라미터 값들을 통해 신호를 만들어내는 과정에서 오브젝트 신호간의 상대적 크기를 적용할 게인(gain) 값을 적용시키는 것도 가능하다. 이 경우 기존의 멀티채널 디코더에서 이러한 게인 값을 추가시키기 위한 약간의 변형이 필요하다. 그러나, 기존의 멀티채널 디코더의 수정이 필요하다는 점을 제외하면 ADG를 계산하고, 보정하는 방법을 사용하지 않고 디코딩 과정 중에 게인 값을 추가하는 과정으로 크기를 조정할 수 있어 상대적으로 복잡성이 줄어들 수 있는 장점이 있다.
이와 같이, ADG 모듈(147)의 적용은 단순히 오브젝트 신호들의 레벨 조정뿐 아니라 특정 오브젝트 신호의 스펙트럼 정보의 변형이 가능한 경우 이에 대한 적용틀로도 사용될 수 있다. 즉, 특정 오브젝트 신호의 레벨을 줄이거나 키우는 경우에 ADG 모듈(147)이 사용되는 것과 더불어 특정 오브젝트 신호의 스펙트럼 정보의 변형, 즉 특정 오브젝트의 저음부를 키운다거나 고음부를 키운다거나 하는 식의 스펙트럼 정보의 변형도 ADG 모듈(147)을 통해 수행할 수 있다. 물론 이러한 스펙트럼 정보의 변형은 기존 멀티채널 디코더에서 ADG 모듈(147)을 사용하지 않고는 불가능한 과정이다.
도 6은 본 발명의 제4 실시예에 따른 오디오 복호화 장치의 블럭도이다. 본 실시예에 따른 복호화 장치는 전술한 실시예의 연장선으로 바이노럴 출력의 경우를 추가한 점에 특징이 있다.
도 6을 참조하면, 본 실시예에 따른 오디오 신호 복호화 장치(150)는, 멀티채널 바이노럴 디코더(151), 제1 파라미터 컨버터(157), 및 제2 파라미터 컨버터(159)를 포함한다.
제2 파라미터 컨버터(159)는 인코더에서 만들어진 오브젝트 정보와 제어 정보를 분석하여 공간 파라미터를 생성한다. 제1 파라미터 컨버터(157)는 공간 파라미터에 다시 HRTF 파라미터 등과 같은 3D 정보를 추가하여, virtual 3D 파라미터를 생성한다. 멀티채널 바이노럴 디코더(151)는 다운믹스 신호에 virtual 3D 파라미터를 적용하여 바이노럴 신호를 생성한다.
이때, 제1 파라미터 컨버터(147)와 제2 파라미터 컨버터(149)를 결합하여, 오브젝트 정보와 제어 정보, 3D 정보를 입력받아 바이노럴 파라미터를 생성하는 통 합된 파라미터 컨버터(155)로 대치될 수 있다.
만일, 일반적인 방법에 의해, 10개의 오브젝트 신호가 포함된 다운믹스 신호를 헤드폰 재생 등을 위한 바이노럴 신호를 구현하기 위해서는, 먼저 오브젝트 디코더에서 다운믹스 신호와 오브젝트 정보로부터 10개의 오브젝트 신호 각각에 대하여 디코딩된 신호를 생성한다. 생성한 신호들과 함께 제어 정보를 토대로 하여 믹서/랜더러에서는 5채널 스피커 환경에 맞도록 각 오브젝트 신호를 멀티채널상의 특정 위치에 배치하여 5채널 스피커를 통해 재생될 5채널 신호를 만든다. 그리고, 이 신호에 대하여 각 채널별 3D 정보 등을 적용하여 최종적으로 2채널 출력을 만들어 내게 된다. 이는 최종 2채널 신호를 만들기 위하여 10개의 오브젝트 신호를 재생해 내고 이를 다시 5채널 신호로 변환한 후에 최종 2 채널 신호를 만들어낸다는 점에서 비효율적이다.
이에 대해, 본 실시예에 따른 복호화 장치(150)는 오브젝트 신호로부터 헤드폰 재생 등을 위한 바이노럴 신호를 바로 생성할 수 있다. 또한, 본 실시예에 따른 복호화 장치(150)는, 오브젝트 정보와 제어 정보를 분석하여 공간 파라미터를 생성하여, 바이노럴 출력의 경우에도 기존의 멀티채널 바이노럴 디코더를 그대로 사용할 수 있는 장점이 있다. 그리고, 오브젝트 정보와 제어 정보, HRTF 파라미터를 입력으로 받아 바이노럴 파라미터를 구성하는 통합된 파라미터 컨버터를 사용할 경우 복잡성을 추가적으로 줄일 수 있는 장점이 있다. 이 경우에도 멀티채널 바이노럴 디코더를 재사용할 수 있는 장점은 여전히 유효하다.
도 7은 본 발명의 제5 실시예에 따른 오디오 복호화 장치의 블럭도이다. 도 7을 참조하면, 본 실시예에 따른 오디오 복호화 장치(160)는 전처리부(161), 멀티채널 디코더(163), 및 파라미터 컨버터(165)를 포함한다.
파라미터 컨버터(165)는 멀티채널 디코더(163)에서 사용되는 공간 파라미터와 전처리부(161)에서 사용되는 파라미터를 생성한다. 전처리부(161)는 다운믹스 신호에 대한 전처리 과정을 수행하고, 전처리 과정이 수행된 신호가 멀티채널 디코더(163)에 전달되어 디코딩 과정을 거친다. 멀티채널 디코더(163)에서 출력되는 신호는 스테레오, 바이노럴 스테레오, 멀티채널 신호를 포함한다. 전처리부(161)에서 수행되는 전처리 과정으로는, 필터링 등을 이용한 다운믹스 신호의 시간 혹은 주파수 도메인에서의 수정이나 변환 등을 포함할 수 있다.
또한, 오디오 복호화 장치(160)로 입력되는 다운믹스 신호가 스테레오 신호일 경우, 이 다운믹스 신호는 멀티채널 디코더(163)의 입력으로 들어가기 전에 전처리부(161)에서 다운믹스 전처리(pre-processing) 과정을 거쳐야 한다. 왜냐하면, 멀티채널 디코더(163)는 스테레오 다운믹스 신호를 받아 멀티채널 신호를 디코딩 하는 과정에서 다운믹스 신호의 좌 채널에 위치한 신호를 멀티채널의 오른쪽 부분 채널에 맵핑할 수 없기 때문이다. 따라서, 스테레오 다운믹스 중 좌 채널에 속해있는 오브젝트 신호의 위치를 우 방향으로 변경시키고자 할 경우, 스테레오 다운믹스 채널에 대해 전처리 과정을 거쳐 멀티채널 디코더(163)로 입력시켜야 한다.
이러한 스테레오 다운믹스 신호의 전처리 과정은, 오브젝트 정보와 제어 정보로부터 전처리에 대한 정보를 구한 후, 이 정보를 이용하여 스테레오 다운믹스 신호에 대하여 전처리 과정을 수행할 수 있다.
도 8은 본 발명의 제6 실시예에 따른 오디오 복호화 장치의 블럭도이다. 도 8을 참조하면, 본 실시예에 따른 오디오 복호화 장치(170)는, 멀티채널 디코더(171), 후처리부(173), 및 파라미터 컨버터(175)를 포함한다.
파라미터 컨버터(175)는 멀티채널 디코더(171)에서 사용되는 공간 파라미터와 후처리부(173)에서 사용되는 파라미터를 생성한다. 후처리부(173)는 멀티채널 디코더(171)의 출력신호에 대하여 후처리 과정을 수행한다. 멀티채널 디코더(173)에서 출력되는 신호는 스테레오, 바이노럴 스테레오, 멀티채널 신호를 포함한다.
후처리부(173)에서 수행되는 후처리 과정으로는, 필터링 등을 이용하여 출력신호의 채널별 혹은 모든 채널에 대해서 수정 및 변환을 하는 것 등을 포함한다. 후처리부(173)의 특정한 예로써, 오브젝트 정보 내에 특정 오브젝트 신호의 기본주파수 값 등을 표시하고, 이를 이용하여 후처리 과정에서 기본주파수의 배음 성분만 지우는 것을 들 수 있다. 멀티채널 복호화 방법만으로는 카라오케 시스템으로 사용하기에 성능이 부족할 수 있지만, 보컬(vocal) 오브젝트 신호에 대해 기본 주파수 정보를 포함하고 이의 배음 성분을 후처리 과정에서 지울 경우 높은 성능의 카라오케 시스템 구현이 가능하다. 이 기술을 음성 이외에도 특정 오브젝트 신호에 적용할 경우 특정 악기만 지우는 것이 가능하다. 또한, 오브젝트 신호의 기본주파수 정보를 이용하여 특정 배음 성분만 증폭할 수 있다. 이와 같이, 후처리 파라미터는 멀티채널 디코더에서 적용이 불가능한 오브젝트 신호의 잔향효과 삽입, 노이즈 추가, 저음부 보강 등의 여러 이펙트(effect) 적용이 가능하다.
그리고, 후처리부(173)는 다운믹스 신호에 추가적인 이펙트(effect) 처리를 하거나, 다운믹스 신호에 이펙트 처리한 신호를 멀티채널 디코더(171)의 출력 신호와 더하는 작업을 할 수 있다. 특정 오브젝트 신호의 스펙트럼을 변경하거나, 다운믹스 신호 전체에 변형을 가할 필요가 있을 경우, 후처리부(173)는 해당 작업을 다운믹스 신호 자체에 가한다. 잔향 등과 같이 다운믹스 신호에 직접 처리하여 처리된 신호를 멀티채널 디코더(171)로 전송하는 것이 적절치 않을 경우, 이와 같은 처리를 멀티채널 디코더(171)로 전달되는 다운믹스 신호에 적용하지 않고, 처리된 신호를 멀티채널 디코더(171)의 출력에 더하는 방식으로 처리할 수도 있다.
도 9는 본 발명의 제7 실시예에 따른 오디오 복호화 장치의 블럭도이다. 도 9를 참조하면, 본 실시예에 따른 오디오 복호화 장치(180)는, 전처리부(181), 멀티채널 디코더(183), 후처리부(185), 및 파라미터 컨버터(187)를 포함한다. 즉, 본 실시예에 따른 오디오 복호화 장치(180)는, 멀티채널 디코더(183) 앞단에 전처리부(181)를 두고, 멀티채널 디코더(183)의 뒷단에 후처리부(185)가 위치하도록 구성된다.
전처리부(181)의 경우, 도 7에서 설명한 바와 동일하게 적용될 수 있다. 또한, 후처리부(185)를 후처리 과정이 적용된 후 대응하는 이펙트가 적용된 신호를 멀티채널 디코더(185)의 출력에 더하여 최종 신호를 얻어내는데 사용할 수도 있다. 이 경우 후처리부(185)는 신호들을 더하는 역할만 하게 된다. 또한, 이펙트 적용이 어느 쪽에서 수행되는 가에 따라 이펙트 파라미터는 전처리부(181)와 후처리부(185) 중 해당 과정이 수행되는 곳으로 전달된다. 또한, 다운믹스 신호에 이펙트 효과를 수행하여 멀티채널 디코더(183)의 출력에 더하는 이펙트와, 멀티채널 디코 더(185)의 출력 신호에 이펙트 효과를 수행하는 두 과정이 동시에 적용될 수도 있다.
한편, 도 7 및 도 9에서 제안된 전처리부는 다운믹스 신호에 대하여 사용자의 제어 정보에 따라 랜더링을 하는 역할을 수행할 수 있다. 또한, 전처리부가 단순한 오브젝트 신호들의 방향 정보에 따른 랜더링의 역할뿐 아니라 오브젝트 신호들의 레벨을 키우거나 줄이는 과정, 오브젝트 신호들의 스펙트럼에 변형을 가할 수 있는 역할도 수행 가능하다. 이 경우, 전술한 ADG 모듈로 가능한 처리들을 전처리부에서 수행하는 것도 가능하다.
이와 같은 경우, 전처리부에서는 오브젝트 신호들의 방향 정보에 따른 랜더링 과정과, 오브젝트 신호들의 레벨 조정, 오브젝트 신호의 스펙트럼 정보 변형 등의 과정을 동시에 수행할 수 있다. 또한 이 과정들은 적절히 나누어져 일부는 전처리부에서 수행하고 일부는 ADG 모듈을 이용하여 수행할 수도 있다. 예를 들어, 오브젝트 신호의 스펙트럼 변형의 경우 ADG 모듈에서 사용되는 양자화 레벨(quantization level) 간격 및 파라미터 밴드 간격을 이용하여 수행하는 것이 적절치 않을 수 있다. 이 경우 오브젝트 신호의 스펙트럼 수정은 전처리 과정에서 주파수별로 세밀한 스펙트럼 변형을 수행하고, ADG 모듈로는 각 오브젝트 신호들의 레벨조정을 수행할 수 있다.
도 10은 본 발명의 제8 실시예에 따른 오디오 복호화 장치의 블럭도이다. 도 10을 참조하면, 본 실시예에 따른 오디오 복호화 장치(200)는, 랜더링 매트릭스 생성부(201), 트랜스코더(203), 멀티채널 디코더(205), 전처리부(207), 이펙트 프로 세서(208), 및 가산기(209)를 포함한다.
랜더링 매트릭스 생성부(201)는 오브젝트 신호들의 공간상에서의 위치에 대한 정보와, 오브젝트 신호들의 레벨 크기들에 관한 playback 정보 등을 표현하는 랜더링 매트릭스를 생성하여 트랜스코더(203)에 전달한다. 또한, 랜더링 매트릭스 생성부(201)는 오브젝트 신호의 공간상에서의 위치에 대한 정보에 따라 적절한 HRTF 계수 등과 같은 3D 정보를 생성하여 전달한다. 이때, HRTF는 임의의 위치를 갖는 음원에서 나오는 음파와 귀의 고막에 도달하는 음파 사이의 전달 함수(transfer function)를 의미하며, 상기 음원의 방위와 고도에 따라 그 값을 달리한다. 방향성이 없는 신호를 특정 방향의 HRTF로 필터링하면, 사람이 들었을 때 마치 상기 특정 방향에서 소리가 들리는 것처럼 느끼게 된다.
랜더링 매트릭스 생성부(201)가 입력으로 받는 오브젝트 위치와 playback 구성 정보는 최종 사용자가 임의의 조합으로 입력하며, 시변 가능한 정보들이다.
트랜스코더(203)는 오브젝트 기반의 오브젝트 정보와 랜더링 매트릭스 정보, 3D 정보 등을 이용하여 채널기반의 부가정보(channel-based side information)를 생성하여 멀티채널 디코더(209)에 전달하고, 멀티채널 디코더(209)에서 사용할 3D 정보를 전달한다. 즉, 트랜스코더(203)는 N개 오브젝트 신호들에 대한 오브젝트 기반 파라미터 정보에서 변환된 M개 채널에 대한 채널 기반의 부가정보와, 각 오브젝트 신호들에 적용된 3D 정보를 분리해서 멀티채널 디코더(205)로 전송한다.
멀티채널 디코더(205)는 다운믹스 신호와 트랜스코더(203)에서 출력되는 채널기반의 부가정보를 이용하여 멀티채널 오디오 신호를 생성하고, 3D 정보를 이용 하여 3D 랜더링을 수행하여, 3D 기반의 멀티채널 신호를 출력할 수 있다. 또한, 도면에는 도시되어 있지 않으나, 랜더링 매트릭스 생성부(201)내에 3D 정보 데이터베이스가 구비될 수 있다.
트랜스코더(203)는 다운믹스 신호를 멀티채널 디코더(205)에 입력하기전 전처리 작업이 필요할 경우 이에 대한 정보를 전처리부(207)로 전달한다. 트랜스코더(203)에서 입력받는 오브젝트 정보에는 각 오브젝트 신호들에 대한 정보가 들어있으며, 랜더링 매트릭스에는 각 오브젝트 신호들의 공간상의 위치 및 레벨 정보가 포함되어 있다. 트랜스코더(203)는 이 두 정보를 이용하면 각 오브젝트 신호들이 최종적으로 믹싱되어 재생될 채널들에 대한 정보를 얻어낼 수 있고, 이렇게 믹싱되어 재생되기 위하여 멀티채널 디코더(205)로 전송되어야 하는 채널 기반의 부가정보를 산출하여 멀티채널 디코더(205)로 전송한다.
트랜스코더(205)에서 출력되는 채널 기반의 부가정보와 3D 정보는 각각 프레임 인덱스(frame index)를 포함할 수 있다. 이에 따라, 멀티채널 디코더(205)에서는 프레임 인덱스를 사용하여, 채널 기반의 부가정보와 3D 정보를 동기시켜, 비트스트림의 특정 프레임에 3D 정보를 적용할 수 있다. 이와 같이 프레임 인덱스를 사용하여, 3D 정보가 시간이 지남에 따라 갱신될 경우, 채널 기반의 부가정보에서 시간상의 어느 위치에 적용될 것인가를 결정할 수 있다. 즉, 멀티채널 디코더(205)에서 채널 기반의 부가정보와 갱신되는 3D 정보를 시간 동기화하기 위해서, 트랜스코더(203)에서 채널기반의 부가정보와 3D 정보에 프레임 인덱스를 포함시킨다.
전처리부(207)는 전달받은 다운믹스 신호를 멀티채널 디코더(205)에 입력하 기 전에 필요한 작업이 있을 경우 이에 대한 작업을 수행한다. 이는 전술한 바와 같이 스테레오 다운믹스 신호의 경우 좌 채널에 속한 오브젝트 신호를 우 채널에서 재생하고자 할 경우 등에 있어 해당 작업이 멀티채널 디코더(205)에서 수행이 불가능하므로, 다운믹스 신호에 대하여 해당 오브젝트 신호의 위치 변환작업등을 수행하게 된다. 이러한 작업에 대한 정보는 트랜스코더(205)로부터 받게 된다. 해당 작업을 거친 다운믹스 신호는 멀티채널 디코더(205)로 전달된다.
이펙트 프로세서(208)와 가산기(209)는, 다운믹스 신호에 추가적인 이펙트 처리를 하거나, 다운믹스 신호에 이펙트 처리한 신호를 멀티채널 디코더(205) 출력신호와 더하는 작업을 수행할 수 있다. 이펙트 프로세서(208)는 특정 오브젝트 신호의 스펙트럼을 변경하거나, 다운믹스 신호 전체에 변형을 가할 필요가 있을 경우, 해당 작업을 다운믹스 신호 자체에 가할 수 있다. 또한, 잔향 등과 같이 다운믹스 신호에 직접 처리하여 처리된 다운믹스 신호를 멀티채널 디코더(205)로 전송하는 것이 적절치 않을 경우, 해당 처리를 멀티채널 디코더(205)로 전달되는 다운믹스 신호에 적용하지 않고, 처리된 신호를 멀티채널 디코더(205)의 출력에 더하는 방식으로 처리할 수 있다.
이와 같은 구성에서, 랜더링 매트릭스 생성부(201)에서 생성하는 랜더링 매트릭스에 대하여 보다 상세히 설명하면 다음과 같다.
랜더링 매트릭스는 오브젝트 신호의 위치와 playback 구성에 대한 정보를 표현하는 매트릭스이다. 즉, 오브젝트 신호의 개수가 N개이고, 최종 재생 채널의 개수가 M개인 경우, 랜더링 매트릭스는 N개의 오브젝트 신호가 M개의 채널에 어떻게 맵핑될 것인지에 대한 정보를 포함한다. 이러한 정보를 다음과 같이 다양한 방법으로 랜더링 매트릭스로 표현할 수 있다.
첫번째 방법은, N개의 오브젝트 신호를 M개의 채널에 맵핑하는 경우, N*M 매트릭스로 표현하는 것이다. 이 경우, N행은 각각의 오브젝트 신호에 해당하며 M열은 각 채널에 해당한다. 특정 오브젝트 신호에 해당하는 행의 M열에는 해당 오브젝트 신호가 각 채널에 할당되는 비율을 표기한다. 이때, 비율을 표기하는 방법은 실수로 표현할 수 있고 정수로 표현할 수도 있다.
오브젝트 신호가 각 채널에 할당되는 비율을 실수로 표현할 경우, 특정 행의 M열의 값을 모두 더한 값이 1인 경우 오브젝트 신호의 레벨 변화는 없는 것으로 간주한다. 또한, 이 값이 1보다 작은 경우 해당 오브젝트 신호의 레벨을 줄인 경우이고, 1보다 큰 경우에는 레벨을 키운 경우로 간주한다. 물론 레벨 변화가 없는 경우에 해당하는 기준값 1은 다른 값으로 대표될 수도 있다. 레벨 변화의 범위는 ±12dB 등과 같은 값으로 그 범위가 한정 될 수 있다. 예를 들어, 레벨 변화가 없는 경우의 기준값을 1로 한 경우 1.5는 +12dB에 해당하고, 0.5는 -12dB에 해당하는 것으로 표현하고, 0.5와 1.5 사이의 값은 -12dB와 +12dB사이의 값으로 선형적으로 대응시키는 것이 가능하다.
오브젝트 신호가 각 채널에 할당되는 비율을 정수로 표현할 경우, 오브젝트 신호의 레벨이 변하지 않은 경우, 해당 오브젝트 신호에 해당하는 행의 M열을 모두 더한 값을 10 또는 20, 30 혹은 100등의 정해진 값으로 정의하게 된다. M열의 합이 정해진 값보다 작은 경우 해당 오브젝트 신호의 레벨을 줄인 것에 해당하며, 합이 정해진 값보다 큰 경우 오브젝트 신호의 레벨을 키운 것에 해당한다. 이 경우에도 레벨 변화의 범위는 ±12dB 등과 같은 값으로 그 범위가 한정 될 수 있다. 또한, 이 경우 해당 레벨 변화 범위 안에서 표시할 수 있는 레벨 변화의 차이 간격이 정해질 수 있다. 예를 들어, 숫자 1의 증감을 2dB의 변화라 표현할 수 있다. 오브젝트 신호의 레벨이 변하지 않은 경우, 해당 오브젝트 신호에 해당하는 행의 M열을 모두 더한 값이 20인 경우를 예로 들어 설명하면 23은 +6dB를 표현하고, 15는 -10dB를 표현하는 것이 가능하다.
랜더링 매트릭스를 N*M 매트릭스로 표현하는 경우, 오브젝트 신호가 6개이고, 재생 채널이 5채널인 경우의 예를 들면, 이때 표현되는 랜더링 매트릭스는 6*5 행렬로 표현이 된다. 각 채널에 할당되는 오브젝트 신호의 비율을 정수로 표현하고, 오브젝트 신호의 레벨 변화가 없는 경우의 합이 10인 경우와 이 값의 1의 증감이 2dB 증감을 나타내는 경우, 임의의 랜더링 매트릭스를 표현하면 다음의 식과 같이 표현 할 수 있다. 이때 채널을 표현하는 5열의 순서는 차례대로 Lf, Rf, C,Ls, Rs라 가정한다.
Figure 112009005573339-PCT00001
[수학식 1]과 같이 표현되는 랜더링 매트릭스를 보면, 오브젝트1 신호에 해 당하는 1행의 5열의 값 (3,1,2,2,2)는 오브젝트1 신호가 5채널 상에 어떤 비율로 분배되었는지를 표현한다. 이 5열중 첫번째 열이 3으로 가장 크고, 5열의 합이 10인 것에서 오브젝트 1 신호는 Lf쪽 방향으로 위치가 정해졌으며 전체적인 오브젝트 신호의 레벨에는 변화가 없음을 알 수 있다. 마찬가지로 오브젝트2 신호에 해당하는 값인, (2,4,3,1,2)를 보면 가장 큰 값이 Rf에 위치하여 오브젝트2 신호의 방향이 Rf쪽으로 위치하였음을 알 수 있고, 5열의 합이 12로 오브젝트2 신호의 레벨이 원래보다 4dB 커졌음을 알 수 있다. 같은 방식으로 오브젝트3 신호의 경우, 해당하는 값이 (0,0,12,0,0)으로, C에만 성분이 존재하고 전체적으로 4dB 커졌음을 알 수 있다. 오브젝트5 신호의 경우, (2,2,2,2,2)로 전 채널에 골고루 분포하고, 레벨의 크기에는 변화가 없음을 알 수 있다.
랜더링 매트릭스로 표현하는 두 번째 방법은, 전술한 바와 같이, 오브젝트 신호의 레벨 변화 유무는 오브젝트 신호에 해당하는 행에 있는 모든 열의 값을 합한 값으로부터 구할 수 있는데, 이러한 구조를 약간 변경하여, 앞서 N*M 매트릭스로 표현되던 것에 1열을 추가하여, N*(M+1) 매트릭스로 표현하는 것이다. 이때 각 행의 처음 M열은 M채널에 오브젝트 신호가 어떻게 분포되는지를 첫번째 방법과 거의 유사한 방법으로 표현한다. M+1에 오브젝트 신호의 레벨을 표현하는 방식은 첫번째 방법에서 M열의 합의 값으로 표현하는 방법과 동일한 방법으로 표현이 가능하다.
이와 같이, 오브젝트 신호의 채널상의 분포와 레벨 변화를 동시에 표시하는 경우와 달리 오브젝트 신호의 채널상의 분포와 레벨변화를 따로 표시하는 경우, 추 후 오브젝트 신호의 레벨 변화만을 계산할 필요가 있을 경우 추가적인 계산 없이 레벨 변화 정보를 얻어낼 수 있다. 또한, 이러한 두 번째 방법은, 첫번째 방법과는 표현하는 방식이 다를 뿐 표현의 내용에는 차이가 없으므로, 첫번째 방법으로 표현된 랜더링 매트릭스를 이와 같은 형식으로 변환 하거나 그 반대의 변환이 가능하며 이러한 변형을 위해 추가적으로 필요한 정보는 없다.
랜더링 매트릭스로 표현하는 세번째 방법은, N개의 오브젝트 신호를 M개의 채널에 맵핑하는 경우, N*2 매트릭스로 표현하는 것이다. 이 경우 첫번째 열은 오브젝트 신호가 공간상에 위치하는 곳의 위치에 대한 각도를 표시하고, 두번째 열은 오브젝트 신호의 레벨 변화를 표시할 수 있다. 각도 표시의 경우 프론트(front)를 0도로 가정하고, 시계 반대 방향으로 오브젝트 위치의 각도를 표현할 수 있다. 각도 표시는 0 ∼ 360도 사이의 값으로 표시할 수 있다. 이때 각도 표현 간격은 1도 간격 혹은 3도 간격 등의 간격레벨을 두고 표현할 수 있다. 특정한 방향이 존재하지 않고 전 채널에 균일하게 분포하는 오브젝트 신호의 경우, 특정 값을 할당하여 방향을 표시하는 값에 특정 값을 표시 할 경우에는 전 채널에 균일하게 분포하는 것을 의미하도록 설정할 수 있다.
이러한 방법은, 2차원상의 방향뿐만 아니라 위 아래의 방향을 표시하고자 할 경우 N*2 매트릭스에 열을 하나 더 추가하여 N*3 매트릭스로 표현하고, 두번째 열을 위 아래의 방향에 대한 정보를 표현하는 데 사용할 수 있다. 마지막 열에 표시되는 오브젝트 신호의 레벨 변화는 첫번째 방법에서와 같이 실수 혹은 정수로 표현이 가능하고, 그 변화의 레벨 간격 및 범위도 첫번째 방법에서 설명한 바와 같은 방법이 사용될 수 있다.
만일, 오브젝트 디코더의 최종 재생 모드가 바이노럴 스테레오인 경우, 랜더링 매트릭스 생성부(201)에서 오브젝트 신호의 위치에 따라 해당 위치에 해당하는 3D 정보 혹은 해당 3D 정보에 대응하는 인덱스(index)를 전달할 수 있다. 3D 정보 인덱스를 전달하는 경우 트랜스코더(203)에는 전달받은 인덱스로부터 사용할 3D 정보를 보유하고 있어야 한다. 또한, 각 오브젝트 신호의 위치에 대응하는 3D 정보를 전송함으로써, 트랜스코더(203)에서는 각 오브젝트 신호들의 위치에 대응하는 3D 정보들과 랜더링 매트릭스, 그리고 오브젝트 정보로부터 멀티채널 디코더(205)에서 사용되는 특정 3D 정보를 계산해 낼 수 있다. 물론 인덱스를 전달하지 않고 랜더링 매트릭스 생성부에서 계산된 3D 정보를 직접 전달할 수도 있다.
전술한 랜더링 매트릭스와 3D 정보는 최종 사용자가 오브젝트 위치와 playback 구성 정보를 실시간으로 변경함에 따라 적응적으로 실시간 변경되어 트랜스코더(203)에 전송된다. 이때, 랜더링 매트릭스와 3D 정보 정보는 일정 시간 간격을 두고 정보의 변화 유무 및 이전 정보와 대비하여 변화된 정보만을 전송 할 수도 있다. 예를 들어 0.5초 간격으로 한번씩 정보 변화 유무 및 정보 변화 시 변화된 정보 전송을 하는 경우를 생각해 볼 수 있다. 이 시간 간격은 임의로 정할 수 있다. 설정된 시간 간격을 두고 전송된 정보를 트랜스코더(203)에서 사용하는 경우, 정보의 변화가 일어난 구간에서는, 이전 정보와 변화된 정보를 이용하여 필요한 정보를 생성할 수 있다.
정보 전송의 방법도 오브젝트 위치와 playback 구성이 변하지 않는 경우, 처 음 랜더링 매트릭스와 3D 정보를 한번 전송한 이후에는 더 이상 해당 정보를 전송하지 않고 변화가 없음을 표시하는 정보만 전송할 수 있다. 정보의 변화가 있을 경우에는 변화가 있음을 표시하는 정보의 전송 후에 변화된 랜더링 매트릭스와 3D 정보를 전송하는 방법을 사용할 수 있다. 정보와 변화를 표시하는 방법의 경우에도 랜더링 매트릭스와 3D 정보 각각에 대해 정보 변화 유무를 표시하는 방법과 이 둘의 변화를 하나의 대표값으로 표시한 후 변화가 일어난 경우 추가적으로 랜더링 매트릭스와 3D 정보 중 어느 정보에 변화가 일어났는지를 표현하는 방법이 가능하다. 이 방법을 사용할 경우 변화가 오랫동안 일어나지 않을 경우 변화가 일어나지 않았음을 표시하는 방법이 좀더 간단해질 수 있는 장점이 있다.
[수학식 1]의 랜더링 매트릭스에 한 열을 추가하여 해당 열에는 오브젝트의 위아래 방향에 대한 정보를 포함할 수도 있다. 이 경우 해당 정보는 -90도에서부터 +90도까지의 값을 표현하는 것이 된다. 이러한 오브젝트 신호의 위 아래 방향에 대한 정보가 추가적인 행렬의 열로 포함되는 것은 첫번째 방법뿐만 아니라 두번째 및 세번째 방법의 경우에 해당하는 랜더링 매트릭스에도 추가할 수 있다. 이 정보의 경우 실제 멀티채널 디코더의 노멀 디코딩 모드에서는 사용되지 않고 멀티채널 디코더가 바이노럴 모드로 동작할 경우 추가적인 3D 정보 적용을 통해 구현이 가능하다. 이러한 오브젝트 신호의 위 아래 방향에 대한 정보는 이와 같이 랜더링 매트릭스에 포함되어 전송될 수도 있지만 랜더링 매트릭스에 포함되지 않고 3D 정보와 함께 전송되는 방식으로 전송될 수 있다. 이러한 위아래 방향에 대한 정보는 채널 기반의 부가정보에는 영향을 미치지 않고 바이노럴 모드로 디코딩시 이에 따라 3D 정 보 변하여 적용되게 된다.
한편, 오브젝트 신호들의 공간상의 위치와 레벨 조정에 대한 정보는 랜더링 매트릭스로 표현이 가능할 뿐만 아니라 오브젝트 신호들의 스펙트럼상에 변화를 줄 수도 있다. 예를 들어 특정 오브젝트 신호에 대한 저음부 강화, 혹은 고음부 강화 같은 변화를 줄 수 있다. 이 경우 이에 대한 정보는 멀티채널 코덱에서 사용되는 ADG와 비숫한 형태로 각 파라메터 밴드의 레벨 변화로 표시하여 전송될 수 있다. 이러한 오브젝트 신호의 스펙트럼 변경은 다운믹스 전처리 과정에서 처리 가능하다. 이러한 오브젝트 신호들의 스펙트럼상의 변화를 최종 사용자가 제어하는 경우, 이에 대한 정보는, 예컨대 스펙트럼 매트릭스(spectrum matrix) 등과 같은 형태로써 랜더링 매트릭스와는 별개로 전송될 수 있다. 이 경우 랜더링 매트릭스의 행은 오브젝트 신호의 개수만큼, 열은 파라미터 개수만큼으로 이루어진 행렬이 사용될 수 있으며, 행렬의 계수는 각 파라미터 밴드의 레벨 조정에 대한 정보로 이루어질 수 있다.
다음으로 트랜스코더(203)의 동작 과정에 대하여 상세히 설명하면 다음과 같다. 트랜스코더(203)는 오브젝트 기반의 오브젝트 정보와 랜더링 매트릭스 정보, 3D 정보를 이용하여 멀티채널 디코더(205)에서 사용되는 채널 기반의 부가정보를 생성하여 전달하고, 멀티채널 디코더(205)에서 사용할 3D 정보를 전달한다. 또한, 다운믹스 신호를 멀티채널 디코더(205)에 입력하기 전에 전처리 과정이 필요할 경우 이에 대한 정보를 전달한다.
트랜스코더(203)가 입력으로 받는 오브젝트 기반의 오브젝트 정보에는 각 오 브젝트 신호들이 다운믹스 신호에 어떻게 포함되어 있는지를 표현하는 정보가 들어있다. 각 오브젝트 신호들이 다운믹스 신호에 어떻게 포함되어 있는 지를 표현하는 방법으로는 멀티채널 Codec에서 이미 사용되고 있는 OTT(One to Two) 박스 및 TTT(Two to Three) 박스 등을 사용하여 CLD, ICC, CPC등의 정보를 통해 표현하는 방법이 있을 수 있다. 이러한 정보를 통해 각 오브젝트 신호들에 대한 정보를 어떻게 표현가능한지 오브젝트 인코더에서 가능한 방법들에 대해 설명하면, 오브젝트 정보에 오브젝트 신호들에 대한 정보가 어떤 식으로 포함되는지를 알 수 있다.
일반적으로 멀티채널 코덱에서의 TTT 박스의 경우 L, C, R 신호를 L, R 신호로 다운믹스 하거나 반대로 업믹스(upmix) 하는데 사용된다. 이 경우 C 신호는 L, R신호의 성분을 일부분씩 갖고 있는 경우에 해당한다. 그러나 오브젝트 신호들 간의 다운믹스와 업믹스의 경우 오브젝트 신호간에 이러한 특징을 갖고 있는 경우는 거의 존재하지 않는다. 따라서, 오브젝트 코딩의 업믹스와 다운믹스 시에는 거의 OTT 박스만 사용되는 경우가 많다. 물론 멀티채널 코덱에서도 C가 L, R의 성분이 아닌 독립적인 신호를 포함하고 있는 경우에도 문제없이 TTT 박스 사용이 가능하므로 오브젝트 코딩 업믹스와 다운믹스시 TTT 박스의 사용도 가능하다.
이런 경우에 대한 예로써, 오브젝트 신호가 총 6개 존재하고, 모노 다운믹스 신호의 경우에 대해 생각해보자. 이 경우 도 11에서와 같이 OTT 박스를 통해 6개의 오브젝트 신호를 다운믹스 신호로 변환하고, 오브젝트 신호에 대한 정보를 구하는 것이 가능하다.
도 11에 도시한 구조에서, 하나의 다운믹스 신호와 총 5개의 OTT box에서 얻 어지는 CLD, ICC등의 정보로 6개의 오브젝트 신호에 대한 정보를 표현할 수 있다. 또한, 오브젝트 코딩에서는 이러한 구조의 자율적인 변경이 가능하다. 즉, 도 11에서 OTT 박스1(211)는 6개의 오브젝트 신호 중에서 임의의 두 개의 오브젝트 신호를 입력으로 할 수 있다. 또한, TTT 박스와 TTT 박스가 계층적으로 연결되는 구조 또한 자유로운 변경이 가능하며, 오브젝트 정보에는 이러한 OTT 박스의 계층적으로 연결되는 구조에 대한 정보와 각 오브젝트 신호가 입력으로 들어가는 부분에 대한 정보가 포함된다. 임의의 트리 구조의 경우 멀티채널 코덱에서 사용하는 임의적 트리 구조를 표현하는 방법을 그대로 사용하는 것도 가능하다. 또한 각 오브젝트 신호의 입력 위치에 대한 정보는 다양한 방법을 사용하여 표현할 수 있다.
오브젝트 정보에는 각 오브젝트 신호들의 무음구간, 즉 특정 오브젝트의 신호가 없는 경우에 대하여 정보를 표시하는 것도 가능하다. 이 경우 트리 구조가 시간의 변화에 따라 적응적으로 변할 수 있다. 예를 들어, 도 11에서 오브젝트1 신호가 무음구간인 경우, OTT 박스1(211)에 대한 정보는 필요 없고, 오브젝트2 신호에 해당하는 신호가 OTT 박스4(217)에 입력되는 것으로 간주할 수 있다. 이와 같이, 경우에 따라 매번 트리 구조를 변경하고, 이에 대한 정보를 오브젝트 정보에 포함시킬 수 있다.
또한, 비슷한 방법으로 특정 오브젝트 신호가 무음상태에 있는 그 오브젝트 신호가 다운믹스 되는 OTT 박스에 대하여, OTT 박스의 사용 유무에 대한 정보가 존재하고, 이 정보에 따라 해당 박스의 큐(cue)가 존재하거나 존재하지 않는 방법을 사용할 수 있다. 이와 같이, 특정 오브젝트 신호들의 무음구간에 대한 정보를 적용 할 경우 오브젝트 정보에서 실제로 사용되지 않는 OTT, TTT 박스들에 대한 정보를 줄일 수 있는 장점이 있다. 또한, 트리(tree) 구조를 변경하는 경우에도 처음 정해진 트리 구조에서 특정 오브젝트 신호가 무음구간에 해당하는 경우, 해당 오브젝트신호가 무음이 됨에 따라 기능이 On/Off가 되는 박스가 어떤 것인지 유추할 수 있다. 따라서, 매번 변경된 트리 구조 전체에 대해서 정보를 보내지 않고, 특정 오브젝트 신호가 무음이라는 정보만으로도 디코더에서 트리 구조 중 어느 부분에 수정이 가해져야 하는 지를 알 수 있으므로, 무음구간 유무에 대한 정보는 최소한으로 줄일 수 있고, 오브젝트 신호에 대한 큐들은 효율적으로 전송할 수 있다.
도 12는 각 오브젝트 신호들이 다운믹스 신호에 어떻게 포함되어 있는지를 설명하기 위해 참조되는 도면이다. 도 12를 참조하면, 도 11에서 멀티채널 코딩g의 OTT 박스 구조를 그대로 사용한 것과 달리 이를 약간 변형한 구조를 나타내고 있다. 이 구조에서는 하나의 박스로 다수의 오브젝트 신호가 입력되어, 하나의 다운믹스 신호를 생성한다. 이 경우 각 오브젝트 신호에 대한 정보는 전체 에너지에 대한 각 오브젝트 신호의 에너지의 비로 표현하는 것이 가능하다. 그러나, 오브젝트 신호 수가 많아지면 각 오브젝트 신호의 에너지에 비해 전체 에너지의 크기가 커져, 각 오브젝트 신호에 대한 정보인 에너지의 비가 작은 값으로만 이루어질 수 있다. 이를 보정하기 위해, 전체 에너지에 대한 각 오브젝트 신호의 에너지 비를 표시하지 않고, 특정 파라미터 밴드 내에서 에너지가 가장 큰 오브젝트 신호를 찾아내고, 나머지 오브젝트 신호들의 에너지를 가장 에너지가 큰 오브젝트 신호의 에너지에 대한 비율로 나타내는 방법이 가능하다. 이와 같은 방법을 사용하는 경우, 해 당 파라미터 밴드 내에서 가장 큰 에너지를 갖는 오브젝트 신호에 대한 정보와, 해당 오브젝트 신호가 갖는 에너지의 절대값을 알면, 나머지 오브젝트 신호들의 에너지 크기를 알 수 있다.
특정 파라미터 밴드 내에서 가장 큰 에너지를 갖는 오브젝트 신호의 에너지의 크기는 MCU(Multipoint Control Unit)와 같이 복수의 비트스트림을 하나의 비트스트림으로 병합하는 경우에는 필수적인 정보이다. 그러나, 비트스트림을 병합하지 않는 경우 가장 큰 에너지를 갖는 오브젝트 신호와 비교한 나머지 오브젝트 신호들의 에너지 크기의 비가 주어질 경우, 가장 큰 에너지를 갖는 오브젝트 신호의 절대적 에너지 크기는 계산을 통해 추출할 수 있다.
예를 들면, 특정 파라미터에 포함된 오브젝트 신호가 A, B, C, D 4개라 가정하고, 이 중 가장 큰 에너지를 갖는 오브젝트 신호를 A라 가정해보자. 오브젝트 A의 에너지와 B, C, D와의 에너지 크기의 비를 각각 a, b, c라 하고, 오브젝트 A의 절대적 에너지의 크기를 EA라 하고, 해당 파라미터 밴드의 에너지를 EP라 하면 다음과 같은 식이 성립된다.
Figure 112009005573339-PCT00002
[수학식 2]를 살펴보면, 가장 큰 에너지를 갖는 오브젝트 신호의 에너지의 절대적 크기는 이에 대한 정보가 주어지지 않아도 다른 정보들을 사용하여 계산될 수 있음을 알 수 있다. 따라서, MCU를 거쳐 비트스트림이 합쳐지는 경우가 아닌 경우 가장 큰 에너지를 갖는 오브젝트 신호의 에너지의 절대적 크기는 비트스트림에 포함하여 전송하지 않아도 된다. 비트스트림에는 이러한 정보가 포함되어 있는지의 유무를 헤더(header)에 표시하는 방법을 사용하여 전체 비트스트림 크기를 줄일 수 있다.
그러나, MCU를 거쳐 비트스트림이 합쳐지는 경우, 가장 큰 에너지를 갖는 오브젝트 신호의 에너지의 크기 값에 관한 정보가 필요하다. 이 경우 다운믹스 신호의 실제 에너지 크기와 가장 큰 에너지를 갖는 오브젝트 신호와 나머지 오브젝트 신호의 비로부터 구해지는 각 오브젝트 신호들의 에너지의 합이 실제 다운믹스 신호의 에너지의 크기와 차이가 나는 경우가 발생한다. 즉 다운믹스 신호의 에너지 크기는 100인데, 각 오브젝트 신호들의 에너지 크기를 계산하여 합한 결과가 98, 혹은 103 등으로 100이 아닌 값이 계산되는 경우가 있다. 이는 각 에너지의 절대값, 에너지 크기의 비가 양자화된 상태에서 이를 다시 dequantization한 후 계산하는 것에 따른 불일치에서 기인하다. 이 경우 각 오브젝트 신호들의 에너지 크기로 계산된 최종 값에 이 차이를 보정할 계수를 곱해주어야 한다. 다운믹스 신호의 에너지가 X인데 각 오브젝트 신호의 에너지를 계산하여 합한 값이 Y인 경우 각 오브젝트 신호를 계산하는 부분에 X/Y를 곱해주어야 한다. 이와 같은 불일치를 고려하지 않을 경우 양자화 에러가 각 파라미터 밴드 및 매 프레임에 포함되어 신호의 왜곡이 일어날 수 있다.
따라서, 파라미터 밴드에서 가장 큰 에너지를 갖는 오브젝트 신호의 에너지 의 절대값이 어느 오브젝트 신호에 해당하는지에 대해 표시하는 정보가 필요하다. 이를 표시하기 위한 정보는 특정 비트를 사용하여 표현될 수 있는데, 해당 정보를 표시하기 위해 필요한 비트 수는 총 오브젝트 신호의 수가 몇 개인지에 따라 변할 수 있다. 즉 오브젝트 신호 수가 적으면 가장 큰 에너지를 갖는 오브젝트 신호를 표현하는데 사용되는 비트 수도 줄어들며, 오브젝트 신호의 수가 많아지면 이를 표현하는 비트 수도 늘어나게 된다. 이는 미리 정해준 규칙에 따라 해당 비트 수를 정할 수 있거나, 혹은 몇 비트를 사용할 것인지를 나타내는 또 다른 정보를 필요로 할 수도 있다.
또한, 멀티채널 코덱의 OTT, TTT 박스에 사용되는 CLD, ICC, CPC 값을 표현할 때, 이의 절대값이 아닌 시간 차(time differential), 주파수 차(frequency differential), 파일롯 코딩(pilot coding) 등의 방법을 통해 정보량을 줄이는 것과 마찬가지로, 각 파라미터 밴트별로 가장 큰 에너지를 갖는 오브젝트에 대한 정보도 이러한 방법을 사용하여 표시할 수 있다.
또한, 가장 큰 에너지를 갖는 오브젝트 신호를 표현하는 데 최적화된 호프만테이블(huffman table)을 사용하는 것도 가능하다. 이 경우 파라미터 밴드 내에서의 가장 큰 에너지를 갖는 오브젝트 신호가 어떤 것인지를 표시하는 정보 외에도 가장 큰 에너지를 갖는 오브젝트신호와 비교한 상대 에너지를 표시하는 오브젝트 신호의 순서에 대한 정보도 필요하다. 예컨대, 오브젝트 신호가 1, 2, 3, 4, 5로 5개의 오브젝트 신호가 존재한다고 가정해보자. 특정 파라미터에서 가장 큰 에너지를 갖는 오브젝트 신호가 3번 오브젝트 신호라 할 경우 해당 오브젝트 신호에 대한 정보를 표시하고, 상대적인 에너지의 비를 표시하는 방법은 다음과 같이 생각해볼 수 있다.
첫번째 방법은 가장 큰 에너지를 갖는 오브젝트 신호에 대한 정보 이후에 1번 오브젝트 신호부터 순서대로 에너지의 비를 표시하는 방법이고, 두번째 방법은 가장 큰 에너지를 갖는 오브젝트 신호에 대한 정보 이후에 해당 오브젝트 신호 이후의 오브젝트부터 순환적인 순서로 오브젝트 신호의 에너지의 비를 표시하는 방법이다. 물론 이러한 오브젝트 신호간의 순서에 대한 정보는 파일 헤더에 혹은 일정 프레임마다 한번씩 전송되어 오브젝트 신호의 표시 순서에 대해 알려주는 정보에 근거한다. 멀티채널 코덱에서 OTT 박스 번호에 따라 각 채널에 해당되는 신호의 CLD, ICC등을 추론하는 것과 마찬가지로 오브젝트 비트스트림 상에는 각 오브젝트 신호와 비트스트림상의 정보가 어떻게 매칭 되는지를 표현하는 정보가 필요하다.
멀티채널 코덱의 경우, OTT 혹은 TTT 박스의 넘버에 따라 각 채널에 해당하는 신호에 관한 정보가 무엇인지를 알 수 있다. 오브젝트 기반의 오디오 부호화에서도, 위에서 언급한 방법처럼 오브젝트 신호가 N개가 있는 경우, 해당 오브젝트 신호들을 표시하기 위해 1번에서 N번까지 번호를 할당하는 방법을 사용할 수 있다. 그러나, 오브젝트 기반의 오디오 부호화의 경우, 해당 오브젝트 신호를 오브젝트 디코더상에서 사용자가 제어하는 경우가 발생하는데, 이 경우 사용자는 오브젝트 신호의 넘버링뿐만 아니라 해당 번호에 해당하는 오브젝트 신호가 어떤 오브젝트신호 인지에 대한 설명도 필요하다. 예를 들어, 1번 오브젝트 신호는 여성 보컬에 해당하고, 2번 오브젝트 신호는 피아노에 해당한다 등의 정보가 필요한데 이에 대한 정보도 비트스트림의 헤더에 메타데이터 등으로 포함되어 전달될 수 있다. 이를 위해서는 오브젝트 신호에 대한 설명을 텍스트(text)와 같은 포맷(format)으로 자유롭게 표시할 수 있는 방법을 사용하거나, 코드 테이블(code table)과 같은 방법을 사용하여 미리 정해놓은 오브젝트 신호 구분 방법에 따른 codeword를 사용하여 표현할 수도 있다.
또한, 오브젝트 신호간의 코릴레이션 정보도 필요한 경우가 있는데, 이 경우에도 코릴레이션 값은 에너지가 가장 큰 오브젝트 신호를 기준으로 하여 그 외의 오브젝트 신호들에 대한 코릴레이션 값을 표현하는 방법을 사용할 수 있다. 이때, 멀티채널 코덱에서 모든 OTT 박스에 하나의 ICC 값을 사용한 것과 같이 모든 오브젝트 신호들에 대해 하나의 코릴레이션 값을 지정하는 것도 가능하다.
스테레오 오브젝트 신호의 경우, 스테레오 채널로 표현되는 오브젝트 신호의 좌, 우 신호에 대한 에너지 비율, 코릴레이션 정보 등이 필요하다. 스테레오 오브젝트 신호의 좌, 우 에너지에 대한 비율은 앞에선 설명한 각 채널의 특정 파라미터 밴드에서 가장 큰 에너지를 갖는 오브젝트 신호에 대한 나머지 오브젝트 신호들에 대한 비율, 그리고 가장 큰 에너지를 갖는 오브젝트 신호의 절대적 에너지 값에 대한 정보를 통해 구해 낼 수 있다. 예를 들어, 특정 파라미터 밴드에서 각 채널에서 가장 큰 에너지를 갖는 오브젝트 신호의 에너지 절대값이 각각 A, B라 하고, 이에 비례한 스테레오 오브젝트의 상대적 에너지 비율에 대한 정보를 각각 x, y라 가정하면, 스테레오 오브젝트 신호의 좌, 우 채널에 포함된 에너지의 값은 A*x, B*y로 구해진다. 따라서, 이 값을 사용하면 스테레오 오브젝트 신호의 좌우 채널간의 에 너지 비율을 계산할 수 있다.
위의 정보는 오브젝트 신호는 모노(mono)이지만 다운믹스 신호가 스테레오이고, 이 스테레오 다운믹스 신호에 모노 오브젝트 신호가 스테레오 다운믹스 채널 양쪽에 모두 포함되어 전송되는 경우에도 사용될 수 있다. 이 경우 모노 오브젝트 신호가 스테레오 다운믹스 신호 양 채널에 포함된 에너지의 비에 대한 정보, 코릴레이션에 대한 정보가 필요하고 이는 스테레오 오브젝트에 대해 필요한 정보와 동일하다. 모노 오브젝트를 스테레오 다운믹스 신호 양 채널에 포함시키는 경우, 많은 경우 코릴레이션 값이 1인 신호 즉 L, R 양쪽에 레벨의 차이만 존재하는 신호가 포함되는 경우가 존재한다. 이 경우 두 신호간의 코릴레이션은 파라미터 전역에 걸쳐 1인 경우가 존재한다. 이러한 경우 데이터량을 줄이기 위해 해당 코릴레이션은 파라미터 전역 모두 1임을 표시하는 정보를 사용하여 추가적인 정보를 줄일 수 있다. 이러한 정보를 사용할 경우 파라미터 밴드 전체에 대하여 코릴레이션 값이 1임을 매 파라미터 밴드마다 표시하지 않고 전체 파라미터에 해당하는 코릴레이션 값을 하나의 값으로 표시할 수 있게 된다.
또한, 다수의 오브젝트 신호를 하나의 다운믹스 신호로 만들기 위해, 오브젝트 신호를 더하는 경우 클리핑(clipping)이 발생하는 경우가 존재한다. 이를 방지하기 위해 다운믹스 신호에 특정 값을 곱하여 다운믹스 신호의 최대값이 클리핑 한계를 넘어가지 않도록 하는 게인(gain) 값이 필요하다. 이 게인 값은 시간에 따라 변할 수 있다. 따라서, 이 경우 각 다운믹스 채널에 곱해지는 게인 값에 대한 정보가 필요하다. 다운믹스 신호가 스테레오 다운믹스인 경우, 이러한 클리핑 방지를 위한 게인 값은 L, R 각각 독립적으로 존재하게 된다. 해당 값은 각각을 독립적으로 표시하여 전송할 수도 있다. 전송되는 데이터 량을 줄이기 위하여 게인 값을 따로 독립적으로 전송하지 않고 게인 값들의 합과, 비로 변형하여 전송할 수도 있다. 이렇게 전송하는 경우 게인 값들을 따로 전송할 때보다 dynamic range를 줄일 수 있어, 데이터 전송량을 줄일 수 있다.
또한, 추가적으로 데이터 전송량을 줄이기 위하여, 오브젝트 신호들을 하나의 다운믹스 신호로 만들때, 클리핑이 일어났는지의 유무를 표시하는 비트를 두어 해당 비트가 클리핑이 일어났음을 알릴 때에만 게인 값들의 전송이 이루어지고 해당 비트가 클리핑이 일어나지 않았음을 알릴 경우 게인 값에 대한 정보는 전송하지 않는 방법을 사용하는 것도 가능하다. 이러한 클리핑에 대한 정보는, 다수의 비트스트림을 합치는 경우에 있어 다운믹스 신호를 합치는 경우에도 클리핑을 방지하기 위해 필요하다. 이때, 다수의 다운믹스 신호가 합쳐지는 경우에 클리핑 방지를 위한 게인 값의 역수만큼이 다운믹스 신호의 합에 곱해지게 된다.
도 13 내지 도 16은 오브젝트 기반의 오브젝트 정보를 구성하는 다양한 방법을 설명하기 위해 참조되는 도면이다. 특정 오브젝트의 신호가 모노, 스테레오 뿐 아니라 멀티채널로 구성된 오브젝트인 경우도 가능하다.
도 13은 멀티채널 오브젝트 신호를 오브젝트 인코더(221)를 거쳐 다운믹스 신호와 오브젝트 정보를 만든 후, 다운믹스 신호는 다른 오브젝트 신호들과 함께 다시 오브젝트 인코더(223)를 거치도록 구성되어 있다. 먹스(225)는 오브젝트 디코더(221, 223)에서 생성한 오브젝트 정보를 병합하는 작업을 수행한다.
도 14는 MCU에서 복수의 비트스트림을 결합하는 방법과 마찬가지로 멀티채널 오브젝트 신호로 하나의 비트스트림을 구성하고, 나머지 오브젝트 신호들을 이용하여 비트스트림을 구성한 후, 이를 다시 하나의 결합된 비트스트림을 구성하는 형태를 보인다.
도 15는 멀티채널 오브젝트를 우선 멀티채널 인코더(241)를 거쳐 다운믹스 신호와 채널 기반의 부가정보를 생성한다. 멀티채널 인코더(241)에서 나온 다운믹스 신호는 나머지 오브젝트 신호들이 입력으로 들어가는 오브젝트 인코더(243)에 하나의 독립적인 오브젝트 신호처럼 취급되어 입력된다. 오브젝트 인코더(243)에서는 이 다운믹스 신호와 나머지 오브젝트 신호들을 사용하여 오브젝트 비트스트림을 구성한다. 먹스(245)에서는 멀티채널 인코더(241)에서 출력되는 채널 기반의 부가정보와 오브젝트 인코더(243)에서 출력되는 오브젝트 정보를 결합하여 출력한다.
도 16은 멀티채널 오브젝트를 멀티채널 인코더(253)를 통과시키고, 나머지 오브젝트 신호는 오브젝트 인코더(251)를 거친 후, 이 두 다운믹스 신호를 다시 오브젝트 인코더(255)를 거치는 구조를 갖고 있다. 여기에서 먹스(257)는 두개의 오브젝트 인코더(251, 255)에서 만들어진 오브젝트 정보와 멀티채널 인코더(253)에서 만들어진 채널 기반의 부가정보를 결합한다.
다음으로, 텔레컨퍼런스(Teleconference) 등에서 오브젝트 기반의 오디오 부호화가 사용되는 경우, 하나의 오브젝트 비트스트림과 또 다른 하나의 오브젝트 비트스트림이 결합하여 결합된 비트스트림을 만들어야 하는 경우에 대해 설명하면 다음과 같다.
도 17은 두 개의 오브젝트 비트스트림이 합쳐지는 경우를 나타낸 것이다. 도 17을 참조하면, 두 개의 오브젝트 비트스트림이 하나의 오브젝트 비트스트림으로 합쳐지는 경우, 각각의 오브젝트 비트스트림 속의 OTT 박스에 해당하는 CLD, ICC등의 정보를 수정할 필요가 없다. 다만, 두 개의 오브젝트 비트스트림에 속하는 두 개의 다운믹스 신호를 다운믹스 하는 과정에서 추가적인 OTT 박스가 하나 사용된 점과, 추가된 OTT박스에 의해 추가된 CLD, ICC 정보들이 추가되었을 뿐이다.
이 경우 기존의 각각 오브젝트 비트스트림에서 트리 구성 정보를 표현하는 부분이 두 비트스트림이 합쳐지면서, 통합된 트리 구성 정보로 변환되어야 한다. 결국 두 오브젝트 비트스트림이 합쳐지면서 추가적인 구성 정보에 대한 수정과, 각 박스에 대한 인덱싱 등의 수정과, 추가로 더해지는 OTT 박스에서의 정보 계산, 두 다운믹스 신호의 재 다운믹스등의 추가 작업만이 필요할 뿐, 기존의 오브젝트 비트스트림에 있던 오브젝트 신호들에 대한 정보 자체를 수정해야 할 필요는 없게 된다. 이에 따라, 두 비트스트림을 하나의 비트스트림으로 결합하는 간단한 방법을 제공한다.
또한, 도 17에서, 두 다운믹스 신호를 다시 다운믹스 하지 않고 2 채널 다운믹스 신호로 갖는 경우, 즉 도 17에서 OTT 박스 11을 만들지 않는 경우, 추가적인 OTT 박스에 대한 계산이 필요 없이 두 비트스트림을 결합할 수 있다.
도 18은 다운믹스 신호가 스테레오인 경우, 독립적인 오브젝트 비트스트림간의 결합을 나타낸 것이다. 도 18을 참조하면, 두 개 이상의 독립적인 오브젝트 비트스트림을 하나의 통합된 오브젝트 비트스트림으로 통합하는 경우, 각각의 오브젝 트 비트스트림에서 사용된 파라미터 밴드의 개수가 서로 다른 경우가 발생할 수 있다. 이 경우 통합된 파라미터 밴드의 개수로 통합하는 것이 필요하다. 일반적으로는 두 오브젝트 비트스트림중 파라미터 밴드의 개수가 적은 쪽을 파라미터 밴드의 개수가 많은 쪽에 맞추어 맵핑한다.
맵핑하는 방법은 각 파라미터 밴드간의 맵핑에 대한 테이블을 갖고 있어 이에 따라 맵핑을 수행하는 것이 일반적이다. 이 경우 파라미터 밴드 확장에 따른 맵핑 방법은 간단한 선형적 수식에 의해 수행할 수 있다.
특정구간의 경우 맵핑에 있어 여러 밴드들이 겹쳐지는 구간의 경우 겹쳐진 구간만큼의 비율로 파라미터값들을 섞는 방법을 사용하게 된다. Low complexity가 우선시되는 경우 파라미터 밴드의 통합은 두 오브젝트 비트스트림중 파라미터 밴드의 개수가 많은 쪽을 파라미터 밴드의 개수가 적은 쪽에 맞추어 맵핑하는 경우도 가능하다. 이 경우에도 파라미터의 맵핑은 앞에서의 경우와 동일한 방법으로 수행하게 된다.
전술한 두 개 이상의 독립적인 오브젝트 비트스트림을 하나의 통합된 오브젝트 비트스트림으로 통합하는 경우, 기존의 오브젝트 비트스트림들이 각각 갖고 있는 파라미터들은 재 계산이 할 필요 없이 결합이 가능하다. 그러나, 다운믹스 신호를 결합하는 경우, 다운믹스 신호에 대해 다시 QMF/Hybride analysis를 거쳐 합쳐지는 다운믹스 신호들에 대한 파라미터를 계산해내야 하는 과정이 필요하다. 이러한 다운믹스 신호에 대한 파라미터 계산에 필요한 계산량이 상대적으로 크기 때문에 이로 인해 오브젝트 비트스트림들을 통합할 때, 재 계산이 필요하지 않다는 장 점이 다소 퇴색되는 단점이 있다. 기존의 오브젝트 비트스트림간의 통합의 경우에도 재 계산이 필요 없이 통합이 가능하므로, 다운믹스 신호들간의 재 다운믹스시에도 QMF/Hybrid analysis/synthesis과정을 거치지 않고 파라미터를 뽑아낼 수 있는 방법이 필요하다. 이러한 과정은 오브젝트 비트스트림상에 미리 각 다운믹스 신호의 파라미터 밴드별 energy에 대한 정보를 포함시켜 놓는 방법으로 해결이 가능하다. 이 경우 다운믹스 신호들의 재 다운믹스시 파라미터 계산에 필요한 QMF/Hybrid Analysis/Synthesis 과정의 필요 없이, 오브젝트 비트스트림상에 포함되어있는 파라미터 밴드별 energy 정보로부터 간단하게 CLD와 같은 값을 계산해 낼 수 있다. 이러한 에너지 정보는 해당 파라미터의 전체 에너지 값을 표시할 수도 있고, 앞에서 설명했던 것과 같이 해당 파라미터에서 가장 큰 에너지를 갖는 오브젝트의 에너지 절대값을 표시할 수도 있다. ICC와 같은 정보의 경우 다운믹스 신호들의 시간 도메인상에서 구해지는 ICC값을 전체 파라미터에 사용하는 간단화된 방법을 사용할 수도 있으며 파라메터 밴드수보다 적은 밴드로 간단한 분석 과정을 거친 후 여기에 대해서 ICC값을 구해내는 방법도 가능하다.
이러한 경우, 복수의 다운믹스 신호를 재 다운믹스 하는 과정에서 신호의 클리핑이 일어날 가능성이 있다. 이에 따라, 클리핑이 일어나지 않도록 다운믹스 신호들의 레벨을 줄여서 재 다운믹스 시 클리핑이 일어나지 않도록 하는 과정이 필요하다. 이러한 클리핑 방지를 위한 신호들의 레벨을 줄이는 경우에 있어 해당 레벨 조정에 대한 정보가 오브젝트 비트스트림에 필요하게 된다. 이러한 레벨 조정에 대한 정보는 프레임별로 적용이 가능하며, 클리핑이 일어나는 프레임에 대해서만 해 당 레벨 조정 정보를 갖고 있고, 디코딩시 이를 역으로 적용하면 원래 신호의 에너지 레벨을 구해낼 수 있다. 이러한 클리핑 방지를 위한 정보를 계산하는 과정은 time domain 상에서 계산이 가능하므로 QMF/Hybrid Synthesis/Analysis를 거치지 않아도 된다.
복수의 오브젝트 비트스트림을 하나의 오브젝트 비트스트림으로 결합하는 것은 도 12와 같은 구조에서도 가능하다. 이를 도 19에 나타내었다.
도 19에서, Box1(261)을 통해 만들어진 독립적인 오브젝트 비트스트림1과, Box2(263)를 통해 만들어진 오브젝트 비트스트림2를 Box3(265)를 통해 결합된 하나의 오브젝트 비트스트림3를 만드는 경우를 나타내고 있다. 이 경우, 비트스트림1과 비트스트림2에 있는 정보가 전술한 특정 파라미터 밴드 내의 가장 큰 에너지를 갖는 오브젝트 신호의 에너지 절대값과, 이와 비교한 나머지 오브젝트 신호들의 상대적 에너지 비율, Box1(261)과 Box2(263)에서의 다운믹스 신호에 곱해진 게인 값에 대한 정보 등이 있는 경우, Box3(265)에서는 추가적인 오브젝트 파라미터를 계산하거나 추출하는 과정 없이 입력으로 들어오는 복수의 오브젝트 비트스트림을 단순히 병합하는 과정만 필요하다.
또한, Box3(265)에 입력으로 들어오는 복수의 다운믹스 신호는 pcm 신호로 변환한 후, 단순 합으로 하나의 다운믹스 신호로 만드는 과정만 필요하다. 이때, Box3(265)에 들어오는 복수의 다운믹스 신호를 하나의 다운믹스로 더하는 과정에서 clipping이 일어나는 경우가 발생할 수 있다. 이 경우에 대해서는 클리핑을 방지하기 위하여 추가적으로 다운믹스 신호에 대해 게인 값을 곱하는 과정이 필요하게 된 다. 이 경우 게인 값은 병합된 오브젝트 파라미터에 포함되어 전송된다.
복수의 오브젝트 비트스트림을 하나의 오브젝트 비트스트림으로 합치는 경우에 대해 좀더 자세히 보면 다음과 같다. 도 19에서의 예를 들면 OBJECT INFO A의 특정 파라미터에는 가장 큰 에너지를 갖는 오브젝트 신호에 대한 정보와 이의 에너지 크기의 값, 이 값과 비교한 다른 오브젝트 신호들의 에너지 비에 대한 값 등이 포함되어 있고, OBJECT INFO B에도 같은 종류의 정보가 포함되어 있다. 이 경우 두 비트스트림을 합쳐서 하나의 비트스트림으로 구성하는 방법은 다음과 같은 방법들이 가능하다.
첫번째 방법으로는 두 비트스트림 을 추가적인 계산을 통해 통합하지 않고 단순히 한 비트스트림 내에 병렬식으로 배치하는 방법을 사용할 수 있다. 이 경우 도 20에 도시한 바와 같이, 디코더에서는 전송받은 비트스트림내에 복수의 비트스트림이 병렬식으로 존재하고 있음을 알리는 비트정보를 통해 해당 비트스트림을 분석하게 된다.
도 20에 도시한 바와 같이, 하나로 합쳐진 비트스트림을 표시할 경우 MCU와 같이 복수의 오브젝트 비트스트림을 하나의 비트스트림으로 병합하는 곳에서는 단순히 복수개의 비트스트림이 존재한다는 정보, 몇 개의 비트스트림이 합쳐졌는지에 대한 정보, 및 병합되기 전의 비트스트림의 위치를 구분해주는 비트 정보 이후에 합쳐지기 전의 개별적인 비트스트림을 단순히 배치하면 된다. 이 경우 디코더에서는 전송받은 오브젝트 비트스트림이 복수의 비트스트림이 합쳐진 것인지에 대한 정보를 분석하여 알게 된다. 이 경우 복수의 비트스트림을 병합하는 데 있어 단순한 식별자에 해당하는 정보를 덧붙이는 작업 외에는 다른 부가적인 작업을 하지 않는다는 장점이 있다. 그러나, 이에 대한 정보를 일정한 프레임마다 헤더에 포함시켜야 하는 부담이 존재하며, 디코더에서는 매번 전송받은 비트스트림이 원래 하나로 만들어진 비트스트림인지, 복수개의 비트스트림이 병합된 비트스트림인지를 판단해야 한다.
위의 방법에 대한 대안으로는 디코더 입장에서 복수의 비트스트림이 하나의 비트스트림으로 병합된 것인지 알 수 없도록 약간의 계산을 통해 비트스트림을 병합하는 방법이 존재한다. 이 경우는 도 21과 같이 표현할 수 있다.
도 21을 참조하면, A, B의 가장 큰 오브젝트 신호의 에너지 크기를 비교한 후 그 중 더 큰 오브젝트 신호를 병합된 스트림(stream)에서 에너지가 가장 큰 오브젝트 신호로 정한다. 해당 오브젝트 신호가 포함되어있던 비트스트림에 있던 오브젝트 신호들의 에너지 비는 그대로 사용하고, 다른 비트스트림에 있던 오브젝트 신호들의 에너지는 A, B의 가장 큰 에너지의 비만큼을 곱하여 다시 계산을 한다. 이 경우 파라미터 밴드내에서 가장 큰 에너지를 갖는 오브젝트 신호와 나머지 오브젝트 신호간의 에너지 크기의 비를 다시 계산해야 하지만 복잡도가 그리 높지 않다. 디코더에서는 전송받은 오브젝트 비트스트림이 복수의 비트스트림이 병합된 비트스트림인지 아닌지를 구별할 수 없으므로 일반적인 방법을 사용하여 디코딩할 수 있다는 장점이 있다.
만일, 다운믹스 신호가 스테레오인 경우에도 두 오브젝트 비트스트림의 결합은 모노 다운믹스 신호의 오브젝트 비트스트림의 결합과 유사한 방식으로 가능하 며, 이러한 결합은 기존에 각각의 오브젝트 비트스트림이 갖고 있던 오브젝트신호들에 대한 정보를 다시 계산할 필요 없이 사용할 수 있다는 점에서 간단한 결합방법임을 알 수 있다. 이와 같이 오브젝트 비트스트림의 구조는 처음에 오브젝트 신호를 다운믹스 하는 트리 구조에 대한 정보가 나온 후, 각 트리 가지에 해당하는 박스에서 얻어진 오브젝트 신호의 정보들이 이어지는 형태로 구성될 수 있다.
지금까지 설명한 오브젝트 비트스트림의 경우 특정 오브젝트 신호 하나는 오직 다운믹스 채널 한곳에 존재하는 경우에 대해서 설명했다. 즉, 다운믹스 신호가 스테레오인 경우이고 특정 오브젝트의 신호가 스테레오 다운믹스 신호 양쪽에 모두 존재하는 경우에 대한 설명이 추가로 필요하다. 이런 경우는 주로 오브젝트 오디오 부호화의 backward compatibiliy에 대한 조건에서 다운믹스 신호만을 기존의 스테레오 재생기에서 재생하는 경우를 고려함에 따라 발생한다. 즉, 일반적인 스테레오 신호의 경우 하나의 오브젝트 신호가 한쪽 채널에만 존재하지 않고 두 채널 모두에 존재하는 경우가 대부분이다. 이 경우에 해당하는 다운믹스 신호를 만들게 되는 경우에 있어서 오브젝트 비트스트림을 만드는 방법은 다음과 같다.
도 22는 다수의 오브젝트 신호들을 믹싱하여 스테레오 다운믹스 신호를 만드는 방법을 설명하기 위해 참조되는 도면이다. 도 22에는, 4개의 오브젝트 신호가 믹싱되어, L, R의 스테레오 신호로 다운믹스 되는 과정을 나타내고 있다.
이와 같은 경우, 특정 오브젝트 신호가 다운믹스 채널의 L, R 양쪽 모두에 포함되어 있음을 알 수 있다. 특정 오브젝트 신호가 L, R 양쪽 채널에 분배되는 과정은 다음과 같이 설명할 수 있다. 도 22에서 오브젝트1 신호의 경우 L과 R에 a:b 의 비율로 분배되어 입력됨을 볼 수 있다. 이를 수식으로 나타내면 다음과 같다.
Figure 112009005573339-PCT00003
위와 같은 식으로 각 오브젝트 신호에 대해서 L, R로 분배된 비율을 알면 특정 오브젝트 신호가 L, R 모두에 포함된 경우에도 L, R에 오브젝트 신호가 어떤 비율로 포함되어 있는지 알 수 있다. 즉, 오브젝트 신호가 스테레오 다운믹스 채널 양쪽에 모두 포함된 경우, 이에 대한 비, 즉 위의 식에서 a, b값에 대한 정보가 추가적으로 필요하다. 이후 L, R 각 채널에 OTT 박스를 통한 다운믹스를 통해 CLD, ICC등의 오브젝트에 대한 정보를 계산하는 것은 도 23에 도시한 바와 같다.
도 23에 도시한 바와 같이, 다운믹스를 진행하며 각 OTT 박스에서 얻어진 CLD, ICC 정보와, 앞에서 설명한 L, R로 분배된 오브젝트 신호들의 분배 비율에 대한 정보를 갖고 있으면, 추후 최종 사용자가 오브젝트 위치, playback 구성 정보를 변화시킬 경우 이에 대해 적응적으로 변화될 멀티채널 비트스트림을 계산할 수 있다. 또한, 다운믹스 전처리 과정에서 스테레오 다운믹스 신호에 대해 변형을 가해야 할 경우, 이에 대한 변형 정보를 구하여 전처리부로 전달하는 것도 가능하다. 다시 말하면 오브젝트 신호들의 분배 비율 즉, [수학식 3]에서의 a, b에 대한 값이 없을 경우, 스테레오 오브젝트 신호의 경우 멀티채널 비트스트림을 계산하는 것이나, 다운믹스 전처리부에서 처리해야 할 정보를 구할 방법이 없다. 위의 a, b의 비 율을 표현하는 방법은 a,b 각각의 값에 대해 표현하는 방법과, a와 b의 비율을 하나의 dB값으로 표현하는 방법 등이 가능하다.
앞에서 언급한 경우 즉, 오브젝트 신호가 스테레오 다운믹스 신호 모두에 포함되어 있는 경우에는, 해당 신호의 채널간의 분배 비율에 대한 정보가 필요하다. 이때 이 정보는 앞에서 설명한 것처럼 해당 오브젝트 신호의 단순한 채널간의 레벨의 비율일 수도 있지만 좀 더 복잡한 경우 주파수 밴드별로 그 비율이 다르게 적용될 수 있다. 이 경우에는 앞에서 설명한 비율 a, b에 대한 정보가 주파수 밴드별로 각각 주어져야 한다. 또한 이러한 정보가 뒤에서 적용되는 경우에 있어서도 해당 오브젝트신호의 채널간의 정보를 사용할 경우 각 파라메터 밴드별로 주어진 비율 정보를 사용해야 한다. 또한, 좀더 복잡한 다운믹스 과정을 거쳤을 경우, 즉 하나의 오브젝트 신호가 다운믹스 된 채널 양쪽에 포함되며, 밴드별로 ICC값에 변화를 주어 다운믹스가 되었을 경우, 이에 대한 정보도 추가적으로 필요하다. 이는 최종적으로 랜더링된 오브젝트 출력 신호를 디코딩 하는 과정에서 필수적으로 필요하다. 또한 이러한 방법은 앞에서 언급한 오브젝트의 가능한 구조 모두에 적용이 가능하다.
다음으로 전처리(Pre-procesing) 과정에 대하여, 도 24 내지 도 27을 참조하여, 상세히 설명하면 다음과 같다. 오브젝트 디코더로 입력되는 다운믹스 신호가 스테레오 신호일 경우, 이 다운믹스 신호는 오브젝트 디코더 내의 멀티채널 디코더의 입력으로 들어가기 전에 전처리 과정을 거쳐야 한다. 이에 대한 이유는, 전술한 바와 같이, 멀티채널 디코더는 스테레오 다운믹스 신호를 받아 멀티채널 신호를 디 코딩 하는 과정에서 다운믹스 신호의 좌 채널에 위치한 신호를 멀티채널의 오른쪽부분 채널에 맵핑할 수 없기 때문이다. 따라서, 최종 사용자가 스테레오 다운믹스중 left 채널에 속해있는 오브젝트 신호의 위치를 우 방향으로 변경시키고자 할 경우, 스테레오 다운믹스 채널에 대해 전처리 과정을 거쳐 멀티채널 디코더로 입력시켜야 한다.
이러한 스테레오 다운믹스 신호의 전처리 과정은, 오브젝트 비트스트림과 랜더링 메트릭스로부터 전처리 정보를 구한 후 이 정보를 가지고 스테레오 신호에 적절한 처리를 함으로써 완료된다. 여기에서는 오브젝트 비트스트림과 랜더링 메트릭스로부터 전처리 정보를 구하고, 이를 스테레오 다운믹스 신호에 적용하는 방법에 대해 기술하도록 한다.
도 24는 오브젝트 1∼4의 총 4개의 오브젝트 신호가 스테레오 다운믹스로 구성되는 과정을 나타내고 있다. 도 24를 참조하면, 오브젝트1 신호와 오브젝트2 신호의 경우, 각각 a:b, c:d의 비율로 분할되어 L,R 채널에 포함되어 있으며, 오브젝트3 신호의 경우에는 L채널에만, 오브젝트4 신호의 경우에는 R 채널에만 포함되어 있다. 이들 각 오브젝트 신호들은 OTT 박스를 거치며 CLD, ICC등의 정보를 생성하고 다운믹스 신호를 이루게 된다.
이와 같은 경우, 최종 사용자가 오브젝트 신호들의 위치들과 레벨 조정 값을 설정하여 앞의 식 1과 같은 형식의 랜더링 메트릭스를 얻어냈다고 가정해보자. 여기에서는 최종 재생 채널이 5채널인 경우를 가정하면, 이에 대한 랜더링 메트릭스의 예를 다음 식과 같이 나타낼 수 있다.
Figure 112009005573339-PCT00004
[수학식 4]에서 표현한 랜더링 메트릭스를 앞에서 랜더링 메트릭스의 설명 방법에 따라 설명하면 다음과 같다. 일단 랜더링 메트릭스의 값들은 정수값을 사용하는 포맷으로 표현되었으며, 각 행의 5열의 합은 100이 될때 해당 오브젝트 신호의 레벨 변화가 없는 것으로 가정했다. 또한, 이 합이 1이 늘어나거나 줄어들때마다 해당 오브젝트 신호의 레벨이 1dB씩 증감 하는 것을 표현하는 것으로 하고, 5열의 순서가 나타내는 채널의 위치는 FL, FR, C, RL, RR로 한다.
오브젝트1 신호의 경우를 살펴보면, 랜더링 메트릭스에서 표현되는 오브젝트1 신호의 채널간의 분포는 [30 10 20 30 10]으로 표현된다. 이 원소들의 합이 100임으로 오브젝트1 신호는 레벨 변화는 없고 오직 공간상의 위치만 변화됨을 알 수 있다. 이를 왼쪽과 오른쪽 두방향으로 가르면, Left = 30+30+20*0.5 = 70, Right=10+10+20*0.5 = 30으로 표현된다. 즉, 랜더링 메트릭스는 오브젝트1 신호에 대해 레벨은 변화하지 않고 왼쪽에 70%, 오른쪽에 30% 분포시킬 것에 대한 정보를 알려준다. 합이 100보다 작거나 같을 경우 이는 오브젝트 신호 레벨의 변화를 의미하며 이는 다운믹스 신호의 전처리 과정에서 처리할 수도 있고, 채널기반의 부가정보에 ADG 형태로 변환하여 전송할 수도 있다.
다운믹스 신호의 전처리를 수행하기 위해서는 다운믹스 신호들을 QMF/Hybrid 변환을 거친 신호들에 각 OTT 박스에서 파라미터를 뽑아낼 때의 파라미터 밴드 별로 신호의 분포 비를 계산한 후, 이를 랜더링 메트릭스의 설정에 맞게 재 분포시켜야 한다. 이러한 재분포 방법에는 여러가지 방법이 있다.
첫번째 재분포 방법은, 왼쪽, 오른쪽 각 채널별로 OTT 박스의 CLD, ICC등을 이용하여 왼쪽, 오른쪽 신호들 각각에 대하여, 멀티채널 코덱에서 OTT 박스로 이루어진 경우에 대해 각 신호를 디코딩 하는 것과 동일하게 각 오브젝트 신호들을 디코딩 한다. 이렇게 왼쪽, 오른쪽 신호 각각에 대해 디코딩을 하면, 각 신호에 포함되어 있던 오브젝트 신호들을 구할 수 있다. 이때, 계산량을 줄이기 위해 ICC는 사용하지 않고 CLD만 사용하여 디코딩을 할 수도 있다. 특정 오브젝트 신호가 왼쪽, 오른쪽 양쪽에 모두 포함되어 있을 경우 해당 오브젝트 신호가 왼쪽, 오른쪽 ght에 어떠한 비율로 포함되어 있는지는 앞서 설명한 바와 같이, 해당 정보를 통해 알 수가 있다.
이렇게 구해진 신호를, 랜더링 메트릭스에서 알 수 있는 왼쪽, 오른쪽 신호 비율에 맞도록 랜더링 메트릭스의 비율보다 많이 포함되어 있는 쪽 신호에서 많은 만큼을 뺀 후 이를 다른쪽 채널 오브젝트 신호에 더해주는 작업을 하게 되면, 각 오브젝트 신호들의 분배가 완료된다. 이렇게 분배가 완료된 신호들을 다시 OTT 박스 등을 통해 각 채널별로 다운믹스를 하게 되면 다운믹스 전처리 과정이 완료된다. 바로 앞의 채널별 오브젝트 신호들의 다운믹스를 통해 OTT 박스의 CLD, ICC 등은 재 계산이 이루어진다. 이러한 방법은 멀티채널 디코딩에서 사용하던 방법을 재사용 가능하다는 장점은 있으나, 각 채널에 대하여 오브젝트 신호 수만큼의 신호를 디코딩해내고 다시 이를 재분배 한 후 채널별로 다운믹스 과정을 수행해야만 한다.
두번째 재분포 방법은, 왼쪽, 오른쪽 채널 각각의 신호에서 모든 오브젝트 신호를 각각 디코딩 하지 않고, 한번에 왼쪽 다운믹스 신호 중 오른쪽 다운믹스 신호쪽으로 옮겨져야 할 부분, 오른쪽 다운믹스 신호 중 왼쪽 다운믹스 신호쪽으로 옮겨져야 할 부분을 구성하는 방법이 가능하다. 이를 간단하게 표시하면 도 25와 같다. 도 25에서는, 도 24과 같이 다운믹스 된 신호를 예에서 다운믹스 전처리하는 상황을 가정하였다.
위와 같이 L 신호에서 왼쪽에 남게 되는 신호 L_L과 오른쪽으로 더해져야 할 신호 L_R을 구하는 방법은 다음과 같으며 이는 R신호에서 R_L와 R_R 신호를 구하는 방법과 같다. 먼저, L, R 신호에 오브젝트 신호들의 비율이 어떻게 이루어졌는지를 알아야 한다. 이는 앞의 식 2에서의 a, b값에 해당하는 것이다. 식 2에서는 오브젝트1 신호가 L과 R에 a:b의 비율로 분배되어 있음을 보여준다. 여기에 랜더링 메트릭스로부터 구해지는 L'와 R'에서의 오브젝트1에 대한 비율을 구할 수 있다. 식 3의 예에서는 이 비율이 7:3으로 구해짐을 알 수 있다. 여기에서 이 두 정보, 즉 오브젝트1 신호의 L, R의 비율 a:b와 L',R' 비율 7:3을 비교하면, 오브젝트1 신호가 L,R에서 L',R'의 비율로 변하기 위하여 L,R 신호 어느곳에서 어느만큼의 비율을 추출하여 다른 한쪽에 더해주어야 하는지에 대한 값을 얻을 수 있다.
이와 같은 방법을 사용하면 오브젝트2,3,4 신호에 대해서도 어느쪽의 성분을 어느만큼 추출하여 다른 한쪽에 더해주어야 하는 지에 대한 정보를 구할 수 있다. 이는 도 25에서 L에서 추출되어 R'쪽으로 더해질 L_R, R에서 추출되어 L'쪽으 더해 질 R_L에 대한 비율에 대한 정보를 계산한 것에 해당한다. 이 정보와 함께 L,R 각 채널의 OTT box의 CLD, ICC 정보를 이용하면 각 파라메터 밴드별로 어느 비율로 L의 신호를 L_L의 신호와 L_R의 신호로 분할해야 오브젝트1,2,3,4 신호에 대해 원하는 비율대로 분할된 신호를 얻을 수 있을 것인지에 대한 최종 비율값을 구할 수 있다.
지금까지는 L로부터 L_L과 L_R을 나눌 때 에너지의 비율을 어떻게 분할할 것인지를 설명하였다. 여기에 추가로 L_L과 L_R의 ICC 값도 맞추어줘야 한다. 이 또한 파라메터 밴드별로 L신호에 대한 OTT 박스들의 ICC정보로부터 구할 수 있다. 즉, 기존 OTT box에서 오브젝트간의 ICC값을 알 수 있으므로 L_L과 L_R에서 오브젝트들간의 비율을 통해 최종 ICC값을 구할 수 있게 된다. 이렇게 함으로써, L을 L_L, L_R 신호로, 또 R을 R_L, R_R신호로 나눈 다음, 이 신호들을 L_L과 R_L, L_R과 R_R을 더하여 최종적으로 다운믹스 전처리가 완료된 L'과 R' 얻을 수 있게 된다.
지금까지 설명한 두번째 방법에 대해 구체적인 숫자로 이루어진 예를 들어 다시 설명하며 다음과 같다. 먼저, 다운믹스 신호인 L과 R은 도 24와 같은 과정을 통해 얻어진다고 하자. 또한, 오브젝트1 신호는 L, R에 1:2의 비율로 포함되어 있고, 오브젝트2 신호는 2:3의 비율로 포함되어 있다고 가정한다. 또한, 오브젝트3 신호는 L에만 포함되어 있어 1:0의 비율로 표현할 수 있고, 같은 식으로 오브젝트4 신호는 R에만 포함되어 있어 0:1의 비율로 표현이 가능하다고 가정한다. 도 25에서 알 수 있는 바와 같이, 각 채널에서 오브젝트 신호들이 OTT 박스들을 거치며 다운믹스 되고, CLD, ICC 등의 정보를 얻게 된다.
랜더링 매트릭스의 예는 식 4에 보였다. 이는 앞의 식 3에서 사용한 예와 같다. 해당 랜더링 매트릭스에서는 최종 사용자가 설정한 오브젝트 신호들의 위치 n에 대한 정보가 들어있으며, 또한 이를 통해 다운믹스 전처리 과정을 통해 얻게 될 L',R'에 대한 정보를 구할 수 있다. 랜더링 매트릭스의 구성과 이를 해석하는 방법에 대해서는 앞의 식 3을 설명한 바와 같다.
랜더링 매트릭스를 통해 할 수 있는 오브젝트1∼4 신호의 L',R'에 분포되는 비율은 다음 식 5와 같이 계산된다.
Figure 112009005573339-PCT00005
L, R 신호에 분포되어 있던 오브젝트1∼4 신호의 비율은 앞에서 언급한 바와 같으며 식 6과 같이 표현된다.
Figure 112009005573339-PCT00006
위의 식 5에서 오브젝트3의 L',R' 비율의 합이 110, 오브젝트4의 L',R' 비율의 합이 95인 것은 오브젝트3은 25만큼의 레벨이 커지게 됨을, 오브젝트4는 5만큼 level이 작아지게 됨을 의미한다. 이 합이 100인 경우가 레벨의 변화가 없음을 의미하고, 1이 커지거나 작아지는 것을 해당 오브젝트의 레벨이 1dB 커지거나 작아지는 것의 의미할 경우, 오브젝트3 신호는 10dB 레벨이 커졌음을, 오브젝트4 신호는 5dB 레벨이 작아졌음을 의미하게 된다.
위의 식 5, 6에 표현한 오브젝트1∼4 신호에 대한 L, R에서의 비율과 랜더링 매트릭스를 거친 후에 얻어질 L',R'에서의 비율을 비교하기 쉽게 비율의 합이 100이 되도록 다시 표현하면 식 7과 같다.
Figure 112009005573339-PCT00007
식 7을 보면 다운믹스 전처리 전후에 각 오브젝트가 왼쪽, 오른쪽에 어떤 분포로 분포되어 있는지, 이러한 결과를 얻기 위해 다운믹스 신호의 왼쪽, 오른쪽 신호에서 어떤 오브젝트 신호가 어느쪽으로 얼마만큼 재 분배가 되어야 하는 지 쉽게 알 수 있다. 예를 들어, 오브젝트2 신호의 경우 40:60에서 30:70으로 비율이 변하였고 이는 다운믹스 전처리를 거치면서 L쪽에 있던 오브젝트2 신호의 성분 40에서 10이 R 쪽으로 이동해야 함을 의미함을 알 수 있다. 이는 L에 포함되어 있는 오브젝트2의 성분의 25%(10/40*100)가 R쪽으로 이동해야 함을 의미한다. 이에 대해 다시 정리하면 식 8과 같다.
Figure 112009005573339-PCT00008
식 8을 참고로 하여 그림 2-22의 L_L과 L_R, R_L, R_R을 표현하면, 식 9와 같다. L 신호에 대하여 특정 파라메터에서 오브젝트1∼3 신호가 차지하는 비를 L에 대해 나타내면 다음 식 9와 같다. 식의 복잡도를 줄이기 위해 파라미터 표시는 하지 않고 표시하도록 한다.
Figure 112009005573339-PCT00009
앞의 식 9에서 각 오브젝트 신호들의 값을 OTT box의 CLD를 이용하여 L, R에 대한 비로 표현하면 식 10과 같다. 참고로 아래 식 10의 값들은 파라미터 밴드별로 표현되어야 하나 식의 복잡성을 피하기 위하여 파라미터 표시를 하지 않고 나타냈다. 여기에서 CLD는 dequantization 된 값을 의미한다고 가정한다.
Figure 112009005573339-PCT00010
도 25에서 각 파싱부에서 사용되는 CLD는 식 11과 같이 구해지며 식 10을 대입하면 구체적인 값을 구할 수 있다.
Figure 112009005573339-PCT00011
이와 같은 정보를 이용하면, 도 25에서 L에서 L_L, L_R 신호를 만들어 내는 파싱부에 사용되는 CLD와 ICC를 구할 수 있고, 마찬가지로 R에 대해서도 R_L, R_R 신호를 만들어 내기 위한 CLD와 ICC를 구할 수 있다. 이를 이용하여 각 신호를 만들어 낸 후, 도 25와 같이 L_L과 R_L을 더하고, L_R과 R_R을 더하면 다운믹스 전처리된 스테레오 신호를 얻어낼 수 있다. 만약 최종 재생 채널이 스테레오인 경우에는 다운믹스 전처리가 완료된 L',R' 신호를 출력으로 사용할 수 있다. 이 경우 특정 오브젝트 신호의 레벨이 커지거나 줄어든 경우에 대해서 아직 처리가 되지 않았으므로 이에 대한 처리를 할 수 있는 모듈이 선택적으로 추가될 수 있다. 해당 모듈의 기능은 멀티채널 디코딩에서 ADG가 수행하는 처리과정과 동일하다. 또한 추가적으로 이러한 오브젝트 신호의 레벨 처리를 위에서 설명한 다운믹스 전처리 과정 내에 추가하는 것도 가능하다. 이 경우에도 레벨 처리 방법은 ADG 처리방법과 동일하다.
도 25는 도 26과 같은 방법으로 표현될 수 있다. 도 26은 도 25와 달리 리믹스된 output L',R' 신호의 코릴레이션 값을 맞추기 위한 디코릴레이션 작업이 제1 및 제2 파싱부에서 이루어지지 않고, L' 혹은 R' 신호의 output에 적용되는 모습을 보이고 있다. Pre_L'와 Pre_R'의 신호는 L, R간의 에너지 레벨차이가 보정된 신호를 의미한다. 이 중 한 신호에 디코릴레이터를 적용한 후, 믹싱 과정을 통해 코릴레이션 값에 해당하는 신호를 만들어낸다.
앞에서 설명한 다운믹스 전처리를 거친 스테레오 신호는 멀티채널 디코더로 입력된다. 최종 사용자가 설정한 오브젝트 위치와 playback 구성에 맞는 멀티채널 출력을 만들기 위해서는 다운믹스 전처리의 출력 신호와 함께 멀티채널 디코딩을 위한 채널기반의 부가정보가 필요하다. 이러한 채널기반의 부가정보를 구하는 방법을 앞에서 예로 들은 경우를 가지고 설명해보도록 한다. 다운믹스 전처리를 거쳐 나온 신호 L',R'가 멀티채널 디코더의 입력 신호로 입력되므로 이 신호에 대해 식5를 참고하여 다시 정리해보면 식 12와 같다.
Figure 112009005573339-PCT00012
또한 식 2의 랜더링 매트릭스로 각 채널에 대한 오브젝트 신호들의 분포를 식으로 표시하면 식 13과 같으며 L',R'이 5.1채널로 확장되는 구조는 도 27과 같다.
Figure 112009005573339-PCT00013
도 27에서 각 TTT 박스와 OTT 박스의 파라미터들을 계산해야 한다. 이 경우에도 파라미터들의 계산은 파라메터 밴드별로 계산된다. 이후의 식에서도 파라미터 밴드의 표시가 되어 있어야 하지만 식의 간단화를 위해 파라미터 밴드 표시는 생략한다. TTT, OTT 박스의 파라미터 계산식은 파라미터 밴드 단위로 이루어짐을 유의한다.
도 27에서 TTT 박스는 Energy based mode와 prediction mode 두가지 모드로 사용될 수 있다. Energy based mode로 동작하는 경우는 2개의 CLD가 필요하며 prediction mode로 사용될 경우 2개의 CPC와 1개의 ICC가 필요하다.
Energy based mode의 경우 CLD를 구하기 위해서는, 도 27에서 L", R", C의 에너지 비율을 알아야 한다. 이는 식 6,10,13을 통해 구할 수 있다. L"의 에너지를 구하는 방법을 식 14에 보였으며, R", C에 대해서도 같은 식으로 구하는 것이 가능하다.
Figure 112009005573339-PCT00014
위의 식 14에서 한 방법으로 R", C에 대해서도 에너지를 구할 수 있다. 이렇게 구한 L", R", C의 에너지를 이용하여 Energy based mode에서의 TTT box에 사용될 CLD값을 구할 수 있으며 이는 식 15와 같다.
Figure 112009005573339-PCT00015
앞의 식 14를 구하는 데에는 식 10에 있는 값들이 사용되었다. 이때 오브젝트1,2 신호의 경우에 대하여 대입된 값은 식 10에서 좌 채널에 대한 값이 사용되었다. 그러나, 동일한 방법으로 식 10에서 우 채널에 대한 값을 대입하여 계산할 수도 있다. 이에서 추론할 수 있는 것은, 도 26에서 우 채널의 OTT3, OTT4의 CLD, ICC의 값을 OTT1, OTT2의 CLD, ICC값으로부터 계산해낼 수 있다는 사실이다. 이는 모든 오브젝트 신호의 트리 구조에 대해 모두 적용가능한 것은 아니며 특수한 경우에 해당한다. 이 경우 오브젝트 비트스트림에 실려오는 정보를 OTT 박스 각각에 대해 전송할 수도 있고, 일부 OTT 박스에 대해서만 전송한 후 전송되지 않은 박스에 대한 정보는 계산을 통해 구해낼 수도 있음을 의미한다.
위의 방식과 유사한 방법으로 OTT 박스 A, B, C에 대해서도 CLD, ICC 파라미터를 계산해 낼 수 있으며, 계산된 멀티채널 파라미터들을 멀티채널 디코더의 입력으로 전달하여 멀티채널 디코딩을 수행하면 최종 사용자가 원하는 오브젝트 위치와 playback 구성에 맞게 랜더링이 완료된 멀티채널 신호를 얻을 수 있다.
위의 멀티채널 파라미터에는 오브젝트 신호 레벨의 변화가 있는 경우 해당 레벨이 다운믹스 전처리에서 조정되지 않았을 경우 멀티채널 파라미터에 ADG 형태로 포함되어 전송되어, 멀티채널 디코딩과정 상에서 오브젝트 신들의 레벨을 수정한다. 위에서 든 예의 경우에서 레벨 보정이 다운믹스 전처리 과정에서 조정되지 않은 경우에 있어 ADG값을 계산하는 방법은 다음과 같다.
상기한 예의 경우, 오브젝트 신호중 레벨 조정은 랜더링 매트릭스에 의해 오브젝트3 신호에 대하여 10dB 커지고, 오브젝트4 신호에 대하여 5dB 작아지도록 설정되었다. 이를 ADG 가 적용될 L',R' 신호에 대하면 L' 신호에서 오브젝트3 신호가 5dB 커지고, 오브젝트4 신호에 대해 2.5dB 작아지도록 설정되었으며 L' 신호에서 오브젝트3이 5dB 커지고, 오브젝트4에 대해 2.5dB 작아지도록 설정되었다. L' 신호에서 오브젝트3,4의 레벨 조정이 이루어지기 전과, 후의 비율을 계산하면 식 16과 같다.
Figure 112009005573339-PCT00016
위의 식 16에 식 10의 값을 대입하면 값을 구할 수 있다. R 신호에 대해서도 같은 방법으로 ADG 적용 전과 후의 에너지의 비를 구할 수 있다. 이렇게 구해진 값은 오브젝트 신호들의 레벨 조정 전후로 해당 파라메터 밴드의 에너지 변화의 비율이므로 이를 통해 ADG값을 구할 수 있다. ADG값은 다음의 식 17과 같다.
Figure 112009005573339-PCT00017
이와 같이 구해진 ADG값은 멀티채널 디코딩의 ADG 양자화 테이블에 의해 양자화 되어 전송된다. 또한 멀티채널 디코딩의 ADG 테이블을 사용하는 것보다 좀더 정밀한 조정이 필요한 경우 해당 정보를 ADG 형태로 전송하여 멀티채 디코더에서 적용하지 않고 다운믹스 전처리부에서 수행하는 것도 가능하다.
한편, 오브젝트 비트스트림에서 오브젝트 신호들을 표현할 때 사용한 파라미터 밴드와, 멀티채널 디코더에서 사용되는 파라미터 밴드의 개수 및 밴드간의 간격이 다른 경우가 있을 수 있다. 이 경우, 오브젝트의 파라미터 밴드에서 멀티채널 디코더의 파라미터 밴드로 맵핑시켜주는 방법이 필요하다. 맵핑의 경우 리니어한 맵핑 방법을 사용한다. 리니어한 맵핑이란 예를 들어 오브젝트의 특정 파라미터 밴드의 영역이 멀티채널 디코더의 특정 파라미터 밴드 2곳에 걸쳐 있는 경우 2곳에 포함되어 있는 영역의 비율만큼 오브젝트의 파라미터를 분할하여 적용하는 것을 의미한다. 이는 오브젝트의 여러 파라미터 밴드가 멀티채널 디코딩의 특정 파라미터 한곳에 포함된 경우 해당 오브젝트 파라미터들의 평균값을 적용하는 것을 의미한다. 또한, 이미 멀티채널 표준에 포함되어 있는 밴드간의 맵핑 테이블을 사용할 수도 있다.
텔레컨버런스의 경우에 있어 오브젝트 코딩을 사용하는 상황을 가정하면, 오브젝트 신호로는 여러 화자의 음성이 해당되고, 오브젝트 디코더에서는 이런 각 오브젝트 신호에 해당하는 음성을 특정 스피커에서 재생하게 된다. 이와 같이 동시에 여러 명의 화자가 함께 이야기를 하게 되는 경우, 각 화자의 신호를 정확하게 구분하여 각각의 스피커에 특정 화자에 해당하는 사람의 음성이 배치되도록 디코딩하는 것은 어렵다. 이 경우 오브젝트 신호에 해당하는 화자들을 각각 다른 스피커에 배치하도록 하는 즉, 랜더링 과정이 오히려 다운믹스 신호보다도 더 인식도가 나빠질 정도의 음질 왜곡을 발생시킬 수도 있다. 이러한 왜곡을 방지하기 위해 한 사람이 이야기를 하는지, 아니면 동시에 여러 명의 화자가 이야기를 하고 있는지를 나타내는 정보를 포함시킬 수 있다. 이러한 정보에 따라, 여러 명의 화자가 동시에 이야기하는 경우 굳이 각각의 오브젝트 신호를 특정 스피커에 배치시키는 디코딩 작업으로 음질의 왜곡을 유발시키지 않고 오히려 다운믹스 신호에 가까운 정도로 거의 디코딩을 하지 않은 신호가 각 스피커에 출력이 되도록 트랜스코더의 채널기반 비트스트림을 조정하는 방법이 가능하다.
예를 들어, a, b, c, d, e라는 세 화자에 해당하는 오브젝트 신호가 있고, 이를 각각 A, B, C, D, E라 하는 스피커에 배치되도록 디코딩하는 경우를 생각해보자. 만약 a, b, c 세 화자가 동시에 말을 하는 경우, 다운믹스 신호는 a, b, c의 세 화자의 음성이 다운믹스되어 포함되어 있다. 이 경우 일반적인 오브젝트 디코딩 과정은 다음과 같다. 먼저 a, b, c의 음성이 포함된 다운믹스 신호에서 a, b, c의 음성에 해당하는 부분에 대한 정보를 멀티채널 비트스트림으로 구성하여 A 스피커에서는 a의 음성이 나오고 B 스피커에서는 b의 음성이 나오고 C 스피커에서는 c의 음성만 나오도록 디코딩이 진행된다. 그러나, 이렇게 할 경우 각 스피커에서 나오는 출력이 해당 음성 신호가 왜곡된 상태로 출력되어 오히려 다운믹스 신호의 경우보다 인식률이 떨어지고 완벽하게 화자간의 음성이 분리되지 못한 왜곡된 신호가 출력이 된다. 이러한 경우, a, b, c가 동시에 말을 하고 있다는 정보가 SAOC 비트스트림상에 포함되어 전달되면, 트랜스코더에서는 A, B, C 스피커에 해당 다운믹스 신호가 그대로 출력이 되도록 멀티채널 비트스트림을 생성해낸다. 이렇게 할 경우 신호의 왜곡이 일어나지 않게 된다.
여러 사람이 동시에 말하는 경우 실제에 있어서도 특정 한 사람이 말하는 소리만 들을 수 있는 상황이 아니므로, 각 사람의 소리를 분리하여 원하는 위치에 출력이 되도록 함에 따른 왜곡을 발생시키지 말고 그냥 다운믹스 신호를 그대로 출력하는 것이 더 실제의 환경에 가까울 수 있다. 이 경우 트랜스코더에서 동시에 말하 는 화자에 해당하는 스피커에 다운믹스 신호가 그대로 출력될 수 있도록 멀티채널 비트스트림을 만드는 것도 가능하지만 해당 스피커에 해당하는 화자의 음성이 왜곡을 발생시키지 않는 수준에서 상대적으로 약간 크게 출력이 되도록 멀티채널 비트스트림을 만드는 것 또한 가능하다.
또한, 오브젝트 비트스트림에 다수의 화자가 동시에 말을 하는지의 유무를 표시하여 전달하지 않고, 오브젝트 인코더에서 이를 감안하여 오브젝트 비트스트림을 변형하여 전달하는 것도 가능하다. 이 경우 오브젝트 디코더에서는 평소와 다름없이 디코딩을 하게 되지만, 다수의 화자가 말하는 경우 다수의 화자에 해당하는 스피커의 출력이 다운믹스 신호 혹은 대응하는 스피커에 해당하는 화자의 음성이 왜곡이 발생하지 않는 수준에서 약간의 강화가 이루어진 정도의 신호가 디코딩되어 출력되도록 할 수 있다.
다음으로 멀티채널 디코더로 전달되는 HTRF 등과 같은 3D 정보에 대하여 설명하면 다음과 같다.
오브젝트 디코터가 바이노럴 모드에서 재생될 경우, 오브젝트 코딩 내부에 포함된 멀티채널 디코더가 바이노럴 모드로 작동하게 된다. 이때 최종 사용자가 각 오브젝트 신호들을 공간상에 위치시킨 정보에 의하여 최적화된 HRTF 등과 같은 3D 정보가l 멀티채널 디코더로 전송되게 된다.
이때 전송되는 3D 정보를 구하는 방법을, 오브젝트 신호 2개가 임의의 위치 1,2에 위치되어 있는 경우에 대한 예로 설명해보도록 한다. 이와 같은 경우, Position 1, Position 2에 해당하는 3D 정보는 랜더링 매트릭스 생성부 혹은 트랜 스코더가 갖고 있다. 랜더링 매트릭스 생성부가 3D 정보를 갖고 있는 경우, 해당 오브젝트 신호가 위치한 곳에 해당하는 3D 정보를 트랜스코더쪽으로 전송한다. 3D 정보를 트랜스코더가 갖고 있는 경우 랜더링 매트릭스 생성부는 단순히 해당 오브젝트 신호들이 위치한 곳에 대한 정보, 즉 어떤 위치에 해당하는 3D 정보를 사용해야 하는지에 대한 인덱스 정보만 트랜스코더로 전송한다.
이와 같이 오브젝트 신호가 2개 있고, 해당 위치에 대한 3D 정보가 있을 경우 바이노럴 신호는 식 18과 같이 얻을 수 있다.
Figure 112009005573339-PCT00018
멀티채널 바이노럴 디코더의 경우 5.1 스피커 재생을 가정한 상태로 5개의 스피커 위치에 대한 3D 정보를 이용하여 바이노럴 사운드를 디코딩 해낸다. 이를 이론적인 식으로 나타내면 식 19와 같다.
Figure 112009005573339-PCT00019
식 18과 식 19에서 오브젝트1 신호의 Left 채널에 대한 부분만 따로 분리해 보면 식 20과 같이 표현할 수 있다. 같은 방식으로 오브젝트1의 신호의 우 채널에 대한 부분, 오브젝트1 신호의 왼쪽, 오른쪽 채널에 대한 부분도 식 20과 같이 표현할 수 있다.
Figure 112009005573339-PCT00020
예를 들어 오브젝트1 신호와 오브젝트2 신호의 전체 에너지의 비율이 a:b라고 하자. 또한 오브젝트1 신호가 FL 채널에 포함된 비율을 c, 오브젝트2 신호가 FL 채널에 포함된 비율을 d라고 하면, FL에서 오브젝트1 신호와 오브젝트 2 신호가 차지하고 있는 비율은 ac:bd 이다. 이 경우 FL의 HRTF는 식 21과 같이 구해진다.
Figure 112009005573339-PCT00021
위와 같은 방법을 사용하면 멀티채널 바이노럴 디코더에 사용되는 3D 정보들을 모두 구할 수 있다. 이렇게 구해진 3D 정보를 사용하여 바이노럴 디코딩을 수행할 경우, 멀티채널 디코딩에서 5개의 스피커 위치에 고정되어 있는 3D 정보 을 사용할 때보다 실제 오브젝트 신호들이 위치해 있는 곳에 해당하는 3D 정보를 사용할 수 있어 좀더 실감나는 바이노럴 신호를 재생해 낼 수 있다.
이와 같이 오브젝트 신호들의 공간상에 위치한 곳에 해당하는 3D 정보 들로부터 멀티채널 바이노럴 디코더에 사용될 3D 정보를 계산해 내는 방법은 위와 같은 에너지 비율에 대한 정보만을 갖고 할 수 도 있지만, 각 오브젝트 신호들간의 ICC 정보들로부터 각 오브젝트 위치에 해당하는 3D 정보를 더할 때 적절한 디코릴레이션 과정을 거쳐 더하는 방법을 추가할 수도 있다.
다음으로, 이펙트 프로세싱(Effect processing)의 경우 다운믹스 전처리 중에 포함하여 처리하는 경우와, 이펙트 결과를 멀티채널 디코더 출력에 더하는 경우로 나누어 볼 수 있다. 다운믹스 전처리 중에 포함하는 경우에 있어 특정 오브젝트 신호에 대한 이펙트를 처리하고자 하는 경우, 앞의 다운믹스 전처리 과정에 대한 설명 중 L 신호를 L_L, L_R 신호로 나누고, R 신호를 R_L, R_R 신호로 나누는 과정에 추가하여 effect 처리를 원하는 신호를 따로 추출해 내야 한다. 이는 다음의 방법들로 처리할 수 있다.
첫째, L, R 신호에서 해당 오브젝트 신호를 추출하고 이를 제외한 오브젝트 신호들의 신호에 대하여 L_L, L_R, R_L, R_R 신호를 만든 후 따로 추출한 오브젝트 신호에 대해 이펙트 처리를 한 후, 해당 신호를 랜더링 매트릭스의 정보에 따라 왼쪽, 오른쪽 신호로 나누어 왼쪽 신호는 L_L, R_L신호에 추가로 더하고, 오른쪽 신호는 L_R,R_R 신호에 더하는 식으로 처리하는 방법이 있다.
두번째는 2. L',R' 신호를 생성 한 후 이 신호에서 이펙트 처리를 하고자 하는 오브젝트 신호의 성분을 뽑아 낸 후 이펙트 처리 후 다시 더해주는 방법을 사용 할 수 있다.
이펙트 프로세싱의 경우 특정 오브젝트 신호의 스펙트럼 형태를 바꾸어 줄 수도 있다. 예를 들어 특정 오브젝트 신호에 대해 해당 오브젝트 신호의 전체 레벨 조정뿐 아니라 해당 오브젝트 신호와 고음성분을 키우고 싶거나, 저음 성분을 키우고 싶을때 해당 스펙트럼 영역에 대해서만 레벨 조정을 하는 것이 가능하다. 이러한 처리를 할 경우, 스펙트럼의 값이 변형된 파라메터 밴드의 경우 오브젝트 비트스트림으로 받은 오브젝트 신호들의 정보에 대한 수정이 필요하다. 예를 들어 특정 오브젝트 신호의 저음 성분을 키웠다고 가정할 경우, 해당 오브젝트 신호의 저음 영역의 에너지가 커졌으므로 이에 대한 정보가 오브젝트 비트스트림으로 받은 것과 다르게 된다. 이를 수정하기 위해 오브젝트 비트스트림 자체에서 해당 오브젝트 신호에 대한 정보를 수정하는 방법을 사용할 수도 있다. 또한, 스펙트럼 변화에 대한 정보를 트랜스코더에서 받아서 멀티채널 비트스트림을 만들어 줄때 해당 변화를 적용하여 멀티채널 비트스트림을 만드는 방법도 가능하다.
도 28 내지 도 33은 다수의 오브젝트 정보와 다수의 다운믹스 신호를 하나의 오브젝트 정보와 다운믹스 신호로 결합하는 경우를 설명하기 위해 참조되는 도면이다. 텔레컨퍼런스와 같은 경우, 다수의 오브젝트 정보와 다수의 다운믹스 신호를 하나의 오브젝트 정보와 다운믹스 신호로 결합해야 하는 상황이 발생하며, 이와 같은 경우 다음과 같이 고려해야 할 사항이 존재한다.
먼저, 도 28은 오브젝트 부호화된 비트스트림의 일 예를 나타낸다. 도 28에 도시한 바와 같이, 오브젝트 부호화된 비트스트림은, 다운믹스 신호와 오브젝트 정 보가 서로 time align이 되어 있다. 따라서, 이러한 비트스트림은 오브젝트 디코더에서 추가의 고려사항 없이 디코딩 과정을 수행할 수 있다. 그러나, 복수의 비트스트림을 하나의 비트스트림으로 합치는 경우, 상황에 따라 다운믹스 신호와 오브젝트 정보 간의 time align을 보정해야 하는 경우가 발생할 수 있다.
도 29는 오브젝트 부호화된 비트스트림이 결합하는 가장 간단한 경우에 대한 예를 보이고 있다. 표시 방법은 도 28과 같은 방법으로, 사각형 위의 숫자는 프레임 번호를 표시하고, 윗부분은 오브젝트 정보를, 아랫부분은 다운믹스 신호를 나타낸다. 그리고, 두 개의 오브젝트 부호화된 비트스트림은 각각 BS1과 BS2로 나타낸다.
도 29를 참조하면, 다운믹스 신호를 하나로 합치기 위해서는 우선 압축 코덱 c으로 압축되어있는 다운믹스 신호를 PCM 신호로 변환한 후 이를 시간 도메인 상에서 다운믹스 한 후 다시 압축 코덱 형식으로 변환하는 과정을 거치게 된다. 이 과정에서 도 29의 (b)와 같이 딜레이(d)가 발생하게 된다. 따라서, 하나로 합쳐진 비트스트림을 디코딩 하는 경우에 있어 다운믹스 신호와 오브젝트 정보와의 time aligning에 유의해야 한다.
이와 같은 상황의 발생시 총 딜레이 값을 알게 되는 경우, 그 딜레이 만큼을 보정해야 한다. 이러한 딜레이는 다운믹스에 사용되는 압축 코덱에 따라 각기 다르며, 오브젝트 정보 등에 해당 딜레이 값에 대해 표시할 수 있는 비트를 할당하여 다양한 딜레이 값을 표시할 수 있다.
도 30은 다수의 비트스트림을 하나의 비트스트림으로 합치는 경우에 있어 각 각의 비트스트림에 사용된 다운믹스 신호의 코덱이 서로 다르거나, 오브젝트 정보의 구성이 서로 달라 각기 다른 딜레이가 발생하는 경우의 예를 나타내고 있다.
도 30의 경우, BS1과 BS2에 사용된 코덱의 종류 또는 코덱의 구성이 다른 경우, 다운믹스 신호를 합치기 위해 다운믹스 신호를 시간 도메인으로 변환하고 이를 다시 하나의 압축코덱으로 변환하는 데 있어 발생하는 총 딜레이가 서로 다른 경우이다. 이 경우 BS1과 BS2 간의 서로 다른 딜레이를 고려하지 않고 합치는 경우, 다운믹스 신호간에, 또한 다운믹스 신호와 오브젝트 정보 간의 time align 문제가 발생하게 된다.
이를 해결하는 방법으로 도 31에 도시한 바와 같은 방법을 사용할 수 있다.
도 31을 참조하면, BS1에서 다운믹스 신호에 발생하는 d1 딜레이에 부가적인 딜레이(additional delay)를 더하여 총 딜레이가 BS2에서 발생하는 딜레이 d2와 같은 값이 되도록 조정하는 것을 보이고 있다. 이렇게 딜레이를 조정하게 되면, BS1을 BS2와 결합하는 방법은, 도 30에서 보인 방법과 동일하게 된다. 즉, 하나로 합쳐야하는 비트스트림이 다수인 경우 가장 큰 딜레이가 발생하는 비트스트림을 기준으로 최종 딜레이 값을 정하면 된다.
일반적으로 다수의 비트스트림을 하나로 합치는 경우가 아닌 경우, 이 딜레이 값은 0이 되므로 딜레이 유무를 표시하는 비트 정보를 둔 후, 해당 정보가 딜레이가 있음을 표시하면 이후에 구체적인 딜레이 값을 표시하는 비트 정보를 읽도록 하는 경우 딜레이 표시에 사용되는 비트t를 최소화 할 수 있다.
도 32는 딜레이 차이를 보정하는 다른 방법을 보이고 있다. 도 32에서, BS1 에서 발생하는 딜레이 d1을 기준으로 time align을 하는 방법을 보여주고 있다. 2번째 프레임을 예로 들면 해당 프레임에 해당하는 BS1의 오브젝트 정보는 2번째 프레임에 해당하는 오브젝트 정보를 그대로 사용할 수 있다. 반면 BS2의 오브젝트 정보는 1번째 프레임에 해당하는 오브젝트 정보와 2번째 프레임에 해당하는 오브젝트 정보가 모두 포함되어 있다. 따라서, 해당 프레임에 있어, BS2에 해당하는 오브젝트 정보는 BS2의 1번째 프레임의 오브젝트 정보와 2번째 프레임에 해당하는 오브젝트 정보에 대해 해당 구간을 차지하는 비율에 따른 averaging을 하여 얻는 방법 혹은 보간(interpolation)을 하는 방법을 통해 구할 수 있다. 이렇게 하면 도 32의 (b)에 오른쪽의 점선으로 표시한 각 구간에 해당하는 BS1, BS2의 오브젝트 정보를 얻을 수 있으며, 해당 오브젝트 정보들을 하나의 오브젝트 정보로 합치는 것은 도 29에서 사용한 방법을 그대로 사용할 수 있다. 다운믹스 신호들의 경우 딜레이가 각기 다른 상태에서 추가적인 딜레이 보정을 수행하지 않고 하나의 다운믹스 신호로 합치게 된다. 이 경우 통합된 비트스트림에 포함되는 딜레이 정보는 d1에 해당하는 정보가 저장된다.
도 33에는 앞에서 언급한 딜레이 차이를 보정하는 또 다른 방법을 보이고 있다. 도 33에서 BS2에서 발생하는 딜레이 d2를 기준으로 time align을 하는 방법을 보여주고 있다. 1번째 프레임을 예로 들면 해당 프레임에 해당하는 BS2의 오브젝트 정보는 1번째 프레임에 해당하는 오브젝트 정보를 그대로 사용할 수 있다. 반면 BS1의 오브젝트 정보는 1번째 프레임에 해당하는 오브젝트 정보와 2번째 프레임에 해당하는 오브젝트 정보가 모두 포함되어 있다. 따라서, 해당 프레임에 있어, BS1 에 해당하는 오브젝트 정보는 BS1의 1번째 프레임의 오브젝트 정보와 2번째 프레임에 해당하는 오브젝트 정보에 대해 해당 구간을 차지하는 비율에 따른 averaging을 하여 얻는 방법 혹은 보간(interpolation)을 하는 방법을 통해 구할 수 있다, 이렇게 하면 도 33에서 오른쪽의 점선으로 표시한 각 구간에 해당하는 BS1, BS2의 오브젝트 정보를 얻을 수 있으며 해당 오브젝트 정보들을 하나의 오브젝트 정보로 합치는 것은, 도 29에서 사용한 방법을 그대로 사용할 수 있다. 다운믹스 신호들의 경우 딜레이가 각기 다른 상태에서 추가적인 딜레이 보정을 수행하지 않고 하나의 다운믹스 신호로 합치게 된다. 이 경우 통합된 비트스트림에 포함되는 딜레이 정보는 d2에 해당하는 정보가 저장된다.
지금까지 살펴본 바와 같이, 다수의 오브젝트 부호화된 비트스트림을 하나의 비트스트림 으로 합치는 경우, 각 오브젝트 부호화된 비트스트림에 포함되어 있는 다운믹스 신호를 하나의 다운믹스 신호로 합치는 과정이 필요하다. 이 경우 다양한 압축코덱으로 이루어져 있는 다운믹스 신호들을 하나의 다운믹스 신호로 합치기 위해서는 압축되어 있는 신호들을 PCM 신호 혹은 특정 주파수 도메인 상의 신호로 변환하고, 해당 도메인 상에서 다운믹스 신호를 합치고 다시 특정 압축코덱으로 신호를 변환하는 과정이 요구된다. 이때 압축 코덱이 어떤 종류인가에 따라, 다운믹스 신호를 합치는 도메인이 PCM 단계에서 합치는가 아니면 특정 주파수 도메인 등에서 합치는가에 따라서 다양한 딜레이가 발생하게 된다. 이러한 딜레이는 최종으로 합쳐진 비트스트림을 디코딩하는 디코더에서는 구체적인 값을 예측할 수가 없다. 따라서, 해당 딜레이는 비트스트림상에 포함되어 전달되어야 한다. 해당 딜레이는 PCM 신호상에서의 딜레이 샘플 수를 표현할 수도 있고, 특정 주파수 도메인 상에서의 딜레이 샘플 수를 표현할 수도 있다.
한편, 본 발명은 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류와 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다
이상 설명한 바와 같이, 본 발명에 따르면, 다양한 환경에서 오브젝트 기반의 오디오 신호의 부호화 및 복호화의 장점을 최대한 활용하면서, 각 오브젝트 오디오 신호별로 효율적으로 음상을 정위할 수 있으므로, 오브젝트 오디오 신호의 재생시 보다 생생한 현실감을 제공 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 상대 오브젝트 에너지 정보와 절대 오브젝트 에너지 정보를 포함하는 적어도 두 개의 에너지 정보를 획득하는 단계; 및
    상기 에너지 정보를 이용하여, 결합된 절대 오브젝트 에너지 정보와 결합된 상대 오브젝트 에너지 정보를 포함하는 결합된 에너지 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  2. 제1항에 있어서,
    상기 절대 에너지 정보는, 최대 오브젝트 에너지 레벨을 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  3. 제2항에 있어서,
    상기 상대 오브젝트 에너지 정보는, 최대 오브젝트 에너지 레벨과 각 오브젝트 에너지 레벨의 비인 것을 특징으로 하는 오디오 복호화 방법.
  4. 제1항에 있어서,
    상기 결합된 에너지 정보를 생성하는 단계에서, 상기 결합된 절대 오브젝트 에너지 정보를 산출하고, 상기 결합된 절대 오브젝트 에너지 정보에 기초하여 상기 결합된 상대 오브젝트 에너지 정보를 생성하는 것을 특징으로 하는 오디오 복호화 방법.
  5. 오브젝트 부호화된 제1 오디오 신호와 제2 오디오 신호를 수신하는 단계;
    상기 제1 오디오 신호에 포함된 제1 오브젝트 에너지 정보와, 상기 제2 오디오 신호에 포함된 제2 오브젝트 에너지 정보를 이용하여 제3 오브젝트 에너지 정보를 생성하는 단계: 및
    상기 제1 및 제2 오디오 신호가 결합되고, 상기 제3 오브젝트 에너지 정보를 포함하는 제3 오디오 신호를 생성하는 단계;를 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  6. 제5항에 있어서,
    상기 제3 오브젝트 부가정보와 랜더링 제어정보를 이용하여 채널기반의 부가정보를 생성하는 단계; 및
    상기 제3 다운믹스 신호와 상기 채널기반의 부가정보를 이용하여 멀티채널 오디오 신호를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  7. 제5항에 있어서,
    상기 제3 에너지 정보는, 오브젝트 레벨정보 및 절대 오브젝트 에너지 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  8. 제7항에 있어서,
    상기 제3 오디오 신호는, 상기 절대 오브젝트 에너지 정보의 전송여부를 나타내는 플래그 정보를 포함하는 것을 특징으로 하는 오디오 복호화 방법.
  9. 제1 오디오 신호에서 제1 다운믹스 신호와 제1 오브젝트 정보를 추출하고, 제2 오디오 신호에서 제2 다운믹스 신호와 제2 오브젝트 정보를 추출하는 디멀티플렉서; 및
    상기 제1 및 제2 오브젝트 정보가 결합되고, 상기 제1 오브젝트 정보에 포함된 제1 오브젝트 에너지 정보와, 상기 제2 오브젝트 정보에 포함된 제2 오브젝트 에너지 정보를 이용하여 생성한 제3 오브젝트 에너지 정보를 포함하는 제3 오브젝트 정보와, 상기 제1 및 제2 다운믹스 신호를 결합한 제3 다운믹스 신호를 생성하는 멀티포인터 제어부;를 포함하는 것을 특징으로 하는 오디오 복호화 장치.
  10. 제9항에 있어서,
    상기 제3 오브젝트 정보와 랜더링 제어정보를 이용하여 채널기반의 부가정보를 생성하는 트랜스코더; 및
    상기 제3 다운믹스 신호와 상기 채널기반의 부가정보를 이용하여 멀티채널 오디오 신호를 생성하는 멀티채널 디코더;를 더 포함하는 것을 특징으로 오디오 복호화 장치.
  11. 제9항에 있어서,
    상기 제3 에너지 정보는, 오브젝트 레벨정보 및 절대 오브젝트 에너지 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 오디오 복호화 장치.
  12. 제9항에 있어서,
    상기 멀티포인터 제어부는, 상기 제1 및 제2 에너지 정보를 레벌 조정 정보에 기초하여 조절한 에너지 정보를 이용하여 상기 제3 에너지 정보를 생성하는 것을 특징으로 하는 오디오 복호화 장치.
  13. 상대 오브젝트 에너지 정보와 절대 오브젝트 에너지 정보를 포함하는 적어도 두 개의 에너지 정보를 획득하는 단계; 및
    상기 에너지 정보를 이용하여, 결합된 절대 오브젝트 에너지 정보와 결합된 상대 오브젝트 에너지 정보를 포함하는 결합된 에너지 정보를 생성하는 단계를 포함하는 오디오 복호화 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 프로세서가 읽을 수 있는 기록매체.
  14. 오브젝트 부호화된 제1 오디오 신호와 제2 오디오 신호를 수신하는 단계;
    상기 제1 오디오 신호에 포함된 제1 오브젝트 에너지 정보와, 상기 제2 오디오 신호에 포함된 제2 오브젝트 에너지 정보를 이용하여 제3 오브젝트 에너지 정보 를 생성하는 단계; 및
    상기 제1 및 제2 오디오 신호가 결합되고, 상기 제3 오브젝트 에너지 정보를 포함하는 제3 오디오 신호를 생성하는 단계를 포함하는 오디오 복호화 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 프로세서가 읽을 수 있는 기록매체.
  15. 제14항에 있어서,
    상기 제3 오브젝트 부가정보와 랜더링 제어정보를 이용하여 채널기반의 부가정보를 생성하는 단계; 및
    상기 제1 및 제2 다운믹스 신호를 결합한 제3 다운믹스 신호와 상기 채널기반의 부가정보를 이용하여 멀티채널 오디오 신호를 생성하는 단계를 더 포함하는 것을 특징으로 하는 프로세서에서 실행시키기 위한 프로그램을 기록한 프로세서가 읽을 수 있는 기록매체.
KR1020097001828A 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법 KR101069268B1 (ko)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US90108907P 2007-02-14 2007-02-14
US60/901,089 2007-02-14
US90164207P 2007-02-16 2007-02-16
US60/901,642 2007-02-16
US90381807P 2007-02-28 2007-02-28
US60/903,818 2007-02-28
US90768907P 2007-04-13 2007-04-13
US60/907,689 2007-04-13
US92402707P 2007-04-27 2007-04-27
US60/924,027 2007-04-27
US94762007P 2007-07-02 2007-07-02
US60/947,620 2007-07-02
US94837307P 2007-07-06 2007-07-06
US60/948,373 2007-07-06

Publications (2)

Publication Number Publication Date
KR20090082340A true KR20090082340A (ko) 2009-07-30
KR101069268B1 KR101069268B1 (ko) 2011-10-04

Family

ID=39690272

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020097001828A KR101069268B1 (ko) 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법
KR1020097001827A KR101049143B1 (ko) 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법
KR1020097001829A KR101041825B1 (ko) 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020097001827A KR101049143B1 (ko) 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법
KR1020097001829A KR101041825B1 (ko) 2007-02-14 2008-02-14 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법

Country Status (11)

Country Link
US (7) US8296158B2 (ko)
EP (3) EP2111617B1 (ko)
JP (4) JP5232795B2 (ko)
KR (3) KR101069268B1 (ko)
AT (1) ATE526659T1 (ko)
AU (3) AU2008215232B2 (ko)
BR (2) BRPI0802614A2 (ko)
CA (3) CA2645912C (ko)
MX (3) MX2008012986A (ko)
TW (3) TWI396187B (ko)
WO (3) WO2008100100A1 (ko)

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101410891A (zh) * 2006-02-03 2009-04-15 韩国电子通信研究院 使用空间线索控制多目标或多声道音频信号的渲染的方法和装置
EP2595148A3 (en) 2006-12-27 2013-11-13 Electronics and Telecommunications Research Institute Apparatus for coding multi-object audio signals
KR101422745B1 (ko) 2007-03-30 2014-07-24 한국전자통신연구원 다채널로 구성된 다객체 오디오 신호의 인코딩 및 디코딩장치 및 방법
US8321211B2 (en) * 2008-02-28 2012-11-27 University Of Kansas-Ku Medical Center Research Institute System and method for multi-channel pitch detection
KR101461685B1 (ko) * 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
US8670440B2 (en) 2008-05-13 2014-03-11 Electronics And Telecommunications Research Institute Data transceiving apparatus and method in centralized MAC-based wireless communication system
EP2146522A1 (en) * 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
MX2011011399A (es) 2008-10-17 2012-06-27 Univ Friedrich Alexander Er Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto.
RU2468451C1 (ru) * 2008-10-29 2012-11-27 Долби Интернэшнл Аб Защита от ограничения сигнала с использованием заранее существующих метаданных коэффициента усиления аудиосигнала
KR101600352B1 (ko) * 2008-10-30 2016-03-07 삼성전자주식회사 멀티 채널 신호의 부호화/복호화 장치 및 방법
US8139773B2 (en) * 2009-01-28 2012-03-20 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
US8255821B2 (en) * 2009-01-28 2012-08-28 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
WO2010090019A1 (ja) * 2009-02-04 2010-08-12 パナソニック株式会社 結合装置、遠隔通信システム及び結合方法
WO2010091555A1 (zh) * 2009-02-13 2010-08-19 华为技术有限公司 一种立体声编码方法和装置
US8666752B2 (en) * 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
WO2010138311A1 (en) * 2009-05-26 2010-12-02 Dolby Laboratories Licensing Corporation Equalization profiles for dynamic equalization of audio data
WO2010138309A1 (en) * 2009-05-26 2010-12-02 Dolby Laboratories Licensing Corporation Audio signal dynamic equalization processing control
KR101387902B1 (ko) * 2009-06-10 2014-04-22 한국전자통신연구원 다객체 오디오 신호를 부호화하는 방법 및 부호화 장치, 복호화 방법 및 복호화 장치, 그리고 트랜스코딩 방법 및 트랜스코더
KR101283783B1 (ko) * 2009-06-23 2013-07-08 한국전자통신연구원 고품질 다채널 오디오 부호화 및 복호화 장치
US20100324915A1 (en) * 2009-06-23 2010-12-23 Electronic And Telecommunications Research Institute Encoding and decoding apparatuses for high quality multi-channel audio codec
KR101805212B1 (ko) * 2009-08-14 2017-12-05 디티에스 엘엘씨 객체-지향 오디오 스트리밍 시스템
TWI484473B (zh) 2009-10-30 2015-05-11 Dolby Int Ab 用於從編碼位元串流擷取音訊訊號之節奏資訊、及估算音訊訊號之知覺顯著節奏的方法及系統
MY154641A (en) * 2009-11-20 2015-07-15 Fraunhofer Ges Forschung Apparatus for providing an upmix signal representation on the basis of the downmix signal representation, apparatus for providing a bitstream representing a multi-channel audio signal, methods, computer programs and bitstream representing a multi-channel audio signal using a linear cimbination parameter
WO2011083979A2 (en) * 2010-01-06 2011-07-14 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
US9112591B2 (en) 2010-04-16 2015-08-18 Samsung Electronics Co., Ltd. Apparatus for encoding/decoding multichannel signal and method thereof
US8948403B2 (en) * 2010-08-06 2015-02-03 Samsung Electronics Co., Ltd. Method of processing signal, encoding apparatus thereof, decoding apparatus thereof, and signal processing system
JP5650227B2 (ja) * 2010-08-23 2015-01-07 パナソニック株式会社 音声信号処理装置及び音声信号処理方法
JP5533502B2 (ja) * 2010-09-28 2014-06-25 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
CN103649706B (zh) * 2011-03-16 2015-11-25 Dts(英属维尔京群岛)有限公司 三维音频音轨的编码及再现
EP2695161B1 (en) 2011-04-08 2014-12-17 Dolby Laboratories Licensing Corporation Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams
TWI488174B (zh) * 2011-06-03 2015-06-11 Apple Inc 自動地建立文字資料與音訊資料間之映射
KR101783962B1 (ko) * 2011-06-09 2017-10-10 삼성전자주식회사 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치
US9754595B2 (en) 2011-06-09 2017-09-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding 3-dimensional audio signal
EP2560161A1 (en) 2011-08-17 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optimal mixing matrices and usage of decorrelators in spatial audio processing
US20130065213A1 (en) * 2011-09-13 2013-03-14 Harman International Industries, Incorporated System and method for adapting audio content for karaoke presentations
CN103890841B (zh) * 2011-11-01 2017-10-17 皇家飞利浦有限公司 音频对象编码和解码
CN104012043A (zh) * 2011-12-22 2014-08-27 皇家飞利浦有限公司 无线网络配置***和方法
JP6174129B2 (ja) 2012-05-18 2017-08-02 ドルビー ラボラトリーズ ライセンシング コーポレイション パラメトリックオーディオコーダに関連するリバーシブルダイナミックレンジ制御情報を維持するシステム
US10844689B1 (en) 2019-12-19 2020-11-24 Saudi Arabian Oil Company Downhole ultrasonic actuator system for mitigating lost circulation
US9622014B2 (en) 2012-06-19 2017-04-11 Dolby Laboratories Licensing Corporation Rendering and playback of spatial audio using channel-based audio systems
TWI453441B (zh) * 2012-06-29 2014-09-21 Zeroplus Technology Co Ltd Signal decoding method
US9190065B2 (en) 2012-07-15 2015-11-17 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
US9761229B2 (en) 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
EP2863657B1 (en) 2012-07-31 2019-09-18 Intellectual Discovery Co., Ltd. Method and device for processing audio signal
US9489954B2 (en) * 2012-08-07 2016-11-08 Dolby Laboratories Licensing Corporation Encoding and rendering of object based audio indicative of game audio content
RU2609097C2 (ru) * 2012-08-10 2017-01-30 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способы для адаптации аудиоинформации при пространственном кодировании аудиообъектов
MY181365A (en) * 2012-09-12 2020-12-21 Fraunhofer Ges Forschung Apparatus and method for providing enhanced guided downmix capabilities for 3d audio
WO2014046916A1 (en) * 2012-09-21 2014-03-27 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
KR20140046980A (ko) * 2012-10-11 2014-04-21 한국전자통신연구원 오디오 데이터 생성 장치 및 방법, 오디오 데이터 재생 장치 및 방법
KR20140047509A (ko) 2012-10-12 2014-04-22 한국전자통신연구원 객체 오디오 신호의 잔향 신호를 이용한 오디오 부/복호화 장치
SG11201504368VA (en) 2012-12-04 2015-07-30 Samsung Electronics Co Ltd Audio providing apparatus and audio providing method
EP2757558A1 (en) * 2013-01-18 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time domain level adjustment for audio signal decoding or encoding
TWI530941B (zh) * 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
ES2636808T3 (es) 2013-05-24 2017-10-09 Dolby International Ab Codificación de escenas de audio
BR112015028914B1 (pt) 2013-05-24 2021-12-07 Dolby International Ab Método e aparelho para reconstruir um bloco de tempo/frequência de objetos de áudio n, método e codificador para gerar pelo menos um parâmetro de ponderação, e meio legível por computador
CN105229731B (zh) 2013-05-24 2017-03-15 杜比国际公司 根据下混的音频场景的重构
US9420393B2 (en) * 2013-05-29 2016-08-16 Qualcomm Incorporated Binaural rendering of spherical harmonic coefficients
EP3011764B1 (en) * 2013-06-18 2018-11-21 Dolby Laboratories Licensing Corporation Bass management for audio rendering
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
US9883311B2 (en) 2013-06-28 2018-01-30 Dolby Laboratories Licensing Corporation Rendering of audio objects using discontinuous rendering-matrix updates
EP2830335A3 (en) 2013-07-22 2015-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method, and computer program for mapping first and second input channels to at least one output channel
EP2830047A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
EP2830046A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal to obtain modified output signals
EP2830050A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
CN118016076A (zh) 2013-09-12 2024-05-10 杜比实验室特许公司 用于下混合音频内容的响度调整
CN109920440B (zh) 2013-09-12 2024-01-09 杜比实验室特许公司 用于各种回放环境的动态范围控制
JP6288100B2 (ja) * 2013-10-17 2018-03-07 株式会社ソシオネクスト オーディオエンコード装置及びオーディオデコード装置
EP2866227A1 (en) 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
SG11201603116XA (en) * 2013-10-22 2016-05-30 Fraunhofer Ges Forschung Concept for combined dynamic range compression and guided clipping prevention for audio devices
CN109068263B (zh) * 2013-10-31 2021-08-24 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
EP2879131A1 (en) * 2013-11-27 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for informed loudness estimation in object-based audio coding systems
US10492014B2 (en) 2014-01-09 2019-11-26 Dolby Laboratories Licensing Corporation Spatial error metrics of audio content
KR101567665B1 (ko) * 2014-01-23 2015-11-10 재단법인 다차원 스마트 아이티 융합시스템 연구단 퍼스널 오디오 스튜디오 시스템
US9779739B2 (en) 2014-03-20 2017-10-03 Dts, Inc. Residual encoding in an object-based audio system
EP4177886A1 (en) * 2014-05-30 2023-05-10 Sony Corporation Information processing apparatus and information processing method
US10754925B2 (en) 2014-06-04 2020-08-25 Nuance Communications, Inc. NLU training with user corrections to engine annotations
US10373711B2 (en) 2014-06-04 2019-08-06 Nuance Communications, Inc. Medical coding system with CDI clarification request notification
JP6520937B2 (ja) * 2014-06-06 2019-05-29 ソニー株式会社 オーディオ信号処理装置および方法、符号化装置および方法、並びにプログラム
US9883308B2 (en) * 2014-07-01 2018-01-30 Electronics And Telecommunications Research Institute Multichannel audio signal processing method and device
US9774974B2 (en) 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
EP3201916B1 (en) * 2014-10-01 2018-12-05 Dolby International AB Audio encoder and decoder
WO2016050900A1 (en) 2014-10-03 2016-04-07 Dolby International Ab Smart access to personalized audio
JP2018513996A (ja) * 2015-04-10 2018-05-31 トムソン ライセンシングThomson Licensing 複数のオーディオ信号を符号化する方法およびデバイス、ならびに、分離を改善した、複数のオーディオ信号の混合物を復号する方法およびデバイス
WO2016172111A1 (en) 2015-04-20 2016-10-27 Dolby Laboratories Licensing Corporation Processing audio data to compensate for partial hearing loss or an adverse hearing environment
CN106303897A (zh) 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
KR20230105002A (ko) 2015-08-25 2023-07-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 프레젠테이션 변환 파라미터들을 사용하는 오디오 인코딩및 디코딩
US10366687B2 (en) * 2015-12-10 2019-07-30 Nuance Communications, Inc. System and methods for adapting neural network acoustic models
CN107346493B (zh) * 2016-05-04 2021-03-23 阿里巴巴集团控股有限公司 对象分配方法和装置
EP3465678B1 (en) 2016-06-01 2020-04-01 Dolby International AB A method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position
WO2018057639A1 (en) 2016-09-20 2018-03-29 Nuance Communications, Inc. Method and system for sequencing medical billing codes
US9896031B1 (en) 2017-01-03 2018-02-20 Ford Global Technologies, Llc Spatial auditory alerts for a vehicle
US11133091B2 (en) 2017-07-21 2021-09-28 Nuance Communications, Inc. Automated analysis system and method
US11024424B2 (en) 2017-10-27 2021-06-01 Nuance Communications, Inc. Computer assisted coding systems and methods
GB201718341D0 (en) 2017-11-06 2017-12-20 Nokia Technologies Oy Determination of targeted spatial audio parameters and associated spatial audio playback
US10650834B2 (en) * 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
GB2572650A (en) 2018-04-06 2019-10-09 Nokia Technologies Oy Spatial audio parameters and associated spatial audio playback
GB2574239A (en) 2018-05-31 2019-12-04 Nokia Technologies Oy Signalling of spatial audio parameters
GB2578625A (en) 2018-11-01 2020-05-20 Nokia Technologies Oy Apparatus, methods and computer programs for encoding spatial metadata
RU2768224C1 (ru) * 2018-12-13 2022-03-23 Долби Лабораторис Лайсэнзин Корпорейшн Двусторонняя медийная аналитика
JP7092047B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 符号化復号方法、復号方法、これらの装置及びプログラム
EP3761672B1 (en) 2019-07-02 2023-04-05 Dolby International AB Using metadata to aggregate signal processing operations
US11582572B2 (en) * 2020-01-30 2023-02-14 Bose Corporation Surround sound location virtualization
EP4226370A1 (en) 2020-10-05 2023-08-16 The Trustees of Columbia University in the City of New York Systems and methods for brain-informed speech separation
CN112309419B (zh) * 2020-10-30 2023-05-02 浙江蓝鸽科技有限公司 多路音频的降噪、输出方法及其***
WO2023077284A1 (zh) * 2021-11-02 2023-05-11 北京小米移动软件有限公司 一种信号编解码方法、装置、用户设备、网络侧设备及存储介质

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3882280A (en) 1973-12-19 1975-05-06 Magnavox Co Method and apparatus for combining digitized information
US6289308B1 (en) 1990-06-01 2001-09-11 U.S. Philips Corporation Encoded wideband digital transmission signal and record carrier recorded with such a signal
EP0562211A1 (en) 1992-03-25 1993-09-29 International Business Machines Corporation Self-aligning fiber couplers
TW272341B (ko) 1993-07-16 1996-03-11 Sony Co Ltd
JP3747492B2 (ja) 1995-06-20 2006-02-22 ソニー株式会社 音声信号の再生方法及び再生装置
US6505160B1 (en) 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
IT1281001B1 (it) 1995-10-27 1998-02-11 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per codificare, manipolare e decodificare segnali audio.
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
TW429700B (en) 1997-02-26 2001-04-11 Sony Corp Information encoding method and apparatus, information decoding method and apparatus and information recording medium
US7110662B1 (en) * 1997-03-25 2006-09-19 Samsung Electronics Co., Ltd. Apparatus and method for recording data on a DVD-audio disk
US6741796B1 (en) * 1997-03-25 2004-05-25 Samsung Electronics, Co., Ltd. DVD-Audio disk, and apparatus and method for playing the same
US6449227B1 (en) * 1997-03-25 2002-09-10 Samsung Electronics Co., Ltd. DVD-audio disk, and apparatus and method for playing the same
KR100261254B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 데이터 부호화/복호화방법 및 장치
JP4132154B2 (ja) * 1997-10-23 2008-08-13 ソニー株式会社 音声合成方法及び装置、並びに帯域幅拡張方法及び装置
KR100335609B1 (ko) 1997-11-20 2002-10-04 삼성전자 주식회사 비트율조절이가능한오디오부호화/복호화방법및장치
US20050120870A1 (en) 1998-05-15 2005-06-09 Ludwig Lester F. Envelope-controlled dynamic layering of audio signal processing and synthesis for music applications
US7478042B2 (en) 2000-11-30 2009-01-13 Panasonic Corporation Speech decoder that detects stationary noise signal regions
TW501376B (en) 2001-02-09 2002-09-01 Elan Microelectronics Corp Decoding device and method of digital audio
US6849794B1 (en) 2001-05-14 2005-02-01 Ronnie C. Lau Multiple channel system
US6658383B2 (en) 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
MXPA03005133A (es) * 2001-11-14 2004-04-02 Matsushita Electric Ind Co Ltd Dispositivo de codificacion, dispositivo de decodificacion y sistema de los mismos.
US7149412B2 (en) 2002-03-01 2006-12-12 Thomson Licensing Trick mode audio playback
EP1500085B1 (en) 2002-04-10 2013-02-20 Koninklijke Philips Electronics N.V. Coding of stereo signals
BRPI0304540B1 (pt) 2002-04-22 2017-12-12 Koninklijke Philips N. V Methods for coding an audio signal, and to decode an coded audio sign, encoder to codify an audio signal, codified audio sign, storage media, and, decoder to decode a coded audio sign
AU2003281128A1 (en) 2002-07-16 2004-02-02 Koninklijke Philips Electronics N.V. Audio coding
BR0311601A (pt) 2002-07-19 2005-02-22 Nec Corp Aparelho e método decodificador de áudio e programa para habilitar computador
JP2004064363A (ja) 2002-07-29 2004-02-26 Sony Corp デジタルオーディオ処理方法、デジタルオーディオ処理装置およびデジタルオーディオ記録媒体
BRPI0305710B1 (pt) 2002-08-01 2017-11-07 Panasonic Corporation "apparatus and method of decoding of audio"
AU2003260958A1 (en) 2002-09-19 2004-04-08 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
CN1717955B (zh) 2002-12-02 2013-10-23 汤姆森许可贸易公司 用于描述音频信号的合成的方法
EP1576602A4 (en) * 2002-12-28 2008-05-28 Samsung Electronics Co Ltd METHOD AND DEVICE FOR MIXING AUDIO SEQUENCE AND INFORMATION RECORDING MEDIUM
US7787632B2 (en) 2003-03-04 2010-08-31 Nokia Corporation Support of a multichannel audio extension
JP2004361731A (ja) 2003-06-05 2004-12-24 Nec Corp オーディオ復号装置及びオーディオ復号方法
US8140164B2 (en) * 2003-10-15 2012-03-20 Rmx, Llc Therapeutic diaphragm stimulation device and method
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
US7391870B2 (en) 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
KR100658222B1 (ko) 2004-08-09 2006-12-15 한국전자통신연구원 3차원 디지털 멀티미디어 방송 시스템
SE0402652D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
TWI237806B (en) * 2004-11-03 2005-08-11 Sunplus Technology Co Ltd Audio decoding system with ring buffer and method thereof
EP1817767B1 (en) 2004-11-30 2015-11-11 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
DE102005008366A1 (de) * 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
TWI279712B (en) 2005-04-13 2007-04-21 Realtek Semiconductor Corp Voice message encoding/decoding apparatus and its method
EP1946294A2 (en) 2005-06-30 2008-07-23 LG Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
KR20070011100A (ko) 2005-07-18 2007-01-24 엘지전자 주식회사 다채널 오디오 코딩에서 오디오 신호의 에너지 보정방법 및그 보정을 위한 부호화된 오디오 신호 생성방법
US8359341B2 (en) 2005-12-10 2013-01-22 International Business Machines Corporation Importing content into a content management system using an e-mail application
CN101410891A (zh) 2006-02-03 2009-04-15 韩国电子通信研究院 使用空间线索控制多目标或多声道音频信号的渲染的方法和装置
BRPI0708047A2 (pt) 2006-02-09 2011-05-17 Lg Eletronics Inc método para codificar e decodificar sinal de áudio com base em objeto e equipamento para o mesmo
ATE527833T1 (de) * 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
DE102006029752A1 (de) 2006-06-28 2008-01-10 Basf Construction Polymers Gmbh Verwendung von Methacrylat-Derivaten zur Verdickung salzhaltiger Medien
EP2112652B1 (en) * 2006-07-07 2012-11-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for combining multiple parametrically coded audio sources
MY151722A (en) 2006-07-07 2014-06-30 Fraunhofer Ges Forschung Concept for combining multiple parametrically coded audio sources
EP2575129A1 (en) * 2006-09-29 2013-04-03 Electronics and Telecommunications Research Institute Apparatus and method for coding and decoding multi-object audio signal with various channel
BRPI0715312B1 (pt) 2006-10-16 2021-05-04 Koninklijke Philips Electrnics N. V. Aparelhagem e método para transformação de parâmetros multicanais
MY145497A (en) 2006-10-16 2012-02-29 Dolby Sweden Ab Enhanced coding and parameter representation of multichannel downmixed object coding
WO2008060111A1 (en) * 2006-11-15 2008-05-22 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
ES2452348T3 (es) 2007-04-26 2014-04-01 Dolby International Ab Aparato y procedimiento para sintetizar una señal de salida
US8295494B2 (en) * 2007-08-13 2012-10-23 Lg Electronics Inc. Enhancing audio with remixing capability
WO2009049895A1 (en) * 2007-10-17 2009-04-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding using downmix

Also Published As

Publication number Publication date
US8756066B2 (en) 2014-06-17
US20090210238A1 (en) 2009-08-20
US20110200197A1 (en) 2011-08-18
BRPI0802614A2 (pt) 2011-08-30
JP2010508545A (ja) 2010-03-18
US8296158B2 (en) 2012-10-23
TW200921642A (en) 2009-05-16
JP5254983B2 (ja) 2013-08-07
BRPI0802613A2 (pt) 2011-08-30
CA2645912C (en) 2014-04-08
KR101041825B1 (ko) 2011-06-17
TWI443647B (zh) 2014-07-01
EP2111616B1 (en) 2011-09-28
WO2008100100A1 (en) 2008-08-21
TW200847136A (en) 2008-12-01
WO2008100098A1 (en) 2008-08-21
CA2645913C (en) 2012-09-18
US20140297294A1 (en) 2014-10-02
CA2645912A1 (en) 2008-08-21
US20110202357A1 (en) 2011-08-18
CA2645915C (en) 2012-10-23
US8234122B2 (en) 2012-07-31
JP2012198556A (ja) 2012-10-18
AU2008215230A1 (en) 2008-08-21
US8271289B2 (en) 2012-09-18
KR20090030323A (ko) 2009-03-24
MX2008013073A (es) 2008-10-27
AU2008215232A1 (en) 2008-08-21
KR101069268B1 (ko) 2011-10-04
AU2008215232B2 (en) 2010-02-25
US20100076772A1 (en) 2010-03-25
AU2008215230B2 (en) 2010-03-04
TW200907932A (en) 2009-02-16
US20110202356A1 (en) 2011-08-18
KR101049143B1 (ko) 2011-07-15
EP2115739A4 (en) 2010-01-20
US8417531B2 (en) 2013-04-09
AU2008215231B2 (en) 2010-02-18
US9449601B2 (en) 2016-09-20
EP2115739A1 (en) 2009-11-11
EP2111617A4 (en) 2010-01-20
EP2111617B1 (en) 2013-09-04
EP2111616A4 (en) 2010-05-26
CA2645915A1 (en) 2008-08-21
US8204756B2 (en) 2012-06-19
ATE526659T1 (de) 2011-10-15
JP5232795B2 (ja) 2013-07-10
CA2645913A1 (en) 2008-08-21
US20090326958A1 (en) 2009-12-31
JP5291227B2 (ja) 2013-09-18
TWI396187B (zh) 2013-05-11
AU2008215231A1 (en) 2008-08-21
MX2008012986A (es) 2008-11-28
JP2010506231A (ja) 2010-02-25
KR20090082339A (ko) 2009-07-30
MX2008013078A (es) 2008-11-28
JP2010506232A (ja) 2010-02-25
EP2111617A1 (en) 2009-10-28
WO2008100099A1 (en) 2008-08-21
EP2111616A1 (en) 2009-10-28
TWI431610B (zh) 2014-03-21

Similar Documents

Publication Publication Date Title
KR101069268B1 (ko) 오브젝트 기반의 오디오 신호의 부호화/복호화 장치 및 방법
RU2406165C2 (ru) Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140822

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150824

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160824

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170814

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180814

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190814

Year of fee payment: 9