KR101104578B1 - 비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체 - Google Patents

비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체 Download PDF

Info

Publication number
KR101104578B1
KR101104578B1 KR1020097008644A KR20097008644A KR101104578B1 KR 101104578 B1 KR101104578 B1 KR 101104578B1 KR 1020097008644 A KR1020097008644 A KR 1020097008644A KR 20097008644 A KR20097008644 A KR 20097008644A KR 101104578 B1 KR101104578 B1 KR 101104578B1
Authority
KR
South Korea
Prior art keywords
audio input
input signal
output signal
signal
delay
Prior art date
Application number
KR1020097008644A
Other languages
English (en)
Other versions
KR20090076939A (ko
Inventor
쥐르겐 헤레
카르스텐 린쯔마이어
하랄드 팝
얀 플록스티에스
하랄드 문트
사스하 디쉬
Original Assignee
프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. filed Critical 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우.
Publication of KR20090076939A publication Critical patent/KR20090076939A/ko
Application granted granted Critical
Publication of KR101104578B1 publication Critical patent/KR101104578B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/05Application of the precedence or Haas effect, i.e. the effect of first wavefront, in order to improve sound-source localisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Detergent Compositions (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Developing Agents For Electrophotography (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

다중-채널 오디오 복구에서 과도 오디오 입력신호의 경우, 오디오 입력신호는 지연시간만큼 지연된 오디오 입력신호의 표시와 혼합되어 비상관 출력신호가 외오 입력신호로부터 발생된다. 제1시간간격에서, 제1출력신호는 오디오 입력신호에 대응하고, 제2출력신호는 오디오 입력신호의 지연 표시에 대응한다. 제2시간간격에서, 제1출력신호는 오디오 입력신호의 지연표시에 대응하고, 제2출력신호는 오디오 입력신호에 대응한다.
Figure R1020097008644
비상관기, 입력신호, 출력신호

Description

비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체{AN DECORRELATOR, AN AUDIO DECODER USING THE DECORRELATOR, A METHOD OF GENERATING OUTPUT SIGNALS BASED ON AN AUDIO INPUT SIGNAL, AND A MEDIUM}
본 발명은 비상관 신호의 발생 장치 및 방법에 관한 것이고, 특히 4-채널 오디오 신호의 재구성 그리고/또는 비상관 신호와 과도 신호의 미래 결합이 가청 신호의 열화를 일으키지 않도록 하는 과도 신호를 포함하는 신호로부터 비상관 신호를 추출하는 기능에 관한 것이다.
오디오 신호 처리 분야의 많은 애플리케이션은 제공되는 오디오 입력 신호에 기초한 비상관 신호의 발생을 요구한다. 예를 들면, 모노 신호의 스테레오 업믹스(upmix), 모노 또는 스테레오 신호에 기초한 4-채널 업믹스, 인공 반향음(reverbertion)의 발생 또는 스테레오 기초의 확장이 요구될 수 있다.
현재의 방법 그리고/또는 시스템에 따르면 박수갈채와 같이 특별한 종류의 신호에 직면할 때, 음질 그리고/또는 지각할 수 있는 음향 효과의 과도한 열화가 문제된다. 이것은 특히 헤드폰을 통하여 재생되는 경우에 문제된다. 이에 더하여 표준 비상관기(decorrelator)는 높은 복잡성 그리고/또는 높은 연산량을 나타내는 방법을 사용한다.
상기 문제점을 강조하기 위해 도 7과 도 8에는 신호 처리과정에 있는 비상관기의 사용이 도시되어 있다. 여기서, 도 7에 도시된 모노-투-스테레오(mono-to- stereo) 디코더에 대하여 간략하게 언급한다.
상기 모노-투-스테레오 디코더는 표준 비상관기(10)와 믹스 매트릭스(12)를 포함하여 구성된다. 상기 모노-투-스테레오 디코더는 공급되는 모노 신호(14)를 좌측 채널(16a) 및 우측 채널(16b)을 포함하는 스테레오 신호(16)로 전환하는 역할을 한다. 상기 표준 비상관기(10)는 상기 공급되는 모노 신호(14)로부터 상기 공급되는 모노 신호(14)와 함께 상기 믹스 매트릭스(12)의 입력에 적용되는 비상관 신호(18)를 발생시킨다. 본 명세서에서, 상기 처리되지 않은 모노 신호는 드라이(dry) 신호로, 상기 비상관 신호는 웨트(wet) 신호로 언급된다.
상기 믹스 매트릭스(12)는 상기 스테레오 신호(16)를 발생시키기 위해 상기 비상관 신호(18)와 상기 공급되는 모노 신호(14)를 결합한다. 여기서, 상기 믹스 매트릭스(12)(H)의 계수는 고정적으로 또는 신호 의존적으로, 또는 사용자 입력에 따라 주어진다. 또한, 상기 믹스 매트릭스(12)에 의해 수행되는 믹싱 처리는 주파수 선택적일 수 있다. 즉, 서로 다른 주파수 범위(주파수 밴드)에서는 서로 다른 믹싱 동작 그리고/또는 매트릭스 계수가 사용될 수 있다. 이러한 목적을 위하여, 상기 공급되는 모노 신호(14)는 필터 뱅크에 의해 전처리되어 상기 공급되는 모노 신호(14)가 상기 비상관 신호(18)와 함께 서로 다른 주파수 밴드에 속하는 상기 신호 부분들이 각각 개별적으로 처리되는 필터 뱅크에 존재하게 된다.
상기 업믹스 처리의 제어, 즉 상기 믹스 매트릭스(12)의 계수의 제어는 믹스 컨트롤(20)을 통한 사용자 상호작용에 의해 수행된다. 그리고 상기 믹스 매트릭스(12)(H)의 계수는 상기 공급되는 모노 신호(14)와 함께 전달되는 부가 정보(side information)를 통해 영향을 받는다(다운믹스(downmix)). 여기서, 상기 부가 정보는 상기 공급되는 모노 신호(14)(상기 전달된 신호)로부터 발생하는 다중 채널 신호의 발생 방법에 대한 파라메트릭(parametric) 설명을 포함한다. 이러한 공간적(spatial) 부가 정보는 인코더에 의해 실질적인 다운 믹스, 즉 상기 공급되는 모노 신호(14)의 발생 이전에 일반적으로 발생된다.
이상에서 설명된 처리과정은 보통 파라메트릭(공간상의) 오디오 코딩에 사용된다. 예로서, "파라메트릭 스테레오"라고 명명된 코딩(H. Purnhagen의 논문: "Low Complexity Parametric Stereo Coding in MPEG-4", 7th International Conference on Audio Effects (DAFX-04), Naples, Italy, 2004년 10월)과 엠펙 서라운드(MPEG Surround) 방법(L.Villemoes, J.Herre, J.Herre, J.Breebaart, G.Hotho, S.Disch, H.Purnhagen, K.Kjorling의 논문: "MPEG Surround: The Forthcoming ISO standard for spatial audio coding", AES 28th International Conference, Pitea, Sweden, 2006년)은 이러한 방법을 사용한다.
파라메트릭 스테레오 디코더의 전형적인 예가 도 8에 도시되어 있다. 도 7에 도시된 간단하고 비-주파수-선택적인 경우에 더하여, 도 6에 도시된 디코더는 분석 필터 뱅크(30)와 통합 필터 뱅크(32)를 포함하여 구성된다. 이것은 비상관화(decorrelating)가 주파수 의존적인 방식으로(스펙트럼 도메인(spectral domain)에서) 수행되는 경우이다. 이러한 이유로, 상기 공급되는 모노 신호(14)는 먼저 상기 분석 필터 뱅크(30)에 의해 서로 다른 주파수 범위의 신호 부분으로 분리된다. 즉, 각각의 주파수 밴드 고유의 비상관 신호는 이상에서 설명된 예와 유사하게 발생한다. 상기 공급되는 모노 신호(14) 뿐만 아니라 공간 파라미터(spatial parameter)(34)는 통합 필터 뱅크(32)의 수단에 의해 믹스된 신호를 발생시기키 위해 상기 믹스 매트릭스(12)의 매트릭스 성분을 결정하거나 또는 변화시키는 역할을 한다. 상기 믹스된 신호는 상기 스테레오 신호(16)를 형성하기 위해 시간 도메인(time domain)으로 되돌려져 전달된다.
그리고 상기 공간 파라미터(34)는 서로 다른 방식으로 서로 다른 재생 시나리오(playback scenarios)를 위한 업믹스 그리고/또는 스테레오 신호(16)를 발생시키기 위해 파라미터 컨트롤(36)을 통해 변경될 수 있다. 그리고/또는 상기 공간 파라미터(34)는 각각의 시나리오에 대하여 최적의 재생 음질을 적용하기 위해 변경될 수 있다. 예컨대 상기 공간 파라미터(34)가 입체음향(binaural) 재생에 적용되면, 상기 공간 파라미터(34)는 상기 믹스 매트릭스(12)를 제어하는 파라미터를 형성하기 위해 입체음향 필터의 파라미터와 결합될 수 있다. 대안적으로 상기 파라미터는 사용자 상호작용 또는 다른 도구 그리고/또는 알고리즘에 의해 변결될 수 있다. (예를 들면, 이하의 논문을 참조. Breebart, Jeroen; Herre, Jurgen; Jin, Craig; Kjorling, Kristofer; Koppens, Jeroen; Plogisties, Jan; Villemoes, Lars의 논문: Multi-channel Goes Mobile: MPEG Surround Binaural Rendering. AES 29th International Conference, Seoul, Korea, 2006년 9월 2-4일)
상기 믹스 매트릭스(12)(H)의 좌측 및 우측 채널의 출력은 예컨대 이하에 나 타낸 바와 같이, 상기 공급되는 모노 신호(14)(M)와 상기 비상관 신호(18)(D)로부터 발생된다.
Figure 112009025566759-pct00001
따라서 출력신호에 포함되는 상기 비상관 신호(18)(D)의 부분은 상기 믹스 매트릭스(12)에 적용된다. 처리과정에서 상기 믹싱 비율은 전달되는 상기 공간 파라미터(34)에 기초하여 시간에 따라 변화된다. 이러한 파라미터는 예컨대 두 개의 원래 신호의 상관관계를 설명하는 파라미터일 수 있다.(이러한 종류의 파라미터는 엠펙 서라운드 코딩에서 사용되고, 예컨대 다른 것과의 사이에서 ICC로 불린다.) 그리고 상기 공급되는 모노 신호(14)(엠펙 서라운드에서 ICLD 그리고/또는 ICD)에 포함되는 두 개의 채널이 원래 존재하는 에너지 비율을 전달하는 파라미터가 전달될 수 있다. 대안적으로 또는 그리고, 상기 매트릭스 성분은 직접적인 사용자 입력에 의해 변경될 수 있다.
상기 비상관 신호의 발생에 있어서, 서로 다른 일련의 방법들은 지금까지 사용되고 있다.
파라메트릭 스테레오와 엠펙 서라운드는 올-패스 필터(all-pass filter), 즉 전체 스텍트럼 범위를 통과시키고 스펙트럼에 의존적인 필터 특성을 가지는 필터를 사용한다. 입체음향 큐 코딩(Binaural Cue Coding)(BCC, Faller and Baumgarte, 예를 들면, 이하의 논문을 참조. C.Faller의 논문: "Parametric Coding Of Spatial Audio", PH.D.thesis, EPEL, 2004년)에서, 비상관을 위한 그룹 딜레이(group delay)가 제안되었다. 이러한 이유로, 주파수 의존적인 그룹 딜레이는 신호의 DFT 스펙트럼에서 위상을 변화시키는 것에 의해 신호에 적용된다. 즉, 서로 다른 시간의 주기 동안 서로 다른 주파수 범위가 딜레이된다. 이러한 방법은 보통 위상 조작의 카테고리에 포함된다.
그리고 단순한 딜레이의 사용, 즉 고정된 시간 딜레이가 알려져 있다. 이 방법은 예를 들면, 지각에 관한 한, 전방 신호로부터 비상관시키기 위해 4-채널 환경의 후방 스피커를 위한 서라운드 신호를 발생시키는데 사용된다. 전형적인 매트릭스 서라운드 시스템은 후방 오디오 채널에서 20 내지 40 ms의 시간 지연을 사용하는 돌비 프롤로직 Ⅱ(Dolby ProLogic Ⅱ)이다. 이러한 단순한 실행은 청취 경험에 관한 한, 좌측 및 우측 채널의 비상관보다 실질적으로 덜 열등하기 때문에 전방 및 후방 스피커의 비상관을 일으키는 것에 사용될 수 있다. 이것은 청취자에 의해 인식되는 재구성된 신호의 폭(width)에 실질적으로 중요하다.(이하의 논문 참조. J.Blauert의 논문: "Spatial hearing: The psychophysics of human sound localization"; MIT Press, Revised edition, 1997년)
이상에서 설명된 유명한 비상관 방법은 아래와 같은 실질적인 단점을 가진다.
- 신호 스펙트럼의 착색 (빗살형 필터 효과(comb-filter effect))
- 신호의 파쇄도(crispness) 감소
- 반향음(echo) 및 반사음(reverberaton) 효과 방해
- 비상관 지각의 불충분 그리고/또는 오디오 맵핑의 폭 불충분
- 반복적인 사운드 특색
여기서, 상기 발명은 이러한 유형의 신호처리에서 신호를 가장 임계(critical)적인 것으로 나타내는 것은 특히 광대역의 소음과 같은 신호 성분과 함께 전달되는 과도 이벤트(transient event)의 높은 시간적 밀도와 공간적 분배를 가지는 신호라는 것을 보여준다. 이것은 특히 이상에서 설명된 특성이 있는 박수갈채와 같은 신호의 경우이다.
이것은 비상관에 의해 각 하나의 과도 신호(이벤트)가 시간적 관점에서 선명하지 않게 될 수 있는 반면, 동시에 신호의 음색에서 변화로 인식되기 쉬운 소음과 같은 배경음이 빗살형 필터 효과 때문에 스펙트럼의 착색으로 나타나는 사실 때문이다.
종합하면, 알려진 비상관 방법은 이상에서 언급된 인공물을 발생시키거나 또는 요구된 비상관의 정도를 발생시킬 수 없다.
특히, 헤드폰을 통해 청취하는 것은 스피커를 통해 청취하는 것보다 더 열등하다는 것이 일반적으로 알려져 있다. 이러한 이유로, 이상에서 설명된 단점들은 특히 헤드폰에 의한 청취가 일반적으로 요구되는 애플리케이션에 의미가 있다. 이것은 일반적으로 휴대용 재생장치, 특히 저전력만을 공급받는 휴대용 재생장치의 경우에 의미가 있다. 본 명세서에서, 비상관에 소모되어야 하는 용량을 연산하는 것도 또한 중요한 점이다. 가장 잘 알려진 비상관 알고리즘들은 연산적으로 극히 집중적이다. 따라서 상기 잘 알려진 비상관 알고리즘들은 빠른 프로세서를 사용해 야 하는 결과 실행에서 많은 양의 에너지 소비가 불가피한 상대적으로 높은 수의 연산동작을 요구한다. 그리고 이러한 복잡한 알고리즘의 실행에는 많은 양의 메모리 공간이 요구된다. 바꾸어 말하면, 이는 증가된 에너지를 요구하는 결과가 된다.
특히, 입체음향 신호의 재생에서 (그리고 헤드폰을 통한 청취에서) 표시되는 신호의 재생 품질의 지각과 관련하여 많은 특별한 문제가 발생할 것이다. 그 중 하나로, 박수갈채 신호의 경우, 과도 이벤트를 열화시키지 않기 위해 각 파열음 이벤트을 정확하게 나타내는 것이 특히 중요하다. 따라서 비상관기는 시간적 관점에서 제때에 소리의 발생을 열화시키지 않는 것, 즉 일시적으로 분산적인 특성을 나타내지 않는 것이 요구된다. 주파수 의존적인 그룹 딜레이를 도입하는 이상에서 설명된 필터와 올-패스 필터는 일반적으로 이러한 목적에 적합하지 않다. 그리고 예컨대 단순한 시간 지연에 의해 야기되는 반복적인 음향효과를 피하는 것이 요구된다. 만약 이러한 단순한 시간 지연이 디코딩된 신호를 발생시키기 위해 사용되고, 믹스 매트릭스에 의해 직접 신호에 추가되면, 음향은 극도로 반복적으로 되어 자연스럽지 않게 된다. 그리고 이러한 정적인 딜레이는 빗살형 필터 효과, 즉 재구성된 신호의 의도하지 않은 스펙트럼의 착색이 발생한다.
단순한 시간 지연에의 사용은 또한 선행효과(precedence effect)를 야기한다. (예를 들면, 이하의 논문을 참조. J.Blauert의 논문: "Spatial hearing: The psychophysics of human sound localization"; MIT Press, Revised edition, 1997년) 상기 선행효과는 단순한 시간 지연이 사용될 때, 시간적 관점에서 앞서는 출력 채널과 시간적 관점에서 뒤따르는 출력 채널이 있다는 사실로부터 기인한다. 인간 의 귀는 소음이 처음으로 들려오는 공간상의 방향에 대하여 음색(tone), 음향(sound), 또는 물체의 출처를 감지한다. 즉, 공간상의 배치에 사실상 책임이 있는 공간 파라미터가 서로 다른 것을 나타내는지 여부에 관계없이, 상기 신호원은 일시적으로 앞서는 출력 채널(앞서는 신호)의 신호부분의 재생이 일어나는 방향에서 감지된다.
본 발명의 목적은 과도 신호의 존재에서 신호 음질을 향상시키는 신호의 비상관 장치 및 방법을 제공하는 것이다.
상기 목적은 청구항 1에 따른 비상관기에 의해서, 그리고 청구항 16에 따른 비상관 신호를 발생시키는 방법에 의해 달성된다.
여기서, 본 발명은 제1시간간격에서, 제1출력신호는 오디오 입력신호에 대응하고, 제2출력신호는 오디오 입력신호의 지연 표시에 대응한다. 제2시간간격에서, 제1출력신호는 오디오 입력신호의 지연표시에 대응하고, 제2출력신호는 오디오 입력신호에 대응하도록 지연시간만큼 지연된 오디오 입력신호의 표현에 오디오 입력신호를 혼합하여 발생되는 비상관 출력신호를 제공한다.
즉, 시간-지연된 제1오디오입력신호의 복사본이 발생되어 오디오 입력신호로부터 서로 비상관된 두 개의 신호가 얻어진다. 그리고 오디오 입력신호와 오디오 입력신호의 지연된 표시가 두 개의 출력신호로서 교대로 사용되도록 두 개의 출력신호가 발생된다.
시간-분리된 표현에서, 이것은 출력신호의 샘플들의 연속은 교대로 오디오 입력신호와 오디오 입력신호의 지연된 표현으로부터 직접적으로 사용되는 것을 의미한다. 여기서, 비상관 신호를 발생시키기 위해 시간지연이 사용된다. 시간지연은 종종 독립적이고, 따라서 파열음에 의해 일시적으로 손상되지 않는다. 시간-분리된 표현의 경우, 적은 수의 메모리 요소를 나타내는 시간 지연 체인(chain)은 재건된 신호의 회득 가능한 공간적 폭과 부가적인 메모리 요구 사이의 좋은 거래이다. 지연시간은 바람직하게는 50 ms보다 작고, 더욱 바람직하게는 30 ms 이하로 선택된다.
따라서 제1시간간격에서 오디오 입력신호가 직접적으로 좌측 채널을 형성하고, 연속하는 제2시간간격에서 오디오 입력신호의 지연된 표시가 좌측 채널로 사용됨으로써 앞선 문제점들이 해결된다.동일한 과정이 우측 채널에서도 적용된다.
바람직한 실시예에서, 개개의 교환 과정 사이의 스위칭 시간은 전형적으로 과도 이벤트가 발생하는 시간보다 더 길게 선택된다. 즉, 앞선 채널과 연이은 채널이 주기적으로 (또는 무작위적으로) 교환된다(예컨대, 100 ms 길이의 간격에서). 사람의 청취의 게으름으로 인한 방향의 혼동은 간격 길이의 선택이 적당하게 되면 억제된다.
따라서 본 발명에 따르면, (파열음과 같은)과도 신호를 열화시키지 않고 또한 반복적인 음향 특성을 나타내는 넓은 음장(sound field)을 발생시킬 수 있다.
진보적인 비상관기는 극히 작은 수의 계산 동작에만 사용된다. 특히, 단순한 하나의 시간지연과 적은 수의 다중 곱셈은 비상관 신호의 진보적 발생을 요구한다. 개객의 채널의 교환은 간단한 복사 동작이고, 추가적인 연산을 요하지 않는다. 선택적인 신호-채택 그리고/또는 후처리 방법은 또한 단순하게 덧셈 또는 뺄셈, 즉 이미 존재하는 하드웨어에 의한 전형적인 동작만을 각각 요구한다. 따라서 매우 작은 양의 추가 메모리만이 지연수단 또는 지연 라인(line)의 수행을 위해 요구된다. 동일한 것이 많은 시스템에 존재하고, 함께 사용된다.
이하에서는 본 발명의 바람직한 실시예에 대해 첨부한 도면과 함께 더욱 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 비상관기를 도시하고;
도 2는 본 발명의 일 실시예에 따라 발생되는 비상관된 신호를 도시하고;
도 2a는 본 발명의 다른 실시예에 따른 비상관기를 도시하고;
도 2b는 도 2a의 비상관기의 가능한 제어 신호의 실시예를 도시하고;
도 3은 본 발명의 또 다른 실시예에 따른 비상관기를 도시하고;
도 4는 비상관된 신호를 발생시키는 장치의 예를 도시하고;
도 5는 본 발명에 따른 출력 신호를 발생시키는 방법의 예를 도시하고;
도 6은 본 발명에 따른 오디오 디코더의 예를 도시하고;
도 7은 종래 기술에 따른 업믹서의 예를 도시하고;
도 8은 종래 기술에 따른 업믹서/디코더의 다른 예를 도시한다.
도 1은 오디오 입력신호(54)(M)에 기초하여 제1출력신호(50)(L')와 제2출력신호(52)(R')를 발생시키는 본 발명의 일 실시예에 따른 비상관기를 도시한다.
상기 비상관기는 오디오 입력신호의 지연 표시(58)(M_d)를 발생시키기 위한 지연수단(56)을 더 포함하여 구성된다. 상기 비상관기는 상기 오디오 입력신호의 지연 표시(58)를 상기 오디오 입력신호(54)와 결합하여 상기 제1출력신호(50)와 제2출력신호(52)를 얻기 위한 믹서(60)를 더 포함하여 구성된다. 상기 믹서(60)는 개략적으로 도시된 두 개의 스위치에 의하여 형성되고, 상기 두 개의 스위치는 상기 오디오 입력신호(54)를 상기 좌측의 제1출력신호(50)와 우측의 제2출력신호(52)에 택일적으로 연결한다. 또한, 상기 믹서(60)는 상기 오디오 입력신호의 지연 표시(58)에도 적용한다. 따라서 상기 비상관기의 믹서(60)는 제1시간간격(interval)에서 상기 오디오 입력신호(54)가 상기 제1출력신호(50)에 대응하고, 상기 오디오 입력신호의 지연 표시(58)가 상기 제2출력신호에 대응하도록 작용하고, 제2시간간격에서 상기 제1출력신호(50)가 상기 지연된 오디오 입력신호 표시에 대응하고, 상기 제2출력신호(52)는 상기 오디오 입력신호(54)에 대응하도록 작용한다.
즉, 본 발명에 따르면, 상기 오디오 입력신호(54)의 시간-지연된 복사본이 준비되고, 상기 오디오 입력신호(54)와 상기 오디오 입력신호의 지연 표시(58)가 출력 채널로서 택일적으로 사용됨으로써, 비상관기가 얻어진다. 즉, 상기 출력신호들을 형성하는 구성요소(오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58))는 클럭방식(clocked-manner)으로 교환(swap)된다. 여기서, 각각의 교환이 이루어지거나 또는 입력신호가 출력신호에 대응하는 상기 시간 간격의 길이는 다양하다. 그리고 각각의 구성요소가 교환되는 시간 간격은 서로 다른 길이일 수 있다. 이것은 상기 제1출력신호(50)가 상기 오디오 입력신호(54)와 상기 오디오 입력신호의 지연 표시(58)를 구성하는 시간 비율이 다양하게 적용될 수 있음을 의미한다.
여기서, 상기 시간 간격의 바람직한 길이는 상기 신호의 양호한 재생을 얻기 위하여 상기 오디오 입력신호(54)에 포함된 과도 부분의 평균 주기보다 길다.
예를 들면, 적절한 시간 주기는 10 ms 내지 200 ms의 시간 간격이고, 전형적인 시간 주기는 100 ms이다.
상기 시간 간격의 스위칭뿐만 아니라 상기 시간 지연의 주기도 상기 신호의 상태에 따라 적용되거나 또는 시간에 따라 다양할 수 있다. 상기 지연시간은 바람직하게는 2 ms 내지 50 ms의 간격에서 발견된다. 적절한 지연시간의 예는 3, 6, 9, 12, 15 또는 30 ms이다.
도 1에 도시된 본 발명의 일 실시예에 따른 비상관기는 최초의 발성(attack), 즉 과도신호의 발생을 손상(smear)시키지 않는 비상관 신호를 발생시킬 수 있다. 그리고 신호의 매우 높은 비상관을 보증하는 비상관 신호를 발생시킬 수 있다. 그 결과 청취자는 특히 공간적으로 확장된 신호와 같은 비상관 신호에 의해 재구성된 다중-채널 신호를 지각한다.
도 1에서 알 수 있듯이, 본 발명의 일 실시예에 따른 비상관기는 계속적인 오디오 신호와 샘플 오디오 신호, 즉 분리된 샘플의 반복으로 존재하는 신호에 기여한다.
도 2는 도 1의 상관기의 분리된 샘플에 존재하는 신호에 의한 동작을 도시한다.
여기서, 분리된 샘플의 반복과 상기 오디오 입력신호의 지연 표시(58)의 형 태로 존재하는 상기 오디오 입력신호(54)가 고려된다. 상기 믹서(60)는 상기 오디오 입력신호(54) 및 상기 오디오 입력신호의 지연 표시(58)와 상기 두 개의 출력신호(50, 52) 사이의 두 가지 가능한 연결통로로서 간략하게 도시되어 있다. 그리고 상기 제1출력신호(50)가 상기 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)가 상기 오디오 입력신호의 지연 표시(58)에 대응하는 제1시간간격(70)이 도시되어 있다. 상기 믹서의 동작에 따르면, 제2시간간격(72)에서, 상기 제1출력신호(50)는 상기 오디오 입력신호의 지연 표시(58)와 대응하고, 상기 제2출력신호(52)는 상기 오디오 입력신호(54)와 대응한다.
도 2에 도시된 예에서, 상기 제1시간간격(70)과 제2시간간격(72)의 주기는 동일하나, 이는 이상에서 설명한 바와 같이, 필수조건은 아니다.
표시된 예에서, 제1출력신호(50)와 제2출력신호(52)를 형성하기 위해 네 개의 샘플의 클럭(clock)에서 상기 두 신호(54, 58)의 사이에 전환이 이루어져 네 개의 샘플의 시간적 등가(temporal equivalent)가 이루어진다.
비상관 신호를 위한 발명은 시간 도메인(domain)에서 적용될 수 있다. 즉, 샘플 주파수에 의해 주어지는 시간적 해상도(temporal resolution)로 적용될 수 있다. 이러한 발명은 신호(오디오 신호)가 다수 개의 분리된 주파수 범위로 쪼개어지는 신호(오디오 신호)의 필터-뱅크 표시에도 적용될 수 있다. 상기 신호는 상기 주파수 범위마다 줄어든 시간 해상도(time resolution)로 존재한다.
도 2a는 본 발명의 다른 실시예를 도시한다. 상기 믹서는 제1시간간격에서 상기 오디오 입력신호(54)로부터 제1부분(X(t))의, 그리고 상기 오디오 입력신호의 지연 표시(58)로부터 제2부분(1-X(t))의 상기 제1출력신호(50)를 형성한다. 따라서 상기 제1시간간격에서, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)로부터 X(t)부분까지, 그리고 상기 오디오 입력신호(54)로부터 (1-X(t))부분까지 형성된다. 크로스-페이드(cross-fade)라고 불리는 상기 X(t)함수의 가능한 실행은 도 2b에 도시되어 있다. 상기 믹서(60)는 제1출력신호(50)와 제2출력신호(52)를 얻기 위해 상기 오디오 입력신호(54)와 상기 오디오 입력신호의 지연 표시(58)의 시간-변화(time-varying)부분에서 상기 오디오 입력신호의 지연 표시(58)를 지연시간까지 상기 오디오 입력신호(54)와 결합하는 기능을 한다. 여기서, 상기 제1출력신호(50)는 제1시간간격에서 상기 오디오 입력신호(54)로부터 50% 이상의 부분이 형성되고, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)로부터 50% 이상의 부분이 형성된다. 상기 제1출력신호(50)는 제2시간간격에서 상기 오디오 입력신호의 지연 표시(58)의 50% 이상의 부분이 형성되고, 그리고 상기 오디오 입력신호(54)의 50% 이상의 부분이 형성된다.
도 2b는 도 2a에서 나타낸 상기 믹서(60)의 가능한 제어 기능을 도시한다. 시간 t는 임의 단위의 형태로 X축에 표시되고, 상기 함수 X(t)는 0부터 1까지의 가능한 함수값이 Y축에 표시된다. 또한, 0부터 1까지 범위의 값을 나타내지 않는 다른 함수 X(t)가 사용될 수도 있다. 0부터 10까지의 다른 값의 범위를 생각할 수 있다. 제1시간간격(62)과 제2시간간격(64)에서 상기 출력신호를 결정하는 함수 X(t)의 세 가지 예시가 도시되어 있다.
직사각형의 형태로 도시된 제1함수(66)는 도 2에 도시된 바와 같은 채널을 교환하는 경우에 대응하거나 또는 도 1에 개략적으로 나타난 크로스-페이딩(cross-fading)이 없는 스위칭의 경우에 대응한다. 도 2a의 상기 제1출력신호(50)를 고려하면, 상기 제1출력신호(50)는 상기 오디오 입력신호(54)에 의해 상기 제1시간간격(62)에서 완전하게 형성된다. 한편, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)에 의해 상기 제1시간간격(62)에서 완전하게 형성된다. 시간 간격의 길이가 반드시 동일할 필요는 없는 상기 제2시간간격(64)에서도 반대의 경우도 동일하게 적용된다.
파선으로 표시된 제2함수(58)는 상기 신호를 완전하게 전환하지 않는다. 그리고 제2함수(58)는 상기 오디오 입력신호(54) 또는 상기 오디오 입력신호의 지연 표시(58)로부터 어떠한 경우에서든지 완전히 형성되지는 않는 제1출력신호(50) 및 제2출력신호(52)를 발생시킨다. 그러나 상기 제1출력신호(50)는 제1시간간격(62)에서 상기 오디오 입력신호(54)로부터 50% 이상의 부분이 형성되고, 제2출력신호(52)에 대하여도 대응되게 적용된다.
제3함수(69)는 크로스-페이딩 시간(69a, 69b, 69c)에서 크로스-페이드 효과를 나타내도록 실행된다. 크로스-페이딩 시간(69a, 69b, 69c)은 상기 제1시간간격(62)과 제2시간간격(64) 사이의 과도 시간에 대응하고, 따라서 상기 오디오 출력신호가 변화할 때를 표시한다. 즉, 상기 제1출력신호(50)와 제2출력신호(52)는 상기 제1시간간격(62)이 시작하고 끝날 때에, 시작 간격과 끝 간격에 상기 오디오 입력신호(58)와 상기 오디오 입력신호의 지연 표시(58) 둘 다의 부분을 포함한다.
상기 시작 간격과 끝 간격 사이의 매개 간격(69)에서, 상기 제1출력신호(50) 는 상기 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)에 대응한다. 상기 오디오 신호의 감지된 재생 음질을 상황에 따라 조정하기 위해 상기 크로스-페이드 시간(69a, 69b, 69c)에서의 제3함수(69)의 기울기는 넓은 범위 내에서 변화될 수 있다. 그러나 어떠한 경우이든, 제1시간간격에서 상기 제1출력신호(50)는 상기 오디오 입력신호(54)의 50% 이상의 부분을 포함하고, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)의 50% 이상을 포함한다. 그리고 제2시간간격(64)에서, 상기 제1출력신호(50)는 상기 오디오 입력신호의 지연 표시(58)의 50% 이상을 포함하고, 상기 제2출력신호(52)는 상기 오디오 입력신호(54)의 50% 이상을 포함한다.
도 3은 본 발명의 발상을 실행하는 비상관기의 다른 실시예를 도시한다. 여기서, 앞선 예에서와 동일하거나 또는 유사한 기능의 구성요소는 동일한 도면부호를 사용하였다.
일반적으로, 전체 명세서에서 동일하거나 또는 유사한 기능의 구성요소는 동일한 도면부호를 사용하여 각 실시예의 설명이 서로 호환적으로 적용되도록 하기 위함이다.
도 3에 도시된 비상관기는 상기 오디오 입력신호(54)와 상기 오디오 입력신호의 지연 표시(58)가 상기 믹서(60)에 앞서 임의선택적 스케일링(optional scaling) 수단(74)에 의해 스케일링되는 점에서 도 1에 개략적으로 나타낸 비상관기와 다르다. 상기 임의선택적 스케일링 수단(74)은 상기 오디오 입력신호(54)를 스케일링할 수 있는 제1스케일러(76a)와 상기 오디오 입력신호의 지연 표시(58)를 스케일링할 수 있는 제2스케일러(76b)를 포함하여 구성된다.
상기 지연수단(56)에는 (모노럴의(monophonic)) 상기 오디오 입력신호(54)가 전달된다. 상기 제1스케일러(76a)와 제2스케일러(76b)는 선택적으로 상기 오디오 입력신호와 상기 오디오 입력신호의 지연 표시의 강도를 변화시킨다. 여기서, 뒤따르는 신호(G_lagging), 즉 상기 오디오 입력신호의 지연 표시(58)의 강도는 증가시키고 그리고/또는 앞선 신호(G_leading), 즉 상기 오디오 입력신호(54)의 강도는 감소시키는 것이 바람직하다. 강도의 변화는 이하의 간단한 곱셈 동작에 의해 영향을 받는다. 적절하게 선택된 이득 계수(gain factor)는 각각의 신호 성분에 곱해진다:
L' = M * G_leading
R' = M_d * G_lagging.
여기서, 전체 에너지를 얻기 위해 상기 이득 계수를 선택할 수 있다. 그리고 상기 이득 계수는 신호에 의존하여 수정되도록 정의된다. 예를 들면, 추가적으로 전달되는 부가 정보의 경우, 즉 다중-채널 오디오 복구의 경우에 상기 이득 계수는 복구될 음향 시나리오(acoustic scenario)에 의존하여 변화되기 위하여 상기 부가 정보에도 의존할 수 있다.
이득 계수의 응용과 상기 오디오 입력신호(54) 또는 상기 오디오 입력신호의 지연 표시(58)의 강도 변화 각각에 의해 지연된 성분을 강화시키고, 그리고/또는 비-지연된 성분을 약화시키는 것과 같이 지연된 성분에 대하여 직접적으로 강도를 변경함으로써 선행효과(precedence effect)(동일한 신호의 일시적인 지연 반복에 의해 발생하는 효과)를 보완할 수 있다. 지연의 발생으로 인한 상기 선행효과는 공간상 청취에 중요한 볼륨 조정(강도 조절)에 의해서도 부분적으로 보완될 수 있다.
이상의 경우에서, 상기 지연 및 비-지연 신호 성분(상기 오디오 입력신호(54)와 상기 오디오 입력신호의 지연 표시(58))을 적절한 비율로 바꾼다. 즉:
제1시간간격에서, L' = M 그리고 R' = M_d 그리고
제2시간간격에서, L' = M_d 그리고 R' = M.
상기 신호가 프레임에서, 즉 일정한 길이의 분리된 시간 구분에서 처리되면, 상기 교환(swap)의 시간간격(교환 비율(swap rate))은 상기 프레임 길이의 정수 배(integer multiple)인 것이 바람직하다. 전형적인 교환 시간 또는 교환 주기는 100 ms이다.
도 1에 도시된 바와 같이, 상기 제1출력신호(50)와 상기 제2출력신호(52)는 출력신호로서 직접적으로 출력될 수 있다. 변형된 신호에 기초하여 비상관이 일어나면, 비상관 이후에 역 변형이 얻어진다. 도 3의 비상관기는 상기 제1출력신호(50)와 상기 제2출력신호(52)를 결합하여 제1후처리(post-pocessed) 출력신호(82)와 제2후처리 출력신호(84)를 제공하는 선택적인 포스트-프로세서(post-processor)(80)를 추가적으로 포함하여 구성된다. 상기 포스트-프로세서는 다수의 효과를 가진다. 먼저, 상기 포스트-프로세서는 다중-채널 복구에서 연속되는 업믹스와 같이 다음 단계의 신호를 준비하기 위한 역할을 하기 때문에 이미 존재하는 비상관기는 신호-처리 체인(chain)의 나머지 부분을 변화시키지 않고 진보된 비상관기로 교체된다. 따라서 도 7에 도시된 상기 비상관기는 종래 기술 또는 도 7 및 도 8의 표준 비상관기(10)에 따른 비상관기로 충분히 대체될 수 있다. 이에 따라 진보적인 비상관기의 장점은 간단한 방식으로 이미 존재하는 디코더 구조에 통합될 수 있다는 점이다.
상기 포스트-프로세서(80)에 의해 수행되는 신호 후처리(post-processing)의 한 한 예는 center-side (MS) 코딩(coding)을 서술하는 아래의 방정식에 의해 주어진다:
M = 0.707 * (L' + R)
D = 0.707 * (L' - R).
다른 실시예에서, 상기 포스트-프로세서(80)는 직접 신호와 지연 신호의 혼합 정도를 줄이는데 사용된다. 여기서, 위의 공식에 의해 표현된 정상적인 조합은 예컨대 제1출력신호(50)가 실질적으로 스케일링되어, 제1후처리 출력신호(82)로 사용되는 반면, 상기 제2출력신호(52)가 제2후처리 출력신호(84)의 기초로 사용되도록 수정될 수 있다. 상기 포스트-프로세서와 상기 포스트-프로세서를 서술하는 믹스 매트릭스(mix matrix)는 완전히 바이패스 되거나(bypassed), 또는 상기 포스트-프로세서(80)에서 신호의 조합을 제어하는 매트릭스 계수는 신호의 추가적인 혼합이 적게 또는 전혀 일어나지 않도록 변경될 수 있다.
도 4에는 적절한 상관기에 의해 선행효과를 피하는 다른 방법이 도시되어 있다. 여기서, 도 3에 도시된 상기 제1스케일러(76a)와 제2스케일러(76b)는 필수적인 반면에, 상기 믹서(60)는 생략될 수 있다.
여기서, 상술한 경우의 유추에서, 상기 오디오 입력신호(54) 그리고/또는 상 기 오디오 입력신호의 지연 표시(58)는 그 강도(intensity)가 변경된다. 선행효과를 피하기 위하여 아래의 방정식에서 볼 수 있는 바와 같이, 상기 오디오 입력신호의 지연 표시(58)의 강도를 증대시키거나 그리고/또는 상기 오디오 입력신호(54)의 강도를 감소시킨다:
L' = M * G_leading
R' = M_d * G_lagging.
여기서, 더욱 짧은 지연시간을 가지고 상기 오디오 입력신호(54)의 강도를 더욱 감소시키기 위하여, 상기 강도는 바람직하게는 상기 지연수단(56)의 지연시간에 의존하여 변경된다.
지연시간과 그에 따른 이득 계수의 유리한 조합은 아래의 표와 같이 요약된다:
Delay (ms) 3 6 9 12 15 30
Gain factor 0.5 0.65 0.65 0.7 0.8 0.9
상기 스케일링된 신호는 예컨대 상술한 중심 인코더(center-side encoder) 또는 상술한 다른 혼합 알고리즘 중 하나에 의해 임의로 혼합될 수 있다.
따라서 상기 신호의 스케일링에 의해 일시적으로 앞서는 요소의 강도를 줄임으로써, 상기 선행효과를 피한다. 이에 따라 신호에 포함된 과도 부분들(transient portions)을 일시적으로 손상하지 않고, 또한 선행 효과에 의해 의도하지 않은 음향 효과의 손상을 야기하지 않는 신호를 발생시킬 수 있다.
도 5에는 오디오 입력신호(54)에 기초한 출력 신호의 진보된 방법의 예가 개략적으로 도시되어 있다. 제90단계에서, 지연시간에 의해 지연된 상기 오디오 입력 신호(54)의 표시는 제1출력신호(50)와 제2출력신호(52)를 얻기 위해 상기 오디오 입력신호(54)와 결합된다. 제1시간간격에서, 상기 제1출력신호(50)는 상기 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 상기 오디오 입력신호의 지연 표시(58)에 대응한다. 그리고 제2시간간격에서, 상기 제1출력신호(50)는 상기 오디오 입력신호의 지연 표시(58)에 대응하고, 상기 제2출력신호(52)는 상기 오디오 입력신호(54)에 대응한다.
도 6에는 오디오 디코더의 진보적인 실시예가 도시되어 있다. 오디오 디코더(100)는 표준 비상관기(102)와 상술한 진보적인 비상관기들 중 하나에 대응하는 비상관기(104)를 포함하여 구성된다. 상기 오디오 디코더(100)는 두 개의 채널을 대표적으로 나타내는 다중-채널 출력신호(106)를 발생시킨다. 상기 다중-채널 출력신호는 도시된 바와 같이 모노 신호인 오디오 입력신호(108)에 기초하여 발생된다. 상기 표준 비상관기(102)는 종래기술로 알려진 비상관기에 대응한다. 그리고 상기 오디오 디코더는 동작의 표준모드에서 상기 표준 비상관기(102)를 사용하고, 대안적으로는 과도 오디오 입력신호(108)로 상기 비상관기(104)를 사용하도록 제작된다. 따라서 상기 오디오 디코더에 의해 발생되는 다중-채널 표시는 일시적인 입력신호 그리고/또는 일시적인 다운 믹스 신호의 존재에서 또한 좋은 음질을 실행할 수 있다.
따라서 본 발명의 기본 의도는 강하게 비상관되고 과도적인 신호를 처리할 때, 본 발명의 비상관기를 사용하는 것이다. 만일 과도 신호를 인지할 기회가 있다면, 본 발명의 비상관기는 표준 비상관기 대신에 대안적으로 사용될 수 있다.
추가적으로 비상관 정보를 이용가능한 경우, (예컨대 다중-채널의 두 개 출력 신호의 상관성을 표현하는 ICC 파라미터가 엠펙 서라운드 표준에서 다운 믹스되는 경우) 추가적으로 어떤 비상관기를 사용할 것인지 결정하는 판단척도로서 사용될 수 있다. 예를 들면, 작은 ICC 값(예컨대 0.5보다 더 작은 값)의 경우에, (도 1 및 도 3의 비상관기와 같은) 본 발명에 의한 비상관기의 출력이 사용될 수 있다. 따라서 (음조신호(tonal signal)와 같은) 비-과도(non-transient) 신호에서 표준 비상관기는 언제라도 최적의 재생 음질을 보증하기 위해 사용된다.
즉, 오디오 디코더(100)에서 본 발명에 의한 비상관기의 응용은 신호-의존적(signal-dependent)이다. 상술한 바와 같이, 과도 신호 부분을 검출하는 (신호 스펙트럼에서 LPC 예측 또는 저-주파 스펙트럼 도메인에 포함된 에너지의 높은 스펙트럼 도메인에 대한 비교와 같은) 방법이 있다. 많은 디코더 시나리오에서, 이러한 검출 메카니즘은 이미 존재하거나 또는 단순한 방식으로 나타내어 질 수 있다. 이미 존재하는 기준의 한 예는 상술한 신호의 상관성(correlation) 또는 일관성(coherence) 파라미터이다. 이러한 파라미터는 과도 신호 부분의 존재에 대한 단순한 인식뿐만 아니라 발생된 출력 채널의 비상관성 강도를 조절하는데 사용될 수 있다.
이미 존재하는 과도 신호에 대한 검출 알고리즘의 사용 예는 엠펙 서라운드이다. 엠펙 서라운드에서는 STP 툴(tool)의 제어 정보가 검출에 적절하고, 채널간 상관관계 파라미터(ICC: Inter-Channel Coheence parameter)가 사용된다. 여기서, 검출은 인코더 측면과 디코더 측면 둘 다에서 효과적일 수 있다. 전자의 경우에, 오디오 디코더(100)에 의해 다른 비상관기 사이에서 왕복(to and fro) 스위치하도록 평가되는 신호 플래그(flag) 또는 비트(bit)는 변환되어야 한다. 만일 오디오 디코더(100)의 신호-처리 체계가 최종적인 오디오 신호의 복구를 위한 오버랩핑 윈도우(overlapping windows)에 기초하고, 인접한 윈도우(프레임)의 오버랩핑이 충분히 크다면, 가청 인공물(audible artefacts) 도입의 결과 없이, 상이한 비상관기 사이의 단순한 스위칭은 영향을 받을 수 있다.
위의 경우가 아니라면, 상이한 비상관기 사이에 대략적인 비가청 변환을 가능하게 하기 위한 수 개의 방법이 수행될 수 있다. 먼저, 두 개의 비상관기가 병렬로 사용되는 크로스-페이딩 기술을 사용할 수 있다. 표준 비상관기(102)의 신호는 비상관기(104)로의 변환에서 강도가 천천히 점차 약해지는 반면, 비상관기(104)의 신호는 동시에 점차 뚜렷해진다. 그리고 스위칭이 된 이후 비상관기가 미리 결정된 최소 시간 동안 사용되는 것을 확인하는 자기이력(hysteresis) 스위치 커브(curves)는 별개의 비상관기 사이에서 복합 직접적(multiple direct) 왕복 스위칭을 방지하도록 왕복 스위칭에 사용될 수 있다.
상기 볼륨 효과와 더불어, 다른 심리적인 효과가 상이한 비상관기들을 사용할 때 나타날 수 있다. 이것은 진보된 비상관기가 구체적으로 넓은 음장(sound field)을 발생시킬 수 있는 경우이다. 다운스트림(downstream) 혼합 매트릭스에서, 특정 양의 비상관 신호는 4개 채널 오디오 복구 시에 직류 신호에 추가된다. 여기서, 생성된 비상관기의 신호의 양 그리고/또는 출력신호의 비상관된 신호의 지배는 전형적으로 음장의 폭을 결정한다.
이러한 혼합 매트릭스의 행렬 계수는 대표적으로 위에서 언급된 상관 파라미터 그리고/또는 공간 파라미터에 의해 제어된다.
따라서 진보된 비상관기로 전환하기 이전에 우선 혼합 행렬 계수를 변경함으로써 소리의 음장은 인공적으로 먼저 상승되고, 이로써 보다 넓은 음향효과가 천천히 비상관기로의 전환이 이루어지기 전에 일어나게 된다. 진보된 비상관기로부터의 전환의 다른 사례로서, 음향효과의 폭이 실제 전환이 이루어지기 전에 오히려 줄어드는 경우가 있을 수 있다.
물론, 상술한 스위칭 상황들은 상이한 비상관기들이 서로 원만하게 변환될 수 있도록 서로 결합될 수 있다.
종합하면, 진보된 비상관기는 종래기술과 비교하여 여러 장점을 가지고 있다. 특히, 박수갈채와 같은 신호들을 복구하는데 효과적이다. 즉, 높은 과도 신호 비중을 가지는 신호를 복구하는데 효과적이다. 다른 한편으로는, 극도의 넓은 음장이 부가적인 인공물의 개입 없이도 생성될 수 있는데, 이는 특히 과도한 박수갈채와 같은 신호들이 있는 경우에 도움을 준다.
반복적으로 보여지듯이, 진보된 비상관기는 이미 존재하는 재생 체인(chain) 그리고/혹은 디코더에 쉽게 통합되고, 심지어 이러한 디코더 속에 이미 존재하는 파라미터에 의해 최상의 신호 재생을 얻을 수 있도록 제어된다. 비상관기가 기존 디코더 구조로 통합되는 예로는 파라미터적 스테레오와 엠펙 서라운드가 있다. 그리고 비상관기를 제공하기 위한 진보된 개념은 극히 적은 연산을 요구하고, 비싸지 않은 하드웨어 투자를 요구하며, 추가적인 에너지의 소비가 불필요하다.
앞선 설명에서는 주로 개별의 신호들, 즉 개별 샘플들의 순서로 나타나는 오디오 신호에 대해서 다루었으나, 이것은 단지 더 나은 이해를 돕기 위함이다. 진보적인 개념은 계속적인 오디오 신호에도 적용가능하며, 주파수 변형 영역의 표새 한에서의 파라미터 표시와 같은 다른 오디오 신호의 표시에도 적용될 수 있다.
조건에 따라 출력신호를 생성하는 방법은 하드웨어나 소프트웨어로 실행될 수 있다. 이러한 실행은 특히, 플로피 디스크나 CD와 같은 디지털 저장 매체와 오디오 신호 발생 방법이 프로그램된 프로그램 컴퓨터 시스템과 협동하여 오디오 신호를 생성하는 읽기 가능한 제어신호들에 영향을 준다. 따라서 본 발명은 컴퓨터 프로그램이 컴퓨터에서 실행될 때, 기계적으로 판독 가능한 매체에 저장되어 있는 진보된 발명을 실행하기 위한 프로그램 코드를 포함하는 컴퓨터 프로그램 제품 내에 일반적으로 존재한다. 즉, 본 발명은 컴퓨터 프로그램이 실행될 때, 본 발명의 방법을 수행하기 위한 프로그램 코드를 가진 컴퓨터 프로그램으로 이해될 수 있다.

Claims (26)

  1. 오디오 입력신호(54)와 지연시간만큼 지연된 오디오 입력신호(58)의 표시를 결합함으로써 오디오 입력신호(54)와 오디오 입력신호(58)의 지연된 표시의 시간-변화 부분을 가지는 제1출력신호(50)와 제2출력신호(52)를 얻기 위하여 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)를 결합하는 믹서(60)를 포함하여 구성되는 오디오 입력신호(54)에 근거한 출력신호(50,52)를 발생시키는 비상관기로서,
    제1시간간격(70)에서, 상기 제1출력신호(50)는 오디오 입력신호(54)의 50% 이상, 100% 이하의 비율을 포함하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)의 50% 이상, 100% 이하의 비율을 포함하며:
    제2시간간격(72)에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연 표시(58)의 50% 이상, 100% 이하의 비율을 포함하고, 상기 제2출력신호(52)는 오디오 입력신호(54)의 50% 이상, 100% 이하의 비율을 포함하는 것을 특징으로 하는 비상관기.
  2. 제 1 항에 있어서,
    제1시간간격(70)에서, 상기 제1출력신호(50)는 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)에 대응하며:
    제2시간간격(72)에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연표시(58)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호(54)에 대응하는 것을 특징으로 하는 비상관기.
  3. 제 1 항에 있어서,
    제1시간간격(70)의 시작과 끝의 시작 간격과 끝 간격에서, 상기 제1출력신호(50)와 제2출력신호(52)는 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)의 부분을 포함하고:
    제1시간간격의 시작 간격과 끝 간격 사이의 매개 간격에서, 상기 제1출력신호(50)는 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)에 대응하며:
    제2시간간격(70)의 시작과 끝의 시작 간격과 끝 간격에서, 상기 제1출력신호(50)와 제2출력신호(52)는 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58) 부분을 포함하고:
    제2시간간격의 시작 간격과 끝 간격 사이의 매개 간격에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연 표시(58)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호(54)에 대응하는 것을 특징으로 하는 비상관기.
  4. 제 1 항에 있어서,
    제1시간간격과 제2시간간격은 시간상으로 인접하고 연속적인 것을 특징으로 하는 비상관기.
  5. 제 1 항에 있어서,
    오디오 입력신호(54)를 지연시간만큼 시간-지연시킴에 의해 오디오 입력신호의 지연 표시(58)를 발생시키는 지연 수단(56)을 더 포함하여 구성되는 것을 특징으로 하는 비상관기.
  6. 제 1 항에 있어서,
    오디오 입력신호(54) 그리고/또는 오디오 입력신호의 지연 표시(58)의 강도를 변경하기 위한 스케일링 수단(74)을 더 포함하여 구성되는 것을 특징으로 하는 비상관기.
  7. 제 6 항에 있어서,
    상기 스케일링 수단(74)은, 오디오 입력신호(54)의 강도에서의 제 1 감소는 제 1 지연시간에 의하여 얻어지고, 오디오 입력신호(54)의 강도에서의 제 2 감소는 제 2 지연시간에 의하여 얻어지며, 제 1 감소는 제 2 감소보다 크고 제 1 지연시간은 제 2 지연시간보다 짧게 되도록 지연시간에 따라 오디오 입력신호(54)의 강도를 스케일링하는 것을 특징으로 하는 비상관기.
  8. 제 1 항에 있어서,
    제1출력신호(50)와 제2출력신호(52)로부터의 신호 기여(contribution)를 포함하는 제1후처리 출력신호와 제2후처리 출력신호를 얻기 위하여 제1출력신호(50)와 제2출력신호(52)를 결합하는 포스트-프로세서(80)를 더 포함하여 구성되는 것을 특징으로 하는 비상관기.
  9. 제 8 항에 있어서,
    상기 포스트-프로세서는, 다음과 같은 조건에 따라 제1출력신호 L'(50)와 제2출력신호 R'(52)로부터 제1후처리 출력신호 M(82)와 제2후처리 출력신호 D(84)를 생성하는 것을 특징으로 하는 비상관기.
    M = 0.707 * (L' + R')
    D = 0.707 * (L' - R').
  10. 제 1 항에 있어서,
    상기 믹서(60)는, 2 ms 이상 50 ms 이하의 지연시간의 오디오 입력신호의 지연 표시(58)를 사용하는 것을 특징으로 하는 비상관기.
  11. 제 7 항에 있어서,
    상기 지연시간은 3, 6, 9, 12, 15 또는 30 ms인 것을 특징으로 하는 비상관기.
  12. 제 1 항에 있어서,
    상기 믹서(60)는, 오디오 입력신호(54)의 샘플들과 오디오 입력신호의 지연 표시(58)의 샘플들을 교환함으로써 분리된 샘플들을 포함하는 오디오 입력신호(54)와 분리된 샘플들을 포함하는 오디오 입력신호의 지연 표시(58)를 결합하는 것을 특징으로 하는 비상관기.
  13. 제 1 항에 있어서,
    상기 믹서(60)는, 제1시간간격과 제2시간간격이 동일한 길이를 가지도록 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)를 결합하는 것을 특징으로 하는 비상관기.
  14. 제 1 항에 있어서,
    상기 믹서(60)는, 시간상으로 인접한 제1시간간격(70)과 제2시간간격(72) 쌍의 순서로 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)의 결합을 수행하는 것을 특징으로 하는 비상관기.
  15. 제 1 항에 있어서,
    상기 믹서(60)는, 제1시간간격(70)과 제2시간간격(72)의 쌍에서 제1출력신호(50)는 오디오 입력신호(54)에 대응하고 제2출력신호(52)는 오디오 입력신호의 지연 표시에 대응하도록 하는 결합으로부터 시간상으로 인접한 제1시간간격(70)과 제2시간간격(72) 쌍들의 순서 중 한 쌍에 대해 미리 결정된 확률로 억제하는 것을 특징으로 하는 비상관기.
  16. 제 14 항에 있어서,
    상기 믹서(60)는, 시간간격들의 순서로부터 제1시간간격(70)과 제2시간간격(72)의 첫 번째 쌍에서 시간간격의 시간 주기가 제1시간간격과 제2시간간격의 두 번째 쌍에서 시간간격의 시간 주기와 서로 다르도록 결합을 수행하는 것을 특징으로 하는 비상관기.
  17. 제 1 항에 있어서,
    상기 제1시간간격(70)과 제2시간간격(72)의 시간 주기는 오디오 입력신호(54) 내에 포함된 과도신호 부분의 평균 시간 주기의 두 배보다 더 큰 것을 특징으로 하는 비상관기.
  18. 제 1 항에 있어서,
    상기 제 1 시간간격(70)과 제 2 시간간격(72)의 주기는 10 ms 이상이고 200 ms 이하인 것을 특징으로 하는 비상관기.
  19. 오디오 입력신호(54)와 지연시간만큼의 오디오 입력신호의 지연 표시(58)의 시간-변화 부분을 가지는 제1출력신호(50)와 제2출력신호(52)를 얻기 위하여 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)를 지연시간으로 결합하는 단계를 포함하는 오디오 입력신호(54)에 근거한 출력신호(50,52)를 발생시키는 방법으로서,
    제1시간간격(70)에서, 상기 제1출력신호(50)는 오디오 입력신호(54)의 50% 이상, 100% 이하의 비율을 포함하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)의 50% 이상, 100% 이하의 비율을 포함하며:
    제2시간간격(72)에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연 표시(58)의 50% 이상, 100% 이하의 비율을 포함하고, 상기 제2출력신호(52)는 오디오 입력신호(54)의 50% 이상, 100% 이하의 비율을 포함하는 것을 특징으로 하는 방법.
  20. 제 19 항에 있어서,
    제1시간간격(70)에서, 상기 제1출력신호(50)는 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)에 대응하며:
    제2시간간격(72)에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연표시(58)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호(54)에 대응하는 것을 특징으로 하는 방법.
  21. 제 19 항에 있어서,
    제1시간간격(70)의 시작과 끝의 시작 간격과 끝 간격에서, 상기 제1출력신호(50)와 제2출력신호(52)는 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58)의 부분을 포함하고:
    제1시간간격의 시작 간격과 끝 간격 사이의 매개 간격에서, 상기 제1출력신호(50)는 오디오 입력신호(54)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호의 지연 표시(58)에 대응하며:
    제2시간간격(70)의 시작과 끝의 시작 간격과 끝 간격에서, 상기 제1출력신 호(50)와 제2출력신호(52)는 오디오 입력신호(54)와 오디오 입력신호의 지연 표시(58) 부분을 포함하고:
    제2시간간격의 시작 간격과 끝 간격 사이의 매개 간격에서, 상기 제1출력신호(50)는 오디오 입력신호의 지연 표시(58)에 대응하고, 상기 제2출력신호(52)는 오디오 입력신호(54)에 대응하는 것을 특징으로 하는 방법.
  22. 제 19 항에 있어서,
    오디오 입력신호의 지연 표시(58)를 얻기 위해 지연시간만큼 오디오 입력신호(54)를 지연시키는 단계를 더 포함하는 방법.
  23. 제 19 항 내지 제 22 항 중 어느 한 항에 있어서,
    오디오 입력신호(54) 그리고/또는 오디오 입력신호의 지연 표시(58)의 강도를 변경하는 단계를 더 포함하는 방법.
  24. 제 19 항에 있어서,
    제1출력신호(50)와 제2출력신호(52)의 기여(contribution)를 포함하는 제1후처리 출력신호(82)와 제2후처리 출력신호(84)를 얻기 위하여 제1출력신호(50)와 제2출력신호(52)를 결합하는 단계를 더 포함하는 방법.
  25. 오디오 입력신호(54)에 근거한 다중-채널 출력신호를 발생시키는 오디오 디코더로서,
    제 1 항 내지 제 18 항중의 어느 한 항의 비상관기와;
    표준 비상관기를 포함하여 구성되며,
    표준 동작 모드에서는 표준 비상관기를 사용하고, 과도 오디오 입력신호(54)의 경우에는 제 1 항 내지 제 18 항중의 어느 한 항의 비상관기를 사용하는 것을 특징으로 하는 오디오 디코더.
  26. 제 19 항 내지 제 22 항 또는 제 24 항중의 어느 한항의 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
KR1020097008644A 2007-04-17 2008-04-14 비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체 KR101104578B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007018032.4 2007-04-17
DE102007018032A DE102007018032B4 (de) 2007-04-17 2007-04-17 Erzeugung dekorrelierter Signale
PCT/EP2008/002945 WO2008125322A1 (de) 2007-04-17 2008-04-14 Erzeugung dekorrelierter signale

Publications (2)

Publication Number Publication Date
KR20090076939A KR20090076939A (ko) 2009-07-13
KR101104578B1 true KR101104578B1 (ko) 2012-01-11

Family

ID=39643877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097008644A KR101104578B1 (ko) 2007-04-17 2008-04-14 비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체

Country Status (16)

Country Link
US (1) US8145499B2 (ko)
EP (1) EP2036400B1 (ko)
JP (1) JP4682262B2 (ko)
KR (1) KR101104578B1 (ko)
CN (1) CN101543098B (ko)
AT (1) ATE452514T1 (ko)
AU (1) AU2008238230B2 (ko)
CA (1) CA2664312C (ko)
DE (2) DE102007018032B4 (ko)
HK (1) HK1124468A1 (ko)
IL (1) IL196890A0 (ko)
MY (1) MY145952A (ko)
RU (1) RU2411693C2 (ko)
TW (1) TWI388224B (ko)
WO (1) WO2008125322A1 (ko)
ZA (1) ZA200900801B (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0820488A2 (pt) * 2007-11-21 2017-05-23 Lg Electronics Inc método e equipamento para processar um sinal
KR101342425B1 (ko) * 2008-12-19 2013-12-17 돌비 인터네셔널 에이비 다중-채널의 다운믹싱된 오디오 입력 신호에 리버브를 적용하기 위한 방법 및 다중-채널의 다운믹싱된 오디오 입력 신호에 리버브를 적용하도록 구성된 리버브레이터
EP3144932B1 (en) 2010-08-25 2018-11-07 Fraunhofer Gesellschaft zur Förderung der Angewand An apparatus for encoding an audio signal having a plurality of channels
EP2477188A1 (en) * 2011-01-18 2012-07-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of slot positions of events in an audio signal frame
CN105163398B (zh) 2011-11-22 2019-01-18 华为技术有限公司 连接建立方法和用户设备
US9424859B2 (en) * 2012-11-21 2016-08-23 Harman International Industries Canada Ltd. System to control audio effect parameters of vocal signals
US9830917B2 (en) 2013-02-14 2017-11-28 Dolby Laboratories Licensing Corporation Methods for audio signal transient detection and decorrelation control
TWI618051B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置
TWI618050B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於音訊處理系統中之訊號去相關的方法及設備
WO2014126689A1 (en) 2013-02-14 2014-08-21 Dolby Laboratories Licensing Corporation Methods for controlling the inter-channel coherence of upmixed audio signals
CN105359448B (zh) * 2013-02-19 2019-02-12 华为技术有限公司 一种滤波器组多载波波形的帧结构的应用方法及设备
WO2014187987A1 (en) * 2013-05-24 2014-11-27 Dolby International Ab Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder
JP6242489B2 (ja) * 2013-07-29 2017-12-06 ドルビー ラボラトリーズ ライセンシング コーポレイション 脱相関器における過渡信号についての時間的アーチファクトを軽減するシステムおよび方法
JP6479786B2 (ja) * 2013-10-21 2019-03-06 ドルビー・インターナショナル・アーベー オーディオ信号のパラメトリック再構成
EP2866227A1 (en) * 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
WO2015173423A1 (en) * 2014-05-16 2015-11-19 Stormingswiss Sàrl Upmixing of audio signals with exact time delays
US11234072B2 (en) 2016-02-18 2022-01-25 Dolby Laboratories Licensing Corporation Processing of microphone signals for spatial playback
US10560661B2 (en) 2017-03-16 2020-02-11 Dolby Laboratories Licensing Corporation Detecting and mitigating audio-visual incongruence
CN110740404B (zh) * 2019-09-27 2020-12-25 广州励丰文化科技股份有限公司 一种音频相关性的处理方法及音频处理装置
CN110740416B (zh) * 2019-09-27 2021-04-06 广州励丰文化科技股份有限公司 一种音频信号处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047618A1 (en) 1999-07-09 2005-03-03 Creative Technology, Ltd. Dynamic decorrelator for audio signals
WO2005091678A1 (en) 2004-03-11 2005-09-29 Koninklijke Philips Electronics N.V. A method and system for processing sound signals
US20060239473A1 (en) 2005-04-15 2006-10-26 Coding Technologies Ab Envelope shaping of decorrelated signals

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4792974A (en) * 1987-08-26 1988-12-20 Chace Frederic I Automated stereo synthesizer for audiovisual programs
US6526091B1 (en) * 1998-08-17 2003-02-25 Telefonaktiebolaget Lm Ericsson Communication methods and apparatus based on orthogonal hadamard-based sequences having selected correlation properties
AUPQ942400A0 (en) * 2000-08-15 2000-09-07 Lake Technology Limited Cinema audio processing system
US7107110B2 (en) * 2001-03-05 2006-09-12 Microsoft Corporation Audio buffers with audio effects
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
KR101079066B1 (ko) * 2004-03-01 2011-11-02 돌비 레버러토리즈 라이쎈싱 코오포레이션 멀티채널 오디오 코딩
WO2006008697A1 (en) * 2004-07-14 2006-01-26 Koninklijke Philips Electronics N.V. Audio channel conversion
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
TWI393121B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
EP1803115A2 (en) * 2004-10-15 2007-07-04 Koninklijke Philips Electronics N.V. A system and a method of processing audio data to generate reverberation
SE0402649D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
JP2007065497A (ja) * 2005-09-01 2007-03-15 Matsushita Electric Ind Co Ltd 信号処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047618A1 (en) 1999-07-09 2005-03-03 Creative Technology, Ltd. Dynamic decorrelator for audio signals
WO2005091678A1 (en) 2004-03-11 2005-09-29 Koninklijke Philips Electronics N.V. A method and system for processing sound signals
US20060239473A1 (en) 2005-04-15 2006-10-26 Coding Technologies Ab Envelope shaping of decorrelated signals

Also Published As

Publication number Publication date
TW200904229A (en) 2009-01-16
KR20090076939A (ko) 2009-07-13
CN101543098B (zh) 2012-09-05
ATE452514T1 (de) 2010-01-15
US8145499B2 (en) 2012-03-27
US20090326959A1 (en) 2009-12-31
CA2664312A1 (en) 2008-10-23
CA2664312C (en) 2014-09-30
EP2036400B1 (de) 2009-12-16
JP2010504715A (ja) 2010-02-12
AU2008238230A1 (en) 2008-10-23
MY145952A (en) 2012-05-31
HK1124468A1 (en) 2009-07-10
WO2008125322A1 (de) 2008-10-23
DE502008000252D1 (de) 2010-01-28
DE102007018032A1 (de) 2008-10-23
JP4682262B2 (ja) 2011-05-11
RU2009116268A (ru) 2010-11-10
CN101543098A (zh) 2009-09-23
RU2411693C2 (ru) 2011-02-10
AU2008238230B2 (en) 2010-08-26
IL196890A0 (en) 2009-11-18
EP2036400A1 (de) 2009-03-18
TWI388224B (zh) 2013-03-01
DE102007018032B4 (de) 2010-11-11
ZA200900801B (en) 2010-02-24

Similar Documents

Publication Publication Date Title
KR101104578B1 (ko) 비상관기, 그 비상관기를 이용하는 오디오 디코더, 오디오 입력신호에 근거한 출력신호의 발생방법 및 기록매체
KR100933548B1 (ko) 비상관 신호의 시간적 엔벨로프 정형화
JP4589962B2 (ja) レベル・パラメータを生成する装置と方法、及びマルチチャネル表示を生成する装置と方法
US9226089B2 (en) Signal generation for binaural signals
TWI415111B (zh) 空間解碼器單元、空間解碼器裝置、音訊系統、消費型電子裝置、產生一對雙耳輸出聲道之方法及電腦可讀媒體
EP1906706B1 (en) Audio decoder
JP5054035B2 (ja) 符号化/復号化装置及び方法
JP4597967B2 (ja) オーディオ信号生成
JP4664431B2 (ja) アンビエンス信号を生成するための装置および方法
US8880413B2 (en) Binaural spatialization of compression-encoded sound data utilizing phase shift and delay applied to each subband
KR20080015886A (ko) 디코딩 명령으로 오디오 신호를 인코딩하기 위한 장치 및방법
KR101637407B1 (ko) 부가적인 출력 채널들을 제공하기 위하여 스테레오 출력 신호를 발생시키기 위한 장치와 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
AMND Amendment
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141229

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151229

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161229

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171221

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191224

Year of fee payment: 9