KR102058714B1 - 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼 - Google Patents

지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼 Download PDF

Info

Publication number
KR102058714B1
KR102058714B1 KR1020147010210A KR20147010210A KR102058714B1 KR 102058714 B1 KR102058714 B1 KR 102058714B1 KR 1020147010210 A KR1020147010210 A KR 1020147010210A KR 20147010210 A KR20147010210 A KR 20147010210A KR 102058714 B1 KR102058714 B1 KR 102058714B1
Authority
KR
South Korea
Prior art keywords
frame
subframe
subframes
voice
jitter buffer
Prior art date
Application number
KR1020147010210A
Other languages
English (en)
Other versions
KR20140085452A (ko
Inventor
강인규
이영한
정규혁
전혜정
김락용
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20140085452A publication Critical patent/KR20140085452A/ko
Application granted granted Critical
Publication of KR102058714B1 publication Critical patent/KR102058714B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/062Synchronisation of signals having the same nominal but fluctuating bit rates, e.g. using buffers
    • H04J3/0632Synchronisation of packets and cells, e.g. transmission of voice via a packet network, circuit emulation service [CES]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Telephonic Communication Services (AREA)
  • Communication Control (AREA)

Abstract

본 발명은 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼로서, 지터 버퍼의 관리 방법은, 음성 정보 프레임을 수신하는 단계 및 상기 수신한 음성 정보 프레임을 기반으로 지터 버퍼 조절을 수행하는 단계를 포함하고, 상기 지터 버퍼 조절은 음성 신호의 보상을 포함하며, 상기 음성 신호의 보상은 상기 음성 정보 프레임의 서브 프레임 단위로 수행될 수 있다.

Description

지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼{METHOD OF MANAGING A JITTER BUFFER, AND JITTER BUFFER USING SAME}
본 발명은 음성 신호를 처리하는 기술에 관한 것으로서, 구체적으로는 복호화를 위한 수신단의 지터 버퍼를 관리/제어하는 방법 및 이를 이용하는 지터 버퍼에 관한 것이다.
일반적으로, 오디오 신호는 다양한 주파수의 신호가 포함되어 있고, 사람의 가청 주파수는, 20Hz-20kHz인데 비해, 보통 사람의 음성은 약 4kHz 이하의 영역에 존재한다.
입력 오디오 신호는 사람의 음성이 존재하는 대역뿐만 아니라, 사람의 음성이 존재하기 어려운 7kHz 이상의 고주파 영역의 성분까지 포함하는 경우가 있다.
이와 같이 광대역(약 ~8kHz) 또는 초광대역(약 ~16kHz)의 신호에 대해서, 협대역(약 ~4kHz)에 적합한 코딩 방식을 적용하게 되면, 부호화되지 않은 대역 때문에 음질의 열화가 발생되는 문제점이 있다.
최근, 화상 통화, 화상 회의 등의 수요가 증가함에 따라서 음성 신호, 즉 스피치 시그널을 실제 음성에 가깝게 복원할 수 있도록 부호화/복호화하는 기술에 대한 관심 역시 증가하고 있다. 구체적으로, 부호화 대역을 확장시킨 부호화/복호화 기술에 대한 관심이 증가하고 있으며, 음성 정보를 전송하는 네트워크에서도 회선 교환망 방식에서 패킷 교환망 방식으로 관심의 영역이 이동하고 있다.
이 경우에, 부호화에 의해 패킷화된 음성 신호를 전송하는 과정에서 네트워크상의 문제로 인한 지연이 발생할 수 있다. 전송 과정에서 발생하는 지연은 출력단에서 출력 지연 혹은 음질 저하를 야기하게 된다.
따라서, 전송 과정에 발생하는 음성 신호의 지연 또는 유실의 문제를 수신단에서 해결할 방법이 고려될 필요가 있다.
본 발명은 지터 버퍼 제어가 필요한 시점에 음성 패킷의 중요도에 따라서 가중치를 두고 지터 버퍼 제어를 수행할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 음성 정보의 조절에 있어서 음성 패킷의 중요도에 따라 처리 대상으로서의 우선 순위를 설정하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 무음 구간에 우선 순위를 두고 음성 패킷을 드롭 또는 복원함으로써 지터 버퍼 관리를 통해 원활하게 재생이 이루어지도록 할 수 있을 뿐만 아니라, 음질 열화를 방지할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은, 무음 구간을 처리하는 경우에 음성 품질에 미치는 영향이 유음 구간을 처리하는 경우보다 적다는 점을 반영하여, 무음 구간의 음성 패킷을 우선적으로 드롭/복원하거나 음성 신호를 압축시켜서 지터 버퍼 관리를 수행하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명에 의하면, 중요도를 기반으로 판단할 때 우선 순위가 높은 음성 패킷(예컨대, 중요도가 낮은 음성 패킷)이 존재하지 않으면 지터 버퍼 제어 요청을 이벤트 스택(stack)에 쌓아두고 시퀀스 번호 또는 타임 스탬프에 의해 재배열된 순서대로 재생단으로 전송하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 일 실시형태는 지터 버퍼의 관리 방법으로서, 음성 정보 프레임을 수신하는 단계 및 상기 수신한 음성 정보 프레임을 기반으로 지터 버퍼 조절을 수행하는 단계를 포함하고, 상기 지터 버퍼 조절은 음성 신호의 보상을 포함하며,
상기 음성 신호의 보상은 상기 음성 정보 프레임의 서브 프레임 단위로 수행될 수 있다.
상기 음성 신호의 보상은, 상기 음성 신호의 복호화 파라미터 레벨에서 수행될 수 있다.
상기 음성 신호의 보상은, 상기 음성 신호 프레임의 중요도에 기반하여 수행될 수 있다. 이때 중요도가 낮은 순서대로 음성 신호 보상의 대상이 되며, 연속 무음 구간의 음성 신호 프레임이 가장 낮은 중요도를 가질 수 있다.
상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는, 음성 신호 프레임을 구성하는 두 서브프레임에 대한 복호화 파라미터들을 보간하여 서브프레임의 새로운 복호화 파라미터를 생성할 수 있다.
상기 음성 신호의 보상으로서 프레임 생성을 수행하는 경우에는, 음성 신호 프레임을 구성하는 두 서브프레임에 대한 복호화 파라미터들을 보간하여 새로운 서브프레임의 복호화 파라미터를 생성할 수 있다.
상기 음성 신호의 보상으로서 프레임 생성을 수행하는 경우에는, 서브프레임 보간을 수행하며, 상기 서브프레임 보간은, 음성 신호 프레임을 구성하는 두 서브프레임 사이에 새로운 서브프레임을 생성하고, 상기 두 서브프레임들에 대한 복호화 파라미터들을 보간하여 상기 새로운 서브프레임의 복호화 파라미터를 생성할 수 있다.
본 발명의 다른 실시형태는 지터 버퍼로서, 음성 정보 프레임을 수신하는 수신부, 음성 정보 프레임을 저장 및 관리하는 버퍼부 및 음성 정보 프레임을 출력하는 출력부를 포함하며, 상기 버퍼부는 상기 수신한 음성 정보 프레임의 서브프레임 단위로 음성 정보의 보상을 수행할 수 있다.
상기 버퍼부는 복호화 파라미터 레벨에서 상기 음성 정보의 보상을 수행할 수 있다.
상기 버퍼부는 서로 다른 두 서브프레임의 복호화 파라미터를 보간하여 새로운 복호화 파라미터를 생성할 수 있다.
본 발명에 의하면 지터 버퍼 제어가 필요한 시점에 음성 패킷의 중요도에 따라서 가중치를 줌으로써 성능을 향상 시킬 수 있다. 예컨대, 음성 정보의 조절에 있어서 중요도에 따라 처리 대상으로서의 우선 순위를 설정할 수 있다.
본 발명에 의하면 소정 기준의 중요도를 기반으로 지터 버퍼 관리를 수행함으로써, 지터 버퍼 관리에 의해 음질에 미치는 영향을 줄일 수 있다.
본 발명에 의하면, 무음 구간에 우선 순위를 두고 음성 패킷을 드롭 또는 복원함으로써 지터 버퍼 관리를 통해 원활하게 재생이 이루어지도록 할 수 있을 뿐만 아니라, 음질 열화를 감소시킬 수 있다.
본 발명에 의하면, 무음 구간을 처리하는 경우에 음성 품질에 미치는 영향이 유음 구간을 처리하는 경우보다 적다는 점을 반영하여, 무음 구간의 음성 패킷을 우선적으로 드롭/복원하거나 음성 신호를 압축 시켜서 지터 버퍼 관리에 의한 효과를 높일 수 있다.
본 발명에 의하면, 지터 버퍼 내 패킷의 중요도에 기반하여 패킷의 드롭/복원 및/또는 음성 신호의 압축/신장 등에 우선 순위를 둠으로써 지터 버퍼 관리에 의한 효과를 적게 받는 고음질의 음성 서비스를 제공할 수 있다.
본 발명에 의하면, 중요도를 기반으로 판단할 때 우선 순위가 높은 음성 패킷(예컨대, 중요도가 낮은 음성 패킷)이 존재하지 않으면 지터 버퍼 제어 요청을 이벤트 스택(stack)에 쌓아두고 시퀀스 번호 또는 타임 스탬프에 의해 재배열된 순서대로 재생단으로 전송될 수 있다.
도 1은 일반적인 음성 부호화기에 관한 구성의 일 예를 개략적으로 설명하는 도면이다.
도 2는 일반적인 음성 복호화기의 일 실시예를 개략적으로 나타낸 도면이다.
도 3은 지터 버퍼에 관한 구성의 일 예를 개략적으로 설명하는 도면이다.
도 4는 일반적인 지터 버퍼의 일 예를 개략적으로 설명하는 도면이다.
도 5는 지터 버퍼를 사용하지 않는 경우의 일 예를 개략적으로 나타낸 것이다.
도 6은 지터 버퍼 관리의 일 예를 개략적으로 설명하는 도면이다.
도 7은 지터 버퍼의 제어가 필요한 경우의 예를 개략적으로 나타낸 것이다.
도 8은 지터 버퍼에서 음성 정보의 보상을 수행하는 경우에 지터 버퍼 내 음성 프레임들의 중요도를 결정하는 방법의 일 예를 개략적으로 설명하는 도면이다.
도 9는 음성 프레임의 보상을 포함하는 지터 버퍼 관리 방법의 일 예를 개략적으로 설명하는 순서도이다
도 10은 지터 버퍼 조절 방법의 일 예를 개략적으로 설명하는 도면이다.
도 11은 패킷 수신 시 지터 버퍼 조절을 수행하는 방법의 일 예를 개략적으로 설명하는 순서도이다.
도 12는 재생 요청 시 지터 버퍼 조절을 수행하는 방법의 일 예를 개략적으로 설명하는 순서도이다.
도 13은 비트스트림 레벨에서 지터 버퍼 관리가 수행되는 일 예를 개략적으로 나타낸 것이다.
도 14는 음성 신호 레벨에서 지터 버퍼 관리가 수행되는 일 예를 개략적으로 나타낸 것이다.
도 15는 음성 프레임의 서브프레임 단위로 음성 정보의 보상을 수행하는 일 예를 개략적으로 설명하는 도면이다.
도 16 내지 도 22는 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 예들을 개략적으로 설명하는 도면이다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 명세서에서 제1 구성 요소가 제2 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 기재된 경우에는, 제2 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있고 제3 구성 요소를 매개하여 제2 구성 요소에 연결되거나 접속되어 있을 수도 있다.
“제1”, “제2” 등의 용어는 하나의 기술적 구성을 다른 기술적 구성으로부터 구별하기 위해 사용될 수 있다. 예를 들어, 본 발명의 기술적 사상의 범위 내에서 제1 구성 요소로 명명되었던 구성 요소는 제2 구성 요소로 명명되어 동일한 기능을 수행할 수도 있다.
도 1은 일반적인 음성 부호화기에 관한 구성의 일 예를 개략적으로 설명하는 도면이다.
도 1을 참조하면, 음성 부호화기(100)는 대역폭 확인부(105), 샘플링 변환부(125), 전처리부(130), 대역 분할부(110), 선형 예측 분석부(115, 135), 선형 예측 양자화부(140, 150, 175), 변환부(145), 역변환부(155, 180), 피치 검출부(160), 적응(adaptive) 코드북 검색부(165), 고정 코드북 검색부(170), 모드 선택부(185), 대역 예측부(190), 보상 이득 예측부(195)를 포함할 수 있다.
대역폭 확인부(105)는 입력되는 음성 신호의 대역폭 정보를 판단할 수 있다. 음성 신호는 약 4 kHz의 대역폭을 가지고 PSTN(Public Switched Telephone Network)에서 많이 사용되는 협대역 신호(Narrowband), 약 7 kHz의 대역폭을 가지고 협대역의 음성 신호보다 자연스러운 고음질 스피치나 AM 라디오에서 많이 사용되는 광대역 신호(Wideband), 약 14 kHz의 대역폭을 가지며 음악, 디지털 방송과 같이 음질이 중요시되는 분야에서 많이 사용되는 초광대역 신호(Super wideband)로 대역폭에 따라 분류될 수 있다. 대역폭 확인부(105)에서는 입력된 음성 신호를 주파수 영역으로 변환하여 현재 음성 신호의 대역폭이 협대역 신호인지, 광대역 신호인지, 초광대역 신호인지를 판단할 수 있다. 대역폭 확인부(105)는 입력된 음성 신호를 주파수 영역으로 변환하여, 스펙트럼의 상위 대역 빈(bin)들의 유무 및/또는 성분을 조사하고 판별할 수도 있다. 대역폭 확인부(105)는 구현에 따라 입력되는 음성 신호의 대역폭이 고정되어 있는 경우 따로 구비되지 않을 수 있다.
대역폭 확인부(105)는 입력된 음성 신호의 대역폭에 따라서, 초광대역 신호는 대역 분할부(110)으로 전송하고, 협대역 신호 또는 광대역 신호는 샘플링 변환부(125)로 전송할 수 있다.
대역 분할부(110)는 입력된 신호의 샘플링 레이트를 변환하고 상위 대역과 하위 대역으로 분할할 수 있다. 예를 들어, 32kHz의 음성 신호를 25.6kHz의 샘플링 주파수로 변환하고 상위 대역과 하위 대역으로 12.8kHz씩 분할할 수 있다. 대역 분할부(110)는 분할된 대역 중 하위 대역 신호를 전처리부(130)로 전송하고, 상위 대역 신호를 선형 예측 분석부(115)로 전송한다.
샘플링 변환부(125)는 입력된 협대역 신호 또는 광대역 신호를 입력 받고 일정한 샘플링 레이트를 변경할 수 있다. 예를 들어, 입력된 협대역 음성 신호의 샘플링 레이트가 8kHz인 경우, 12.8kHz로 업 샘플링하여 상위 대역 신호를 생성할 수 있고 입력된 광대역 음성신호가 16kHz인 경우, 12.8kHz로 다운 샘플링을 수행하여 하위 대역 신호를 만들 수 있다. 샘플링 변환부(125)는 샘플링 변환된 하위 대역 신호를 출력한다. 내부 샘플링 주파수(internal sampling frequency)는 12.8kHz가 아닌 다른 샘플링 주파수를 가질 수도 있다.
전처리부(130)는 샘플링 변환부(125) 및 대역 분할부(110)에서 출력된 하위 대역 신호에 대해 전처리를 수행한다. 전처리부(130)에서는 음성 파라미터가 효율적으로 추출될 수 있도록 입력 신호를 필터링한다. 음성 대역폭에 따라 차단 주파수(cutoff frequency)를 다르게 설정하여 상대적으로 덜 중요한 정보가 모여있는 주파수 대역인 아주 낮은 주파수(very low frequency)를 하이 패스 필터링함으로써 파라미터 추출 시 필요한 중요 대역에 집중할 수 있다. 또 다른 예로 프리-엠퍼시스(pre-emphasis) 필터링을 사용하여 입력 신호의 높은 주파수 대역을 부스트함으로써, 낮은 주파수 영역과 높은 주파수 영역의 에너지를 스케일링할 수 있다. 따라서, 선형 예측 분석시 해상도를 증가시킬 수 있다.
선형 예측 분석부(115, 135)는 LPC(Linear Prediction Coefficient)를 산출할 수 있다. 선형 예측 분석부(115, 135)에서는 음성 신호의 주파수 스펙트럼의 전체 모양을 나타내는 포만트(Formant)를 모델링할 수 있다. 선형 예측 분석부(115, 135)에서는 원래의 음성 신호와 선형 예측 분석부(135)에서 산출된 선형 예측 계수를 이용해 생성한 예측 음성 신호의 차이인 오차(error) 값의 MSE(mean square error)가 가장 작아지도록 LPC 값을 산출할 수 있다. LPC를 산출하기 자기 상관(autocorrelation) 방법 또는 공분산(covariance) 방법 등 다양한 방법이 사용될 수 있다.
선형 예측 분석부(115)는 하위 대역 신호에 대한 선형 예측 분석부(135)와 달리, 낮은 차수의 LPC를 추출할 수 있다.
선형 예측 양자화부(120, 140)에서는 추출된 LPC를 변환하여 LSP(Linear Spectral Pair)나 LSF(Linear Spectral Frequency)와 같은 주파수 영역의 변환 계수들을 생성하고, 생성된 주파수 영역의 변환 계수를 양자화 할 수 있다. LPC는 큰 동적 범위(Dynamic Range)를 가지기 때문에 이러한 LPC를 그대로 전송하는 경우, 많은 비트가 필요하다. 따라서 주파수 영역으로 변환하고, 변환 계수를 양자화함으로써 적은 비트(압축량)으로 LPC 정보를 전송할 수 있다.
선형 예측 양자화부(120, 140)에서는 양자화된 LPC를 역양자화해서 시간 영역으로 변환된 LPC를 이용하여 선형 예측 잔여 신호를 생성할 수 있다. 선형 예측 잔여 신호는 음성 신호에서 예측된 포만트 성분이 제외된 신호로서, 피치(pitch) 정보와 랜덤 신호를 포함할 수 있다.
선형 예측 양자화부(120)에서는 양자화된 LPC를 이용하여, 원래의 상위 대역 신호와의 필터링을 통해 선행 예측 잔여 신호를 생성한다. 생성된 선형 예측 잔여 신호는 상위 대역 예측 여기 신호와의 보상 이득을 구하기 위해 보상 이득 예측부(195)로 전송된다.
선형 예측 양자화부(140)에서는 양자화된 LPC를 이용하여, 원래의 하위 대역 신호와의 필터링을 통해 선형 예측 잔여 신호를 생성한다. 생성된 선형 예측 잔여 신호는 변환부(145) 및 피치 검출부(160)에 입력된다.
도 1에서, 변환부(145), 양자화부(150), 역변환부(155)는 TCX(Transform Coded Excitation)을 모드를 수행하는 TCX 모드 수행부로서 동작할 수 있다. 또한, 피치 검출부(160), 적응 코드북 검색부(165), 고정 코드북 검색부(170)는 CELP(Code Excited Linear Prediction) 모드를 수행하는 CELP 모드 수행부로서 동작할 수 있다.
변환부(145)에서는 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)와 같은 변환 함수에 기초하여, 입력된 선형 예측 잔여 신호를 주파수 도메인으로 변환시킬 수 있다. 변환부(145)는 변환 계수 정보를 양자화부(150)에 전송할 수 있다.
양자화부(150)에서는 변환부(145)에서 생성된 변환 계수들에 대해 양자화를 수행할 수 있다. 양자화부(150)에서는 다양한 방법으로 양자화를 수행할 수 있다. 양자화부(150)는 선택적으로 주파수 대역에 따라 양자화를 수행할 수 있고 또한, AbS(Analysis by Synthesis)를 이용하여 최적의 주파수 조합을 산출할 수도 있다.
역변환부(155)는 양자화된 정보를 기반으로 역변환을 수행하여 시간 도메인에서 선형 예측 잔여 신호의 복원된 여기 신호를 생성할 수 있다.
양자화 후 역변환된 선형 예측 잔여 신호, 즉, 복원된 여기 신호는 선형 예측을 통해 음성 신호로서 복원된다. 복원된 음성 신호는 모드 선택부(185)로 전송된다. 이처럼 TCX 모드로 복원된 음성 신호는 후술할 CELP 모드로 양자화되고 복원된 음성 신호와 비교될 수 있다.
한편, CELP 모드에서, 피치 검출부(160)는 자기 상관(autocorrelation) 방법과 같은 오픈 루프(open-loop) 방식을 이용하여 선형 예측 잔여 신호에 대한 피치를 산출할 수 있다. 예컨대, 피치 검출부(160)는 합성된 음성 신호와 실제의 음성 신호를 비교하여 피치 주기와 피크값 등을 산출할 수 있으며, 이때 AbS(Analysis by Synthesis) 등의 방법을 이용할 수 있다.
적응 코드북 검색부(165)는 피치 검출부에서 산출된 피치 정보를 기반으로 적응 코드북 인덱스와 게인을 추출한다. 적응 코드북 검색부(165)는 AbS 등을 이용하여 적응 코드북 인덱스와 게인 정보를 기반으로 선형 예측 잔여 신호에서 피치 구조(pitch structure)를 산출할 수 있다. 적응 코드북 검색부(165)는 적응 코드북의 기여분, 예컨대 피치 구조에 관한 정보가 제외된 선형 예측 잔여 신호를 고정 코드북 검색부(170)에 전송한다.
고정 코드북 검색부(170)는 적응 코드북 검색부(165)로부터 수신한 선형 예측 잔여 신호를 기반으로 고정 코드북 인덱스와 게인을 추출하고 부호화할 수 있다. 이때, 고정 코드북 검색부(170)에서 고정 코드북 인덱스와 게인을 추출하는데 이용하는 선형 예측 잔여 신호는 피치 구조에 관한 정보가 제외된 선형 예측 잔여 신호일 수 있다.
양자화부(175)는 피치 검출부(160)에서 출력된 피치 정보, 적응 코드북 검색부(165)에서 출력된 적응 코드북 인덱스 및 게인, 그리고 고정 코드북 검색부(170)에서 출력된 고정 코드북 인덱스 및 게인 등의 파라미터를 양자화한다.
역변환부(180)는 양자화부(175)에서 양자화된 정보를 이용하여 복원된 선형 예측 잔여 신호인 여기 신호를 생성할 수 있다. 여기 신호를 기반으로 선형 예측의 역과정을 통해 음성 신호를 복원할 수 있다.
역변환부(180)는 CELP 모드로 복원된 음성 신호를 모드 선택부(185)에 전송한다.
모드 선택부(185)에서는 TCX 모드를 통해 복원된 TCX 여기 신호와 CELP 모드를 통해 복원된 CELP 여기 신호를 비교하여 원래의 선형 예측 잔여 신호와 더 유사한 신호를 선택할 수 있다. 모드 선택부(185)는 선택한 여기 신호가 어떠한 모드를 통해 복원된 것인지에 대한 정보 역시 부호화할 수 있다. 모드 선택부(185)는 복원된 음성 신호의 선택에 관한 선택 정보와 여기 신호를 대역 예측부(190)에 전송할 수 있다.
대역 예측부(190)는 모드 선택부(185)에서 전송된 선택 정보와 복원된 여기 신호를 이용하여 상위 대역의 예측 여기 신호를 생성할 수 있다.
보상 이득 예측부(195)는 대역 예측부(190)에서 전송된 상위 대역 예측 여기 신호와 선형 예측 양자화부(120)에서 전송된 상위 대역 예측 잔여 신호를 비교하여 스펙트럼상의 게인을 보상할 수 있다.
한편, 도 1의 예에서 각 구성부는 각각 별도의 모듈로서 동작할 수도 있고, 복수의 구성부가 하나의 모듈을 형성하여 동작할 수도 있다. 예컨대, 양자화부(120, 140, 150, 175)는 하나의 모듈로서 각 동작을 수행할 수도 있고, 양자화부(120, 140, 150, 175) 각각이 별도의 모듈로서 프로세스상 필요한 위치에 구비될 수도 있다.
도 2는 일반적인 음성 복호화기의 일 실시예를 개략적으로 나타낸 도면이다.
도 2를 참조하면, 음성 복호화기(200)는 역양자화부(205, 210), 대역 예측부(220), 이득 보상부(225), 역변환부(215), 선형 예측 합성부(230, 235), 샘플링 변환부(240), 대역 합성부(250), 후처리 필터링부(245, 255)를 포함할 수 있다.
역양자화부(205, 210)는 양자화된 파라미터 정보를 음성 부호화기로부터 수신하고, 이를 역양자화한다.
역변환부(215)는 TCX 모드 또는 CELP 모드로 부호화된 음성 정보를 역변환하여 여기 신호를 복원할 수 있다. 역변환부(215)는 부호화기로부터 수신한 파라미터를 기반으로 복원된 여기 신호를 생성할 수 있다. 이때, 역변환부(215)는 음성 부호화기에서 선택된 일부 대역에 대해서만 역변환을 수행할 수도 있다. 역변환부(215)는 복원된 여기 신호를 선형 예측 합성부(235)와 대역 예측부(220)에 전송할 수 있다.
선형 예측 합성부(235)는 역변환부(215)로부터 전송된 여기 신호와 음성 부호화기로부터 전송된 선형 예측 계수를 이용하여 하위 대역 신호를 복원할 수 있다. 선형 예측 합성부(235)는 복원된 하위 대역 신호를 샘플링 변환부(240)와 대역 합성부(250)에 전송할 수 있다.
대역 예측부(220)는 역변환부(215)로부터 수신한 복원된 여기 신호값을 기반으로 상위 대역의 예측 여기 신호를 생성할 수 있다.
이득 보상부(225)는 대역 예측부(220)로부터 수신한 상위 대역 예측 여기 신호와 부호화기에서 전송된 보상 이득값을 기반으로 초광대역 음성 신호에 대한 스펙트럼 상의 게인을 보상할 수 있다.
선형 예측 합성부(230)는 보상된 상위 대역 예측 여기 신호값을 이득 보상부(225)로부터 수신하고, 보상된 상위 대역 예측 여기 신호값과 음성 부호화기로부터 수신한 선형 예측 계수값을 기반으로 상위 대역 신호를 복원할 수 있다.
대역 합성부(250)는 복원된 하위 대역의 신호를 선형 예측 합성부(235)로부터 수신하고, 복원된 상위 대역 신호를 대역 선형 예측 합성부(435)로부터 수신하여, 수신한 상위 대역 신호와 하위 대역 신호에 대한 대역 합성을 수행할 수 있다.
샘플링 변환부(240)는 내부 샘플링 주파수 값을 다시 원래의 샘플링 주파수 값으로 변환시킬 수 있다.
후처리부(245, 255)에서는 신호 복원을 위해 필요한 후처리를 수행할 수 있다. 예컨대, 후처리부(245, 255)는 전처리부에서 프리엠퍼시스(pre-emphasis) 필터를 역필터링할 수 있는 디엠퍼시스(de-emphasis) 필터가 포함될 수 있다. 후처리부(245, 255)는 필터링뿐만 아니라, 양자화 에러를 최소화 하거나, 스펙트럼의 하모닉 피크를 살리고 밸리(valley)를 죽이는 등 여러 가지 후처리 동작을 수행할 수도 있다. 후처리부(245)는 복원된 협대역 또는 광대역 신호를 출력하고, 후처리부(255)는 복원된 초광대역 신호를 출력할 수 있다.
전술한 바와 같이 도 1과 도 2에서 개시한 음성 부호화기는 본 발명에서 개시된 발명이 사용되는 하나의 예시로서 본 발명에 따른 기술적 사상의 범위 내에서 다양한 응용이 가능하다.
상술한 바와 같이, 부호화기는 입력된 음성 신호로부터 파라미터들을 추출하고 이를 양자화하여 패킷으로 전송한다. 복호화기는 부호화기로부터 전송된 패킷을 수신하고, 이를 기반으로 음성 신호를 복원하는 복호화를 수행한다. 이때, 음성 신호로부터 추출/전송되고, 수신/복호되는 파라미터는 여기 신호(excitation signal), 피치 주기(pitch period), LPC(Linear Prediction Coding) 계수를 포함한다. LPC 계수는 양자화하기 어렵기 때문에, LPC 계수에 1 대 1로 대응하는 ISP(Immittance Spectral Pairs) 계수로 변환하여 전송될 수 있다.
음성 신호 중 포만트(Formant) 성분은 선형 예측(Linear Prediction: LP)에 의해 모델링될 수 있다. 그 외 잔여 신호 부분은 피치(pitch) 검색에 의해 모델링 될 수 있으며, 피치 검색 후의 잔여 부분은 코드북에 의한 여기(excitation) 신호를 통해 보정될 수 있다.
주어진 시점에서의 음성 신호는 이전 음성 신호의 선형 조합, 즉 선형 예측에 의해 근사할 수 있으며, 선형 예측에 의한 신호와 원본 신호 사이의 오차는 여기 신호에 의해 보상될 수 있다.
이때, 선형 예측에 있어서 이전 음성 샘플들에 적용되는 게인 혹은 계수를 선형 예측(Linear Prediction: LP 혹은 Linear Prediction Coding: LPC) 계수라고 한다. 상술한 바와 같이, 양자화를 위해 LPC 계수는 ISP 계수로 변환될 수 있다. ISP는 LPC 파라미터(LPC 계수)를 변환하여 얻어진다. 예컨대, ISP 계수는 역 필터 전달 함수를 기대칭(odd symmetry)을 가지는 전달 함수(transfer function)와 우대칭(even symmery)을 가지는 전달 함수에 분리하여 얻어지는 다항식(polynomial)의 근들일 수 있다.
ISP 계수 외에도, LPC 계수를 변환한 다른 계수들이 음성 신호 부호화/복호화에 사용될 수 있다. 예컨대, ISP 계수 외에도 LSP(Line Spectral Pair) 계수, ISF(Immittance Spectral Frequencies) 계수, LSF(Line Spectral Frequencies) 계수 등이 사용될 수 있다.
LSP 계수는 ISP 계수와 마찬가지로, LPC계수를 기반으로 한 역필터함수를 이용하여 합-다항식과 차-다항식을 구성해서 만들어진 기대칭 전달함수와 우대칭 전달함수의 근들일 될 수 있다.
구하고자 하는 근의 개수를 고려하여, 상기 구성되는 다항식의 항 개수에 따라서 LSP와 ISP가 구분될 수 있는데, 예를 들어, LSP는 10차의 LPC 계수를 변환할 떼 사용될 수 있고, ISP는 16차의 LPC 계수를 변환할 때 사용될 수 있다.
ISF 계수와 LSF 계수는 상기 ISP와 LSP를 코사인 도메인으로 매핑시킨 값이다.
또한, 이전 음성 신호는 각 피치 주기별로 선택될 수 있다. 피치는 예컨대, 시간 축에서 주기적으로 나타나는 피크(peak)들의 주파수를 의미하며, 음성 신호의 기본적인 주파수와 동일한 주파수를를 가진다. 피치 주기는 에러를 최소화하는 루프 검색(AbS)을 이용하여 검색한 래그(lag)를 기반으로 결정될 수 있다.
여기 신호는 원본 음성 신호와 선형 예측에 의한 음성 신호 사이의 오차를 보상하기 위한 잔여 신호라고 할 수 있다. 여기 신호는 코드북을 통해 지정될 수 있다.
부호화기는 음성 신호의 프레임별로 LPC 계수에 관한 정보(예컨대, LPC 계수를 유도하기 위한 ISP 계수), 피치 주기에 관한 정보(예컨대, 피치 주기를 유도하기 위한 피치 래그), 여기 신호에 관한 정보(예컨대, 여기 신호를 유도하기 위한 코드북 인덱스 및 코드북 게인)를 양자화 및 부호화하여 전송할 수 있다.
복호화기는 ISP 계수로부터 유도한 LPC 계수 및 상기 여기 신호와 피치 정보를 기반으로 음성 신호를 복원할 수 있다. 복호화기는 부호화기로부터 수신한 정보 중 코드북 인덱스와 게인을 기반으로 여기 신호를 생성하고, 피치 래그(lag)와 게인을 기반으로 피치 주기를 생성할 수 있다. 복호화기는 코드북으로부터 피치 정보와 게인(gain), 위치 및 사인(position and sign) 정보를 획득하여 여기 신호를 생성할 수도 있다.
피치 주기와 여기 신호를 유도하기 위한 코드북으로서 대수적 코드북을 사용하거나 적응적/고정적 코드북을 사용할 수 있다. 적응적 코드북은 각 서브프레임에 적합한 여기 신호 정보(여기 신호 벡터)를 포함하며, 피치 주기에 대한 래그값이 적응적 코드북의 인덱스로부터 유도될 수도 있다. 고정적 코드북은 스피치 합성 필터에 대한 여기 벡터들을 포함하며, 포함하는 내용들은 고정된 값을 가질 수 있다.
복호화기는 또한, ISP 계수를 변환하여 LPC 계수를 생성할 수 있다. LPC 계수는 상술한 ISP로의 변환 과정을 역으로 적용하여 유도할 수 있다.
복호화기는 복원된 신호(LPC 계수, 피치 주기, 여기 신호 등)를 합성하여 음성 신호를 복원할 수 있다.
이하 본 명세서에서는 음성 신호를 복호화하기 위해 필요한 파라미터들(LPC 계수 또는 ISP 계수, 피치 주기, 여기 신호 등)을 복호화 파라미터라고 한다.
후술하는 바와 같이, 음성 신호는 복호화기로부터 복호화된 후 지터 버퍼를 거쳐 출력/재생 장치로 출력될 수 있다. 또한, 음성 신호는 지터 버퍼를 거쳐 복호화기에서 복호화된 후 음성 출력/재생 장치로 출력될 수도 있다. 또한, 음성 신호는 지터 버퍼와 복호화기에서 병렬적으로 처리될 수도 있다. 음성 신호가 병렬적으로 처리되는 경우에, 음성 신호는 지터 버퍼에서 저장/관리되고, 복호화기에서 복호화되면서, 지터 버퍼의 저장/관리에 필요한 정보와 복호화기의 복호화에 필요한 정보가 지터 버퍼와 복호화기 사이에서 오갈 수도 있다.
도 3은 지터 버퍼에 관한 구성의 일 예를 개략적으로 설명하는 도면이다. 도 3을 참조하면, 지터 버퍼(300)는 수신부(310), 버퍼(320), 출력부(330)를 포함할 수 있다.
수신부(310)는 음성 신호를 수신할 수 있다. 수신되는 음성 신호는 음성 패킷일 수도 있고 음성 프레임일 수도 있다. 수신부(310)는 부호화기로부터 음성 신호를 수신할 수도 있고, 복호화기를 통해 음성 신호를 수신할 수도 있다.
버퍼(320)는 음성 신호를 저장하고 관리할 수 있다. 저장 및 관리되는 음성 신호는 음성 패킷일 수도 있고 음성 프레임일 수도 있다.
출력부(330)는 재생(playback) 시간에 맞춰 음성 신호를 출력할 수 있다. 출력되는 음성 신호는 음성 패킷일 수도 있고, 음성 프레임일 수도 있다. 출력부(330)는 지터 버퍼에 버퍼되었던 음성 신호를 복호화기로 음성 신호를 출력할 수도 있고, 재생 장치(출력 장치)로 음성 신호를 출력할 수도 있다.
여기서는 설명의 편의를 위해, 지터 버퍼(300)가 세 구성을 포함하는 것으로 설명하였으나, 본 발명은 이에 한정하지 않고 지터 버퍼 자체가 음성 신호의 수신, 관리/처리, 출력을 수행할 수도 있다.
지터 버퍼(jitter buffer)는 네트워크 상에서 발생하는 데이터의 지터(jitter)에 관한 문제를 처리하기 위한 버퍼다.
지터는 음성 정보를 부호화하여 패킷화한 음성 패킷(packet)이 목적지(예컨대, 복호화기)에 도착할 때 발생하는 가변적인 네트워크 지연을 의미하며, 패킷이 전송되는 네트워크상에서 발생할 수 있다. 예컨대, 지터는 패킷의 우선 순위를 결정하는 라우터 내의 큐(Queue) 및/또는 LAN 간의 충돌 등 여러 가지 이유에 기인해 발생할 수 있다. 따라서, 음성 패킷은 일정한 간격으로 도착하지 않을 수 있으며, 이에 의해 발생할 수 있는 문제를 해결하기 위해 지터 버퍼가 사용된다.
다시 말하면, 지터 버퍼의 이용 목적 중 하나는 입력되는 데이터의 불규칙성을 조절하는 것이라고 할 수 있다.
도 4는 일반적인 지터 버퍼의 일 예를 개략적으로 설명하는 도면이다. 도 4에서는 지터 버퍼의 버퍼가 5개의 음성 패킷을 큐잉(queueing) 할 수 있는 사이즈를 가지는 경우를 예로서 설명하고 있다.
지터 버퍼는 버퍼(또는 큐) 내에 음성 패킷들을 큐잉하고 음성 패킷들의 RTP(Real-time Transport Protocol) 헤더 정보를 이용하여 음성 패킷의 생성 순서와 간격을 해석하며, 이를 기반으로 음성 패킷을 버퍼 내에서 순차적을 재배열할 수 있다.
도 4를 참조하면, 지터 버퍼에 수신된 음성 패킷들이 버퍼(큐) 내에 시퀀스 100(타임 스탬프(TS) 8000)의 패킷, 시퀀스 101(타임 스탬프 8160)의 패킷, 시퀀스 102(타임 스탬프 8320)의 패킷, 시퀀스 104(타임 스탬프 8640)의 패킷의 순서로 배열되어 있는 경우에 시퀀스 103(타임 스탬프 8480)의 패킷(410)이 입력되면, 지터 버퍼는 패킷들의 생성 순서를 고려하여 시퀀스 103의 패킷과 시퀀스 104의 패킷의 순서를 바꿔 재정렬한다.
지터 버퍼 내의 음성 패킷들은 순서대로, 최우선의 패킷(420)부터 출력된다.
지터 버퍼는 음성 신호를 제거하거나 생성하여 지연 수신 또는 유실 등에 의한 문제를 해결할 수 있다. 또한 지터 버퍼는 대기 중인 음성 신호의 길이를 고려하여 지터 버퍼의 사이즈를 줄이거나 증가시킬 수 있다.
지터 버퍼를 사용하지 않는 경우에는, 음성 신호의 재생 시간을 일정하게 유지하기 어려운 문제가 있다.
도 5는 지터 버퍼를 사용하지 않는 경우의 일 예를 개략적으로 나타낸 것이다. 도 5를 참조하면, 음성 패킷의 송신 측에서는 5 개의 음성 패킷(PKT1 ~ PKT5)을 순서대로 전송한다.
음성 패킷들이 송신단에서 송신되는 송신 시간은 송신 시간 축(510) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 Tpkt의 시간 간격으로 각 전송 시간(Ts1 ~ Ts5)에 전송된다. 이때, 시간 간격 Tpkt는 각 음성 패킷의 재생 시간일 수 있다.
음성 패킷들이 수신단에서 수신되는 수신 시간은 수신 시간 축(520) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 수신 시간 Tr1 ~ Tr5에 각각 수신된다. 도시된 바와 같이 수신된 음성 패킷들은 전송 과정에서 다양한 지연 요소의 영향을 받을 수 있으며, 일정한 시간 간격으로 수신되지 않을 수도 있다.
각 음성 패킷이 재생단에서 재생되는 재생 시간은 재생 시간 축(530) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 재생 시간 Tpkt 간격으로 재생 시간 Tp1 ~ Tp5에 출력되어야 한다. 하지만, 음성 패킷의 수신은 일정한 시간 간격으로 이루어지지 않을 수 있으며, 도시된 바와 같이 음성 패킷 PKT3과 음성 패킷 PKT4는 재생 시간 Tpkt보다 큰 시간 간격을 두고 수신될 수 있다.
도 5의 예를 고려하면, 재생단에서 PKT4를 재생하려고 하는 시간(Tp4)에 PKT4가 수신되지 않았으므로, 재생단에서는 PKT4를 재생할 수 없으며 음질 손실이 발생할 수 있다.
다시 말하면, 지터 버퍼를 사용하지 않는 경우에는 X 번째 음성 패킷의 수신 시간(TrX)이 재생 시간(TpX)보다 늦어질 수 있으며, 이로 인한 음질 손실이 발생할 수 있다.
수신 시간과 재생 시간 사이의 역전 혹은 수신 지연에 따른 재생 지연/불가의 문제를 해결하기 위해 지터 버퍼는 충분한 음성 패킷을 큐잉하고 재생단에서의 주기적인 패킷 요청에 대응한다. 도 4의 패킷(420)과 같이 지터 버퍼에 처음으로 수신되는 음성 패킷은 재생 요청에 대응하여 가장 먼저 출력될 수 있다.
지터 버퍼는 음성 패킷들의 RTP 헤더 정보를 기반으로 각 음성 패킷들의 생성 간격/시간에 따라 음성 패킷의 보상을 수행할 수 있다. 예컨대, 동일한 생성 간격을 가지는 음성 패킷을 생성할 수도 있고, 동일한 시간대의 음성 패킷 중 적어도 하나를 삭제할 수도 있다. 이를 통해 지터 버퍼는 재생되는 음성 패킷들로 인한 음질 손실을 최소화할 수 있다.
도 6은 지터 버퍼 관리의 일 예를 개략적으로 설명하는 도면이다. 도 6에서는 5개의 음성 패킷이 전송/수신/관리/재생되는 경우를 예로서 설명한다.
도 6을 참조하면, 음성 패킷들이 송신단에서 송신되는 송신 시간은 송신 시간 축(610) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 Tpkt의 시간 간격으로 각 전송 시간(Ts1 ~ Ts5)에 전송된다. 이때, 시간 간격 Tpkt는 각 음성 패킷의 재생 시간일 수 있다.
음성 패킷들이 수신단에서 수신되는 수신 시간은 수신 시간 축(620) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 수신 시간 Tr1 ~ Tr5에 각각 수신된다. 도시된 바와 같이 수신된 음성 패킷들은 전송 과정에서 다양한 지연 요소의 영향을 받을 수 있으며, 일정한 시간 간격으로 수신되지 않을 수도 있다.
음성 패킷들은 도 5의 경우와 달리 지터 버퍼에 전달된다. 음성 패킷들이 지터 버퍼에 입력되는 시간은 지터 버퍼 시간 축(630) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 지터 버퍼 입력 시간 Tj1 ~ Tj5에 지터 버퍼에 입력된다. 지터 버퍼는 소정의 시간 동안 해당 음성 패킷을 저장한 후 음성 패킷별 재생 시간에 맞춰 재생단으로 전달할 수 있다.
음성 패킷들이 재생단에서 재생되는 재생 시간은 재생 시간 축(640) 상에 표시된 바와 같다. 예컨대, 음성 패킷 PKT1 ~ PKT5는 재생 시간 Tpkt 간격으로 재생 시간 Tp1 ~ Tp5에 출력된다. 도 5의 경우와 비교하여, X 번째 음성 패킷은 도 5의 재생 시간 TpX보다 버퍼 시간 Tj 만큼이 경과한 후에 재생단에서 재생된다.
도 6을 참조하면, 도 5의 경우와 마찬가지로 네 번째 음성 패킷 TPK4는 지터 버퍼 입력 예정 시간인 Tj4보다 더 늦은 Tr4에 수신되었지만, 버퍼 시간 Tj 내에 수신되어 TPK4에 대한 재생은 재생 시간 Tp4에 원활하게 수행될 수 있다.
지터 버퍼에서 제공하는 버퍼 시간 Tj가 클수록 전송 지연에 의한 음질 열화는 줄어들 수 있지만, 지터 버퍼 내에서 추가 지연이 발생할 수 있다. 따라서 음질 열화와 지연은 Tj 값에 비례한 트레이드-오프 관계에 있다.
음질 열화와 지연의 관계를 최적화하고 재생 성능을 개선하기 위해 지터 버퍼의 제어/관리가 필요하다. 지터 버퍼 내 음성 패킷(혹은 음성 프레임)은 RTP 헤더에 포함된 시퀀스(sequence) 번호 필드와 타임 스탬프 필드에 의해 특정될 수 있으며, 이를 기반으로 처리될 수 있다.
타임 스탬프 필드는 음성 패킷이 재생되는 시점을 나타낸다. 시퀀스 번호 필드는 음성 패킷마다 증가되는 번호를 지터 버퍼(혹은 지터 버퍼의 제어를 수행하는 장치)에 제공하여 음성 패킷들이 지터 버퍼 내에서 순서대로 배열되도록 한다.
큐잉된 음성 패킷들은 각각의 재생 시간에 맞춰 순차로 재생된다. 이와 관련하여 지터 버퍼의 관리가 필요한 경우의 두 예로서, 지터 버퍼가 음성 패킷으로 가득 찬 경우와 지터 버퍼 내 음성 패킷의 개수가 최소 사이즈의 버퍼가 수용할 수 있는 음성 패킷의 개수보다 작은 경우가 있다.
지터 버퍼가 음성 패킷으로 가득 차 음성 패킷을 더 이상 버퍼에 수용할 수 없는 경우는, 장시간 전송 지연이 감소하여 음성 패킷이 도착하거나 여러 개의 음성 패킷이 동시에 도착할 때에도 발생할 수 있고, 전송측 녹음부에서 발진 오차(예컨대, 주어진 샘플링 레이트보다 빠를 경우)가 있거나 수신측 재생부에서 발진 오차(예컨대, 주어진 샘플링 레이트보다 느릴 경우)가 있는 경우에도 발생할 수 있다. 이 경우에 지터 버퍼는 재생 절차에서 지터 버퍼 내 음성 패킷을 드롭(drop)하거나 오디오 신호를 압축하여 문제를 해결할 수 있다.
지터 버퍼 내 음성 패킷의 개수가 부족하여 음성 패킷이 원활하게 재생되지 못하는 경우는, 음성 패킷의 전송 지연이 장시간 증가하거나 및/또는 음성 패킷 유실에 의해서도 발생할 수 있고, 전송측 녹음부에서 발진 오차(예컨대, 주어진 샘플링 레이트보다 느릴 경우)가 있거나 수신측 재생부에서 발진 오차(예컨대, 주어진 샘플링 레이트보다 빠를 경우)가 있는 경우에도 발생할 수 있다. 이 경우에는 음성 패킷을 생성하거나 음성 신호의 길이를 신장하여 문제를 해결할 수 있다.
도 7은 지터 버퍼의 제어가 필요한 경우의 예를 개략적으로 나타낸 것이다. 도 7을 참조하면, 음성 패킷들이 송신단에서 송신되는 송신 시간은 송신 시간 축(710) 상에 표시된 바와 같고, 음성 패킷들이 수신단에서 수신되는 수신 시간은 수신 시간 축(720) 상에 표시된 바와 같다.
음성 패킷들이 지터 버퍼에 입력되는 시간은 지터 버퍼 시간 축(730) 상에 표시된 바와 같다. 또한, 음성 패킷들이 재생단에서 재생되는 재생 시간은 재생 시간 축(740) 상에 표시된 바와 같다.
도 7의 예에서는 전송 지연에 의해 PKT3, PKT4, PKT5의 지터 버퍼 입력 시간이 Tj5에 집중되고 있다. 따라서, PKT3 및 PKT4의 재생 시간 Tp3과 Tp4에서는 재생할 음성 패킷이 지터 버퍼에 존재하지 않는다.
따라서, 지터 버퍼의 관리를 재생 시간에 맞춰 고려하면, 재생 시간 Tp3과 Tp4에서는 앞서 언급한, 지터 버퍼 내 음성 패킷이 부족해지는 문제가 발생하며, 재생 시간 Tp5에서는 앞서 언급한 음성 패킷에 의해 갑자기 지터 버퍼가 가득 차게 되는 문제가 발생하게 된다.
지터 버퍼 또는 재생단에서는 지터 버퍼 내에 저장된 음성 패킷들을 재생하기 위해 지터 버퍼 내 최상위 패킷의 시퀀스 번호와 타임 스탬프를 확인한다. 예컨대, 예상 증가분만큼 시퀀스 번호가 증가한 경우 해당 음성 패킷은 재생될 수 있다. 반면에 예상 증가분만큼 순차적으로 증가한 시퀀스 번호가 아닌 경우에(예컨대, 이전에 재생된 음성 패킷보다 시퀀스 번호가 1만큼 크지 않은 경우)에는 패킷 손실이 있는 것으로 보고, 이를 보상하기 위한 절차가 수행될 수 있다.
음성 패킷의 손실이 있다고 판단한 경우, 손실된 패킷(프레임)을 보완하기 위한 대용 정보(예컨대, 대용 음성 프레임 혹은 대용 음성 패킷)을 생성하고 생성된 대용 정보를 재생하는 방법을 고려할 수 있다. 지터 버퍼 내에 저장된 음성 패킷이 없다면, 백색 잡음 프레임을 이용하는 재생 방법과 신호의 길이를 신장하여 재생하는 방법 등을 이용하여 일정 시간 동안 손실 패킷을 보상하는 방법도 이용할 수 있다.
한편, 상술한 바와 같이, 지터 버퍼의 크기가 너무 작으면 지터 버퍼는 음성 패킷의 지터를 충분히 처리하기 어렵게 된다. 또한, 지터 버퍼가 쉽게 가득 차게 됨으로써, 새로운 음성 패킷이 입력되기 어렵게 된다.
반대로 지터 버퍼의 크기가 너무 크면 지터 버퍼는 과도한 재생 지연을 야기할 수도 있다.
따라서, 음성 신호의 신호 품질을 저하시키지 않고 지연 없이 음성 재생이 이루어지도록 하기 위해서, 효과적으로 지터 버퍼의 크기를 조절하거나 음성 정보를 보상할 수 있는 방법이 필요하다.
이때, 재생단에서 요청한 최상위 음성 패킷만을 고려하지 않고, 음성 패킷의 종류를 고려하여, 예컨대 지터 버퍼 내의 음성 패킷들에 대한 중요도를 기반으로 음성 정보의 보상이 수행되도록 할 수 있다.
음성 신호는 유음 구간과 무음 구간으로 구성될 수 있다. 음성 패킷이 유음에 해당하는지 무음에 해당하는지는 부호화된 음성 패킷의 FT 지시자(Frame Type indocator)를 통해 지시될 수 있다. 또한, 음성 패킷이 복호화된 후 별도의 분류(classification) 블록, 예컨대 VAD(Voice Activity Detection) 등을 통해 해당 음성 패킷이 유음에 해당하는지 무음에 해당하는지가 지시될 수도 있다.
일반적으로 무음 구간의 신호 편집은 유음 구간의 신호 편집에 비해 음성 품질에 미치는 영향이 상대적으로 작다. 따라서 이런 특성을 이용하여 지터 버퍼 내 음성 패킷의 중요도를 결정할 수 있다.
지터 버퍼는 결정된 음성 패킷의 중요도를 기반으로 지터 버퍼 제어를 수행할 수 있으며, 음성 패킷의 중요도를 기반으로 지터 버퍼를 관리/제어함으로써 지터 버퍼 제어에 의한 음성 왜곡의 빈도를 줄이고 음성 품질을 개선할 수 있다.
구체적으로, 지터 버퍼 관리/제어의 대상이 되는 음성 패킷의 중요도는 다음의 순서에 의해 결정될 수 있다. 예컨대, 가장 먼저 지터 버퍼 관리의 대상이 되는 음성 패킷을 결정하고, 그 다음으로 지터 버퍼 관리의 대상이 되는 음성 패킷을 결정하는 방식으로 지터 버퍼 관리의 대상이 되는 음성 패킷의 순위를 결정할 수 있다.
1 순위로 지터 버퍼 제어의 대상이 될 수 있는 음성 패킷은 연속적인 무음 구간의 중간에 위치하는 음성 패킷이다. 예컨대, AMR-WB(Adaptive Multi-Rate WideBand)의 경우라면, 연속적인 무음 구간의 중간 패킷이 DTX(DISCONTINUOUS TRANSMISSION) 패킷으로 결정될 수 있다.
2 순위로 지터 버퍼 제어의 대상이 될 수 있는 음성 패킷은 단일 무음 구간에 위치하는 음성 패킷이다. 예컨대, AMR-WB의 경우라면, 단일의 무음 구간 패킷은 SID 패킷으로 결정될 수 있다.
3 순위로 지터 버퍼 제어의 대상이 될 수 있는 음성 패킷은 지터 버퍼 내 가장 앞쪽에 위치하는 음성 패킷이다.
음성 패킷의 중요도는 상기 처리 대상 순위의 역순이라고 할 수 있다. 따라서, 중요도가 가장 낮은 음성 패킷은 연속적인 무음 구간의 중간에 위치하는 음성 패킷이며, 다음으로 중요도가 낮은 음성 패킷은 단일 무음 구간에 위치하는 음성 패킷이고, 그 다음으로 중요도가 낮은 음성 패킷은 버퍼 내에서 가장 앞쪽에 위치하는 음성 패킷이 된다.
지터 버퍼는 버퍼 내의 음성 패킷들을 제어할 때 연속적인 무음 구간의 중간에 위치하는 음성 패킷 → 단일 무음 구간에 위치하는 음성 패킷 → 지터 버퍼 내 가장 앞쪽에 위치하는 음성 패킷의 우선 순위에 따라서 제어 대상 음성 패킷을 선택할 수 있다.
도 8은 지터 버퍼에서 음성 정보의 보상을 수행하는 경우에 지터 버퍼 내 음성 프레임들의 중요도를 결정하는 방법의 일 예를 개략적으로 설명하는 도면이다.
도 8에서는 지터 버퍼의 현재 크기(810)가 최대 9개의 음성 패킷이 버퍼에 저장될 수 있도록 설정되어 있는 경우를 예로서 설명한다. 도 8을 참조하면, 음성 패킷 P0, P1, P2, P7은 유음 신호이며, 음성 패킷 P3, P4, P5, P6, P8은 무음 신호이다.
상술한 음성 패킷의 중요도 결정 방법에 따라서 지터 버퍼 제어의 대상을 결정해 보면, 도 8의 예에서 1 순위의 제어 대상은 연속적인 무음 구간인 P3 ~ P6의 중간에 위치하는 음성 패킷(P4, P5)이 된다. 도 8의 예에서 2 순위의 제어 대상은 단일 무음 패킷들(830)로서 음성 패킷 P3, P6, P8이 된다. 도 8의 예에서 3 순위의 제어 대상은 버퍼 내에서 가장 앞에 위치하는 패킷 P0(840)가 된다.
본 발명에서는 상술한 바와 같이 음성 패킷의 중요도를 기반으로 지터 버퍼 관리를 수행한다. 지터 버퍼는 버퍼 내 음성 패킷의 중요도를 결정하고, 음성 정보의 보상이 필요한 경우에 중요도를 기반으로 선택된 음성 패킷부터 지터 버퍼 관리의 대상으로서 처리할 수 있다.
도 9는 음성 프레임의 보상을 포함하는 지터 버퍼 관리 방법의 일 예를 개략적으로 설명하는 순서도이다. 지터 버퍼 관리는 버퍼의 크기 조절과 버퍼 내 음성 정보의 보상을 포함하며, 지터 버퍼 조절이라고 표현할 수도 있다.
도 9를 참조하면, 지터 버퍼는 음성 패킷(음성 프레임)을 수신한다(S910). 음성 패킷은 복호화기로부터 전송될 수도 있고, 부호화기로부터 비트스트림을 통해 바로 전송될 수도 있다.
지터 버퍼는 수신한 음성 패킷을 기반으로 지터 버퍼 조절을 수행할 수 있다(S920).
지터 버퍼 조절(지터 버퍼 관리)는 버퍼의 크기 조절과 버퍼 내 음성 정보의 보상을 포함한다.
버퍼의 크기 조절은 버퍼의 최대 크기와 최소 크기 사이에서 버퍼 크기를 줄이거나 늘이는 방식으로 수행될 수 있다.
음성 정보의 보상은 음성 정보의 제거와 음성 정보의 생성을 포함한다. 음성 정보는 음성 패킷일 수도 있고, 음성 프레임일 수도 있다. 음성 프레임 혹은 음성 패킷의 제거는 음성 신호의 압축이라고 할 수도 있으며, 음성 프레임의 생성 혹은 음성 패킷의 생성은 음성 신호의 신장이라고 할 수도 있다.
일반적으로 음성 정보의 보상을 수행하는 경우에는, 음성 패킷 단위 또는 음성 프레임 단위로 음성 정보를 제거하거나 생성한다. 또한, 음성 정보는 비트스트림 레벨 혹은 복원이 완료된 음성 신호의 레벨에서 제거/압축 또는 생성/신장된다.
이와 관련하여, 음성 정보를 음성 패킷 또는 음성 프레임 단위로 보상이 수행되는 경우에는 한번에 소실되거나 생성되는 정보가 프레임 길이 또는 그 이상이 되므로, 연속된 음성 정보의 손실로 인해 음질의 열화를 초래하게 된다. 따라서, 음성 정보의 보상을 음성 프레임의 서브프레임 단위로 수행하는 방법을 고려할 수 있다.
또한, 비트스트림 레벨 또는 복원이 완료된 음성 신호의 레벨에서 보상이 수행되는 경우에는 기본 신호의 손실 또는 계산량의 증가를 초래할 수 있다. 따라서, 음성 정보의 보상을 비트스트림 레벨의 정보와 복원된 음성 신호의 중간 영역이라고 할 수 있는 복호화 파라미터 레벨에서 수행하는 방법을 고려할 수 있다.
본 명세서에서 복호화 파라미터는 비트스트림을 복호화하여 음성 신호로 합성/복원하기 전의 정보로서, LPC 계수 또는 LPC 계수를 유도하기 위한 ISP 계수, 피치 주기, 여기 신호 성분 또는 여기 신호 성분을 유도하기 위한 코드북 인덱스 등을 포함한다.
도 10은 지터 버퍼 조절 방법의 일 예를 개략적으로 설명하는 도면이다.
도 10을 참조하면, 지터 버퍼는 음성 패킷을 수신하는 경우에 지터 버퍼 조절을 수행할 수 있다(S1010). 이를 음성 정보 수신시의 지터 버퍼 조절 또는 지터 버퍼 관리라고 한다.
지터 버퍼는 음성 패킷을 수신하면, 현재 버퍼의 상태를 기반으로 버퍼의 크기를 조절할 수 있다. 예컨대, 지터 버퍼는 현재 버퍼가 가득 차 있어서 새로운 음성 패킷을 수용할 수 없는 경우에는 지터 버퍼 크기를 조절하여 새로운 음성 패킷을 수용할 공간을 확보할 수 있다.
또한, 지터 버퍼는 버퍼 내 음성 정보의 보상을 수행할 수도 있다.
지터 버퍼는 재생 요청이 있는 경우에 지터 버퍼 조절을 수행할 수 있다(S1020). 이를 재생 요청 시의 지터 버퍼 조절 또는 지터 버퍼 관리라고 한다.
지터 버퍼는 재생 요청이 있는 경우, 현재 버퍼의 상태를 기반으로 버퍼의 크기를 조절할 수 있다. 예컨대, 지터 버퍼는 현재 버퍼가 비어 있어서 재생할 음성 프레임이 없거나 현재 버퍼 내 음성 프레임의 개수가 적어서 재생이 지연될 우려가 있는 경우에는 버퍼의 크기를 조절하여 버퍼 시간을 감소시킬 수 있다.
또한, 지터 버퍼는 버퍼 내 음성 정보에 대한 보상을 수행할 수도 있다.
네트워크 상의 문제 또는 발진 오차 등에 의해 지터가 발생한 경우, 도 10과 같이 지터 버퍼는 음성 정보에 대한 보상을 수행하거나 버퍼의 크기를 조절하여 재생이 원활하게 이루어지도록 관리할 수 있다.
상술한 바와 같이, 본 발명에서 지터 버퍼 관리에 의한 음성 정보의 보상은 서브프레임 단위로 복호화 파라미터 레벨에서 수행될 수 있다. 비트스트림을 통해서 전송되는 음성 패킷은 적어도 하나의 음성 프레임을 포함할 수 있다.
파싱에 의해 음성 패킷으로부터 음성 프레임과 이에 대한 파라미터들이 추출될 수 있다.
따라서, 음성 패킷이 파라미터들을 갖는 음성 프레임으로 파싱 또는 복호화되는 위치와 관련하여 본 발명에 따른 지터 버퍼 구성은 도 3을 참조할 때 아래 5 가지의 구성 어느 하나일 수 있다:
(i) 비트스트림을 직접 수신부(310)로 수신하고, 지터 버퍼(300) 또는 지터 버퍼(300)의 버퍼(320)가 음성 패킷을 복호화하여, 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 버퍼(320)에 저장하면서 복호화 파라미터를 기반으로 지터 버퍼 관리를 수행하는 구성
(ii) 복호화기로부터 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 수신부(310)로 수신하여 버퍼(320)에 저장하고, 복호화 파라미터를 기반으로 지터 버퍼 관리를 수행하는 구성
(iii) 비트스트림(음성 패킷)을 직접 수신부(310)로 수신하고 버퍼(320)에 저장하며, 필요한 경우에 복호화기 또는 복호화기의 일부 모듈들을 호출하여 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 획득하여 지터 버퍼 관리를 수행하는 구성
(iv) 비트스트림(음성 패킷)을 직접 수신부(310)로 수신하고 버퍼(320)에 저장하며, 필요한 경우에 지터 버퍼(300) 또는 지터 버퍼(300)의 버퍼(320)가 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 음성 패킷으로부터 획득하여 지터 버퍼 관리를 수행하는 구성
(v) 지터 버퍼(300)가 복호화기의 일부 구성으로서 복호화기에 포함되며, 음성 패킷으로부터 획득된 음성 프레임을 버퍼(320)에서 저장 및 관리하고 복호화 절차에 맞춰 출력하는 구성
따라서, (i)과 (iv)의 경우에 음성 정보는 지터 버퍼 → 복호화기의 순서로 전달될 수 있으며, (ii)의 경우에 음성 정보는 복호화기 → 지터 버퍼의 순서로 전달될 수 있다. 또한, (iii)의 경우에 지터 버퍼와 복화기는 병렬적으로 데이터를 처리할 있으며, 음성 정보는 지터 버퍼와 복호화기 사이에서 필요한 경우에 송수신될 수 있다.
(i)과 (ii)의 경우에 지터 버퍼는 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 저장하고 서브프레임 단위로 지터 버퍼 관리가 수행될 수 있다. (iii)과 (iv)의 경우에 지터 버퍼는 음성 패킷을 저장하고, 필요한 경우에 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 획득하여 서브프레임 단위로 음성 정보의 보상을 수행할 수 있다.
이와 관련하여, 음성 프레임에 대한 지터 버퍼 관리가 수행되는 경우에는 음성 패킷에 대한 중요도 결정 방법을 음성 프레임에 대하여도 적용할 수 있다. 지터 버퍼가 음성 프레임을 저장 및 관리하는 경우에, 1 순위로 지터 버퍼 관리의 대상이 될 수 있는 음성 프레임은 연속적인 무음 음성 프레임들이며, 2 순위로 지터 버퍼 제어의 대상이 될 수 있는 연속적이지 않은 무음 음성 프레임이며, 3 순위로 지터 버퍼 제어의 대상이 될 수 있는 음성 프레임은 지터 버퍼 내 가장 앞쪽에 위치하는 음성 프레임이 된다.
지터 버퍼에서 관리된 음성 정보는 복호화기를 거쳐 재생 장치(출력 장치)로 전송될 수도 있고, 복호화기를 거치지 않고 재생 장치의 출력 버퍼로 전달될 수도 있다. 예컨대, 지터 버퍼가 복호화 파라미터 레벨의 정보로서 복호화가 필요한 음성 정보를 버퍼에 저장 및 관리하는 경우에는 복호화기에서 복호화된 후 재생 장치로 출력될 수 있다.
이하, 지터 버퍼 관리에 대하여 패킷 수신 시의 지터 버퍼 조절과 재생 요청 시의 지터 버퍼 조절로 나누어 설명한다.
패킷 수신 시의 지터 버퍼 조절
도 11은 패킷 수신 시의 지터 버퍼 조절 방법에 관한 일 예를 개략적으로 설명하는 순서도이다. 도 11에서는 상기 (iii) 또는 (iv)의 경우로서 지터 버퍼가 버퍼 내에 음성 패킷을 저장하여 지터 버퍼 관리를 수행하는 경우를 예로서 설명한다. 따라서, 상술한 바와 같이 서브프레임 단위로 복호화 파라미터 레벨의 음성 정보 보상을 수행하기 위해, 지터 버퍼는 필요한 정보를 복호화기로부터 획득하거나 지터 버퍼가 음성 패킷으로부터 추출할 수 있다.
도 11을 참조하면, 지터 버퍼는 음성 패킷을 수신한다(S1100).
지터 버퍼는 현재 버퍼가 음성 패킷으로 가득 차 있는지를 판단한다(S1110).
버퍼가 음성 패킷으로 가득 차 있는 경우에, 지터 버퍼는 버퍼 내 음성 패킷에 대한 중요도를 결정할 수 있다(S1120). 상술한 바와 같이, 연속적인 무음 구간의 중간에 위치하는 음성 패킷의 중요도가 가장 낮고 단일 무음 구간에 위치하는 음성 패킷의 중요도가 다음으로 낮으며, 버퍼 내 가장 앞쪽에 위치하는 음성 패킷의 중요도가 가장 낮다.
지터 버퍼는 현재 버퍼 내의 음성 패킷들 중에서 중요도가 가장 낮은 음성 패킷을 처리한다(S1130). 지터 버퍼는 중요도가 가장 낮은 음성 패킷을 제거 할 수 있다. 음성 패킷이 제거된 경우에는 이를 지시하는 제거 정보(예컨대 제거되었음을 지시하는 플래그인 Del_flag)를 설정할 수 있다. 제거 정보는 재생 요청 시에 참조되어 해당 음성 정보가 존재하지 않는다는 것을 지터 버퍼, 복호화기 또는 재생 장치 등에 알려줄 수 있다.
중요도가 낮은 음성 패킷의 처리가 해당 패킷의 삭제인 경우에, 지터 버퍼는 음성 프레임에 속하는 서브프레임 단위로 복호화 파라미터 레벨에서 음성 정보를 삭제하는 보상을 수행하기 위해, 음성 프레임 및 서브프레임에 대한 복호화 파라미터를 획득할 수 있다. 음성 프레임 및 서브프레임에 대한 복호화 파라미터는 상술한 바와 같이 복호화기로부터 획득할 수도 있고, 지터 버퍼가 자체적으로 복호화를 수행하여 획득할 수도 있다.
지터 버퍼는 중요도가 낮은 음성 패킷을 처리한 후에 현재 지터 버퍼의 버퍼 크기와 지터 버퍼의 최대 버퍼 크기를 비교할 수 있다(S1140).
현재 버퍼의 크기가 최대 버퍼의 크기보다 작은 경우라면, 지터 버퍼는 현재 지터 버퍼의 버퍼 크기를 증가시킬 수 있다(S1150). 버퍼에 음성 패킷이 차 있었기 때문에 버퍼 내에 공간을 확보할 필요가 있고, 현재 버퍼의 크기가 최대 버퍼의 크기보다 작아서 버퍼 크기를 늘릴 여지가 있는 경우라면, 지터 버퍼는 현재 지터 버퍼의 버퍼 크기를 증가시킬 수 있다.
구체적으로, 지터 버퍼의 버퍼 크기는 버퍼 내에서 저장될 수 있은 음성 패킷의 개수에 대응하여 결정될 있다. 지터 버퍼의 크기 Tjit는 최소 지터 버퍼 크기 Tjmin에서 최대 지터 버퍼 크기 Tjmax 사이의 값을 가질 수 있다.
지터 버퍼의 크기 Tjit는 음성 패킷당 재생 시간인 Tpkt 단위로 크기가 조절될 수 있다. 이때, Tjmin과 Tjmax는 네트워크 상황 등을 고려하여 Tpkt 단위로 가변적으로 설정될 수 있다.
예를 들어, 통화 중의 단말 간 지연(end-to-end delay)가 Td 이하가 되도록 설정한다면, 최대 지터 버퍼 크기 Tjmax는 수식 1의 관계를 만족한다.
<수식 1>
Tjmax ≤ Td - Tpkt - Tetc1
수식 1에서 Tetc1은 네트워크 상에서 발생하는 기타 지연 요소들에 의한 지연 시간을 의미한다. 예컨대, 기타 지연 요소에는 후처리 필터, 네트워크 중계기의 문제, 송신단 녹음부 및 수신단 재생부의 발진 오차 등 고정적 지연 요소들이 포함되며, 단말 간 지연인 Td는 일반적으로 사용되는 단말 간 지연 임계값인 150ms 등으로 설정될 수 있다.
수식 1의 관계를 만족하며 새롭게 설정되는 지터 버퍼의 버퍼 크기 Tjit는 수식 2와 같이 나타낼 수 있다
<수식 2>
Tjit = Tjit + Tpkt, Tjit ≤ Tjmax
지터 버퍼의 버퍼가 가득 차 있지 않은 경우에, 지터 버퍼는 수신한 음성 패킷을 버퍼에 추가할 수 있다(S1160). 지터 버퍼의 버퍼가 가득 차 있지 않은 경우는, S1110 단계에서 지터 버퍼의 버퍼가 가득 차 있지 않은 경우, S1140 단계에서 지터 버퍼의 현재 버퍼 크기가 최대 사이즈인 경우 또는 S1150 단계에서 지터 버퍼의 버퍼 크기가 증가된 경우 중 어느 하나 일 수 있다.
지터 버퍼는 버퍼 내 음성 패킷들의 시퀀스 번호와 타임 스탬프 번호를 비교할 수 있다(S1170). 타임 스탬프 번호는 음성 패킷이 재생되는 시점을 나타내고, 시퀀스 번호는 음성 패킷마다 증가되는 번호를 지터 버퍼에 제공하여 음성 패킷들이 지터 버퍼 내에서 순서대로 배열되도록 한다.
지터 버퍼는 버퍼 내에 있는 음성 패킷들을 재배치할 수 있다(S1180). 예컨대, 지터 버퍼는 버퍼 내에 있는 음성 패킷들을 각 패킷의 시퀀스 번호에 따라서 순서대로 재배치할 수 있다.
지터 버퍼는 현재 타임 스탬프의 값을 기반으로 음성 패킷을 드롭(drop)할 수 있다(S1190). 예컨대, 지터 버퍼는 지터 버퍼의 버퍼 내에 있는 음성 패킷들의 타임 스탬프를 확인하고, 현재 재생 시간 이전의 타임 스탬프(현재 재생 시간에 해당하는 타임 스탬프 값보다 작은 값의 타임 스탬프)를 가지는 음성 패킷(들)이 있다면 해당 음성 패킷을 드롭할 수 있다.
도 11에서는 음성 패킷 수신 시 수행 가능한 지터 버퍼 조절의 내용을 모두 설명하고 있으나, 지터 버퍼는 상술한 지터 버퍼 조절을 모두 수행할 수도 있고, 지터 버퍼 조절에 관한 동작 중 필요한 동작만을 선택적으로 수행할 수도 있다.
또한, 도 11에서는 지터 버퍼가 앞서 설명한 (iii) 또는 (iv)의 구성을 가지는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않으며, 지터 버퍼가 (i) 또는 (ii)의 구성을 가지는 경우에도 동일하게 적용할 수 있다.
지터 버퍼가 (i) 및 (ii)의 구성을 가지는 경우에, 지터 버퍼는 상기 S1100 ~ 1190의 단계를 음성 패킷이 아닌 음성 프레임을 대상으로 수행할 수 있다. 이때, 지터 버퍼는 S1100 단계에서 음성 패킷이 아니라 복호화 파라미터 레벨의 정보를 가지는 음성 프레임을 수신하거나 획득하고 이를 버퍼에 저장 및 관리한다.
재생 요청 시의 지터 버퍼 조절
도 12는 재생 요청 시 지터 버퍼 조절을 수행하는 방법의 일 예를 개략적으로 설명하는 순서도이다. 도 12에서는 설명의 편의를 위해, 지터 버퍼가 앞서 설명한 (iii) 또는 (iv)의 구성을 가지는 경우를 예로서 설명한다. 따라서, 상술한 바와 같이 서브프레임 단위로 복호화 파라미터 레벨의 음성 정보 보상을 수행하기 위해, 지터 버퍼는 필요한 정보를 복호화기로부터 획득하거나 지터 버퍼가 음성 패킷으로부터 추출할 수 있다.
도 12를 참조하면, 재생단(재생 장치)로부터 재생 요청이 있는 경우에, 지터 버퍼는 현재의 버퍼가 비어 있는지를 판단할 수 있다(S1200). 예컨대, 지터 버퍼는 재생 요청이 있는 경우에, 버퍼 내에 재생에 필요한 음성 패킷이 충분이 존재하는지를 판단할 수 있다.
버퍼가 비어 있다고 판단한 경우에, 지터 버퍼는 현재 버퍼의 크기(지터 버퍼의 크기)가 최소 지터 버퍼 크기보다 큰 지를 판단할 수 있다(S1210).
지터 버퍼의 현재 버퍼 크기가 최소 지터 버퍼 크기보다 큰 경우에, 지터 버퍼는 지터 버퍼의 버퍼 크기를 감소할 수 있다(S1220). 버퍼에 음성 패킷이 없거나 너무 적어서 버퍼에 머무르는 시간을 줄일 필요가 있는 경우라면, 지터 버퍼는 현재 지터 버퍼의 버퍼 크기를 감소시킬 수 있다.
구체적으로, 지터 버퍼의 크기 Tjit는 최소 지터 버퍼 크기 Tjmin에서 최대 지터 버퍼 크기 Tjmax 사이의 값을 가질 수 있으며, 음성 패킷당 재생 시간인 Tpkt 단위로 크기가 조절될 수 있다. 이때, Tjmin과 Tjmax는 네트워크 상황 등을 고려하여 Tpkt 단위로 가변적으로 설정될 수 있다.
예를 들어, 최대 지터 버퍼 크기 Tjmin는 적어도 음성 패킷당 재생 시간인 Tpkt보다 크도록 설정될 수 있으므로, 수식 3의 관계를 만족한다.
<수식 3>
Tjmin ≥ Tpkt + Tetc2
수식 3에서 Tetc2는 기타 지연 요소들에 의한 지연 시간을 의미한다. 기타 지연 요소는 재생단에서 발진 소자의 오차로 인해 발생하는 재생 주파수 오차 등을 포함한다.
수식 3의 관계를 만족하며 새롭게 설정되는 지터 버퍼의 버퍼 크기 Tjit는 수식 4와 같이 나타낼 수 있다
<수식 4>
Tjit = Tjit - Tpkt, Tjit ≥ Tjmin
한편, 재생 요청 시에 지터 버퍼가 비어 있지 않은 경우(재생에 필요한 음성 패킷이 충분한 경우)에, 지터 버퍼는 버퍼 내 음성 패킷들의 시퀀스 번호가 음성 패킷들이 배치된 순서에 따라서 순차적으로 증가하고 있는지 혹은 제거 플래그(Del-flag)가 설정되어 있는지를 판단할 수 있다(S1230).
지터 버퍼는 버퍼 내 음성 패킷들의 시퀀스 번호가 순차적으로 증가하는지 혹은 제거 플래그가 설정되어 있는지를 판단하여 음성 정보의 보상이 필요한지를 결정할 수 있다.
예컨대, 지터 버퍼는 버퍼 내 음성 패킷들의 시퀀스 번호가 순차적으로 증가하고 있는지를 판단함으로써 음성 정보의 보상을 통해 새로운 음성 패킷을 생성할 필요가 있는지를 결정할 수 있다. 이때, 제거 정보(del_flag)가 설정되어 있다면, 지터 버퍼는 제거 정보가 설정된 음성 패킷이 제거되었다고 판단할 수 있다.
시퀀스 번호가 순차적으로 증가하고 있지 않거나 제거 정보(del_flag)가 설정되어 있는 경우에, 혹은 지터 버퍼의 현재 버퍼 크기가 최소 지터 버퍼 크기와 같거나 지터 버퍼의 버퍼 크기를 감소한 경우로서 필요한 때에, 지터 버퍼는 음성 정보의 보상을 수행할 수 있다(S1240).
지터 버퍼는 음성 패킷의 중요도를 기반으로 음성 정보의 생성을 수행할 수 있다. 이때, 지터 버퍼는 음성 프레임에 속하는 서브프레임 단위로 복호화 파라미터 레벨에서 음성 정보를 생성하기 위해, 음성 프레임 및 서브프레임에 대한 복호화 파라미터를 획득할 수 있다. 음성 프레임 및 서브프레임에 대한 복호화 파라미터는 상술한 바와 같이 복호화기로부터 획득할 수도 있고, 지터 버퍼가 자체적으로 복호화를 수행하여 획득할 수도 있다.
시퀀스 번호가 순차적으로 증가하고 있고, 제거 정보(del_flag)가 설정되어 있지 않은 경우에는 음성 정보의 보상 없이 음성 패킷이 복호화될 수 있다(S1250). 음성 패킷의 복호화는 복호화기에서 수행될 수 있다. 시퀀스 번호가 순차적으로 증가하고 있고, 제거 플래그가 설정되어 있지 않은 경우에 지터 버퍼는 음성 패킷을 복호화기로 전송할 수 있다. 복호화기는 수신된 음성 패킷을 복호화하여 음성 프레임(들)을 생성할 수 있다.
음성 프레임은 출력 장치(재생 장치)의 출력 버퍼에 추가될 수 있다(S1260).
출력 장치는 음성 프레임들이 순차적으로 재생되도록 하기 위해 재생 시퀀스 (playback sequence) 번호를 갱신(update)할 수 있다(S1270).
음성 프레임은 순차적으로 사용자에게 전달될 수 있다(S1280). 음성 프레임은 출력 장치로부터 순차적으로 사용자에게 전달되어 재생되게 된다.
도 12에서는 음성 패킷 수신 시 수행 가능한 지터 버퍼 조절의 내용을 모두 설명하고 있으나, 지터 버퍼는 상술한 지터 버퍼 조절을 모두 수행할 수도 있고, 지터 버퍼 조절에 관한 동작 중 필요한 동작만을 선택적으로 수행할 수도 있다.
또한, 도 12에서는 지터 버퍼가 앞서 설명한 (iii) 또는 (iv)의 구성을 가지는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않으며, 지터 버퍼가 (i) 또는 (ii)의 구성을 가지는 경우에도 동일하게 적용할 수 있다.
지터 버퍼가 (i) 및 (ii)의 구성을 가지는 경우에, 지터 버퍼는 상기 S1200 ~ 1280의 단계를 음성 패킷이 아닌 음성 프레임을 대상으로 수행할 수 있다. 이때, 지터 버퍼는 음성 프레임을 버퍼에 저장 및 관리하기 때문에, 음성 프레임에 속하는 서브프레임 및 이에 대한 복호화 파라미터를 이용하여 지터 버퍼 관리를 수행할 수 있다. 예컨대, 복호화 단계에서는 복호화 파라미터를 이용하여 음성 프레임 단위로 음성 신호의 복원하는 복호화가 수행될 수 있다.
이하, 음성 패킷 수신 시의 지터 버퍼 조절 및 재생 요청 시의 지터 버퍼 조절에 적용될 수 있는 음성 정보의 보상 방법에 관하여 구체적으로 설명한다.
상술한 바와 같이, 음성 정보의 보상은 음성 정보의 제거와 음성 정보의 생성을 포함한다. 도 11 및 도 12를 참조하면, 음성 정보의 제거는 음성 패킷 수신 시의 지터 버퍼 조절에 적용(예컨대, S1130 단계)되며, 음성 정보의 생성은 재생 요청 시의 지터 버퍼 조절에 적용(예컨대, S1240 단계)될 수 있다.
지터 버퍼의 관리 방법으로서 음성 정보의 처리는 복호화 파라미터 레벨 외에도 기존의 방식에 따라 비트스트림 레벨에서 수행될 수도 있고, 음성 신호 레벨에서 수행될 수도 있다.
도 13은 비트스트림 레벨에서 지터 버퍼 관리가 수행되는 일 예를 개략적으로 나타낸 것이다. 도 13에서는 음성 프레임을 제거(decimation)하는 방법으로 지터 버퍼 관리가 수행되는 예를 설명하고 있다.
지터 버퍼는 버퍼가 채워져 있는 경우, 비트스트림에서 제거할 프레임을 결정하고, 선택된 프레임을 제거할 수 있다. 도 13을 참조하면, n 번째 음성 프레임을 제거하는 경우에, 비트스트림 베렐에서 n 번째 프레임을 제거하여 지터 버퍼 관리가 수행된다.
도 13의 경우, 지터 버퍼는 음성 프레임 단위로 정보를 처리하므로, 복호화기의 출력단에 위치하여 복호화기로부터 복호화된 음성 정보를 수신하고 이를 저장/관리할 수 있다.
도 14는 음성 신호 레벨에서 지터 버퍼 관리가 수행되는 일 예를 개략적으로 나타낸 것이다. 도 14에서는 음성 신호의 길이를 줄여서 지터 버퍼 관리를 수행하는 경우를 예로서 설명하고 있다.
지터 버퍼는 버퍼가 채워져 있는 경우, 비트스트림을 음성 신호로 복원하고, 복원된 신호를 TSM(Time Scaling Modification) 기술을 적용하여 음성 신호의 길이를 줄일 수 있다. 도 14를 참조하면, 지터 버퍼 관리 후, n-1 번째 음성 프레임과 n번째 음성 프레임 그리고 n+1번째 음성 프레임의 전체 길이가 전체적인 음성 신호의 패턴을 유지한 채 한 음성 프레임 길이만큼 줄어든다.
도 14의 경우, 지터 버퍼는 음성 신호를 처리하므로, 복호화기의 출력단에 위치하여 복호화기로부터 복원된 음성 정보를 수신하고 이를 저장/관리 할 수 있다.
한편, 도 13의 예와 같이 비트스트림 레벨에서 프레임 단위로 음성 정보를 제거하여 지터 버퍼 관리를 수행하는 경우에는 간단한 연산을 통해 지터 버퍼의 조절이 가능하지만, 한 음성 프레임에 해당하는 음성 정보(음성 신호)가 한번에 제거되기 때문에 음질 열화가 크다.
또한, 도 14의 예와 같이 음성 신호 레벨에서 지터 버퍼 관리를 수행하는 경우에는 음성 재생 속도를 높이는 효과가 발생하여 손실되는 음성 정보가 비트스트림 레벨에서 지터 버퍼 관리를 수행하는 경우에 비해 적을 수 있지만, 부호화기/복호화기의 복잡도가 증가하게 된다.
따라서, 본 발명에서는 상술한 바와 같이 음성 프레임의 서브프레임 단위로 복호화 파라미터 레벨에서 지터 버퍼 관리를 수행하게 되면, 음질의 열화를 피하고 처리 과정의 복잡도를 줄일 수 있다.
본 발명과 같이 음성 프레임에 속하는 서브프레임 단위로 복호화 파라미터 레벨에서 지터 버퍼를 관리하는 경우에 지터 버퍼는, 복호화기의 출력단에 위치하는 도 13 및 도 14의 예와 달리, 상기 (i) 내지 (v)에서 설명한 바와 같이 복호화기로 정보를 출력하거나 복호화기로부터 정보를 수신할 수 있다.
도 15는 음성 프레임의 서브프레임 단위로 음성 정보의 보상을 수행하는 일 예를 개략적으로 설명하는 도면이다.
상술한 바와 같이, 지터 버퍼 관리를 수행하는 과정에서 음성 프레임 단위로 음성 신호가 제거되면 한번에 손실되는 음성 신호가 음성 프레임의 길이와 동일하기 때문에 음질 열화가 커지게 된다.
도 15의 예에서는 연속해서 손실되는 음성 신호의 성분을 줄이기 위해 서브프레임 단위로 음성 신호를 제거한다.
도 15를 참조하면, 도 13 및 도 14의 경우와 비교할 때 제거되는 음성 신호는 한 프레임으로 동일하지만, 도 15의 예에서는 제거 대상 음성 프레임의 서브프레임으로 인접 프레임의 서브프레임을 대치하는 방식으로 음성 신호의 제거를 수행할 수 있다.
본 명세서에서 프레임 혹은 패킷을 지시하는 n-1, n, n+1은 연속하는 음성 프레임들 혹은 연속하는 음성 패킷을 지시하기 위한 인덱스로서, n 번째 프레임은 제거 대상 프레임으로서 전체 프레임 열에서 임의의 n 번째 프레임이며, n-1 번째 프레임과 n+1 번째 프레임은 제거 대상(혹은 삭제된) 프레임의 전후에 위치하는 인접 프레임이다.
도 15의 예에서는 n 번째 프레임의 첫 번째 서브프레임(S1)으로 n-1 번째 프레임의 3번째 서브프레임(S3)을 대체하고, n 번째 프레임의 두 번째 서브프레임(S2)으로 n-1 번째 프레임의 4번째 서브프레임(S4)을 대체하며, n 번째 프레임의 세 번째 서브프레임(S3)으로 n+1 번째 프레임의 1번째 서브프레임(S1)을 대체하고, n 번째 프레임의 네 번째 서브프레임(S4)으로 n+1 번째 프레임의 2번째 서브프레임(S3)을 대체한다.
이를 통해, n 번째 음성 프레임이 제거되고, n-1 번째 음성 프레임의 세 번째 서브프레임(S3’)과 네 번째 서브프레임(S4’), n+1 번째 음성 프레임의 첫 번째 서브프레임(S1’)과 두 번째 서브프레임(S2’)이 새롭게 생성된다.
서브프레임 단위로 음성 신호를 제거하는 경우에는, 도시된 바와 같이, 대상 음성 프레임의 인접 음성 프레임에서 일부 서브프레임들이 제거됨으로써, 한 프레임에 집중되던 음성 신호 손실의 효과를 인접 프레임들이 나누어 부담할 수 있게 된다. 따라서, 연속적으로 손실되는 음성 신호의 성분을 줄이고, 동시에 지터 버퍼 관리에 있어서 수반될 수 있는 추가 계산량의 발생(복잡도의 증가)도 방지할 수 있다.
도 15에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 제거 대상 프레임(n 번째 프레임)의 이전 프레임(n-1 번째 프레임)의 뒤쪽 L/2 개 서브프레임은 제거 대상 프레임(n 번째 프레임)의 앞쪽 L/2 개 서브프레임으로 대체되고, 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)의 앞쪽 L/2 개 서브프레임은 제거 대상 프레임(n 번째 프레임)의 뒤쪽 L/2 개 서브프레임으로 대체될 수 있다.
한편, 비트스트림 레벨에서 음성 정보의 보상을 수행하면, 서브프레임 단위로 음성 정보의 제거가 이루어지더라도 해당 서브프레임의 성분이 그대로 사라짐으로써 일정 수준의 음질 열화는 발생할 수 있다. 이를 방지하기 위해, 음성 신호 레벨에서 음성 정보의 보상을 수행하려면 계산량이 크게 증가할 우려가 있다.
따라서, 서브프레임 단위로 음성 정보의 보상을 수행하되, 비트스트림 레벨의 정보와 복원된 음성 신호의 중간 단계라고 할 수 있는 복호화 파라미터 레벨에서 음성 정보의 보상이 이루어지도록 할 수 있다. 여기서, 복호화 파라미터는 비트스트림을 복호화하여 음성 신호로 합성하기 전의 정보를 의미한다.
복호화 파라미터들로는, 예컨대 LPC 계수 또는 LPC 계수를 유도하기 위한 ISP 계수, 피치 주기, 여기 신호의 성분 또는 여기 신호의 성분을 유도하기 위한 코드북 인덱스 등이 있다.
지터 버퍼는 대상 프레임 혹은 대상 서브프레임과 그 복호화 파라미터들을 단순히 제거하는 것이 아니라, 인접 프레임 혹은 인접 서브프레임의 복호화 파라미터들을 이용하여 음성 정보의 보상을 수행할 수 있다. 이때, 제거 대상 서브프레임의 복호화 파라미터들이 음성 정보의 보상에 이용될 수도 있다.
음성 패킷을 수신한 경우에, 지터 버퍼는 상술한 패킷 중요도(프레임 중요도)에 따라서 제거 대상 프레임을 결정하고 음성 정보 제거에 관한 다음 3가지 음성 정보 보상 중 어느 하나를 수행할 수 있다:
(1)지터 버퍼는 제거 대상 프레임을 제거(decimation)하되, 제거 대상 프레임의 전후에 위치하던 프레임에 속하는 서브프레임의 복호화 파라미터를 제거 대상 프레임의 복호화 파라미터를 이용하여 수정.
(2) 제거 대상 프레임을 제거(decimation)하되, 제거 대상 프레임 앞에 위치하던 프레임에 속하는 서브프레임의 복호화 파라미터를 제거 대상 프레임의 복호화 파라미터를 이용하여 수정.
(3) 제거 대상 프레임의 제거(decimation)하되, 제거 대상 프레임 뒤에 위치하던 프레임에 속하는 서브프레임의 복호화 파라미터를 제거 대상 프레임의 복호화 파라미터를 이용하여 수정
도 16은 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 일 예를 개략적으로 설명하는 도면이다.
도 16에서는 상기 (1)의 음성 정보 보상 방법을 적용하는 경우를 예로서 설명한다. 따라서, 제거되는 프레임(n 번째 프레임)의 전후 프레임 내 일부 서브프레임에 대한 복호화 파라미터는, 서로 인접하는 두 서브프레임의 복호화 파리미터를 이용하여 수정된다.
도 16을 참조하면, n 번째 음성 프레임을 제거하는 경우에, 인접 음성 프레임인 n-1 번째 음성 프레임과 n+1 번째 음성 프레임의 프레임 성분(복호화 파라미터)을 수정한다.
음성 정보 보상에 의해, n 번째 프레임은 제거되고, 음성 정보 보상 전 n-1번째 프레임의 서브프레임 S3과 서브프레임 S4의 복호화 파라미터들을 이용하여 n-1 번째 프레임의 서브프레임(S3’)의 복호화 파라미터가 수정되며, 제거 전 n번째 프레임의 서브프레임 S1과 서브프레임 S2의 복호화 파라미터들을 이용하여 n-1 번째 프레임의 서브프레임(S4’)의 복호화 파라미터가 수정되고, 제거 전 n번째 프레임의 서브프레임 S3과 서브프레임 S4의 복호화 파라미터들을 이용하여 n+1 번째 프레임의 서브프레임(S1’)의 복호화 파라미터가 수정되며, 음성 정보 보상 전 n+1번째 프레임의 서브프레임 S1과 서브프레임 S2의 복호화 파라미터들을 이용하여 n+1 번째 프레임의 서브프레임(S2’)의 복호화 파라미터가 수정된다.
이때, 복호화 파라미터는 두 서브프레임의 복호화 파라미터를 보간하여 생성되는 값으로 수정될 수 있다.
수식 5는 도 16의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 ISP 계수를 두 서브프레임의 ISP 계수를 보간하여 생성되는 값으로 수정하는 방법을 나타낸 것이다.
<수식 5>
ISP n -1 m3 = 0.5 x ISP n -1 3 + 0.5 x ISP n -1 4
ISP n -1 m4 = 0.5 x ISP n 1 + 0.5 x ISP n 2
ISP n +1 m1 = 0.5 x ISP n 3 + 0.5 x ISP n 4
ISP n +1 m2 = 0.5 x ISP n +1 1 + 0.5 x ISP n +1 2
본 명세서에서, ISPN L은 N 번째 프레임에 속하는 L 번째 서브프레임의 ISP 계수를 의미하며, ISPN mL은 N 번째 프레임에 속하는 L 번째 서브프레임의 수정된 ISP 계수를 의미한다.
ISP 계수는 상술한 바와 같이 LPC 계수로부터 변환에 의해 유도될 수 있으며, LPC 계수는 ISP 계수로부터 변환에 의해 유도될 수 있다.
수식 6은 도 16의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 피치 주기를 두 서브프레임의 피치 주기를 보간하여 생성되는 값으로 수정하는 방법을 나타낸 것이다.
<수식 6>
P n -1 m3 = 0.5 x P n -1 3 + 0.5 x P n -1 4
P n -1 m4 = 0.5 x P n 1 + 0.5 x P n 2
P n +1 m1 = 0.5 x P n 3 + 0.5 x P n 4
P n +1 m2 = 0.5 x P n +1 1 + 0.5 x P n +1 2
본 명세서에서, PN L은 N 번째 프레임에 속하는 L 번째 서브프레임의 피치 주기를 의미하며, PN mL은 N 번째 프레임에 속하는 L 번째 서브프레임의 수정된 피치 주기를 의미한다.
피치 주기는 LTP(Long Term Prediction)-필터링, 피치 지연(래그), 코드북 게인 등을 복호화하여 얻어질 수 있다.
수식 7은 도 16의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 여기 신호 성분(FCB)을 두 서브프레임의 여기 신호 성분을 보간하여 생성되는 값으로 수정하는 방법을 나타낸 것이다.
<수식 7>
FCB n -1 m3 (k) = 0.5 x FCB n -1 3 (k) + 0.5 x FCB n -1 4 (k)
FCB n -1 m4 (k) = 0.5 x FCB n 1 (k) + 0.5 x FCB n 2 (k)
FCB n +1 m1 (k) = 0.5 x FCB n 3 (k) + 0.5 x FCB n 4 (k)
FCB n +1 m2 (k) = 0.5 x FCB n +1 1 (k) + 0.5 x FCB n +1 2 (k)
본 명세서에서, FCBN L(K)은 N 번째 프레임에 속하는 L 번째 서브프레임의 여기 신호에 있어서 k 번째 성분을 의미하며, FCBN mL(K)은 N 번째 프레임에 속하는 L 번째 서브프레임의 여기 신호의 수정된 k 번째 성분을 의미한다.
여기 신호는 고정 코드북(fixed codebook), 코드북 게인을 복호화하여 얻어질 수 있다.
한편, 여기 신호의 경우에는 보간에 의해 수정하지 않고, 수정되는 서브프레임의 여기 신호 성분 중 전반 성분과 후반 성분을 수정 전 서브프레임들의 여기 신호 성분으로 각각 대체하는 방법을 적용할 수도 있다.
수식 8은 도 16의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 여기 신호 성분을 두 서브프레임의 여기 신호 성분을 부분적으로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 8>
FCB n -1 m3 (k) = FCB n -1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n -1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n -1 m 4 (k)= FCB n 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n 2 (k) (k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 1 (k) = FCB n 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n 4 (k) (k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 2 (k) = FCB n +1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 8에 의하면, 음성 정보의 보상에 의해 n 번째 프레임은 제거되나, n-1 번째 프레임에 속하는 세 번째 서브프레임(S3)의 k 번째 여기 신호 성분으로 전반이 대체되며, n-1 번째 프레임에 속하는 네 번째 서브프레임(S4)의 k 번째 여기 신호 성분으로 후반이 대체되어, 수정된 복호화 파라미터를 가지는 n-1 번째 프레임의 3 번째 서브프레임(S3’)이 생성된다.
동일한 방법으로, 수식 8과 같이, 수정된 복호화 파라미터를 가지는 n-1 번째 프레임의 네 번째 서브프레임(S4’), 수정된 복호화 파라미터를 가지는 n+1 번째 프레임의 첫 번째 서브프레임(S1’) 그리고 수정된 복호화 파라미터를 가지는 n+1 번째 프레임의 두 번째 서브프레임(S2’)을 얻을 수 있다.
또한, 복호화 파라미터 중 여기 신호 성분의 경우에는 수정되는 서브프레임의 여기 신호 성분을 여기 신호를 생성하는 트랙(track) 단위로 대체하는 방법을 적용할 수도 있다.
수식 9는 도 16의 예에 따른 음성 정보의 보상(음성 정보의 삭제)에 의해, 여기 신호 성분을 여기 신호 성분을 생성하는 트랙 단위별로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 9>
FCB n -1 m3 (k) = FCB n -1 3 (k) (트랙 1 & 3) + FCB n -1 4 (k) (트랙 2 & 4)
FCB n -1 m 4 (k) = FCB n 1 (k) (트랙 1 & 3) + FCB n 2 (k) (트랙 2 & 4)
FCB n + 1 m 1 (k) = FCB n 3 (k) (트랙 1 & 3) + FCB n 4 (k) (트랙 2 & 4)
FCB n + 1 m 2 (k) = FCB n +1 1 (k) (트랙 1 & 3) + FCB n +1 2 (k) (트랙 2 & 4)
수정되는 서브프레임의 여기 신호 성분은 수정(음성 정보의 보상) 전 두 서브프레임의 여기 신호 성분의 부분적인 합으로 구성된다. 이때, 수정되는 서브프레임의 여기 신호 성분은 파수(wave number) k가 속하는 트랙별로 해당 트랙에서의 여기 신호 값을 취하게 된다.
도 16에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 제거 대상 프레임(n 번째 프레임)의 이전 프레임(n-1 번째 프레임)의 뒤쪽 L/2 개 서브프레임과 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)의 앞쪽 L/2 개 서브프레임을 제거 대상 프레임(n 번째 프레임)의 서브프레임들과 제거 대상 프레임(n 번째 프레임)의 이전 프레임(n-1 번째 프레임)의 뒤쪽 L/2 개 서브프레임과 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)의 앞쪽 L/2 개 서브프레임을 이용하여 상술한 바와 같이 수정하고, 대상 프레임(n 번째 프레임)을 제거할 수 있다.
이 경우, 수식 5 내지 7에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
도 17은 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 다른 예를 개략적으로 설명하는 도면이다.
도 17은 상기 (2)의 음성 정보 보상 방법이 적용되는 경우를 예로서 설명한다. 따라서, 제거되는 프레임(n 번째 프레임)의 이후 프레임 내 서브프레임에 대한 복호화 파라미터는, 제거되는 프레임과 이후 프레임에 속하는 서브프레임들 중 서로 인접하는 두 서브프레임의 복호화 파리미터를 이용하여 수정될 수 있다.
복호화 파라미터는 두 서브프레임의 복호화 파라미터를 보간하여 생성되는 값으로 수정될 수 있다.
수식 10은 도 17의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 수정하는 방법을 나타낸 것이다.
<수식 10>
ISP n + 1 m 1 = 0.5 x ISP n 1 + 0.5 x ISP n 2
ISP n + 1 m 2 = 0.5 x ISP n 3 + 0.5 x ISP n 4
ISP n +1 m 3 = 0.5 x ISP n +1 1 + 0.5 x ISP n +1 2
ISP n +1 m 4 = 0.5 x ISP n +1 3 + 0.5 x ISP n +1 4
수식 10은 수식 5와 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 5와 상이하다.
수식 11은 도 17의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 피치 주기를 보간에 의해 수정하는 방법을 나타낸 것이다.
<수식 11>
P n + 1 m 1 = 0.5 x P n 1 + 0.5 x P n 2
P n + 1 m 2 = 0.5 x P n 3 + 0.5 x P n 4
P n +1 m 3 = 0.5 x P n +1 1 + 0.5 x P n +1 2
P n +1 m 4 = 0.5 x P n +1 3 + 0.5 x P n +1 4
수식 11은 수식 6과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 6와 상이하다.
수식 12는 도 17의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 여기 신호 성분(FCB)을 보간하여 수정하는 방법을 나타낸 것이다.
<수식 12>
FCB n + 1 m 1 = 0.5 x FCB n 1 + 0.5 x FCB n 2
FCB n + 1 m 2 = 0.5 x FCB n 3 + 0.5 x FCB n 4
FCB n +1 m 3 = 0.5 x FCB n +1 1 + 0.5 x FCB n +1 2
FCB n +1 m 4 = 0.5 x FCB n +1 3 + 0.5 x FCB n +1 4
수식 12는 수식 7과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 7과 상이하다.
도 16의 예와 같이, 여기 신호의 경우에는 수정되는 서브프레임의 여기 신호 성분 중 전반 성분과 후반 성분을 수정 전 서브프레임들의 여기 신호 성분으로 각각 대체하는 방법을 적용할 수도 있다.
수식 13은 도 17의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 여기 신호 성분을 두 서브프레임의 여기 신호 성분을 부분적으로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 13>
FCB n + 1 m 1 (k) = FCB n 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 2 (k) = FCB n 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 3 (k)= FCB n +1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 4 (k)= FCB n +1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 13은 수식 8과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 8과 상이하다.
또한, 복호화 파라미터 중 여기 신호 성분의 경우에는 수정되는 서브프레임의 여기 신호 성분을 여기 신호를 생성하는 트랙(track) 단위로 대체하는 방법을 적용할 수도 있다.
수식 14는 도 17의 예에 따른 음성 정보의 보상(음성 정보의 삭제)에 의해, 여기 신호 성분을 여기 신호 성분을 생성하는 트랙 단위별로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 14>
FCB n + 1 m 1 (k) = FCB n 1 (k) (트랙 1 & 3) + FCB n 2 (k) (트랙 2 & 4)
FCB n + 1 m 2 (k) = FCB n 3 (k) (트랙 1 & 3) + FCB n 4 (k) (트랙 2 & 4)
FCB n + 1 m 3 (k)= FCB n +1 1 (k) (트랙 1 & 3) + FCB n +1 2 (k) (트랙 2 & 4)
FCB n + 1 m 4 (k)= FCB n +1 3 (k) (트랙 1 & 3) + FCB n +1 4 (k) (트랙 2 & 4)
수식 14는 수식 9와 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 9와 상이하다.
도 17에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)의 서브프레임들을 제거 대상 프레임(n 번째 프레임)의 서브프레임들과 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)의 서브프레임을 이용하여 상술한 바와 같이 수정하고, 대상 프레임(n 번째 프레임)을 제거할 수 있다.
이 경우, 수식 10 내지 12에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
도 18은 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 또다른 예를 개략적으로 설명하는 도면이다.
도 18은 상기 (3)의 지터 버퍼 조절 방법이 적용되는 경우를 예로서 설명한다. 따라서, 제거되는 프레임(n 번째 프레임)의 이전 프레임에 속하는 서브프레임에 대한 복호화 파라미터는, 제거되는 프레임과 이전 프레임에 속하는 서브프레임들 중 서로 인접하는 두 서브프레임의 복호화 파리미터를 이용하여 수정될 수 있다.
복호화 파라미터는 두 서브프레임의 복호화 파라미터를 보간하여 생성되는 값으로 수정될 수 있다.
수식 15는 도 18의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 수정하는 방법을 나타낸 것이다.
<수식 15>
ISP n - 1 m 1 = 0.5 x ISP n -1 1 + 0.5 x ISP n -1 2
ISP n - 1 m 2 = 0.5 x ISP n -1 3 + 0.5 x ISP n -1 4
ISP n - 1 m 3 = 0.5 x ISP n 1 + 0.5 x ISP n 2
ISP n - 1 m 4 = 0.5 x ISP n 3 + 0.5 x ISP n 4
수식 15은 수식 5와 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 5와 상이하다.
수식 16은 도 18의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 피치 주기를 보간에 의해 수정하는 방법을 나타낸 것이다.
<수식 16>
P n - 1 m 1 = 0.5 x P n -1 1 + 0.5 x P n -1 2
P n - 1 m 2 = 0.5 x P n -1 3 + 0.5 x P n -1 4
P n - 1 m 3 = 0.5 x P n 1 + 0.5 x P n 2
P n - 1 m 4 = 0.5 x P n 3 + 0.5 x P n 4
수식 16은 수식 6과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 6과 상이하다.
수식 17는 도 17의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 복호화 파라미터 중 여기 신호 성분(FCB)을 보간하여 수정하는 방법을 나타낸 것이다.
<수식 17>
FCB n - 1 m 1 = 0.5 x FCB n -1 1 + 0.5 x FCB n -1 2
FCB n - 1 m 2 = 0.5 x FCB n -1 3 + 0.5 x FCB n -1 4
FCB n - 1 m 3 = 0.5 x FCB n 1 + 0.5 x FCB n 2
FCB n - 1 m 4 = 0.5 x FCB n 3 + 0.5 x FCB n 4
수식 17은 수식 7과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 7과 상이하다.
도 16의 예와 같이, 여기 신호의 경우에는 수정되는 서브프레임의 여기 신호 성분 중 전반 성분과 후반 성분을 수정 전 서브프레임들의 여기 신호 성분으로 각각 대체하는 방법을 적용할 수도 있다.
수식 18은 도 18의 예에 따른 음성 정보의 보상(음성 정보의 제거)에 의해, 여기 신호 성분을 두 서브프레임의 여기 신호 성분을 부분적으로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 18>
FCB n - 1 m 1 (k) = FCB n -1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n -1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n - 1 m 2 (k) = FCB n -1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n -1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n - 1 m 3 (k)= FCB n 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n - 1 m 4 (k)= FCB n 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n 4 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 18은 수식 8과 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 8과 상이하다.
또한, 복호화 파라미터 중 여기 신호 성분의 경우에는 수정되는 서브프레임의 여기 신호 성분을 여기 신호를 생성하는 트랙(track) 단위로 대체하는 방법을 적용할 수도 있다.
수식 19는 도 18의 예에 따른 음성 정보의 보상(음성 정보의 삭제)에 의해, 여기 신호 성분을 여기 신호 성분을 생성하는 트랙 단위별로 대체하여 생성한 값으로 수정하는 방법을 나타낸 것이다.
<수식 19>
FCB n- 1 m 1 (k) = FCB n-1 1 (k) (트랙 1 & 3) + FCB n-1 2 (k) (트랙 2 & 4)
FCB n - 1 m 2 (k) = FCB n-1 3 (k) (트랙 1 & 3) + FCB n-1 4 (k) (트랙 2 & 4)
FCB n m 3 (k)= FCB n 1 (k) (트랙 1 & 3) + FCB n 2 (k) (트랙 2 & 4)
FCB n m 4 (k)= FCB n 3 (k) (트랙 1 & 3) + FCB n 4 (k) (트랙 2 & 4)
수식 19는 수식 9와 동일한 방법으로 적용되며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 9와 상이하다.
도 18에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 제거 대상 프레임(n 번째 프레임)의 이전 프레임(n-1 번째 프레임)의 서브프레임들을 제거 대상 프레임(n 번째 프레임)의 서브프레임들과 제거 대상 프레임(n 번째 프레임)의 이후 프레임(n-1 번째 프레임)의 서브프레임을 이용하여 상술한 바와 같이 수정하고, 대상 프레임(n 번째 프레임)을 제거할 수 있다.
이 경우, 수식 15 내지 17에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
한편, 재생 요청을 수신한 경우에, 지터 버퍼는 음성 정보 생성에 관한 다음 4가지 음성 정보 보상 중 어느 하나를 수행할 수 있다:
(A) 프레임 단위로 서브프레임들을 생성해서 음성 신호를 신장하되, 인접한 두 프레임 중 뒤 프레임에 속하는 서브프레임들의 복호화 파라미터와 앞 프레임에 속하는 일부 서브프레임의 복호화 파라미터를 이용하여 새로운 서브프레임들의 복호화 파라미터를 생성.
(B) 프레임 단위로 서브프레임들을 생성해서 음성 신호를 신장하되, 인접한 두 프레임 중 앞 프레임에 속하는 서브프레임들의 복호화 파라미터와 뒤 프레임에 속하는 일부 서브프레임의 복호화 파라미터를 이용하여 새로운 서브프레임들의 복호화 파라미터를 생성.
(C) 프레임 단위로 서브프레임들을 생성해서 음성 신호를 신장하되, 인접한 두 프레임 중 앞 프레임에 속하는 일부 서브프레임들의 복호화 파라미터와 뒤 프레임에 속하는 일부 서브프레임들의 복호화 파라미터를 이용하여 새로운 서브프레임들의 복호화 파라미터를 생성.
(D) 프레임 단위로 서브프레임들을 생성해서 음성 신호를 신장하되, 인접한 두 프레임 중 앞 프레임에 속하는 서브프레임들의 복호화 파라미터와 뒤 프레임에 속하는 서브프레임들의 복호화 파라미터를 이용하여 새로운 서브프레임들의 복호화 파라미터를 생성.
상기 (A) 내지 (D)의 음성 정보 보상에 있어서, 새로운 서브프레임을 지터 버퍼 조절 전 인접하던 두 서브프레임의 사이에 생성되며, 새로운 서브프레임의 복호화 파라미터는 상기 인접하던 두 서브프레임의 복호화 파라미터를 이용하여 생성될 수 있다.
도 19는 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 또 다른 예를 개략적으로 설명하는 도면이다.
도 19에서는 상기 (A)의 음성 정보 보상이 적용되는 경우를 예로서 설명한다. 따라서, 생성되는 프레임(n 번째 프레임)의 이전 프레임(n-1 번째 프레임)에 속하는 일부 서브프레임의 복호화 파라미터와 이후 프레임(n+1 번째 프레임)에 속하는 서브프레임들의 복호화 파라미터를 이용하여, 생성되는 서브프레임들의 복호화 파라미터를 유도할 수 있다.
구체적으로 이전 프레임의 마지막 서브프레임(S4)과 이후 프레임의 첫 번째 서브프레임(S1) 사이에 새로운 서브프레임을 생성하고, 이후 프레임의 첫 번째 서브프레임(S1)과 이후 프레임의 두 번째 서브프레임(S2) 사이에 새로운 서브프레임을 생성하며, 이후 프레임의 두 번째 서브프레임(S2)과 이후 프레임의 세 번째 서브프레임(S3) 사이에 새로운 서브프레임을 생성하고, 이후 프레임의 세 번째 서브프레임(S3)과 이후 프레임의 마지막 서브프레임(S4) 사이에 새로운 서브프레임을 생성한다. 생성되는 서브프레임의 복호화 파라미터는 생성에 이용된 서브프레임들의 복호화 파라미터로부터 유도된다.
지터 버퍼는 생성된 서브프레임들을 프레임 단위로 묶어 새로운 프레임을 구성할 수 있다. 예컨대, 기존 서브프레임들 사이에 새로운 서브프레임들이 생성된 경우, 기존의 서브프레임과 새로운 서브프레밍들로 구성된 프레임을 설정할 수 있다.
수식 20은 도 19의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 20>
ISP n m 1 = 0.5 x ISP n -1 4 + 0.5 x ISP n +1 1
ISP n m 3 = 0.5 x ISP n +1 1 + 0.5 x ISP n +1 2
ISP n +1 m 1 = 0.5 x ISP n +1 2 + 0.5 x ISP n +1 3
ISP n +1 m 3 = 0.5 x ISP n +1 3 + 0.5 x ISP n +1 4
ISP 계수는 상술한 바와 같이 LPC 계수로부터 변환에 의해 유도될 수 있으며, LPC 계수는 ISP 계수로부터 변환에 의해 유도될 수 있다.
수식 21은 도 19의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 피치 주기를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 21>
P n m 1 = 0.5 x P n -1 4 + 0.5 x P n +1 1
P n m 3 = 0.5 x P n +1 1 + 0.5 x P n +1 2
P n +1 m 1 = 0.5 x P n +1 2 + 0.5 x P n +1 3
P n +1 m 3 = 0.5 x P n +1 3 + 0.5 x P n +1 4
피치 주기는 LTP(Long Term Prediction)-필터링, 피치 지연(래그), 코드북 게인 등을 복호화하여 얻어질 수 있다.
수식 22는 도 19의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 여기 신호의 성분을 보간하여 생성하는 방법을 나타낸 것이다.
<수식 22>
FCB n m 1 = 0.5 x FCB n -1 4 + 0.5 x FCB n +1 1
FCB n m 3 = 0.5 x FCB n +1 1 + 0.5 x FCB n +1 2
FCB n +1 m 1 = 0.5 x FCB n +1 2 + 0.5 x FCB n +1 3
FCB n +1 m 3 = 0.5 x FCB n +1 3 + 0.5 x FCB n +1 4
여기 신호는 고정 코드북(fixed codebook), 코드북 게인을 복호화하여 얻어질 수 있다.
한편, 여기 신호의 경우에는 보간에 의해 생성되지 않고, 생성되는 서브프레임에 대한 여기 신호 성분의 전반 성분과 후반 성분으로서 생성에 이용되는 서브프레임들의 여기 신호 성분을 이용하는 방법을 적용할 수도 있다.
수식 23은 도 19의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 생성되는 서브프레임에 대한 여기 신호 성분의 전반 성분과 후반 성분으로서 생성에 이용되는 서브프레임들의 여기 신호 성분을 이용하는 방법을 나타낸 것이다.
<수식 23>
FCB n m 1 (k) = FCB n -1 4 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 1 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 3 (k)= FCB n +1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 1 (k)= FCB n +1 2 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 3 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n + 1 m 3 (k)= FCB n +1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
또한, 복호화 파라미터 중 여기 신호 성분의 경우에는 생성에 이용되는 서브프레임의 여기 신호 성분들을 트랙(track) 단위로 이용하는 방법을 적용하여 여기 신호 성분을 생성할 수도 있다.
수식 24는 도 19의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 트랙 단위별로 기존 서브프레임의 여기 신호 성분을 이용하여 여기 신호 성분을 생성하는 방법을 나타낸 것이다.
<수식 24>
FCB n m 1 (k) = FCB n -1 4 (k) (트랙 1 & 3) + FCB n +1 1 (k) (트랙 2 & 4)
FCB n m 3 (k) = FCB n +1 1 (k) (트랙 1 & 3) + FCB n +1 2 (k) (트랙 2 & 4)
FCB n + 1 m 1 (k)= FCB n +1 2 (k) (트랙 1 & 3) + FCB n +1 3 (k) (트랙 2 & 4)
FCB n + 1 m 3 (k)= FCB n +1 3 (k) (트랙 1 & 3) + FCB n +1 4 (k) (트랙 2 & 4)
생성되는 서브프레임의 여기 신호 성분은 기존 두 서브프레임의 여기 신호 성분의 부분적인 합으로 구성된다. 이때, 생성되는 서브프레임의 여기 신호 성분은 파수 k가 속하는 트랙별로 해당 트랙에서의 여기 신호 값을 취하게 된다.
도 19에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 이전 프레임(n-1 번째 프레임)에서 하나의 서브프레임을 이용하고, 이후 프레임(n+1 번째 프레임)에서 L 개 서브프레임을 이용하여 상술한 바와 같이 프레임(n 번째 프레임)을 생성할 수 있다.
이 경우, 수식 20 내지 22에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
도 20은 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 또 다른 예를 개략적으로 설명하는 도면이다.
도 20에서는 상기 (B)의 음성 정보 보상이 적용되는 경우를 예로서 설명한다. 따라서, 생성되는 프레임(n 번째 프레임)의 이후 프레임(n+1 번째 프레임)에 속하는 일부 서브프레임의 복호화 파라미터와 이전 프레임(n-1 번째 프레임)에 속하는 서브프레임들의 복호화 파라미터를 이용하여, 생성되는 서브프레임들의 복호화 파라미터를 유도할 수 있다.
도 20의 예에서는 도 19의 예와 기본적으로 동일한 방법을 이용하되, 도 19의 예와는 상이한 서브프레임과 복호화 파라미터를 이용하여 서브프레임과 복호화 파라미터를 생성한다.
구체적으로 이전 프레임의 첫 번째 서브프레임(S1)과 이전 프레임의 두 번째 서브프레임(S2) 사이에 새로운 서브프레임을 생성하고, 이전 프레임의 두 번째 서브프레임(S2)과 이전 프레임의 세 번째 서브프레임(S3) 사이에 새로운 서브프레임을 생성하며, 이전 프레임의 세 번째 서브프레임(S3)과 이전 프레임의 마지막 서브프레임(S4) 사이에 새로운 서브프레임을 생성하고, 이전 프레임의 마지막 서브프레임(S4)과 이후 프레임의 첫 번째 서브프레임(S1) 사이에 새로운 서브프레임을 생성한다. 생성되는 서브프레임의 복호화 파라미터는 생성에 이용된 서브프레임들의 복호화 파라미터로부터 유도된다.
생성된 서브프레임들을 프레임 단위로 묶어 새로운 프레임을 구성할 수 있다. 예컨대, 기존 서브프레임들 사이에 새로운 서브프레임들이 생성된 경우, 기존의 서브프레임과 새로운 서브프레밍들로 구성된 프레임을 설정할 수 있다.
수식 25는 도 20의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 25>
ISP n -1 m 2 = 0.5 x ISP n -1 1 + 0.5 x ISP n -1 2
ISP n -1 m 4 = 0.5 x ISP n -1 2 + 0.5 x ISP n -1 3
ISP n m 2 = 0.5 x ISP n -1 3 + 0.5 x ISP n -1 4
ISP n m 4 = 0.5 x ISP n -1 4 + 0.5 x ISP n +1 1
수식 25는 수식 20과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 20과 상이하다.
수식 26은 도 20의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 피치 주기를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 26>
P n -1 m 2 = 0.5 x P n -1 1 + 0.5 x P n -1 2
P n -1 m 4 = 0.5 x P n -1 2 + 0.5 x P n -1 3
P n m 2 = 0.5 x P n -1 3 + 0.5 x P n -1 4
P n m 4 = 0.5 x P n -1 4 + 0.5 x P n +1 1
수식 26은 수식 21과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 21과 상이하다.
수식 27는 도 20의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 여기 신호의 성분을 보간하여 생성하는 방법을 나타낸 것이다.
<수식 27>
FCB n -1 m 2 = 0.5 x FCB n -1 1 + 0.5 x FCB n -1 2
FCB n -1 m 4 = 0.5 x FCB n -1 2 + 0.5 x FCB n -1 3
FCB n m 2 = 0.5 x FCB n -1 3 + 0.5 x FCB n -1 4
FCB n m 4 = 0.5 x FCB n -1 4 + 0.5 x FCB n +1 1
수식 27은 수식 22와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 22과 상이하다.
수식 28은 도 20의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 여기 신호의 경우에는 보간에 의해 생성되지 않고, 생성되는 서브프레임에 대한 여기 신호 성분 중 전반 성분과 후반 성분으로서 생성에 이용되는 서브프레임들의 여기 신호 성분을 이용하는 방법을 나타낸 것이다.
<수식 28>
FCB n -1 m 2 (k) = FCB n -1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n - 1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n -1 m 4 (k)= FCB n -1 2 (k)(k = 0 ~ 서브프레임/2)
= FCB n - 1 3 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 2 (k)= FCB n -1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n - 1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 4 (k)= FCB n -1 4 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 1 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 28은 수식 23과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 23과 상이하다.
수식 29는 도 20의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 트랙 단위별로 기존 서브프레임의 여기 신호 성분을 이용하여 여기 신호 성분을 생성하는 방법을 나타낸 것이다.
<수식 29>
FCB n -1 m 2 (k) = FCB n -1 1 (k) (트랙 1 & 3) + FCB n -1 2 (k) (트랙 2 & 4)
FCB n -1 m 4 (k) = FCB n -1 2 (k) (트랙 1 & 3) + FCB n -1 3 (k) (트랙 2 & 4)
FCB n m 2 (k)= FCB n -1 3 (k) (트랙 1 & 3) + FCB n -1 4 (k) (트랙 2 & 4)
FCB n m 4 (k)= FCB n -1 4 (k) (트랙 1 & 3) + FCB n +1 1 (k) (트랙 2 & 4)
수식 29는 수식 24와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 24와 상이하다.
도 20에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 음성 프레임이 L 개의 서브프레임으로 구성되는 경우라면, 이후 프레임(n+1 번째 프레임)에서 하나의 서브프레임을 이용하고, 이전 프레임(n-1 번째 프레임)에서 L 개 서브프레임을 이용하여 상술한 바와 같이 프레임(n 번째 프레임)을 생성할 수 있다.
이 경우, 수식 25 내지 27에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
도 21은 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 또 다른 예를 개략적으로 설명하는 도면이다.
도 21에서는 상기 (C)의 음성 정보 보상이 적용되는 경우를 예로서 설명한다. 따라서, 생성되는 프레임(n 번째 프레임)의 이전 프레임(n+1 번째 프레임)에 속하는 일부 서브프레임들과 이후 프레임(n-1 번째 프레임)에 속하는 일부 서브프레임들의 복호화 파라미터를 이용하여, 생성되는 서브프레임들의 복호화 파라미터를 유도할 수 있다.
도 21의 예에서는 도 19 내지 도 20의 예들과 기본적으로 동일한 방법을 이용하되, 도 19 내지 도 20의 예와는 상이한 서브프레임과 복호화 파라미터를 이용하여 서브프레임과 복호화 파라미터를 생성한다.
구체적으로 이전 프레임의 두 번째 서브프레임(S2)과 이전 프레임의 세 번째 서브프레임(S3) 사이에 새로운 서브프레임을 생성하고, 이전 프레임의 세 번째 서브프레임(S3)과 이전 프레임의 네 번째 서브프레임(S4) 사이에 새로운 서브프레임을 생성하며, 이후 프레임의 첫 번째 서브프레임(S1)과 이후 프레임의 두 번째 서브프레임(S2) 사이에 새로운 서브프레임을 생성하고, 이후 프레임의 2 번째 서브프레임(S3)과 이후 프레임의 세 번째 서브프레임(S4) 사이에 새로운 서브프레임을 생성한다. 생성되는 서브프레임의 복호화 파라미터는 생성에 이용된 서브프레임들의 복호화 파라미터로부터 유도된다.
지터 버퍼는 생성된 서브프레임들을 프레임 단위로 묶어 새로운 프레임을 구성할 수 있다. 예컨대, 기존 서브프레임들 사이에 새로운 서브프레임들이 생성된 경우, 기존의 서브프레임과 새로운 서브프레밍들로 구성된 프레임을 설정할 수 있다.
수식 30은 도 21의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 30>
ISP n -1 m 3 = 0.5 x ISP n -1 2 + 0.5 x ISP n -1 3
ISP n m 1 = 0.5 x ISP n -1 3 + 0.5 x ISP n -1 4
ISP n m 4 = 0.5 x ISP n +1 1 + 0.5 x ISP n +1 2
ISP n +1 m 2 = 0.5 x ISP n +1 2 + 0.5 x ISP n +1 3
수식 30은 수식 20과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 20과 상이하다.
수식 31은 도 21의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 피치 주기를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 31>
P n -1 m 3 = 0.5 x P n -1 2 + 0.5 x P n -1 3
P n m 1 = 0.5 x P n -1 3 + 0.5 x P n -1 4
P n m 4 = 0.5 x P n +1 1 + 0.5 x P n +1 2
P n +1 m 2 = 0.5 x P n +1 2 + 0.5 x P n +1 3
수식 31은 수식 21과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 21과 상이하다.
수식 32은 도 21의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 여기 신호의 성분을 보간하여 생성하는 방법을 나타낸 것이다.
<수식 32>
FCB n -1 m 3 = 0.5 x FCB n -1 2 + 0.5 x FCB n -1 3
FCB n m 1 = 0.5 x FCB n -1 3 + 0.5 x FCB n -1 4
FCB n m 4 = 0.5 x FCB n +1 1 + 0.5 x FCB n +1 2
FCB n +1 m 2 = 0.5 x FCB n +1 2 + 0.5 x FCB n +1 3
수식 32은 수식 22와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 22와 상이하다.
수식 33은 도 21의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 여기 신호의 경우에는 보간에 의해 생성되지 않고, 생성되는 서브프레임에 대한 여기 신호 성분 중 전반 성분과 후반 성분으로서 생성에 이용되는 서브프레임들의 여기 신호 성분을 이용하는 방법을 나타낸 것이다.
<수식 33>
FCB n - 1 m 3 (k) = FCB n -1 2 (k)(k = 0 ~ 서브프레임/2)
= FCB n - 1 3 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 1 (k)= FCB n -1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n -1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 4 (k)= FCB n +1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n +1 m 2 (k) = FCB n +1 2 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 3 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 33은 수식 23과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 23과 상이하다.
수식 34는 도 21의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 트랙 단위별로 기존 서브프레임의 여기 신호 성분을 이용하여 여기 신호 성분을 생성하는 방법을 나타낸 것이다.
<수식 34>
FCB n -1 m 3 (k) = FCB n -1 2 (k) (트랙 1 & 3) + FCB n -1 3 (k) (트랙 2 & 4)
FCB n m 1 (k) = FCB n -1 3 (k) (트랙 1 & 3) + FCB n -1 4 (k) (트랙 2 & 4)
FCB n m 4 (k)= FCB n +1 1 (k) (트랙 1 & 3) + FCB n +1 2 (k) (트랙 2 & 4)
FCB n +1 m 2 (k)= FCB n +1 2 (k) (트랙 1 & 3) + FCB n +1 3 (k) (트랙 2 & 4)
수식 34는 수식 24와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 24와 상이하다.
도 21에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 이후 프레임(n+1 번째 프레임)과 이전 프레임(n-1 번째 프레임)의 서브프레임들을 이용하여 상술한 바와 같이 프레임(n 번째 프레임)을 생성할 수 있다.
이 경우, 수식 30 내지 32에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
도 22는 복호화 파라미터 레벨에서 서브프레임 단위로 음성 정보의 보상을 수행하는 방법의 또 다른 예를 개략적으로 설명하는 도면이다.
도 22에서는 상기 (D)의 음성 정보 보상이 적용되는 경우를 예로서 설명한다. 따라서, 생성되는 프레임(n 번째 프레임)의 이전 프레임(n+1 번째 프레임)에 속하는 서브프레임들과 이후 프레임(n-1 번째 프레임)에 속하는 서브프레임들의 복호화 파라미터를 이용하여, 생성되는 서브프레임들의 복호화 파라미터를 유도할 수 있다.
도 22의 예에서는 도 19 내지 도 21의 예들과 기본적으로 동일한 방법을 이용하되, 도 19 내지 도 21의 예와는 상이한 서브프레임과 복호화 파라미터를 이용하여 서브프레임과 복호화 파라미터를 생성한다.
구체적으로 이전 프레임의 첫 번째 서브프레임(S1)과 이전 프레임의 두 번째 서브프레임(S2) 사이에 새로운 서브프레임을 생성하고, 이전 프레임의 세 번째 서브프레임(S3)과 이전 프레임의 네 번째 서브프레임(S4) 사이에 새로운 서브프레임을 생성하며, 이후 프레임의 첫 번째 서브프레임(S1)과 이후 프레임의 두 번째 서브프레임(S2) 사이에 새로운 서브프레임을 생성하고, 이후 프레임의 세 번째 서브프레임(S3)과 이후 프레임의 마지막 서브프레임(S4) 사이에 새로운 서브프레임을 생성한다. 생성되는 서브프레임의 복호화 파라미터는 생성에 이용된 서브프레임들의 복호화 파라미터로부터 유도된다.
지터 버퍼는 생성된 서브프레임들을 프레임 단위로 묶어 새로운 프레임을 구성할 수 있다. 예컨대, 기존 서브프레임들 사이에 새로운 서브프레임들이 생성된 경우, 기존의 서브프레임과 새로운 서브프레밍들로 구성된 프레임을 설정할 수 있다.
수식 35은 도 22의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 ISP 계수를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 35>
ISP n -1 m 2 =0.5 x ISP n -1 1 + 0.5 x ISP n -1 2
ISP n m 1 = 0.5 x ISP n -1 3 + 0.5 x ISP n -1 4
ISP n m 4 = 0.5 x ISP n +1 1 + 0.5 x ISP n +1 2
ISP n +1 m 3 = 0.5 x ISP n +1 3 + 0.5 x ISP n +1 4
수식 35은 수식 20와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 22와 상이하다.
수식 36은 도 22의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 피치 주기를 보간하여 생성하는 방법을 나타낸 것이다.
<수식 36>
P n -1 m 2 = 0.5 x P n -1 1 + 0.5 x P n -1 2
P n m 1 = 0.5 x P n -1 3 + 0.5 x P n -1 4
P n m 4 = 0.5 x P n +1 1 + 0.5 x P n +1 2
P n +1 m 3 = 0.5 x P n +1 3 + 0.5 x P n +1 4
수식 36은 수식 21과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 21과 상이하다.
수식 37은 도 22의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 복호화 파라미터 중 여기 신호의 성분을 보간하여 생성하는 방법을 나타낸 것이다.
<수식 37>
FCB n -1 m 2 = 0.5 x FCB n -1 1 + 0.5 x FCB n -1 2
FCB n m 1 = 0.5 x FCB n -1 3 + 0.5 x FCB n -1 4
FCB n m 4 = 0.5 x FCB n +1 1 + 0.5 x FCB n +1 2
FCB n +1 m 3 = 0.5 x FCB n +1 3 + 0.5 x FCB n +1 4
수식 37은 수식 22와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 22와 상이하다.
수식 38은 도 22의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 여기 신호의 경우에는 보간에 의해 생성되지 않고, 생성되는 서브프레임에 대한 여기 신호 성분 중 전반 성분과 후반 성분으로서 생성에 이용되는 서브프레임들의 여기 신호 성분을 이용하는 방법을 나타낸 것이다.
<수식 38>
FCB n -1 m 2 (k) = FCB n -1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n - 1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 1 (k)= FCB n -1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n -1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n m 4 (k)= FCB n +1 1 (k)(k = 0 ~ 서브프레임/2)
= FCB n + 1 2 (k)(k = 서브프레임/2 ~ 서브프레임)
FCB n +1 m 3 (k) = FCB n +1 3 (k)(k = 0 ~ 서브프레임/2)
= FCB n +1 4 (k)(k = 서브프레임/2 ~ 서브프레임)
수식 38은 수식 23과 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 24과 상이하다.
수식 39는 도 22의 예에 따른 음성 정보의 보상(음성 정보의 생성)에 의해, 트랙 단위별로 기존 서브프레임의 여기 신호 성분을 이용하여 여기 신호 성분을 생성하는 방법을 나타낸 것이다.
<수식 39>
FCB n -1 m 2 (k) = FCB n -1 1 (k) (트랙 1 & 3) + FCB n -1 2 (k) (트랙 2 & 4)
FCB n m 1 (k) = FCB n -1 3 (k) (트랙 1 & 3) + FCB n -1 4 (k) (트랙 2 & 4)
FCB n m 4 (k)= FCB n +1 1 (k) (트랙 1 & 3) + FCB n +1 2 (k) (트랙 2 & 4)
FCB n +1 m 3 (k)= FCB n +1 3(k) (트랙 1 & 3) + FCB n +1 4 (k) (트랙 2 & 4)
수식 39는 수식 24와 동일한 방법으로 적용될 수 있으며 다만, 수정되는 복호화 파라미터가 속하는 서브프레임과 이용되는 복호화 파라미터가 속하는 서브프레임이 수식 24와 상이하다.
도 22에서는 음성 프레임이 4 개의 서브프레임으로 구성되는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 이후 프레임(n+1 번째 프레임)의 서브프레임 및 복호화 파라미터와 이전 프레임(n-1 번째 프레임)의 서브프레임 및 복호화 파라미터를 이용하여 상술한 바와 같이 프레임(n 번째 프레임)을 생성할 수 있다.
이 경우, 수식 35 내지 37에서 설명한 보간도 p 개(2≤ p ≤ L)의 서브프레임(서브프레임의 복호화 파라미터)을 이용하여 수행될 수 있다. 이때, 보간의 필터 계수(평탄화 비율)은 두 서브프레임이 적용되는 경우의 0.5 대신 보간에 이용되는 서브프레임(서브프레임의 복호화 파라미터) 개수에 따라서 결정될 수 있다. 예컨대, p개의 서브프레임이 이용되는 경우라면, 평탄화 계수는 1/p로 결정될 수 있다.
한편, 상술한 설명에서는 LPC 계수와 관련된 복호화 파라미터로서 ISP 계수를 이용하는 경우를 예로서 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, ISP 계수에 대한 보간 방법은 앞서 ISP 계수와 함께 LSP 계수에 대하여도 동일하게 적용될 수 있으며, 주파수 영역으로의 변환을 고려하여 ISF 계수와 LSF 계수에도 적용될 수 있다.
상술한 예시들에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 예컨대, 상술한 실시형태들을 서로 조합하여 실시할 수도 있으며, 이 역시 본 발명에 따른 실시형태에 속한다. 본 발명은 이하의 특허청구범위 내에 속하는 본 발명의 기술적 사상에 따른 다양한 수정 및 변경을 포함한다.

Claims (18)

  1. 음성 정보 프레임을 수신하는 단계; 및
    상기 수신한 음성 정보 프레임을 기반으로 지터 버퍼 조절을 수행하는 단계를 포함하고,
    상기 지터 버퍼 조절은 음성 신호의 보상을 포함하며,
    상기 음성 신호의 보상은 상기 음성 정보 프레임의 서브 프레임 단위로 수행되되, 상기 음성 정보 프레임의 중요도에 기반하여 수행되며,
    상기 음성 정보 프레임의 중요도는,
    연속적인 무음 구간의 중간에 위치하는 음성 정보 프레임이 1순위이고, 단일 무음 구간에 위치하는 음성 정보 프레임이 2순위이고, 지터 버퍼 내 가장 앞쪽에 위치하는 음성 정보 프레임이 3순위인 것으로 정해지며,
    상기 1순위가 가장 낮은 중요도이고 상기 3순위가 가장 높은 중요도를 가지는 것을 특징으로 하는 지터 버퍼 관리 방법.
  2. 제1항에 있어서, 상기 음성 신호의 보상은,
    상기 음성 신호의 복호화 파라미터 레벨에서 수행되며,
    상기 복호화 파라미터 레벨은 비트스트림 레벨의 정보와 복원된 음성 신호의 정보 사이의 중간 레벨인 것을 특징으로 하는 지터 버퍼 관리 방법.
  3. 제1항에 있어서,
    상기 지터 버퍼 조절은 지터 버퍼의 사이즈 조절을 포함하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  4. 제1항에 있어서,
    상기 중요도가 낮은 순서대로 음성 신호 보상의 대상이 되는 것을 특징으로 하는 지터 버퍼 관리 방법.
  5. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는,
    제거 대상 프레임, 상기 제거 대상 프레임의 이전 프레임, 상기 제거 대상 프레임의 이후 프레임에 대하여,
    상기 제거 대상 프레임의 전반 서브프레임에 대한 복호화 파라미터들을 상기 이전 프레임의 후반 서브프레임에 대한 복호화 파라미터들로 대체하고,
    상기 제거 대상 프레임의 후반 서브프레임에 대한 복고화 파라미터들을 상기 이후 프레임의 전반 서브프레임에 대한 복호화 파라미터들로 대체하여 상기 제거 대상 프레임을 제거하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  6. 제1항에 대하여, 상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는,
    음성 신호 프레임을 구성하는 두 서브프레임에 대한 복호화 파라미터들을 보간하여 서브프레임의 새로운 복호화 파라미터를 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  7. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는,
    제거 대상 프레임, 상기 제거 대상 프레임의 이전 프레임인 제1 인접 프레임, 상기 제거 대상 프레임의 이후 프레임인 제2 인접 프레임에 대하여 음성 신호의 보상을 수행하여 보상된 제1 인접 프레임 및 보상된 제2 인접 프레임을 생성하되,
    상기 제1 인접 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 제1 인접 프레임의 후반 제1 서브프레임에 대한 복호화 파라미터를 생성하고,
    상기 제거 대상 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 제1 인접 프레임의 후반 제2 서브프레임에 대한 복호화 파라미터를 생성하며,
    상기 제거 대상 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 제2 인접 프레임의 전반 제1 서브프레임에 대한 복호화 파라미터를 생성하고,
    상기 제2 인접 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 제2 인접 프레임의 전반 제2 서브프레임에 대한 복호화 파라미터를 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  8. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는,
    제거 대상 프레임, 상기 제거 대상 프레임의 이전 프레임에 대하여 음성 신호의 보상을 수행하여 보상된 이전 프레임을 생성하되,
    상기 이전 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이전 프레임의 제1 서브프레임을 생성하고,
    상기 이전 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이전 프레임의 제2 서브프레임을 생성하며,
    상기 제거 대상 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이전 프레임의 제3 서브프레임을 생성하고,
    상기 제거 대상 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이전 프레임의 제4 서브프레임을 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  9. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 제거를 수행하는 경우에는,
    제거 대상 프레임, 상기 제거 대상 프레임의 이후 프레임에 대하여 음성 신호의 보상을 수행하여 보상된 이후 프레임을 생성하되,
    상기 제거 대상 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이후 프레임의 제1 서브프레임을 생성하고,
    상기 제거 대상 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이후 프레임의 제2 서브프레임을 생성하며,
    상기 이후 프레임의 전반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이후 프레임의 제3 서브프레임을 생성하고,
    상기 이후 프레임의 후반 서브프레임들에 대한 복호화 파라미터들의 보간에 의해 상기 보상된 이후 프레임의 제4 서브프레임을 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  10. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 생성을 수행하는 경우에는,
    음성 신호 프레임을 구성하는 두 서브프레임에 대한 복호화 파라미터들을 보간하여 새로운 서브프레임의 복호화 파라미터를 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  11. 제1항에 있어서, 상기 음성 신호의 보상으로서 프레임 생성을 수행하는 경우에는, 서브프레임 보간을 수행하며,
    상기 서브프레임 보간은,
    음성 신호 프레임을 구성하는 두 서브프레임 사이에 새로운 서브프레임을 생성하고,
    상기 두 서브프레임들에 대한 복호화 파라미터들을 보간하여 상기 새로운 서브프레임의 복호화 파라미터를 생성하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  12. 제11항에 있어서, 제1 프레임의 4 서브프레임들과 제2 서브프레임의 제1 서브프레임 중 인접한 서브프레임들로 구성되는 4 서브프레임 쌍들에 대하여 서브프레임 보간을 수행하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  13. 제11항에 있어서, 제1 프레임의 제4 서브프레임과 제2 프레임의 4 서브프레임 중 인접한 서브프레임들로 구성되는 4 서브 프레임 쌍들에 대하여 서브프레임 보간을 수행하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  14. 제11항에 있어서, 제1 프레임의 제2 및 제3 서브프레임, 제1 프레임의 제3 및 제4 서브프레임, 제2 프레임의 제1 및 제2 서브프레임, 제2 프레임의 제2 및 제3 서브프레임에 대하여 서브프레임 보간을 수행하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  15. 제11항에 있어서, 제1 프레임의 제1 및 제2 서브프레임, 제1 프레임의 제3 및 제4 서브프레임, 제2 프레임읠 제1 및 제2 서브프레임, 제2 프레임의 제3 및 제4 서브프레임에 대하여 서브프레임 보간을 수행하는 것을 특징으로 하는 지터 버퍼 관리 방법.
  16. 음성 정보 프레임을 수신하는 수신부;
    음성 정보 프레임을 저장 및 관리하는 버퍼부; 및
    음성 정보 프레임을 출력하는 출력부를 포함하며,
    상기 버퍼부는 상기 수신한 음성 정보 프레임의 서브프레임 단위로 음성 정보의 보상을 수행하되, 상기 음성 정보 프레임의 중요도에 기반하여 수행하며,
    상기 음성 정보 프레임의 중요도는,
    연속적인 무음 구간의 중간에 위치하는 음성 정보 프레임이 1순위이고, 단일 무음 구간에 위치하는 음성 정보 프레임이 2순위이고, 지터 버퍼 내 가장 앞쪽에 위치하는 음성 정보 프레임이 3순위인 것으로 정해지며,
    상기 1순위가 가장 낮은 중요도이고 상기 3순위가 가장 높은 중요도를 가지는 것을 특징으로 하는 지터 버퍼.
  17. 제16항에 있어서, 상기 버퍼부는 복호화 파라미터 레벨에서 상기 음성 정보의 보상을 수행하며,
    상기 복호화 파라미터 레벨은 비트스트림 레벨의 정보와 복원된 음성 신호의 정보 사이의 중간 레벨인 것을 특징으로 하는 지터 버퍼.
  18. 제16항에 있어서, 상기 버퍼부는 서로 다른 두 서브프레임의 복호화 파라미터를 보간하여 새로운 복호화 파라미터를 생성하는 것을 특징으로 하는 지터 버퍼.
KR1020147010210A 2011-10-20 2012-10-22 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼 KR102058714B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161549252P 2011-10-20 2011-10-20
US61/549,252 2011-10-20
US201261706053P 2012-09-26 2012-09-26
US61/706,053 2012-09-26
PCT/KR2012/008670 WO2013058626A2 (ko) 2011-10-20 2012-10-22 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼

Publications (2)

Publication Number Publication Date
KR20140085452A KR20140085452A (ko) 2014-07-07
KR102058714B1 true KR102058714B1 (ko) 2019-12-23

Family

ID=48141566

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147010210A KR102058714B1 (ko) 2011-10-20 2012-10-22 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼

Country Status (6)

Country Link
US (1) US9324336B2 (ko)
EP (1) EP2770504B1 (ko)
JP (1) JP5894286B2 (ko)
KR (1) KR102058714B1 (ko)
CN (1) CN103988255B (ko)
WO (1) WO2013058626A2 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110282980A1 (en) * 2010-05-11 2011-11-17 Udaya Kumar Dynamic protection of a resource during sudden surges in traffic
US9680689B2 (en) 2013-02-14 2017-06-13 Comcast Cable Communications, Llc Fragmenting media content
JP2014167525A (ja) 2013-02-28 2014-09-11 Mitsubishi Electric Corp 音声復号装置
US9313250B2 (en) * 2013-06-04 2016-04-12 Tencent Technology (Shenzhen) Company Limited Audio playback method, apparatus and system
PT3011564T (pt) 2013-06-21 2018-05-08 Fraunhofer Ges Forschung Escalonador de tempo, descodificador de áudio, método e programa de computador utilizando um controlo de qualidade
AU2014283320B2 (en) * 2013-06-21 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Jitter buffer control, audio decoder, method and computer program
US9521057B2 (en) * 2014-10-14 2016-12-13 Amazon Technologies, Inc. Adaptive audio stream with latency compensation
JP6531449B2 (ja) * 2015-03-20 2019-06-19 沖電気工業株式会社 音声処理装置、プログラム及び方法、並びに、交換装置
GB201614356D0 (en) * 2016-08-23 2016-10-05 Microsoft Technology Licensing Llc Media buffering
CN116631413A (zh) * 2017-01-10 2023-08-22 弗劳恩霍夫应用研究促进协会 音频解码器、提供解码的音频信号的方法、和计算机程序
CN109217975A (zh) * 2017-06-29 2019-01-15 大唐移动通信设备有限公司 一种数据处理方法和装置
CN107613320B (zh) * 2017-09-20 2019-09-06 高斯贝尔数码科技股份有限公司 一种传输流复用的插包控制方法及***
GB2571526A (en) 2018-02-28 2019-09-04 Sony Corp Data buffer and data buffer control
US11595316B2 (en) * 2018-06-01 2023-02-28 Apple Inc. Adaptive and seamless playback buffer adjustment for streaming content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268887A1 (en) 2006-05-19 2007-11-22 Zarick Schwartz Method and system for communicating and processing VOIP packets using a jitter buffer
WO2009010831A1 (en) * 2007-07-18 2009-01-22 Nokia Corporation Flexible parameter update in audio/speech coded signals

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2177413A1 (en) * 1995-06-07 1996-12-08 Yair Shoham Codebook gain attenuation during frame erasures
US6389032B1 (en) * 1999-02-11 2002-05-14 International Business Machines Corporation Internet voice transmission
DE60030069T2 (de) * 1999-11-23 2007-02-22 Texas Instruments Inc., Dallas Verschleierungsverfahren bei Verlust von Sprachrahmen
ATE388542T1 (de) * 1999-12-13 2008-03-15 Broadcom Corp Sprach-durchgangsvorrichtung mit sprachsynchronisierung in abwärtsrichtung
US7266127B2 (en) * 2002-02-08 2007-09-04 Lucent Technologies Inc. Method and system to compensate for the effects of packet delays on speech quality in a Voice-over IP system
CN100550821C (zh) * 2003-03-13 2009-10-14 华为技术有限公司 用于消除ip语音数据抖动的自适应抖动缓存实现方法
JP2005157045A (ja) 2003-11-27 2005-06-16 Matsushita Electric Ind Co Ltd 音声伝送方法
US7379466B2 (en) * 2004-04-17 2008-05-27 Innomedia Pte Ltd In band signal detection and presentation for IP phone
JP4146489B2 (ja) * 2004-05-26 2008-09-10 日本電信電話株式会社 音声パケット再生方法、音声パケット再生装置、音声パケット再生プログラム、記録媒体
JP4751245B2 (ja) 2006-06-20 2011-08-17 パナソニック株式会社 音声伝送装置および音声伝送方法
JP5121408B2 (ja) 2007-11-13 2013-01-16 株式会社タダノエンジニアリング ジャッキ付き作業機のジャッキに着脱される構造物の積み降ろし装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268887A1 (en) 2006-05-19 2007-11-22 Zarick Schwartz Method and system for communicating and processing VOIP packets using a jitter buffer
WO2009010831A1 (en) * 2007-07-18 2009-01-22 Nokia Corporation Flexible parameter update in audio/speech coded signals

Also Published As

Publication number Publication date
CN103988255A (zh) 2014-08-13
JP5894286B2 (ja) 2016-03-23
US9324336B2 (en) 2016-04-26
EP2770504B1 (en) 2016-11-30
EP2770504A2 (en) 2014-08-27
EP2770504A4 (en) 2015-08-05
WO2013058626A3 (ko) 2013-06-13
CN103988255B (zh) 2016-03-02
WO2013058626A2 (ko) 2013-04-25
KR20140085452A (ko) 2014-07-07
JP2014531055A (ja) 2014-11-20
US20140310008A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
KR102058714B1 (ko) 지터 버퍼 관리 방법 및 이를 이용하는 지터 버퍼
EP1886307B1 (en) Robust decoder
KR101238583B1 (ko) 비트 스트림 처리 방법
KR101246991B1 (ko) 오디오 신호 처리 방법
JP2003122400A (ja) 低ビットレートcelp符号化のための連続タイムワーピングに基づく信号の修正
WO2003085644A1 (en) Encoding device and decoding device
US11443751B2 (en) Phase reconstruction in a speech decoder
JP2002330075A (ja) サブバンドadpcm符号化方法、復号方法、サブバンドadpcm符号化装置、復号装置およびワイヤレスマイクロホン送信システム、受信システム
JP2002221994A (ja) 音声信号の符号列のパケット組立方法、装置及びパケット分解方法、装置並びにこれらの方法を実行するプログラム、プログラムを記録する記録媒体
KR20170003596A (ko) 음성 정보를 갖는 개선된 프레임 손실 보정
US10847172B2 (en) Phase quantization in a speech encoder
US7346503B2 (en) Transmitter and receiver for speech coding and decoding by using additional bit allocation method
KR20020071138A (ko) Celp 보코더의 처리 지연시간을 감소하기 위한 인코딩및 디코딩 블럭 구조 및 그 구조를 이용한 인코딩 및디코딩 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant