KR100590769B1 - 상호 부호화 장치 및 그 방법 - Google Patents

상호 부호화 장치 및 그 방법 Download PDF

Info

Publication number
KR100590769B1
KR100590769B1 KR1020030094422A KR20030094422A KR100590769B1 KR 100590769 B1 KR100590769 B1 KR 100590769B1 KR 1020030094422 A KR1020030094422 A KR 1020030094422A KR 20030094422 A KR20030094422 A KR 20030094422A KR 100590769 B1 KR100590769 B1 KR 100590769B1
Authority
KR
South Korea
Prior art keywords
frame
input
output
type
voice
Prior art date
Application number
KR1020030094422A
Other languages
English (en)
Other versions
KR20050062749A (ko
Inventor
김현우
이응돈
김도영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020030094422A priority Critical patent/KR100590769B1/ko
Priority to US10/866,122 priority patent/US20050136900A1/en
Publication of KR20050062749A publication Critical patent/KR20050062749A/ko
Application granted granted Critical
Publication of KR100590769B1 publication Critical patent/KR100590769B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • H04W88/181Transcoding devices; Rate adaptation devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

상호 부호화 장치 및 그 방법이 개시된다. 프레임 비교부는 송신측에서 사용하는 입력 프레임과 수신측에서 사용하는 출력 프레임의 길이를 비교한다. 프레임 결정부는 프레임의 길이를 기초로 출력 프레임에 대응되는 적어도 하나 이상의 입력 프레임을 결정하고 입력 프레임의 유형을 기초로 출력 프레임의 유형을 결정한다. 그리고, 프레임 변환부는 결정된 유형을 기초로 입력 프레임의 포맷을 출력 프레임의 포맷으로 변환한다. 이로써, VAD를 이용하여 부호화된 프레임을 다른 음성 코더의 포맷에 적합하도록 용이하게 변환할 수 있다.
프레임의 길이, 프레임의 유형, 프레임의 포맷, 변환

Description

상호 부호화 장치 및 그 방법{Transcoding Appratus and method}
도 1a는 본 발명에 따른 상호 부호화 장치의 일 실시예를 도시한 도면,
도 1b는 본 발명에 따른 상호 부호화 장치의 구성을 도시한 도면,
도 2는 송신측 음성 코더의 프레임 길이와 수신측 음성 코더의 프레임 길이가 동일한 경우에, 출력 프레임의 유형을 결정하는 방법을 도시한 도면,
도 3은 송신측 음성 코더의 프레임 길이가 수신측 음성 코더의 프레임 길이보다 긴 경우에, 출력 프레임의 유형을 결정하는 방법을 도시한 도면,
도 4는 송신측 음성 코더의 프레임 길이가 수신측 음성 코더의 프레임 길이보다 짧은 경우, 출력 프레임의 유형을 결정하는 방법을 도시한 도면, 그리고,
도 5는 본 발명에 따른 상호 부호화 방법의 흐름을 도시한 흐름도이다.
본 발명은 상호 부호화 장치 및 그 방법에 관한 것으로, 보다 상세하게는 VAD(Voice Activity Detection)를 이용하여 부호화된 프레임을 다른 음성 코더의 포맷에 맞도록 변환하는 상호 부호화 장치 및 그 방법에 관한 것이다.
디지털 기술에 의한 음성 전송은 보편화되었다. 이에 따라 합성된 음성의 인 식 품질을 유지하면서 채널을 통해 송신되는 정보의 양을 최소화하는데 관심이 높아졌다. 음성을 단순히 샘플링, 양자화를 수행하여 전송하는 경우 종래의 전화 음질을 달성하기 위해서는 64Kbps의 데이터 전송률이 필요하다.
그러나, 다양한 음성 처리 방식의 도입으로 인해, 송신측에서 적절한 코딩과 수신측에서 합성을 수행하여 정보의 양을 감소시킬 수 있다. 음성을 압축하는 기술을 사용하는 장치를 음성 코더(coder)라 한다. 음성 코더는 입력신호를 타임블록으로 나누어 분석하여 파라미터를 추출하는 인코더(encoder), 채널을 통해 전달된 파라미터로부터 음성을 재합성하는 디코더(decoder)로 구성된다.
또한 음성 코더는 대역폭을 절약하고 전력을 감소시키기 위해 매 프레임마다 음성 신호와 비음성 신호를 식별하는 VAD(Voice Activity Detection)를 사용하기도 한다. VAD를 사용하는 보통의 음성 코더 시스템은 매 프레임마다 데이터를 전송하는 것이 아니라 주기적 또는 비주기적으로 데이터를 전송하는 DTX(Discrete Transmission) 시스템이다.
이러한 음성 코더의 종류는 매우 다양한다. 서로 다른 포맷을 사용하는 통신 시스템이 상호 운용되기 위해서는 하나의 부호화 포맷으로부터 다른 부호화 포맷으로 변환시키는 것이 필요하다. 즉, 하나의 부호화기에서 부호화된 비트열을 다른 음성 부호화의 비트열로 바꾸어주는 음성 상호 부호화 과정이 필요하다.
음성 상호 부호화 방법으로는 하나의 부호화된 비트열을 복호화한 후 상대편 부호화기로 다시 부호화하는 tandem 방법이 있다. 음성 상호 부호화 과정에서의 많은 계산량 및 음질 저하로 인해 직접 파라미터를 변환하는 tandemless 방법도 있 다. 그러나, 종래의 tandemless 방법들은 VAD를 고려하지 않는 음성 부호화기 사이에서 사용된다.
VAD 과정을 거치면 부호화기의 프레임은 음성 구간과 비음성 구간으로 구분된다. 음성 구간에서는 매 프레임마다 전송을 하지만 비음성 구간에서는 최소의 전송량으로 실제 배경잡음과 유사하도록 하기 위하여 부분적으로 SID(Silence Insertion Descriptor)를 전송한다. 부호화된 프레임의 유형은 음성, SID, SID가 아닌 비음성(이하, '비음성'이라고 함)으로 구분된다. VAD를 이용하는 음성 코더 사이의 상호 부호화 과정을 거칠 때 하나의 프레임 유형이 다른 부호화 포맷에서는 어떠한 유형으로 변환되는지 정할 필요가 있지만 종래에는 어떠한 방법도 제공하지 않고 있다.
본 발명이 이루고자 하는 기술적 과제는, VAD를 사용하는 음성 부호화 시스템 사이에서 상호운용성(interoperability)를 제공하기 위하여, 프레임이 상호 부호화 과정에서 다른 포맷으로 변환될 때 프레임의 유형을 결정하는 상호 부호화 장치 및 그 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 상호 부호화 장치의 일 실시예는, 송신측에서 사용하는 입력 프레임과 수신측에서 사용하는 출력 프레임의 길이를 비교하는 프레임 비교부; 상기 길이를 기초로 출력 프레임에 대응되는 적어도 하나 이상의 입력 프레임을 결정하고 상기 대응되는 입력 프레임의 유형을 기초로 상기 출력 프레임의 유형을 결정하는 프레임 결정부; 및 상기 결정된 유형을 기초로 상기 입력 프레임의 포맷을 상기 출력 프레임의 포맷으로 변환하는 프레임 변환부;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 상호 부호화 방법의 일 실시예는, 송신측에서 사용하는 입력 프레임과 수신측에서 사용하는 출력 프레임의 길이를 비교하는 단계; 상기 길이를 기초로 출력 프레임에 대응되는 적어도 하나 이상의 입력 프레임을 결정하고 상기 대응되는 입력 프레임의 유형을 기초로 상기 출력 프레임의 유형을 결정하는 단계; 및 상기 결정된 유형을 기초로 상기 입력 프레임의 포맷을 상기 출력 프레임의 포맷으로 변환하는 단계;를 포함한다.
이로써, VAD를 이용하여 부호화된 프레임을 다른 음성 코더의 포맷에 적합하도록 용이하게 변환할 수 있다.
이하에서, 첨부된 도면들을 참조하여 본 발명에 따른 상호 부호화 장치 및 그 방법에 관해 상세히 설명한다.
도 1a는 본 발명에 따른 상호 부호화 장치의 일 실시예를 도시한 도면이다.
도 1a를 참조하면, 본 발명에 따른 상호 부호화 장치(100)는 음성 코더(110,120) 사이에서 프레임의 포맷을 상호 변환한다. 즉, 상호 부호화 장치(100)는 VAD(Voice Activity Detection)를 사용하는 음성 코더(110,120) 사이에서 입력으로 들어온 프레임의 유형에 따라 출력 프레임의 유형을 결정하고, 결정된 유형을 기초로 입력 프레임의 포맷을 출력 프레임의 포맷으로 변환한다.
음성 코더(110,120)는 입력 음성 신호를 타임블록으로 나누어 분석하여 파라 미터를 추출하는 인코더(encoder)(112,122), 채널을 통해 전달된 파라미터로부터 음성을 재합성하는 디코더(decoder)(114,124)로 구성된다.
VAD 사용하는 음성 코더(110,120)의 프레임은 음성 구간과 비음성 구간으로 구분된다. 음성 구간에서는 매 프레임마다 전송을 하지만 비음성 구간에서는 최소의 전송량으로 실제 배경잡음과 유사하도록 하기 위하여 부분적으로 SID(Silence Insertion Descriptor)를 전송한다. 따라서, 음성 부호화기에서 부호화된 프레임의 유형은 음성, SID, SID가 아닌 비음성(이하, '비음성'이라고 함)으로 구분된다.
도 1b는 본 발명에 따른 상호 부호화 장치의 구성을 도시한 도면이다.
도 1b를 참조하면, 본 발명에 따른 상호 부호화 장치(100)는 프레임 비교부(150), 프레임 결정부(160) 및 프레임 변환부(170)로 구성된다.
프레임 비교부(150)는 송신측 음성 코더(110)에서 사용하는 프레임(이하, '입력 프레임'이라 함)의 길이와 수신측 음성 코더(120)에서 사용하는 프레임(이하, '출력 프레임'이라 함)의 길이를 비교한다. VAD를 이용하는 송수신측 음성 코더(110,120)의 프레임 유형은 음성, SID 또는 비음성이다.
프레임 결정부(160)는 입력 프레임과 출력 프레임의 길이를 비교한 결과 및 입력 프레임의 유형을 기초로 출력 프레임의 유형을 결정한다. 음성 코더(110,120)는 각각의 종류에 따라 서로 다른 프레임 길이를 갖는다. 따라서, 송신측 음성 코더(110)의 프레임 길이와 수신측 음성 코더(120)의 프레임 길이가 동일한 경우 및 상이한 경우에 따라 출력 프레임에 대응되는 입력 프레임의 수가 달라진다.
따라서, 프레임 결정부(160)는 프레임 비교부(150)에 의한 길이 비교 값을 기초로 출력 프레임에 대응되는 입력 프레임의 수를 결정한다. 그리고 프레임 결정부(160)는 출력 프레임에 두 개 이상의 입력 프레임이 대응되는 경우에, 대응되는 각각의 입력 프레임의 유형(음성,SID,비음성) 중 우선 순위가 높은 유형을 출력 프레임의 유형으로 결정한다. 프레임 유형의 우선순위는 음성, SID, 비음성의 순이다.
이하에서, 도 2 내지 도 4를 참조하여 송신측 음성 코더(110)의 프레임 유형을 기초로 수신측 음성 코더(120)의 출력 프레임 유형을 어떻게 결정하는지를, 입력 프레임과 출력 프레임의 길이가 동일한 경우(도 2), 입력 프레임의 길이가 출력 프레임의 길이보다 긴 경우(도 3) 및 입력 프레임의 길이가 출력 프레임의 길이보다 짧은 경우(도 4)로 나누어 살펴본다.
도 2는 송신측 음성 코더(110)의 프레임 길이와 수신측 음성 코더(120)의 프레임 길이가 동일한 경우 출력 프레임의 유형을 결정하는 방법을 도시한 도면이다.
도 2를 참조하면, 송신측 음성 코더(110)의 입력 프레임(210,220,230) 길이와 수신측 음성 코더(120)의 출력 프레임(215,225,235) 길이는 동일하다. 이 경우에, 상호 부호화 장치(200)의 프레임 비교부(150)는 입력 프레임(210,220,230)과 출력 프레임(215,225,235)의 길이를 비교하여 길이가 동일하다는 것을 파악한다. 그리고 상호 부호화 장치(200)의 프레임 결정부(160)는 입력 프레임(210,220,230)과 출력 프레임(215,225,235)을 일대일 대응시키고 입력 프레임의 유형을 출력 프레임의 유형으로 결정한다.
즉, 입력 프레임(210)의 유형이 음성이면 출력 프레임(215)의 유형을 음성으 로 결정하고, 입력 프레임(220)의 유형이 SID이면 출력 프레임(225)의 유형을 SID로 결정하며, 입력 프레임(230)의 유형이 비음성이면 출력 프레임(235)의 유형을 비음성으로 결정한다.
상호 부호화 장치(200)의 프레임 변환부(170)는 결정된 유형을 기초로 입력 프레임(210,220,230)의 포맷을 출력 프레임(215,225,235)의 포맷으로 변환한다. 즉 프레임 변환부(170)는 입력 프레임(210,220,230)의 포맷을 수신측 음성 코더의 파라미터(LSP 또는 ISP, 피치, 이득 값 등)형태로 변환시킨다.
도 3은 송신측 음성 코더의 프레임 길이가 수신측 음성 코더의 프레임 길이보다 긴 경우 출력 프레임의 유형을 결정하는 방법을 도시한 도면이다.
도 3을 참조하면, 입력 프레임(310,330,350)의 길이는 출력 프레임(320,340,360)의 길이보다 길다. 음성 부호화 장치(300)의 프레임 비교부(150)는 입력 프레임(310,330,350)의 길이와 출력 프레임(320,340,360)의 길이를 비교하여 입력 프레임의 길이가 출력 프레임의 길이보다 길다는 것을 파악한다. 입력 프레임(310,330,350)의 길이가 출력 프레임(320,340,360)의 길이보다 긴 경우에, 출력 프레임은 적어도 하나 이상의 입력 프레임과 대응된다. 입력 프레임과 출력 프레임을 시간적으로 대조해보면 출력 프레임은 입력의 한 프레임에 포함되거나 연속하는 두 개의 입력프레임의 각각의 일부분과 겹치는 경우가 발생한다. 즉, 출력 프레임은 입력 프레임의 일부분과 대응되며, 적어도 두개 이상의 입력 프레임의 일부분들과 대응되는 경우가 있다.
출력 프레임이 두 개 이상의 입력 프레임의 일부분들과 대응되는 경우에, 상 호 부호화 장치(300)의 프레임 결정부(160)는 대응되는 입력 프레임들의 유형 중 우선순위가 높은 유형을 출력 프레임의 유형으로 결정한다. 출력 프레임이 하나의 입력 프레임의 일부분과 대응되는 경우에, 프레임 결정부는 대응되는 입력 프레임의 유형을 출력 프레임의 유형으로 결정한다.
예를 들어, 두 개의 연속하는 입력 프레임(312,314)의 유형이 각각 음성, SID이고 두 개의 연속하는 입력 프레임(312,314)에 대응하는 세 개의 연속하는 출력 프레임(322,324,326)이 존재한다. 이 때, 연속하는 출력 프레임들(322,324,326) 중 첫 번째 출력 프레임(322)은 연속하는 입력 프레임들(312,314) 중 첫 번째 입력 프레임(312)의 일부분과 대응되고, 두 번째 출력 프레임(324)은 첫 번째 입력 프레임(312)의 일부 및 두 번째 입력 프레임(314)의 일부분과 대응된다. 그리고, 세 번째 출력 프레임(326)은 두 번째 입력 프레임(314)의 일부분과 대응된다.
따라서, 첫 번째 출력 프레임(322)과 대응되는 입력 프레임(312)의 수는 하나이므로, 상호 부호화 장치(300)의 프레임 결정부(160)는 대응되는 첫 번째 입력 프레임(312)의 유형인 음성을 첫 번째 출력 프레임(322)의 유형으로 결정한다. 두 번째 출력 프레임(324)과 대응되는 입력 프레임(312,314)의 수는 두 개이고 각각의 입력 프레임(312,314)의 유형은 음성과 SID이다. 이 경우에 유형의 우선순위는 음성이 SID보다 높다. 그래서, 상호 부호화 장치(300)의 프레임 결정부(160)는 첫 번째 입력 프레임(312)의 유형인 음성을 두 번째 출력 프레임(324)의 유형으로 결정한다. 세 번째 출력 프레임(326)과 대응되는 입력 프레임(314)의 수는 하나이므로, 상호 부호화 장치(300)의 프레임 결정부(160)는 대응되는 두 번째 입력 프레임(314)의 유형인 SID를 세 번째 출력 프레임(326)의 유형으로 결정한다.
출력 프레임(344)이 두 개의 입력 프레임(332,334)의 일부분과 대응되고, 대응되는 각각의 입력 프레임(332,334)의 유형이 각각 SID 및 비음성이면, 상호 부호화 장치(300)의 프레임 결정부(160)는 우선순위가 높은 SID 유형을 출력 프레임(344)의 유형으로 결정한다.
또한, 출력 프레임(364)이 두 개의 입력 프레임(352,354)의 일부부과 대응되고, 대응되는 각각의 입력 프레임(352,354)의 유형이 각각 음성 및 비음성이면, 상호 부호화 장치(300)의 프레임 결정부(160)는 우선순위가 높은 음성을 출력 프레임(364)의 유형으로 결정한다.
도 4는 송신측 음성 코더의 프레임 길이가 수신측 음성 코더의 프레임 길이보다 짧은 경우 출력 프레임의 유형을 결정하는 방법을 도시한 도면이다.
도 4를 참조하면, 입력 프레임의 길이(410,430)는 출력 프레임(420,440)의 길이보다 짧다. 음성 부호화 장치(400)의 프레임 비교부(150)는 입력 프레임(410,430)의 길이와 출력 프레임(420,440)의 길이를 비교하여 입력 프레임(410,430)의 길이가 출력 프레임(420,440)의 길이보다 짧다는 것을 파악한다. 입력 프레임의 길이가 출력 프레임의 길이보다 짧기 때문에, 출력 프레임은 적어도 하나 이상의 입력 프레임과 대응된다.
출력 프레임과 대응되는 입력 프레임이 두 개 이상이 경우에, 상호 부호화 장치(400)의 프레임 결정부(160)는 대응되는 각각의 입력 프레임의 유형 중 우선 순위가 높은 유형을 출력 프레임의 유형으로 결정한다.
예를 들어, 연속하는 입력 프레임들(401 내지 406)의 유형이 각각 음성, SID, 비음성, 비음성, 음성 및 비음성이고, 연속하는 출력 프레임(422 내지 428) 중 첫 번째 출력 프레임(422)은 첫 번째 및 두 번째 입력 프레임(401,402)과 대응한다. 그리고, 두 번째 출력 프레임(424)은 두 번째 및 세 번째 입력 프레임(402,403)과 대응한다. 세 번째 출력 프레임(426)은 네 번째 및 다섯 번째 입력 프레임(404,405)과 대응되고, 네 번째 출력 프레임(428)은 다섯 번째 및 여섯 번째 입력 프레임(405,406)과 대응된다.
따라서, 상호 부호화 장치(400)의 프레임 결정부(160)는 첫 번째 출력 프레임(422)과 대응되는 입력 프레임들(401,402) 중 우선순위가 높은 음성 유형을 출력 프레임(422)의 유형으로 결정한다. 상호 부호화 장치(400)의 프레임 결정부(160)는 이 외의 출력 프레임들(424,426,428)과 대응되는 입력 프레임들의 유형 중 우선순위가 높은 유형을 각각의 출력 프레임의 유형으로 결정한다.
다만, 예외적으로 출력 프레임(444)이 두 개의 입력 프레임(432,433)과 대응되고 각각의 입력 프레임(432,434)의 유형이 음성과 SID인 경우에, 출력 프레임(444)의 유형은 우선순위에 따라 음성으로 결정되지만, 연속하는 다음 출력 프레임(446)의 유형의 우선순위 결정에 따라 비음성으로 판단되면 이전의 SID 유형을 출력 프레임(446)의 유형으로 결정한다.
도 5는 본 발명에 따른 상호 부호화 방법의 흐름을 도시한 흐름도이다.
도 5를 참조하면, 프레임 비교부(150)는 송신측 음성 코더에서 사용하는 프레임과 수신측 음성 코더에서 사용하는 프레임의 길이를 비교한다(S500).
프레임 결정부(160)는 입력 프레임과 출력 프레임의 길이 비교 결과를 기초로 출력 프레임에 대응되는 입력 프레임을 결정한다(S510). 출력 프레임과 입력 프레임의 길이가 동일하면, 출력 프레임은 입력 프레임과 일대일 대응된다. 그리고, 출력 프레임과 입력 프레임의 길이가 상이하면, 출력 프레임은 두 개이상의 입력 프레임과 대응된다.
출력 프레임과 대응되는 입력 프레임의 수가 두 개 이상이면, 프레임 결정부(160)는 대응되는 입력 프레임의 각각의 유형 중 우선순위가 높은 유형을 출력 프레임의 유형으로 결정한다(S510).
프레임 변환부(170)는 결정된 유형을 기초로 입력 프레임의 포맷을 출력 프레임의 포맷으로 변환한다(S520).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본 질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명에 따르면, VAD를 이용하여 부호화된 입력 프레임이 다른 음성 코더의 포맷으로 상호부호화할 때, 입력 프레임의 유형을 이용하여 출력 프레임의 유형을 용이하게 결정할 수 있다. 또한, 본 발명의 구현이 용이하며, 메모리 계산량을 감소시킨다.

Claims (8)

  1. 삭제
  2. 송신측에서 사용하는 입력 프레임과 수신측에서 사용하는 출력 프레임의 길이를 비교하는 프레임 비교부;
    상기 길이를 기초로 출력 프레임에 대응되는 적어도 하나 이상의 입력 프레임을 결정하고 상기 대응되는 입력 프레임이 적어도 두 개 이상인 경우에, 상기 대응되는 각각의 입력 프레임의 유형들 중 우선순위가 높은 것을 상기 출력 프레임의 유형으로 결정하는 프레임 결정부; 및
    상기 결정된 유형을 기초로 상기 입력 프레임의 포맷을 상기 출력 프레임의 포맷으로 변환하는 프레임 변환부;를 포함하는 것을 특징으로 하는 상호부호화장치.
  3. 제 2항에 있어서,
    상기 프레임 결정부는 음성, SID 및 비음성 유형의 순으로 우선순위를 부여하는 것을 특징으로 하는 상호부호화장치.
  4. 제 2항 또는 제 3항에 있어서,
    상기 프레임 결정부는 상기 입력 프레임의 길이와 상기 출력 프레임의 길이가 동일하면 상기 출력 프레임과 상기 입력 프레임이 일대일 대응되도록 결정하는 것을 특징으로 하는 상호부호화장치.
  5. 제 2항 또는 제 3항에 있어서,
    상기 프레임 결정부는 상기 입력 프레임의 길이와 상기 출력 프레임의 길이가 상이하면 상기 출력 프레임은 적어도 하나 이상의 입력 프레임과 대응되도록 결정하는 것을 특징으로 하는 상호부호화장치.
  6. 삭제
  7. 송신측에서 사용하는 입력 프레임과 수신측에서 사용하는 출력 프레임의 길이를 비교하는 프레임 비교 단계;
    상기 길이를 기초로 출력 프레임에 대응되는 적어도 하나 이상의 입력 프레임을 결정하고 상기 대응되는 입력 프레임이 적어도 두 개 이상인 경우에, 상기 대응되는 각각의 입력 프레임의 유형들 중 우선순위가 높은 것을 상기 출력 프레임의 유형으로 결정하는 프레임 결정단계; 및
    상기 결정된 유형을 기초로 상기 입력 프레임의 포맷을 상기 출력 프레임의 포맷으로 변환하는 프레임 변환단계;를 포함하는 것을 특징으로 하는 상호부호화방법..
  8. 제 7항에 있어서,
    상기 프레임 결정 단계는 음성, SID 및 비음성 유형의 순으로 우선순위를 부여하는 것을 특징으로 하는 상호부호화방법.
KR1020030094422A 2003-12-22 2003-12-22 상호 부호화 장치 및 그 방법 KR100590769B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020030094422A KR100590769B1 (ko) 2003-12-22 2003-12-22 상호 부호화 장치 및 그 방법
US10/866,122 US20050136900A1 (en) 2003-12-22 2004-06-10 Transcoding apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030094422A KR100590769B1 (ko) 2003-12-22 2003-12-22 상호 부호화 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20050062749A KR20050062749A (ko) 2005-06-27
KR100590769B1 true KR100590769B1 (ko) 2006-06-15

Family

ID=34675899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030094422A KR100590769B1 (ko) 2003-12-22 2003-12-22 상호 부호화 장치 및 그 방법

Country Status (2)

Country Link
US (1) US20050136900A1 (ko)
KR (1) KR100590769B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1657888A1 (en) * 2004-11-16 2006-05-17 Abb Research Ltd. Reception of redundant and non-redundant frames
US7873513B2 (en) * 2007-07-06 2011-01-18 Mindspeed Technologies, Inc. Speech transcoding in GSM networks
US8452591B2 (en) * 2008-04-11 2013-05-28 Cisco Technology, Inc. Comfort noise information handling for audio transcoding applications

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4518714B2 (ja) * 2001-08-31 2010-08-04 富士通株式会社 音声符号変換方法

Also Published As

Publication number Publication date
US20050136900A1 (en) 2005-06-23
KR20050062749A (ko) 2005-06-27

Similar Documents

Publication Publication Date Title
US7092875B2 (en) Speech transcoding method and apparatus for silence compression
JP5343098B2 (ja) スーパーフレーム構造のlpcハーモニックボコーダ
US6721712B1 (en) Conversion scheme for use between DTX and non-DTX speech coding systems
WO2008148321A1 (fr) Appareil de codage et de décodage et procédé de traitement du bruit de fond et dispositif de communication utilisant cet appareil
US7142559B2 (en) Packet converting apparatus and method therefor
US8380495B2 (en) Transcoding method, transcoding device and communication apparatus used between discontinuous transmission
US6029127A (en) Method and apparatus for compressing audio signals
CA2293165A1 (en) Method for transmitting data in wireless speech channels
KR100460109B1 (ko) 음성패킷 변환을 위한 lsp 파라미터 변환장치 및 방법
US20060149536A1 (en) SID frame update using SID prediction error
JP3722366B2 (ja) パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム
KR100796836B1 (ko) 코드 변환 방법, 장치 및 이 방법을 실행하는 컴퓨터용 프로그램이 기록된 기록 매체
KR100590769B1 (ko) 상호 부호화 장치 및 그 방법
JPH1049199A (ja) 無音圧縮音声符号化復号化装置
US9990932B2 (en) Processing in the encoded domain of an audio signal encoded by ADPCM coding
KR20010087393A (ko) 폐루프 가변-레이트 다중모드 예측 음성 코더
US7584096B2 (en) Method and apparatus for encoding speech
JPH0236628A (ja) 音声信号の送信方式及び送受信方式
Ding Wideband audio over narrowband low-resolution media
JP2797348B2 (ja) 音声符号化・復号化装置
JP3496618B2 (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法
US20050015243A1 (en) Apparatus and method for converting pitch delay using linear prediction in speech transcoding
JPH09172413A (ja) 可変レート音声符号化方式
JP4871420B2 (ja) 符号化方法、符号化装置、復号方法、復号装置及びプログラム
JPS63231500A (ja) 音声符号化方式

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130527

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 18